すべてのURLをWebページから抽出したいのですが、nokogiriでそれを行うにはどうすればよいですか?
例:
<div class = "heat"> <a href='http://example.org/site/1/'> site 1 </a> <a href = 'http://example.org/site/2/'> site 2 </a> <a href='http://example.org/site/3/'> site 3 < /a> </diV>
結果はリストである必要があります:
l = ['http://example.org/site/1/', 'http://example.org/site/2/', 'http://example.org/site/3/'
あなたはこのようにそれを行うことができます:
doc = Nokogiri::HTML.parse(<<-HTML_END)
<div class="heat">
<a href='http://example.org/site/1/'>site 1</a>
<a href='http://example.org/site/2/'>site 2</a>
<a href='http://example.org/site/3/'>site 3</a>
</div>
<div class="wave">
<a href='http://example.org/site/4/'>site 4</a>
<a href='http://example.org/site/5/'>site 5</a>
<a href='http://example.org/site/6/'>site 6</a>
</div>
HTML_END
l = doc.css('div.heat a').map { |link| link['href'] }
このソリューションは、CSSセレクターを使用してすべてのアンカー要素を見つけ、それらのhref属性を収集します。
わかりました。srisのおかげで、このコードは私にとって完璧に機能します
p doc.xpath( '// div [@ class = "heat"]/a')。map {|リンク| link ['href']}