Pregunta

Quiero extraer de una página web todas las URL ¿cómo puedo hacer eso con nokogiri?

ejemplo:

<div class="heat">
   <a href='http://example.org/site/1/'>site 1</a>
   <a href='http://example.org/site/2/'>site 2</a>
   <a href='http://example.org/site/3/'>site 3</a>
</diV>

resultado debe ser una lista:

l = ['http://example.org/site/1/', 'http://example.org/site/2/', 'http://example.org/site/3/'

¿Fue útil?

Solución

Puede hacerlo de esta manera:

doc = Nokogiri::HTML.parse(<<-HTML_END)
<div class="heat">
   <a href='http://example.org/site/1/'>site 1</a>
   <a href='http://example.org/site/2/'>site 2</a>
   <a href='http://example.org/site/3/'>site 3</a>
</div>
<div class="wave">
   <a href='http://example.org/site/4/'>site 4</a>
   <a href='http://example.org/site/5/'>site 5</a>
   <a href='http://example.org/site/6/'>site 6</a>
</div>
HTML_END

l = doc.css('div.heat a').map { |link| link['href'] }

Esta solución busca todos los elementos de anclaje utilizando un selector CSS y recoge sus atributos href.

Otros consejos

Este código funciona bien, perfecto para mí, gracias a los IRS

p doc.xpath('//div[@class="heat"]/a').map { |link| link['href'] }
Licenciado bajo: CC-BY-SA con atribución
No afiliado a StackOverflow
scroll top