🤖 Web Scraping Responsable amb Robots.txt i Exportació a CSV

 

En aquest vídeo descobrim què és el fitxer robots.txt, com interpretar-lo i per què és essencial respectar-lo si fem Web Scraping.
📜 Robots.txt indica quines parts d’un lloc web es poden explorar automàticament i quines no.

A més, veurem com modificar el codi de scraping per recollir els títols i URLs d’articles i guardar-los en un fitxer CSV. Tot amb Python i BeautifulSoup!


📌 Què aprendràs?

✅ Què és i com llegir el fitxer robots.txt
✅ Bones pràctiques en Web Scraping
✅ Creació d’un CSV amb BeautifulSoup i Python
✅ Exemple pràctic aplicat a un blog real

🎥 Mira el vídeo aquí 👉 https://www.youtube.com/watch?v=7wajHLmUHdo


💬 Coneixies el fitxer robots.txt? T’agradaria més codi pràctic com aquest? Deixa el teu comentari!

🔔 Subscriu-te al canal per a més vídeos sobre programació, dades i tecnologia!

#WebScraping #RobotsTXT #Python #CSV #CiènciaDeDades #BeautifulSoup #Tecnologia #Català #Valencià


Comentaris

Entrades populars d'aquest blog

Clean Code... WTF? És realment viable?

Comparativa dels Sistemes Polítics Espanyol, Valencià i d'un partit polític. (II)

Hui he vist la por als ulls