🤖 Web Scraping Responsable amb Robots.txt i Exportació a CSV
En aquest vídeo descobrim què és el fitxer robots.txt , com interpretar-lo i per què és essencial respectar-lo si fem Web Scraping. 📜 Robots.txt indica quines parts d’un lloc web es poden explorar automàticament i quines no. A més, veurem com modificar el codi de scraping per recollir els títols i URLs d’articles i guardar-los en un fitxer CSV . Tot amb Python i BeautifulSoup ! 📌 Què aprendràs? ✅ Què és i com llegir el fitxer robots.txt ✅ Bones pràctiques en Web Scraping ✅ Creació d’un CSV amb BeautifulSoup i Python ✅ Exemple pràctic aplicat a un blog real 🎥 Mira el vídeo aquí 👉 https://www.youtube.com/watch?v=7wajHLmUHdo 💬 Coneixies el fitxer robots.txt? T’agradaria més codi pràctic com aquest? Deixa el teu comentari! 🔔 Subscriu-te al canal per a més vídeos sobre programació, dades i tecnologia! #WebScraping #RobotsTXT #Python #CSV #CiènciaDeDades #BeautifulSoup #Tecnologia #Català #Valencià