Web-Scraping (Hacky Hour Gießen)
Heute geht es um Data-Scraping
Daten aus dem Internet lesen und speichern Messen beinhaltet aber oft auch eine zeitliche Komponente Tools:
Jupyter-Notebooks, Python, beatiful-soup Dev-Tools im Browser Github-Actions Ziel ist Verständnis über folgende Punkte:
wie sind Websites aufgebaut was benötige ich um Zeitreihen aus Websites zu erstellen einige Werkzeuge zur Auswertung Grundlagen Daten im Internet werden von einem Browser gelesen.
|---------| linked /-----------\ | | reads /-----------\ in | Resourcen | | Browser | <---- | HTML Page | <---- | json, jpg | | | \-----------/ | csv .