Das Crawlen einer gesamten Website dauerte früher: Ein Python-Skript. Playwright oder Selenium. Proxy-Rotation. Logik zur Ratenbegrenzung. Fehlerbehandlung. 3 Stunden Debugging, warum Seite 47 einen 403 zurückgab. Jetzt ist es ein API-Aufruf. Jedes Web-Scraping-Startup, das Millionen gesammelt hat, um dieses Problem zu lösen, wurde gerade zu einem einzigen Endpunkt. Jeder Freelancer, der 500 $ verlangt, um "Website-Daten zu extrahieren", hat sein gesamtes Geschäftsmodell an einen /crawl-Befehl verloren. HTML. Markdown. JSON. Wählen Sie Ihr Format. Keine Skripte. Kein Browser. Kein Kopfzerbrechen. Die gesamte Web-Scraping-Industrie wurde gerade auf eine einzige Codezeile reduziert. Jemand wird dies nutzen, um bis Freitag jede Wettbewerber-Website zu klonen. 💀