Crawling av et helt nettsted pleide å ta: Et Python-skript. Dramatiker eller selen. Proxy-rotasjon. Hastighetsbegrensende logikk. Feilhåndtering. 3 timer med feilsøking hvorfor side 47 returnerte en 403. Nå er det bare ett API-kall. Hver web-scraping-startup som samlet inn millioner for å løse dette problemet, ble bare et enkelt endepunkt. Hver frilanser som tar 500 dollar for å «hente ut nettsidedata» har nettopp mistet hele forretningsmodellen sin til en /crawl-kommando. HTML. Markdown. JSON. Velg formatet ditt. Ingen manus. Ingen nettleser. Ingen hodepine. Hele webscraping-industrien ble bare redusert til én linje kode. Noen kommer til å bruke dette til å klone alle konkurrentenes nettsider innen fredag. 💀