Scanarea unui întreg site web obișnuia să folosească: Un script Python. Dramaturg sau Selenium. Rotația proxy. Logică de limitare a ratei. Gestionarea erorilor. 3 ore de depanare de ce pagina 47 a returnat un 403. Acum este un singur apel API. Fiecare startup de web scraping care a strâns milioane pentru a rezolva această problemă a devenit un singur punct final. Fiecare freelancer care cere 500$ pentru "extragerea datelor site-ului" și-a pierdut întregul model de afaceri din cauza unei comenzi /crawl. HTML. Discount. JSON. Alege-ți formatul. Niciun scenariu. Fără browser. Nicio durere de cap. Întreaga industrie a web scraping-ului a fost redusă la o singură linie de cod. Cineva va folosi asta pentru a clona site-urile fiecărui concurent până vineri. 💀