Le crawling d'un site web entier prenait auparavant : Un script Python. Playwright ou Selenium. Rotation de proxy. Logique de limitation de taux. Gestion des erreurs. 3 heures de débogage pour comprendre pourquoi la page 47 renvoyait un 403. Maintenant, c'est un seul appel API. Chaque startup de web scraping qui a levé des millions pour résoudre ce problème vient de devenir un seul point de terminaison. Chaque freelance facturant 500 $ pour "extraire des données de site web" vient de perdre tout son modèle commercial à cause d'une commande /crawl. HTML. Markdown. JSON. Choisissez votre format. Pas de scripts. Pas de navigateur. Pas de casse-tête. L'ensemble de l'industrie du web scraping vient d'être réduit à une seule ligne de code. Quelqu'un va utiliser cela pour cloner le site de chaque concurrent d'ici vendredi. 💀