Rastear um site inteiro costumava levar: Um script em Python. Playwright ou Selenium. Rotação de proxies. Lógica de limitação de taxa. Tratamento de erros. 3 horas de depuração para entender por que a página 47 retornou um 403. Agora é apenas uma chamada de API. Toda startup de web scraping que arrecadou milhões para resolver esse problema acabou de se tornar um único endpoint. Todo freelancer cobrando $500 para "extrair dados de sites" acaba de perder todo o seu modelo de negócio para um comando /crawl. HTML. Markdown. JSON. Escolha seu formato. Sem scripts. Sem navegador. Sem dor de cabeça. Toda a indústria de web scraping acaba de ser reduzida a uma linha de código. Alguém vai usar isso para clonar o site de cada concorrente até sexta-feira. 💀