Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Anubhav
Rastear um site inteiro costumava levar:
Um script em Python.
Playwright ou Selenium.
Rotação de proxies.
Lógica de limitação de taxa.
Tratamento de erros.
3 horas de depuração para entender por que a página 47 retornou um 403.
Agora é apenas uma chamada de API.
Toda startup de web scraping que arrecadou milhões para resolver esse problema acabou de se tornar um único endpoint.
Todo freelancer cobrando $500 para "extrair dados de sites" acaba de perder todo o seu modelo de negócio para um comando /crawl.
HTML. Markdown. JSON. Escolha seu formato. Sem scripts. Sem navegador. Sem dor de cabeça.
Toda a indústria de web scraping acaba de ser reduzida a uma linha de código.
Alguém vai usar isso para clonar o site de cada concorrente até sexta-feira. 💀

Cloudflare Developers11/03, 05:51
Apresentando o novo endpoint /crawl - uma chamada de API e um site inteiro rastreado.
Sem scripts. Sem gestão de navegador. Apenas o conteúdo em HTML, Markdown ou JSON.

89
Estás a prestar atenção agora?
Karpathy acaba de abrir um repositório onde um agente de IA realiza a sua própria pesquisa em ML. De forma autónoma. Num ciclo. Enquanto dormes.
630 linhas de código. Cada ponto no gráfico é uma execução completa de treino de LLM.
A IA escolhe a arquitetura, ajusta os hiperparâmetros, comita o código e começa de novo.
Sem envolvimento humano.
Passaste 6 meses num curso da Udemy a aprender a ajustar taxas de aprendizagem.
Este agente faz isso 50 vezes antes do teu café da manhã.
O gajo que ensinou a internet sobre deep learning acaba de automatizar o investigador.
Os doutorados em ML estão prestes a descobrir que a sua dissertação foi uma execução de treino de 5 minutos numa única GPU.

Andrej Karpathy8/03, 03:53
Empacotei o projeto "autoresearch" em um novo repositório minimalista autossuficiente, caso as pessoas queiram brincar durante o fim de semana. É basicamente o núcleo de treinamento do nanochat LLM reduzido a uma versão de um único GPU, um arquivo com cerca de 630 linhas de código, então:
- o humano itera sobre o prompt (.md)
- o agente de IA itera sobre o código de treinamento (.py)
O objetivo é projetar seus agentes para fazer o progresso de pesquisa mais rápido indefinidamente e sem qualquer envolvimento seu. Na imagem, cada ponto é uma execução completa de treinamento de LLM que dura exatamente 5 minutos. O agente trabalha em um loop autônomo em uma branch de recurso do git e acumula commits do git no script de treinamento à medida que encontra melhores configurações (com menor perda de validação no final) da arquitetura da rede neural, do otimizador, todos os hiperparâmetros, etc. Você pode imaginar comparar o progresso de pesquisa de diferentes prompts, diferentes agentes, etc.
Parte código, parte ficção científica e uma pitada de psicose :)

40
Top
Classificação
Favoritos

