Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Anubhav
Crawling av et helt nettsted pleide å ta:
Et Python-skript.
Dramatiker eller selen.
Proxy-rotasjon.
Hastighetsbegrensende logikk.
Feilhåndtering.
3 timer med feilsøking hvorfor side 47 returnerte en 403.
Nå er det bare ett API-kall.
Hver web-scraping-startup som samlet inn millioner for å løse dette problemet, ble bare et enkelt endepunkt.
Hver frilanser som tar 500 dollar for å «hente ut nettsidedata» har nettopp mistet hele forretningsmodellen sin til en /crawl-kommando.
HTML. Markdown. JSON. Velg formatet ditt. Ingen manus. Ingen nettleser. Ingen hodepine.
Hele webscraping-industrien ble bare redusert til én linje kode.
Noen kommer til å bruke dette til å klone alle konkurrentenes nettsider innen fredag. 💀

Cloudflare Developers11. mars, 05:51
Vi introduserer det nye /crawl-endepunktet – ett API-kall og et helt nettsted crawlet.
Ingen manus. Ingen nettleserhåndtering. Bare innholdet i HTML, Markdown eller JSON.

110
Følger du med nå?
Karpathy har nettopp åpnet et repo hvor en AI-agent driver sin egen ML-forskning. Autonomt. I en løkke. Mens du sover.
630 linjer kode. Hver prikk i grafen er en full LLM-treningsrunde.
AI-en velger arkitekturen, finjusterer hyperparameterne, commer koden og starter på nytt.
Ingen menneskelig involvering.
Du brukte 6 måneder på et Udemy-kurs for å lære å justere læringsrater.
Denne agenten gjør det 50 ganger før morgenkaffen din.
Fyren som underviste i dyp læring på internett automatiserte bare forskeren.
ML-PhD-er er i ferd med å finne ut at avhandlingen deres var en 5-minutters treningsrunde på én GPU.

Andrej Karpathy8. mars, 03:53
Jeg pakket sammen "autoresearch"-prosjektet i et nytt, selvstendig minimalt repo hvis folk vil spille i helgen. Det er i bunn og grunn nanochat LLM-treningskjerne strippet ned til en enkelt-GPU, én fil-versjon med ~630 linjer kode, og så:
- mennesket itererer på prompten (.md)
- AI-agenten itererer på treningskoden (.py)
Målet er å få agentene dine til å oppnå raskest mulig forskningsfremgang på ubestemt tid og uten egen involvering. På bildet er hver prikk en komplett LLM-trening som varer nøyaktig 5 minutter. Agenten jobber i en autonom sløyfe på en git-funksjonsgren og akkumulerer git-commits til treningsskriptet etter hvert som den finner bedre innstillinger (med lavere valideringstap mot slutten) i den nevrale nettverksarkitekturen, optimalisatoren, alle hyperparameterne osv. Du kan tenke deg å sammenligne forskningsfremdriften til ulike prompts, forskjellige agenter osv.
Delvis kode, delvis sci-fi, og en klype psykose :)

75
Topp
Rangering
Favoritter

