Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Anubhav
Le crawling d'un site web entier prenait auparavant :
Un script Python.
Playwright ou Selenium.
Rotation de proxy.
Logique de limitation de taux.
Gestion des erreurs.
3 heures de débogage pour comprendre pourquoi la page 47 renvoyait un 403.
Maintenant, c'est un seul appel API.
Chaque startup de web scraping qui a levé des millions pour résoudre ce problème vient de devenir un seul point de terminaison.
Chaque freelance facturant 500 $ pour "extraire des données de site web" vient de perdre tout son modèle commercial à cause d'une commande /crawl.
HTML. Markdown. JSON. Choisissez votre format. Pas de scripts. Pas de navigateur. Pas de casse-tête.
L'ensemble de l'industrie du web scraping vient d'être réduit à une seule ligne de code.
Quelqu'un va utiliser cela pour cloner le site de chaque concurrent d'ici vendredi. 💀

Cloudflare Developers11 mars, 05:51
Présentation du nouvel endpoint /crawl - un appel API et tout un site exploré.
Pas de scripts. Pas de gestion de navigateur. Juste le contenu en HTML, Markdown ou JSON.

109
Faites-vous attention en ce moment ?
Karpathy vient de rendre open-source un dépôt où un agent IA effectue sa propre recherche en ML. De manière autonome. En boucle. Pendant que vous dormez.
630 lignes de code. Chaque point dans le graphique représente un entraînement complet de LLM.
L'IA choisit l'architecture, ajuste les hyperparamètres, valide le code et recommence.
Aucune intervention humaine.
Vous avez passé 6 mois sur un cours Udemy à apprendre à ajuster les taux d'apprentissage.
Cet agent le fait 50 fois avant votre café du matin.
Le gars qui a appris à Internet le deep learning vient d'automatiser le chercheur.
Les doctorats en ML vont bientôt découvrir que leur dissertation était un entraînement de 5 minutes sur un seul GPU.

Andrej Karpathy8 mars, 03:53
J'ai emballé le projet "autoresearch" dans un nouveau dépôt minimal autonome si des gens souhaitent jouer pendant le week-end. C'est essentiellement le cœur de l'entraînement LLM de nanochat réduit à une version à un seul GPU, un fichier de ~630 lignes de code, puis :
- l'humain itère sur l'invite (.md)
- l'agent IA itère sur le code d'entraînement (.py)
L'objectif est de concevoir vos agents pour qu'ils réalisent les progrès de recherche les plus rapides indéfiniment et sans aucune de votre propre implication. Sur l'image, chaque point est un run complet d'entraînement LLM qui dure exactement 5 minutes. L'agent fonctionne dans une boucle autonome sur une branche de fonctionnalité git et accumule des commits git au script d'entraînement à mesure qu'il trouve de meilleurs réglages (avec une perte de validation plus faible à la fin) de l'architecture du réseau de neurones, de l'optimiseur, de tous les hyperparamètres, etc. Vous pouvez imaginer comparer les progrès de recherche de différentes invites, différents agents, etc.
Partie code, partie science-fiction, et une pincée de psychose :)

72
Meilleurs
Classement
Favoris

