Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Bo Wang
vice-président directeur et chef de l’IA biomédicale @Xaira_Thera ; Professeur agrégé @UofT ; Directeur de l’IA @UHN ; ancien doctorat, CS @Stanford ; opinions les miennes. #AI #healthcare #biology
C'est vraiment cool (et fou) :
Des scientifiques ont simulé une cellule vivante complète pour la première fois. Chaque molécule, chaque réaction, de la réplication de l'ADN à la division cellulaire.
L'article (Luthey-Schulten et al., Cell 2026, ), publié aujourd'hui, a utilisé JCVI-Syn3A — une bactérie synthétique minimale avec moins de 500 gènes. Une simulation 3D+temps du cycle cellulaire complet de 105 minutes : réplication de l'ADN, traduction des protéines, métabolisme, division. Chaque gène, protéine, ARN et réaction chimique suivi à travers l'espace physique.
Cela a pris des années à construire. Plusieurs GPU. Six jours de temps de calcul par exécution.
Et c'est la cellule la plus simple possible.
Une cellule humaine a ~20 000 gènes. Elle vit dans des tissus. Elle interagit avec ses voisines. Elle se différencie. Elle réagit aux médicaments de manière qui dépend du contexte que nous n'avons pas encore mesuré complètement.
La simulation mécaniste de la cellule minimale coûte 6 jours GPU pour 105 minutes de biologie. Vous ne pouvez pas l'échelonner aux cellules humaines. La complexité n'est pas 40 fois plus difficile. C'est exponentiellement plus difficile.
C'est pourquoi le domaine a pivoté vers des modèles basés sur les données. Vous ne pouvez pas coder à la main le câblage régulateur d'un hépatocyte humain. Mais vous pouvez l'apprendre — si vous avez les bonnes données de perturbation collectées à travers suffisamment de contextes biologiques divers.
Les deux approches ne sont pas en concurrence. Des articles comme celui-ci génèrent la vérité de base dont les futurs modèles d'apprentissage automatique ont besoin pour validation. Mais le chemin vers une cellule virtuelle cliniquement utile passe par des modèles fondamentaux, et non par l'échelonnement de la simulation mécaniste.
Travail incroyable !
337
C'est probablement le premier travail RL sur OpenClaw 🔥
MetaClaw : Parlez simplement à votre agent et laissez-le évoluer automatiquement.
Github :
La plupart des agents IA sont figés au moment de leur expédition. Chaque erreur qu'ils commettent, ils la reproduiront demain. MetaClaw corrige cela.
C'est une couche RL en ligne construite sur OpenClaw qui permet aux agents d'apprendre de leurs propres interactions — pas de cluster GPU, pas de jeu de données hors ligne, pas d'équipe d'ingénierie requise.
La boucle est simple : chaque conversation est enregistrée comme une trajectoire d'entraînement. Lorsque l'agent échoue, il analyse ce qui a mal tourné et propose une nouvelle compétence réutilisable. Les mises à jour LoRA s'entraînent de manière asynchrone en arrière-plan. La prochaine fois qu'une situation similaire se présente, la compétence pertinente est automatiquement récupérée dans l'invite.
L'agent n'accumule pas seulement des conversations. Il accumule des capacités.
Ce qui rend cela différent du fine-tuning : il n'y a pas de pipeline de labellisation humaine, pas de sessions d'entraînement par lot, pas de cycle de déploiement. L'amélioration se produit en continu, de manière invisible, en production. Interaction → apprentissage → amélioration, en boucle.
Pas de jeu de données hors ligne. Pas de codage requis. Pas de cluster GPU.
La partie à laquelle il vaut la peine de prêter attention : cela transforme chaque interaction utilisateur en un signal d'entraînement. L'agent que vous déployez le premier jour n'est pas l'agent que vous avez le trentième jour. Il a été façonné par tout ce qu'il a mal fait et corrigé.
Excellent travail de @HuaxiuYaoML !
355
Meilleurs
Classement
Favoris
