Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Bo Wang
SVP en hoofd van Biomedical AI @Xaira_Thera; Universitair hoofddocent @UofT; Chief AI Officer @UHN; voormalig PHD, CS @Stanford; meningen van mijzelf. #AI #healthcare #biology
Dit is echt cool (en wild):
Wetenschappers hebben voor het eerst een complete levende cel gesimuleerd. Elke molecuul, elke reactie, van DNA-replicatie tot celdeling.
Het artikel (Luthey-Schulten et al., Cell 2026, ), dat vandaag is verschenen, gebruikte JCVI-Syn3A — een synthetische minimale bacterie met minder dan 500 genen. Een 3D+tijd simulatie van de volledige 105-minuten celcyclus: DNA-replicatie, eiwitvertaling, metabolisme, deling. Elk gen, eiwit, RNA en chemische reactie werd gevolgd door de fysieke ruimte.
Het heeft jaren geduurd om te bouwen. Meerdere GPU's. Zes dagen rekentijd per run.
En dit is de eenvoudigste mogelijke cel.
Een menselijke cel heeft ~20.000 genen. Het leeft in weefsel. Het interageert met buren. Het differentieert. Het reageert op medicijnen op manieren die afhankelijk zijn van context die we nog niet volledig hebben gemeten.
Mechanistische simulatie van de minimale cel kost 6 GPU-dagen voor 105 minuten biologie. Je kunt dat niet opschalen naar menselijke cellen. De complexiteit is niet 40x moeilijker. Het is exponentieel moeilijker.
Dit is waarom het veld is overgestapt op datagestuurde modellen. Je kunt de regulerende bedrading van een menselijke hepatocyt niet handmatig coderen. Maar je kunt het leren — als je de juiste verstoringsdata hebt verzameld in voldoende diverse biologische contexten.
De twee benaderingen concurreren niet. Artikelen zoals deze genereren de grondwaarheid die toekomstige ML-modellen nodig hebben voor validatie. Maar de weg naar een klinisch nuttige virtuele cel loopt via fundamentmodellen, niet via het opschalen van mechanistische simulatie.
Geweldig werk!
348
Dit is waarschijnlijk het eerste RL-werk op OpenClaw 🔥
MetaClaw: Praat gewoon met je agent en laat het automatisch evolueren.
Github:
De meeste AI-agenten zijn bevroren op het moment dat ze worden verzonden. Elke fout die ze maken, maken ze morgen weer. MetaClaw lost dat op.
Het is een online RL-laag die bovenop OpenClaw is gebouwd en waarmee agenten kunnen leren van hun eigen interacties — geen GPU-cluster, geen offline dataset, geen engineeringteam nodig.
De cyclus is eenvoudig: elk gesprek wordt gelogd als een trainingstraject. Wanneer de agent faalt, analyseert hij wat er misging en stelt hij een nieuwe herbruikbare vaardigheid voor. LoRA-updates worden asynchroon op de achtergrond getraind. De volgende keer dat een soortgelijke situatie zich voordoet, wordt de relevante vaardigheid automatisch in de prompt opgehaald.
De agent accumuleert niet alleen gesprekken. Het accumuleert capaciteit.
Wat dit anders maakt dan fine-tuning: er is geen menselijke labelpipeline, geen batch trainingsruns, geen implementatiecyclus. De verbetering gebeurt continu, onzichtbaar, in productie. Interactie → leren → verbetering, in een lus.
Geen offline dataset. Geen codering vereist. Geen GPU-cluster.
Het deel dat het waard is om op te letten: dit verandert elke gebruikersinteractie in een trainingssignaal. De agent die je op dag één inzet, is niet de agent die je op dag dertig hebt. Het is gevormd door alles wat het verkeerd deed en heeft opgelost.
Geweldig werk van @HuaxiuYaoML !
364
Boven
Positie
Favorieten
