Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Bo Wang
SVP und Leiter des Biomedical AI @Xaira_Thera; Außerordentlicher Professor @UofT; Chief AI Officer @UHN; ehemaliger PhD, CS @Stanford; Meinungen meine eigenen. #AI #healthcare #biology
Das ist wirklich cool (und verrückt):
Wissenschaftler haben zum ersten Mal eine vollständige lebende Zelle simuliert. Jedes Molekül, jede Reaktion, von der DNA-Replikation bis zur Zellteilung.
Das Papier (Luthey-Schulten et al., Cell 2026, ), das heute veröffentlicht wurde, verwendete JCVI-Syn3A — ein synthetisches minimales Bakterium mit weniger als 500 Genen. Eine 3D+Zeit-Simulation des vollständigen 105-minütigen Zellzyklus: DNA-Replikation, Proteinübersetzung, Stoffwechsel, Teilung. Jedes Gen, Protein, RNA und jede chemische Reaktion wurde durch den physischen Raum verfolgt.
Es hat Jahre gedauert, es zu bauen. Mehrere GPUs. Sechs Tage Rechenzeit pro Durchlauf.
Und das ist die einfachste mögliche Zelle.
Eine menschliche Zelle hat ~20.000 Gene. Sie lebt im Gewebe. Sie interagiert mit Nachbarn. Sie differenziert sich. Sie reagiert auf Medikamente auf Weisen, die von einem Kontext abhängen, den wir nicht vollständig gemessen haben.
Die mechanistische Simulation der minimalen Zelle kostet 6 GPU-Tage für 105 Minuten Biologie. Man kann das nicht auf menschliche Zellen skalieren. Die Komplexität ist nicht 40x schwieriger. Sie ist exponentiell schwieriger.
Deshalb hat sich das Feld auf datengestützte Modelle umgestellt. Man kann die regulatorische Verdrahtung eines menschlichen Hepatozyten nicht manuell codieren. Aber man kann sie lernen — wenn man die richtigen Störungsdaten hat, die über genügend verschiedene biologische Kontexte gesammelt wurden.
Die beiden Ansätze stehen nicht in Konkurrenz. Papiere wie dieses erzeugen die Grundwahrheit, die zukünftige ML-Modelle zur Validierung benötigen. Aber der Weg zu einer klinisch nützlichen virtuellen Zelle führt über Fundamentalmuster, nicht über die Skalierung mechanistischer Simulationen.
Erstaunliche Arbeit!
346
Dies ist wahrscheinlich die erste RL-Arbeit zu OpenClaw 🔥
MetaClaw: Sprich einfach mit deinem Agenten und lass ihn sich automatisch weiterentwickeln.
Github:
Die meisten KI-Agenten sind eingefroren, sobald sie ausgeliefert werden. Jeden Fehler, den sie machen, werden sie morgen wieder machen. MetaClaw behebt das.
Es ist eine Online-RL-Schicht, die auf OpenClaw aufbaut und es Agenten ermöglicht, aus ihren eigenen Interaktionen zu lernen – kein GPU-Cluster, kein Offline-Datensatz, kein Ingenieurteam erforderlich.
Der Loop ist einfach: Jedes Gespräch wird als Trainingsverlauf protokolliert. Wenn der Agent scheitert, analysiert er, was schiefgelaufen ist, und schlägt eine neue wiederverwendbare Fähigkeit vor. LoRA-Updates werden asynchron im Hintergrund trainiert. Das nächste Mal, wenn eine ähnliche Situation auftritt, wird die relevante Fähigkeit automatisch in den Prompt abgerufen.
Der Agent sammelt nicht nur Gespräche. Er sammelt Fähigkeiten.
Was das von Fine-Tuning unterscheidet: Es gibt keine menschliche Labeling-Pipeline, keine Batch-Trainingsläufe, keinen Bereitstellungszyklus. Die Verbesserung erfolgt kontinuierlich, unsichtbar, in der Produktion. Interaktion → Lernen → Verbesserung, in einer Schleife.
Kein Offline-Datensatz. Kein Coding erforderlich. Kein GPU-Cluster.
Der Teil, auf den man achten sollte: Das verwandelt jede Benutzerinteraktion in ein Trainingssignal. Der Agent, den du am ersten Tag einsetzt, ist nicht der Agent, den du am dreißigsten Tag hast. Er wurde durch alles, was er falsch gemacht hat und behoben hat, geformt.
Großartige Arbeit von @HuaxiuYaoML !
362
Top
Ranking
Favoriten
