Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Bo Wang
SVP e Chefe da @Xaira_Thera de IA Biomédica; Prof. Associado @UofT; Diretor de IA @UHN; ex-PHD, CS @Stanford; opiniões minhas. #AI #healthcare #biology
Isto é realmente incrível (e selvagem):
Cientistas simularam uma célula viva completa pela primeira vez. Cada molécula, cada reação, desde a replicação do DNA até a divisão celular.
O artigo (Luthey-Schulten et al., Cell 2026, ), publicado hoje, utilizou o JCVI-Syn3A — uma bactéria sintética mínima com menos de 500 genes. Uma simulação 3D+tempo do ciclo celular completo de 105 minutos: replicação do DNA, tradução de proteínas, metabolismo, divisão. Cada gene, proteína, RNA e reação química rastreados através do espaço físico.
Levou anos para ser construído. Múltiplas GPUs. Seis dias de tempo de computação por execução.
E esta é a célula mais simples possível.
Uma célula humana tem ~20.000 genes. Ela vive em tecido. Interage com vizinhos. Diferencia-se. Responde a medicamentos de maneiras que dependem de contextos que ainda não medimos completamente.
A simulação mecanicista da célula mínima custa 6 dias de GPU para 105 minutos de biologia. Não se pode escalar isso para células humanas. A complexidade não é 40x mais difícil. É exponencialmente mais difícil.
É por isso que o campo se virou para modelos baseados em dados. Não se pode codificar manualmente a fiação regulatória de um hepatócito humano. Mas você pode aprendê-la — se tiver os dados de perturbação certos coletados em contextos biológicos suficientemente diversos.
As duas abordagens não estão competindo. Artigos como este geram a verdade fundamental que os futuros modelos de ML precisam para validação. Mas o caminho para uma célula virtual clinicamente útil passa por modelos fundamentais, não por escalar a simulação mecanicista.
Trabalho incrível!
451
Este é provavelmente o primeiro trabalho de RL sobre o OpenClaw 🔥
MetaClaw: Basta falar com o seu agente e deixá-lo evoluir automaticamente.
Github:
A maioria dos agentes de IA fica congelada no momento em que é lançada. Cada erro que cometem, eles o cometerão novamente amanhã. O MetaClaw resolve isso.
É uma camada de RL online construída sobre o OpenClaw que permite que os agentes aprendam com suas próprias interações — sem cluster de GPU, sem conjunto de dados offline, sem equipe de engenharia necessária.
O ciclo é simples: cada conversa é registrada como uma trajetória de treinamento. Quando o agente falha, ele analisa o que deu errado e propõe uma nova habilidade reutilizável. As atualizações do LoRA treinam de forma assíncrona em segundo plano. Na próxima vez que uma situação semelhante surgir, a habilidade relevante é recuperada automaticamente para o prompt.
O agente não acumula apenas conversas. Ele acumula capacidade.
O que torna isso diferente do ajuste fino: não há pipeline de rotulagem humana, não há execuções de treinamento em lote, não há ciclo de implantação. A melhoria acontece continuamente, invisivelmente, em produção. Interação → aprendizado → melhoria, em um ciclo.
Sem conjunto de dados offline. Sem codificação necessária. Sem cluster de GPU.
A parte que vale a pena prestar atenção: isso transforma cada interação do usuário em um sinal de treinamento. O agente que você implanta no primeiro dia não é o mesmo agente que você tem no trigésimo dia. Ele foi moldado por tudo o que errou e corrigiu.
Ótimo trabalho de @HuaxiuYaoML !
425
Top
Classificação
Favoritos
