Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Bo Wang
vice-presidente sênior e chefe de @Xaira_Thera de IA biomédica; Prof. Associado @UofT; Diretor de IA @UHN; ex-PHD, CS @Stanford; opiniões minhas. #AI #healthcare #biology
Isso é muito legal (e louco):
Cientistas simularam uma célula viva completa pela primeira vez. Cada molécula, cada reação, desde a replicação do DNA até a divisão celular.
O artigo (Luthey-Schulten et al., Cell 2026, ), lançado recentemente hoje, usou JCVI-Syn3A — uma bactéria mínima sintética com menos de 500 genes. Uma simulação 3D+tempo do ciclo celular completo de 105 minutos: replicação do DNA, tradução de proteínas, metabolismo, divisão. Cada gene, proteína, RNA e reação química rastreada pelo espaço físico.
Levou anos para construir. Múltiplas GPUs. Seis dias de tempo de computação por execução.
E essa é a célula mais simples possível.
Uma célula humana tem ~20.000 genes. Ela vive em tecido. Ela interage com vizinhos. Isso diferencia. Ele responde aos medicamentos de maneiras que dependem do contexto que ainda não medimos completamente.
A simulação mecanicista da célula mínima custa 6 GPU-dias para 105 minutos de biologia. Você não pode escalar isso para células humanas. A complexidade não é 40 vezes maior. É exponencialmente mais difícil.
É por isso que o campo migrou para modelos orientados por dados. Você não pode codificar manualmente a fiação regulatória de um hepatóto humano. Mas você pode aprendê-la — se tiver os dados certos de perturbação coletados em contextos biológicos diversos o suficiente.
As duas abordagens não estão competindo. Artigos como este geram a verdade fundamental que futuros modelos de ML precisam para validação. Mas o caminho para uma célula virtual clinicamente útil passa por modelos de fundação, não pela ampliação da simulação mecanicista.
Trabalho incrível!
352
Provavelmente este é o primeiro trabalho de RL sobre OpenClaw 🔥
MetaClaw: Apenas converse com seu agente e deixe a evolução automática.
Github:
A maioria dos agentes de IA fica congelada no momento em que embarca. Cada erro que eles cometerem, vão cometer de novo amanhã. MetaClaw resolve isso.
É uma camada de RL online construída sobre o OpenClaw que permite aos agentes aprender com suas próprias interações — sem cluster de GPU, sem conjunto de dados offline, sem equipe de engenharia necessária.
O ciclo é simples: toda conversa é registrada como uma trajetória de treinamento. Quando o agente falha, ele analisa o que deu errado e propõe uma nova habilidade reutilizável. O LoRA atualiza o train de forma assíncrona em segundo plano. Na próxima vez que uma situação semelhante ocorrer, a habilidade relevante é automaticamente recuperada no prompt.
O agente não apenas acumula conversas. Ele acumula capacidade.
O que diferencia isso do ajuste fino: não há pipeline de rotulagem humana, nem execuções de treinamento em lote, nem ciclo de implantação. A melhoria acontece continuamente e invisivelmente na produção. Interação → aprendizado → melhoria, em um ciclo.
Sem conjunto de dados offline. Não é necessário programar. Sem cluster de GPU.
A parte que vale a pena prestar atenção: isso transforma toda interação do usuário em um sinal de treinamento. O agente que você envia no primeiro dia não é o que você tem no dia trinta. Foi moldado por tudo que errou e corrigiu.
Ótimo trabalho de @HuaxiuYaoML!
368
Melhores
Classificação
Favoritos
