Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Bo Wang
vicepresidente sénior y jefe de IA biomédica @Xaira_Thera; Profesor Asociado @UofT; Director de IA @UHN; ex doctorado, CS @Stanford; opiniones mías. #AI #healthcare #biology
Esto es realmente genial (y salvaje):
Los científicos simularon una célula viva completa por primera vez. Cada molécula, cada reacción, desde la replicación del ADN hasta la división celular.
El artículo (Luthey-Schulten et al., Cell 2026, ), publicado hoy, utilizó JCVI-Syn3A — una bacteria sintética mínima con menos de 500 genes. Una simulación 3D+tiempo del ciclo celular completo de 105 minutos: replicación del ADN, traducción de proteínas, metabolismo, división. Cada gen, proteína, ARN y reacción química rastreados a través del espacio físico.
Tomó años construirlo. Múltiples GPUs. Seis días de tiempo de computación por ejecución.
Y esta es la célula más simple posible.
Una célula humana tiene ~20,000 genes. Vive en tejido. Interactúa con sus vecinas. Se diferencia. Responde a los medicamentos de maneras que dependen de un contexto que no hemos medido completamente.
La simulación mecanicista de la célula mínima cuesta 6 días de GPU por 105 minutos de biología. No puedes escalar eso a células humanas. La complejidad no es 40 veces más difícil. Es exponencialmente más difícil.
Por eso el campo se ha orientado hacia modelos impulsados por datos. No puedes codificar manualmente el cableado regulador de un hepatocito humano. Pero puedes aprenderlo — si tienes los datos de perturbación correctos recopilados en suficientes contextos biológicos diversos.
Los dos enfoques no son competidores. Artículos como este generan la verdad fundamental que los futuros modelos de ML necesitan para la validación. Pero el camino hacia una célula virtual clínicamente útil pasa por modelos fundamentales, no por escalar la simulación mecanicista.
¡Trabajo asombroso!
350
Este es probablemente el primer trabajo de RL sobre OpenClaw 🔥
MetaClaw: Solo habla con tu agente y déjalo evolucionar automáticamente.
Github:
La mayoría de los agentes de IA están congelados en el momento en que se lanzan. Cada error que cometen, lo volverán a cometer mañana. MetaClaw soluciona eso.
Es una capa de RL en línea construida sobre OpenClaw que permite a los agentes aprender de sus propias interacciones: sin clúster de GPU, sin conjunto de datos fuera de línea, sin equipo de ingeniería requerido.
El bucle es simple: cada conversación se registra como una trayectoria de entrenamiento. Cuando el agente falla, analiza qué salió mal y propone una nueva habilidad reutilizable. Las actualizaciones de LoRA se entrenan de forma asíncrona en segundo plano. La próxima vez que surja una situación similar, la habilidad relevante se recupera automáticamente en el aviso.
El agente no solo acumula conversaciones. Acumula capacidad.
Lo que hace esto diferente del ajuste fino: no hay un pipeline de etiquetado humano, no hay ejecuciones de entrenamiento por lotes, no hay ciclo de implementación. La mejora ocurre de manera continua, invisible, en producción. Interacción → aprendizaje → mejora, en un bucle.
Sin conjunto de datos fuera de línea. Sin codificación requerida. Sin clúster de GPU.
La parte que vale la pena destacar: esto convierte cada interacción del usuario en una señal de entrenamiento. El agente que despliegas en el día uno no es el mismo agente que tienes en el día treinta. Ha sido moldeado por todo lo que hizo mal y corrigió.
¡Gran trabajo de @HuaxiuYaoML !
366
Parte superior
Clasificación
Favoritos
