Ahora, cuando se menciona un proyecto de IA, muchas personas pueden estar un poco cansadas, principalmente porque este tipo de proyectos son cada vez más numerosos y la novedad ya se ha perdido. Sin embargo, hoy quiero hablar de @inference_labs, que ha resuelto un problema que quizás muchos no han notado, pero que realmente puede causar pérdidas cuando se presenta, y vale la pena discutirlo. Voy a contar un caso muy práctico: pagas por suscribirte a un servicio de IA de alta gama, pensando que estás utilizando el modelo de primera clase que el comerciante promociona, pero en realidad, el comerciante podría estar redirigiendo tus solicitudes a un modelo más barato. Después de todo, no puedes ver el interior del modelo, y los resultados de salida se ven bastante similares, por lo que es realmente difícil darse cuenta de que te han cambiado el modelo. Esta situación se llama riesgo de sustitución de modelo, en pocas palabras, es como pagar por un servicio de alta gama, pero en realidad estás usando un producto de bajo costo. La solución de Inference Labs es bastante especial; se basa en pruebas de conocimiento cero para generar evidencia criptográfica que puede ser verificada públicamente, lo que no solo confirma que los pesos del modelo no han sido alterados, sino que también prueba que se está utilizando el modelo especificado, evitando problemas desde la raíz. 👉 Las ventajas clave son muy evidentes. 1⃣ Cualquiera puede verificar. No importa si eres tú mismo, un organismo regulador o una tercera parte como un auditor, todos pueden revisar esta evidencia de manera independiente, sin necesidad de confiar en Inference Labs o en el comerciante que proporciona el servicio de IA, sin depender de la "honestidad". 2⃣ No se filtra la privacidad. Los datos centrales del modelo (pesos) y la información que ingresas no necesitan ser públicos, lo que maximiza la seguridad. Un ejemplo simple es que, al igual que usamos HTTPS para cifrar páginas web, no necesitas conocer los detalles del cifrado detrás de escena, solo necesitas confirmar que la conexión es segura, y aquí es lo mismo. Su visión central es muy clara: permitir que los usuarios utilicen IA de alta gama con confianza, que los desarrolladores se atrevan a abrir modelos (proteger la propiedad intelectual), impulsar un ecosistema de IA transparente y confiable, y reducir la dependencia de los gigantes. En la gestión de activos en cadena, agentes automatizados y otros escenarios, en lugar de preocuparse por la inteligencia del modelo, la gente se preocupa más por si la inferencia ha sido alterada o si el modelo ha sido cambiado. Anteriormente, soluciones similares de verificación de inferencias eran difíciles de implementar debido a que eran demasiado lentas y caras, mientras que Inference Labs, en colaboración con Cysic, ha introducido aceleración de hardware ZK, dotando al sistema de verificación de un "acelerador", haciendo posible que la teoría de la falsificación se materialice. Después del lanzamiento de la mainnet, su enfoque se ha desplazado hacia hacer que sea más fácil de usar, más barato y escalable, justo a tiempo para el posible estallido de los agentes. Este estilo de no hacer ruido y trabajar sólidamente en la base es, de hecho, muy confiable. #InferenceLabs