30 dicembre 🌕 sera 🤔 Pur mirando alla affidabilità dell'AI, due grandi progetti Web3 AI hanno intrapreso percorsi completamente diversi! Uno si basa sul voto collettivo, l'altro su prove matematiche, e dietro c'è una differenza fondamentale nella logica della fiducia! @miranetwork punta su un approccio di certificazione: non crea modelli più complessi, ma scompone le conclusioni dell'AI in piccole affermazioni verificabili, da sottoporre a una rete decentralizzata per la verifica incrociata, insistendo sul "prima dimostrare, poi agire". È come far esaminare le risposte dell'AI a un gruppo di esperti, assicurandosi che i risultati siano affidabili e che nessuno possa manomettere i dati, bloccando le vulnerabilità dell'output dell'AI fin dalla fonte. D'altra parte, il sistema Autonometrics di @inference_labs ha dotato l'AI di una scatola nera: ogni decisione dell'AI lascia una traccia crittografata e immutabile, anche quando esegue compiti autonomamente, l'intero processo può essere auditato e retrospettivamente analizzato, con responsabilità chiare. Questo risolve direttamente il problema della responsabilità nell'applicazione dell'AI in settori ad alto rischio (come la finanza e la sanità), permettendo di localizzare con precisione le responsabilità in caso di problemi. 🚀 Negli ultimi dieci anni, la competizione nell'AI si è concentrata su parametri del modello, potenza di calcolo e algoritmi, ma con l'ingresso dell'AI in una fase di applicazione su larga scala, l'affidabilità e il livello di fiducia sono diventati i principali colli di bottiglia per il suo sviluppo. 🚀 Gli utenti non sono più soddisfatti del fatto che l'AI possa svolgere compiti, ma si preoccupano se ciò che fa l'AI sia credibile e chi sia responsabile in caso di problemi. L'esplorazione di questi due progetti preannuncia esattamente la direzione di sviluppo della prossima generazione di AI: dal perseguire una maggiore intelligenza al cercare una maggiore affidabilità. 🚀 Chi riuscirà a costruire meccanismi di fiducia più efficienti, più universali e più adatti alle diverse esigenze dei vari scenari, avrà il vantaggio nella definizione delle regole nella collaborazione tra AI e società umana. #InferenceLabs @MiraNetworkCN @KaitoAI