Kvällen den 30 🌕 december 🤔 Med målet att uppnå AI-tillförlitlighet har de två stora Web3 AI-projekten tagit helt olika vägar! Den ena bygger på kollektiv röstning, den andra på matematiska bevis, och bakom den ligger den underliggande logiska skillnaden i förtroende! @miranetwork Fokusera på notariseringsidéer: istället för att använda mer komplexa modeller, dela upp AI-slutsatser i små verifierbara påståenden och skicka dem till decentraliserade nätverk för korsverifiering, och insistera på att först bevisa och sedan agera. Det är som att en grupp experter gemensamt granskar AI:s svar, säkerställer att resultaten är trovärdiga och att ingen kan manipulera dem, och täpper till kryphålen i AI:s resultat vid källan. @inference_labs:s Autonometriksystem är utrustat med en svart låda-inspelare för AI: varje beslut som AI fattar lämnar en krypterad, oföränderlig bana, även om den utförs autonomt, hela processen kan granskas och spåras bakåt, och rättigheter och skyldigheter kan ses vid en snabb blick. Detta löser direkt problemet med ansvarstagande i AI-applikationer inom högriskområden (såsom finans och sjukvård), och kan korrekt lokalisera ansvarsområden när problem uppstår. 🚀 Under det senaste decenniet har konkurrensen om AI fokuserat på modellparametrar, datorkraft och algoritmer, men när AI går in i fasen av storskaliga applikationer har tillförlitlighet och förtroende blivit de grundläggande flaskhalsarna som begränsar dess utveckling. 🚀 Användare är inte längre nöjda med vad AI kan göra, utan är mer oroade över om det AI gör är trovärdigt och vem som är ansvarig för vad som går fel. Utforskandet av dessa två projekt visar riktningen för nästa generations AI: från att satsa smartare på att öka trovärdigheten. 🚀 Den som kan bygga en mer effektiv, universell och mer lämplig förtroendemekanism som möter behoven i olika scenarier kommer att inta de ledande höjderna inom regelskapandet i samarbetet mellan AI och mänskligt samhälle. #InferenceLabs @MiraNetworkCN @KaitoAI