Kvelden 30 🌕. desember 🤔 Med mål om AI-pålitelighet har de to store Web3 AI-prosjektene tatt helt forskjellige retninger! Den ene baserer seg på kollektiv stemmegivning, den andre på matematiske bevis, og bak ligger den underliggende logiske forskjellen i tillit! @miranetwork Fokuser på notariseringsideer: i stedet for å bruke mer komplekse modeller, del AI-konklusjoner inn i små verifiserbare utsagn og kast dem til desentraliserte nettverk for kryssverifisering, og insister på å bevise først og deretter handle. Det er som å ha en gruppe eksperter som kollektivt gjennomgår AIs svar, og sikrer at resultatene er troverdige og at ingen kan tukle med dem, og tette smutthullene i AI-utdataene ved kilden. @inference_labs Autonometrics-system er utstyrt med en svart boks-opptaker for AI: hver beslutning tatt av AI vil etterlate en kryptert, uforanderlig bane, selv om den utføres autonomt, hele prosessen kan revideres og spores tilbake, og rettigheter og ansvar kan sees med et blikk. Dette løser direkte problemet med ansvarlighet i AI-applikasjoner i høyrisikoområder (som finans og helsevesen), og kan nøyaktig lokalisere ansvar når problemer oppstår. 🚀 I løpet av det siste tiåret har konkurransen om AI fokusert på modellparametere, regnekraft og algoritmer, men etter hvert som AI går inn i storskala applikasjoner, har pålitelighet og tillit blitt de viktigste flaskehalsene som begrenser utviklingen. 🚀 Brukerne er ikke lenger fornøyde med hva AI kan gjøre, men er mer opptatt av om det AI gjør er troverdig og hvem som er ansvarlig for det som går galt. Utforskningen av disse to prosjektene indikerer retningen for neste generasjon AI: fra å søke smartere til å oppnå mer troverdighet. 🚀 Den som kan bygge en mer effektiv, universell og mer egnet tillitsmekanisme som møter behovene i ulike scenarioer, vil innta de ledende høydene i regelverket i samarbeidet mellom AI og menneskesamfunnet. #InferenceLabs @MiraNetworkCN @KaitoAI