När det gäller AI-projekt kan många vara lite trötta på att lyssna, främst för att det blir fler och fler sådana projekt, och nyhetens värde har länge varit borta. Men den @inference_labs vi ska prata om idag löser ett problem som alla kanske inte är medvetna om, men om du verkligen stöter på det kommer du att lida, och det är värt att prata om För att uttrycka det rakt på sak, du spenderar pengar på att prenumerera på en avancerad AI-tjänst, i tron att du använder den toppmodell som handlaren annonserar, men i själva verket kan handlaren i hemlighet överföra din förfrågan till en billigare modell. Du kan ju trots allt inte se insidan av modellen, och utdataresultaten ser likadana ut, så det är väldigt svårt att ta reda på att du har blivit överförd. I detta fall kallas den professionella poängen modellersättningsrisk, för att uttrycka det rakt på sak, det handlar om att spendera pengar på att köpa exklusiva tjänster, och själva användningen är ett billigt alternativ Inference Labs lösning har en mycket speciell idé, som bygger på nollkunskapsbevis för att generera offentligt verifierbara kryptografiska bevis, vilket inte bara kan bekräfta att modellens vikt inte har ändrats, utan också bevisa att en specificerad modell används, vilket undviker fallgropar från roten 👉 De grundläggande fördelarna är intuitiva 1⃣ Vem som helst kan verifiera det. Oavsett om det är du själv, tillsynsmyndigheterna eller en tredje part som revisorn kan du självständigt kontrollera dessa bevis, utan att lita på Inference Labs eller handlarna som tillhandahåller AI-tjänster, och utan att förlita dig på "karaktärs"-garantier under hela processen. 2⃣ Ingen integritet läcker alls. Modellens kärndata (vikter) och den information du matar in behöver inte lämnas ut, och säkerheten är full. För att ge ett enkelt exempel, precis som vi vanligtvis krypterar webbsidor med HTTPS, behöver du inte känna till krypteringsdetaljerna bakom det, bara se till att anslutningen är säker, och samma gäller här Dess kärnvision är tydlig: låta användare använda avancerad AI med självförtroende, utvecklare våga öppna modeller (garantera immateriella rättigheter), främja transparens och trovärdighet i AI-ekosystemet samt minska beroendet av jättar I scenarier som on-chain asset management och automatiserade agenter är folk mer oroliga för att manipulera resonemang och modellöverföring än för modellintelligens. Tidigare var liknande lösningar för inferensverifiering för långsamma och dyra att implementera, men Inference Labs samarbetade med Cysic för att införa ZK-hårdvaruacceleration och installera en "accelerator" för verifieringssystemet, vilket gjorde det möjligt att implementera teoretisk anti-förfalskning Efter att mainnet lanserades skiftade deras fokus till bättre användning, billigare och större, vilket var precis lagom för de noder där Agenten kunde explodera. Denna stil, att inte hypa och göra botten ordentligt, är särskilt pålitlig #InferenceLabs