Večer 30 🌕. prosince 🤔 Také s cílem spolehlivosti AI se oba hlavní projekty Web3 AI vydaly zcela odlišnými cestami! Jeden spoléhá na kolektivní hlasování, druhý na matematické důkazy a za tím stojí základní logický rozdíl v důvěře! @miranetwork Zaměřte se na notářské ověření: místo zapojení se do složitějších modelů rozdělte závěry AI na malé ověřitelné výroky a házejte je do decentralizovaných sítí k křížové verifikaci, přičemž trváte na tom, že nejdříve dokážete a až pak jednáte. Je to jako mít skupinu expertů, kteří společně přezkoumávají odpovědi AI, zajišťují, že výsledky jsou důvěryhodné a nikdo je nemůže změnit, a zacelit mezery ve výstupu AI přímo u zdroje. Systém Autonometrics od @inference_labs je vybaven černou skříňkou pro záznamník AI: každé rozhodnutí učiněné AI zanechá zašifrovanou, neměnnou trajektorii, i když je provedeno autonomně, celý proces lze auditovat a vystopovat zpět a práva a povinnosti lze vidět na první pohled. To přímo řeší problém odpovědnosti v aplikacích AI v rizikových oblastech (jako jsou finance a zdravotnictví) a umožňuje přesně určovat odpovědnosti, když se objeví problémy. 🚀 V posledním desetiletí se konkurence o AI zaměřila na parametry modelu, výpočetní výkon a algoritmy, ale jak AI vstupuje do fáze rozsáhlých aplikací, spolehlivost a důvěra se staly hlavními úzkými místy omezujícími její vývoj. 🚀 Uživatelé už nejsou spokojeni s tím, co AI dokáže, ale více se zajímají o to, zda je to, co AI dělá, důvěryhodné a kdo je zodpovědný za to, co se pokazí. Zkoumání těchto dvou projektů naznačuje směr další generace AI: od snahy o chytřejší přístup k větší důvěryhodnosti. 🚀 Kdo dokáže vybudovat efektivnější, univerzálnější a vhodnější mechanismus důvěry, který vyhovuje potřebám různých scénářů, bude zaujímat vedoucí pozice v tvorbě pravidel ve spolupráci mezi AI a lidskou společností. #InferenceLabs @MiraNetworkCN @KaitoAI