12月30 🌕日の夕方 🤔 また、AIの信頼性を目指した2つの主要なWeb3 AIプロジェクトは全く異なる道を歩んでいます! 一方は集団投票に頼り、もう一方は数学的証拠に頼り、その背後には信頼という論理的な違いがあります! @miranetwork 公証のアイデアに焦点を当てる:より複雑なモデルに関わるのではなく、AIの結論を小さな検証可能な文に分割し、分散型ネットワークに交差検証させ、まず証明してから行動させることに重点を置く。 まるで専門家グループがAIの回答を一堂に会し、結果が信頼できるか、誰にも改ざんできないようにし、AI出力の抜け穴をソースから塞ぐようなものです。 @inference_labsの自律計測システムにはAI用のブラックボックスレコーダーが搭載されており、AIによるすべての決定は暗号化され不変の軌跡を残します。たとえ自律的に実行されていても、プロセス全体が監査・追跡され、権利と責任が一目で確認できます。 これにより、金融や医療などの高リスク分野におけるAIアプリケーションの説明責任の問題を直接解決し、問題が生じた際に責任を正確に特定できます。 🚀 過去10年間、AIの競争はモデルパラメータ、計算能力、アルゴリズムに焦点を当ててきましたが、AIが大規模応用段階に入るにつれて、信頼性と信頼がその発展を制約する主要なボトルネックとなっています。 🚀 ユーザーはもはやAIの能力に満足せず、AIの行動が信頼できるかどうか、そして問題が起きる責任が誰にあるかをより気にしています。 これら2つのプロジェクトの探求は、次世代AIの方向性を示しています。すなわち、より賢く追求する方向から、より高い信頼性の追求へと。 🚀 異なるシナリオのニーズに応える、より効率的で普遍的かつ適切な信頼メカニズムを構築できる者が、AIと人間社会の協働におけるルール制定の主導権を握ることになるでしょう。 #InferenceLabs @MiraNetworkCN @KaitoAI