مساء 30 🌕 ديسمبر 🤔 كما يهدف إلى موثوقية الذكاء الاصطناعي، فقد سلك مشروعا الذكاء الاصطناعي الرئيسيان في Web3 مسارات مختلفة تماما! أحدهما يعتمد على التصويت الجماعي، والآخر يعتمد على الأدلة الرياضية، وخلفه يكمن الاختلاف المنطقي الأساسي في الثقة! @miranetwork التركيز على أفكار التوثيق: بدلا من الانخراط في نماذج أكثر تعقيدا، قسم الذكاء الاصطناعي الاستنتاجات إلى بيانات صغيرة قابلة للتحقق ووضعها في شبكات لامركزية للتحقق المتبادل، مع الإصرار على الإثبات أولا ثم اتخاذ إجراءات. إنه مثل أن تقوم مجموعة من الخبراء بمراجعة إجابات الذكاء الاصطناعي بشكل جماعي، والتأكد من أن النتائج موثوقة ولا يمكن لأحد العبث بها، وسد الثغرات في مخرجات الذكاء الاصطناعي عند المصدر. نظام القياسات الذاتية في @inference_labs مزود بمسجل صندوق أسود الذكاء الاصطناعي: كل قرار يتخذه الذكاء الاصطناعي سيترك مسارا مشفرا وثابتا، حتى لو تم تنفيذه بشكل مستقل، ويمكن تدقيق العملية بالكامل وتتبعها، ويمكن رؤية الحقوق والمسؤوليات بنظرة سريعة. هذا يحل بشكل مباشر مشكلة المساءلة في تطبيقات الذكاء الاصطناعي في المجالات عالية المخاطر (مثل المالية والرعاية الصحية)، ويمكنه تحديد المسؤوليات بدقة عند ظهور المشاكل. 🚀 في العقد الماضي، ركزت المنافسة على الذكاء الاصطناعي على معلمات النماذج، وقوة الحوسبة، والخوارزميات، ولكن مع دخول الذكاء الاصطناعي مرحلة التطبيق واسع النطاق، أصبحت الموثوقية والثقة العنقين الأساسيين الذين يعيقون تطويره. 🚀 لم يعد المستخدمون راضين عما يمكن الذكاء الاصطناعي فعله، بل أصبحوا أكثر اهتماما بما إذا كان ما يفعله الذكاء الاصطناعي موثوقا ومن المسؤول عما يحدث. يشير استكشاف هذين المشروعين إلى اتجاه الجيل القادم من الذكاء الاصطناعي: من السعي نحو الأذكى إلى السعي نحو المزيد من المصداقية. 🚀 من يستطيع بناء آلية ثقة أكثر كفاءة وشمولية وملاءمة تلبي احتياجات السيناريوهات المختلفة سيشغل القمة العليا في صنع القواعد في التعاون بين الذكاء الاصطناعي والمجتمع البشري. #InferenceLabs @MiraNetworkCN @KaitoAI