خبير الذكاء الاصطناعي: بروتوكولات الحقيقة قد تصبح SSL لعصر المعلومات

المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، بما في ذلك التزييف العميق والصوت المزيف، طمس الحدود بين الواقع والتزييف، مما أدى إلى ارتباك واسع النطاق وتلاعب. خبراء مثل يانيك ميسون ادعم تضمين التحقق في مرحلة إنشاء المحتوى وتنفيذ أنظمة التحقق اللامركزية لضمان الأصالة.

المعلومات المضللة ومخاطرها

كانت سنة 2024 بمثابة تحذير صارخ حول مخاطر الذكاء الاصطناعي (AI) التي قد تشكلها إذا لم يتم وضع أي تدابير أمان. في جميع أنحاء العالم، من التمرين الديمقراطي الضخم في الهند إلى المناخ السياسي المتوتر في تايوان، تركت حملات التضليل المولدة بواسطة الذكاء الاصطناعي أثرها.

في تايوان، قامت مذيعات الأخبار العميقة بتشويش الحدود بين الواقع والتصنيع، بينما في الولايات المتحدة، أكد تسجيل صوتي مزيف للرئيس بايدن وهو يثني الديمقراطيين في نيوهامشير عن التصويت سهولة استخدام الذكاء الاصطناعي كأداة للتلاعب السياسي. لقد ترك الحجم الهائل والتعقيد لهذه الوسائط الاصطناعية الكثيرين يشعرون بالضياع في بحر من عدم اليقين، يكافحون لتمييز الحقيقة من الخيال.

ومع ذلك، يجادل بعض الخبراء، مثل يانيك ميسون، مؤسس ومدير تنفيذي لشبكة سوارم، بأن المشكلة أعمق من التلاعب الانتخابي. ويستشهد بجنون العظمة الناتج عن الذكاء الاصطناعي، وهو ظاهرة مقلقة يتمثل في تطوير الأشخاص لأوهام متضخمة، والتي تربطها بعض الدراسات بالتفاعلات المطولة مع روبوتات الدردشة الخاصة بالذكاء الاصطناعي. وقد كانت تكلفة هذا الجنون الناتج عن الذكاء الاصطناعي هائلة؛ فقد فقد بعض الأشخاص وظائفهم بينما انتهى آخرون في علاج نفسي.

"تمامًا كما تستغل التقنيات العميقة اختصارات معالجة الصور لدينا، تستغل الهلوسة الذكائية نقاط ضعفنا النفسية، حيث تعمل الدردشة الآلية كغرف صدى مثالية تؤكد وتعزز التفكير الوهمي،" قال ميسون.

الحلول المركزية مقابل الحلول اللامركزية

يعتقد ميسون أن الإجراءات التفاعلية الحالية، مثل مبادرات التحقق من الحقائق المرقعة، غير كافية ببساطة لمكافحة هذه المشكلة المتصاعدة. "ما تستيقظ عليه الصناعة هو أن التحقق المرقع من الحقائق لا يمكنه مواكبة سرعة الوسائط الاصطناعية أو التلاعب النفسي بأنظمة الذكاء الاصطناعي"، كما يؤكد.

الحل الذي يتجسد في شبكة Swarm هو حل استباقي: تضمين التحقق على نطاق واسع. يتضمن ذلك إنشاء إثبات في نقطة إنشاء المحتوى، مما يضمن أنه يمكن تتبع أصل المعلومات الرقمية والتحقق منها. علاوة على ذلك، يدعم Myson أنظمة التحقق اللامركزية، حيث يتم التحقق من المعلومات والتحقق منها أثناء انتشارها عبر الفضاء الرقمي.

تتوافق هذه الرؤية لـ "بنية تحتية قوية للحقيقة" مع القلق المتزايد داخل صناعة الذكاء الاصطناعي. مع استمرار تقدم التكنولوجيا بوتيرة سريعة، تزداد الآثار الأخلاقية والاجتماعية لإساءة استخدامها وضوحًا. إن تآكل الثقة في المعلومات الرقمية، الذي تغذيه الأكاذيب المعقدة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي، يشكل تهديدًا كبيرًا للعمليات الديمقراطية، والتماسك الاجتماعي، وحتى الرفاهية العقلية الفردية.

لمكافحة ذلك، دعا البعض إلى استجابة تنظيمية، مشيرين إلى حالات سابقة عندما أثبت ذلك أنه أداة حيوية لحماية المستخدمين من المخاطر المحتملة المرتبطة بالتقنيات الناشئة. ومع ذلك، يحذر النقاد من أن هذا قد يكون له تأثير غير مقصود في خنق الابتكار، وهو ما يبدو أن مايسون يتفق معه.

"يمكن أن تساعد اللوائح، ولكن فقط إذا تجنبت فخ مركزة الحقيقة. لقد رأينا الحكومات تستخدم 'قوانين التضليل' لإسكات النقاش،" صرح بذلك الرئيس التنفيذي لشبكة Swarm.

لدعم هذا التأكيد، أشار ميسون إلى كيف أن البيروقراطيين في الاتحاد الأوروبي يستخدمون على ما يبدو (EU) قانون الخدمات الرقمية (DSA)، الذي يفرض إزالة المحتوى "الضار" الذي يتم تعريفه بشكل واسع، ك"أداة لتقييد النقاش المفتوح حول العالم." يجادل ميسون أن قانون الذكاء الاصطناعي في الاتحاد الأوروبي يخلق أيضًا مشاكل مشابهة.

بدلاً من سن قوانين مثل DSA أو قانون الذكاء الاصطناعي، يدعم ميسون بدلاً من ذلك إلزام الشفافية، ووضع علامات واضحة على الوسائط الاصطناعية، ومعايير الأصول المفتوحة مثل C2PA. "يجب أن تفرض القواعد الدليل، وليس الرأي،" جادل.

مستقبل التحقق

وفقًا للرئيس التنفيذي، فإن منصات التواصل الاجتماعي الكبرى مثل ميتا وتيك توك تعترف بذلك وقد تحولت منذ ذلك الحين نحو أساليب أكثر لامركزية للتحقق من الحقائق.

"يمثل هذا التحول اعترافًا أساسيًا بأن التحقق من الحقائق المركزي يخلق اختناقات ونقاط فشل فردية. مستقبل التحقق من المحتوى ليس عن منح الحكومات أو الشركات السلطة لتحديد ما هو صحيح،" صرح الرئيس التنفيذي.

يعتقد ماي سون أن هذا التحول يجعل الحلول مثل تلك التي تقدمها شبكة سوارم حاسمة. بدلاً من الاعتماد على عدد قليل من المدققين المركزيين، تستخدم سوارم "وكلاء الذكاء الاصطناعي الذين يعملون جنبًا إلى جنب مع المراجعين البشريين لإنشاء سجل يمكن تدقيقه، على السلسلة، من المطالبات التي تم التحقق منها."

بالفعل، فإن وكلاء الذكاء الاصطناعي يتحركون بسرعة من المفاهيم النظرية إلى التطبيقات العملية، مما يغير بشكل جذري كيفية عمل القطاعات المختلفة. الفائدة الأساسية من هؤلاء الوكلاء هي قدرتهم على الأتمتة والتحسين. يمكنهم معالجة كميات هائلة من البيانات في فترة زمنية قصيرة، وتحديد الأنماط التي قد تفوت على البشر، والعمل على مدار الساعة دون تعب.

ومع ذلك، فإن الانتشار الواسع لوكلاء الذكاء الاصطناعي يقدم أيضًا تحديات معقدة تحتاج إلى معالجة دقيقة. للتغلب على بعض هذه التحديات، قال ميسون إن نهج شركته "هو تحويل الوكلاء إلى متعاونين شفافين، وليس عرافين غير مضمونين." وأضاف:

"في Swarm، يقوم الوكلاء بتفكيك المعلومات إلى ادعاءات صغيرة قابلة للاختبار، ويتحققون من بعضهم البعض، وعندما تكون هناك حاجة إلى تفاصيل دقيقة، يتدخل البشر. يتم تسجيل كل خطوة وتثبيتها على السلسلة، مما يجعل استدلالهم قابلًا لإعادة التشغيل. باختصار: لا صناديق سوداء، فقط آثار يمكن التحقق منها."

في غضون ذلك، يعتقد ميسون أن عملية التحقق من الحقائق ستتطور في السنوات الخمس القادمة من عملية يدوية إلى ميزة مدمجة في الحياة الرقمية، وسيتم تقييم وكلاء الذكاء الاصطناعي بناءً على شفافيتهم، وليس فقط سرعتهم. الرؤية النهائية هي جعل الحقيقة طبقة أساسية من الإنترنت.

"تمامًا كما أصبحت SSL الافتراضية لحركة مرور الويب، ستصبح بروتوكول الحقيقة الافتراضي للمعلومات. وهكذا نحافظ على الذكاء الاصطناعي من غمر العالم بالضجيج،" اختتم ميسون.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • 2
  • إعادة النشر
  • مشاركة
تعليق
0/400
GateUser-82b5fb27vip
· منذ 9 س
HODL Tight 💪
رد0
GateUser-696e6d35vip
· منذ 9 س
شركة HODL💎
شاهد النسخة الأصليةرد0
  • تثبيت