أعلنت شركة أوبن أيه آي (OpenAI) في مواجهة “هلوسة” الذكاء الاصطناعي ، بأسلوب جديد لتدريب نماذج الذكاء الاصطناعي.
يأتي البحث في وقت أصبحت فيه المعلومات المضللة من أنظمة الذكاء الاصطناعي أكثر إثارة للجدل من أي وقت مضى ، وسط طفرة الذكاء الاصطناعي التوليدية والفترة التي سبقت الانتخابات الرئاسية الأمريكية عام 2024. chatbot مدعوم من GPT-3 و GPT-4 ، وتجاوز 100 مليون مستخدم شهريًا في شهرين ، مسجلاً رقمًا قياسيًا للتطبيق الأسرع نموًا بسرعة. في الوقت الحاضر، مايكروسوفت استثمرت أكثر من 13 مليار دولار في OpenAI ، وبلغت قيمة الشركة الناشئة حوالي 29 مليار دولار.
تحدث الهلوسة بالذكاء الاصطناعي عندما تحدث نماذج مثل ChatGPT أو جوجليقوم Bard بتلفيق المعلومات بالكامل ، ويتصرف كما لو كانوا ينفثون بالحقائق. مثال: في مقطع الفيديو الترويجي الخاص بشركة Google في فبراير لـ Bard ، يقوم برنامج الدردشة الآلي بإنشاء ملف جملة خاطئة على تلسكوب جيمس ويب الفضائي. وفي الآونة الأخيرة ، استشهد موقع ChatGPT بقضايا “كاذبة” في ملف محكمة فيدرالية بنيويورك ، وقد يواجه محامو نيويورك المعنيون عقوبات.
كتب باحثو أوبن إيه آي في التقرير: “حتى النماذج الحديثة تكون عرضة لإنتاج الكذب – فهي تميل إلى اختراع الحقائق في أوقات عدم اليقين”. “هذه الهلوسة مشكلة بشكل خاص في المجالات التي تتطلب تفكيرًا متعدد الخطوات ، لأن خطأ منطقيًا واحدًا يكفي لعرقلة حل أكبر بكثير.”
استراتيجية OpenAI الجديدة المحتملة لمكافحة التلفيق: تدريب نماذج الذكاء الاصطناعي لمكافأة أنفسهم على كل خطوة تفكير صحيحة عند الوصول إلى إجابة ، بدلاً من مجرد مكافأة النتيجة النهائية الصحيحة. يقول الباحثون إن هذا النهج يسمى “الإشراف على العملية” ، على عكس “الإشراف على النتائج” ، ويمكن أن يؤدي إلى ذكاء اصطناعي يمكن تفسيره بشكل أفضل ، لأن الاستراتيجية تشجع النماذج على اتباع المزيد من سلسلة “التفكير” البشري.
“يعد اكتشاف الأخطاء المنطقية أو الهلوسة في النموذج والتخفيف من حدتها خطوة حاسمة نحو بناء AGI متوافق [or artificial general intelligence]قال كارل كوب ، الباحث في الرياضيات في أوبن إيه آي ، لشبكة سي إن بي سي ، مشيرًا إلى أنه على الرغم من أن أوبن إيه آي لم تخترع نهج مراقبة العملية ، إلا أن الشركة تساعد في دفعها إلى الأمام. “إن الدافع وراء هذا البحث هو علاج الهلوسة من أجل صنع نماذج أكثر فعال. قادرة على حل مشاكل التفكير الصعبة “.
أصدرت شركة OpenAI مجموعة بيانات مصاحبة تتكون من 800000 علامة بشرية استخدمتها لتدريب النموذج المذكور في ورقة البحث ، على حد قول كوب.
أعرب بن وينترز ، كبير المستشارين في مركز معلومات الخصوصية الإلكترونية ورئيس مشروع الذكاء الاصطناعي وحقوق الإنسان ، عن شكوكه ، وقال لقناة CNBC إنه مهتم برؤية مجموعة البيانات الكاملة والتفاصيل.الأمثلة المصاحبة.
قال وينترز: “لا أعتقد أن هذا بمفرده يخفف بشكل كبير من المخاوف بشأن المعلومات الخاطئة والنتائج غير الصحيحة … عند استخدامها فعليًا في البرية”. وأضاف: “من المهم حقًا معرفة ما إذا كانوا يخططون لتنفيذ ما توصلوا إليه من خلال أبحاثهم هنا. [into their products]وإذا لم يكونوا كذلك ، فإنه يثير بعض الأسئلة الجادة حول ما هم على استعداد لنشره للجمهور “.
نظرًا لأنه ليس من الواضح ما إذا كانت ورقة OpenAI قد تمت مراجعتها من قِبل الأقران أو تمت مراجعتها بتنسيق آخر ، قال سوريش فينكاتاسوبرامانيان ، مدير مركز المسؤولية التكنولوجية بجامعة براون ، لشبكة CNBC إنه اعتبر البحث بمثابة ملاحظة أولية أكثر من أي شيء آخر.
قال فينكاتاسوبرامانيان: “يجب أن يزعزع المجتمع البحثي قبل أن نتمكن من قول أي شيء محدد عنه”. “في هذا العالم ، هناك الكثير من النتائج التي تظهر بشكل منتظم جدًا ، وبسبب عدم الاستقرار العالمي لكيفية عمل النماذج اللغوية الكبيرة ، فإن ما قد ينجح في إعداد ونموذج وسياق واحد قد لا يعمل في إطار ونموذج و سياق.
وأضاف فينكاتاسوبرامانيان: “بعض الأمور الهلوسة التي يقلق الناس بشأنها [models] جعل الاستشهادات والمراجع. لا يوجد دليل في هذا المقال على أنه سيعمل من أجل ذلك … ليس الأمر أنني أقول أنه لن ينجح ؛ اقول ان هذه الوثيقة لا تقدم هذا الدليل “.
لم ترد شركة OpenAI على طلب للتعليق يسأل عما إذا كان البحث قد تمت مراجعته خارجيًا بأي صفة ، أو متى تخطط الشركة لتنفيذ الاستراتيجية الجديدة في ChatGPT ومنتجاتها الأخرى ، إن وجدت.
“إنه أمر مرحب به بالتأكيد أن ترى الشركات تحاول العبث بتطوير أنظمتها لمحاولة تقليل هذه الأنواع من الأخطاء – أعتقد أن المفتاح هو تفسير هذا على أنه بحث في مجال الأعمال ، في ضوء العقبات العديدة الموجودة أمام الأشكال الأعمق للمساءلة قالت سارة مايرز ويست ، المديرة التنفيذية لمعهد AI Now ، لشبكة CNBC.
وأضاف الغرب:[OpenAI is] نشر مجموعة صغيرة من بيانات التعليقات على مستوى الإنسان مع هذه المقالة ، لكنها لم تقدم تفاصيل أساسية عن البيانات المستخدمة لتدريب واختبار GPT-4. لذلك لا يزال هناك غموض كبير يدعو إلى التساؤل عن أي جهود مساءلة ذات مغزى في مجال الذكاء الاصطناعي ، على الرغم من أن هذه الأنظمة تؤثر بالفعل على الأشخاص بشكل مباشر “.
Social media junkie. Zombie fanatic. Travel fanatic. Music obsessed. Bacon expert.