تكنولوجيا

“تهلوس” وتختلق الإجابات… ​باحثون يحذرون من نماذج الذكاء الاصطناعي

21 حزيران, 2024

حذرت مجموعة من الباحثين من أن نماذج الذكاء الاصطناعي يمكن أن “تهلوس” وتختلق إجابات عن الأسئلة التي لا تعرف حلها، مشيرين إلى أنهم ابتكروا طريقة يمكن بها رصد هذه المشكلة التي قد تسبب كوارث خطيرة، إذا ارتبطت الأسئلة بالمجالات العلمية والطبية.

وبحسب صحيفة “إندبندنت” البريطانية، فقد طور الباحثون التابعون لجامعة أكسفورد نموذجاً إحصائياً يمكنه تحديد متى من المحتمل أن تختلق روبوتات الدردشة التي تعمل بالذكاء الاصطناعي إجابات غير صحيحة عن أسئلة ما.
وأشار الفريق إلى أن نموذجهم يعتمد على الوقت الذي يقوم فيه روبوت الدردشة بالإجابة عن السؤال الموجَّه إليه، حيث يمكن للنموذج المبتكر، عن طريق حساب هذا الوقت، معرفة ما إذا كان روبوت الدردشة متأكداً من الإجابة أو قام بتأليفها واختلاقها.

وقال مؤلف الدراسة الدكتور سيباستيان فاركوهار: “إن نماذج الذكاء الاصطناعي قادرة على خداعنا عن طريق طرح إجابات تبدو مؤكدة، ويصعب الكشف عن أنها مختلَقة”.
وأضاف: “مع الأساليب السابقة، لم يكن من الممكن معرفة الفرق بين النموذج الذي يكون غير متأكد بشأن إجابته، وذلك الذي يعطي إجابات صحيحة على الأسئلة الموجهة إليه. لكن طريقتنا الجديدة يمكنها رصد هذا الأمر”.
وقال الباحثون في دراستهم التي نُشِرت في مجلة “الطبيعة”: “إن هلوسة نماذج الذكاء الاصطناعي التوليدي مصدر قلق رئيس، حيث إن الطبيعة المتقدمة للتكنولوجيا وقدرتها على المحادثة تعنيان أنها قادرة على تمرير معلومات مختلقة وغير صحيحة على أنها حقيقة فقط، من أجل الرد على الاستفسارات والأسئلة”.

ودعا الفريق إلى اتخاذ إجراءات قوية لمكافحة هلوسة الذكاء الاصطناعي، على وجه الخصوص عندما يتعلق الأمر بالاستفسارات الطبية أو القانونية.
والشهر الماضي، اتخذت شركة ««غوغل» خطوات لتطوير محرك البحث الجديد “إيه آي أوفرفيوز” AI Overviews، المدعوم بالذكاء الاصطناعي التوليدي، بعد أن أبلغ مستخدمون عن إجابات غريبة أو أخرى تنطوي على خطورة محتملة.

ونشر أحد المدونين منشوراً بيَّن من خلاله أنه لدى السؤال حول عدد الرؤساء المسلمين في تاريخ الولايات المتحدة، رد AI Overviews بأن باراك أوباما “يعتبره البعض أول رئيس مسلم”.

وتعليقاً على هذا المثال، أوضحت ناطقة باسم ««غوغل» أن هذه النتيجة “انتهكت سياساتنا وعمدنا إلى إزالتها”.
ونشر مستخدم آخر عبر حسابه المسمى “بيكسلباتس” PixelButts على منصة “إكس”، لقطة شاشة تعرض إجابة محرك البحث على سؤال بشأن طريقة تتيح “عدم التصاق الجبن بالبيتزا”.
وبالإضافة إلى خلط الجبن مع الصلصة، اقترح محرك البحث التابع لـ”غوغل” إضافة غراء “غير سامّ” إلى الجبن.
وفي شهر كانون الثاني الماضي، حذرت دراسة من إمكانية تدريب نماذج الذكاء الاصطناعي المتقدمة على الكذب على البشر وخداعهم بكل سهولة.

واختبر فريق الدراسة التابع لشركة “Anthropic” الناشئة للذكاء الاصطناعي ما إذا كانت روبوتات الدردشة المتطورة مثل «تشات جي بي تي» يمكن أن تتعلم الكذب من أجل خداع الناس.
ووجد الفريق أن هذه الروبوتات لا تستطيع تعلم الكذب فحسب، بل من المستحيل إعادة تدريبها بعد ذلك على قول الحقيقة والمعلومات الصحيحة باستخدام تدابير السلامة الخاصة بالذكاء الاصطناعي المتاحة في الوقت الحالي.

وحذر الباحثون من وجود “شعور زائف بالأمان” تجاه أنظمة الذكاء الاصطناعي والمعلومات المستمدة منها.
وأشار الفريق إلى خطورة برمجة المحتالين وقراصنة الإنترنت لأنظمة الذكاء الاصطناعي على الكذب وإخفاء الأضرار التي قد تنتج عن عملية شرائية معينة أو عن الدخول إلى موقع ما. (الشرق الاوسط)

شارك الخبر: