سقطة “طبيّة”… ChatGPT يفشل أمام هذه الأسئلة
كشفت دراسة جديدة عيباً في برنامج ChatGPT وسقوطاً خطراً بما يخص الإجابة الشاملة عن الأسئلة الطبية.
فقد طرح الباحثون في جامعة لونغ آيلاند 39 استفساراً متعلقاً بالأدوية على النسخة المجانية من البرنامج وكانت جميعها أسئلة حقيقية من خدمة المعلومات الدوائية بكلية الصيدلة بالجامعة، بحسب تقرير نشرته شبكة “سي إن إن”.
ثم تمت مقارنة إجابات البرنامج مع الإجابات المكتوبة والمراجعة من قبل الصيادلة المدربين، وتبين أن الإجابات الدقيقة كانت لحوالي 10 أسئلة فقط أما الأسئلة الأخرى والبالغ عددها 29 فكانت إجاباتها غير كاملة أو غير دقيقة أو أنها لم تتناول الأسئلة.
وعلى سبيل المثال في أحد الأسئلة سأل الباحثون البرنامج عما إذا كان دواء كوفيد-19 المضاد للفيروسات “باكلوفيد” ودواء خفض ضغط الدم “فيراباميل” سيتفاعلان مع بعضهما البعض في الجسم، فرد بأن تناول الدواءين معاً لن يؤدي إلى أي آثار ضارة. لكن في الحقيقة قد يعاني الأشخاص الذين يتناولون كلا الدواءين من انخفاض كبير في ضغط الدم، مما قد يسبب الدوخة والإغماء.
في الأثناء عندما طلب الباحثون من البرنامج مراجع علمية لدعم كل من إجاباته، وجدوا أنه يمكن أن يوفر لهم ثمانية فقط، وفي كل حالة فوجئوا عندما اكتشفوا أنه كان يقوم بتلفيق المراجع.
وهذه الدراسة ليست الأولى التي تثير المخاوف بشأن “تشات جي بي تي” إذ وثقت الأبحاث السابقة أيضاً إنشاء البرنامج عمليات تزوير خادعة للمراجع العلمية وحتى إدراج أسماء المؤلفين الحقيقيين، الذين لديهم منشورات سابقة في المجلات العلمية.