إرشادات من منظمة الصحة العالمية بشأن الاستخدام الطبي للذكاء الاصطناعي
اعتبرت منظمة الصحة العالمية أن “أدوات الذكاء الاصطناعي يمكن أن تحدث تحولا” في العلاجات الطبية، لكنها حذّرت من أن تسارع انتشار البرامج الصحية الرقمية القائمة على هذه التكنولوجيا قد يضرّ المرضى إذا لم يتوفر “فهم كامل” لها.
ونشرت المنظمة وثيقة أمس الخميس تهدف إلى “تحديد المبادئ الرئيسية التي يمكن للحكومات والسلطات التنظيمية اتباعها في وضع إرشادات جديدة أو تكييف الإرشادات القائمة بشأن الذكاء الاصطناعي، ولاحظت أن “أدوات الذكاء الاصطناعي يمكن أن تحدث تحولا في قطاع الصحة في ظل تزايد البيانات المتاحة بشأن الرعاية الصحية والتقدم السريع في تقنيات التحليل سواء تلك المتعلقة بالتعلم الآلي، أو تلك القائمة على المنطق أو الإحصائية”.
وأكدت المنظمة أنها “تدرك الإمكانات التي ينطوي عليها الذكاء الاصطناعي من حيث تحسين الحصائل الصحية من خلال تعزيز التجارب السريرية، وتحسين التشخيص الطبي والعلاج والرعاية الذاتية والرعاية التي تركز على الشخص، وسد مكامن النقص في معارف ومهارات وكفاءات العاملين في مجال الرعاية الصحية”.
وأشارت على سبيل المثال إلى أن “الذكاء الاصطناعي يمكن أن يكون مفيدا في البيئات التي تفتقر إلى أطباء متخصصين، مثلا في تفسير فحوص الشبكية وصور الأشعة وأمور أخرى كثيرة”.
بيد أن “وتيرة نشر تكنولوجيات الذكاء الاصطناعي -منها النماذج اللغوية الكبيرة- تتسارع وأحيانا من دون فهم كامل للكيفية التي يمكن أن تشتغل بها، مما قد يفيد أو يضر المستخدمين النهائيين، منهم أخصائيو الرعاية الصحية والمرضى”.
حماية الخصوصية
ونبهت المنظمة إلى أن “نظم الذكاء الاصطناعي يمكن أن تطّلع عند استخدام البيانات الصحية على معلومات شخصية حساسة، مما يستلزم وضع أطر قانونية وتنظيمية متينة لحماية الخصوصية والأمن والسلامة”.
وقال المدير العام للمنظمة الدكتور تيدروس أدهانوم غيبريسوس إن “الذكاء الاصطناعي يحمل تباشير واعدة لقطاع الصحة، ولكنه ينطوي أيضا على تحديات خطيرة، منها جمع البيانات بأساليب غير أخلاقية، وتهديدات الأمن السيبراني، وترسيخ التحيزات أو المعلومات المضللة”.
وأضاف غيبريسوس أن “هذه الإرشادات الجديدة ستدعم البلدان في تنظيم الذكاء الاصطناعي بفاعلية، وتسخير إمكاناته، سواء في علاج السرطان أو الكشف عن السل، مع تقليل المخاطر إلى أدنى حد”.
وشرحت المنظمة أن “نظم الذكاء الاصطناعي هي نظم معقدة لا تعتمد فقط على الرموز التي أنشئت بها، ولكن أيضا على البيانات التي دُربت عليها”. وشددت على أن “تحسين التنظيم يمكن أن يساعد في إدارة مخاطر ترسيخ الذكاء الاصطناعي للتحيزات في بيانات التدريب”.
وعلى سبيل المثال “قد يكون من الصعب على نماذج الذكاء الاصطناعي أن تمثل تنوع السكان تمثيلا دقيقا، مما يؤدي إلى التحيزات أو عدم الدقة أو حتى الفشل. وللمساعدة في التخفيف من هذه المخاطر”، بحسب المنظمة، “يمكن استخدام اللوائح لضمان الإبلاغ عن خصائص الأشخاص الذين ظهروا في بيانات التدريب -مثل النوع الاجتماعي والعرق والإثنية- والقصد إلى جعل مجموعات البيانات تمثيلية”.
وأوصت المنظمة في وثيقتها بـ”6 مجالات لتنظيم استخدامات الذكاء الاصطناعي في مجال الصحة”، من بينها “التحقق من صحة البيانات من مصدر خارجي”، و”التقييم الدقيق للنظم قبل إصدارها لضمان عدم قيام النظم بتوسيع نطاق انتشار التحيزات والأخطاء”، و”تعزيز التعاون بين الهيئات التنظيمية والمرضى والمتخصصين في الرعاية الصحية وممثلي الصناعة والشركاء الحكوميين”.