منظمة الصحة العالمية تصدر إرشادات جديدة حول أخلاقيات الذكاء الاصطناعي وإدارته

منظمة الصحة العالمية تصدر إرشادات جديدة حول أخلاقيات الذكاء الاصطناعي وإدارته

تحدد الإرشادات أكثر من 40 توصية للنظر فيها من قبل الحكومات وشركات التكنولوجيا ومقدمي الرعاية الصحية لضمان الاستخدام المناسب لهذه النماذج الكبيرة بهدف تعزيز وحماية صحة الناس. تشمل نماذج اللغات الكبيرة بعضا من أسرع المنصات توسعا مثل ChatGPT وBard وBert والعديد من المنصات الأخرى التي تحاكي فهم البشر وطريقة معالجة وإنتاج التواصل البشري.

وقال الدكتور جيريمي فارار، كبير العلماء في منظمة الصحة العالمية: " لدى تقنيات الذكاء الاصطناعي التوليدي القدرة على تحسين الرعاية الصحية، ولكن فقط في حال قيام المعنيين بتطوير هذه التقنيات وتنظيمها واستخدامها بتحديد المخاطر المرتبطة بها وأخذها في الاعتبار بشكل كامل. نحن بحاجة إلى معلومات وسياسات شفافة لإدارة تصميم وتطوير واستخدام النماذج الكبيرة لتحقيق نتائج صحية أفضل والتغلب على عدم المساواة الصحية المستمرة".

الفوائد والمخاطر المحتملة

تحدد إرشادات منظمة الصحة العالمية الجديدة خمسة تطبيقات واسعة النطاق للنماذج الكبيرة متعددة الوسائط من أجل الصحة:

أولا، التشخيص والرعاية السريرية، مثل الرد على استفسارات المرضى المكتوبة؛

ثانيا، الاستخدام الموجه للمريض، مثل فحص الأعراض والعلاج؛

ثالثا، المهام الكتابية والإدارية، مثل توثيق وتلخيص زيارات المرضى ضمن السجلات الصحية الإلكترونية؛

رابعا، التعليم الطبي والتمريضي، بما في ذلك تزويد المتدربين بمحاكاة لقاءات المرضى؛

خامسا، البحث العلمي وتطوير الأدوية بما في ذلك التعرف على المركبات الجديدة.

وأشارت منظمة الصحة العالمية إلى المخاطر الموثقة للنماذج الكبيرة متعددة الوسائط والتي تتمثل في إنتاج بيانات كاذبة أو غير دقيقة أو متحيزة أو غير كاملة، مما قد يضر الأشخاص الذين يستخدمون مثل هذه المعلومات في اتخاذ القرارات الصحية. 

التوصيات الرئيسية

تتضمن إرشادات منظمة الصحة العالمية الجديدة توصيات للحكومات- التي تتحمل المسؤولية الأساسية عن وضع معايير لتطوير ونشر النماذج الكبيرة متعددة الوسائطوتكاملها واستخدامها لأغراض الصحة العامة والأغراض الطبية. على سبيل المثال، ينبغي للحكومات:

  • الاستثمار في البنية التحتية العامة أو غير الهادفة للربح أو توفيرها- بما فيها قوة الحوسبة ومجموعات البيانات العامة، التي يمكن للمطورين الوصول إليها في القطاعات العامة والخاصة وغير الهادفة للربح، والتي تتطلب من المستخدمين الالتزام بالمبادئ والقيم الأخلاقية مقابل الوصول إليها.
  • استخدام القوانين والسياسات واللوائح للتأكد من أن النماذج الكبيرة والتطبيقات المستخدمة في الرعاية الصحية والطب تفي بالالتزامات الأخلاقية ومعايير حقوق الإنسان التي تؤثر، على سبيل المثال، على كرامة الشخص واستقلاله أو الخصوصية.
  • تعيين وكالة تنظيمية موجودة أصلا أو جديدة لتقييم واعتماد النماذج الكبيرة والتطبيقات المخصصة للاستخدام في الرعاية الصحية أو الطب - حسبما تسمح الموارد.
  • تقديم تدقيق إلزامي بعد الإصدار وتقييمات الأثر، تشمل حماية البيانات وحقوق الإنسان.

وهناك توصيتان لمطوري النماذج الكبيرة:

  • النماذج الكبيرة لا يتم تطويرها فقط من قبل العلماء والمهندسين. ولذلك ينبغي إشراك المستخدمين المحتملين وجميع أصحاب المصلحة المباشرين وغير المباشرين- بمن فيهم مقدمو الخدمات الطبية والباحثون العلميون ومتخصصو الرعاية الصحية والمرضى- منذ المراحل الأولى لتطوير الذكاء الاصطناعي في تصميم منظم وشامل وشفاف وإتاحة الفرص لإثارة القضايا الأخلاقية والتعبير عن المخاوف والمشاكل. 
  • تم تصميم النطاق للنماذج الكبيرة متعددة الوسائط لأداء مهام محددة جيدا بالدقة والموثوقية اللازمة لتحسين قدرة الأنظمة الصحية وتعزيز مصالح المرضى. يجب أن يكون المطورون أيضا قادرين على التنبؤ بالنتائج الثانوية المحتملة وفهمها.