حوكمة الذكاء الاصطناعي: تعظيم الفوائد وتقليل الضرر للمرضى ومقدمي الخدمات وأنظمة الرعاية الصحية
Summary
- الحوكمة ضرورية لتبني الذكاء الاصطناعي بشكل آمن وفعال وموثوق. تتطلب عمليات اختيار حالات الاستخدام والموردين، والتحقق، والتثقيف، والتنفيذ السريري، والمراقبة بعد النشر، حوكمة شفافة ومتكاملة وذات خبرة.
يُحدث الذكاء الاصطناعي تحولاً سريعاً في مجال الرعاية الصحية، إلا أن التوجيهات العملية لحوكمة هذا المجال لا تزال محدودة، لا سيما بالنسبة للمؤسسات التي تفتقر إلى فرق أو بنية تحتية متخصصة في الذكاء الاصطناعي. ولسد هذه الفجوة، نظم تحالف قيادة معهد الرعاية الصحية (IHI ) برنامج تسريع الذكاء الاصطناعي*، الذي جمع قادة من عشر مؤسسات رعاية صحية متنوعة لتجاوز النظريات التقليدية ووضع استراتيجيات عملية لتطبيق الذكاء الاصطناعي بمسؤولية وفعالية.
مع تزايد انخراط الذكاء الاصطناعي في منظومة الرعاية الصحية، يجب تطوير هياكل الحوكمة لضمان استخدامه الآمن والفعال والمسؤول. بدءًا من الرقابة قبل النشر وحتى مراقبة ما بعد التسويق، تواجه أنظمة الرعاية الصحية تحديًا يتمثل في إدارة ليس فقط التكنولوجيا نفسها، بل أيضًا آثارها التنظيمية والأخلاقية والسريرية.
تكشف النقاشات حول حوكمة الذكاء الاصطناعي في مختلف مؤسسات الرعاية الصحية عن حاجة ماسة إلى إرشادات عملية وقابلة للتطوير، وتركز على نتائج المرضى. فيما يلي أربع نقاط رئيسية من برنامج تسريع الذكاء الاصطناعي التابع لتحالف القيادة، يمكن للأنظمة الصحية تطبيقها عند تطوير أو تحسين هياكل حوكمة الذكاء الاصطناعي الخاصة بها.
1. اتباع نهج حوكمة شامل ومتكامل
سواءً كانت هياكل حوكمة الذكاء الاصطناعي مجموعات مستقلة أو مدمجة في هياكل قائمة، يجب أن تكون شاملةً وتجمع بين الخبرة في مجال محتوى الذكاء الاصطناعي وكفاءة الذكاء الاصطناعي. فيما يلي بعض السمات المهمة لحوكمة الذكاء الاصطناعي:
- متعددة التخصصات : ينبغي لهياكل الحوكمة أن تجمع بين أصحاب المصلحة المعنيين، مثل المعلوماتية الطبية، والقيادة السريرية، والقانونية، والامتثال، والسلامة والجودة، وعلوم البيانات، والأخلاقيات الحيوية، ومناصري المرضى.
- متكامل : يجب أن تصبح حوكمة الذكاء الاصطناعي جزءًا روتينيًا من النظام البيئي الأوسع للنظام الصحي، وليس مجرد جزء منه. مجموعة مخصصة ذات عملية شاملة: التحقق قبل التنفيذ، وعتبات واضحة للمضي قدمًا/التوقف، والمراقبة المستمرة بمجرد التشغيل.
- وظيفية للغاية : على الأقل، يجب على المجموعة تحديد سياسة الذكاء الاصطناعي للمؤسسة، وإعطاء الأولوية لحالات الاستخدام، وتقييم مخاطر الذكاء الاصطناعي وتأثيره، وتحديد ما يعتبر "ذكاء اصطناعي قابل للإدارة" بشكل صريح.
2. بناء حوكمة ذات إمكانيات قابلة للتطوير ومساءلة واضحة
يجب أن يكون نموذج حوكمة الذكاء الاصطناعي العملي قادرًا على التوسع عبر مختلف الوظائف والمؤسسات، بدءًا من المراكز الأكاديمية الكبيرة ووصولًا إلى المستشفيات الصغيرة ذات شبكات الأمان الاجتماعي. ضع في اعتبارك المبادئ الهيكلية التالية:
- التنسيق المركزي مع المساءلة المحلية : يجب على الحوكمة توضيح من لديه السيطرة، وكيفية الإبلاغ عن الضرر، وكيفية تصعيد الأمور عندما تظهر مشكلات تتعلق بأداء الذكاء الاصطناعي.
- إدارة المخزون ودورة الحياة : الحفاظ على قائمة نشطة لجميع أدوات الذكاء الاصطناعي المستخدمة وتنفيذ عمليات التقييم والمراقبة المنظمة.
- التقييم المتوازن : تجنب المبالغة في تقييم أدوات الذكاء الاصطناعي أو التقليل من أهميتها. ينبغي أن تُسهّل الحوكمة إجراء تقييمات معقولة واعية للسياق لأداء النموذج.
3. إعطاء الأولوية لنتائج المرضى على أداء النموذج
ينبغي أن تُركز حوكمة الذكاء الاصطناعي بشكل أقل على الدقة التقنية للنموذج بشكل مُنعزل، وبصورة أكبر على التأثير الفعلي على نتائج المرضى. مختبرات ضمان الجودة، على الرغم من فائدتها، قد تُقصّر في حال اختبار النماذج في بيئات لا تعكس التنوع أو بيئات الرعاية الصحية في العالم الحقيقي. ينبغي على الأنظمة الصحية مراعاة ما يلي:
- هل تعمل أداة الذكاء الاصطناعي هذه على تحسين النتائج بالنسبة لسكان مرضانا ؟
- ما هو الحد الأدنى المقبول من الفائدة، وما هو مقدار خطر الضرر الذي نحن على استعداد لقبوله؟
- كيف يمكننا مراقبة أداء الذكاء الاصطناعي بعد نشره والإشارة إلى متى يبدأ في الأداء الضعيف؟
تساعد هذه العقلية على ضمان ضبط إطار الحوكمة بما يتناسب مع الأهمية السريرية والمساءلة بدلاً من مقاييس النموذج المجردة.
4. الاستعداد للفجوات التنظيمية وبناء الرقابة الداخلية
هناك غياب ملحوظ للتنظيم الفيدرالي المتسق بشأن الذكاء الاصطناعي في مجال الرعاية الصحية. وهذا يترك المستخدمين النهائيين - الأطباء، وفرق تكنولوجيا المعلومات، وقادة النظام - مسؤولين بشكل أساسي عن تحديد ما هو آمن وفعال وملائم. واستجابةً لذلك، ينبغي على أنظمة الرعاية الصحية:
- إنشاء آليات الإبلاغ عن الأضرار الداخلية وتحديد مسارات التصعيد بشكل واضح.
- وضع معايير الحد الأدنى لمشاركة البيانات والعلاقات مع الموردين للسيطرة على المخاطر وحماية معلومات المرضى.
- الدعوة إلى تصميم عمليات المراقبة بعد التسويق، بما في ذلك إعادة تقييم النموذج الروتيني وعمليات التدقيق في الأداء.
- إدراج تطبيقات الذكاء الاصطناعي غير السريرية (على سبيل المثال، أتمتة التوثيق، ومعالجة المطالبات) في الحوكمة، والتأكد من أنها تُظهر أيضًا قيمة تنظيمية.
إن المسؤولية المقلوبة ــ حيث يكون النظام الصحي مسؤولاً عن التحقق من صحة الذكاء الاصطناعي بدلاً من البائع أو الجهة التنظيمية ــ تتطلب نهجاً متعمداً يحكم نفسه بنفسه، حذراً ولكن ليس مشللاً.
ملخص
سواءً كنتَ مركزًا طبيًا أكاديميًا كبيرًا أو مستشفى مجتمعيًا صغيرًا، فإن هدف حوكمة الذكاء الاصطناعي واحد: تعظيم الفوائد وتقليل الأضرار التي تلحق بالمرضى ومقدمي الخدمات والنظام. من خلال تبني هيكل حوكمة شامل ومتكامل، وإعطاء الأولوية للنتائج التي تركز على المرضى، والاستعداد للتقلبات التنظيمية، يمكن لمؤسسات الرعاية الصحية تسخير قوة الذكاء الاصطناعي بمسؤولية.
الحوكمة ليست مجرد ضمانة، بل هي الإطار الذي يربط كل شيء. ومع تحوّل الذكاء الاصطناعي إلى عنصر أساسي في الرعاية الصحية، ستُشكّل الحوكمة المدروسة الفرق بين الأدوات التي تعمل فحسب وتلك التي تُحدث نقلة نوعية في الرعاية الصحية.
* "المُسرِّع" مبادرةٌ لتحالف القيادة تجمع قادة الرعاية الصحية لتعزيز التحسينات في هذا المجال ودفع عجلة التغيير الجذري في الرعاية الصحية. يحتضن فريقٌ عالميٌّ من المتعاونين نظرياتٍ ناشئة وغير مُجرَّبة لتصميم النظم، ويطورون ويوسعون خبراتهم في هذا المجال، ويختبرون نماذج التنفيذ. لمعرفة المزيد عن IHI Leadership Alliance) وفرص المشاركة في مُسرِّعات الذكاء الاصطناعي المستقبلية، يُرجى زيارة موقعنا الإلكتروني.
الدكتور تشارلز إي. بينكلي، دكتور في الطب، زميل الكلية الأمريكية للجراحين، عضو هيئة التدريس في كلية الطب بجامعة هاكنساك ميريديان، هو مدير أخلاقيات الذكاء الاصطناعي والجودة في هاكنساك ميريديان هيلث، وأستاذ مشارك في الجراحة في كلية الطب بجامعة هاكنساك ميريديان.
إيمي ويكمان، MSN، APRN-CNP، CPHQ، CPPS، هي مديرة IHI .
ناتالي مارتينيز، MPH، هي مديرة مشروع IHI .
صورة فوتوغرافية بواسطة Freepik
قد تكون مهتمًا أيضًا بـ:
- تقرير IHI Lucian Leape Institute : سلامة المرضى والذكاء الاصطناعي: الفرص والتحديات في تقديم الرعاية
- بودكاست "تشغيل الأضواء": الذكاء الاصطناعي في مجال الرعاية الصحية بسرعة
- مقالة حول ابتكار الرعاية الصحية: لماذا من الضروري إشراك الممرضات في عمليات تطوير الذكاء الاصطناعي
- اقرأ المزيد عن IHI Leadership Alliance وكيفية الانضمام إلى هذه المجموعة من المبتكرين
- التسجيل في دورة "جعل الذكاء الاصطناعي يعمل لصالحك" عبر الإنترنت