Summary
- يعزز الذكاء الاصطناعي الشفاف الثقة في الرعاية الصحية من خلال ضمان معرفة المرضى بوقت استخدامه، واستخدام الموظفين المدربين للأدوات اللازمة لتحسين الرعاية بشكل آمن. وقد استكشف IHI Leadership Alliance) حلولاً عملية لجعل الذكاء الاصطناعي أكثر أمانًا ووضوحًا وف
مع تزايد شيوع تقنيات الذكاء الاصطناعي في مجال الرعاية الصحية - من دعم القرارات السريرية إلى مساعدي توثيق الاستماع المحيطي - تواجه الأنظمة الصحية تحديين جوهريين ومترابطين: الشفافية بشأن استخدام الذكاء الاصطناعي (مع المرضى والطاقم الطبي)، وتثقيف المستخدمين حول الاستخدام الأمثل للذكاء الاصطناعي. يُقدّر المرضى معرفة متى يُساعدهم الذكاء الاصطناعي في رعايتهم (يُفضّل معظمهم الاطلاع على المعلومات)، ويحتاج الأطباء إلى تدريب عملي لاستخدام الذكاء الاصطناعي بفعالية وأخلاقيات. إن معالجة هذه الجوانب بنجاح يُمكن أن تُعزز ثقة المرضى، وتُشجّع على تبنيه بالشكل المناسب، وتُخفّف من مخاطر نشر الذكاء الاصطناعي في الرعاية الصحية.
إدراكًا لهذا، جمع تحالف قيادة معهد الرعاية الصحية (IHI) - وهو شبكة من مؤسسات الرعاية الصحية تتعاون لتحقيق كامل أهداف الهدف الثلاثي - عشر مؤسسات رعاية صحية متنوعة في مساحة مُسرّعة لتحديد إرشادات عملية لتبني الذكاء الاصطناعي في مختلف البيئات والأنظمة. وعلى مدار أشهر من التعاون، ركز هؤلاء القادة على ابتكار رؤى عملية وقابلة للتنفيذ لسد الفجوة بين الابتكار والممارسة العملية. وقد تناولنا في مقال سابق حوكمة الذكاء الاصطناعي ، ونشارك هنا رؤى رئيسية حول شفافية الذكاء الاصطناعي والتثقيف بشأنه، والتي يمكن لمؤسسات الرعاية الصحية العمل عليها اليوم.
أهمية شفافية الذكاء الاصطناعي للمرضى والأطباء
يتزايد الوعي بين المرضى والجمهور بدور الذكاء الاصطناعي في الحياة اليومية، بما في ذلك تطبيقه في الرعاية الصحية. تشير الدراسات الاستقصائية إلى أن غالبية المرضى يفضلون الاطلاع على معلومات حول استخدام الذكاء الاصطناعي أثناء رعايتهم. ورغم أن الشروحات التقنية المفصلة قد لا تكون ضرورية، إلا أن الأفراد يسعون عمومًا إلى ضمان إدارة تطبيقات الذكاء الاصطناعي بمسؤولية وأمان. كما تُعتبر الشفافية التنظيمية - أي ضمان وعي الأطباء والموظفين بموعد وكيفية استخدام أدوات الذكاء الاصطناعي - أمرًا بالغ الأهمية للحفاظ على السلامة والمساءلة.
إن التواصل الواضح حول استخدام الذكاء الاصطناعي يعزز الثقة بين المرضى ومقدمي الرعاية الصحية. فإذا علم المرضى باستخدام الذكاء الاصطناعي دون إخطار مسبق، فقد يؤثر ذلك سلبًا على تصورهم للرعاية. في المقابل، فإن إعلام المرضى باستخدام الذكاء الاصطناعي، عند الاقتضاء، يُسهم في تعزيز تفاعلهم وثقتهم بالخدمات الصحية. أما بالنسبة للأطباء، فإن فهم أدوات الذكاء الاصطناعي المُصرّح بها والمناسبة للاستخدام يُمكّنهم من تقديم معلومات دقيقة للمرضى، ودمج هذه الأدوات في ممارساتهم عند الحاجة.
إعلام المرضى بالذكاء الاصطناعي: الموازنة بين الشفافية والموافقة
يمكن للمنظمات إعلام المرضى بشكل فعال حول الذكاء الاصطناعي من خلال استخدام نهج الشفافية المتدرج:
- إفصاح عام: بالنسبة لاستخدامات الذكاء الاصطناعي الروتينية (مثل مساعدة أخصائيي الأشعة أو كتابة ملاحظات الزيارة)، يُرجى تقديم إشعار عام من خلال تحديثات السياسات أو التواصل العام. تُبقي هذه "الموافقة المجتمعية" المرضى على اطلاع دون الحاجة إلى موافقة فردية في كل مرة.
- شفافية نقطة الرعاية: إذا كان الذكاء الاصطناعي يتفاعل مباشرةً مع المرضى (مثلاً، تقنية الكتابة المحيطية التي تُسجِّل المحادثات)، فاستخدم منشورات أو منشورات أو إشعارات شفهية واضحة في نقطة الرعاية. هذا يُطمئن المرضى ويطلب موافقتهم دون الحاجة إلى أوراق إضافية.
- الذكاء الاصطناعي عالي المخاطر/المستقل أو الإنسان خارج الحلقة (HOOTL): بالنسبة للذكاء الاصطناعي الذي يعمل بشكل مستقل أو يشكل خطرًا كبيرًا، اطلب موافقة صريحة مستنيرة أو قم بمناقشات مفصلة قبل الاستخدام، على غرار الموافقة على الاختبارات التوغلية.
- التواصل المستمر: تحديث المرضى بانتظام حول أدوات الذكاء الاصطناعي الجديدة عبر رسائل البريد الإلكتروني أو بوابات المرضى أو ملخصات الرعاية (على سبيل المثال، وضع علامة على الأقسام على أنها "بمساعدة الذكاء الاصطناعي").
- الوضوح وإمكانية الوصول : تجنب التفاصيل الفنية؛ ركز على سبب استخدام الذكاء الاصطناعي وفوائده لرعاية المرضى.
يوفر هذا النهج الشفافية دون إرهاق المرضى، مما يعزز الثقة مع الحفاظ على الرعاية الفعالة.
مثال على ذلك: شفافية Ambient AI Scribe
قدّمت عيادة رعاية أولية نظامًا للذكاء الاصطناعي يُسجِّل محادثات الطبيب والمريض (بموافقته) لإنشاء ملاحظات سريرية. ويُستخدَم نهج الشفافية المتدرج على النحو التالي:
- إشعار المريض: تُعلم الإشعارات في غرف الفحص، والأوراق، وبوابة المريض، المرضى بإمكانية تسجيل زيارتهم بواسطة نظام ذكاء اصطناعي آمن لأغراض التوثيق. ويُبلّغ المرضى بأن التسجيل الصوتي سري، ويُستخدم فقط للملاحظات، وبإمكانهم إلغاء الاشتراك أو طرح الأسئلة.
- الموافقة الشفهية: يُذكّر الأطباء المرضى بنسخ الذكاء الاصطناعي في بداية الزيارة، ويشرحون فائدته، ويؤكدون لهم حذف التسجيل بعد تدوين الملاحظات. يمكن للمرضى رفض التسجيل في أي وقت.
- النتيجة: أظهرت التجارب قبولاً عالياً من المرضى مع توضيحات واضحة. وأفاد الأطباء بتركيز أكبر على المرضى، وأشارت الاستطلاعات إلى أن الأطباء أولوا اهتماماً كاملاً بنسبة 90% من الوقت، بزيادة عن 49%. هذا النهج القائم على الشفافية والموافقة يُشجع الثقة ويحترم الاستقلالية.
تثقيف وتدريب مستخدمي الذكاء الاصطناعي: ضمان الاستخدام الآمن والفعال
يجب تدريب العاملين في مجال الرعاية الصحية تدريبًا شاملًا لفهم إمكانيات وحدود أدوات الذكاء الاصطناعي. قد يؤدي سوء فهم هذه الإمكانيات إلى سوء استخدامها أو عدم تبنيها، لذا يُعدّ التدريب الشامل والإرشادات الواضحة أمرًا بالغ الأهمية. فيما يلي أهم جوانب تعليم وتدريب الذكاء الاصطناعي التي نوصي بها للعاملين في مجال الرعاية الصحية:
- التدريب المخصص لكل دور: قم بتصميم وحدات تدريبية تتناسب مع أدوار الموظفين المختلفة، مع التركيز على المهام العملية والسيناريوهات ذات الصلة بكل مجموعة.
- التزم بالجانب العملي: تجنّب التفاصيل التقنية المُرهِقة. ركّز على استخدام الأدوات، وقيودها، وتفسيرها، مع التركيز على التطبيقات العملية والاستخدام المسؤول.
- صيغ تفاعلية: استخدم أساليب تفاعلية مثل مقاطع الفيديو وورش العمل والنصائح والمحاكاة لتعلم عملي موجز. وظّف "أبطال الذكاء الاصطناعي" لدعم أقرانك.
- السياسات والمبادئ التوجيهية: تأكد من أن المستخدمين يعرفون سياسات المنظمة والأدوات المعتمدة وقواعد خصوصية البيانات والاستجابة المناسبة لأخطاء الذكاء الاصطناعي أو أعطاله.
- الوصول إلى مزيد من المعلومات: توفير إمكانية الوصول بسهولة إلى معلومات مفصلة حول الأداة، مثل ملخصات التحقق أو الأسئلة الشائعة، لبناء ثقة المستخدم وفهمه.
- آليات الملاحظات: قم بإعداد قنوات ملاحظات واضحة حتى يتمكن المستخدمون في الخطوط الأمامية من الإبلاغ عن المشكلات وطرح الأسئلة والمساهمة في التحسينات.
- التدريب المستمر والتنشيطي : تقديم التعليم المستمر من خلال التدريبات التنشيطية والتحديثات، والانتقال من الاستخدام الأساسي إلى التحسين مع اكتساب الموظفين الثقة.
إضفاء الطابع الرسمي على الشفافية والمساءلة
تعمل العديد من المنظمات على إنشاء سياسات رسمية لتعزيز الشفافية حول استخدام الذكاء الاصطناعي:
- سياسة شفافية الذكاء الاصطناعي: إعداد بيان رسمي يوضح استخدام الذكاء الاصطناعي، وإخطار المرضى، وموافقتهم، والخصوصية، والرقابة البشرية. موافقة مجلس الإدارة تُسهم في تخصيص الموارد اللازمة للتدريب والإشراف.
- إشعارات الخصوصية: إضافة لغة واضحة في إشعارات ممارسات الخصوصية (NPP) لإعلام المرضى حول استخدام الذكاء الاصطناعي في رعايتهم، مع التركيز على إشراف الطبيب والضمانات.
- الحوكمة والإشراف: إنشاء أو تعيين لجنة إشراف لمراقبة تنفيذ الذكاء الاصطناعي، وضمان الامتثال، وتتبع التعليقات، والحفاظ على التدريب الحالي.
- إطار الموافقة القائمة على المخاطر: صنّف أدوات الذكاء الاصطناعي حسب مستوى المخاطرة - قد تتطلب الأدوات منخفضة المخاطر إفصاحًا عامًا فقط، بينما تتطلب الأدوات عالية المخاطر موافقة صريحة. حدّد هذه الفئات ليتمكن الموظفون من فهم بروتوكولات الموافقة.
وفي نهاية المطاف، يساعد تعزيز الثقة من خلال الانفتاح والتثقيف على ضمان استخدام الذكاء الاصطناعي بشكل مسؤول للمرضى، مما يؤدي إلى تجنب المخاوف وتعزيز ثقة الجمهور في الرعاية الصحية.
الخاتمة: تعزيز ثقافة الشفافية والتعلم
يعتمد التكامل الفعال للذكاء الاصطناعي في الرعاية الصحية بشكل أساسي على الشفافية الفعّالة والتثقيف الشامل. من الضروري إطلاع المرضى باستمرار على استخدام الذكاء الاصطناعي في رعايتهم، بغض النظر عن إلمامهم بالتفاصيل التقنية، لضمان استمرار مشاركتهم ووعيهم بعملية العلاج. وبالمثل، يجب على الأطباء والعاملين في مجال الرعاية الصحية التعامل بثقة مع تطبيق أدوات الذكاء الاصطناعي، مدعومةً ببرامج تدريبية فعّالة وإرشادات تشغيلية واضحة.
الرعاية الصحية بطبيعتها تعاونية، ومع تزايد أهمية أنظمة الذكاء الاصطناعي في هذا الفريق، من الضروري إدخال هذه التقنيات وتدريب الموظفين الجدد عليها بنفس العناية والحرص. ومن خلال تبني استراتيجية منفتحة ومدروسة لدمج الذكاء الاصطناعي، يمكن للمؤسسات الاستفادة المثلى من مزايا هذه التقنيات - مثل زيادة الكفاءة، وتحسين الرؤى، وتحسين الدعم - مع الحفاظ على ثقة المرضى وسلامتهم.
لمعرفة المزيد عن IHI Leadership Alliance والفرص المتاحة للمشاركة في مسرعات الذكاء الاصطناعي المستقبلية، يرجى زيارة موقعنا الإلكتروني.
بريت موران، دكتور في الطب، هو نائب الرئيس الأول والمسؤول الصحي الرئيسي في باركلاند هيلث.
إيمي ويكمان، MSN، APRN-CNP، CPHQ، CPPS، هي مديرة IHI .
ناتالي مارتينيز، MPH، هي مديرة مشروع IHI .
الصورة من rawpixel.com
قد تكون مهتمًا أيضًا بـ:
- حوكمة الذكاء الاصطناعي: تعظيم الفوائد وتقليل الضرر للمرضى ومقدمي الخدمات وأنظمة الرعاية الصحية
- بودكاست "تشغيل الأضواء": الذكاء الاصطناعي في مجال الرعاية الصحية بسرعة
اقرأ المزيد عن IHI Leadership Alliance وكيفية الانضمام إلى هذه المجموعة من المبتكرين