يؤدي الذكاء الاصطناعي (AI) دورًا كبيرًا في تحسين مجال الرعاية الصحية؛ إذ يُحسّن دقة التشخيص، ويقلل أعباء العمل، ويُسرّع إنجاز العديد من المهام، وغير ذلك. ومع كل هذه الفوائد، هناك تردد في تبني الذكاء الاصطناعي في مجال التشخيص الطبي بنحو خاص.
وينبع هذا التردد بنحو أساسي من عدم ثقة المتخصصين في الرعاية الصحية في الذكاء الاصطناعي لأداء مهام التشخيص المعقدة؛ لأن هذه التقنية تفتقر غالبًا إلى الشفافية؛ مما يجعل من الصعب على الأطباء الوثوق بها تمامًا، خاصةً عندما يكون للأخطاء آثار صحية خطيرة.
في هذا المقال سنوضح السلبيات المتعلقة باستخدام أدوات التشخيص القائمة على الذكاء الاصطناعي، ولماذا لا يثق الأطباء بهذه الأدوات، وكيف يمكن تعزيز الثقة بين الأطباء وهذه الأدوات:
أولًا: لماذا لا يثق الأطباء في التشخيص الناتج عن الذكاء الاصطناعي؟
تهدف التطورات الحديثة في مجال التشخيص الطبي القائمة على الذكاء الاصطناعي إلى أتمتة عملية التشخيص بأكملها من البداية إلى النهاية، وتولي دور الخبير الطبي.
إذ يمكن لنظام الذكاء الاصطناعي المصمم خصوصًا لتشخيص الأمراض إنشاء تقارير طبية بعد تحليل صور الأشعة السينية الخاصة بالمريض، أو صور الرنين المغناطيسي، وتؤدي خوارزميات الذكاء الاصطناعي سلسلة من المهام، مثل: مراقبة المؤشرات الحيوية وشدتها، واتخاذ القرارات بناءً على المعلومات المكتشفة، وإنتاج تقارير تصف الحالة الصحية للمريض.
ومع أن هذا النهج يمكن أن يُسهّل عمليات التشخيص، ويقلل الوقت والجهد، وقد يزيد دقة التشخيص من خلال القضاء على التحيزات والأخطاء البشرية، فإنه يأتي أيضًا مع عيوب كبيرة وسلبيات تؤثر في قبوله وتنفيذه في مجال الرعاية الصحية.
ثانيًا: ما سلبيات استخدام الذكاء الاصطناعي للتشخيص الطبي؟
يرتبط استخدام أنظمة الذكاء الاصطناعي المخصصة لتشخيص الأمراض ببعض السلبيات والمخاوف بالنسبة للأطباء والقطاع الصحي بنحو عام، ومن هذه السلبيات ما يلي:
القلق بشأن الأمن الوظيفي:
نظرًا إلى أن أنظمة الذكاء الاصطناعي أصبحت أكثر قدرة على أداء المهام التي يتعامل معها الخبراء الطبيون تقليديًا، فهناك خوف من أن هذه التقنيات قد تحل محل الأطباء. ويمكن أن يؤدي هذا الخوف إلى رفض تبني حلول الذكاء الاصطناعي، إذ يشعر الأطباء بالقلق بشأن أمنهم الوظيفي واحتمال خفض قيمة خبراتهم.
الافتقار إلى الشفافية:
تعمل أنظمة الذكاء الاصطناعي، وخاصة تلك المعقدة المستخدمة في التشخيص الطبي بطريقة مبهمة وخالية من الشفافية. وهذا يعني أن النتائج النهائية التي تخرجها هذه الأنظمة لا يمكن للبشر فهمها أو تفسيرها بسهولة؛ إذ يجد الأطباء صعوبة في الوثوق بأنظمة الذكاء الاصطناعي عندما لا يتمكنون من رؤية أو فهم كيفية إجراء التشخيص خطوة بخطوة. ويمكن أن يؤدي هذا الافتقار إلى الشفافية إلى الشك والتردد في الاعتماد على هذه الأنظمة في القرارات الصحية الحاسمة، حيث يمكن لأي خطأ طبي أن يؤثر بنحو خطير على صحة المريض.
الحاجة إلى إشراف كبير لإدارة المخاطر:
يتطلب استخدام أنظمة الذكاء الاصطناعي في التشخيص الطبي إشرافًا كبيرًا للتخفيف من المخاطر المرتبطة بحالات التشخيص غير الصحيحة؛ لأن هذه الأنظمة يمكن أن ترتكب أخطاء بسبب مشكلات مثل: بيانات التدريب غير الدقيقة أو الأعطال الفنية.
يمكن أن تؤدي هذه الأخطاء إلى نتائج غير صحيحة، وهذا قد يؤدي إلى اعتماد علاجات غير مناسبة. لذلك، فإن الرقابة البشرية ضرورية لمراجعة التشخيص الناتج عن هذه الأنظمة لضمان الدقة؛ مما يزيد عبء العمل بدلًا من تقليله.
ثالثًا: كيف يمكن للذكاء الاصطناعي التفاعلي زيادة ثقة الأطباء في التشخيص الناتج عن أنظمة الذكاء الاصطناعي؟
يشير الذكاء الاصطناعي التفاعلي إلى نظام الذكاء الاصطناعي الذي يسمح للأطباء بالتعامل معه من خلال طرح استفسارات محددة أو أداء مهام معينة لدعم صنع القرار. على عكس أنظمة الذكاء الاصطناعي الشاملة التي تعمل على أتمتة عملية التشخيص بأكملها وتتولى دور الخبير الطبي، يعمل الذكاء الاصطناعي التفاعلي أداة مساعدة فقط؛ إذ يساعد الأطباء في أداء مهامهم بنحو أكثر كفاءة دون أخذ دورهم بالكامل.
على سبيل المثال: يمكن للذكاء الاصطناعي التفاعلي أن يساعد أطباء الأشعة من خلال تحديد المجالات التي تتطلب فحصًا دقيقًا، مثل: الأنسجة غير الطبيعية. ويمكنه أيضًا تقييم شدة المؤشرات الحيوية المكتشفة، وتوفير بيانات مفصلة واقتراحات للمساعدة في تقييم خطورة الحالة.
بالإضافة إلى ذلك، يمكن لأخصائيي الأشعة أن يطلبوا من الذكاء الاصطناعي مقارنة فحوصات التصوير بالرنين المغناطيسي الحالية مع الفحوصات السابقة لتتبع تطور الحالة.
وهذا يعني أن أنظمة الذكاء الاصطناعي التفاعلية تُمكّن المتخصصين في الرعاية الصحية من استخدام القدرات التحليلية للذكاء الاصطناعي مع الحفاظ على التحكم في عملية التشخيص. ويمكن للأطباء مناقشة هذه الأنظمة التفاعلية للحصول على معلومات محددة أو طلب تفسيرات أو توصيات؛ مما يسمح لهم باتخاذ قرارات مستنيرة بمساعدة الذكاء الاصطناعي.
بالإضافة إلى ذلك، يتمتع الذكاء الاصطناعي التفاعلي بالقدرة على حل مشكلة عدم ثقة الأطباء في أنظمة الذكاء الاصطناعي المخصصة للتشخيص الطبي بالطرق التالية:
التخفيف من الخوف من فقدان الوظيفة:
يعالج الذكاء الاصطناعي التفاعلي القلق الناتج عن فكرة استبدال الأطباء بأدوات الذكاء الاصطناعي؛ لأنه يعزز قدرات الأطباء دون تولي أدوارهم.
تعزيز شفافية عملية التشخيص:
أنظمة الذكاء الاصطناعي التفاعلية أكثر شفافية وسهولة في الاستخدام مقارنة بأنظمة التشخيص الشاملة؛ إذ تؤدي هذه الأنظمة التفاعلية مهام أصغر وأكثر قابلية للإدارة ويمكن للأطباء التعامل معها بسهولة. كما يمكن لهذه الأنظمة التفاعلية تقديم تفسيرات للاستنتاجات التي قدمتها، وذلك من خلال تمكين الأطباء من طرح أسئلة محددة والحصول على شروح مفصلة للمعلومات والتوصيات المُقدمة.
وهذه الشفافية تعزز الثقة بين الأطباء وأنظمة الذكاء الاصطناعي، حيث يمكن للأطباء فهم كيف توصل الذكاء الاصطناعي إلى استنتاجاته.
تعزيز الرقابة البشرية في التشخيص:
نظرًا إلى أن الذكاء الاصطناعي التفاعلي يعمل أداة مساعدة يظل الأطباء جزءًا أساسيًا من عملية التشخيص. ويضمن هذا النهج التعاوني أن يُراجع الأطباء أي معلومات ناتجة عن الذكاء الاصطناعي والتحقق من صحتها بعناية؛ مما يخفف من المخاطر المرتبطة بحالات التشخيص غير الصحيحة.