في منتصف العام الماضي، ومع ارتفاع زخم استخدام الذكاء الاصطناعي في شتى المجالات، خضع برنامج المحادثة باستخدام الذكاء الاصطناعي "تشات جي بي تي" لاختبار يشبه تماما اختبار المجلس الأميركي للأشعة.
يخضع لذلك الاختبار في العادة أطباء الأشعة المتمرسون لتقييم معرفتهم وكفاءتهم وخبراتهم في تخصص علوم الأشعة. إلا أن العلماء أرادوا معرفة ما إذا كان الذكاء الاصطناعي قادرا على النجاح في ذلك الاختبار.
ويمثل دمج الذكاء الاصطناعي في مجال علم الأمراض تقدما كبيرا في الطب التشخيصي. ومع القدرة على تعزيز دقة التشخيص وكفاءته، أصبحت أدوات الذكاء الاصطناعي على استعداد لتحويل الطريقة التي يشخص بها الأطباء الأمراض.
إلا أن إدخال هذه الأدوات الى العلوم الطبية يجلب أيضا تحديات جديدة، وخاصة في ما يتعلق بالأخطاء المحتملة التي قد تتسبب بها. فعلى عكس البشر، الذين هم عرضة للإرهاق والتحيزات الذاتية، يمكن لأدوات الذكاء الاصطناعي ارتكاب أخطاء متجذرة في التصنيفات الخاطئة الخوارزمية. بالتالي، فإن فهم التأثير السريري لهذه الأخطاء أمر بالغ الأهمية لضمان عدم طغيان العواقب غير المتوقعة على فوائد الذكاء الاصطناعي.
عملية تشخيص الأمراض معقدة وتتطلب معرفة طبية عميقة وخبرة سريرية واسعة. يعتمد الأطباء على مجموعة متنوعة من الأدوات والتقنيات والخطوات للوصول إلى التشخيص الصحيح والتي تشمل جمع التاريخ الطبي الشخصي والعائلي ومعرفة الأعراض الحالية للمريض، ومتى بدأت، ومدى شدتها، وما إذا كانت هناك عوامل تزيد أو تخفف حدة الأعراض.
كما يقوم الطبيب أيضا بعملية الفحص السريري التي تتطلب التحقق من وجود علامات مرضية مثل التورم أو تغيرات في لون الجلد أو وجود كتل وتورمات، علاوة على استخدام السماعة الطبية لسماع أصوات القلب والرئتين والأمعاء.
يقوم الأطباء في العادة أيضا بطلب مجموعة من التحاليل الطبية، والفحوص التصويرية أو حتى التنظير الداخلي واختبارات التحمل البدنية وغيرها.
كيف يمكن استخدام الذكاء الاصطناعي في التشخيص؟
يتسم الذكاء الاصطناعي بقدرته على تحليل كميات ضخمة من البيانات الطبية، واستخلاص الأنماط منها، وتقديم توقعات أو تشخيصات دقيقة بناءً على المعلومات المتاحة. إذ يستطيع الذكاء الاصطناعي، خاصة تقنيات التعلم العميق Dee، تحليل الصور الطبية مثل الأشعة السينية والتصوير بالرنين المغناطيسي والتصوير المقطعي المحوسب. ويمكن للأنظمة المدربة أن تتعرف الى الأنماط المرتبطة بأمراض معينة مثل السرطان، التهابات الرئة والأمراض القلبية.
كما يستطيع الذكاء الاصطناعي اكتشاف التغيرات الطفيفة في الصور التي قد لا تكون واضحة للعين البشرية، مما يساعد في التشخيص المبكر للأمراض، علاوة على قدرته على تحليل كميات هائلة من البيانات الصحية للمريض مثل التاريخ الطبي، الفحوص المخبرية، والعلامات الحيوية، للتنبؤ بالأمراض المحتملة قبل ظهورها، وهو أمر قد يساعد في الوقاية وتحديد العلاجات المناسبة في وقت مبكر.
ويمكن للذكاء الاصطناعي أيضا تحليل البيانات الجينية لتحديد الاستعداد الوراثي للأمراض وتقديم توصيات للتدخل المبكر أو العلاج المخصص وتقديم توصيات للأطباء بناءً على الأعراض الحالية، ونتائج الفحوص، والمعايير الطبية المعروفة، مما يساعد الأطباء في تأكيد تشخيصاتهم أو اكتشاف حالات قد تكون غير ظاهرة بسهولة، مع المساعدة في اختيار أفضل خطط العلاج بناءً على نتائج الأبحاث السريرية وتحليل الاستجابة السابقة للمرضى الذين يعانون من الحالة نفسها.
ويستطيع الذكاء الاصطناعي فهم وتحليل السجلات الطبية الإلكترونية واستخراج المعلومات المهمة بسرعة واستخدامها في التشخيص ومساعدة الأطباء في كتابة التقارير الطبية من خلال تحويل الملاحظات السريرية إلى تقارير مكتوبة، مما يوفر الوقت والجهد.
على مستوى المرضى يستطيع الذكاء الاصطناعي توفير أدوات التقييم الذاتي للمريض من خلال التطبيقات الصحية التي تجمع الأعراض وتقدم تقديرات أولية للحالة الصحية، وتدعم الأطباء في تشخيص المرضى عن بُعد، خاصة في المناطق النائية أو التي تفتقر إلى الخدمات الطبية المتقدمة. كما يمكن لأنظمة الذكاء الاصطناعي أن تتعلم باستمرار من البيانات الجديدة لتحسين دقتها في التشخيص. فكلما زاد عدد الحالات التي تمر عبر النظام، زادت قدرته على التنبؤ بالأمراض بدقة أعلى.
لكن وعلى الرغم من فوائد الذكاء الاصطناعي، يجب التأكد من دقة تشخيصاته من خلال اختبارات متقدمة وإشراف طبيب متخصص.
من الضروري ضمان استخدام أنظمة الذكاء الاصطناعي كأدوات لدعم عملية اتخاذ القرار البشري بدلاً من استبدالها
قبل نحو عام أصدرت منظمة الصحة العالمية تقريرها الأول حول أخلاقيات وحوكمة الذكاء الاصطناعي في الصحة. وعلى الرغم من اعتراف المنظمة بأهمية استخدام التطورات التقنية الحديثة في مجال التشخيص والرعاية الصحية، إلا أنها أكدت وجود عدد من التحديات التي تقف سدا منيعا أمام استخدام الذكاء الاصطناعي في عملية التشخيص.
أحد المخاوف الأخلاقية الأساسية المتعلقة بالذكاء الاصطناعي في الرعاية الصحية هو التآكل المحتمل لاستقلالية الإنسان. مع تطور أنظمة الذكاء الاصطناعي، هناك خطر يتمثل في إمكان نقل سلطة اتخاذ القرار من مقدمي الرعاية الصحية إلى الآلات. وقد يؤدي هذا إلى مواقف يكون فيها للمرضى ومقدمي الرعاية سيطرة أقل على قرارات الرعاية الصحية، مما قد يقوض الثقة في علاقة المريض بالمقدم.
منع الضرر
تقول المنظمة إن تصميم تقنيات الذكاء الاصطناعي وتنفيذها يجب أن يتم بطريقة تعطي الأولوية لسلامة المريض ورفاهته. وهذا يعني أنه يجب اختبار أنظمة الذكاء الاصطناعي بعناية من حيث الدقة والموثوقية والسلامة قبل نشرها في الإعدادات السريرية. بالإضافة إلى ذلك، يجب وضع تدابير المراقبة المستمرة ومراقبة الجودة لضمان استمرار أنظمة الذكاء الاصطناعي في العمل كما هو متوقع وعدم التسبب في ضرر.
يتضمن منع الضرر أيضا النظر في العواقب العقلية والجسدية المحتملة للرعاية الصحية التي تعتمد على الذكاء الاصطناعي. على سبيل المثل، إذا قام نظام الذكاء الاصطناعي بتشخيص مريض بشكل غير صحيح أو أوصى بعلاج غير مناسب، فقد كان من الممكن تجنب الضرر الناتج من طريق اتباع نهج بديل. لذلك، من الأهمية بمكان وضع معايير تنظيمية قوية وإرشادات أخلاقية لاستخدام الذكاء الاصطناعي في الرعاية الصحية.
من ضمن المكونات الأساسية للذكاء الاصطناعي الأخلاقي في الرعاية الصحية، الشفافية والقدرة على التفسير. إذ يجب تصميم أنظمة الذكاء الاصطناعي بحيث تكون مفهومة لمقدمي الرعاية الصحية والمرضى والجهات التنظيمية. وهذا يعني أن الخوارزميات وعمليات صنع القرار التي تستخدمها أنظمة الذكاء الاصطناعي يجب أن تكون شفافة، مع توفر معلومات كافية لتسهيل التشاور العام والمناقشة.
هناك خطر أن يعتمد الأطباء بشكل مفرط على نتائج الذكاء الاصطناعي دون الاعتماد على حكمهم السريري أو الخبرة البشرية
وتشير القدرة على التفسير إلى قدرة أنظمة الذكاء الاصطناعي على تقديم تفسيرات واضحة ومفهومة لقراراتها. يجب أن يكون مقدمو الرعاية الصحية والمرضى قادرين على فهم كيفية وصول أنظمة الذكاء الاصطناعي إلى توصياتهم وأن يكونوا قادرين على الطعن في هذه القرارات أو التشكيك فيها إذا لزم الأمر. كما يعد تحسين الشفافية والقدرة على التفسير أمرين ضروريين لبناء الثقة في الرعاية الصحية التي يقودها الذكاء الاصطناعي وضمان استخدام هذه الأنظمة بشكل مناسب.
في يونيو/حزيران الماضي أظهر فريق من جامعة "جونز هوبكنز" العريقة أن تقنية الذكاء الاصطناعي يمكن أن تحدد الأشخاص الأكثر عرضة للإصابة بسرطان الرئة بناءً على أنماط شظايا الحمض النووي في الدم.
في تلك الدراسة تمكن الذكاء الاصطناعي من فحص سجلات طبية كاملة لأكثر من 1000 شخص مصابين أو غير مصابين بالسرطان، وقام بإعطاء تنبؤات حدد خلالها الأشخاص الأكثر عرضة للخطر والذين قد يستفيدون من فحص التصوير المقطعي المحوسب المتابعة. يمكن أن تعزز تلك الطريقة فحص سرطان الرئة وتقلل معدلات الوفيات.
وعلى الرغم من الفوائد المتوقعة من استخدام الذكاء الاصطناعي للتنبؤ بالإصابة بسرطان الرئة، إلا أنه يأتي مع قائمة طويلة من الأخطار المحتملة التي يجب أخذها في الاعتبار لضمان استخدامه بطريقة آمنة وفعّالة.
فرغم أن الذكاء الاصطناعي يمكن أن يكون دقيقا في تحليلاته، إلا أنه ليس معصوما من الخطأ. قد يؤدي الاعتماد الزائد على الذكاء الاصطناعي إلى تشخيص خاطئ، حيث يمكن أن يتم تحديد أشخاص على أنهم عرضة لخطر الإصابة بالسرطان بينما هم في الواقع ليسوا كذلك (إيجابيات كاذبة)، أو يمكن تجاهل أشخاص آخرين يكونون بالفعل في خطر (سلبيات كاذبة). هذا يمكن أن يؤدي إلى قلق غير مبرر لدى المرضى أو فشل في توفير الرعاية اللازمة في الوقت المناسب.
كما أن هناك خطرا في أن يعتمد الأطباء بشكل مفرط على نتائج الذكاء الاصطناعي دون الاعتماد على حكمهم السريري أو الخبرة البشرية مما يقلل دور الأطباء في عملية التشخيص ويقلل التفاعل البشري في رعاية المرضى.
مخاوف الخصوصية والتحيز
ويتطلب فحص السجلات الطبية الوصول إلى بيانات حساسة وشخصية للمرضى، وهناك خطر من انتهاك الخصوصية أو سوء استخدام البيانات، خاصة إذا لم تكن هناك تدابير قوية لحماية البيانات من الاختراق أو الاستخدام غير المصرح به.
وقد يتم تدريب تطبيقات النمذجة اللغوية على بيانات لم يتم الحصول على موافقة مسبقة لاستخدامها لهذا الغرض، مما يثير قضايا أخلاقية وقانونية. بالإضافة إلى ذلك، قد لا توفر هذه التطبيقات حماية كافية للبيانات الحساسة، بما في ذلك البيانات الصحية التي يُدخلها المستخدمون في النظام للحصول على رد. هذا يعرض خصوصية المستخدمين للخطر، خاصة إذا تم اختراق هذه البيانات أو استخدامها بطرق غير قانونية. يجب على الجهات المنظمة ضمان أن تكون البيانات المستخدمة في تدريب وتطوير هذه الأنظمة محمية بشكل صارم وأن يتم استخدامها بموافقة مسبقة من أصحابها.
كما يمكن أن يكون هناك تحيز في البيانات التي يتم استخدامها لتدريب أنظمة الذكاء الاصطناعي. فإذا كانت البيانات تحتوي على تحيزات تاريخية أو اجتماعية، يمكن أن يؤدي ذلك إلى قرارات غير عادلة أو تمييز ضد مجموعات معينة من الأشخاص، مما يؤدي إلى تفاوتات في الرعاية الصحية.
في ظل التوسع السريع في استخدام الذكاء الاصطناعي وتطبيقات الصحة الرقمية، يجب على مقرري السياسات العمل على حماية المرضى وضمان سلامتهم
فتطبيقات الذكاء الاصطناعي تتطلب كميات هائلة من البيانات لتدريب النماذج وتحسين دقتها. مع ذلك، إذا كانت هذه البيانات متحيزة أو غير متوازنة، فقد يؤدي ذلك إلى نتائج غير دقيقة أو تمييزية. على سبيل المثل، إذا كانت البيانات الصحية المستخدمة لتدريب نظام ذكاء اصطناعي تشمل فقط معلومات من مجموعات سكانية معينة، فقد يفشل النظام في تقديم تشخيصات دقيقة لمجموعات أخرى. هذا يمكن أن يؤدي إلى تفاوتات في تقديم الرعاية الصحية بين مختلف الفئات، مما يضر بالإنصاف والشمول.
وقد يؤدي استخدام الذكاء الاصطناعي في التنبؤ بالخطر إلى زيادة القلق والضغوط النفسية لدى الأشخاص الذين تم تحديدهم على أنهم في خطر. فمعرفة أن الشخص معرض لخطر الإصابة بالسرطان يمكن أن يكون له تأثير نفسي سلبي، حتى إذا لم يتم تشخيص الحالة في النهاية.
مسؤولية من؟
ثم هنالك الأزمة الكبرى التي تتعلق بالمسؤولية. ففي حال حدوث أخطاء أو تشخيصات غير صحيحة، قد تكون هناك صعوبة في تحديد المسؤول عن تلك الأخطاء، هل هو نظام الذكاء الاصطناعي، أو الطبيب الذي اعتمد على النتائج، أو الشركة التي طورت النظام؟
في ظل التوسع السريع في استخدام الذكاء الاصطناعي وتطبيقات الصحة الرقمية، يجب على مقرري السياسات العمل على حماية المرضى وضمان سلامتهم. يجب أن تشمل هذه الجهود وضع تشريعات وقوانين واضحة لضمان أن تكون تطبيقات النمذجة اللغوية المستخدمة في المجال الصحي آمنة وفعالة. من جهة أخرى، يجب على شركات التكنولوجيا التزام معايير أخلاقية صارمة خلال تطوير وتسويق هذه التطبيقات. يتطلب ذلك إجراء اختبارات صارمة للتأكد من دقة وسلامة الأنظمة قبل إطلاقها في الأسواق.
وقد تولد النمذجة اللغوية استجابات تبدو موثوقة ومعقولة للمستخدم النهائي، ومع ذلك، قد تكون هذه الاستجابات غير صحيحة تماما أو تحتوي على أخطاء خطيرة. في مجال الصحة، يمكن أن تكون هذه الأخطاء كارثية. على سبيل المثل، قد يقدم النظام نصائح طبية غير صحيحة أو يشخص الأمراض بشكل خاطئ، مما يعرض صحة المرضى للخطر. هذه المشكلة تبرز أهمية الرقابة والتحقق من دقة المعلومات التي تولدها هذه الأنظمة، خاصة في التطبيقات الطبية.
وتمتلك تطبيقات النمذجة اللغوية القدرة على إنشاء محتوى نصي، صوتي، أو فيديوي يبدو موثوقا به للغاية يمكن استخدامه بشكل سيء لنشر معلومات مضللة يمكن أن تؤدي إلى اضطرابات في المجتمع أو حتى أضرار صحية. على سبيل المثل، يمكن استخدام هذه التكنولوجيا لنشر إشاعات طبية خاطئة أو للتأثير على القرارات الصحية للأفراد. من المهم أن يتم وضع ضوابط لمنع إساءة استخدام هذه التكنولوجيا وضمان أن تكون المعلومات الصحية الموزعة من خلالها دقيقة وموثوقا بها.
تعد بروتوكولات ضمان الجودة حجر الزاوية في ضمان الأداء الفعال والآمن للأدوات المدعومة بالذكاء الاصطناعي في الطب
للاستفادة الكاملة من تقنيات الذكاء الاصطناعي في مجال الرعاية الصحية يجب التطبيق الكامل والصارم لبروتوكولات ضمان الجودة، والممارسات الشفافة من قبل المبرمجين، والالتزام المستمر لمراقبة وتكييف هذه التقنيات. يتطلب ذلك نهجا شاملا يضمن بقاء الأدوات الطبية المدعومة بالذكاء الاصطناعي موثوقا بها وفعالة عبر مختلف الفئات السكانية والسيناريوهات السريرية.
جودة وشفافية ومراقبة
وبحسب دراسة نشرتها معاهد الصحة الأميركية تعد بروتوكولات ضمان الجودة حجر الزاوية في ضمان الأداء الفعال والآمن للأدوات المدعومة بالذكاء الاصطناعي في الطب، إذ تعمل هذه البروتوكولات على تحديد العيوب والأخطار المحتملة في النظام قبل اعتماده للاستخدام السريري. ومن خلال الاختبارات الدقيقة والتقييم المستمر، يمكن اكتشاف أي انحرافات عن المعايير المطلوبة أو التعرف إلى السيناريوهات التي قد يفشل فيها النظام في توفير نتائج دقيقة.
وتتيح بروتوكولات مراقبة الجودة الصارمة التحقق من أداء الأنظمة عبر مجموعات متنوعة من المرضى والظروف السريرية المختلفة. هذا الجانب بالغ الأهمية لأن الأنظمة المدربة على مجموعات بيانات محددة قد تواجه صعوبات عند تطبيقها على مجموعة سكانية تختلف عن تلك التي تم تدريبها عليها. من هنا، تساهم تلك البروتوكولات في تعزيز قدرة الأنظمة على التعميم وتحقيق الفعالية عبر مختلف البيئات السريرية.
وتقول الدراسة المنشورة نفسها في مارس/آذار الماضي إن الشركات المصنعة للأدوات المدعومة بالذكاء الاصطناعي يجب عليها تقديم معلومات واضحة وشاملة حول كيفية تطوير هذه الأدوات، بما في ذلك المصادر المستخدمة لتدريب الأنظمة والخوارزميات. إضافة إلى ذلك، يجب على المبرمجين الإفصاح عن أي قيود أو تحديات تواجه الأنظمة، سواء في المرحلة الحالية أو تلك التي قد تظهر في المستقبل.
فالتزام الشفافية يعد أمرا حاسما في تعزيز الثقة بين المستخدمين والأنظمة الذكية، حيث يسمح ذلك للمستخدمين باتخاذ قرارات مستنيرة حول كيفية استخدام هذه الأدوات وفهم الأخطار المحتملة المرتبطة بها. وفي هذا السياق، يمكن للشفافية أن تساهم في تعزيز القبول العام للذكاء الاصطناعي في المجال الطبي.
تعد المراقبة المستمرة والتكيف مع المتغيرات من الركائز الأساسية لضمان فعالية الأدوات الذكية على المدى الطويل. فمع تطور الظروف السريرية والمجموعات السكانية، قد تظهر تحديات جديدة أو تنشأ انحرافات في أداء الأنظمة. ومن هنا، يصبح من الضروري أن يكون هناك نظام مراقبة فعال يتيح تقييم الأنظمة بصفة دورية وتحديد أي تعديلات مطلوبة لتحسين أدائها.
يتيح التزام التكيف المستمر للأنظمة الذكية مواجهة التحديات الجديدة والاستجابة للمتغيرات البيئية أو السريرية. وهذه القدرة على التكيف تعزز قدرة الأنظمة على الاستمرار في تقديم الرعاية الصحية الفعالة وتقديم الدعم المطلوب لمقدمي الرعاية الصحية في اتخاذ القرارات.
ومن خلال هذا النهج المتكامل، يمكن ضمان أن تظل الأدوات الطبية المدعومة بالذكاء الاصطناعي موثوقا بها وفعالة عبر مختلف السيناريوهات السريرية، مما يساهم في بناء نظام رعاية صحية أكثر مرونة واستجابة للتطورات المستقبلية.