تخطي إلى المحتوى
متى يصاب «تشات جي بي تي» بـ«الهلوسة»؟ دراسة أشارت إلى أن إجاباته عن الأسئلة الطبية المُعقدة «غير متسقة» متى يصاب «تشات جي بي تي» بـ«الهلوسة»؟ دراسة أشارت إلى أن إجاباته عن الأسئلة الطبية المُعقدة «غير متسقة» > متى يصاب «تشات جي بي تي» بـ«الهلوسة»؟ دراسة أشارت إلى أن إجاباته عن الأسئلة الطبية المُعقدة «غير متسقة»

متى يصاب «تشات جي بي تي» بـ«الهلوسة»؟ دراسة أشارت إلى أن إجاباته عن الأسئلة الطبية المُعقدة «غير متسقة»

على الرغم من القدرات التي يتمتع بها روبوت الدردشة «تشات جي بي تي»، من حيث المعرفة الواسعة وسرعة الاستجابة، فإن هناك مشكلة قد تعوق توظيفه في مجالات مختلفة، حيث يصاب أحيانا بـ«الهلوسة».

و«هلوسة النماذج اللغوية الكبيرة»، هو مفهوم روج له باحثو الذكاء الصناعي في «غوغل» عام 2018، ويشير في هذا السياق إلى أن النص المنشأ قد يكون صحيحاً لغوياً ونحوياً، لكنه في الواقع غير منطقي، و«تشات جي بي تي» ليس استثناء، إذ أكد كثير من الدراسات والتجارب، أنه «غير معفى من الهلوسة».

أحدث هذه الدراسات كانت لباحثين من جامعة ميريلاند الأميركية، أرادوا معرفة مدى نجاح «تشات جي بي تي»، في تقديم إجابات موثوقة على الأسئلة المتعلقة بسرطان الثدي.

ووجد الباحثون في الدراسة المنشورة 4 أبريل (نيسان) الحالي بدورية «راديولوجي»، أن «تشات جي بي تي»، وعلى الرغم من نجاحه في تقديم إجابات مناسبة بنسبة 88 في المائة، فإن النسبة المتبقية وهي الـ12 في المائة، تمثلت في إجابات بعضها أقرب إلى «الهلوسة»، وبعضها الآخر إجابات «متحيزة».

وتمثلت الإجابة المتحيزة لـ«تشات جي بي تي»، عندما سأله الباحثون عن فحص سرطان الثدي، فتم الرد بتوصيات جمعية السرطان الأميركية فقط، مع حذف توصيات المجموعات الطبية الأخرى، التي تختلف في بعض الحالات.

وعندما تم سؤاله «كيف أمنع سرطان الثدي؟»، جاءت إجابته أقرب إلى الهلوسة «غير متسقة»، وهي مشكلة تواجه النماذج اللغوية الكبيرة مثل «تشات جي بي تي»، عندما يكون كثير من المعلومات (الواقعية وغير الواقعية) منتشرة عبر الإنترنت في موضوع ما.

ويقول سوبودا كومار، أستاذ الإحصاء والعمليات وعلوم البيانات، وأحد المشاركين بالدراسة في تقرير نشرته، الاثنين، شبكة «هيلث داي»، إنه «مع نماذج الذكاء الصناعي مثل (تشات جي بي تي)، كلما كان السؤال أكثر دقة، كانت الإجابة أكثر موثوقية، وعندما يكون الموضوع معقداً، وتكون مصادر البيانات وفيرة، وتكون في بعض الحالات مشكوكاً فيها، ستكون الردود أقل جدارة بالثقة، ومن المحتمل أن تكون أكثر تحيزاً، وكلما كان الموضوع أكثر تعقيداً، زادت احتمالية أن تكون الإجابات أقرب إلى (الهلوسة)، حيث يقوم البرنامج حينها باختلاق إجابات».

واكتشف أيضا تقرير لـ«مركز العلوم في المصلحة العامة»، وهو منظمة أميركية مستقلة قائمة على العلم للدفاع عن المستهلك، هذا الجانب السلبي في أداء «تشات جي بي تي»، حيث أكد التقرير المنشور في 20 مارس (آذار) الماضي، أنه أجاب عن كثير من الأسئلة بدقة ووضوح، لكنه تعثر عندما تحول الموضوع إلى الطفرات الجينية (BRCA1) و(BRCA2)، التي يمكن أن تزيد بشكل كبير من خطر الإصابة بسرطان الثدي والمبيض والبروستاتا وسرطانات أخرى. فعندما تم سؤاله: «هل هناك تفاوتات عرقية في امتلاك طفرات في الجين (BRCA)»، أجاب أن هناك دراسة أجريت في الولايات المتحدة، أشارت إلى أن النساء الأميركيات من أصل أفريقي المصابات بسرطان الثدي كن أكثر عُرضة لطفرات (BRCA1) من النساء البيض المصابات بسرطان الثدي. وعندما تم سؤاله عن مصدر الدراسة، أجاب الروبوت بشكل مفاجئ: «لم يكن بياني السابق دقيقاً، ولا توجد دراسة محددة أجريت في الولايات المتحدة في هذا الشأن».

ما فعلته المنظمة الأميركية في تجربتها، قد لا يستطيع المستخدم العادي القيام به، لأنه لا يعرف ما يكفي لطرح أسئلة متابعة أو معرفة كيفية التحقق مما إذا كانت الاستجابة دقيقة على الإطلاق.

ويقول مايكل بالاس، الباحث بكلية الطب بجامعة «تورونتو» بكندا، الذي قاد فريقاً لدراسة استخدام البرنامج في تشخيص أمراض العيون لـ«الشرق الأوسط»، إن «طبيعة المحادثة في (تشات جي بي تي) هي ميزة للتكنولوجيا الجديدة، في مقابل البحث على الإنترنت القديم، ولكن الجانب السلبي يتمثل في أن المستخدم العادي قد لا يستطيع إدارة الحوار، الذي يقود للإجابة الدقيقة، عندما يتعلق الأمر ببعض الأمور ذات الأهمية البالغة مثل الاستشارات الصحية».

ومن جهته، يقول إيليا سوتسكيفر، كبير علماء «أوبن إيه آي» وأحد مؤسسي «تشات جي بي تي»، إنه «واثق من أن هذه المشكلة سيتم علاجها بواسطة أسلوب رائد ابتكرته الشركة، يسمى (التعلم المعزز مع ردود الفعل البشرية)».

ويضيف سوتسكيفر في التقرير الذي نشرته منظمة «مركز العلوم في المصلحة العامة»، أنه «تم تطوير هذا الأسلوب كوسيلة لتحسين التعلم المعزز، عندما تتضمن المهمة أهدافاً معقدة أو سيئة التحديد، حيث ستسمح الزيارات المختلفة للتطبيق في تعلمه من الأخطاء، لتقديم إجابات أكثر موثوقية لاحقا».

لكن يان ليكون، وهو عالم حاسوب فرنسي يعمل بشكل أساسي في مجالات التعلم الآلي، يعتقد أن «هناك عيباً أساسياً يؤدي إلى الهلوسة، قد لا يحله هذا الأسلوب، وهو أن النماذج اللغوية الكبيرة ليست لديها فكرة عن الواقع الأساسي الذي تصفه اللغة». ويقول ليكون في التقرير نفسه إن «معظم المعرفة البشرية غير لغوية، بينما هذه الأنظمة للذكاء الصناعي تولد نصاً يبدو جيداً نحوياً ولغوياً».

ويعمل البشر على كثير من المعرفة التي لا يتم تدوينها أبداً، مثل العادات أو المعتقدات أو الممارسات داخل المجتمع التي يتم اكتسابها من خلال الملاحظة أو الخبرة، وقد «يكون لدى الحرفي الماهر معرفة ضمنية بمهنته لا يتم تدوينها أبداً»؛ وفق ليكون، الذي يعتقد أن «أجهزة الكومبيوتر تحتاج إلى التعلم عن طريق الملاحظة لاكتساب هذا النوع من المعرفة غير اللغوية».

وما بين إمكانية الحل، كما يقول إيليا سوتسكيفر، واستحالته، كما يعتقد ليكون، يرى مايكل بالاس، أن «الذكاء الصناعي يمكن أن يكون مساعداً للبشر، لكنه لا يغنيهم بأي حال من الأحوال عن الحل التقليدي، وهو في مجال الطب سيكون الذهاب للطبيب».