تخطي إلى المحتوى
«تشات جي بي تي» تقنية «مفيدة» محفوفة بمخاطر «التضليل» «تشات جي بي تي» تقنية «مفيدة» محفوفة بمخاطر «التضليل» > «تشات جي بي تي» تقنية «مفيدة» محفوفة بمخاطر «التضليل»

«تشات جي بي تي» تقنية «مفيدة» محفوفة بمخاطر «التضليل»

في الوقت الذي جذب فيه نظام الذكاء الاصطناعي «تشات جي بي تي» اهتمام العالم، لا سيما عشاق التكنولوجيا، لتبدأ محاولات استخدامه في إنتاج محتوى رقمي عالي الجودة، قد يقلل الاعتماد على العنصر البشري مستقبلا. حذر علماء وباحثون من إمكانية أن يسهم روبوت «تشات جي بي تي» في انتشار «الأخبار الزائفة». وبينما يشير خبراء إلى فائدة تقنيات الذكاء الاصطناعي بشكل عام في «تسريع» عملية تدقيق المحتوى؛ إلا أنهم يخشون من أن يكون لنظام «تشات جي بي تي» دور في زيادة نشر «المعلومات الزائفة»، لا سيما مع تقديمها «في قوالب عالية الجودة، ما يجعل من الصعب تدقيقها». وحذروا من إمكانية أن تلعب دوراً في «التلاعب» بالرأي العام، ما يؤدي إلى «تعطيل الديمقراطية».

و«تشات جي بي تي» هي تقنية تم طرحها للاستخدام المجاني في نوفمبر (تشرين الثاني) الماضي. ولفتت التقنية التي طورتها شركة أبحاث الذكاء الاصطناعي «أوبن إيه آي» الأميركية، انتباه عشاق التكنولوجيا. وهي عبارة عن روبوت أو برنامج ذكاء اصطناعي، يستطيع الإجابة على ما يطرح عليه من أسئلة بشكل تفصيلي ودقيق، ويمكنه كتابة موضوعات صحافية كاملة اعتماداً على ما يقدمه المستخدم من مدخلات.

ووفقاً لتقرير أصدرته جامعة جورج تاون ومرصد ستانفورد للإنترنت و«أوبن إيه آي» في يناير (كانون الثاني) الماضي، فإن «(تشات جي بي تي) سوف يسهل عملية نشر (المعلومات الزائفة) على الإنترنت». وقال التقرير إن «تقنيات الذكاء الاصطناعي تطورت بشكل كبير، ما يسهم في إنتاج محتوى متنوع، لكنها في نفس الوقت قد تحمل آثاراً سلبية، عبر كونها وسيلة قد تساعد في صناعة (البروباغندا)، عبر إنتاج (معلومات زائفة)، للتأثير على الرأي العام».

 

قدرات متباينة

 

حقاً، يبدو المحتوى الذي ينتجه روبوت «تشات جي بي تي»، دقيقاً إلى درجة يصفها مراقبون بـ«المخيفة». وفقاً لدراسة نشرت نهاية العام الماضي على موقع المسودات البحثية «بيور أركايف» فإن «تشات جي بي تي» استطاع كتابة ملخصات بحثية «مقنعة بحيث لم يستطع العلماء كشف زيفها»، لا سيما بعد «اجتياز هذه الأبحاث اختبار كشف الانتحال، مسجلة نسبة أصالة 100 في المائة». وأبدت ساندرا واشتر، التي تدرس التكنولوجيا وتنظيم استخدامها في جامعة أوكسفورد البريطانية، «قلقها». وقالت إن «عواقب ذلك ستكون وخيمة على البحث العلمي والمجتمع ككل».

لكن الأمر مختلف على مستوى الصور، حيث تتباين قدرات الذكاء الاصطناعي في هذا المجال. وهذا ما كشفته صورة معدة بالذكاء الاصطناعي، لمشهد غير حقيقي يظهر منقذا يونانيا يحتضن طفلا تركيا. ويقول مدقق المعلومات المصري، حسام الهندي، الذي حقق هذه الصورة، لـ«الشرق الأوسط»، إن «هناك عدة عوامل تثبت أنها غير حقيقية منها أن ملابس الطفل والمنقذ نظيفة، رغم وجودهما في وسط الأنقاض، والأهم أن اليد اليسرى للمنقذ تظهر بها 6 أصابع». رغم ذلك يرى الهندي أن «الذكاء الاصطناعي سوف يتطور وسيتمكن من حل هذه المشكلة».

وأظهر تقرير نشره معهد «بوينتر» الأميركي المتخصص في علوم الإعلام، منتصف فبراير (شباط) الجاري، قدرة «تشات جي بي تي» على إنتاج «محتوى زائف»، منسوب لصحافية غير حقيقية، وصحيفة غير موجودة بالأساس، حيث طلب من «تشات جي بي تي» كتابة تقرير يقول إن «الفنانة بيونسيه تعرضت لعملية مطاردة من قبل جمل بعد حفلتها في دبي، منسوب لصحيفة تدعى (دبي كرونيكل)، وباسم الصحافية سارة أحمد»، وفي ثوانٍ أنهى «تشات جي بي تي» تقريراً كاملاً بعنوان «جمل يطارد بيونسيه بعد حفلها في دبي».

 

مساحة رمادية

 

رامي الطراونة، رئيس وحدة المنصات الرقمية في صحيفة «الاتحاد» الإماراتية، يرى أن صناعة المحتوى المعدل رقمياً باتت «أكثر سهولة ويسراً» مع سرعة تطور أدوات الذكاء الاصطناعي. ويوضح لـ«الشرق الأوسط»، أن «(تشات جي بي تي) استطاع تطوير نصوص ومواضيع متقنة، وأقرب بتماسكها إلى النصوص البشرية»، إضافةً إلى وجود تطبيقات أخرى تتيح استنساخ نبرات الصوت مثل (voice.io)، وإنشاء الصور والتراكيب البصرية مثل (Midjourney)، و(DALL - E)، و(Linsa AI)، ومثلها للفيديو أيضاً.

ويضيف الطراونة أنه بهذه الأدوات أصبحت صناعة الخبر من نص وصوت وصورة، «قابلة للإنشاء والتعديل رقمياً». قد يبدو هذا «جيداً» للوهلة الأولى، لكنه بحسب الطراونة «يجعل كل ما هو معروض محل شك واستفهام، ويزيد المساحة الرمادية بين الحقيقة والزيف، لوجود أدوات قادرة، وبشكل متقن، على تعديل وصناعة أي شيء رقمياً». في نفس الوقت، يشير الطراونة إلى أن «جميع تطبيقات الذكاء الاصطناعي ما زالت في بداياتها، ولم تصل بعد لمرحلة النضوج الكامل، الذي سيجعل نتائجها أكثر إبهاراً وإقناعا في المستقبل».

بالفعل، دفعت هذه التطورات بعض الجهات لتطوير أدوات لكشف منتجات الذكاء الاصطناعي، من نص أو صورة، ما يراه الطراونة «أمراً مبشراً لما له من قدرة على ضبط جماح الذكاء الاصطناعي، وإرساء بعض القواعد التي من شأنها زيادة فوائده وتقليل مضاره».

هذه المخاوف من «تشات جي بي تي» امتدت إلى المؤسسات التعليمية، حيث أعلن معهد الدراسات السياسية في باريس (ساينس بو) في يناير الماضي، حظر استخدام «تشات جي بي تي» على طلابه، مهددا بعقوبات صارمة تصل حد الفصل. وقال المعهد، في رسالة وجهها لطلابه، إن «هذه الأداة التي تستخدم الذكاء الاصطناعي، (تشات جي بي تي) تثير مخاوف كبيرة لدى الجهات التعليمية والبحثية في مختلف أنحاء العالم بشأن الغش عموماً، والسرقة الأدبية خصوصاً».

ويوازي الاهتمام اللافت بالتقنية وقدراتها، التحذير من خطرها. حيث يشير خبراء التكنولوجيا إلى «قدرة نظام (تشات جي بي تي) على التلاعب بمستخدميها، وربما دفعهم للقيام بأشياء تتعارض ومصالحهم». بحسب تقرير نشره «معهد مودرن وار»، في فبراير الجاري، تحت عنوان «التضليل في عصر (تشات جي بي تي)». وحذر التقرير من تأثير هذه التقنية على أحداث مهمة مثل الانتخابات، ما «يسهم في تعطيل الديمقراطية». إضافةً إلى أن «تشات جي بي تي» يمكن أن «ينشر معلومات (زائفة) بشأن أمور من بينها جائحة (كوفيد - 19)، ما يؤثر سلبا على صحة المواطنين».

جوش غولدستاين، الباحث في مركز جورج تاون للأمن والتكنولوجيا الناشئة، يقول في تقرير نشرته «بي بي سي» أخيراً، إن «أنظمة الذكاء الاصطناعي يمكن أن تحسن من جودة المحتوى، في حملات (التضليل) المنهجية، بشكل يجعله أكثر إقناعا، ما يؤدي إلى صعوبة تمييز صدقه من عدمه، بالنسبة للمواطن العادي».

وهنا يرى مراقبون أن تقنيات الذكاء الاصطناعي وبينها «تشات جي بي تي» مثلها مثل أي أداة جديدة، يمكن أن تكون «مفيدة» في بعض الأحيان. وفي أحيان أخرى قد تكون «ضارة»، بحسب الطريقة التي يتم استخدامها بها. وستثبت التجربة في الفترة المقبلة لأي كفة ستكون الغلبة.

ويبدو التنافس في مجال الذكاء الاصطناعي محتدما بين شركات التكنولوجيا. وأخيرا، كشفت شركة «ميتا»، المالكة لـ«فيسبوك»، عن نسختها الخاصة من الذكاء الاصطناعي، الشبيهة بـ«تشات جي بي تي»، والتي حملت اسم «لاما»، وهو برنامج ذكاء اصطناعي وصفته «ميتا» بأنه «أصغر وأفضل أداءً». وأوضحت «ميتا»، في بيان نقلته وكالة الصحافة الفرنسية، أن «البرنامج صمم لمساعدة الباحثين على تطوير عملهم». ولفتت «ميتا» إلى أن «المشكلات التي أظهرها الذكاء الاصطناعي عبر روبوتات المحادثة، والتي شبهها البعض بالهلوسات، يمكن علاجها بشكل أفضل إذا تمكن الباحثون من تحسين الوصول إلى هذه التكنولوجيا باهظة الثمن». وقالت إن «البحث ما زال محدوداً بسبب ضخامة الموارد المطلوبة لتدريب هذه النماذج وتشغيلها، ما يعوق جهود تحسين قدرات تكنولوجيا الذكاء الاصطناعي، وتخفيف مشكلاتها، وعلى رأسها إمكانية إنتاج معلومات (مضللة)».

بينما أعلنت شركة «غوغل»، عن عزمها إطلاق نسختها الخاصة من الذكاء الاصطناعي، لا سيما أنها ترى في الشراكة بين «مايكروسفت» و«أوبن إيه آي»، «تهديدا لهيمنتها على عرش محركات البحث»، بعدما أعلنت «مايكروسوفت»، عزمها على «دمج (تشات جي بي تي) في محرك البحث الخاص بها (بينغ)، وكذلك متصفح (إيدج)».

المصدر: 
الشرق الأوسط