تخطي إلى المحتوى
...الأب الروحي للذكاء الاصطناعي يستقيل من غوغل ويحذر من كابوس حقيقي ينتظر البشر ...الأب الروحي للذكاء الاصطناعي يستقيل من غوغل ويحذر من كابوس حقيقي ينتظر البشر > ...الأب الروحي للذكاء الاصطناعي يستقيل من غوغل ويحذر من كابوس حقيقي ينتظر البشر

...الأب الروحي للذكاء الاصطناعي يستقيل من غوغل ويحذر من كابوس حقيقي ينتظر البشر

استقال جيفري هينتون، الذي يُعتبر الأب الروحي للذكاء الاصطناعي، من منصبه في شركة غوغل. وإذ حذّر هينتون من المخاطر المتزايدة للذكاء الاصطناعي، شدد على أن "سلبيات برامج هذا القطاع كتشات جي بي تي مخيفة للغاية".

عمل هينتون الرائد على الشبكات العصبية شكّل أنظمة الذكاء الاصطناعي التي تعمل على تشغيل العديد من المنتجات المعاصرة. لقد عمل بدوام جزئي في غوغل لمدة عقد من الزمن في جهود تطوير الذكاء الاصطناعي لعملاق التكنولوجيا، ولكن منذ ذلك الحين أصبح لديه مخاوف بشأن التكنولوجيا ودوره في تطويرها.

وفي تغريدة يوم الإثنين، قال هينتون إنه غادر غوغل حتى يتمكن من التحدث بحرية عن مخاطر الذكاء الاصطناعي، وليس بسبب الرغبة في انتقاد غوغل على وجه التحديد. وقال هينتون في تغريدة: "غادرت حتى أتمكن من التحدث عن مخاطر الذكاء الاصطناعي دون التفكير في كيفية تأثير ذلك على غوغل". وأضاف: "لقد تصرفت غوغل بمسؤولية كبيرة".

وفي لقاء له مع شبكة  بي بي سي) البريطانية، قال "هينتون" 75 عاماً، إن روبوتات المحادثة المعروفة بـ "شات جي بي تي" قد تتجاوز قريباً قدرة المعلومات في الدماغ البشري، موضحاً أنه في الوقت الحالي يمكن للبرنامج أن يتفوق كثيراً على الإنسان في مقدار المعرفة العامة التي يمتلكها.

ولفت العالم البريطاني إلى أن هذه الأنظمة ستصبح أكثر فاعلية بالنظر إلى معدل السرعة، الأمر الذي يُثير القلق في الوقت الحالي، فبالرغم من أنها ليست أكثر ذكاءً من الإنسان لكن قد تصبح كذلك قريباً

وشدد هينتون على أن الأشخاص السيئين يمكنهم فعل أشياء سيئة خطرة باستخدام الذكاء الاصطناعي وهذا أحد السيناريوهات الكابوسية لهذا الشيء، مشيراً إلى أنه وصل إلى استنتاج مفاده أن نوع الذكاء الذي نصنعه مختلف تماماً عما لدى المرء الطبيعي. وبيّن أنه لدى الإنسان نظام بيولوجي طبيعي، لكن الذكاء الاصطناعي لديه أنظمة رقمية والتي يمكنها عمل نسخ متعددة من نفس الحجم، حيث إن كل هذه النسخ يمكن أن تتعلم أشياء مختلفة وعلى الفور تشارك معرفتها مع بعضها البعض. وتابع، لهذا السبب يبدو الأمر كما لو أن لدينا 10 آلاف شخص، واحد منهم يتعلم شيئاً ما، والآخرون لديهم هذه المعلومات في نفس الوقت، وهذا لأن روبوتات المحادثة لديها معلومات أكثر من أي إنسان.

سرعة تطور الذكاء الاصطناعي

ومهدت أبحاث هينتون الرائدة للوصول إلى أنظمة الذكاء الاصطناعي الحالية، ولذلك يعتبره الكثيرون مؤسسًا لهذا القطاع. وفي مقابلة أخرى مع صحيفة نيويورك تايمز الأمريكية، قال هينتون إن "جزءاً مني نادم" على المساهمة في تطوير هذه التكنولوجيا.

لكن عالم النفس المعرفي وعالم الكمبيوتر البريطاني الكندي قال لبي بي سي: "في الوقت الحالي، ما نراه هو أن أشياء مثل تشات جي بي تي تتفوق على الشخص في مقدار المعرفة العامة التي يمتلكها وتتفوق عليه كثيرًا. لكن من حيث التفكير يبقى الإنسان متقدمًا".

إلا أنه يشير إلى أن "سرعة تطور هذه البرمجيات تدفعنا لنتوقع بأن كفاءته ستتحسن، لذلك علينا أن نقلق بشأن ذلك." وكان هينتون قد اعتبر في مقال له بصحيفة نيويورك تايمز أن هناك "جهات فاعلة سيئة" تحاول استخدام الذكاء الاصطناعي في "الأشياء السيئة".

"كابوس"

وعندما سألته هيئة الإذاعة البريطانية للتوسع في هذا الأمر، أجاب: "هذا مجرد نوع من أسوأ السيناريوهات، إنه الكابوس". 

وتابع قائلًا: "لقد توصلت إلى استنتاج مفاده أن نوع المعلومات التي نطورها مختلف تمامًا عن المعلومات الاستخباراتية التي لدينا. فنحن أنظمة بيولوجية وهذه أنظمة رقمية".

وهينتون ليس أول موظف في غوغل يرفع راية حمراء بشأن الذكاء الاصطناعي. ففي يوليو/ تموز، فصلت الشركة مهندسًا ادعى أن نظامًا للذكاء الاصطناعي لم يتم الكشف عنه أصبح واعيًا، قائلًا إنه انتهك سياسات التوظيف وأمن البيانات.

وفي آذار الماضي، وقّعت شخصيات بارزة في التكنولوجيا على رسالة تدعو معامل الذكاء الاصطناعي إلى وقف تدريب أقوى أنظمة الذكاء الاصطناعي لمدة ستة أشهر على الأقل، مشيرة إلى "المخاطر العميقة على المجتمع والإنسانية.

المصدر: 
يورو نيوز و بي بي سي