مقدمة:لقد أثبتت تطبيقات الذكاء الاصطناعي ((Artificial Intelligence كفاءة وحرفية استطاعت أن تجعل تلك التطبيقات جزء مهم من حياة البشر وخاصة أرباب العمل وهم الذين يرغبون بطبيعة الحال بالحدّ من النفقات الإدارية فضلاً عن الإنفاق على توظيف الكوادر البشرية، فلقد بدأ الكثير من أصحاب العمل بالتفكير بالاستفادة من هذا النوع من الذكاء الذي بدا للوهلة الأولى وكأنه ينجز وظائف كانت مقتصرة على البشر مثل ترجمة النصوص من لغة إلى لغة أخرى. وللتعرف على أدوات وتطبيقات لأتمتة العمل وزيادة الكفاءة والإنتاجية، تم إنجاز مهام ترجمة تحريرية من العربي إلى الإنجليزية وبالعكس للاستفادة من تطبيقات الذكاء الاصطناعي ((Artificial Intelligence باستخدام الخدمة التي يقدمها موقع الذكاء الاصطناعيChat-GPT بوصفه واحد من أهم التطبيقات في هذا المجال.
وفيما يلي بعض النقاط الإيجابية وأخرى من السلبيات التي تم ملاحظة وجودها أثناء الترجمة عبر تطبيقChat-GPT بإصداره المجاني (3.5) والمدفوع (-plus4) عبر الحاسوب والهاتف الجوال.
الإيجابيات
يتميز إدراك الإيجابيات بالسهولة لأنها تكون بمثابة تسهيلات ترويجية لأي تطبيق ومن تلك
السرعة
يتميز العمل باستخدام التطبيقات الذكية في إنجاز مهام الترجمة كون المخرجات تصدر بمجرد إرسال النص المراد ترجمته عبر نوافذ المحادثات ضمن تطبيقات الترجمة الآلية بما في ذلك سرعة استحضار المفردات والتراكيب المناسبة لترجمة النصوص المراد نقلها من لغة إلى أخرى.
اتساق وترابط النصوص
تتميز النصوص التي تعطيها التطبيقات التي تعتمد خاصية الذكاء الاصطناعي التوليدية بالاتساق والترابط وبجهد أقل من ذلك الجهد الذي سيقوم به المترجم ولكنه في معظم الحالات غير معبر عن كامل المحتوى الموجود في النص الأصلي.
نماذج جاهزة
تقوم تطبيقات الذكاء الاصطناعي بتوليد نماذج جاهزة مثل الإيميلات والقوالب الجاهزة التي تحتوي قائمة من المهمات المحددة وما إلى هنالك من نماذج، وإن كانت تلك النماذج غير دقيقة ومليئة بالحشو الغير المفيد.
وفي المحصلة يمكننا القول إن الاستعانة بالذكاء الاصطناعي يمكن أن يساعد في إنجاز مهمات ترجمة النصوص بنسبة فوق المتوسطة ولكن لابد من إشراف وتدقيق متبصر لمطابقة المضامين في النص الأصلي والنص الصادر كما يمكن كذلك أن يكون هناك إيجابيات لم يتم ذكرها، ولكن من المهم تسليط الضوء على السلبيات كون تلافي تلك السلبيات هو الهدف للحصول على أفضل المنتجات.
السلبيات
بالرغم من أن النص الصادر عن تطبيق الترجمة الآلية ChatGPT- 4متسقاً ومنسجماً إلا أنه وبعد تدقيقه ومقارنته مع النص الأصلي المراد ترجمته، يمكن ملاحظة بعض مواطن الخلل وأبرزها:
الترجمة الحَرفية
والتي تولد ترجمات تفتقر إلى صياغة المعاني والمضامين المراد إيصالها من النص المراد ترجمته، ولعل أقرب مثال هو ترجمة عبارة مثل “قراءة تحليلية” التي يقوم الذكاء الاصطناعي بترجمتها على أنها (analytical reading)، وبالطبع القراءة في مثل هذا السياق لا تعني مجرد عملية قراءة الكلمات وإنما التحليل. بكل تأكيد مثل هذه العبارات ليس من الصعب تعديلها، ولكن الأمر سيتحول إلى مشكلة مع كثرة العبارات المترجمة حرفياً ضمن الفقرات.
ترجمة الجمل المدمجة
التي تحتوي عبارات مستقلة وأخرى معتمدة عليها بشكل خاطئ أحياناً فقد تم اختبار ترجمة عبارات متعلقة بجمل رئيسية على أنها جمل مستقلة، مما جعل النص ككل غير متسق ولا يعبر عن المعنى المقصود باللغة الأصلية للنص:
الافتقار إلى الدقة:
قد يعاني الذكاء الاصطناعي في بعض الأحيان من مشكلات في فهم النصوص المراد ترجمتها بشكل صحيح، مما يؤدي إلى ترجمات غير دقيقة. فقد يحدث ذلك بسبب الصعوبات في تعرّف الذكاء الاصطناعي على السياق والمعاني العميقة للكلمات والعبارات. وفي هذا السياق، تمت ملاحظة بعض الثغرات في ترجمة عبارات متصلة، أو مفردات بعينها. فعلى سبيل المثال قام موقع ChatGPT-4 بنسخته المدفوعة بترجمة كلمة fortune على أنها تعني ثروة، في سياق يستلزم ترجمتها أنها “أموال طائلة”، بالرغم من القيام بإعادة المحاولة في طلب تعديل الترجمة عبر التطبيق نفسه عدة مرات. ومن بين المحاولات التي قمت بها أنني كتبت طلب باللغة الإنجليزية ضمن نص اللغة الإنجليزية المراد ترجمته لمراعاة ترجمة الكلمة ضمن سياقها، ليرد التطبيق بترجمة الملاحظة التوضيحية نفسها وكأنها جزء من النص المراد ترجمته.
وكمثال آخر من بين العديد من الأمثلة التي تم اختبارها كانت عبارة (not able to get a refund) حيث تمت ترجمتها “عدم القدرة على الحصول على استرداد” في حين أن السياق يقتضي ترجمتها “عدم القدرة على استرداد المبلغ المدفوع” رغم إعادة طلب الترجمة عدة مرات. ومثال آخر في هذا السياق هي عبارة (rogue agents) والتي تمت ترجمتها كـ “عملاء مارقين” فيما يقتضي النص ترجمتها على أنها “وكالات غير مرخصة”.
نقص أو زيادة في النص الصادر مقارنة بالنص المراد ترجمته:
تضمّن البيان الختامي لمباحثات “أستانا 20” ثلاث مسائل جديدة لم تكن واردة في البيانات الختامية للجولات السابقة
أبرز هذه المسائل؛ الإعلان عن عقد جولة جديدة من المسار دون تحديد مكان لها لأول مرة منذ انطلاق المسار، إضافة للتأكيد على مواجهة تهديد الميليشيات الانفصالية للأمن القومي التركي المنتشرة غرب الفرات، فضلاً عن تلك المنتشرة شرقه.
قراءة تحليلية صادرة عن “مركز جسور للدراسات” حول نتائج اجتماع أستانا الأخير الذي شهد اجتماعاً رباعياً على هامشه.
The final statement of the “Astana 20” talks included three new issues that were not mentioned in the previous rounds’ final statements. The most prominent of these issues is the announcement of a new round of the process without specifying its location, which is a first since the beginning of the process. Additionally, there was an emphasis on confronting the threat posed by separatist militias to Turkey’s national security, both in the west and east of the Euphrates.
النقل الأعمى:
يعتمد الذكاء الاصطناعي في الترجمة على النماذج اللغوية والبيانات المتاحة له من خلال قاعدة بيانات واسعة ومحدثة بشكل مستمر. وبالتالي، قد يكون هناك اعتماد كامل على هذه النماذج دون التحقق من الدقة أو المصداقية. قد تؤدي هذه الثقة الكاملة إلى نقل معلومات غير صحيحة أو ترجمات غير دقيقة كما أن هناك مشكلة تتعلق بتحديث قاعدة البيانات المرتبطة بمواضيع محددة، فهناك أحياناً نصوص ترتبط بموضوع مثل سورية لم تتلق تحديث بالمعلومات (وليس بالترجمة) منذ سبتمبر 2021.
نقص أو خلل متعلق بعدم وجود قاعدة بيانات مرتبطة بنصوص لها علاقة بدلالات ثقافية كأن نقول بالعربي، مجنون ليلى، فيقوم تطبيق الذكاء الصناعي بترجمتها حرفياً “Layla’s Madman” فاقداً الدلالة المقترنة بالعبارة باللغة الأصلية لأن الذكاء الصناعي يعتمد في الترجمة على البيانات المتاحة له، والتي غالباً ما تكون من ثقافة محددة. قد يؤدي هذا إلى فهم غير صحيح للعبارات المألوفة أو التعابير الثقافية وترجمتها بشكل خاطئ.
فقدان الخصوصية وإمكانية حدوث اختراقات لنظم معلومات المؤسسات:
مخاطر مشاركة البيانات عبر تطبيقات مثل ChatGPT:
لأن قوة الذكاء الاصطناعي تكمن في البيانات، فهذا يجعل نقطة القوة هذه بالذات يمكن أن تكون نقطة ضعف إذا تمت إدارتها بشكل سيء. فقد يشارك الموظفون عن غير قصد معلومات حساسة وحيوية للمؤسسات التي يعملون فيها بما في ذلك معلومات تحديد الهوية الشخصية للعملاء والملكية الفكرية وبعض البيانات الحصرية والسرية للشركات. يمكن أن تعرض مثل هذه التسريبات المؤسسات لخرق البيانات وعيوب المنافسة وانتهاكات الامتثال للقوانين وإمكانية التهرب من العقوبات أو الملاحقات. وهذا بالضبط ما حصل مع سامسونج. فقد أبلغت شركة سامسونج عن ثلاث تسريبات مختلفة لمعلومات شديدة الحساسية من قبل ثلاثة موظفين استخدموا ChatGPT لأغراض زيادة الإنتاجية. حيث قام أحد الموظفين بمشاركة رمز مصدر سري للتحقق من عدم وجود أخطاء، ورمز مشترك آخر لتحسين جودة الكود، وشارك الثالث تسجيلاً لاجتماع لتحويله إلى ملاحظات اجتماع من أجل جعله ملف تقديمي مثل الملفات التي يتم أنشاؤها عن طريق بوربوينت. يتم الآن استخدام كل هذه المعلومات بواسطة ChatGPT لتدريب نماذج الذكاء الاصطناعي ويمكن مشاركتها عبر الويب.
عدم موثوقية تطبيقات الذكاء الاصطناعي التوليدية التي لم يتم التحقق منها: لا تأتي جميع تطبيقات الذكاء الاصطناعي التوليدية من مصادر تم التحقق منها. حيث يكشف البحث الأخير الذي أجرته Astrix أن الموظفين يربطون بشكل متزايد هذه التطبيقات المستندة إلى الذكاء الاصطناعي (التي عادةً ما تتمتع بامتيازات عالية للوصول) إلى الأنظمة الأساسية مثل GitHub وSalesforce وما إلى ذلك – مما يثير مخاوف أمنية كبيرة.
خلاصات
يبدو أن النسخة المجانية لتطبيق الترجمة الفورية ChatGPT-4 وهو ChatGPT-3.5 تشهد استقراراً أكبر من النسخة المدفوعة التي تمت تجربتها من خلال طلب ترجمة عدة نصوص وفقرات من تقارير ومواد عربية أو إنجليزية لترجمتها.
إن قاعدة البيانات الواردة من المستخدمين هي من تسهم في تحديث بيانات ومعلومات تطبيقات الذكاء الاصطناعي فتطبيق الذكاء الاصطناعي، على الأقل Chat-GPT يتغذى على المعلومات التي يزوده بها المستخدمون فتطوير ترجمة المصطلحات والتراكيب اللغوية مرتبط بحجم قاعدة البيانات التي يعتمد عليها التطبيق.
من خلال طلب إعادة الترجمة من تطبيق الترجمة الاصطناعية ChatGPT-4 لا يعطي سوى احتمالين فقط لترجمة نص واحد حتى بعد إضافة كلمات مثل proofread. على سبيل المثال، فبعد كتابة ديباجة طويلة قبل طلب ترجمة نص من العربية إلى الإنجليزية أعطى التطبيق حرفياً نفس النتيجة التي أعطتها النسخة التي بدون اشتراك.
ولدى كتابة proofreadلتنقيح النسخة الصادرة عن إحدى الترجمات، قام التطبيق بالرد بأن النسخة التي أعطاها هي صحيحة قواعدياً مع العلم أنه يوجد فيها بعض الاختلالات البنائية.
لا يوجد تحديثات منذ 2021 (وهي غير مرتبطة بالترجمة بشكل أساسي) ففي أغلب المواضيع التي تم اختبار الحصول على معلومات حولها وبالأخص موضوع سورية، أظهر التطبيق بأنه لا يوجد تحديثات منذ أيلول 2021 يمكن أن يولدها بشكل تلقائي عن موضوع يخص سورية مثلاً كما لا يوجد أي ترجمة لنصوص متعلقة بالموضوع وإنما يقوم التطبيق بالترجمة الآلية فقط مما يعني أن هناك فقدان لمعلومات يكون من الضروري ذكرها في النص المترجم.
تقدم تطبيقات الذكاء الاصطناعي خدمة أكبر لمهمة مثل مهمات الترميز coding التي تخص اللغة البرمجية بالرغم أن آخر تحديث على معلومات التطبيق جرت في شهر أيلول 2021 بحسب المبرمجين الخبراء.
السرعة التي يتطور بها الذكاء الاصطناعي خيالية ولا يمكن التنبؤ بحدودها ومجالاتها، فمن الممكن أن تحدث تطورات فيما يتعلق بهذا الموضوع قبل نشر هذه المادة.
بعض العناصر العاملة في هذا المجال من مهندسين وغيرهم بدأوا بالاعتقاد أن تطبيقات الذكاء الاصطناعي تمتلك إحساس حيث ادعى أحد مهندسي غوغل، بلاك ليموين (Blake Lemoine)، أن نموذج المحادثة الاصطناعي (LaMDA) يملك وعياً وإحساساً وهو الادعاء الذي تسبب في طرد ليموين من غوغل. وقد نشر المهندس صوراً عن محادثات لتأييد ادعاءاته تظهر وكأن من يرد هو شخص وليس أحد تطبيقات الذكاء الاصطناعي. وقد قالت غوغل في بيان لاحق إن مزاعم ليموين بشأن تطبيق اللغة (لامدا) “لا أساس لها على الإطلاق” وأن الشركة عملت معه “لعدة أشهر” لتوضيح ذلك، ولكن من المؤسف أنه على الرغم من عمله لفترة طويلة في هذا المجال والنقاش معه عن الموضوع، لا يزال بليك يختار باستمرار انتهاك سياسات التوظيف وأمن البيانات الواضحة التي تتضمن الحاجة إلى حماية معلومات المنتج”.
وكنتيجة لما ورد نستطيع القول إن الذكاء الاصطناعي (فيما يتعلق بخدمة الترجمة الآلية) أداة مساعدة مهمة لكن لا يمكن الوثوق بالنصوص الصادرة عنه بشكل كامل، وعلى المستخدم أن يعرف كيف يستفيد من هذه الأداة ويشرف على تطوير أداءه وتطوير إنتاجه بما يخدم الهدف الأساسي وهو إنتاج نصوص أقرب إلى لغة الجمهور المستهدف وبأقل الأخطاء.
وختاماً يمكننا القول إنها ليست النهاية بالنسبة للمهن التي يشرف عليها الإنسان مع وجود الذكاء الاصطناعي وإنما هي نهاية هذه المادة التي حاولنا من خلالها الإجابة عن التساؤل الأساسي أن الذكاء الاصطناعي ليس عدواً لبعض المهن وإنما يجب أن يكون داعماً لها.