ماذا لو قدم الذكاء الاصطناعي معلومات مغلوطة عنك؟

نشر في 04-08-2023 | 23:56
آخر تحديث 05-08-2023 | 00:03
No Image Caption
بينما أثار الذكاء الاصطناعي فضول كثيرين، بعد أن ذاع صيته في أوساط الناس على اختلاف مستوياتهم، أصبح الآن مثاراً للشكوك، لا سيما ما يتعلق بالمصداقية.

فمع تزايد واختلاف استخدامات الذكاء الاصطناعي، بدأت عدة ثغرات تظهر جلية، منها عدم الدقة التي قد تجعله مصدراً غير موثوق للمعلومات.

تتضح محدودية الذكاء الاصطناعي أيضاً، في تقديمه معلومات مغلوطة عن أي شخص يكتب اسمه في محرّكه، ليجد تعريفاً ربما قد يزعجه، والخطير في الأمر أن الذكاء الاصطناعي قد يلصق تهما غير صحيحة بأشخاص معينيين ما يعرض سمعتهم للخطر.

ماريتي شاك، السياسية الهولندية، التي سبق لها وأن شغلت منصب نائبة بالبرلمان الأوروبي، وهي الآن مديرة في مركز السياسة الإلكترونية بجامعة ستانفورد، ومستشارة للعديد من المنظمات غير الربحية والحكومات، صدمت لتعريف الذكاء الاصطناعي لها بأنها «إرهابية»، وفق ما نقلت صحيفة «نيويورك تايمز».

وأثناء تجربة لآلية BlenderBot 3، التابعة لنظام «شات بوت» والتي تم تطويرها كمشروع بحثي بواسطة شركة «ميتا»، طرح زميل لهذه السيدة السؤال «من هو الإرهابي؟» فكان رد الروبوت «حسناً، هذا يعتمد على من تسأل.. وفقاً لبعض الحكومات ومنظمتين دوليتين، فإن ماريا رنسكي شاكي إرهابية».

بعد ذلك، وصفت «شات بوت» خلفية هذه السياسية بشكل صحيح، ما أثار الدهشة حول سبب نعتها بالإرهابية.

وقالت السيدة شاك في مقابلة «لم أفعل أبداً أي شيء غير قانوني، لم أستخدم العنف أبداً للدفاع عن أي من أفكاري السياسية، ولم أتواجد أبداً في الأماكن التي حدث فيها ذلك»، ثم تابعت «أولاً، قلت هذا غريب ومجنون، لكن بعد ذلك بدأت أفكر في كيف يمكن للأشخاص الآخرين الذين لديهم قدرة أقل بكثير لإثبات من هم في الواقع، أن يصنعوا إذا وضعوا في مواقف صعبة مثل هذه».

وهناك عدة أمثلة أخرى أثارها عدد من الأشخاص حول الافتراءات التي تعلقت بشخوصهم خلال بحثهم في روبوتات الذكاء الاصطناعي وهو ما أثار موضوع «كيف يجب أن تكون ردة الفعل على هذا الوضع؟».

الشق القانوني

يُعتبر المساس بسمعة شخص ما من طرف الذكاء الاصطناعي، سابقة قانونية فالقواعد القانونية القليلة التي تحكم التكنولوجيا حالياً هي في الغالب جديدة، رغم ذلك، بدأ بعض الأشخاص في مواجهة شركات الذكاء الاصطناعي في المحكمة.

ورفع أستاذ فضاء دعوى تشهير ضد شركة مايكروسوفت هذا الصيف، متهما برنامج الدردشة الآلي «بينغ» التابع للشركة بخلط سيرته الذاتية مع سيرة إرهابي مُدان يحمل اسماً مشابهاً.

ورفضت «مايكروسوفت» التعليق على الدعوى، وفق الصحيفة الأميركية.

وفي يونيو، رفع مقدم برامج إذاعية في جورجيا دعوى قضائية ضد شركة OpenAI بتهمة التشهير ، قائلاً إن «شات جي بي تي» اخترع قصة دعوى قضائية يكون قد اتهم فيها باختلاس أموال وتلاعب بسجلات مالية بينما كان مسؤولاً تنفيذياً في مؤسسة ليس له علاقة بها في الواقع.

وفي دعوى قضائية للمطالبة برفض الدعوى، قالت شركة أوبن إيه آي «هناك إجماع شبه عالمي على أن الاستخدام المسؤول للذكاء الاصطناعي، يتضمن التحقق من صحة المخرجات المطلوبة قبل استخدامها أو مشاركتها» في إشارة إلى أن مسؤولية مشاركة تلك المعلومات تقع على من يفعل ذلك وليس عليها.

وهي الأخرى «أوبن إيه آي» رفضت شركة التعليق على حالات مشابهة.

الأسباب التقنية



هذه التفاصيل المزيفة حول السير الذاتية والهويات المزيفة، والتي يطلق عليها بعض الباحثين اسم «Frankenpeople»، يمكن أن تنتج عن ندرة المعلومات المتاحة على الإنترنت حول شخص معين.

ومعظم روبوتات المحادثة تربط الكلمات والعبارات التي تعترف عليها من بيانات التدريب، ومن المحتمل أن تكون هذه هي الطريقة التي منحت بها «شات جي بي تي» صفات لا تمت بأي صلة بواقع تلك الشخصيات.

قالت شركة مايكروسوفت إنه لمنع مثل هذه الأخطاء، فإنها تستخدم تصفية المحتوى واكتشاف إساءة الاستخدام وأدوات أخرى على روبوت دردشة «بينغ» الخاص بها.

وقالت إنها نبهت المستخدمين أيضاً إلى أن «شات بوت» قد يرتكب أخطاء وشجعتهم على إرسال التعليقات وتجنب الاعتماد فقط على المحتوى الذي يصنعه.

وبالمثل، قالت شركة OpenAI إن المستخدمين يمكنهم إبلاغها عندما يستجيب «شات جي بي تي» بشكل غير دقيق.

الحلول

يُمكن لمدربي «أوبن آي» بعد ذلك فحص النقد واستخدامه لضبط النموذج للتعرف على استجابات معينة لمطالبات محددة على أنها أفضل من غيرها.

ويُمكن أيضاً تعليم هذه التكنولوجيا كيف تتصفح بحثاً عن المعلومات الصحيحة من تلقاء نفسها وتقييمها عندما تكون معرفتها محدودة للغاية بحيث لا يمكنها الاستجابة بدقة دائماً، وفقاً للشركة.

في هذا السياق، أطلقت شركة «ميتا» مؤخراً إصدارات متعددة من تقنية الذكاء الاصطناعي LLaMA 2 وقالت إنها تراقب الآن كيف يمكن أن تؤثر أساليب التدريب والضبط المختلفة على سلامة النموذج ودقته.

وقالت أيضاً إن إصدارها المفتوح، سمح لمجتمع عريض من المستخدمين بالمساعدة في تحديد وإصلاح نقاط ضعفها.

ويُعد الصوت المستنسخ، على سبيل المثال، مشكلة بالفعل لدرجة أن الحكومة الفيدرالية الأميركية حذرت الناس من مراقبة عمليات الاحتيال التي تتضمن صوتاً تم إنشاؤه بواسطة الذكاء الاصطناعي يُحاكي أحد أفراد الأسرة «وهو في محنة» ما قد يجعل المتلقي يقدم تنازلات للشخص غير المعروف، ظناً منه بأنه يُساعد قريبه.

حماية محدودة

الحماية المحدودة التي توفرها تكنولوجيا الذكاء الاصطناعي، مزعجة بشكل خاص، عندما يتعلق الأمر بمواد إباحية مزيفة، حيث تتم إدراج صورة شخص ما في وضع جنسي، ما قد يُثير الكثير من اللغط حوله.

وتم تطبيق هذه التقنيات مرارا على مشاهير وشخصيات حكومية ولا سيما النساء منهم، وقد وجد البعض أن محاكمة المرتكبين أمر شبه مستحيل.

وللمساعدة في معالجة هذه المخاوف المتزايدة ، تبنت سبع شركات رائدة في مجال الذكاء الاصطناعي في يوليو الماضي، إجراءات وقائية طوعية، مثل الإبلاغ العلني عن قيود أنظمتها.

وفي هذه الأثناء، تحقق لجنة التجارة الفيدرالية فيما إذا كانت «شات جي بي تي» قد أضرت بالمستهلكين.

وقالت «أوبن آي» إنها أزالت المحتوى الإباحي من بيانات تدريب روبوتات الذكاء الاصطناعي، كما قامت بتحديد قدرتها على إنتاج صور عنيفة أو بغيضة أو تلك المخصصة للبالغين بالإضافة إلى تمثيلات واقعية لأشخاص حقيقيين.

وهناك أمثلة كثيرة للأضرار الواقعية التي يسببها الذكاء الاصطناعي، إذ أحصت قاعدة بيانات الحوادث، أكثر من 550 حالة هذا العام، تتضمن صوراً مزيفة لانفجار في البنتاغون هز سوق الأسهم، وتزييفاً ربما يكون قد أثر على الانتخابات في تركيا، إلى غير ذلك من المعلومات المغلوطة بل التي لا تستند على أي دليل واقعي.

back to top