مخاوف من التطبيقات المستقبلية للذكاء الاصطناعي (1-2)

نشر في 16-12-2024
آخر تحديث 15-12-2024 | 18:47
 د. محمد الدويهيس

في نوفمبر 2023 اجتمع قادة سياسيون ومسؤولون في شركات التكنولوجيا العملاقة وخبراء في الذكاء الاصطناعي في المملكة المتحدة في انطلاق القمة العالمية الأولى حول المخاطر المترتبة على التطور المتسارع للذكاء الاصطناعي، ووقع المئات من خبراء الذكاء الاصطناعي وشخصيات بارزة بيانًا مفاده اتخاذ الإجراءات الضرورية للحد من الخطر الوجودي للإنسان بسبب التقدم الهائل والمتسارع في الذكاء الاصطناعي، ويجب أن تكون هذه الإجراءات الاحترازية أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحروب النووية.

ويمكن تقسيم المخاطر الوجودية الناشئة عن الذكاء الاصطناعي إلى فئتين رئيستين: مخاطر حاسمة ومخاطر تراكمية، وتشمل المخاطر الحاسمة احتمال وقوع أحداث مفاجئة وكارثية نتيجة لظهور أنظمة ذكاء اصطناعي تفوق ذكاء الإنسان، مما قد يؤدي إلى نهاية الجنس البشري، وعلى النقيض من ذلك تتجلى المخاطر التراكمية تدريجيا من خلال سلسلة من الاضطرابات المترابطة التي تؤدي مع مرور الوقت إلى تآكل بنيان المجتمع وقدرته على الصمود.

وقد أيد العديد من رواد علم الحاسوب والشخصيات العامة فرضية أن الذكاء الاصطناعي يشكل تهديدا وجوديا، وأن هذا الخطر يستحق اهتمامًا أكبر بكثير مما يحظى به حاليًا، حيث يرى توبي أورد أن المخاطر الوجودية المرتبطة بالذكاء الاصطناعي تتطلب منا المضي قدمًا بحذر، وليس التخلي عن هذا المجال تمامًا، في حين يرى ماكس مور أن الذكاء الاصطناعي «فرصة وجودية»، مشددًا على التكاليف الباهظة التي قد تنجم عن عدم تطويره، أما نيك بوستروم فيرى أن الذكاء الفائق يمكن أن يساعد في تقليل المخاطر الوجودية الناجمة عن تقنيات أخرى قوية مثل تكنولوجيا النانو الجزيئية أو علم الأحياء التركيبي، وبالتالي فإن تطوير الذكاء الفائق قبل هذه التقنيات قد يسهم في تقليل المخاطر الوجوديّة.

وقد أعرب العديد من كبار علماء الكمبيوتر والرؤساء التنفيذيين التقنيين عن مخاوفهم بشأن الذكاء الخارق، حيث يرى بعض المفكرين والمتخصصين أنه إذا تجاوز الذكاء الاصطناعي البشرية في الذكاء العام، وأصبح فائق الذكاء، فقد يصبح من الصعب أو المستحيل التحكم فيه ومن الصعب التحكم في «آلة فائقة الذكاء» وتطويرها كي تكون متوافقة مع القيم والمبادئ الإنسانية والأخلاقية، وسيكون من الصعب للغاية مواءمة الذكاء الفائق مع النطاق الكامل للقيم والقيود الإنسانية المهمة، وعليه يعتقد العديد من الباحثين أن الآلة الفائقة الذكاء ستقاوم محاولات تعطيلها أو تغيير أهدافها، لأن مثل هذا الحادث سيمنعها من تحقيق أهدافها الحالية. وقد حذرت هيلاري كلينتون من أن خبراء التكنولوجيا يرون في الذكاء الاصطناعي تهديدًا وجوديًا، وقد وصفه إيلون ماسك بأنه أخطر تهديد تواجهه الحضارة، ودعت كلينتون صناع القرار إلى مواكبة التطورات التكنولوجية بدلًا من محاولة اللحاق بها، حيث يجب الاستعداد لأي انفجار مفاجئ للذكاء الاصطناعي قد يفاجئ الجنس البشري غير المستعد، ويرى باحثو أخلاقيات الذكاء الاصطناعي أن التركيز على المخاطر الوجودية يصرف النظر عن الأضرار الحالية، مثل سرقة البيانات واستغلال العمال والتحيز.

وفي هذا العام 2024 أعلنت لجنة نوبل منح جائزة نوبل إلى كل من البريطاني الكندي جيفري هينتون، والأميركي جون هوبفيلد، تقديراً لإسهاماتهما الأساسية في تطوير تقنيات التعلم الآلي، التي أرست دعائم الشبكات العصبية الاصطناعية، وهي التقنية التي أحدثت ثورة في علم الذكاء الاصطناعي، وقد أحدث التعلم الآلي المستند إلى الشبكات العصبية الاصطناعية في الوقت الراهن ثورة في مجال العلوم والهندسة والحياة اليومية، كما أعربت إيلين مونز رئيسة اللجنة المانحة لجائزة نوبل في الفيزياء عن مخاوف متعلقة بسرعة التطور التكنولوجي قائلة: «على الرغم من أن التعلم الآلي له فوائد هائلة، فإن تطوره السريع أثار أيضاً مخاوف بشأن مستقبلنا، ويتحمل البشر مجتمعين مسؤولية استخدام هذه التكنولوجيا الجديدة بطريقة آمنة وأخلاقية، بما يحقق أكبر فائدة للبشرية». وبالرغم من مناقشة وإدراك بعض المفكرين وبعض المخططين الاستراتيجيين والسياسيين مدى الذكاء الاصطناعي وخطورته في المستقبل، فإنه لا يوجد إجماع حقيقي حتى الآن حول التهديدات والمخاطر الحقيقية والافتراضية المرتبطة بالذكاء الاصطناعي، حيث إن هناك بعض المخاطر التي يتفق عليها بعض المفكرين والخبراء، وبعضها عبارة عن مواقف افتراضية بحتة قد تحدث في المستقبل دون اتخاذ الاحتياطات المناسبة، وبعضها الآخر مخاوف حقيقية يتم التعامل معها بشكل يومي.

وتشمل القضايا المستقبلية الافتراضية قضايا مثل برمجة الذكاء الاصطناعي المسببة للأذى، أو تطوير الذكاء الاصطناعي لسلوكيات مدمرة والبرمجة المتحيزة والخطرة على البشر وقضايا كثيرة مثل خصوصية المستهلك والقضايا القانونية، وتحيز الذكاء الاصطناعي، وأحد أكبر المخاوف والتهديدات التي يذكرها الخبراء تتعلق بخصوصية بيانات المستهلك والأمن والذكاء الاصطناعي، جيث يخشى الخبراء أن يزداد هذا مع بدء استخدام المزيد من تطبيقات الذكاء الاصطناعي. ومن بين المخاوف والمخاطر والتهديدات الرئيسة الأخرى ندرة التشريعات واللوائح التنظيمية المتعلقة بالذكاء الاصطناعي على المستوى الوطني أو الدولي، وبالرغم من أن الاتحاد الأوروبي قد تقدم لتشريع وتنظيم الذكاء الاصطناعي من خلال «قانون الذكاء الاصطناعي» في أبريل 2021 فإنه لم يتم تمرير هذا القانون.

ويعتقد العديد من أنصار الذكاء الاصطناعي أن المشكلة لا تكمن في الذكاء الاصطناعي نفسه، بل في الطريقة التي يتم بها استخدامه، ويأمل المؤيدون أن تتمكن الإجراءات التنظيمية والتشريعية من معالجة العديد من المخاطر المرتبطة بالذكاء الاصطناعي.

وسأتطرق في الجزء الثاني من المقال لأبرز التحديات والمشاكل والآثار السلبية والمخاطر على البشرية التي يمكن أن تنتج عن تطبيقات وأساليب الذكاء الاصطناعي، ودمتم سالمين.

back to top