البشر نوع من الكائنات القادرة على صنع الأدوات، ولكن هل يمكننا التحكم في الأدوات التي نصنعها؟ عندما طور روبرت أوبنهايمر وغيره من الفيزيائيين أول سلاح يعمل بالانشطار النووي في أربعينيات القرن العشرين، اعتراهم القلق إزاء احتمال تسبب اختراعهم في تدمير البشرية، حتى وقتنا هذا، لم يحدث ذلك، لكن التحكم في الأسلحة النووية كان يشكل تحديا متواصلا منذ ذلك الحين.
الآن، يرى كثير من العلماء الذكاء الاصطناعي- الخوارزميات والبرمجيات التي تعمل على تمكين الآلات من أداء مهام تتطلب عادة الذكاء البشري- باعتباره أداة تحويلية بذات القدر، فمثله كمثل تكنولوجيات ذات أغراض عامة سابقة، ينطوي الذكاء الاصطناعي على إمكانات هائلة في الخير والشر، ففي أبحاث السرطان، يمكن استخدامه لفرز وتلخيص عدد من الدراسات في بضع دقائق أكبر مما يستطيع فريق بشري القيام به على مدار أشهر عديدة، وعلى نحو مماثل، يمكنه التنبؤ بشكل يمكن التعويل عليه بأنماط طيات البروتين التي قد يستغرق الباحثون من البشر سنوات عديدة للكشف عنها.
لكن الذكاء الاصطناعي يخفض أيضا التكاليف والحواجز التي تحول دون دخول غير الأسوياء، والإرهابيين، وغيرهم من القوى الشريرة التي قد ترغب في إحداث الأذى، وكما حذرت دراسة حديثة أصدرتها مؤسسة راند، فإن «التكلفة الهامشية لإحياء فيروس خطير يشبه فيروس الجدري قد لا تتجاوز 100 ألف دولار، في حين قد تتجاوز تكلفة تطوير لقاح معقد المليار دولار».
علاوة على ذلك، يخشى بعض الخبراء أن يكون الذكاء الاصطناعي المتقدم أكثر ذكاء من البشر إلى الدرجة التي قد تسمح له بالسيطرة علينا، وليس العكس، حيث تتراوح التقديرات حول المدة التي قد يستغرقها تطوير مثل هذه الآلات الفائقة الذكاء- المعروفة بالذكاء العام الاصطناعي- من بضع سنوات إلى بضعة عقود من الزمن، لكن أيًا كانت الحال، فإن المخاطر المتنامية المترتبة على استخدام تطبيقات الذكاء الاصطناعي الضيقة اليوم تتطلب بالفعل قدراً أعظم من الاهتمام.
على مدار أربعين عاماً، دأبت مجموعة استراتيجية أسبن (التي تتألف من مسؤولين حكوميين سابقين وأكاديميين ورجال أعمال وصحافيين) على الاجتماع كل صيف للتركيز على مشكلة رئيسة تتعلق بالأمن الوطني، تناولت جلسات سابقة مواضيع مثل الأسلحة النووية والهجمات السيبرانية وصعود الصين، وفي عامنا هذا، ركزنا على التأثيرات التي قد يخلفها الذكاء الاصطناعي على الأمن الوطني، ففحصنا الفوائد فضلاً عن المخاطر.
كان من بين الفوائد زيادة القدرة على فرز كميات هائلة من بيانات الاستخبارات، وتعزيز أنظمة الإنذار المبكر، وتحسين الأنظمة اللوجستية المعقدة، وتفتيش أكواد الكمبيوتر لتحسين الأمن السيبراني، لكن الأمر لا يخلو أيضا من مخاطر كبرى، مثل التقدم في تصنيع الأسلحة المستقلة، والأخطاء العَـرَضية في خوارزميات البرمجة، والذكاء الاصطناعي المعادي الذي قد يعمل على إضعاف الأمن السيبراني.
كانت الصين حريصة على الدفع باستثمارات ضخمة في سباق تسلح الذكاء الاصطناعي الأوسع، كما أنها تتباهى ببعض المزايا البنيوية، وتتمثل الموارد الثلاثة الرئيسة للذكاء الاصطناعي في البيانات لتدريب النماذج، والمهندسين الأذكياء لتطوير الخوارزميات، وقوة الحوسبة لتشغيله، والواقع أن الصين لا تفرض سوى قِـلة من القيود القانونية أو القيود المرتبطة بالخصوصية للحد من الوصول إلى البيانات (وإن كانت الأيديولوجية تقيد بعض مجموعات البيانات)، وهي مزودة بشكل جيد بمهندسين شباب لامعين، فالمنطقة التي تتخلف فيها الصين بأكبر درجة عن الولايات المتحدة هي الرقائق الإلكترونية الدقيقة المتقدمة التي تنتج قوة الحوسبة اللازمة لتطبيقات الذكاء الاصطناعي.
تحد ضوابط التصدير الأميركية من قدرة الصين على الوصول إلى هذه الرقائق الرائدة، فضلا عن آلات الطباعة بالحَـفر الهولندية الباهظة الثمن التي تصنع هذه الرقائق، كان الإجماع بين الخبراء في أسبن أن الصين متأخرة عن الولايات المتحدة بعام أو عامين، لكن الوضع يظل متقلبا، فعلى الرغم من الاتفاق بين الرئيسين جو بايدن وشي جين بينغ على عقد مناقشات ثنائية بشأن الذكاء الاصطناعي عندما التقيا في الخريف الماضي، كان التفاؤل في أسبن ضئيلا بشأن آفاق مراقبة التسلح بالذكاء الاصطناعي.
تفرض الأسلحة المستقلة تهديداً خطيراً بشكل خاص، فبعد أكثر من عقد من الدبلوماسية في الأمم المتحدة، فشلت البلدان في الاتفاق على حظر الأسلحة الفتاكة المستقلة، ويشترط القانون الإنساني الدولي أن تميز الجيوش بين المقاتلين المسلحين والمدنيين، وقد اشترط البنتاغون منذ فترة طويلة أن يشارك أحد البشر في دائرة صنع القرار قبل إطلاق أي سلاح من هذا القبيل، ولكن في بعض السياقات، مثل الدفاع ضد صواريخ قادمة، لا يوجد وقت للتدخل البشري.
ونظرا لأهمية السياق، يتعين على البشر أن يحددوا بدقة (في الكود) ما يمكن أن تفعله الأسلحة وما لا يمكنها أن تفعل، بعبارة أخرى، يجب أن يوجد أحد البشر للإشراف «على الدائرة» من أعلى لا من «داخل الدائرة»، وهذه ليست مجرد مسألة تخمينية، في حرب أوكرانيا، عمل الروس على التشويش على إشارات القوات الأوكرانية، مما أجبر الأوكرانيين على برمجة أجهزتهم لاتخاذ القرار النهائي المستقل حول متى تطلق النار.
يتمثل أحد أكثر مخاطر الذكاء الاصطناعي إثارة للخوف في تطبيقه على الحرب البيولوجية أو الإرهاب، عندما وافقت البلدان على حظر الأسلحة البيولوجية في عام 1972، كان الاعتقاد السائد أن مثل هذه الأجهزة ليست مفيدة، نظراً لخطر «الانفجار العكسي» على جانب مستخدمها ذاته، ولكن مع البيولوجيا التخليقية، ربما يكون من الممكن تطوير سلاح يدمر مجموعة بعينها ولكن ليس غيرها، أو قد يرغب إرهابي لديه القدرة على الوصول إلى أحد المختبرات في قتل أكبر عدد ممكن من الناس، كما فعلت طائفة أوم شينريكيو في اليابان عام 1995. (على الرغم من استخدامهم غاز السارين، الذي لا ينتقل بالعدوى، فقد يستخدم نظيرهم الحديث الذكاء الاصطناعي لتطوير فيروس ينتقل بالعدوى).
في حالة التكنولوجيا النووية، اتفقت البلدان في عام 1968 على معاهدة لمنع الانتشار تضم الآن 191 عضوا، وتقوم الوكالة الدولية للطاقة الذرية بانتظام بتفتيش برامج الطاقة المحلية للتأكد من اقتصار استخدامها على أغراض سلمية، وعلى الرغم من المنافسة الشديدة إبان الحرب الباردة، وافقت البلدان الرائدة في مجال التكنولوجيا النووية في عام 1978 على ممارسة ضبط النفس في تصدير المرافق والمعرفة الفنية الأكثر حساسية، وتشير مثل هذه السابقة إلى بعض مسارات الذكاء الاصطناعي، وإن كان الأمر لا يخلو من اختلافات واضحة بين التكنولوجيتين.
من المسلم به أن التكنولوجيا تتحرك بسرعة أكبر من السياسة أو الدبلوماسية، وخاصة عندما تكون مدفوعة بمنافسة سوقية شديدة في القطاع الخاص، إذا كان اجتماع مجموعة استراتيجية أسبن هذا العام توصل إلى استنتاج رئيس واحد، فهو أن الحكومات يجب أن تكون حريصة على تسريع وتيرة عملها.
* سكرتير مساعد وزير الدفاع السابق، وأستاذ في جامعة هارفارد، مؤلف كتاب القوة الناعمة وكتاب مستقبل القوة وكتاب هل انتهى القرن الأميركي؟ و«هل الأخلاق مهمة القادمة»؟ الرؤساء والسياسة الخارجية من روزفلت إلى ترامب.