في الشهر الماضي، أحدث برنامج الكمبيوتر ألفا جو (AlphaGo)، المصمم خصوصا لممارسة لعبة تسمى (Go)، موجة من الصدمة والذهول بين المعجبين المتحمسين لهذه اللعبة عندما تمكن من هزيمة لي سيدول، وهو واحد من أعلى المصنفين المحترفين الممارسين لهذه اللعبة، والفوز ببطولة تتألف من خمس مباريات بنتيجة أربعة إلى واحد.

Ad

لعلك تتساءل: وهل يُعَد هذا خبرا جديدا؟ قبل عشرين عاما نجح الكمبيوتر ديب بلو (Deep Blue) من صنع شركة آي بي إم في هزيمة بطل العالم في الشطرنج غاري كاسباروف، ونحن نعلم جميعا أن أجهزة الكمبيوتر تحسنت كثيرا منذ ذلك الحين، ولكن ديب بلو فاز بالاستعانة بقوة حاسوبية هائلة، مستخدما قدرته على حساب نتائج عدد هائل من النقلات لمستوى أعمق حتى من ذلك الذي قد يبلغه بطل العالم. أما اللعبة (جو) فتمارس على رقعة أكبر كثيرا (تسعة عشر مربعا عرضا وتسعة عشر مربعا طولا، مقارنة بثمانية مربعات عرضا وثمانية مربعات طولا في لعبة الشطرنج) والنقلات المحتملة على هذه الرقعة أكثر من عدد الذرات في الكون، ولهذا فلم يكن من المرجح أن تتمكن العمليات الحاسوبية الصِرفة من هزيمة إنسان يتمتع بحس بدهي قوي يوجهه إلى أفضل النقلات.

ولكن بدلا من ذلك، تم تصميم الكمبيوتر ألفا جو للفوز من خلال المشاركة في عدد هائل من المباريات ضد برامج أخرى ثم تبنى الاستراتيجيات التي تثبت نجاحها. وبوسعك أن تقول إن ألفا جو تطور لكي يصبح أفضل ممارس للعبة جو في العالم، فحقق في غضون عامين فقط ما قد يستغرق حدوثه ملايين السنوات من خلال الانتقاء الطبيعي.

يشعر إيريك شميت، الرئيس التنفيذي للشركة الأم لشركة غوغل، ومالك الكمبيوتر ألفا جو، بالحماس إزاء ما قد يعنيه الذكاء الاصطناعي للبشرية. وفي كلمة ألقاها قبل المباراة بين لي سيدول وألفا جو، قال "إن الإنسانية هي الفائز، أيا كانت نتيجة المباراة، لأن التقدم في مجال الذكاء الاصطناعي من شأنه أن يجعل كل إنسان أكثر ذكاء، وأكثر قدرة، و"إنسانا أفضل".

تُرى هل يحدث هذا حقا؟ في وقت انتصار ألفا جو نفسه تقريبا، كان الـ(chatbot) التابع لشركة مايكروسوفت، وهو برنامج يدعى تايلور تم تصميمه للرد على الرسائل من الأشخاص الذين تتراوح أعمارهم بين 18 إلى 24 عاما، يمر بتجربة فاشلة مؤلمة. إذ كان من المفترض أن يتمكن "تاي"، كما يسمي الكمبيوتر نفسه، من التعلم من الرسائل التي يتلقاها ويعمل تدريجيا على تحسين قدرته على إجراء محادثات ممتعة، ولكن للأسف الشديد، في غضون 24 ساعة تعلم تاي من الناس أفكارا عنصرية وجنسية، وعندما بدأ تاي يتحدث بعبارات إيجابية عن هتلر، قررت شركة مايكروسوفت إغلاقه وحذف أكثر رسائله عدوانية وقبحا.

لا أدرى ما إذا كان الناس الذين حولوا تاي إلى شخصية عنصرية هم أنفسهم يتسمون بالعنصرية، أو أنهم قرروا إفساد لعبة مايكروسوفت الجديدة على سبيل التسلية والمرح. في كل الأحوال يخدم التقارب الزمني بين انتصار ألفا جو وهزيمة تايلور كرسالة تحذير، والواقع أن إطلاق العنان للذكاء الاصطناعي في سياق لعبة تخضع لقواعد محددة وترمي إلى تحقيق هدف واضح أمر يختلف تمام الاختلاف عن إطلاق الذكاء الاصطناعي في العالم الحقيقي، حيث قد يفضي نقص القدرة على التنبؤ بالبيئة المحيطة إلى الكشف عن أخطاء برمجية ذات عواقب وخيمة.

في كتابه "الذكاء الخارق"، يزعم نِك بوستروم، مدير معهد مستقبل الإنسانية في جامعة أكسفورد، أنه لن يكون من السهل دوما إيقاف تشغيل آلة ذكية كما كان من السهل إيقاف تاي، وهو يُعَرِّف الذكاء الخارق باعتباره عقلا "أذكى من أفضل العقول البشرية في كل مجال عمليا، بما في ذلك الإبداع العلمي، والحكمة العامة، والمهارات الاجتماعية". وربما يكون مثل هذا النظام قادرا على التفوق على كل محاولاتنا لإيقاف تشغيله.

ويشك البعض في إمكانية تحقيق الذكاء الخارق على الإطلاق، فقد طلب بوستروم بالاشتراك مع فينسنت مولر من كل الخبراء أن يذكروا موعدا يوافق احتمال بلوغ آلات مستوى الذكاء البشري بنسبة واحد إلى اثنين وموعدا يوافق احتمال حدوث الأمر نفسه بنسبة تسعة إلى عشرة، فجاء متوسط التخمينات لاحتمال الواحد إلى الاثنين في نطاق عام 2040 إلى عام 2050، ولاحتمال التسعة إلى العشرة بحلول عام 2075، وتوقع أغلب الخبراء أن يحقق الذكاء الاصطناعي مستوى الذكاء الخارق في غضون ثلاثين عاماً من بلوغ مستوى الذكاء البشري.

لا ينبغي لنا أن نأخذ هذه التقديرات على محمل الجد، فقد كان معدل الاستجابة الكلي للدراسة 31% فقط، ومن الواضح أن الباحثين العاملين في مجال الذكاء الاصطناعي لديهم الحافز لتعزيز أهمية مجالهم بالتباهي بإمكاناته وقدرته على تحقيق نتائج عظيمة.

ربما يبدو احتمال بلوغ الذكاء الاصطناعي مستوى الذكاء الخارق أبعد من أن يحملنا على القلق بشأنه، وخصوصا في ظِل مشاكل أكثر إلحاحا، ولكن الحجة قوية للبدء في التفكير في الكيفية التي يمكننا بها تصميم الذكاء الاصطناعي بحيث يضع في الاعتبار مصالح البشر، بل جميع الكائنات الحساسة الواعية (بما في ذلك الآلات، إذا كانت هي أيضاً كائنات واعية لها مصالحها الخاصة).

ومع خروج السيارات بدون سائق بالفعل إلى الطرق في ولاية كاليفورنيا، فليس من السابق لأوانه أن نتساءل ما إذا كان بوسعنا أن نبرمج آلة للعمل والتصرف بشكل أخلاقي، فمع تحسن أداء مثل هذه السيارات، يصبح بوسعها إنقاذ الأرواح لأن أخطاءها ستكون أقل من الأخطاء التي يرتكبها السائقون من البشر، ولكنها في بعض الأحيان قد تواجه الاختيار بين أكثر من روح واحدة، فهل ينبغي لصناعها أن يبرمجوها بحيث تنحرف لتجنب الاصطدام بطفل يركض عبر الطريق، حتى لو عرضت بذلك ركابها للخطر؟ وماذا عن الانحراف لتجنب دهس كلب؟ ماذا لو كان الخطر الوحيد متمثلا بإلحاق الضرر بالسيارة ذاتها لا الركاب؟

ربما نصادف دروسا ينبغي لنا أن نتعلمها مع بدء مثل هذه المناقشات حول السيارات التي تعمل بدون سائق، ولكن السيارات بدون سائق ليست كائنات خارقة الذكاء، ومن المؤكد أن تعليم الأخلاق لآلة أكثر ذكاء من البشر، في نطاق واسع من المجالات، مهمة شديدة الصعوبة.

يبدأ بوستروم كتابه "الذكاء الخارق" بحكاية رمزية عن مجموعة من عصافير الدوري ارتأت أنها لفكرة عظيمة أن تعمل على تدريب بومة لمساعدتها في بناء أعشاشها ورعاية صغارها، وعلى هذا بدأت العصافير بالبحث عن بيضة بومة، ولكن إحداها اعترضت ناصحة بقية العصافير بالتفكير أولا في كيفية ترويض البومة؛ ولكن العصافير الأخرى كانت متلهفة للبدء بتنفيذ المشروع الجديد المثير، فقررت تأجيل مواجهة التحدي المتمثل بتدريب البومة (على عدم افتراس عصافير الدوري على سبيل المثال) إلى ما بعد نجاحها في تربيتها.

إذا كنا راغبين في صنع بومة تتسم بالحكمة لا الذكاء فحسب، فلا ينبغي لنا أبدا أن نكون مثل تلك العصافير المتلهفة النافدة الصبر.

* بيتر سنغر | Peter Singer ، أستاذ أخلاق الطب الحيوي في جامعة برينستون، وأستاذ فخري بجامعة ملبورن. ومن بين مؤلفاته كتاب «تحرير الحيوان»، وكتاب «الحياة التي يمكنك إنقاذها»، وكتاب «أعظم الخير الذي يمكنك تقديمه»، ومؤخرا كتاب «المجاعة: الثراء والأخلاق».

«بروجيكت سنديكيت، 2016" بالاتفاق مع «الجريدة»