ظَلَّت آفاق الذكاء الاصطناعي فترة طويلة تشكل مصدراً لتساؤلات أخلاقية معقدة، ولكن التركيز كان في الأغلب الأحيان على الكيفية التي ينبغي لنا بها نحن، مبدعي الذكاء الاصطناعي، أن نستخدم الروبوتات المتقدمة. والعنصر المفقود في المناقشة هو الحاجة إلى وضع مجموعة من الأخلاقيات تحكم عمل الآلات ذاتها، فضلاً عن تزويد الآلات بوسيلة لحل المعضلات الأخلاقية كلما نشأت، فعندئذٍ فقط يصبح بوسع الآلات الذكية أن تعمل بشكل مستقل، فتتخذ اختيارات أخلاقية وهي تؤدي مهامها، من دون تدخل بشري.هناك العديد من الأنشطة التي نود لو نتمكن من تسليمها بشكل كامل لآلات تعمل بشكل مستقل؛ فالروبوتات قادرة على القيام بوظائف شديدة الخطورة أو غير سارة على الإطلاق، وبوسعها أن تسد الفجوات في سوق العمل، كما يمكنها أداء مهام شديدة التكرار أو التفصيل، وهو ما يتناسب بشكل أفضل مع الروبوتات مقارنة بالبشر.
ولكن لن يشعر أحد بالارتياح في ظل آلات تعمل بشكل مستقل في غياب أي إطار أخلاقي لتوجيهها. (قامت هوليود بوظيفة بارعة في تسليط الضوء على هذه المخاطر على مر السنين). ولهذا السبب، نحتاج إلى تدريب الروبوتات على تحديد وتقييم السمات الأخلاقية ذات الصِّلة في أي موقف بعينه (على سبيل المثال، تلك التي تشير إلى فوائد محتملة أو أضرار قد تلحق بشخص ما). ويتعين علينا أن نغرس فيها واجب التصرف على النحو اللائق المناسب "لتعظيم الفوائد والحد من الأضرار".بطبيعة الحال، في مواقف الحياة الحقيقية، قد نشهد العديد من السمات الأخلاقية والواجبات المتصلة بها، وربما تتضارب هذه الواجبات، وعلى هذا فلابد أن يكون كل واجب مطلوب من الروبوت نسبياً ومتصلاً بالسياق، فالواجب الذي قد يبدو حيوياً لأول وهلة، ربما يلغيه واجب آخر في مواقف معينة.ويكمن مفتاح إصدار مثل هذه القرارات المعتمدة على التقدير في تجاوز المبادئ الأخلاقية التي غُرِسَت في الآلة قبل أن تبدأ العمل، وبتجهيزها بهذا المنظور الانتقادي، يصبح بوسع الآلات أن تتعامل مع مواقف غير متوقعة بشكل صحيح، بل حتى ربما تتمكن من تبرير قراراتها. ويعتمد تحديد المبدأ الذي تحتاج إليه الآلة، إلى حد ما، على كيفية نشره، فعلى سبيل المثال، يحتاج الروبوت الذي يعمل في مجال البحث والإنقاذ، في أداء واجبه المتمثل في إنقاذ أكبر عدد ممكن من الأرواح، إلى فهم كيفية تحديد الأولويات، استناداً إلى تساؤلات مثل: كم عدد الضحايا الذين ربما يتركزون في منطقة بعينها، أو مدى احتمالات بقائهم على قيد الحياة، ولا تنطبق مثل هذه التساؤلات على روبوت يستخدم لرعاية شخص واحد كبير السن، بل ينبغي تجهيز مثل هذه الآلة لاحترام استقلال مهمتها، بين أمور أخرى.ينبغي لنا أن نسمح للآلات بالعمل بشكل مستقل فقط في المجالات التي يتفق فيها علماء الأخلاق على ما يشكل سلوكاً مقبولاً، وإلا فإننا نخاطر بردة فعل سلبية ضد السماح لأي آلة بالعمل بشكل مستقل.ولكن علماء الأخلاق لن يعملوا بمفردهم، بل على العكس من ذلك، يتطلب تطوير أخلاقيات الآلات إجراء أبحاث ذات طبيعة متعددة التخصصات، استناداً إلى الحوار بين علماء الأخلاق والمتخصصين في الذكاء الاصطناعي، ولكي يتسنى تحقيق هذه الغاية، يتعين على كل من الجانبين أن يقدر خبرات واحتياجات الآخر.يتعين على كل الباحثين في مجال الذكاء الاصطناعي أن يدركوا أن الأخلاق حقل خضع للدراسة على مدى فترة طويلة ضمن عِلم الفلسفة؛ وهو يذهب إلى ما هو أبعد من حدس الأشخاص العاديين، ولا يشمل السلوك الأخلاقي الامتناع عن القيام بأشياء محددة فحسب، بل أيضاً القيام بأشياء معينة بهدف الوصول إلى الحالة المثالية، ولكن حتى الآن، كانت عمليات تحديد وتخفيف المخاوف الأخلاقية إزاء سلوك الآلات تركز إلى حد كبير على الجزء الخاص بالامتناع، بمعنى منع الآلات من الانخراط في سلوك غير مقبول أخلاقياً، وهو ما يأتي عادة على حساب تقييد سلوكياتها المحتملة ومجالات انتشارها بلا ضرورة.من جانبهم، يتعين على علماء الأخلاق أن يدركوا أن برمجة الآلة تتطلب الدقة الشديدة، وهو ما يتطلب استخدام نهج بالغ الدقة في التعامل مع المناقشات الأخلاقية، وربما إلى حد غير مألوف، كما يتعين عليهم أن ينخرطوا بشكل أكبر في التعامل مع تطبيقات العالَم الحقيقي لعملهم النظري، وهو ما قد يحمل الفائدة الإضافية المتمثلة في دفع مجال الأخلاق إلى الأمام.على نطاق أوسع، تعطينا محاولة صياغة أخلاقيات الآلات بداية جديدة في ما يتصل بتحديد المبادئ التي ينبغي لنا أن نستخدمها لحل المعضلات الأخلاقية، ولأننا مهتمون بسلوك الآلات، فبوسعنا أن نتحلى بقدر أكبر من الموضوعية في دراسة الأخلاق مقارنة بما نتحرى من موضوعية في مناقشة السلوك البشري، حتى برغم أن ما قد نتوصل إليه من نتائج لابد أن يكون قابلاً للتطبيق على البشر أيضاً.فمن ناحية، لن نكون ميالين إلى تزويد الآلات ببعض السلوكيات النشوئية المتطورة بين البشر، مثل تفضيل الذات على الجماعة، بل ينبغي لنا أن نلزمها بدلاً من ذلك بالتعامل مع كل الناس باحترام، ومن المرجح نتيجة لهذا أن تتصرف الآلات بشكل أكثر أخلاقية من أغلب البشر، وأن تخدم كقدوة إيجابية لنا جميعاً.الواقع أن الآلات الأخلاقية لن تشكل تهديداً للبشرية، بل على العكس من ذلك، سوف تساعدنا بشكل كبير، ليس فقط على العمل لمصلحتنا بل أيضاً عندما تبين لنا كيف ينبغي لنا أن نتصرف إذا كنا راغبين في البقاء كنوع.* سوزان لي أندرسون * أستاذة الفلسفة الفخرية في جامعة كونيتيكيت."بروجيكت سنديكيت" بالاتفاق مع "الجريدة".
مقالات
الآلات الأخلاقية
21-12-2016