مخاوف من التطبيقات المستقبلية للذكاء الاصطناعي (2-2)
في هذا الجزء من المقال سأتطرق لأبرز التحديات والمشاكل والآثار السلبية والمخاطر على البشرية التي يمكن أن تنتج عن تطبيقات وأساليب الذكاء الاصطناعي وهي:
1- صعوبة تحديد المسؤولية والشفافية: قد يكون من الصعب تحميل تقنيات الذكاء الاصطناعي مسؤولية سلوكها، وهناك خطر يتمثل بفقدان البشر السيطرة على هذه الأنظمة والتقنيات، مما يؤدي إلى عواقب غير مقصودة وربما ضارة دون مساءلة.
2- التلاعب والتحيز والاستغلال الاجتماعي: من المحتمل أن يتم استخدام تقنيات وخوارزميات الذكاء الاصطناعي للتحيز المجتمعي وتحيز البيانات لنشر معلومات كاذبة، والتأثير على الرأي العام وسلوك الناس في اتخاذ بعض القرارات المصيرية، كما يمكن أن يتم استخدامه لتحليل البيانات المتعلقة بسلوك الشخص وتفضيلاته وعلاقاته لإنشاء إعلانات مستهدفة تتلاعب بمشاعره وخياراته، علاوة على إمكانية استخدام هذا الذكاء لإنتاج محتوى صوتي أو فيديو مزيف لنشر معلومات كاذبة أو استغلال الأشخاص، وكذلك استخدام الذكاء الاصطناعي التوليدي للحملات المرتبطة بالانتخابات والقضايا السياسية والاجتماعية.
3- مخاوف تتعلق بالأمن وفقدان مهارات التفكير الإنساني: ينبغي ألا يؤدي كثرة استخدام تطبيقات الذكاء الاصطناعي إلى الاعتماد على هذه التطبيقات والتقليل من أهمية التفكير الإنساني، وبالتالي يصبح معظم المستخدمين للذكاء الاصطناعي معتمدين على هذه الأنظمة في جمع المعلومات وتحليلها وحل المشكلات واتخاذ القرارات، فالذكاء الاصطناعي وجد لتعزيز الذكاء البشري وتنمية قدراته لا استبدالها، وإن الاعتماد المفرط على الذكاء الاصطناعي قد يؤدي إلى ضعف فهم الأنظمة والعمليات المعقدة، وينتج عن ذلك الاعتماد أخطاء وتحيزات يصعب اكتشافها ومعالجتها على الفور، ويصبح المجتمع أكثر اعتماداً على الآلة منه على القدرات والمهارات البشرية.
4- الاعتماد على الذكاء الاصطناعي وفقدان الأمان والخصوصية: ونظرًا لأن أنظمة الذكاء الاصطناعي تعتمد بشكل متكرر على كميات هائلة من البيانات الشخصية، فقد يثير ذلك مخاوف تتعلق بالأمن والأمان والخصوصية للمستخدمين، ويمكن استخدام هذا الذكاء في التتبع ومراقبة الاتصالات والتعرف على الوجه، ومع التطور المتزايد لتقنياته يمكن أن تزداد أيضًا المخاطر الأمنية وإمكانية إساءة استخدام الهجمات الإلكترونية الخبيثة والتسلل واستغلال نقاط ضعف النظام بشكل عام.
5- المخاوف الأخلاقية: يمكن أن يساء استخدام تطبيقات الذكاء الاصطناعي وبرامجه وخاصة التفاعلية لاتخاذ قرارات مصيرية تتعلق بحياة الأفراد أو تطوير سلوكيات مدمرة لا سيما إذا لم تكن تحت إشراف بشري.
6- الآثار الجانبية على الوظائف والقوى البشرية: يكون ذلك من خلال الاستبدال بالعنصر البشري الذكاء الاصطناعي وفرض تحديات جديدة على أنظمة وإجراءات وأساليب الاختبار والتعيين والتدريب والتنمية للقوى العاملة والافتقار إلى العاطفة والإبداع.
ويرى جوزيف فايزنباوم أن يكون الذكاء الاصطناعي ممكناً، لكن يجب ألا نسمح لأجهزة الكمبيوتر أبداً باتخاذ قرارات مهمة، لأنها تفتقر دائماً إلى الصفات البشرية مثل التعاطف والحكمة.
7- يمكن توظيف الذكاء الاصطناعي في نشر وتثبيت مجموعة القيم الخاصة التي يحملها مطوروه، ويمكن له أن يسهل المراقبة والتلقين والتحيز على نطاق واسع، مما يمهد الطريق لإقامة نظام قمعي مستقر يمتد إلى أرجاء العالم، كما يجب التأكيد على أن هناك إيجابيات وسلبيات لأي نهج أو أسلوب علمي تكنولوجي حديث، لذا فإن قدرا هائلا من النقاش حول مزايا وفوائد الذكاء الاصطناعي، يمكن ذكر بعضها في تبسيط الإجراءات وجودة الخدمات المقدمة وتوفير الوقت والقضاء على التحيزات وأتمتة المهام المتكررة.
ومع انتشار الذكاء الاصطناعي في السنوات الأخيرة أصبح الناس يستخدمون برامجه وتطبيقاته وأساليبه في الأعمال وأمور الحياة اليومية لتسهيل حياتهم، كما تستخدمه الشركات لتبسيط عمليات الإنتاج الخاصة بها وتطوير منتجاتها وخدماتها للمستفيدين، ويعتقد مارك زوكربيرغ الرئيس التنفيذي لشركة ميتا، أن الذكاء الاصطناعي سيفتح آفاقًا إيجابية عديدة، مثل علاج الأمراض وزيادة أمان السيارات ذاتية القيادة.
حاولت في هذا المقال أن أجمع الآراء المختلفة حول الذكاء الاصطناعي، وأركز على أهمية سلامة تطبيقاته في الحفاظ على سلامة البشر وأهمية وجود تشريعات قانونية ولوائح مناسبة لضمان عمله بشفافية وتحديد للمسؤوليات والحفاظ الأمن والأمان لكل الأطراف المتعاملة مع التطورات السريعة والمتسارعة والمتجددة في تطبيقات الذكاء الاصطناعي، متمنياً مشاركة القراء الكرام والمتخصصين والمهتمين في مجال الذكاء الاصطناعي بالإدلاء بآرائهم ومقترحاتهم القيمة لإثراء هذا الموضوع الذي سيكون له دور استراتيجي في الخطط التنموية والمشاريع المستقبلية، ودمتم سالمين.