مخاوف من مخاطر الذكاء الاصطناعي على صنع القرار
أكد الانتشار السريع لأنظمة الذكاء الاصطناعي في معظم القطاعات، خاصة منذ اندلاع وباء كوفيد -19 «كورونا» في عام 2020، على أنه أصبح أهم أدوات تكنولوجيا المستقبل.
وحاليًا، فقد تساعد خوارزميات الذكاء الاصطناعي في اختيار شريك الحياة، وتوفير التشخيصات الطبية، ومعلومات حول استراتيجيات الاستثمار، وحتى تحديد درجات الامتحان.
ومع وصول أنظمة الذكاء الاصطناعي إلى بيانات دقيقة حول السلوك البشري من خلال وسائل التواصل الاجتماعي، تغلغل الذكاء الاصطناعي في القطاعات الرئيسية في معظم الاقتصادات المتقدمة.
وبالنسبة للمهام المجدية مثل تحليل المستندات، تعد أنظمة الذكاء الاصطناعي أفضل من نظيراتها التقليدية التي تكون أبطأ وأكثر عرضة للخطأ، مما يؤدي إلى مكاسب كبيرة في الكفاءة وخفض التكاليف لمن يتبنونها.
وبالنسبة للمهام الأكثر تعقيدًا، مثل اختيار شريك الحياة، يكون دور الذكاء الاصطناعي أكثر دقة: فهو يؤطر الخيارات و"يحفز" المختارين.
ومع تطور هذه الأنظمة للتحكم في المهام الأكثر تعقيدًا، يتوقع البحث مخاطر كبيرة مرتبطة بظهور الذكاء الاصطناعي في عملية صنع القرار، حيث يتضمن كل خيار بشري بالضرورة تحويل المدخلات "المعلومات ذات الصلة والمشاعر، وما إلى ذلك" إلى مخرجات وهي الـ"قرارات".
ويتضمن كل خيار حكمًا - بدون إصدار حكم ، يمكن اعتبار النتيجة رد فعل وليس اختيارًا، الجانب القضائي في الاختيار هو ما يُحاسب البشر، لذلك مع دخول الذكاء الاصطناعي في عملية اتخاذ خيارات أكثر تعقيدًا وأهمية ، أصبح إسناد المسؤولية أكثر صعوبة، وبالتالي هناك خطر يتمثل في أن الحكومات ستتبنى على وجه التحديد هذه الأنظمة والخوارزميات لتحمل المسؤولية عنها.
- مخاطر أنظمة الذكاء الاصطناعي..
- الذكاء الاصطناعي صناديق سوداء:
يمكن معرفة مدخلات ومخرجات أنظمة الذكاء الاصطناعي، ولكن من الصعب جدًا تتبع كيفية استخلاص المخرجات من المدخلات، ويولد هذا التشويش الذي يبدو مستعصًا على الحل عددًا من المشكلات الأخلاقية.
يمكن أن يكون الصندوق الأسود مسؤولاً سببيًا عن قرار أو إجراء، لكن لا يمكنه شرح كيفية وصوله إلى هذا القرار أو التوصية بهذا الإجراء، وحتى لو فتح الخبراء الصندوق الأسود وقاموا بتحليل التسلسل الطويل للحسابات التي يحتوي عليها، فلا يمكن ترجمته إلى أي شيء يشبه التبرير أو التفسير البشري.
- سطحية الأحكام
صُممت أنظمة الذكاء الاصطناعي للتعرف على الأنماط لكنها، على عكس البشر، لا تفهم معنى هذه الأنماط.
وبالتالي، إذا تم ارتكاب معظم الجرائم في مدينة من قبل مجموعة عرقية معينة، فيقوم نظام الذكاء الاصطناعي بتحديد هذا الارتباط بسرعة، ومع ذلك لن يأخذ في الاعتبار ما إذا كان هذا الارتباط ناتجًا عن أسباب أعمق وأكثر تعقيدًا وبالتالي، يمكن لنظام الذكاء الاصطناعي أن يوجه الشرطة إلى التمييز بين المجرمين المحتملين على أساس لون البشرة، لكنه لا يستطيع فهم الدور الذي تلعبه العنصرية، ووحشية بعض أنظمة الشرطة في العالم، والفقر الذي يتسبب في المقام الأول في السلوك الإجرامي.