البنتاجون يشترط على مطورى الذكاء الاصطناعى كشف أسرار التقنية
دعا كبير مسئولى الذكاء الاصطناعى فى وزارة الدفاع الأمريكية، إلى مزيد من الشفافية من جانب مطورى الذكاء الاصطناعى عن كيفية عمل تقنياتهم.
ووفقا لموقع "بلومبرج"، يعتقد كريغ مارتيل أن القسم يحتاج إلى معرفة المزيد عن أدوات الذكاء الاصطناعى قبل الالتزام الكامل باستخدامها.
ويريد مارتيل من الشركات أن تشارك الرؤى حول كيفية إنشاء برامج الذكاء الاصطناعى الخاصة بها حتى تشعر وزارة الدفاع الأميركية "بالراحة والأمان عند اعتمادها".
حاليا، تعتمد برامج الذكاء الاصطناعى على نماذج اللغات الكبيرة (LLMs)، والتى تستخدم مجموعات بيانات ضخمة لتشغيل أدوات مثل برامج الدردشة الآلية ومولدات الصور. ومع ذلك، غالبا ما يتم تقديم هذه الخدمات دون الكشف عن أعمالها الداخلية، مما يجعل من الصعب على المستخدمين فهم كيفية وصول التكنولوجيا إلى القرارات أو كيفية تحسنها بمرور الوقت.
أعرب مارتيل عن قلقه بشأن نقص المعلومات المتعلقة بالبيانات المستخدمة فى هذه النماذج. كما سلط الضوء على المخاطر التى تشكلها أنظمة الذكاء الاصطناعى، والتى غالبا ما تفشل الشركات فى الكشف عنها.
ولمعالجة هذه القضايا، يدعو مارتيل رواد الصناعة والأكاديميين إلى ندوة فى واشنطن فى شهر فبراير المقبل.
تهدف الندوة إلى تحديد الاستخدامات المناسبة للذكاء الاصطناعى داخل وزارة الدفاع (البنتاجون)، وتطوير المعايير المتعلقة بالقضايا الحساسة.
حدد فريق مارتيل بالفعل 200 استخدام محتمل للذكاء الاصطناعى داخل الوزارة، ويؤكد أنهم لا يريدون إيقاف استخدامه تماما، بل يريدون فهم فوائده ومخاطره.
لدى البنتاجون أكثر من 800 مشروع للذكاء الاصطناعى قيد التنفيذ، بعضها يتضمن أنظمة أسلحة.
ونظراً للمخاطر الكبيرة التى تنطوى عليها هذه المشاريع، فإن البنتاجون سيطبق معايير أعلى فيما يتعلق بكيفية استخدامه للنماذج الخوارزمية مقارنة بالقطاع الخاص.
ويعتقد مارتيل أن الحصول على نتائج غير دقيقة هو ببساطة أمر غير مقبول، خاصة فى المواقف الحرجة التى تكون فيها "حياة البشر على المحك".
من خلال السعى إلى مزيد من الشفافية والفهم لأدوات الذكاء الاصطناعي، تهدف وزارة الدفاع الأمريكية إلى ضمان التنفيذ المسؤول والفعال لتكنولوجيا الذكاء الاصطناعى فى عملياتها.