تقارير: استخدام نموذج "كلود" للذكاء الاصطناعي في عملية استهداف الرئيس مادورو
كشفت تقارير إعلامية حديثة أن الجيش الأمريكي استخدم نموذج الذكاء الاصطناعي "كلود" (Claude) الذي طورته شركة أنثروبيك (Anthropic) بشكل فعلي خلال العملية التي استهدفت الرئيس الفنزويلي نيكولاس مادورو الشهر الماضي، مما يشير إلى تورط تكنولوجيا الشركة التي تركز على "إجراءات الأمان" في غارة عسكرية خارجية أدت إلى سقوط قتلى.
ووفقاً لما نقلته وكالتا "أكسيوس" و"وول ستريت جورنال"، فقد تم استخدام نموذج "كلود" أثناء سير العملية النشطة، وليس فقط في المراحل التحضيرية، على الرغم من أن الدور المحدد للنموذج لا يزال غير واضح، علماً بأن الجيش الأمريكي استخدم سابقاً نماذج الذكاء الاصطناعي لتحليل صور الأقمار الصناعية والاستخبارات في الوقت الفعلي.
تجدر الإشارة إلى أن سياسات الاستخدام الخاصة بمختبر الذكاء الاصطناعي الذي يتخذ من سان فرانسيسكو مقراً له تحظر صراحة استخدام تقنياته "لتسهيل العنف، أو تطوير الأسلحة، أو القيام بالمراقبة". ورغم أن العملية لم تسفر عن وفيات بين الأمريكيين، فقد قُتل العشرات من الجنود وأفراد الأمن الفنزويليين والكوبيين في الغارة التي وقعت في الثالث من يناير.
ورداً على الاستفسارات، صرح متحدث باسم أنثروبيك لـ"أكسيوس": "لا يمكننا التعليق على ما إذا كان "كلود" أو أي نموذج ذكاء اصطناعي آخر قد استُخدم في أي عملية محددة، سواء كانت سرية أم لا"، مؤكداً أن "أي استخدام لـ "كلود" – سواء في القطاع الخاص أو عبر الحكومة – يجب أن يمتثل لسياسات الاستخدام الخاصة بنا".
يأتي هذا الكشف في وقت حرج بالنسبة لشركة أنثروبيك، التي كرست الأسابيع الأخيرة للتأكيد علناً على التزامها بـ "إجراءات أمان الذكاء الاصطناعي" وتصوير نفسها كبديل حذر في الصناعة. ويأتي هذا بالتزامن مع استقالة مفاجئة لرئيس فريق أبحاث الأمان في أنثروبيك، ميرينك شارما، محذراً بعبارة غامضة من أن "العالم في خطر"، وذلك بعد أيام فقط من استثمار الشركة 20 مليون دولار في مجموعة مناصرة سياسية تدعم التنظيم الصارم للذكاء الاصطناعي.
وتُجرى مفاوضات حالياً بين أنثروبيك ووزارة الدفاع الأمريكية بشأن تخفيف القيود على نشر الذكاء الاصطناعي في استهداف الأسلحة المستقلة والمراقبة المحلية، مما أدى إلى تعليق عقد تصل قيمته إلى 200 مليون دولار، خاصة في ظل تعهد وزير الدفاع بيتر هيغسيث بعدم استخدام نماذج "لن تسمح لنا بخوض الحروب".