نشبت خلافات بين شركة Anthropic ووزارة الدفاع الأمريكية (البنتاغون) بشأن استخدام نموذج الذكاء الاصطناعي "Claude". تتمحور القضية حول إمكانية استخدام Claude في عمليات المراقبة الجماعية المحلية والأسلحة الذاتية التشغيل.

تسعى Anthropic، المتخصصة في تطوير أنظمة الذكاء الاصطناعي، إلى توضيح حدود استخدام تقنياتها. من جهة أخرى، يعبّر مسؤولو البنتاغون عن مخاوفهم من استخدام هذه التكنولوجيا في تطبيقات قد تهدد الخصوصية والأمان الوطني.

الجدل يأتي في وقت تتزايد فيه المخاوف حول تأثير الذكاء الاصطناعي على المجتمع، خاصة في مجالات مثل الأمن والدفاع. حيث تسعى الحكومات في جميع أنحاء العالم إلى وضع أطر تنظيمية للتعامل مع هذه التقنيات المتطورة.

تتضمن النقاشات أيضًا أسئلة حول القواعد الأخلاقية لاستخدام الذكاء الاصطناعي في الأعمال العسكرية. وتأتي هذه التطورات في وقت تتسارع فيه وتيرة الابتكار في قطاع التكنولوجيا، مما يثير قلق العديد من الخبراء حول العواقب المحتملة.

تعتبر هذه النقاشات جزءًا من حوار أكبر حول كيفية ضمان استخدام التكنولوجيا بشكل مسؤول وآمن في المستقبل.