آنتروپیک در برابر پنتاگون: ایستادگی برای حفظ آرمانهای انسانی در توسعه هوش مصنوعی
- Feb 27
- 4 min read

اختلاف میان پنتاگون و شرکت آنتروپیک بر سر دسترسی نامحدود به مدل هوش مصنوعی کلود وارد مرحلهای حساس شده است. پیت هگست تهدید کرده است در صورت عدم همکاری کامل، قرارداد ۲۰۰ میلیون دلاری را لغو و این شرکت بهعنوان ریسک زنجیره تأمین معرفی خواهد شد. آنتروپیک استفاده نظامی گسترده، بهویژه در سلاحهای خودکار و نظارت داخلی را خط قرمز میداند. همزمان رقبایی چون اوپنایآی و ایکسایآی همکاری کاملتری با وزارت دفاع آغاز کردهاند.
مدل هوش مصنوعی کلود، که تنها شرکتی است که به سامانههای طبقهبندیشده نظامی آمریکا دسترسی دارد، با تهدید پیت هگست، وزیر دفاع آمریکا، در صورت عدم همکاری نامحدود با پنتاگون مواجه شده است.
این تهدید میتواند به فلج شدن کسبوکار آنتروپیک، شرکت توسعهدهنده مدل زبانی کلود، منجر شود.
پیشتر، آمریکا در عملیات دستگیری نیکولاس مادورو، رئیسجمهور ونزوئلا، از این مدل هوش مصنوعی استفاده کرده بود.
پیت هگست، وزیر دفاع آمریکا، در دیدار خود با مسئولان شرکت آنتروپیک از آنها خواسته است که دسترسی پنتاگون به مدل زبانی کلود را محدود نکنند. او تهدید کرده است که در صورت مخالفت این شرکت، با اقدامات تنبیهی جدی روبهرو خواهد شد.
در این رابطه، هگست هشدار داده است که علاوه بر لغو قرارداد ۲۰۰ میلیون دلاری، این شرکت به عنوان ریسک زنجیره تأمین معرفی خواهد شد.
زمانیکە یک شرکت به عنوان «ریسک زنجیره تأمین» شناخته میشود، به این معناست که این شرکت ممکن است تهدیدی برای ثبات و کارایی کل زنجیره تأمین باشد.
این اقدام به نوعی هشدار برای سایر شرکتها و نهادها است که ممکن است از همکاری با این شرکت خودداری کنند، زیرا میتواند مشکلاتی مانند اختلال در تأمین منابع، تأخیر در تحویل یا حتی تهدیدات امنیتی به همراه داشته باشد.
اختلاف میان این شرکت و وزارت دفاع آمریکا چند ماهی است که ادامه دارد و تا کنون هیچ نشانهای از عقبنشینی شرکت آنتروپیک در برابر خواستههای پنتاگون مشاهده نشده است.
این شرکت که خود را امنترین هوش مصنوعی جهان میداند، استفاده گسترده از نظارت داخلی بر شهروندان آمریکایی و سلاحهای کنترلشده با هوش مصنوعی را به عنوان دلیل رد درخواست پنتاگون اعلام کرده است.
آنتروپیک همچنین تأکید کرده است که استفاده از هوش مصنوعی برای کنترل سلاحهایی که بدون دخالت انسان اقدام به کشتن میکنند، از خط قرمزهای این شرکت است و آنها نمیتوانند از آن چشمپوشی کنند.
داریو آمودی، مدیرعامل آنتروپیک، در توضیح نگرانیهای شرکت گفت که هوش مصنوعی هنوز به اندازه کافی قابل اعتماد نیست تا بتواند سلاحها را مدیریت کند. همچنین اشاره کرد که هیچ قانون یا مقرراتی برای نحوه استفاده از هوش مصنوعی در نظارت گسترده بر شهروندان وجود ندارد.
این اختلافات یک ماه پس از آن شدت گرفت که پنتاگون از مدل هوش مصنوعی کلود در عملیات دستگیری مادورو استفاده کرد.
ایالات متحده آمریکا همچنین در پروژه مَیوِن (Project Maven) از خدمات شرکت گوگل در بخش نظامی بهره بردە است که این موضوع باعث ایجاد اختلافات داخلی در خود شرکت گوگل شد.
پروژه مَیوِن برای تحلیل سریع تصاویر و ویدئوهای گرفتهشده توسط پهپادهای نظامی طراحی شده بود. کارشناسان معتقدند این پروژه توانایی تحلیل و ترسیم شبکههای پیچیدهٔ تونلهای زیرزمینی را دارد و حتی میتواند در شناسایی مخفیگاههای علی خامنهای، رهبر ایران، مفید واقع شود.
با این حال، در صورتی که آنتروپیک از خواستههای پنتاگون عقبنشینی نکند، هگست تصمیم گرفته است که قانون تولید دفاعی را علیه این شرکت اعمال کند؛ به این معنی که این شرکت مجبور خواهد شد برخلاف میل خود با پنتاگون همکاری کند.
بر اساس این قانون، دولت میتواند صنایع خصوصی را در راستای تأمین منافع دفاع ملی هدایت کند. این قانون در دوران بحران کرونا برای تولید ماسک و سایر تجهیزات حفاظتی به کار گرفته شد.
در این بارە، روزنشتاین، استاد حقوق دانشگاه مینهسوتا و پژوهشگر مؤسسه بروکینگز، مذاکرات جاری را نادرست دانسته و تأکید کرد که کنگره باید قواعد مربوط به نحوه استفاده از هوش مصنوعی توسط ارتش آمریکا را تعیین کند.
از سوی دیگر، اختلافات شرکت آنتروپیک با پنتاگون فرصتی برای رقبای این شرکت فراهم کرده است.
به گزارش واشنگتن پست، همزمان با این اختلافات، شرکت اوپنایآی (OpenAI) اجازه داده است که پنتاگون از مدل زبانیاش برای تمام اهداف قانونی استفاده کند.
در همین حال، وزارت دفاع روز دوشنبه قراردادی را با چتبات X AI متعلق به ایلان ماسک امضا کرد. این قرارداد به نیروهای نظامی اجازه میدهد که از این چتبات در سیستمهای طبقهبندیشده استفاده کنند.
جرد کاپلان، رئیس بخش پژوهش آنتروپیک، در مصاحبهای با مجله تایم اعلام نمودە است که زمانی که رقبا با سرعت پیش میروند، تعهدات یکجانبه دیگر منطقی نیستند.
بر این اساس، ناظران معتقدند که آنتروپیک ممکن است در نهایت برای بقای خود، مجبور به دادن امتیازاتی به پنتاگون شود.
این تهدید برای آنتروپیک، که ارزش فعلی آن معادل ۳۸۰ میلیارد دلار است، آن را در معرض نابودی قرار داده است. شرکت، اکنون با استقبال تجاری قابلتوجهی روبهرو گشتە و حتی در حال بررسی امکان عرضه اولیه سهام (IPO) در سال آینده است.
خالقان مدل زبانی کلود از کارکنان پیشین اوپنایآی هستند که به دلیل نگرانی از انحراف مأموریت اولیه آن آزمایشگاه، که تضمین توسعه هوش مصنوعی قدرتمند در جهت منافع بشریت بود، از آن جدا شدند. آنها سپس شرکت آنتروپیک را تأسیس کردند.











