top of page
Asset 240.png

آخرین خبرها

بیشتر بخوانید

آنتروپیک در برابر پنتاگون: ایستادگی برای حفظ آرمان‌های انسانی در توسعه هوش مصنوعی

  • Feb 27
  • 4 min read



اختلاف میان پنتاگون و شرکت آنتروپیک بر سر دسترسی نامحدود به مدل هوش مصنوعی کلود وارد مرحله‌ای حساس شده است. پیت هگست تهدید کرده است در صورت عدم همکاری کامل، قرارداد ۲۰۰ میلیون دلاری را لغو و این شرکت به‌عنوان ریسک زنجیره تأمین معرفی خواهد شد. آنتروپیک استفاده نظامی گسترده، به‌ویژه در سلاح‌های خودکار و نظارت داخلی را خط قرمز می‌داند. هم‌زمان رقبایی چون اوپن‌ای‌آی و ایکس‌ای‌آی همکاری کامل‌تری با وزارت دفاع آغاز کرده‌اند.



مدل هوش مصنوعی کلود، که تنها شرکتی است که به سامانه‌های طبقه‌بندی‌شده نظامی آمریکا دسترسی دارد، با تهدید پیت هگست، وزیر دفاع آمریکا، در صورت عدم همکاری نامحدود با پنتاگون مواجه شده است.


این تهدید می‌تواند به فلج شدن کسب‌وکار آنتروپیک، شرکت توسعه‌دهنده مدل زبانی کلود، منجر شود.

پیش‌تر، آمریکا در عملیات دستگیری نیکولاس مادورو، رئیس‌جمهور ونزوئلا، از این مدل هوش مصنوعی استفاده کرده بود.

پیت هگست، وزیر دفاع آمریکا، در دیدار خود با مسئولان شرکت آنتروپیک از آن‌ها خواسته است که دسترسی پنتاگون به مدل زبانی کلود را محدود نکنند. او تهدید کرده است که در صورت مخالفت این شرکت، با اقدامات تنبیهی جدی روبه‌رو خواهد شد.


در این رابطه، هگست هشدار داده است که علاوه بر لغو قرارداد ۲۰۰ میلیون دلاری، این شرکت به عنوان ریسک زنجیره تأمین معرفی خواهد شد.


زمانیکە یک شرکت به عنوان «ریسک زنجیره تأمین» شناخته می‌شود، به این معناست که این شرکت ممکن است تهدیدی برای ثبات و کارایی کل زنجیره تأمین باشد.


این اقدام به نوعی هشدار برای سایر شرکت‌ها و نهادها است که ممکن است از همکاری با این شرکت خودداری کنند، زیرا می‌تواند مشکلاتی مانند اختلال در تأمین منابع، تأخیر در تحویل یا حتی تهدیدات امنیتی به همراه داشته باشد.

اختلاف میان این شرکت و وزارت دفاع آمریکا چند ماهی است که ادامه دارد و تا کنون هیچ نشانه‌ای از عقب‌نشینی شرکت آنتروپیک در برابر خواسته‌های پنتاگون مشاهده نشده است.

این شرکت که خود را امن‌ترین هوش مصنوعی جهان می‌داند، استفاده گسترده از نظارت داخلی بر شهروندان آمریکایی و سلاح‌های کنترل‌شده با هوش مصنوعی را به عنوان دلیل رد درخواست پنتاگون اعلام کرده است.


آنتروپیک همچنین تأکید کرده است که استفاده از هوش مصنوعی برای کنترل سلاح‌هایی که بدون دخالت انسان اقدام به کشتن می‌کنند، از خط قرمزهای این شرکت است و آن‌ها نمی‌توانند از آن چشم‌پوشی کنند.

داریو آمودی، مدیرعامل آنتروپیک، در توضیح نگرانی‌های شرکت گفت که هوش مصنوعی هنوز به اندازه کافی قابل اعتماد نیست تا بتواند سلاح‌ها را مدیریت کند. همچنین اشاره کرد که هیچ قانون یا مقرراتی برای نحوه استفاده از هوش مصنوعی در نظارت گسترده بر شهروندان وجود ندارد.

این اختلافات یک ماه پس از آن شدت گرفت که پنتاگون از مدل هوش مصنوعی کلود در عملیات دستگیری مادورو استفاده کرد.


ایالات متحده آمریکا همچنین در پروژه مَیوِن (Project Maven) از خدمات شرکت گوگل در بخش نظامی بهره بردە است که این موضوع باعث ایجاد اختلافات داخلی در خود شرکت گوگل شد.

پروژه مَیوِن برای تحلیل سریع تصاویر و ویدئوهای گرفته‌شده توسط پهپادهای نظامی طراحی شده بود. کارشناسان معتقدند این پروژه توانایی تحلیل و ترسیم شبکه‌های پیچیدهٔ تونل‌های زیرزمینی را دارد و حتی می‌تواند در شناسایی مخفیگاه‌های علی خامنه‌ای، رهبر ایران، مفید واقع شود.

با این حال، در صورتی که آنتروپیک از خواسته‌های پنتاگون عقب‌نشینی نکند، هگست تصمیم گرفته است که قانون تولید دفاعی را علیه این شرکت اعمال کند؛ به این معنی که این شرکت مجبور خواهد شد برخلاف میل خود با پنتاگون همکاری کند.

بر اساس این قانون، دولت می‌تواند صنایع خصوصی را در راستای تأمین منافع دفاع ملی هدایت کند. این قانون در دوران بحران کرونا برای تولید ماسک و سایر تجهیزات حفاظتی به کار گرفته شد.

در این بارە، روزنشتاین، استاد حقوق دانشگاه مینه‌سوتا و پژوهشگر مؤسسه بروکینگز، مذاکرات جاری را نادرست دانسته و تأکید کرد که کنگره باید قواعد مربوط به نحوه استفاده از هوش مصنوعی توسط ارتش آمریکا را تعیین کند.


از سوی دیگر، اختلافات شرکت آنتروپیک با پنتاگون فرصتی برای رقبای این شرکت فراهم کرده است.


به گزارش واشنگتن پست، همزمان با این اختلافات، شرکت اوپن‌ای‌آی (OpenAI) اجازه داده است که پنتاگون از مدل زبانی‌اش برای تمام اهداف قانونی استفاده کند.

در همین حال، وزارت دفاع روز دوشنبه قراردادی را با چت‌بات X AI متعلق به ایلان ماسک امضا کرد. این قرارداد به نیروهای نظامی اجازه می‌دهد که از این چت‌بات در سیستم‌های طبقه‌بندی‌شده استفاده کنند.

جرد کاپلان، رئیس بخش پژوهش آنتروپیک، در مصاحبه‌ای با مجله تایم اعلام نمودە است که زمانی که رقبا با سرعت پیش می‌روند، تعهدات یک‌جانبه دیگر منطقی نیستند.


بر این اساس، ناظران معتقدند که آنتروپیک ممکن است در نهایت برای بقای خود، مجبور به دادن امتیازاتی به پنتاگون شود.


این تهدید برای آنتروپیک، که ارزش فعلی آن معادل ۳۸۰ میلیارد دلار است، آن را در معرض نابودی قرار داده است. شرکت، اکنون با استقبال تجاری قابل‌توجهی روبه‌رو گشتە و حتی در حال بررسی امکان عرضه اولیه سهام (IPO) در سال آینده است.

خالقان مدل زبانی کلود از کارکنان پیشین اوپن‌ای‌آی هستند که به دلیل نگرانی از انحراف مأموریت اولیه آن آزمایشگاه، که تضمین توسعه هوش مصنوعی قدرتمند در جهت منافع بشریت بود، از آن جدا شدند. آن‌ها سپس شرکت آنتروپیک را تأسیس کردند.



 
 
bottom of page