top of page
Asset 240.png

آخرین خبرها

بیشتر بخوانید

قانونگذاران آمریکایی درباره خطاهای مرگبار هوش مصنوعی در عملیات نظامی ابراز نگرانی می کنند

  • 44 minutes ago
  • 3 min read


گسترش استفاده از سامانه‌های هوش مصنوعی در عملیات‌های نظامی، به‌ویژه در شناسایی اهداف و تصمیم‌گیری‌های سریع، بحث‌های جدی حقوقی و اخلاقی را برانگیخته است. حادثه مرگبار میناب، که در آن حمله به مدرسه ابتدایی طیبه به کشته شدن بیش از ۱۸۰ نفر، عمدتاً کودک، انجامید، بار دیگر توجه کارشناسان را به خطر خطا در سامانه‌های الگوریتمی جلب کرده است. این رویداد پرسش‌های اساسی درباره میزان اتکای ارتش‌ها به فناوری‌های خودکار در تصمیمات مرگ و زندگی مطرح می‌کند.


گزارشات اخیر نشان می‌دهند که ارتش ایالات متحده به طور گسترده از سیستم‌های هوش مصنوعی برای شناسایی اهداف خود در حملات هوایی به ایران استفاده می‌کند. این فناوری‌ها به ویژه سیستم‌های آنتروپیک و پالانتیر، به تسریع فرآیند تصمیم‌گیری و کاهش حجم کار انسانی کمک کرده‌اند.


با این حال، نگرانی‌هایی درباره دقت و نظارت بر این سیستم‌ها وجود دارد که می‌تواند به اشتباهات مرگبار منجر شود.

گزارشاتی مبنی بر استفاده از هوش مصنوعی در دستگیری رئیس‌جمهور ونزوئلا، نیکولاس مادورو، و همچنین حملات روز اول آمریکا و اسرائیل به تهران که منجر به کشته شدن علی خامنه‌ای، رهبر پیشین ایران، منتشر شده بود.

اکنون، اطلاعات بیشتری از استفاده گسترده ارتش ایالات متحده آمریکا از هوش مصنوعی در عملیات‌های نظامی به خارج درز کرده است.


ان‌بی‌سی نیوز در گزارشی تایید کرده است که ارتش ایالات متحده از سیستم‌های هوش مصنوعی برای شناسایی اهداف در حملات هوایی به ایران استفاده می‌کند.


این فناوری به ویژه سیستم‌های هوش مصنوعی از شرکت «آنتروپیک»، که پیش‌تر با وزارت دفاع ایالات متحده اختلافاتی داشته است، به ابزاری حیاتی برای ارتش تبدیل شده‌اند.

بر اساس اطلاعات دریافتی، ارتش ایالات متحده از نرم‌افزار پالانتیر، که تا حدودی به سیستم‌های کلود از آنتروپیک متکی است، برای شناسایی اهداف در عملیات‌های نظامی استفاده می‌کند.

در این راستا، سیستم‌های هوش مصنوعی به صورت مؤثر در پردازش سریع داده‌ها و کمک به تصمیم‌گیری‌های نظامی وارد عمل شده‌اند.


با این حال، نگرانی‌هایی از سوی قانونگذاران ایالات متحده در مورد نظارت و کنترل دقیق‌تر بر استفاده از این فناوری‌ها مطرح شده است. نمایندگان و کارشناسان نگرانند که استفاده از هوش مصنوعی در تصمیمات نظامی ممکن است به اشتباهات مرگبار منجر شود.


جیل توکودا، عضو کمیته خدمات نیروهای مسلح مجلس نمایندگان ایالات متحده، در گفت‌وگو با ان‌بی‌سی نیوز اظهار داشتە است کە

بررسی دقیق و بی‌طرفانه‌ای برای ارزیابی خطرات استفاده از هوش مصنوعی در جنگ با ایران ضروری است. وی تأکید کرد که باید مشخص شود آیا این فناوری‌ها تهدیدی برای جان انسان‌ها به همراه دارد یا خیر.

سخنگوی پنتاگون در این باره اعلام کرد که استفاده از هوش مصنوعی به طور عمده برای کاهش حجم کار انسانی و تسریع فرآیندها است، ولی در نهایت تصمیم‌گیری‌های نهایی باید توسط انسان‌ها صورت گیرد.

با این وجود، برخی دیگر از قانونگذاران، از جمله نماینده سارا جیکوبز، خواستار نظارت دقیق‌تر و بیشتر بر این فناوری‌ها هستند. وی همچنین تصریح کرد که سیستم‌های هوش مصنوعی ۱۰۰ درصد قابل اعتماد نیستند و می‌توانند در شرایط حساس دچار اشتباهات جدی شوند.

بسیاری از کارشناسان بر این باورند که به رغم مزایای سیستم‌های هوش مصنوعی در تسریع فرآیندها، این فناوری‌ها هنوز به بلوغ لازم برای استفاده در استقرار تسلیحات نظامی نرسیده‌اند.


مارک بیل، رئیس امور دولتی در شبکه سیاست هوش مصنوعی، در گفت‌وگو با ان‌بی‌سی نیوز اظهار داشت:

مراحل زیادی قبل از کشیدن ماشه وجود دارد. سیستم‌های هوش مصنوعی به طور مؤثری برای تسریع گردش‌های کاری موجود و بهبود فرآیند تصمیم‌گیری به فرماندهان و تحلیلگران کمک می‌کنند. اما وقتی صحبت از استقرار واقعی سیستم‌های تسلیحاتی می‌شود، این فناوری هنوز آماده نیست.

هیدی خلاف، دانشمند ارشد موسسه «ای‌آی ناو»، نیز نگرانی‌های خود را در خصوص اتکای بیش از حد به هوش مصنوعی برای پردازش سریع اطلاعات در تصمیمات مرتبط با مرگ و زندگی ابراز کرد.


او اعتقاد دارد که این رویکرد ممکن است به ارتش‌ها اجازه دهد از پاسخگویی در برابر اشتباهات خود فرار کنند.


با توجه به گستردگی استفاده از هوش مصنوعی در جستجو و تایید اهداف نظامی از سوی ارتش آمریکا در این جنگ، می‌توان این احتمال را داد که حمله به مدرسه ابتدایی طیبه در میناب، که منجر به کشته شدن بیش از ۱۸۰ نفر، عمدتاً کودک، شد، ممکن است نتیجه اشتباه سیستم‌های هوش مصنوعی در شناسایی هدف از سوی آمریکا بوده باشد.

 
 
bottom of page