قانونگذاران آمریکایی درباره خطاهای مرگبار هوش مصنوعی در عملیات نظامی ابراز نگرانی می کنند
- 44 minutes ago
- 3 min read

گسترش استفاده از سامانههای هوش مصنوعی در عملیاتهای نظامی، بهویژه در شناسایی اهداف و تصمیمگیریهای سریع، بحثهای جدی حقوقی و اخلاقی را برانگیخته است. حادثه مرگبار میناب، که در آن حمله به مدرسه ابتدایی طیبه به کشته شدن بیش از ۱۸۰ نفر، عمدتاً کودک، انجامید، بار دیگر توجه کارشناسان را به خطر خطا در سامانههای الگوریتمی جلب کرده است. این رویداد پرسشهای اساسی درباره میزان اتکای ارتشها به فناوریهای خودکار در تصمیمات مرگ و زندگی مطرح میکند.
گزارشات اخیر نشان میدهند که ارتش ایالات متحده به طور گسترده از سیستمهای هوش مصنوعی برای شناسایی اهداف خود در حملات هوایی به ایران استفاده میکند. این فناوریها به ویژه سیستمهای آنتروپیک و پالانتیر، به تسریع فرآیند تصمیمگیری و کاهش حجم کار انسانی کمک کردهاند.
با این حال، نگرانیهایی درباره دقت و نظارت بر این سیستمها وجود دارد که میتواند به اشتباهات مرگبار منجر شود.
گزارشاتی مبنی بر استفاده از هوش مصنوعی در دستگیری رئیسجمهور ونزوئلا، نیکولاس مادورو، و همچنین حملات روز اول آمریکا و اسرائیل به تهران که منجر به کشته شدن علی خامنهای، رهبر پیشین ایران، منتشر شده بود.
اکنون، اطلاعات بیشتری از استفاده گسترده ارتش ایالات متحده آمریکا از هوش مصنوعی در عملیاتهای نظامی به خارج درز کرده است.
انبیسی نیوز در گزارشی تایید کرده است که ارتش ایالات متحده از سیستمهای هوش مصنوعی برای شناسایی اهداف در حملات هوایی به ایران استفاده میکند.
این فناوری به ویژه سیستمهای هوش مصنوعی از شرکت «آنتروپیک»، که پیشتر با وزارت دفاع ایالات متحده اختلافاتی داشته است، به ابزاری حیاتی برای ارتش تبدیل شدهاند.
بر اساس اطلاعات دریافتی، ارتش ایالات متحده از نرمافزار پالانتیر، که تا حدودی به سیستمهای کلود از آنتروپیک متکی است، برای شناسایی اهداف در عملیاتهای نظامی استفاده میکند.
در این راستا، سیستمهای هوش مصنوعی به صورت مؤثر در پردازش سریع دادهها و کمک به تصمیمگیریهای نظامی وارد عمل شدهاند.
با این حال، نگرانیهایی از سوی قانونگذاران ایالات متحده در مورد نظارت و کنترل دقیقتر بر استفاده از این فناوریها مطرح شده است. نمایندگان و کارشناسان نگرانند که استفاده از هوش مصنوعی در تصمیمات نظامی ممکن است به اشتباهات مرگبار منجر شود.
جیل توکودا، عضو کمیته خدمات نیروهای مسلح مجلس نمایندگان ایالات متحده، در گفتوگو با انبیسی نیوز اظهار داشتە است کە
بررسی دقیق و بیطرفانهای برای ارزیابی خطرات استفاده از هوش مصنوعی در جنگ با ایران ضروری است. وی تأکید کرد که باید مشخص شود آیا این فناوریها تهدیدی برای جان انسانها به همراه دارد یا خیر.
سخنگوی پنتاگون در این باره اعلام کرد که استفاده از هوش مصنوعی به طور عمده برای کاهش حجم کار انسانی و تسریع فرآیندها است، ولی در نهایت تصمیمگیریهای نهایی باید توسط انسانها صورت گیرد.
با این وجود، برخی دیگر از قانونگذاران، از جمله نماینده سارا جیکوبز، خواستار نظارت دقیقتر و بیشتر بر این فناوریها هستند. وی همچنین تصریح کرد که سیستمهای هوش مصنوعی ۱۰۰ درصد قابل اعتماد نیستند و میتوانند در شرایط حساس دچار اشتباهات جدی شوند.
بسیاری از کارشناسان بر این باورند که به رغم مزایای سیستمهای هوش مصنوعی در تسریع فرآیندها، این فناوریها هنوز به بلوغ لازم برای استفاده در استقرار تسلیحات نظامی نرسیدهاند.
مارک بیل، رئیس امور دولتی در شبکه سیاست هوش مصنوعی، در گفتوگو با انبیسی نیوز اظهار داشت:
مراحل زیادی قبل از کشیدن ماشه وجود دارد. سیستمهای هوش مصنوعی به طور مؤثری برای تسریع گردشهای کاری موجود و بهبود فرآیند تصمیمگیری به فرماندهان و تحلیلگران کمک میکنند. اما وقتی صحبت از استقرار واقعی سیستمهای تسلیحاتی میشود، این فناوری هنوز آماده نیست.
هیدی خلاف، دانشمند ارشد موسسه «ایآی ناو»، نیز نگرانیهای خود را در خصوص اتکای بیش از حد به هوش مصنوعی برای پردازش سریع اطلاعات در تصمیمات مرتبط با مرگ و زندگی ابراز کرد.
او اعتقاد دارد که این رویکرد ممکن است به ارتشها اجازه دهد از پاسخگویی در برابر اشتباهات خود فرار کنند.
با توجه به گستردگی استفاده از هوش مصنوعی در جستجو و تایید اهداف نظامی از سوی ارتش آمریکا در این جنگ، میتوان این احتمال را داد که حمله به مدرسه ابتدایی طیبه در میناب، که منجر به کشته شدن بیش از ۱۸۰ نفر، عمدتاً کودک، شد، ممکن است نتیجه اشتباه سیستمهای هوش مصنوعی در شناسایی هدف از سوی آمریکا بوده باشد.











