به گزارش مشرق، براندون تسنگ، از اعضای پیشین یگان ویژه نیروی دریایی آمریکا و یکی از بنیانگذاران هوش مصنوعی شیلد میگوید: «این یک سخن کلیشهای است اما من صد درصد معتقدم که آزادی رایگان نیست.» شرکت او اکنون از طریق هوش مصنوعی به رقابت برای برتری نظامی پیوسته است. این رقابت در سراسر جهان برای توسعه پهپادهای خودران و سایر فناوریهایی که میتوانند به سربازان اجازه دهند از کارهای خطرناک اجتناب کنند، در جریان است.
در مقابل اما پل شار، تکاور پیشین ارتش آمریکا و نویسنده کتاب «ارتش هیچ»، توافق ناگفتهای را که میان مردانش برای شلیک نکردن وجود داشت، بهخاطر میآورد؛ درحالیکه شورشیان یک دختر ۸ ساله را مقابل آنها فرستاده بودند تا اطلاعاتی را بهدست آورد.
در این شرایط، یک روبات او را بهعنوان هدفی قانونی و مشروع شناسایی کرد و به سمتش آتش گشود.
شلیک کن؛ دستوری در راه نیست
بشریت اکنون در آستانه عصر جدیدی از جنگها ایستاده است. بهدلیل پیشرفتهای سریع در هوش مصنوعی، پلتفرمهای تسلیحاتی که میتوانند به تنهایی انسانها را شناسایی کرده، هدف قرار داده و تصمیم به کشتن بگیرند، بهسرعت آینده درگیریها را متحول میکنند؛ بدون اینکه دستوری از مافوق خود بگیرد یا سربازی ماشه آن را بکشد.
بهطور رسمی، آنها را سیستمهای تسلیحات خودکار کشنده (LAWS) مینامند، اما منتقدان آنها را «روباتهای قاتل» نام نهادهاند. در بسیاری از کشورها در سالهای اخیر، سرمایهگذاری زیادی برای توسعه چنین تسلیحاتی شکل گرفته است.
ترکیه آغازگر عصر جدید
گزارش سازمان ملل متحد حاکی از آن است که پهپادهای Kargu-۲ ساخت ترکیه در حالت تمام خودکار، آغازگر این عصر جدید بودند که در سال ۲۰۲۰ در بحبوحه درگیریهای جاری این کشور به جنگجویان در لیبی حمله کردند. ظهور و استقرار چنین ماشینهایی، بحثهای شدیدی را در میان کارشناسان، فعالان و دیپلماتها در سراسر جهان به راه انداخته است، زیرا آنها با مزایا و خطرات احتمالی استفاده از روباتها دست و پنجه نرم کرده و بررسی میکنند که چگونه میشود، آنها را متوقف کرد.
با این حال، در یک چشمانداز پرسش این است که آیا جامعه بینالمللی میتواند در مورد این ماشینها به اجماع برسد؟ آیا تهدیدهای اخلاقی، قانونی و فناورانه ناشی از چنین سلاحهایی، توقف آنها را قبل از تسلط بر میدان جنگ ضروری میسازد؟ آیا ممنوعیت عمومی امکانپذیر است یا مجموعهای از مقررات، گزینه واقعیتر بهنظر میرسد؟
پاسخ کوتاه
ممنوعیت کامل سیستمهای تسلیحاتی خودمختار به این زودی محتمل بهنظر نمیرسد.
با این حال، تعداد فزایندهای از صداها خواستار تنظیم آنها هستند و کارشناسان بر این باورند که یک تابوی جهانی از نوعی که علیه استفاده از سلاحهای شیمیایی وجود دارد، امکانپذیر است.
قدرتهای نظامی بزرگ ممکن است مجذوب مزایای بالقوه میدان نبردی باشند که چنین سیستمهایی میتوانند به آنها بدهند، اما بهنظر میرسد که خارج از دولتها و ژنرالها، کمتر کسی به تشویق چنین چیزی رو آورده است.
نمیتوان از جنگ جهانی سوم اجتناب کرد
در اواخرماه مارس، یاسمین افینا، یک پژوهشگر در چتمهاوس مستقر در لندن، به مجلس اعیان بریتانیا توضیح داد که چگونه آژانس امنیت ملی ایالات متحده (NSA) یکبار به اشتباه یک خبرنگار الجزیره را بهعنوان یکی از اعضای القاعده شناسایی کرده است. این شناسایی تنها از طریق اسنادی که در سال ۲۰۱۳ توسط ادوارد اسنودن، پیمانکار سابق آژانس امنیت ملی آمریکا فاش شده بود، شکل گرفت.
توبی والش، کارشناس هوش مصنوعی در دانشگاه نیوساوت ولز در سیدنی در اینباره میگوید: «ما میدانیم وقتی سیستمهای کامپیوتری پیچیده را در یک محیط نامشخص و رقابتی در برابر یکدیگر قرار دهیم، چه اتفاقی میافتد. تنها راه برای متوقف کردن حلقههای بازخورد خطرناک و پیامدهای نامطلوب، استفاده از «مدارشکن» است.
در بازار سهام، زمانی که چنین شرایطی رخ میدهد، میتوانیم به سادگی معاملات را از بین ببریم. اما ما نمیتوانیم جلوی شروع جنگ جهانی سوم را بگیریم.» از سویی مطمئناً سیستمهای تسلیحاتی خودمختار مبتنی بر هوش مصنوعی، مزایای خود را از منظر نظامی دارند. آنها میتوانند برخی از وظایف میدان جنگ را بدون استفاده از سربازان انجام دهند و در نتیجه خطر تلفات را کاهش دهند.
حامیان، استدلال میکنند که فناوری پیچیده تعبیهشده در این سیستمها میتواند خطای انسانی در تصمیمگیری را حذف کرده یا کاهش دهد.
دقت بیشتر در هدفگیری، حداقل در تئوری، میتواند تلفات انسانی تصادفی را کاهش دهد. همچنین سیستمهای تسلیحاتی خودمختارکه میتوانند برای قابلیتهای دفاعی مستقر شوند، با الگوریتمهای تشخیص سریع قادر به شناسایی و حذف یک تهدید بالقوه با کارایی و دقت بیشتر نسبت به انسانها هستند.
قانونی بدون ضمانت اجرایی
در سال ۲۰۱۹ میلادی، ۱۲۶ کشور عضو کنوانسیون سلاحهای متعارف سازمان ملل متحد (CCW) با ۱۱ اصل راهنمایی که توسط گروهی از کارشناسان منصوب شده توسط سازمان ملل برای رسیدگی به نگرانیها در مورد سلاحهای خودمختار توصیه شده بود، موافقت کردند. اما کارشناسان میگویند که مشخص نیست چگونه این اصل در جنگ اعمال خواهد شد.
بهعنوان مثال، اگر یک روبات مرتکب جنایت جنگی شود، آیا افسر فرمانده، مسئول آن درنظر گرفته میشود؟ یا مدیران بالاتری که تصمیم به استقرار دستگاه را گرفتهاند و یا شاید هم سازندگان؟