به گزارش سرویس جهان مشرق، نشریهی آمریکایی «THE NATION»، در مقالهای به تاریخ 6 دسامبر، نسبت به ذهنیت و روند موجود در دولت آمریکا، به ویژه در پنتاگون، برای توسعهی شتابناک تسلیحات خودگردان مبتنی بر هوش مصنوعی، هشدار داد. به نوشتهی این مقاله، مقامات وزارت دفاع به جد معتقدند تنها چیزی که کمبود و ضعف ارتش آمریکا را در برابر قدرت نظامی متعارف و حجم و بزرگی ارتش خلق چین، در درگیری نظامی بسیار محتمل آینده، جبران خواهد کرد، توسعهی بیوقفهی تسلیحات خودگردان هوشمصنوعی است، از این رو، پنتاگون عملا بدون توجه به دغدغههای جدی متخصصان امر درباره خطرات عمیق و پردامنهی این حوزه، در حال توسعهی این نوع تسلیحات است، روندی که به عقیدهی نویسندگان، می تواند فاجعهای به بزرگی انقراض تمدن بشری را رقم بزند.
نمایش اخیر اتاق هیئت مدیره بر سر رهبری OpenAI - استارتآپ فناوری مستقر در سانفرانسیسکو که پشت برنامه کامپیوتری بسیار محبوب ChatGPT قرار دارد - به عنوان یک جنگ قدرت شرکتی، یک درگیری شخصیتی مبتنی بر جاهطلبی و یک مناقشه استراتژیک بر سر انتشار نسخههای دیگری از ChatGPT و...توصیف شد. همه اینها، و بیشتر از اینها، بود، اما در بطن خود، نشاندهنده یک جدال تلخِ غیرمعمول بین آن دسته از مقامات شرکتی بود که طرفدار تحقیقات نامحدود در مورد اشکال پیشرفته هوش مصنوعی (AI) هستند و کسانی که از ترس نتایج بالقوه فاجعه بار چنین تلاش هایی، به دنبال راهی برای کاهش سرعت توسعه هوش مصنوعی می گردند.
تقریباً همزمان با شروع این جدال نمادین و تاریخی در هیات مدیرهی OpenAI، جدال مشابهی در سازمان ملل متحد در نیویورک و دفاتر دولتی در واشنگتن دی سی بر سر توسعه سیستمهای تسلیحاتی خودگردان– یعنی کشتیهای بدون سرنشین، هواپیماها و تانکهای هدایتشونده با هوشمصنوعی- در جریان بود. در این رقابت، ائتلاف گستردهای از دیپلمات ها و فعالان حقوق بشر به دنبال اِعمال ممنوعیتهای الزامآور قانونی برای چنین وسایلی - که توسط مخالفان "روبات های قاتل" نامیده می شوند- هستند. این در حالی است که مقامات وزارت خارجه و دفاع ایالات متحده برای توسعه سریع آنها استدلال می کنند.
در هر دو دسته از اختلافات، دیدگاههای رقیب بر سر قابلاعتمادبودن اشکال پیشرفتهی هوش مصنوعی، به ویژه "مدلهای زبان بزرگ" مورد استفاده در سیستمهای "هوش مصنوعی مولد" مانند ChatGPT مطرح است. (برنامه هایی از این دست «تولید کننده» نامیده می شوند زیرا می توانند متن یا تصاویر با کیفیت انسانی را بر اساس تجزیه و تحلیل آماری دادههای جمع آوری شده از اینترنت ایجاد کنند). کسانی که طرفدار توسعه و کاربرد هوش مصنوعی پیشرفته - چه در بخش خصوصی و چه در ارتش - هستند، ادعا میکنند که چنین سیستمهایی را میتوان با خیال راحت توسعه داد. کسانی که در برابر چنین اقدامی هشدار می دهند، می گویند که حداقل بدون تدابیر اساسی نمی توان چنین توسعهای را صورت داد.
بدون پرداختن به جزئیات درام هیاتمدیرهی OpenAI - که فعلاً در 21 نوامبر با انتصاب اعضای جدید هیئت مدیره و بازگشت سام آلتمن، مشهور به جادوگر هوش مصنوعی به عنوان مدیر اجرایی پس از برکناری پنج روز پیشتر او به پایان رسید - بدیهی است که این بحران به دلیل نگرانی اعضای هیئت مدیره اولیه ایجاد شد، یعنی این نگرانی که آلتمن و کارکنانش، علیرغم تعهدات قبلی خود مبنی بر احتیاط بیشتر، برعکس با شیب تند و سرعت بالا در جهت توسعه شتابناک هوش مصنوعی حرکت کردند.
از منظر آلتمن و بسیاری از همکارانش، تکنسینهای انسانی در آستانه ایجاد «هوش مصنوعی عام» یا «اَبَر-هوش» هستند – برنامههای هوش مصنوعیِ به قدری قدرتمند که می توانند تمام جنبههای شناخت انسان را تقلید نمایند، خودشان برنامه ریزی کنند و برنامه نویسی انسان را غیرضروری بسازند. ادعا میشود که چنین سیستمهایی میتوانند اکثر بیماریهای انسانی را درمان کنند و معجزات مفید دیگری را انجام دهند – اما ناظرانی که این اندازه خوشبین نیستند، هشدار میدهند که با این روند توسعهی عجولانهی هوش مصنوعی، اکثر مشاغل انسانی حذف خواهند شد و در نهایت ممکن است خود انسانها نیز از صحنه خارج شوند.
آلتمن و معاونان ارشدش در ماه مه نوشتند:
«از نظر جنبههای مثبت و منفی بالقوه، ابر-هوش قویتر از سایر فناوریهایی است که بشر در گذشته مجبور به مبارزه با آنها بوده است». ما میتوانیم آیندهای، به نحوی چشمگیر، مرفهتر داشته باشیم. اما برای رسیدن به آن باید ریسک را مدیریت کنیم.»
از نظر آلتمن، مانند بسیاری دیگر از فعالان در زمینهی هوش مصنوعی، این خطر یک بعد «وجودی» دارد که دربردارندهی تهدید فروپاشی احتمالی تمدن بشری و در نهایت، انقراض انسانی است. او در جلسه استماع سنا در 16 مِی گفت: «من فکر میکنم اگر این فناوری اشتباه پیش برود، میتواند اشتباه از نوع محض و کامل باشد." او همچنین نامهای سرگشاده از سوی «مرکز ایمنی هوش مصنوعی» را امضا کرد که در آن به خطر بالقوهی انقراض نوع بشر اذعان شده بود و تاکید شد که که کاهش این خطر "باید یک اولویت جهانی در کنار سایر خطرات در مقیاس اجتماعی مانند بیماری های همه گیر و جنگ هستهای باشد."
با این وجود، آلتمن و دیگر مقامات ارشد هوش مصنوعی بر این باورند که تا زمانی که حفاظتهای کافی در این راه پیشبینی و تعبیه شده باشد، میتوان و باید به دنبال آن بود. او به کمیته فرعی سنا برای حریم خصوصی، فناوری و قانون گفت: "ما معتقدیم که مزایای ابزارهایی که تاکنون به کار گرفتهایم، بسیار بیشتر از خطرات است، اما اطمینان از ایمنی آنها برای کار ما حیاتی است."
محاسبات مشابهی در مورد بهره برداری از هوش مصنوعی پیشرفته بر دیدگاه مقامات ارشد وزارت خارجه و دفاع حاکم است، آنها استدلال می کنند که هوش مصنوعی می تواند و باید برای به کارگیری سیستم های تسلیحاتی آینده مورد استفاده قرار گیرد - تا زمانی که این کار به شیوهای"مسئولانه" انجام شود.
بانی جنکینز، معاون وزیر امور خارجه در امور کنترل تسلیحات و عدم اشاعه، در یک سخنرانی در سازمان ملل در 13 نوامبر اعلام کرد:
«ما نمیتوانیم پیشبینی کنیم که فناوریهای هوش مصنوعی چگونه تکامل مییابند یا در یک یا پنج سال آینده چه تواناییهایی دارند.» با این وجود، او خاطرنشان کرد، ایالات متحده مصمم است «سیاستهای لازم را اعمال و ظرفیتهای فنی را ایجاد کند تا توسعه و استفاده مسئولانه [از هوش مصنوعی توسط ارتش] صرفنظر از پیشرفتهای فناوری امکانپذیر باشد».
جنکینز در آن روز در سازمان ملل بود تا از «اعلامیه سیاسی استفاده نظامی مسئولانه از هوش مصنوعی و خودمختاری» رونمایی کند، یک فراخوان الهامگرفته از ایالات متحده برای محدودیت داوطلبانه در توسعه و استقرار تسلیحات خودگردان مجهز به هوش مصنوعی. این بیانیه، از جمله، متذکر میشود که «دولتها باید اطمینان حاصل کنند که ایمنی، امنیت و اثربخشی قابلیتهای هوش مصنوعی نظامی تحت آزمایشهای مناسب و دقیق قرار میگیرد» و «دولتها باید پادمانهای مناسب را برای کاهش خطرات ناشی از شکست در هوش مصنوعی نظامی اعمال کنند. قابلیتهایی مانند توانایی غیرفعال کردن سیستمهای مستقر شده، زمانی که چنین سیستمهایی رفتار ناخواسته نشان میدهند.»
با این حال، هیچ یک از اینها، الزام قانونی برای کشورهای امضاکننده اعلامیه نیست. بلکه صرفاً دربرگیرندهی تعهد به مجموعهای از بهترین شیوهها است، بدون نیاز به نشان دادن انطباق با آن اقدامات یا خطر مجازات در صورت عدم رعایت آن.
اگرچه چندین ده کشور - عمدتاً متحدان نزدیک ایالات متحده - این بیانیه را امضا کرده اند، بسیاری از کشورها از جمله اتریش، برزیل، شیلی، مکزیک، نیوزیلند و اسپانیا اصرار دارند که مطابقت داوطلبانه با مجموعهای از استانداردهای طراحی شده توسط ایالات متحده برای محافظت در برابر خطرات ناشی از استقرار سلاحهای مجهز به هوش مصنوعی کافی نیست. در عوض، آنها به دنبال یک ابزار الزامآور قانونی هستند که محدودیتهای سختی را برای استفاده از چنین سیستمهایی تعیین کند یا آنها را به طور کلی ممنوع کند. برای این بازیگران، خطر "سرکش شدن" این گونه سلاح ها، و انجام حملات غیرمجاز علیه غیرنظامیان، آشکارا بیش از آن بزرگ است که اجازه استفاده از آنها در نبرد را بدهد.
الکساندر کمنت، مذاکره کننده ارشد اتریش در زمینه خلع سلاح، کنترل تسلیحات و عدم اشاعه، به The Nation گفت:
«زمانی که تصمیم گیری در مورد زندگی و مرگ انسانها، دیگر توسط خود انسانها گرفته نمی شود، بلکه بر اساس الگوریتمهای از پیش برنامهریزی شده اتخاذ می شود، به این معنی است که بشریت در شُرُف عبور از آستانهی مهمی است. این موضوع، مسائل اخلاقی بنیادین را مطرح می کند.»
برای سالها، اتریش و تعدادی از کشورهای آمریکای لاتین در پی اعمال ممنوعیت این گونه سلاحها تحت حمایت کنوانسیون سلاحهای متعارف معیّن (CCW) و معاهده 1980 سازمان ملل متحد هستند که هدف آن محدود کردن یا ممنوع کردن سلاحهایی است که به نظر میرسد باعث وارد آمدن رنج غیرضروری به جنگجویان یا تحت تأثیر قرارگرفتن غیرنظامیان به طور بی رویه میشوند. این کشورها به همراه کمیته بینالمللی صلیب سرخ و سایر سازمانهای غیردولتی ادعا میکنند که سلاحهای کاملاً خودمختار در این دسته قرار میگیرند، زیرا ثابت میکنند که قادر به تمایز بین جنگجویان و غیرنظامیان در گرماگرم نبرد، آنطور که در قوانین بینالملل الزامی است، نیستند. اگرچه به نظر میرسد اکثر طرفهای عضو CCW با این دیدگاه موافق هستند و از کنترلهای شدید بر سلاحهای خودمختار حمایت میکنند، تصمیمات کشورهای امضاکننده با اجماع اتخاذ میشود و تعداد معدودی از کشورها از جمله اسرائیل، روسیه و ایالات متحده از حق وتوی خود استفاده کردهاند. برای جلوگیری از اتخاذ چنین اقدامی. این به نوبه خود، طرفداران مقررات محدودکننده را به سمت استفاده از ظرفیت مجمع عمومی سازمان ملل متحد سوق داده است - جایی که تصمیمات با اکثریت آرا به جای اجماع اتخاذ می شود.
در 12 اکتبر سال جاری، برای اولین بار، اولین کمیته مجمع عمومی - مسئول صلح، امنیت بینالمللی و خلع سلاح - به خطرات ناشی از تسلیحات خودمختار، با اکثریت گسترده - 164 رای موافق در برابر 5 (با 8 رای ممتنع) – مصوبهای را از تایید گذراند که دبیرکل سازمان ملل را ملزم می سازد تا مطالعه جامعی در این زمینه انجام دهد. این مطالعه که قرار است به موقع برای نشست بعدی مجمع عمومی (در پاییز 2024) تکمیل شود، برای بررسی «چالشها و نگرانیهایی» است که چنین سلاحهایی «از چشماندازهای بشردوستانه، حقوقی، امنیتی، فناوری و اخلاقی و همچنین در میزان نقشآفرینی انسان در استفاده از زور» ایجاد می کنند.
اگرچه اقدام سازمان ملل هیچ گونه محدودیت الزامآور برای توسعه یا استفاده از سیستمهای تسلیحاتی خود مختار اعمال نمیکند، اما با شناسایی طیفی از نگرانیها در مورد استقرار آنها زمینه را برای اتخاذ چنین اقداماتی در آینده فراهم میکند. به ویژه این که، این مصوبه با تأکید بر این که دبیرکل، هنگام تهیهی گزارش مورد نیاز، این خطرات را با جزئیات و با استفسار نظرات دانشمندان و سازمان های جامعه مدنی صورتبندی کند، گام قابل قبولی محسوب می شود.
سفیر کیمنت خاطرنشان کرد:
«هدف بدیهی ما این است که در ساماندهی به سیستمهای تسلیحاتی خودمختار، رو به جلو حرکت کنیم. این قطعنامه روشن می کند که اکثریت قاطع کشورها می خواهند با فوریت به این موضوع رسیدگی شود.»
با این حال، برای مقامات وزارت دفاع آمریکا، ظاهرا این موضوع تا حد زیادی حل شده است: ایالات متحده به توسعه و استقرار سریع انواع متعددی از سامانههای تسلیحاتی خودمختار مجهز به هوش مصنوعی ادامه خواهد داد. این امر در 28 آگوست با اعلام ابتکار عمل "Replicator" توسط کاتلین هیکس، معاون وزیر دفاع، آشکار شد.
با اشاره به اینکه ایالات متحده باید برای جنگ احتمالی با ارتش آزادیبخش خلق چین (PLA) در آینده ای نه چندان دور آماده شود و نیروهای آمریکایی نمی توانند در برابر موجودیهای تسلیحاتی ارتش آزادیبخش خلق چین، به صورت اقلام به اقلام (تانک در برابر تانک، کشتی در مقابل کشتی، و غیره) موازنه ایجاد کنند، هیکس استدلال کرد که ایالات متحده باید آماده غلبه بر برتری چین در اقدامات متعارف قدرت - "انبوههی نظامی" آن – از طریق استقرار "چندین هزار" از تسلیحات خودمختار باشد.
او در جلسه انجمن صنایع دفاع ملی به مدیران شرکت گفت:
«برای این که جلوتر بمانیم، میخواهیم وضعیت جدیدی از هنر{رزم} ایجاد کنیم - درست همانطور که آمریکا قبلاً ایجاد کرده است - با استفاده از سیستمهای قابلجایگزین[یعنی یکبار مصرف] و خودمختار در همه حوزهها. در واشنگتن ما با تودههای نیروهای ارتش خلق چین مقابله خواهیم کرد، اما برنامهریزی برای ما سختتر، ضربه زدن سختتر و شکست دادن سختتر خواهد بود.»
هیکس در سخنرانی بعدی خود که در 6 سپتامبر ایراد شد، جزئیات (کمی) بیشتری در مورد آنچه که سامانههای تسلیحاتی خودگردان جایگزینپذیر جامع(ADA2) نامید، ارائه کرد:
«تصور کنید غلافهای توزیعشده از سیستمهای ADA2 خودکششی بر سطح آب شناور هستند... مملو از حسگرهای فراوان…. ناوگانی از سیستمهای ADA2 زمینپایه را تصور کنید که پشتیبانی لجستیکی بدیعی را ارائه می دهند و برای ایمن نگهداشتن نیروها پیشروی میکنند. دستههایی از سیستمهای [هوایی] ADA2 را تصور کنید که در انواع ارتفاعات پرواز میکنند، طیف وسیعی از ماموریتها را انجام میدهند و بر اساس آنچه در اوکراین دیدهایم، ساخته میشوند.»
طبق دستورالعمل رسمی، هیکس مدعی شد که همه این سیستمها «در راستای رویکرد مسئولانه و اخلاقی ما نسبت به هوش مصنوعی و سیستمهای خودمختار، توسعه داده خواهند شد.» اما به جز آن اشاره تک خطی به ایمنی، تمام تاکید در گفتگوهای او بر شکستن گلوگاه های بوروکراتیک به منظور سرعت بخشیدن به توسعه و استقرار سلاح های خودمختار بود. او در 28 آگوست اعلام کرد: «اگر [این تنگناها] برطرف نشود، دندههای ما همچنان بسیار آهسته میچرخند و موتورهای نوآوری ما هنوز با سرعت و مقیاسی که ما نیاز داریم، کار نمیکنند. و ما نمی توانیم از آن {روند} تبعیت کنیم.»
و بنابراین، قدرتهای موجود - هم در سیلیکون ولی(مرکز فناوریهای نوین در آمریکا) و هم در واشنگتن - تصمیم گرفتهاند با وجود هشدارهای دانشمندان و دیپلماتها مبنی بر این که نمیتوان از ایمنی این برنامهها اطمینان حاصل کرد، به توسعه و استفاده از نسخههای پیشرفتهتر هوش مصنوعی ادامه دهند، سامانههای که استفاده نادرست از آنها می تواند عواقب فاجعهباری داشته باشد، فاجعهای در حد انقراض بشر.