کد خبر 555667
تاریخ انتشار: ۲۳ فروردین ۱۳۹۵ - ۱۴:۲۸

دیده بان حقوق بشر از كشورهای جهان خواست قبل از آن كه فناوری روبات های قاتل بیش از حد پیشرفت كند، جلوی آن را بگیرند.

به گزارش مشرق، «بونی دوچتری» محقق ارشد بخش تسلیحات دیده بان حقوق بشر گفت: انسان ها باید كنترل سیستم های تسلیحاتی و حملات انفرادی را برعهده داشته باشند و مدیریت كنترل انسانی به جلوگیری از تهدیدها علیه اصول اساسی اخلاقی در مقابل تصمیم به استفاده از قوه قهریه كمك خواهد كرد.

وی هشدار داد كه تهدید واقعی بشریت، خودداری از كنترل چنین روبات هایی و اعتماد به ماشین ها در تصمیم گیری هایی حیاتی است.

وی خواستار اتخاذ سیاست ها و اقداماتی قانونی قبل از پیشرفت بیش از حد چنین فناوری ای شد و گفت: كشورها نه تنها باید زمان بیشتری را برای توجه به نگرانی ها درباره روبات های قاتل اختصاص دهند بلكه خود را نسبت به پیگیری آن تا رسیدن به نتیجه ای محسوس متعهد بدانند.

ارتش های پیشرفته از لحاظ فناوری در سراسر جهان در سالهای گذشته پیشرفت هابی در زمینه هوش مصنوعی و توسعه ماشین هایی كه قادر به یادگیری عمیق هستند، داشته اند.

وزارت دفاع آمریكا به منظور تحقیقات و توسعه هوش مصنوعی و ماشین های یادگیری عمیق، خواستار 12 تا 15 میلیارد دلار اعتبار در بودجه سال 2017 شد. سازمان ملل درواكنش به توسعه وسایل خودكاری كه قادر به نابودی اهداف در جنگ ها بدون مداخله انسانی هستند، كمپینی را تحت عنوان «روبات های قاتل را متوقف كنید» به راه انداخته است كه در دو سال گذشته دو بار تشكیل جلسه داده است.

دیده بان حقوق بشر قصد دارد گزارش خود را درباره روبات های قاتل در نشست كارشناسان سازمان ملل درباره سلاح های خودكار كشنده كه این هفته در ژنو برگزار می شود، ارائه دهد. این گزارش با همكاری كلینك بین المللی حقوق بشر در دانشكده حقوق هاروارد تهیه شده است.
منبع: ایرنا