به گزارش مشرق، کانال تلگرامی تحلیل و پژوهش جنگ های ترکیبی در مطلبی به گزارشی الجزیره درباره نسلکشی در غزه با کمک هوش مصنوعی پرداخت و نوشت:
در تاریخ 4 اپریل، دو رسانه اسرائیلی درباره استفاده از سامانه هوش مصنوعی به نام «لاوندر» که به معنی اسطوخودوس است برای شناسایی و ایجاد لیستی از اهداف بمباران در غزه گزارش دادهاند. استفاده ارتش رژیم صهیونیستی از یک پایگاه داده مبتنی بر هوش مصنوعی آزمایش نشده و مخفی برای شناسایی اهداف کارزار بمباران خود در غزه، کارشناسان حقوق بشر و فناوری را نگران کرده است که میگویند این اقدام میتواند برابر با جرم «جنایت جنگی» باشد.
این پایگاه داده تاکنون بیش از ۳۷ هزار هدف را در غزه برای بمباران تشخیص داده است. مقامات وزارت اطلاعات رژیم صهیونیستی که نامشان فاش نشده است به این رسانهها گفتهاند که لاوندر حدود ۱۰ درصد خطا دارد، اما این امر اسرائیلیها را از استفاده از آن برای ردیابی سریع عوامل حماس در غزه و بمباران آنها منع نکرد. رویه نظارت انسانی که با پایگاه داده هوش مصنوعی در تعامل بودند، اغلب فقط نقش یک مهر تأیید را داشتند. آنها تنها حدود ۲۰ ثانیه این فهرست کشتار را بررسی میکردند و سپس تصمیم میگرفتند که آیا اجازه حمله هوایی را بدهند یا نه.
روری چالانز، خبرنگار الجزیره اشاره کرده که ارتش رژیم صهیونیستی «به ازای هر عامل رده پایین حماس که لاوندر هدفگذاری میکرد، کشتن ۱۵ یا ۲۰ غیرنظامی را نیز مجاز دانسته است.»
در ارتباط با این موضوع مارک اوون جونز، استادیار مطالعات خاورمیانه و علوم انسانی دیجیتال در دانشگاه حمید بن خلیفه گفت: «مشخص است که ارتش اسرائیل در حال استقرار سیستمهای هوش مصنوعی آزمایشنشده برای کمک به تصمیمگیری درباره زندگی و مرگ غیرنظامیان است. این یک نسلکشی با کمک هوش مصنوعی است و به همین خاطر در آینده باید درخواست دربارهی عدم استفاده از هوش مصنوعی در جنگ شود.»
*بازنشر مطالب شبکههای اجتماعی به منزله تأیید محتوای آن نیست و صرفا جهت آگاهی مخاطبان از فضای این شبکهها منتشر میشود.