به گزارش مشرق، در مورد پیامدهای مثبت فناوریهای نو به ویژه هوش مصنوعی تاکنون نوشتههای متعددی منتشر شدهاست اما در دنیای واقعی شاهد انتشار اخباری همچون صدور فرمانهای محدودکننده دولتها بر هوش مصنوعی هستیم. در ادامه به بررسی بیشتر دلایل این سیاستها میپردازیم.
در سال ۲۰۲۳، هوش مصنوعی (AI) وارد عرصه سیاست شد. ماه آوریل سال گذشته میلادی بود که «جو بایدن» به طور رسمی مبارزات انتخاباتی خود برای ورود دوباره به کاخ سفید را آغاز کرد. در همان روز، کمیته ملی جمهوریخواهان (RNC) با انتشار یک کلیپ ۳۰ ثانیهای به او پاسخ داد.
این کلیپ تصویری تیره و تار از چهار سال آینده با ریاستجمهوری بایدن ارائه میداد: افزایش جرم، مرزهای رها شده، جنگ با چین و فروپاشی اقتصادی.
این آگهی تبلیغاتی اولین مورد از نوع خود بود که تصاویر آن را به طور کامل هوش مصنوعی ساخته بود. کمیته ملی جمهوریخواهان در مورد استفاده از هوش مصنوعی در این کلیپ صراحت داشت اما این تولید هوش مصنوعی نگرانیهایی را در مورد پیامدهای بالقوه آن بر دموکراسی ایجاد کرد.
برخی از کارشناسان معتقدند هوش مصنوعی میتواند به طور گسترده برای انتشار اطلاعات نادرست و گمراهکننده استفاده شود. در ژانویه ۲۰۲۳، یک ویدئو دیپفیک (Deepfake) در توییتر منتشر شد که نشان میداد بایدن در حال اعلام بازگشت خدمت اجباری و فرستادن آمریکاییها برای جنگ در اوکراین است.
واکنش شبکههای اجتماعی و احزاب آمریکا به گسترش هوش مصنوعی
استفاده از هوش مصنوعی در عرصه سیاست هنوز در مراحل اولیه خود به سر میبرد اما ظرفیت تاثیرگذاری بر نحوه شکلگیری سیاستها را دارد. از دید بسیاری از ناظران، مهم است که قوانین و مقرراتی برای استفاده از هوش مصنوعی در سیاست وضع شود تا از سوءاستفاده از آن برای انتشار اطلاعات نادرست و گمراهکننده جلوگیری شود.
برخی شبکههای اجتماعی در حال مقابله با محتوای تولیدی هوش مصنوعی و دیپفیکها (جعل عمیق) هستند اما در ادغام این قوانین با سیاستهای موجود در مورد محتوای سیاسی با مشکل مواجه شدهاند.
متا مالک فیسبوک، اینستاگرام و واتساپ، استفاده از دیپفیک را در پلتفرمهای خود ممنوع کرده است اما همچنان به سیاست عدم بررسی صحتسنجی سیاستمداران پایبند است. این یعنی سیاستمداران میتوانند از دیپفیک برای انتشار اخبار جعلی یا تبلیغات گمراهکننده استفاده کنند بدون اینکه پلتفرمهای رسانههای اجتماعی آنها را حذف کنند.
تیکتاک پلتفرم اشتراکگذاری ویدئو هم استفاده افراد عادی از جعل عمیق را به طور کامل ممنوع کرده است اما برای شخصیتهای معروف، فقط در صورتی که به طور خاص محصولاتی را تایید کنند یا قوانین دیگر برنامه مانند پرهیز از ترویج نفرتپراکنی را نقض کنند، ممنوع است. به عبارتی تیک تاک دیپفیکهایی را که برای اهداف آموزشی یا هنری استفاده میشوند، مجاز میداند.
در پاسخ به تبلیغات دیپفیک، کمیته ملی جمهوریخواهان در سال ۲۰۲۴ قانون «واقعیت در تبلیغات سیاسی» را مطرح کرد. این قانون، شفافیت و افشاگری را برای هرگونه استفاده از محتوای تولیدشده از سوی هوش مصنوعی را در تبلیغات سیاسی الزامی میکند.
دولت بایدن نیز اوایل ماه جاری مدیران عامل شرکتهای فناوری را در کاخ سفید پذیرفت و برنامهای عملیاتی برای «ترویج نوآوری مسئولانه هوش مصنوعی» منتشر کرد. این برنامه شامل ایجاد یک چارچوب نظارتی برای هوش مصنوعی و سرمایهگذاری در تحقیق و توسعه هوش مصنوعی، «بهشیوهای مسئولانه» است.
نمونهای از تصاویر ساختهشده با هوش مصنوعی در مورد رقابتهای سیاسی آمریکا
از سوی دیگر کمیته فرعی موسوم به حریم خصوصی، فناوری و قانون در مجلس سنا جلسههایی به منظور نظارت بر فناوری هوش مصنوعی برگزار کرده است. این کمیته در حال بررسی راههایی است برای اطمینان از اینکه هوش مصنوعی برای اهداف مثبت استفاده میشود و از سوءاستفاده از آن جلوگیری به عمل میآید.
چهار تهدید عمده پیش روی عرصه سیاست
با وجود آنچه گفته شد، بسیاری از افراد از ناکافی بودن اقدامات دولت برابر تهدیدات بالقوه هوش مصنوعی ناخشنودند. با شروع دور جدید رقابتهای انتخاباتی و ورود هوش مصنوعی به حیطه شخصی سیاستمداران، این موضوع میتواند آتش بحثها و اختلافات را روشن کند.
در این زمینه باید به تهدیدهای زیر برای عرصه سیاست اشاره کرد:
چهرههای جعلی تهدید جدی برای تبلیغات سیاسی
متخصصان امنیتی با رویکردی اخلاقی نگرانند که فناوریهای پیشرفته مانند دیپفیک و مدلهای یادگیری عمیق (Large Learning Models) بتوانند به سلاحهای قدرتمندی در دستان تبلیغاتچیهای سیاسی تبدیل شوند.
سوابق تاریک: از دستکاری عکس تا جعل ویدئو
حتی بدون فناوریهای جدید، تبلیغات سیاسی سابقهای طولانی در استفاده از روشهای نادرست برای تاثیرگذاری بر رایدهندگان داشتهاند. به عنوان مثال، در سال ۲۰۱۵ محققان متوجه شدند که ستاد انتخاباتی «جان مککین» (سناتور جمهوریخواه) در کلیپهای تبلیغاتی خود از تصاویری از «باراک اوباما» استفاده کرده بود که به نظر میرسید دستکاری شدهاند تا رنگ پوست او تیرهتر به نظر برسد.
آسیبپذیرترینها در خطر
تحقیقات نشان میدهد که استفاده از جعل عمیق و فناوریهای مرتبط به احتمال زیاد علیه گروههای آسیبپذیر در جامعه از جمله زنان یا افراد رنگینپوست که برای مناصب دولتی نامزد میشوند، مورد سوءاستفاده قرار خواهد گرفت. به عنوان مثال، یک گزارش در سال ۲۰۲۰ نشان داد که نامزدهای زن رنگینپوست در انتخابات کنگره آمریکا دو برابر بیشتر از سایر نامزدها هدف کمپینهای اطلاعات نادرست آنلاین قرار گرفتهاند.
در برخی موارد، این حملات شامل استفاده از تصاویر و ویدئوهای جعلی جنسیشده بوده است. این تکنیکها نه تنها میتوانند به اعتبار و شهرت افراد آسیب بزنند، بلکه میتوانند باعث ایجاد ترس و ناامنی در قربانیان شوند.
فرار از پاسخگویی
یکی دیگر از خطرهای احتمالی استفاده از جعل عمیق در تبلیغات سیاسی، چیزی است که محققان آن را «سود سفتهبازان» (Liar’s Dividend) مینامند. با پیشرفت این فناوری، تولید ویدئوهای جعلی به قدری واقعگرایانه میشود که ممکن است تشخیص آنها از واقعیت برای مردم عادی دشوار باشد. این وضع میتواند به سیاستمداران این امکان را بدهد که از پاسخگویی در برابر ادعاهای جنجالی یا ویدئوهای نامناسبی که از آنها منتشر شدهاست، فرار کنند و ادعا کنند که این محتوا جعلی بوده است.
راههایی برای کاهش آسیبهای هوش مصنوعی
مقابله با استفاده از جعل عمیق و فناوریهای مشابه در تبلیغات سیاسی یک چالش بزرگ است. سرفصل مهمترین اقداماتی که میتوان برای مقابله با این تهدید انجام داد، عبارتند از:
افزایش آگاهی عمومی در مورد خطرات جعل عمیق
توسعه فناوریهای تشخیص جعلی بودن محتوا
اصلاح قوانین تبلیغات سیاسی برای ممنوعیت استفاده از روشهای گمراهکننده
حمایت از قربانیان حملات مبتنی بر جعل عمیق
با در نظر گرفتن خطرات بالقوهای که جعل عمیق در تبلیغات سیاسی ایجاد میکند، مهم است که اقدامات پیشگیرانهای برای مقابله با این تهدید اتخاذ شود. با اتخاذ تدابیر مناسب، میتوان اطمینان حاصل کرد که انتخابات بر اساس اطلاعات دقیق و قابل اعتماد برگزار و از تاثیرگذاری نامشروع بر رأیدهندگان جلوگیری شود.
فناوریهای دیپفیک و یادگیری عمیق میتوانند ابزارهای قدرتمندی برای تبلیغات سیاسی باشند. با این حال، استفاده از این فناوریها میتواند خطرات مختلفی را به همراه آورد. بنابراین، مهم است که مردم و سیاستمداران از این خطرات آگاه باشند و برای مقابله با آنها اقداماتی انجام دهند.