کد خبر 1159977
تاریخ انتشار: ۶ دی ۱۳۹۹ - ۰۸:۳۱

«deepfake» یا «جعل عمیق» اولین بار در سال ۲۰۱۷ توسط یک کاربر ناشناس در سایت «Reddit» برای تعدادی از هنرپیشه های مشهور هالیوود مورد استفاده قرار گرفت و ویدئوهایی خلق شده بود که وجود خارجی نداشت.

به گزارش مشرق، «deepfake» یا «جعل عمیق» به ویدیوهایی اتلاق می شود که در آن ها با بهره از نرم افزارهای هوش مصنوعی مجموعه ای از فیلم ها و عکس های یک شخص خاص را ترکیب کرده و تغییر داده و حرکات و گفتاری برای آن فرد تولید می کنند که در اصل وجود خارجی ندارد و آن فرد در دنیای واقعی آن حرکات یا گفتار را انجام نداده است. کارکرد «جعل عمیق» در ویدیو یا فیلم را می توان عینا همچون کارکرد فوتوشاپ بر روی عکسها تشریح کرد. 

«deepfake» یا «جعل عمیق» اولین بار در سال ۲۰۱۷ توسط یک کاربر ناشناس در سایت «Reddit» مورد استفاده قرار گرفت که در آن تعدادی از هنرپیشه های مشهور هالیوود را در حال اعمال مبتذل جنسی نشان می داد. البته در آن زمان به فاصله اندکی جعلی بودن این ویدیوها مشخص شد منتهی مشکل اینجاست که با گذشت زمان و پیشرفت این فناوری، تشخیص صحت و سقم ویدیوهای واقعی از جعلی به شدت دشوارتر از قبل شده است.

حالا تلویزیون بریتانیا تصمیم گرفت با نشان دادن تصویر جعلی از ملکه، آگاهی از فناوری «deepfake» یا «جعل عمیق» را برای سال ۲۰۲۰ افزایش دهد.

بنابراین deepfakes چیست و چرا نگران کننده است؟

«Deepfakes» از هوش مصنوعی و فراگیری ماشینی همیشه در حال ارتقاء استفاده می کند و به افراد این امکان را می دهد تا  با بهره از تصاویر و فیلم های موجود از شخصی خاص و ترکیب و سرهم کردن عکسها و فیلمها به گونه ای تدوین می کنند تا واقعا به نظر برسد که آنها آن مورد بخصوص را بیان کرده یا انجام داده اند در صورتیکه خروجی نهایی اصلا واقعیت ندارد ام به شدت واقعی به نظر می رسد.

اگرچه اغلب این موارد می توانند به عنوان شوخی مورد استفاده قرار گیرند، اما سوء استفاده کسانی که قصد فریب دیگران، به ویژه در حوزه های سیاسی یا اقتصادی را دارند، این فناوری را به شدت چالش زا و نگران کننده کرده است.

مرورگر شما از ویدئو پشتیبانی نمی‌کند.
فایل آن‌را از اینجا دانلود کنید: video/mp4
ویدیوی «جعل عمیق» که ترامپ جوان را هنرپیشه فیلم «بریکینگ بد» می کند! (دانلود)

علیرغم نگرانی مجدد در مورد اطلاعات نادرست در سال گذشته ناشی از شرایط همه گیری ویروس کرونا، هنوز موارد قابل توجهی از «جعل عمیق» مورد استفاده برای انتشار اخبار جعلی در مورد ویروس کرونا گزارش نشده است.

قبلا تشخیص این که آیا یک ویدئو با بهره از فناوری «جعل عمیق» ساخته شده است یا خیر آسان تر بود، زیرا چهره ها همیشه کاملاً مناسب و موجه به نظر نمی رسید، اما با تکامل فناوری، تشخیص آنها به شدت دشوار شده است.

فیس بوک در سال ۲۰۱۸ به دلیل اجازه دادن به انتشار و ماندن یک فیلم دستکاری شده از «نانسی پلوسی» سخنگوی مجلس نمایندگان ایالات متحده، بر روی پلتفرم خود، که در سطح وسیعی «وایرال»(دیده شدن و بازنشر) شده بود، مورد هجمه بسیار شدیدی قرار گرفت، و همین امر باعث شد سخنان این عضو کنگره مبهم به نظر برسد.

مرورگر شما از ویدئو پشتیبانی نمی‌کند.
فایل آن‌را از اینجا دانلود کنید: video/mp4
ویدیوی دستکاری شده «نانسی پلوسی» که در زمان خود وایرال و جنجالی شد (دانلود)

«مارک زاکربرگ»، رئیس این شبکه اجتماعی، بعداً اعتراف کرد که مدت زیادی طول کشید تا فیس بوک متوجه فیلم ویرایش شده شود و در نهایت تصمیم گرفت تا در آستانه انتخابات ریاست جمهوری سال ۲۰۲۰ آمریکا، با فیلم های «دیپ فیک» با شدیدترین وجه ممکن برخورد کند.

گوگل در سپتامبر ۲۰۱۹ فاش کرد که در تلاش برای کمک به محققان در ساخت و آموزش سیستم های تشخیص خودکار جهت تشخیص کلیپ هایی که از این فناوری به جهت منفی استفاده می کنند، هزاران فیلم «جعل عمیق» از هنرپیشگان خلق کرده است.

بنابر تحقیقات مرکز «Sensity.ai» که در قالب یک مستند  به سفارش کانال ۴ با موضوع «Deepfakes» در این مورد ارائه شده، در ۱۲ ماه گذشته بیش از ۶۰،۰۰۰ فیلم «جعل عمیق» در اینترنت شناسایی شده است.

«جورجیو پاترینی» از مسولین همین مرکز تحقیقاتی گفت: انگلیس، این یک هدف بسیار مهم «جعل عمیق» است.

اگر به آمارهای جهانی نگاه کنید، ما در واقع حدود ۱۰٪ از فیلم هایی که با فناوری «دیپ فیک» ساخته شده و در اینترنت شناسایی کرده ایم قربانیانی که تبعه انگلیس هستند را هدف قرار داده اند.

بیشتر اهداف و بیشتر قربانیانی که در این ویدیوهای موسوم به  «جعل عمیق» می بینیم از اهالی صنعت سرگرمی و سینما هستند و دلیل اینکه ما می بینیم انگلستان در این آمار عمدتا به دلیل مواجهه با فرهنگ انگلیس در سراسر جهان سهم بالایی را داراست و همین باعث انگیزه سازندگان این ویدیوهای جعلی می شود.

با این توضیحات شاید بیننده با دیدن آنچه که در ۲۸ دسامبر در ویدیوی تبریک سال نوی میلادی ملکه بریتانیا در کانال ۴ تلویزیون این کشور پخش شد، به چشمان خود هم شک کند.

همانطور که شاید در خبرها خوانده یا دیده باشید، پیام کریسمس ملکه بریتانیا که با بهره از همین فناوری «جعل عمیق» ساخته شده بود، جنجال ساز شد.

در واقع دلیلی که از سوی شبکه ۴ تلویزیون بریتانیا برای استفاده از «دیپ فیک» در پیام کریسمس الیزابت دوم عنوان شد، به بحث های شدیدی در رسانه های این کشور و دیگر نقاط دنیا منجر شد.

در این ویدیو که همزمان با پیام کریسمس ملکه منتشر شده، این زن سالخورده را در حال رقصیدن نشان می دهد در صورتی که این حرکات اصلا وجود خارجی نداشته و ساخته همین «دیپ فیک» بوده و مسولین این قضیه عنوان کرده اند که تعمدا این کار را انجام داده اند تا دنیا را متوجه این تهدید جدید کنند.

کانال ۴ تلویزیون بریتانیا هدف از تولید و پخش این ویدیو را ارائه هشداری جدی در مورد تهدید «جعل عمیق» در عصر دیجیتال عنوان کرده است.

یکی از مسئولین تلویزیون انگلیس در این مورد می گوید: ویدیوی مذکور یادآور هشداری جدی در این خصوص است که بدانیم از این پس نباید به چشمالنمان هم اعتماد داشته باشیم.

البته این اقدام تلویزیون انگلیس آنقدر که با انتقاد مواجه شده، مورد تقدیر واقع نشده است. بسیاری بر این عقیده اند که این اقدام یک رسانه رسمی از دولت بریتانیا خود می تواند به سرعت موجب رواج آن در سطح گسترده شود و قشر عظیمی را که شاید از «جعل عمیق» آگاهی چندانی نداشتند را آگاه ساخته است و این، تبعات منفی زیادی به دنبال خواهد داشت.

یکی از کارشناسان  فناوری در حوزه حقوق بشر در این مورد می گوید: هنوز فناوری «جعل عمیق» به صورت گسترده استفاده نمی شود بجز مواردی که علیه زنان از آن استفاده شده است. ما باید مواظب باشیم که مردم فکر نکنند آنچه که می بینند قابل باور نیست و کسانی که با «جعل عمیق» آشنا نیستند شاید باور کنند که این در حال حاضر معضلی گسترده است و همه محتواها را با عینک بدبینی تماشا کنند که این مساله می تواند تاثیری بسیار منفی بر روح و روان جامعه بگذارد.

وجود هزاران ویدیو، فیلم و عکس از سلبریتی ها، افراد شاخص سیاسی، اهالی سینما و موسیقی و کلا صنعت سرگرمی و چهره های شاخص اقتصادی و موفق، روسای جمهورها و افراد عالیرتبه کشورها در گستره پهناور دنیای اینترنت و فضای مجازی، بهترین خوراک برای خلق ویدیوهای موسوم به «deepfake» یا «جعل عمیق» است و همین شرایط را برای تشخیص ویدیوهای واقعی از جعلی، به غایت دشوار می کند.

منبع: فارس