۷ نشانه ویدیوی جعل عمیق (دیپ فیک) با استفاده از هوش مصنوعی

برای تشخیص یک ودیئوی دیپ فیک نشانه‌ها را در چانه‌های محو، دستان عجیب و اعداد به‌هم‌ ریخته جستجو کنید

به گزارش اول فارس  این روزها  بدلائل مختلف سیاسی ، اجتماعی و رسانه ای ، اطلاعات جعلی خصوصا اطلاعات دیپ فیک در رسانه‌های اجتماعی بیش از پیش می‌چرخد و نگرانی زیادی درباره جعل عمیق یا همان تصاویر و صداهای تولید‌شده با استفاده از هوش مصنوعی وجود دارد.

به‌احتمال زیاد تاکنون بارها به ویدئو‌های دیپ‌فیک (Deepfake) برخورده باشید؛ ویدئو‌هایی که اساساً هیچ‌گونه انطباقی با حقیقت ندارند، اما آنقدر به واقعیت نزدیک‌اند که به‌سختی می‌توان متوجه جعلی‌‌بودن آن‌ها شد. از سیاست‌مداران معروف مثل اوباما و ترامپ گرفته تا سلبریتی‌ها و حتی مدیران مطرح دنیای فناوری، همگی در چند سال گذشته‌ به‌نوعی با این پدیده‌ی حیرت‌‌‌آور و درعین‌حال، دردسرساز دست‌و‌پنجه نرم‌ کرده‌اند. از عکس‌های ساختگی هنرمندان مشهور بگیرید تا سخنرانی‌های جعلی سیاست‌مداران و اظهار‌نظر‌های طنز‌گونه مدیران فناوری درباره موضوعاتی نظیر حفظ حریم خصوصی، همگی نمونه‌هایی از آماده نبودن جامعه برای پذیرش و استفاده‌ی مناسب از نوعی تکنولوژی نسبتا نوظهور است که اتفاقا پتانسیل و کارایی آن بسیار بیشتر از آن چیزی است که تاکنون از خود نشان داده است.

دیپ فیک

راستش را بخواهید، چند وقتی است که توجه رسانه‌ها و کاربران اینترنتی به پدیده‌ی «دیپ‌فیک» در سایه‌ی اتفاقات جدید و هیجان‌انگیز‌تری مانند مولد تصویر Dall-E و چت‌بات نابغه‌ی ChatGPT کم‌رنگ شده است. بااین‌حال، تکنیک دیپ‌فیک کماکان در فهرست تکنولوژی‌های کم‌نظیر بشر قرار دارد و پژوهشگران بسیاری در حال بهبود آن هستند.

نشریه گاردین در مطلبی به عناصر بصری اشاره می‌کند که با توجه به آن‌ها می‌توان جعل عمیق را تشخیص داد.

ویدئوی فیک

هر چهار ویدیوی بالا دیپ‌فیک هستند

 دور دهان یا چانه غیرعادی

در ویدیوهای جعل عمیق، اطراف دهان شخص می‌تواند بزرگ‌ترین نشانه باشد. ممکن است چین‌و‌چروک‌های پوست و جزئیات اطراف دهان کمتر باشد یا چانه محو و تار دیده شود. هماهنگی ضعیف میان صدای فرد و حرکت دهان نیز می‌تواند نشانه‌ای دیگر باشد.

عناصر گفتاری عجیب

اگر فرد در ویدیو اشتباه کلامی دارد احتمالا از یک ابزار تبدیل متن به صدا استفاده شده است، بدون اینکه بررسی شود که آیا با الگوهای گفتاری معمول مطابقت دارد. علاوه بر این، نشانه‌هایی نیز در لحن وجود دارد. برای بررسی صحت ویدیو می‌شود صدا، رفتار و حالت‌ها را با ویدیوهای واقعی ضبط‌شده از فرد مقایسه کرد تا تشخیص داد آیا هماهنگی وجود دارد یا خیر.

در ویدیوهای جعل عمیق ممکن است اندازه سر با بقیه بدن نامتناسب یا رنگ پوست گردن و صورت متفاوت باشد. بدن نامتحرک نیز نشانه‌ای آشکار از جعل عمیق به‌اصطلاح عروسک‌گردان است که بدن از گردن به پایین حرکت نمی‌کند.

بی‌انسجامی و ناپیوستگی در ویدیو

گاهی ممکن است رنگ لباس فرد در طول ویدیو تغییر کند. چشم‌انداز هوش مصنوعی مولد و در نتیجه، نشانه‌های جعل عمیق به‌سرعت در حال تغییر است. اما در هر صورت، هنگام تماشای ویدیوها همواره باید آمیزه‌ای از عقل سلیم و مقداری شک و تردید به کار گرفت، به‌خصوص وقتی در ویدیو ادعاهای عجیب یا نامحتمل مطرح می‌شود.

انگشت‌ها، دست‌ها، اعضای اضافی

در تصاویر نامتحرکی که هوش مصنوعی تولید کرده است دنبال انگشت‌ها، پاها، بازوهای اضافی و دست‌هایی باشید که شکل عجیبی دارند.

دستورهای تایپ‌شده در ابزارهای تولید تصویر ممکن است بر افراد متمرکز باشند‌ــ اغلب نام افراد مشهور‌ــ و به تصویر خروجی منجر می‌شود که تاکید روی چهره است. در نتیجه، مصنوعی بودن تصویر اغلب در سایر جزئیات مانند دست‌ها یا هماهنگی فیزیکی پس‌زمینه‌ آشکار می‌شود.

حروف و اعداد درهم‌ریخته

ابزارهای هوش مصنوعی برای تولید تصویر در بازتولید عدد و متن مشکل دارند. اعداد و متن معمولا نشانه‌ای آشکار است زیرا هوش مصنوعی مولد درکی از نمادها ندارد، بنابراین متن‌ها و اعداد معمولا درهم‌ریخته یا ناخوانا تولید می‌کند. اگر در تصویر متن یا عددی وجود دارد، با بزرگ کردن آن‌ها می‌شود تشخیص داد تصویر با استفاده از هوش مصنوعی تولید شده است یا خیر.

ویرایش‌های ویدیویی غیریکدست

برخی تصاویر دستکاری‌شده به‌قدری غیرحرفه‌ای کنار هم قرار می‌گیرند که به‌راحتی قابل‌تشخیص است. این نمونه‌ از جعل که به «جعل عمیق ارزان» معروف است اغلب از نرم‌افزارها ساده ادیت ویدیو و سایر روش‌های کم‌کیفیت استفاده می‌کند.

مطالب مرتبط

نظرات