به گزارش اول فارس این روزها بدلائل مختلف سیاسی ، اجتماعی و رسانه ای ، اطلاعات جعلی خصوصا اطلاعات دیپ فیک در رسانههای اجتماعی بیش از پیش میچرخد و نگرانی زیادی درباره جعل عمیق یا همان تصاویر و صداهای تولیدشده با استفاده از هوش مصنوعی وجود دارد.
بهاحتمال زیاد تاکنون بارها به ویدئوهای دیپفیک (Deepfake) برخورده باشید؛ ویدئوهایی که اساساً هیچگونه انطباقی با حقیقت ندارند، اما آنقدر به واقعیت نزدیکاند که بهسختی میتوان متوجه جعلیبودن آنها شد. از سیاستمداران معروف مثل اوباما و ترامپ گرفته تا سلبریتیها و حتی مدیران مطرح دنیای فناوری، همگی در چند سال گذشته بهنوعی با این پدیدهی حیرتآور و درعینحال، دردسرساز دستوپنجه نرم کردهاند. از عکسهای ساختگی هنرمندان مشهور بگیرید تا سخنرانیهای جعلی سیاستمداران و اظهارنظرهای طنزگونه مدیران فناوری درباره موضوعاتی نظیر حفظ حریم خصوصی، همگی نمونههایی از آماده نبودن جامعه برای پذیرش و استفادهی مناسب از نوعی تکنولوژی نسبتا نوظهور است که اتفاقا پتانسیل و کارایی آن بسیار بیشتر از آن چیزی است که تاکنون از خود نشان داده است.
راستش را بخواهید، چند وقتی است که توجه رسانهها و کاربران اینترنتی به پدیدهی «دیپفیک» در سایهی اتفاقات جدید و هیجانانگیزتری مانند مولد تصویر Dall-E و چتبات نابغهی ChatGPT کمرنگ شده است. بااینحال، تکنیک دیپفیک کماکان در فهرست تکنولوژیهای کمنظیر بشر قرار دارد و پژوهشگران بسیاری در حال بهبود آن هستند.
نشریه گاردین در مطلبی به عناصر بصری اشاره میکند که با توجه به آنها میتوان جعل عمیق را تشخیص داد.
دور دهان یا چانه غیرعادی
در ویدیوهای جعل عمیق، اطراف دهان شخص میتواند بزرگترین نشانه باشد. ممکن است چینوچروکهای پوست و جزئیات اطراف دهان کمتر باشد یا چانه محو و تار دیده شود. هماهنگی ضعیف میان صدای فرد و حرکت دهان نیز میتواند نشانهای دیگر باشد.
عناصر گفتاری عجیب
اگر فرد در ویدیو اشتباه کلامی دارد احتمالا از یک ابزار تبدیل متن به صدا استفاده شده است، بدون اینکه بررسی شود که آیا با الگوهای گفتاری معمول مطابقت دارد. علاوه بر این، نشانههایی نیز در لحن وجود دارد. برای بررسی صحت ویدیو میشود صدا، رفتار و حالتها را با ویدیوهای واقعی ضبطشده از فرد مقایسه کرد تا تشخیص داد آیا هماهنگی وجود دارد یا خیر.
در ویدیوهای جعل عمیق ممکن است اندازه سر با بقیه بدن نامتناسب یا رنگ پوست گردن و صورت متفاوت باشد. بدن نامتحرک نیز نشانهای آشکار از جعل عمیق بهاصطلاح عروسکگردان است که بدن از گردن به پایین حرکت نمیکند.
بیانسجامی و ناپیوستگی در ویدیو
گاهی ممکن است رنگ لباس فرد در طول ویدیو تغییر کند. چشمانداز هوش مصنوعی مولد و در نتیجه، نشانههای جعل عمیق بهسرعت در حال تغییر است. اما در هر صورت، هنگام تماشای ویدیوها همواره باید آمیزهای از عقل سلیم و مقداری شک و تردید به کار گرفت، بهخصوص وقتی در ویدیو ادعاهای عجیب یا نامحتمل مطرح میشود.
انگشتها، دستها، اعضای اضافی
در تصاویر نامتحرکی که هوش مصنوعی تولید کرده است دنبال انگشتها، پاها، بازوهای اضافی و دستهایی باشید که شکل عجیبی دارند.
دستورهای تایپشده در ابزارهای تولید تصویر ممکن است بر افراد متمرکز باشندــ اغلب نام افراد مشهورــ و به تصویر خروجی منجر میشود که تاکید روی چهره است. در نتیجه، مصنوعی بودن تصویر اغلب در سایر جزئیات مانند دستها یا هماهنگی فیزیکی پسزمینه آشکار میشود.
حروف و اعداد درهمریخته
ابزارهای هوش مصنوعی برای تولید تصویر در بازتولید عدد و متن مشکل دارند. اعداد و متن معمولا نشانهای آشکار است زیرا هوش مصنوعی مولد درکی از نمادها ندارد، بنابراین متنها و اعداد معمولا درهمریخته یا ناخوانا تولید میکند. اگر در تصویر متن یا عددی وجود دارد، با بزرگ کردن آنها میشود تشخیص داد تصویر با استفاده از هوش مصنوعی تولید شده است یا خیر.
ویرایشهای ویدیویی غیریکدست
برخی تصاویر دستکاریشده بهقدری غیرحرفهای کنار هم قرار میگیرند که بهراحتی قابلتشخیص است. این نمونه از جعل که به «جعل عمیق ارزان» معروف است اغلب از نرمافزارها ساده ادیت ویدیو و سایر روشهای کمکیفیت استفاده میکند.
نظرات