دیپ‌ فیک یکی از فناوری‌های جنجالی ایجاد شده بر پایه هوش مصنوعی برای ساخت عکس و فیلم جعلی و ساختگی است که هم می‌تواند تهدیدی بزرگ برای جامعه باشد و برای اهداف مجرمانه و غیراخلاقی استفاده شود و هم برای ساخت محتواهای مفید و کاربردی به کار گرفته شود.

هوش مصنوعی در دهه‌ اخیر پیشرفت قابل‌توجه و سریعی داشته و در حوزه‌های مختلف استفاده شده است. این فناوری انقلابی کیفیت و راندمان بسیاری از صنایع را به میزان زیادی افزایش داده، البته این ابزار از آغاز پیدایش خود تاکنون همیشه هم برای اهداف مثبت و سازنده استفاده نشده است. گاهی اوقات فناوری‌های جدید و کاربردی برای اهداف مجرمانه استفاده می‌شوند و هوش مصنوعی نیز از این قاعده مستثنا نیست. دیپ‌ فیک یکی از فعالیت‌های مخربی محسوب می‌شود که هوش مصنوعی در سال‌های اخیر برای انجام آن مورد سوءاستفاده قرار گرفته است.

نرم‌افزارها و اپلیکیشن‌های طراحی‌شده برای دیپ‌ فیک که بر پایه هوش مصنوعی ایجاد شده‌اند، برای جایگزین کردن چهره یک فرد با چهره فرد دیگری آموزش داده شده‌اند. قربانیان این کار غیراخلاقی در اغلب موارد سلبریتی‌ها و سیاستمداران هستند.

آشنایی کامل با هوش مصنوعی در مقاله: «هوش مصنوعی چیست؟ تعریف و کاربرد آن»

فهرست مطالب این مقاله

  • دیپ‌ فیک Deepfake چیست؟
  • تاریخچه دیپ‌ فیک Deepfake
  • دیپ‌ فیک Deepfake چگونه کار می‌کند؟
  • آیا دیپ‌ فیک Deepfake خطرناک است؟
  • تاثیر دیپ‌ فیک Deepfake بر جامعه
  • آیا تکنولوژی دیپ‌ فیک Deepfake قانونی است؟
  • کاربردهای دیپ‌ فیک Deepfake
  • نحوه تشخیص محتوای جعلی دیپ‌ فیک Deepfake از محتوای واقعی
  • نحوه مقابله با دیپ‌ فیک Deepfake
  • آیا ویژگی‌های زیست‌سنجشی به مقابله با دیپ‌ فیک Deepfake کمک می‌کنند؟

دیپ‌ فیک Deepfake چیست؟

واژه دیپ‌ فیک (DeepFake) از دو کلمه Deep به معنای عمیق و Fake معنای جعلی و ساختگی تشکیل شده است. کلمه Deep که با فناوری هوش مصنوعی ارتباط دارد، به یادگیری عمیق اشاره می‌کند. فناوری دیپ‌ فیک برای جایگزین کردن یا ایجاد چهره‌های مختلف، صحبت‌ها و حالت‌های عاطفی چهره به کار می‌رود.

در حقیقت این فناوری به منظور تقلید دیجیتالی کارهای‌ در حال انجام توسط شخص خاصی است که آن شخص اصلاً آن کارها را انجام نداده و آن کارها و حرکات ساختگی و شبیه‌سازی‌ شده هستند.برنامه‌ی دیپ‌ فیک چیست؟ | ویکی هوش

تاریخچه دیپ‌ فیک Deepfake

جالب است بدانید که این فناوری توسط یک فرد خاص ایجاد نشده است و نخستین مراحل دیپ‌ فیک برای نخستین بار در دهه 1990 توسط مؤسسات آموزشی و پس از آن توسط گروه بیشتری از افراد انجام شد. اگرچه نرم‌افزارها و اپلیکیشن‌های مورد استفاده برای محتوای دیپ فیک نرم‌افزارهای فراگیری نیستند، اما اخبار و اطلاعات مرتبط با ساخت چنین نرم‌افزارهایی در رسانه‌های اجتماعی سروصدای زیادی به پا کرده است.

یکی از نخستین موارد سوءاستفاده از دیپ‌ فیک در انگلستان رخ داد. در جریان این سوءاستفاده که در حقیقت یک کلاهبرداری بوده است، مدیرعامل یک شرکت انگلیسی فعال در حوزه انرژی با جعل صدای یکی از روسای آلمانی این شرکت فریب خورد و به 220 هزار یورو به یک حساب بانکی شخص ثالث واریز کرد.😂

دیپ‌ فیک Deepfake چگونه کار می‌کند؟

استراتژی‌­های بسیاری برای ساخت نرم افزار تکنولوژی دیپ‌ فیک با استفاده از الگوریتم‌­های یادگیری ماشین وجود دارد. به بیانی ساده، این الگوریتم­‌ها می‌­توانند بر اساس داده‌­های ورودی محتوا تولید کنند. البته، ایجاد یک چهره جدید در این برنامه یا جایگزینی بخشی از چهره باید آموزش داده شود. این برنامه با استفاده از داده‌­های بسیار زیاد، داده­‌هایی جدید برای خود می‌­سازد. اساسا این داده­‌ها بر اساس رمزگذارهای خودکار و گاهی اوقات بر روی شبکه­‌های مولد تخاصمی (GAN) هستند. حال بیایید ببینیم که این روش‌­ها چگونه کار می‌­کنند:

رمزگذارهای خودکار

رمزگذارهای خودکار خانواده­ای از شبکه­‌های عصبی تحت نظارت خود هستند. آن­‌ها فقط مختص داده­‌ها می­‌باشند، به این معنی که رمزگذاری خودکار می­‌تواند داده­‌ها را مشابه آنچه که آموزش دیده‌­اند، فشرده کنند. علاوه بر این، خروجی رمزگذار خودکار با ورودی آن یکسان نخواهد بود. رمزگذار خودکار از 3 جزء تشکیل شده‌­است: رمزگذار، کد و رمزگشا. رمزگذار داده‌­های ورودی را فشرده می­‌کند و پس از این که رمزگشا کد ورودی را بازسازی کرد، کد تولید می‌­شود. انواع مختلفی از رمزگذار خودکار وجود دارد: رمزگذار خودکار حذف نویز، رمزگذار خودکار عمیق، رمزگذار خودکار کانولوشن و غیره.

شبکه­‌های مولد تخاصمی (GAN)

گان (GAN) رویکردی برای مدل‌سازی مولد از داده‌­های ورودی است. یعنی از داده‌­های ورودی به منظور تولید داده­‌های جدید استفاده می­‌شود. این سیستم توسط دو شبکه عصبی متمایز آموزش داده می­‌شود: یک مولد و یک تفکیک کننده. مولد الگوهای موجود در مجموعه داده­‌های ورودی را کشف کرده و آن­‌ها را بازتولید کند. سپس داده­‌های تولید شده همراه با داده‌­های واقعی برای ارزیابی به تفکیک کننده ارسال می­‌شود. در اینجا هدف مولد فریب دادن تفکیک کننده است. این سیستم تا جایی ادامه می‌­یابد که تفکیک کننده دیگر داده‌­های تولید شده را با داده‌­های واقعی اشتباه نگیرد. هرچه تشخیص داده­‌های تولید شده از داده‌­های واقعی سخت­‌تر باشد، کارایی آن بهتر خواهد بود. آموزش GANها به مراتب سخت‌تر است و به منابع بیشتری نیاز دارد. از آن‌­ها بیشتر برای تولید عکس به جای فیلم استفاده می‌­شود.

آیا دیپ‌ فیک Deepfake خطرناک است؟

متاسفانه بله! دیپ‌ فیک یکی از خطرناک‌ترین محصولات هوش مصنوعی شناخته می­‌شود. بیشتر برنامه­‌های آن در دنیای واقعی برای اهداف دزدی یا کلاهبرداری استفاده می­‌شوند. همانطور که پیشتر گفتیم یکی از اولین موارد کلاهبرداری تکنولوژی دیپ‌ فیک در بریتانیا اتفاق افتاد. به این صورت که کلاهبرداران با مدیر عامل یک شرکت انرژی تماس گرفتند و با جعل صدای رئیس آلمانی او، به او دستور دادند 220 هزار یورو به یک حساب بانکی منتقل کند. ممکن است نتیجه نهایی دیپ‌ فیک از واقعیت قابل تشخیص نباشد و همین ویژگی آن را به یک سلاح عالی برای کلاهبرداران تبدیل می­‌کند.

پیشنهاد می‌کنیم این مقاله را نیز بخوانید: «آیا هوش مصنوعی و ربات‌ها می‌خواهند ما را از کار بیکار کنند؟»

تاثیر دیپ‌ فیک Deepfake بر جامعه

اگر این تکنولوژی به دست افراد نادرست برسد می‌­تواند منجر به هرج و مرج شود. از آن جا که بخش بزرگی از جامعه ما از رهبران، سلبریتی­‌ها و اینفلوئنسرها ساخته شده ­است، اطلاعات نادرست و جعلی می­‌تواند نظر مردم را راجع به آن‌ها تغییر دهد. این موضوع حتی چندین رئیس جمهور ایالات متحده را نیز درگیر کرد. اخبار جعلی مربوط به رهبران سیاسی می­‌تواند اعتبار کشور را تضعیف کند و منجر به از دست دادن اعتماد مردم به آن‌­ها شود.

آیا تکنولوژی دیپ‌ فیک Deepfake قانونی است؟

به دلیل اینکه در حال حاضر تنها چند سال از آغاز پیدایش دیپ فیک می‌گذرد، هنوز به‌صورت قانونی و جدی با کاربردهای غیرقانونی و غیراخلاقی آن مقابله نشده و قانون‌گذاران خود را درگیر این موضوع نکرده‌اند. حتی در برخی کشورها هم هیچ قانونی برای مقابله با این فناوری وضع نشده است. اما در برخی از کشورها مثل چین قوانینی برای بهره‌مندی از کاربردهای دیپ‌ فیک ایجاد شده‌اند. سازمان فضای سایبری چین (Cyberspace Administration of China) اعلام کرده که ایجاد اخبار ساختگی با استفاده از دیپ‌ فیک غیرقانونی است.

در آمریکا هم تقریباً در تمام ایالت‌ها قوانینی برای مقابله با ساخت محتوای مستهجن با استفاده از این فناوری وضع شده است. در ضمن لوایحی برای ممنوعیت انتشار آن دسته از محتواهای ساختگی که انتشار آن‌ها می‌تواند پیامدهای منفی مختلفی را برای نامزدهای سمت‌های دولتی این کشور به همراه داشته باشد نیز مطرح شده است.

کاربردهای دیپ‌ فیک Deepfake

استفاده از دیپ‌ فیک با انتشار محتوای مستهجن آغاز شد و بسیاری از سلبریتی‌های زن قربانی آن شدند. پس از آن سیاستمداران هدف قرار گرفتند و به‌ عنوان‌ مثال ویدیوهای ساختگی نشان‌ دهنده توهین‌های باراک اوباما به دونالد ترامپ منتشر شده است. در ویدیوی ساختگی دیگری دونالد ترامپ در حال تمسخر مقامات مسئول بلژیک برای پیوستن این کشور به توافقنامه اقلیمی پاریس نمایش داده شده است.

البته تمام کاربردهای دیپ‌ فیک به موارد غیرقانونی ختم نمی‌شود و می‌توان به‌ صورت قانونی و در زمینه‌های مفید نیز از توانایی‌های بالقوه آن بهره‌مند شد. در حال حاضر در اپ استور و گوگل پلی استور اپلیکیشن‌های زیادی برای تغییر چهره وجود دارند. همچنین شبکه خبری MBN کره جنوبی از فناوری دیپ‌ فیک برای تغییر چهره مجریان خبر خود به‌ صورت ساختگی استفاده می‌کند. اکنون اجازه دهید با برخی از کاربردهای غیرقانونی و قانونی دیپ‌ فیک آشنا شویم.

1) جان بخشی به آثار هنری

در حوزه هنر از دیپ‌ فیک برای جان بخشیدن به تصاویر پرتره و صحبت کردن آن‌ها استفاده می‌شود. پژوهشگران روسی برای به صحبت درآوردن مونالیزای داوینچی از این فناوری استفاده کرده‌اند. در موزه هنری «سالوادور دالی» (The Dali Museum) در فلوریدا نیز با این فناوری، تصویر این هنرمند را به صحبت درآورده‌اند و تصویر این هنرمند با بازدیدکنندگان موزه صحبت می‌کند. چنین ایده جالبی برای جذب افراد اجرا شده است.

2) ساخت فیلم

در ساخت فیلم‌های سینمایی پر هزینه فانتزی و علمی و تخیلی از این فناوری برای ایجاد تغییرات در چهره بازیگران یا جایگزینی کامل چهره آن‌ها استفاده می‌شود. به‌ عنوان‌ مثال «در فیلم جنگ ستارگان: یک سرکش» (Rogue One: A Star Wars Story)، دیپ‌ فیک برای بازسازی کامل چهره دو شخصیت این فیلم یعنی پرنسس لیا (Princess Leia) و گرند ماف تارکین (Grand Moff Tarkin) استفاده شده است.

استودیوهای فیلم‌سازی دیزنی در حال کار روی جلوه‌های بصری دیپ‌ فیک مختص خود هستند تا هم هزینه و هم‌ زمان لازم برای ایجاد شخصیت‌های مورد نظر تا جای ممکن کاهش پیدا کند. البته این جلوه‌های بصری در حال حاضر چندان کارآمد نیستند. زیرا اجرای آن‌ها با کیفیت بالا تنها در رزولوشن پایین امکان‌پذیر و پیاده‌سازی آن‌ها در رزولوشن‌های بالاتر نیازمند تلاش بیشتری است.

3) شبکه‌های اجتماعی

اگرچه سیاست‌ها و خط‌مشی‌های جدید بسیاری از شبکه‌های اجتماعی مانند فیسبوک و توییتر، بر پایه مقابله با فناوری دیپ‌ فیک و ممنوعیت محتوای ساختگی ایجاد شده‌اند، اما چنین محتواهایی هنوز هم در میان محتوای منتشر شده در برخی شبکه‌های اجتماعی دیده می‌شود. اسنپ چت استفاده از قابلیت تغییر چهره در اپلیکیشن دوربین خود را از سال 2016 امکان‌پذیر کرده است. تیک‌تاک هم تکنیک جدیدی ابداع کرده که کاربران با استفاده از آن می‌توانند صورت خود را در ویدیوها تغییر دهند.

4) سوءاستفاده از هویت ساختگی

همان‌طور که قبلاً گفتیم یکی از شبکه‌های خبری کره جنوبی برای تغییر چهره مجریان خود از فناوری دیپ‌ فیک استفاده می‌کند و در حقیقت با این کار شخصیت‌های کاملاً متفاوتی را جایگزین آن‌ها می‌کند. یکی از شخصیت‌های جایگزین مجری، عده‌ای را به همدردی با افراد تروریست متهم کرد و سرانجام مشخص نشد چه کسی در پشت آن چهره ساختگی چنین اتهامی را به افراد موردنظر وارد کرده است.

همچنین در سال 2017 عده‌ای از پژوهشگران و کارآفرینان، نرم‌افزاری به نام Synthesia را با قابلیت ایجاد محتوای بصری و صوتی جعلی با قابلیت‌های هوش مصنوعی تهیه کردند که به کاربرانش اجازه می‌داد ویدیوهای واقعی با شخصیت‌های تخیلی ایجاد کنند.

5) اخاذی

دیپ‌ فیک به‌راحتی می‌تواند به‌عنوان ابزاری برای اخاذی و بدنام کردن، توسط افراد شرور به کار گرفته شود. زیرا در حال حاضر هنوز تعداد زیادی از افراد جامعه، به‌خصوص افراد مسن، از این فناوری و نحوه کار آن اطلاع ندارند.

6) قربانی کردن سیاستمداران

همان‌طور که قبلاً گفتیم سیاستمداران مهم جزو متداول‌ترین قربانیان ویدیوهای ساختگی هستند و افراد زیادی تلاش می‌کنند اعتبار سیاستمداران مهم مثل نامزدهای انتخابات را با ویدیوهای ساختگی زیر سؤال ببرند.

در سال 2019 دو هنرمند رسانه‌ای به نام «فرانچسکا پانتا» (Francesca Panetta) و «هالسی بورگوند» (Halsey Burgund) از دانشگاه MIT ویدیویی جعلی ساختند که در آن «ریچارد نیکسون»، رئیس‌جمهور اسبق آمریکا در آن نمایش داده شده بود. ریچارد نیکسون در آن ویدیو اعلام کرد که مأموریت فضاپیمای آپولو 11 شکست خورده و هیچ یک از خدمه آن از کره ماه برنگشته‌اند. در این ویدیو از یک سخنرانی واقعی استفاده شده بود و اعضای تیم سازنده‌اش 6 ماه برای ساخت آن وقت گذاشته بودند. در ضمن این گروه پژوهشی در وب‌سایت خود یک سری محتوای آموزشی بارگذاری کردند که به نحوه کار فناوری دیپ‌ فیک و همچنین نحوه تشخیص محتوای ساختگی و جعلی از محتوای واقعی کمک می‌کرد.

نحوه تشخیص محتوای جعلی دیپ‌ فیک از محتوای واقعی

همان‌طور که هوش مصنوعی باعث پیدایش فناوری دیپ‌ فیک شده، خوشبختانه فناوری‌های قابل‌استفاده برای تشخیص محتوای دیپ‌ فیک نیز بر پایه الگوریتم‌های هوش مصنوعی ایجاد شده‌اند که مشابه الگوریتم‌های مورد استفاده برای ساخت خود محتوای دیپ‌ فیک هستند. این الگوریتم‌ها می‌توانند نشانه‌هایی را که در عکس‌ها و ویدیوهای واقعی وجود ندارند، تشخیص دهند.

در ابتدا این الگوریتم‌ها تنها می‌توانستند با تشخیص غیرمعمول بودن پلک‌زدن افراد در ویدیوهای ساختگی یا پلک‌نزدن آن‌ها، ساختگی بودن ویدیوها را تشخیص دهند و در صورتی‌که پلک‌زدن افراد هم در ویدیوها شبیه‌سازی می‌شد، این الگوریتم‌ها فریب می‌خوردند. اما بعدها توانایی درک آن‌ها بهبود یافت و توانستند پلک‌زدن‌های ساختگی را نیز تشخیص دهند. از دیگر نشانه‌های محتوای ساختگی می‌توان به موارد زیر اشاره کرد:

  • رنگ پوست غیر واقعی یا تغییر رنگ صورت
  • حرکات غیر طبیعی
  • هماهنگ نبودن سخنان در حال بیان توسط افراد با حرکات لب‌های آن‌ها یا هماهنگی ضعیف بین آن‌ها
  • تارتر بودن چهره و حالت بدنی افراد نسبت به پس‌زمینه محتوا
  • نوردهی غیرطبیعی محتوا یا سایر مشکلات مرتبط با این زمینه
  • پیکسل‌های اضافی در هر فریم

نحوه مقابله با دیپ‌ فیک Deepfake

چند شرکت فناوری مطرح و پیشتاز در حال کار کردن روی روش‌های اختصاصی خود برای مقابله با محتواهای ساختگی هستند. مایکروسافت و گوگل در حال تهیه کردن مجموعه داده‌هایی هستند که توسعه‌دهندگان با استفاده از آن‌ها می‌توانند سیستم‌های خود را برای تشخیص محتوای دیپ‌ فیک آموزش دهند.

فیسبوک نیز مدتی پیش برای اعلام طرح چالش تشخیص دیپ‌ فیک (Deepfake Detection Challenge) به‌ منظور توسعه روش‌های تشخیص ویدیوهای ساختگی، مشارکت خود را با مایکروسافت، سرویس‌های وب آمازون و دانشگاه‌های مطرح و پیشتاز سراسر جهان آغاز کرد. این طرح در قالب یک مسابقه برای دستیابی به بهترین روش یا روش‌ها برای تشخیص ویدیوی ساختگی اجرا شد و جایزه فرد برنده 500 هزار دلار بود. روش‌های نرم‌افزاری برای دستیابی به چنین هدفی که تقریباً 3500 شرکت‌کننده را درگیر خود کرده بودند، متن‌باز بودند و به همین دلیل سایر پژوهشگران هم به‌ راحتی می‌توانستند از آن‌ها استفاده کنند.

آژانس پروژه‌های پژوهشی پیشرفته دفاعی (DARPA) یا دارپا که یک سازمان دولتی متعلق به وزارت دفاع ایالات‌ متحده است، پروژه‌ای تحت عنوان MediFort را ایجاد کرده که بر اساس آن، دارپا و سازمان پژوهشی اس‌ آر آی اینترنشنال (SRI International) آمریکا، توافقی را برای ایجاد روش‌های تشخیص عکس‌ها و ویدیوهای دستکاری‌ شده امضا کردند.

شرکت Sensity نیز راه‌حل‌های خود را برای شرکت‌هایی که می‌خواهند از خود در برابر پیامدهای منفی سوءاستفاده از محتوای دیپ‌ فیک، محافظت کنند، ارائه کرده است.

Operation Minerva نیز یکی دیگر از ابزارهای تشخیص محتوای ساختگی محسوب می‌شود که سیستمی برای تشخیص محتوای مستهجن ساختگی و حذف آن است.

آیا ویژگی‌های زیست‌سنجشی به مقابله با دیپ‌ فیک Deepfake کمک می‌کنند؟

ویژگی‌های زیست‌سنجشی مثل اثر انگشت و عنبیه چشم که برای هر انسان به‌صورت اختصاصی خلق شده‌اند و یکسان نیستند، یکی از بهترین راه‌های تشخیص هویت افراد هستند. این ویژگی‌ها می‌توانند برای تشخیص محتوای ساختگی نیز مفید واقع شوند. تشخیص چهره با استفاده از هوش مصنوعی نیز می‌تواند ابزار بسیار مفیدی برای تشخیص چنین محتواهایی باشد.

در پایان

همانطور که خودتان نیز متوجه شده‌اید، مانند بسیاری از فناوری­‌ها دیپ‌ فیک نیز مزایا و معایب خود را دارد، یعنی می­‌تواند به دنیای ما آسیب برساند یا باعث بهبود آن شود. اما هنوز به زمان نیاز داریم تا بفهمیم چگونه از آن در صنایع مختلف نهایت استفاده را ببریم.

شاد و پیروز باشید.😊 

همچنین بخوانید: «اتفاقات مورد انتظار در حوزه هوش مصنوعی در سال 2023»

منبع: recfaces