دیپ فیک چیست؟
دیپ فیک یکی از فناوریهای جنجالی ایجاد شده بر پایه هوش مصنوعی برای ساخت عکس و فیلم جعلی و ساختگی است که هم میتواند تهدیدی بزرگ برای جامعه باشد و برای اهداف مجرمانه و غیراخلاقی استفاده شود و هم برای ساخت محتواهای مفید و کاربردی به کار گرفته شود.
هوش مصنوعی در دهه اخیر پیشرفت قابلتوجه و سریعی داشته و در حوزههای مختلف استفاده شده است. این فناوری انقلابی کیفیت و راندمان بسیاری از صنایع را به میزان زیادی افزایش داده، البته این ابزار از آغاز پیدایش خود تاکنون همیشه هم برای اهداف مثبت و سازنده استفاده نشده است. گاهی اوقات فناوریهای جدید و کاربردی برای اهداف مجرمانه استفاده میشوند و هوش مصنوعی نیز از این قاعده مستثنا نیست.
دیپ فیک یکی از فعالیتهای مخربی محسوب میشود که هوش مصنوعی در سالهای اخیر برای انجام آن مورد سوءاستفاده قرار گرفته است.
نرمافزارها و اپلیکیشنهای طراحیشده برای دیپ فیک که بر پایه هوش مصنوعی ایجاد شدهاند، برای جایگزین کردن چهره یک فرد با چهره فرد دیگری آموزش داده شدهاند. قربانیان این کار غیراخلاقی در اغلب موارد سلبریتیها و سیاستمداران هستند.
آشنایی کامل با هوش مصنوعی در مقاله: «هوش مصنوعی چیست؟ تعریف و کاربرد آن»
فهرست مطالب این مقاله
- دیپ فیک Deepfake چیست؟
- تاریخچه دیپ فیک Deepfake
- دیپ فیک Deepfake چگونه کار میکند؟
- آیا دیپ فیک Deepfake خطرناک است؟
- تاثیر دیپ فیک Deepfake بر جامعه
- آیا تکنولوژی دیپ فیک Deepfake قانونی است؟
- کاربردهای دیپ فیک Deepfake
- نحوه تشخیص محتوای جعلی دیپ فیک Deepfake از محتوای واقعی
- نحوه مقابله با دیپ فیک Deepfake
- آیا ویژگیهای زیستسنجشی به مقابله با دیپ فیک Deepfake کمک میکنند؟
دیپ فیک Deepfake چیست؟
واژه دیپ فیک (DeepFake) از دو کلمه Deep به معنای عمیق و Fake معنای جعلی و ساختگی تشکیل شده است. کلمه Deep که با فناوری هوش مصنوعی ارتباط دارد، به یادگیری عمیق اشاره میکند. فناوری دیپ فیک برای جایگزین کردن یا ایجاد چهرههای مختلف، صحبتها و حالتهای عاطفی چهره به کار میرود.
در حقیقت این فناوری به منظور تقلید دیجیتالی کارهای در حال انجام توسط شخص خاصی است که آن شخص اصلاً آن کارها را انجام نداده و آن کارها و حرکات ساختگی و شبیهسازی شده هستند.
تاریخچه دیپ فیک Deepfake
جالب است بدانید که این فناوری توسط یک فرد خاص ایجاد نشده است و نخستین مراحل دیپ فیک برای نخستین بار در دهه 1990 توسط مؤسسات آموزشی و پس از آن توسط گروه بیشتری از افراد انجام شد. اگرچه نرمافزارها و اپلیکیشنهای مورد استفاده برای محتوای دیپ فیک نرمافزارهای فراگیری نیستند، اما اخبار و اطلاعات مرتبط با ساخت چنین نرمافزارهایی در رسانههای اجتماعی سروصدای زیادی به پا کرده است.
یکی از نخستین موارد سوءاستفاده از دیپ فیک در انگلستان رخ داد. در جریان این سوءاستفاده که در حقیقت یک کلاهبرداری بوده است، مدیرعامل یک شرکت انگلیسی فعال در حوزه انرژی با جعل صدای یکی از روسای آلمانی این شرکت فریب خورد و به 220 هزار یورو به یک حساب بانکی شخص ثالث واریز کرد.?
دیپ فیک Deepfake چگونه کار میکند؟
استراتژیهای بسیاری برای ساخت نرم افزار تکنولوژی دیپ فیک با استفاده از الگوریتمهای یادگیری ماشین وجود دارد. به بیانی ساده، این الگوریتمها میتوانند بر اساس دادههای ورودی محتوا تولید کنند. البته، ایجاد یک چهره جدید در این برنامه یا جایگزینی بخشی از چهره باید آموزش داده شود. این برنامه با استفاده از دادههای بسیار زیاد، دادههایی جدید برای خود میسازد. اساسا این دادهها بر اساس رمزگذارهای خودکار و گاهی اوقات بر روی شبکههای مولد تخاصمی (GAN) هستند. حال بیایید ببینیم که این روشها چگونه کار میکنند:
رمزگذارهای خودکار
رمزگذارهای خودکار خانوادهای از شبکههای عصبی تحت نظارت خود هستند. آنها فقط مختص دادهها میباشند، به این معنی که رمزگذاری خودکار میتواند دادهها را مشابه آنچه که آموزش دیدهاند، فشرده کنند. علاوه بر این، خروجی رمزگذار خودکار با ورودی آن یکسان نخواهد بود. رمزگذار خودکار از 3 جزء تشکیل شدهاست: رمزگذار، کد و رمزگشا. رمزگذار دادههای ورودی را فشرده میکند و پس از این که رمزگشا کد ورودی را بازسازی کرد، کد تولید میشود. انواع مختلفی از رمزگذار خودکار وجود دارد: رمزگذار خودکار حذف نویز، رمزگذار خودکار عمیق، رمزگذار خودکار کانولوشن و غیره.
شبکههای مولد تخاصمی (GAN)
گان (GAN) رویکردی برای مدلسازی مولد از دادههای ورودی است. یعنی از دادههای ورودی به منظور تولید دادههای جدید استفاده میشود. این سیستم توسط دو شبکه عصبی متمایز آموزش داده میشود: یک مولد و یک تفکیک کننده. مولد الگوهای موجود در مجموعه دادههای ورودی را کشف کرده و آنها را بازتولید کند. سپس دادههای تولید شده همراه با دادههای واقعی برای ارزیابی به تفکیک کننده ارسال میشود. در اینجا هدف مولد فریب دادن تفکیک کننده است. این سیستم تا جایی ادامه مییابد که تفکیک کننده دیگر دادههای تولید شده را با دادههای واقعی اشتباه نگیرد. هرچه تشخیص دادههای تولید شده از دادههای واقعی سختتر باشد، کارایی آن بهتر خواهد بود. آموزش GANها به مراتب سختتر است و به منابع بیشتری نیاز دارد. از آنها بیشتر برای تولید عکس به جای فیلم استفاده میشود.
آیا دیپ فیک Deepfake خطرناک است؟
متاسفانه بله! دیپ فیک یکی از خطرناکترین محصولات هوش مصنوعی شناخته میشود. بیشتر برنامههای آن در دنیای واقعی برای اهداف دزدی یا کلاهبرداری استفاده میشوند. همانطور که پیشتر گفتیم یکی از اولین موارد کلاهبرداری تکنولوژی دیپ فیک در بریتانیا اتفاق افتاد. به این صورت که کلاهبرداران با مدیر عامل یک شرکت انرژی تماس گرفتند و با جعل صدای رئیس آلمانی او، به او دستور دادند 220 هزار یورو به یک حساب بانکی منتقل کند. ممکن است نتیجه نهایی دیپ فیک از واقعیت قابل تشخیص نباشد و همین ویژگی آن را به یک سلاح عالی برای کلاهبرداران تبدیل میکند.
پیشنهاد میکنیم این مقاله را نیز بخوانید: «آیا هوش مصنوعی و رباتها میخواهند ما را از کار بیکار کنند؟»
تاثیر دیپ فیک Deepfake بر جامعه
اگر این تکنولوژی به دست افراد نادرست برسد میتواند منجر به هرج و مرج شود. از آن جا که بخش بزرگی از جامعه ما از رهبران، سلبریتیها و اینفلوئنسرها ساخته شده است، اطلاعات نادرست و جعلی میتواند نظر مردم را راجع به آنها تغییر دهد. این موضوع حتی چندین رئیس جمهور ایالات متحده را نیز درگیر کرد. اخبار جعلی مربوط به رهبران سیاسی میتواند اعتبار کشور را تضعیف کند و منجر به از دست دادن اعتماد مردم به آنها شود.
آیا تکنولوژی دیپ فیک Deepfake قانونی است؟
به دلیل اینکه در حال حاضر تنها چند سال از آغاز پیدایش دیپ فیک میگذرد، هنوز بهصورت قانونی و جدی با کاربردهای غیرقانونی و غیراخلاقی آن مقابله نشده و قانونگذاران خود را درگیر این موضوع نکردهاند. حتی در برخی کشورها هم هیچ قانونی برای مقابله با این فناوری وضع نشده است. اما در برخی از کشورها مثل چین قوانینی برای بهرهمندی از کاربردهای دیپ فیک ایجاد شدهاند. سازمان فضای سایبری چین (Cyberspace Administration of China) اعلام کرده که ایجاد اخبار ساختگی با استفاده از دیپ فیک غیرقانونی است.
در آمریکا هم تقریباً در تمام ایالتها قوانینی برای مقابله با ساخت محتوای مستهجن با استفاده از این فناوری وضع شده است. در ضمن لوایحی برای ممنوعیت انتشار آن دسته از محتواهای ساختگی که انتشار آنها میتواند پیامدهای منفی مختلفی را برای نامزدهای سمتهای دولتی این کشور به همراه داشته باشد نیز مطرح شده است.
کاربردهای دیپ فیک Deepfake
استفاده از دیپ فیک با انتشار محتوای مستهجن آغاز شد و بسیاری از سلبریتیهای زن قربانی آن شدند. پس از آن سیاستمداران هدف قرار گرفتند و به عنوان مثال ویدیوهای ساختگی نشان دهنده توهینهای باراک اوباما به دونالد ترامپ منتشر شده است. در ویدیوی ساختگی دیگری دونالد ترامپ در حال تمسخر مقامات مسئول بلژیک برای پیوستن این کشور به توافقنامه اقلیمی پاریس نمایش داده شده است.
البته تمام کاربردهای دیپ فیک به موارد غیرقانونی ختم نمیشود و میتوان به صورت قانونی و در زمینههای مفید نیز از تواناییهای بالقوه آن بهرهمند شد. در حال حاضر در اپ استور و گوگل پلی استور اپلیکیشنهای زیادی برای تغییر چهره وجود دارند. همچنین شبکه خبری MBN کره جنوبی از فناوری دیپ فیک برای تغییر چهره مجریان خبر خود به صورت ساختگی استفاده میکند. اکنون اجازه دهید با برخی از کاربردهای غیرقانونی و قانونی دیپ فیک آشنا شویم.
1) جان بخشی به آثار هنری
در حوزه هنر از دیپ فیک برای جان بخشیدن به تصاویر پرتره و صحبت کردن آنها استفاده میشود. پژوهشگران روسی برای به صحبت درآوردن مونالیزای داوینچی از این فناوری استفاده کردهاند. در موزه هنری «سالوادور دالی» (The Dali Museum) در فلوریدا نیز با این فناوری، تصویر این هنرمند را به صحبت درآوردهاند و تصویر این هنرمند با بازدیدکنندگان موزه صحبت میکند. چنین ایده جالبی برای جذب افراد اجرا شده است.
2) ساخت فیلم
در ساخت فیلمهای سینمایی پر هزینه فانتزی و علمی و تخیلی از این فناوری برای ایجاد تغییرات در چهره بازیگران یا جایگزینی کامل چهره آنها استفاده میشود. به عنوان مثال «در فیلم جنگ ستارگان: یک سرکش» (Rogue One: A Star Wars Story)، دیپ فیک برای بازسازی کامل چهره دو شخصیت این فیلم یعنی پرنسس لیا (Princess Leia) و گرند ماف تارکین (Grand Moff Tarkin) استفاده شده است.
استودیوهای فیلمسازی دیزنی در حال کار روی جلوههای بصری دیپ فیک مختص خود هستند تا هم هزینه و هم زمان لازم برای ایجاد شخصیتهای مورد نظر تا جای ممکن کاهش پیدا کند. البته این جلوههای بصری در حال حاضر چندان کارآمد نیستند. زیرا اجرای آنها با کیفیت بالا تنها در رزولوشن پایین امکانپذیر و پیادهسازی آنها در رزولوشنهای بالاتر نیازمند تلاش بیشتری است.
3) شبکههای اجتماعی
اگرچه سیاستها و خطمشیهای جدید بسیاری از شبکههای اجتماعی مانند فیسبوک و توییتر، بر پایه مقابله با فناوری دیپ فیک و ممنوعیت محتوای ساختگی ایجاد شدهاند، اما چنین محتواهایی هنوز هم در میان محتوای منتشر شده در برخی شبکههای اجتماعی دیده میشود. اسنپ چت استفاده از قابلیت تغییر چهره در اپلیکیشن دوربین خود را از سال 2016 امکانپذیر کرده است. تیکتاک هم تکنیک جدیدی ابداع کرده که کاربران با استفاده از آن میتوانند صورت خود را در ویدیوها تغییر دهند.
4) سوءاستفاده از هویت ساختگی
همانطور که قبلاً گفتیم یکی از شبکههای خبری کره جنوبی برای تغییر چهره مجریان خود از فناوری دیپ فیک استفاده میکند و در حقیقت با این کار شخصیتهای کاملاً متفاوتی را جایگزین آنها میکند. یکی از شخصیتهای جایگزین مجری، عدهای را به همدردی با افراد تروریست متهم کرد و سرانجام مشخص نشد چه کسی در پشت آن چهره ساختگی چنین اتهامی را به افراد موردنظر وارد کرده است.
همچنین در سال 2017 عدهای از پژوهشگران و کارآفرینان، نرمافزاری به نام Synthesia را با قابلیت ایجاد محتوای بصری و صوتی جعلی با قابلیتهای هوش مصنوعی تهیه کردند که به کاربرانش اجازه میداد ویدیوهای واقعی با شخصیتهای تخیلی ایجاد کنند.
5) اخاذی
دیپ فیک بهراحتی میتواند بهعنوان ابزاری برای اخاذی و بدنام کردن، توسط افراد شرور به کار گرفته شود. زیرا در حال حاضر هنوز تعداد زیادی از افراد جامعه، بهخصوص افراد مسن، از این فناوری و نحوه کار آن اطلاع ندارند.
6) قربانی کردن سیاستمداران
همانطور که قبلاً گفتیم سیاستمداران مهم جزو متداولترین قربانیان ویدیوهای ساختگی هستند و افراد زیادی تلاش میکنند اعتبار سیاستمداران مهم مثل نامزدهای انتخابات را با ویدیوهای ساختگی زیر سؤال ببرند.
در سال 2019 دو هنرمند رسانهای به نام «فرانچسکا پانتا» (Francesca Panetta) و «هالسی بورگوند» (Halsey Burgund) از دانشگاه MIT ویدیویی جعلی ساختند که در آن «ریچارد نیکسون»، رئیسجمهور اسبق آمریکا در آن نمایش داده شده بود. ریچارد نیکسون در آن ویدیو اعلام کرد که مأموریت فضاپیمای آپولو 11 شکست خورده و هیچ یک از خدمه آن از کره ماه برنگشتهاند. در این ویدیو از یک سخنرانی واقعی استفاده شده بود و اعضای تیم سازندهاش 6 ماه برای ساخت آن وقت گذاشته بودند. در ضمن این گروه پژوهشی در وبسایت خود یک سری محتوای آموزشی بارگذاری کردند که به نحوه کار فناوری دیپ فیک و همچنین نحوه تشخیص محتوای ساختگی و جعلی از محتوای واقعی کمک میکرد.
نحوه تشخیص محتوای جعلی دیپ فیک از محتوای واقعی
همانطور که هوش مصنوعی باعث پیدایش فناوری دیپ فیک شده، خوشبختانه فناوریهای قابلاستفاده برای تشخیص محتوای دیپ فیک نیز بر پایه الگوریتمهای هوش مصنوعی ایجاد شدهاند که مشابه الگوریتمهای مورد استفاده برای ساخت خود محتوای دیپ فیک هستند. این الگوریتمها میتوانند نشانههایی را که در عکسها و ویدیوهای واقعی وجود ندارند، تشخیص دهند.
در ابتدا این الگوریتمها تنها میتوانستند با تشخیص غیرمعمول بودن پلکزدن افراد در ویدیوهای ساختگی یا پلکنزدن آنها، ساختگی بودن ویدیوها را تشخیص دهند و در صورتیکه پلکزدن افراد هم در ویدیوها شبیهسازی میشد، این الگوریتمها فریب میخوردند. اما بعدها توانایی درک آنها بهبود یافت و توانستند پلکزدنهای ساختگی را نیز تشخیص دهند. از دیگر نشانههای محتوای ساختگی میتوان به موارد زیر اشاره کرد:
- رنگ پوست غیر واقعی یا تغییر رنگ صورت
- حرکات غیر طبیعی
- هماهنگ نبودن سخنان در حال بیان توسط افراد با حرکات لبهای آنها یا هماهنگی ضعیف بین آنها
- تارتر بودن چهره و حالت بدنی افراد نسبت به پسزمینه محتوا
- نوردهی غیرطبیعی محتوا یا سایر مشکلات مرتبط با این زمینه
- پیکسلهای اضافی در هر فریم
نحوه مقابله با دیپ فیک Deepfake
چند شرکت فناوری مطرح و پیشتاز در حال کار کردن روی روشهای اختصاصی خود برای مقابله با محتواهای ساختگی هستند. مایکروسافت و گوگل در حال تهیه کردن مجموعه دادههایی هستند که توسعهدهندگان با استفاده از آنها میتوانند سیستمهای خود را برای تشخیص محتوای دیپ فیک آموزش دهند.
فیسبوک نیز مدتی پیش برای اعلام طرح چالش تشخیص دیپ فیک (Deepfake Detection Challenge) به منظور توسعه روشهای تشخیص ویدیوهای ساختگی، مشارکت خود را با مایکروسافت، سرویسهای وب آمازون و دانشگاههای مطرح و پیشتاز سراسر جهان آغاز کرد. این طرح در قالب یک مسابقه برای دستیابی به بهترین روش یا روشها برای تشخیص ویدیوی ساختگی اجرا شد و جایزه فرد برنده 500 هزار دلار بود. روشهای نرمافزاری برای دستیابی به چنین هدفی که تقریباً 3500 شرکتکننده را درگیر خود کرده بودند، متنباز بودند و به همین دلیل سایر پژوهشگران هم به راحتی میتوانستند از آنها استفاده کنند.
آژانس پروژههای پژوهشی پیشرفته دفاعی (DARPA) یا دارپا که یک سازمان دولتی متعلق به وزارت دفاع ایالات متحده است، پروژهای تحت عنوان MediFort را ایجاد کرده که بر اساس آن، دارپا و سازمان پژوهشی اس آر آی اینترنشنال (SRI International) آمریکا، توافقی را برای ایجاد روشهای تشخیص عکسها و ویدیوهای دستکاری شده امضا کردند.
شرکت Sensity نیز راهحلهای خود را برای شرکتهایی که میخواهند از خود در برابر پیامدهای منفی سوءاستفاده از محتوای دیپ فیک، محافظت کنند، ارائه کرده است.
Operation Minerva نیز یکی دیگر از ابزارهای تشخیص محتوای ساختگی محسوب میشود که سیستمی برای تشخیص محتوای مستهجن ساختگی و حذف آن است.
آیا ویژگیهای زیستسنجشی به مقابله با دیپ فیک Deepfake کمک میکنند؟
ویژگیهای زیستسنجشی مثل اثر انگشت و عنبیه چشم که برای هر انسان بهصورت اختصاصی خلق شدهاند و یکسان نیستند، یکی از بهترین راههای تشخیص هویت افراد هستند. این ویژگیها میتوانند برای تشخیص محتوای ساختگی نیز مفید واقع شوند. تشخیص چهره با استفاده از هوش مصنوعی نیز میتواند ابزار بسیار مفیدی برای تشخیص چنین محتواهایی باشد.
در پایان
همانطور که خودتان نیز متوجه شدهاید، مانند بسیاری از فناوریها دیپ فیک نیز مزایا و معایب خود را دارد، یعنی میتواند به دنیای ما آسیب برساند یا باعث بهبود آن شود. اما هنوز به زمان نیاز داریم تا بفهمیم چگونه از آن در صنایع مختلف نهایت استفاده را ببریم.
شاد و پیروز باشید.?
همچنین بخوانید: «اتفاقات مورد انتظار در حوزه هوش مصنوعی در سال 2023»
منبع: recfaces
دیدگاهتان را بنویسید