• جمعه / ۲۴ بهمن ۱۳۹۹ / ۱۰:۰۹
  • دسته‌بندی: علم و فناوری جهان
  • کد خبر: 99112417615
  • خبرنگار : 71589

آشکارسازهای "دیپ‌فیک" هم گول می‌خورند

آشکارسازهای "دیپ‌فیک" هم گول می‌خورند

دانشمندان با آزمایش پیشرفته‌ترین آشکارسازهای فناوری "دیپ‌فیک"(deepfake) به معنای "جعل عمیق" ثابت کردند که می‌توان آنها را نیز فریب داد.

به گزارش ایسنا و به نقل از انگجت، دانشگاه‌ها، سازمان‌ها و غول‌های فناوری مانند مایکروسافت و فیسبوک با کار بر روی ابزارهایی که بتوانند "جعل عمیق" را تشخیص دهند، در تلاش هستند تا از استفاده از آن برای گسترش اخبار مخرب و اطلاعات غلط جلوگیری کنند.

اکنون گروهی از دانشمندان علوم رایانه از دانشگاه "سن دیگو" هشدار داده‌اند که آشکارسازهای "جعل عمیق" هنوز هم با وجود این ابزارها قابل فریب دادن هستند.

این تیم در کنفرانس بینش رایانه ای "WACV 2021" که به صورت آنلاین برگزار شد، با درج ورودی‌هایی در هر فریم ویدیویی نشان داد که چگونه می‌توان ابزارهای شناسایی "جعل عمیق" را فریب داد.

دانشمندان در اطلاعیه خود توضیح دادند که این ورودی‌ها تصاویر دستکاری شده‌ای هستند که می‌توانند باعث اشتباه سیستم‌های هوش مصنوعی شوند. اغلب آشکارسازها با ردیابی چهره در فیلم‌ها و ارسال داده‌های برشی از چهره به یک شبکه عصبی کار می‌کنند. فیلم‌های جعل عمیق قانع کننده هستند، زیرا با یک کپی از چهره یک شخص واقعی دستکاری شده‌اند، اما سیستم ردیاب یا آشکارساز می‌تواند با مشاهده عناصری مانند پلک زدن که در نسخه جعل عمیق واقعی به نظر نمی‌رسند، صحت ویدیو را تشخیص دهد.

اما دانشمندان دریافتند که با اعمال ورودی‌هایی از چهره و قرار دادن آنها در هر فریم از فیلم می‌توان حتی پیشرفته‌ترین آشکارسازهای جعل عمیق را نیز فریب داد. به علاوه، روشی که آنها ابداع کردند، حتی برای فیلم‌های فشرده نیز کارایی دارد.

بنابراین توسعه دهندگان چگونه می‌توانند آشکارسازهایی ایجاد کنند که قابل فریب دادن نباشند؟ دانشمندان توصیه می‌کنند از "آموزش متخاصم" استفاده شود. در این حالت یک نمونه جعلی تطبیقی ​​مرتباً نسخه جعلی ایجاد می‌کند که می‌تواند آشکارساز را آموزش دهد تا آشکارساز بتواند در تشخیص تصاویر غیر معتبر پیشرفت کند.

محققان در مقاله خود نوشتند: برای استفاده از این آشکارسازهای کاربردی جعل عمیق، ما استدلال می‌کنیم که ارزیابی سیستم در برابر یک دشمن تطبیقی ​​که از همه چیز آگاه است و قصد دارد این دفاع‌ها را خنثی کند، ضروری است.

انتهای پیام

  • در زمینه انتشار نظرات مخاطبان رعایت چند مورد ضروری است:
  • -لطفا نظرات خود را با حروف فارسی تایپ کنید.
  • -«ایسنا» مجاز به ویرایش ادبی نظرات مخاطبان است.
  • - ایسنا از انتشار نظراتی که حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های دین مبین اسلام باشد معذور است.
  • - نظرات پس از تأیید مدیر بخش مربوطه منتشر می‌شود.

نظرات

شما در حال پاسخ به نظر «» هستید.