به گزارش ایسنا، در واقع بسیاری از این تصاویر باورپذیر که در شبکههای اجتماعی منتشر شدند، جعلهایی بودند که با هوش مصنوعی ساخته شدند. البته این ماجرا فقط نمونهای از یک معضل فزاینده است. معضلی که هرچند چندان هم تازه نیست!
شروع ماجرا به سال ۲۰۱۷ برمیگردد. سپتامبر ۲۰۱۷، یک کاربر Reddit با نام کاربری "deepfake" چند ویدیوی ساختگی از بازیگران مشهور منتشر کرد؛ ویدیوهایی که صورتشان روی محتوای نامناسب جایگزین شده بود. همینجا بود که deepfake به دنیا معرفی شد.
دو سال بعد، ماجرا جدیتر شد. می ۲۰۱۹، ویدیویی از نانسی پلوسی، رئیس مجلس نمایندگان آمریکا، منتشر شد که با کم کردن سرعت پخش، او را مثل آدم مست نشان میداد. این ویدیو در فیسبوک فقط در ۴۸ ساعت بیش از ۲.۲ میلیون بار دیده شد.
پس از آن در سال ۲۰۲۱ بود که انتشار ویدیویی خندهدار از تام کروز همه را نگران کرد. هنی فرید، استاد دانشگاه کالیفرنیا که روی دروغهای دیجیتال کار میکند، گفت: «این یک دسته کاملاً جدید از deepfake است که تا حالا ندیده بودیم».
حالا ژانویه ۲۰۲۶ است و ما با مسئلۀ بزرگتری روبهرو هستیم.
سیل تصاویر جعلی!
صبح سوم ژانویه ۲۰۲۶، ترامپ اعلام کرد که نیروهای آمریکایی، مادورو و همسرش را در عملیاتی به نام "Southern Spear" دستگیر کردند. اگرچه این خبر در ابتدا غیرقابل باور بود اما انتشار تصاویری به سرعت آن را باورپذیرتر کرد. اما ماجرا واقعاً چه بود؟ با اینکه ترامپ دستگیری را تأیید کرد، اما تا مدتی پس از آن، هیچ عکسی از دستگیری منتشر نشد و وقتی خبر بزرگی هست و عکسی از آن نیست، چه اتفاقی میافتد؟ عدهای خودشان برای آن عکس میسازند!
یکی از تصاویری که بیش از همه دست به دست شد، مادورو را کنار دو سرباز DEA نشان میداد. عکسی که طوری کادربندی شده بود که انگار از صفحه لپتاپ گرفته شده و تاریخ ۳ ژانویه ۲۰۲۶ نیز روی آن وجود داشت. این عکس هوشمندانه طراحی شده بود:
- وجود لوگوی خبری
- یک مجری تحلیلگر در گوشه پایین با میکروفون
- صورت سربازها blur شده بود (تکنیک رایج برای پنهان کردن نقصهای AI)
- حتی یک نشان DEA روی لباس یکی از سربازها بود
ولی مشکل کجا بود؟ وقتی این عکس را با ابزار SynthID گوگل (یک واترمارک نامرئی که گوگل روی همه چیزهایی که AI میسازد، قرار میدهد.) بررسی کردند، فهمیدند که با هوش مصنوعی گوگل ساخته شده!
پس از انتشار نخستین تصویر، دهها نسخۀ دیگر هم مشابه با آن منتشر شد. اما Misbar، یک سازمان fact-checking، متوجه شد که یک سری از این عکسها توسط یک خالق محتوای AI به اسم UltravFX در اینستاگرام منتشر شده است. جالب این است که خود منتشرکننده در پست خود نوشته بود که این تصویر با AI ساخته شده، ولی گویا کسی به آن توجه نکرد! با این حال، بعضی از نسخههای بعدی که مردم خودشان ساختند، حتی بعضاً ناشیانه بودند؛ مثلا وجود سربازهایی با سه تا دست!
ماجرا فقط به آن عکس و مواردی مشابه با آن هم ختم نشد، عکسهای دیگر هم بود: مادورو با پیراهن سفید و خون روی آن، که حتی رسانههایی مثل RTN Canada منتشر کردند. یا عکسهایی که ادعا میکردند درون هواپیمای نظامی آمریکا گرفته شده و حتی یک عکس که اصلاً عکس مادورو نبود؛ تصویری از یک سیاستمدار اوکراینی بود که سال ۲۰۲۲ دستگیر شده بود!
جعلی بودن تصاویر چگونه مشخص شد؟
متخصصان در تشخیص جعلی بودن تصاویر به چند مورد دقت کردند: اول، مشکلات بصری: نورپردازیهایی که با هم جور نبودند، پوست صورتها که مصنوعی به نظر میرسیدند، نشانهایی که محو و مبهم بودند و آرتیفکتهای فشردهسازی که معمولاً در محتوای AI هستند. دوم، خطاهای آناتومی: در نسخه ویدیویی، دست سرباز سمت راست با آرنج مادورو یکی شده بود، سایهها هم که اصلاً درست نبودند و گاهی با زمین قاطی میشدند. سوم، اشتباهات تاریخی: لباسهای سربازها مدل قدیمی UCP بود که از سال ۲۰۱۹ دیگر استفاده نمیشوند. اکنون همه از لباس OCP استفاده میکنند و این یعنی AI از عکسهای قدیمی یاد گرفته بود! چهارم، پوست مصنوعی: پوست همه خیلی صاف و بدون چینوچروک بود و این خود یک علامت کلاسیک محتوای مربوط به AI است.
نکتۀ مهم دیگری که وجود دارد؛ این تصاویر جعلی فقط در شبکههای اجتماعی نماندند و بعضاً رسانههای خبری هم آنها را منتشر کردند. اگرچه صبح همان روز، فکتچکرهای زیادی مثل EFE Verifica، Cazadores de Fake News، Fast Check و Newtral همه به این نتیجه رسیدند که اینها جعلی هستند اما تا آن زمان، میلیونها نفر این تصاویر را دیده بودند.
این ماجرا یک مثال واضح از این است که چطور AI انتشار اخبار جعلی را پیچیدهتر میکند.
اما در نهایت ماجرا، بالاخره ترامپ یک عکس واقعی منتشر کرد؛ مادورو با لباس ورزشی و چشمبند روی کشتی USS Iwo Jima PBS. ولی تا آن زمان، میلیونها نفر عکسهای جعلی را دیده و باور کرده بودند.
و شاید ماجرای مادورو آزمایشی بود که نشان داد ما چقدر برای عصری آمادهایم که در آن مردم بیش از اینکه فریب بخورند، دچار شک میشوند و این شک، ممکن است اعتماد به اخبار را نابود کند. و سوال اینجاست: آیا حالا در یک «فاجعه اطلاعاتی» هستیم؟ شاید خیر اما همه چیز در حال تغییر است و تکنولوژی مدام پیشرفت میکند، پس ما هم باید پیشرفت کنیم.
دیدن دیگر باور کردن نیست اما این پایان ماجرا هم نیست بلکه شروع یک مسئولیت جدید است. در دنیایی که واقعیت pixel به pixel ساخته میشود، دفاع ما نه فقط تکنولوژی، بلکه فرهنگ درست شک کردن، چک کردن دقیق، و مسئولیت جمعی است.
اگرچه ابزارهایی مثل SynthID به این تشخیص کمک میکنند، اما همانطور که خود گوگل هم اظهار میکند «کامل نیستند». در نهایت، نبرد برای حقیقت نه در الگوریتمها، بلکه در ذهنهای مخاطبان است.
برای تهیه این گزارش از منابع زیر بهره گرفته شده است:
European Broadcasting Union (EBU), Carnegie Endowment, PolitiFact, Misbar, Google DeepMind, NPR/UC Berkeley, PBS News, Lusa Verifica
انتهای پیام


نظرات