• سه‌شنبه / ۲۵ مهر ۱۴۰۲ / ۱۱:۱۳
  • دسته‌بندی: فناوری
  • کد خبر: 1402072517455
  • خبرنگار : 71654

چگونه می‌توان جامعه و علم را از جعل عمیق نجات داد؟

چگونه می‌توان جامعه و علم را از جعل عمیق نجات داد؟

فیلم‌ها و تصاویر فریبنده ایجاد شده توسط هوش مصنوعی می‌تواند انتخابات را تحت تاثیر قرار دهد، باعث سقوط بازارهای سهام شود و شهرت افراد را نابود کند و محققان در حال توسعه روش‌هایی برای محدود کردن آسیب آن هستند.

به گزارش ایسنا و به نقل از نیچر، ماه ژوئن سال جاری، در نبرد سیاسی منتهی به انتخابات مقدماتی ریاست جمهوری آمریکا در سال ۲۰۲۴، مجموعه‌ای از تصاویر منتشر شد که نشان می‌داد دونالد ترامپ یکی از مشاوران پزشکی سابق خود، آنتونی فائوچی را در آغوش گرفته است. فائوچی، یک مقام بهداشتی بود که توسط برخی محافظه‌کاران آمریکایی به دلیل ترویج ماسک و واکسن در طول همه‌گیری کووید-۱۹ مورد انتقاد قرار گرفته بود.

هانی فرید(Hany Farid)، دانشمند رایانه در دانشگاه کالیفرنیا، برکلی و یکی از بسیاری از متخصصانی که تصاویر را بررسی کردند، می‌گوید: معلوم بود که آنها تقلبی بودند. با بررسی دقیق سه تا از عکس‌ها، موهای ترامپ به طرز عجیبی تار شده، متن در پس‌زمینه بی‌معناست، بازوها و دست‌ها به‌طور غیرطبیعی قرار گرفته‌اند و جزئیات گوش قابل مشاهده ترامپ درست نیست. همه نشانه‌های بارز هوش مصنوعی مولد(AI) هستند که به آن هوش مصنوعی ساختگی نیز گفته می‌شود.

چنین تصاویر و ویدیوهای جعل عمیقی که توسط تولیدکنندگان متن به تصویر با استفاده از هوش مصنوعی «آموزش عمیق» ساخته شده، در حال حاضر بسیار زیاد است.

اگرچه کلاهبرداران مدت‌هاست که از فریب برای کسب سود، تغییر عقاید یا شروع جنگ استفاده می‌کنند، سرعت و سهولتی که اکنون می‌توان حجم عظیمی از داده‌های جعلی‌ کاملا متقاعد کننده ایجاد و منتشر کرد همراه با عدم آگاهی عمومی تبدیل به یک تهدید فزاینده شده است.

سینتیا رودین(Cynthia Rudin)، دانشمند رایانه هوش مصنوعی در دانشگاه دوک در دورهام، کارولینای شمالی، می‌گوید: مردم به فناوری مولد عادت ندارند. این فناوری اینگونه نیست که به تدریج تکامل یافته باشد. مثل بمب بود، ناگهان به وجود آمد. بنابراین، آن سطح از شک و تردید که لازم است، وجود ندارد.

ده‌ها سیستم در حال حاضر برای کاربران ساده‌ در دسترس هستند تا تقریبا هر محتوایی را برای هر هدفی تولید کنند، خواه ایجاد ویدیوهای جعل عمیق از تام کروز در تیک تاک برای سرگرمی باشد خواه زنده کردن یک قربانی تیراندازی در مدرسه در یک فیلم با استفاده از هوش مصنوعی برای ایجاد یک ویدیوی حمایتی از تغییر مقررات اسلحه یا جعل کردن تماس یکی از دوستان و آشنایان برای درخواست کمک از سوی آنها و کلاهبرداری ده‌ها هزار دلار از افراد مختلف.

ویدیوهای جعل عمیق را می‌توان در لحظه در یک تماس ویدیویی زنده تولید کرد. در اوایل سال جاری، جروم پاول(Jerome Powell)، رئیس بانک فدرال رزرو آمریکا، با فردی که فکر می‌کرد ولادیمیر زلنسکی(Volodymyr Zelenskyy)، رئیس‌جمهور اوکراین است، گفت‌وگوی ویدیویی داشت، اما اشتباه می‌کرد.

مقدار محتوای تولید شده توسط هوش مصنوعی ناشناخته است، اما تصور می‌شود که این میزان در حال انفجار باشد. دانشگاهیان معمولا تخمین می‌زنند که حدود ۹۰ درصد از کل محتوای اینترنت می‌تواند ظرف چند سال تبدیل به محتوای ساخته شده شود. رودین می‌گوید: این یافتن محتوای واقعی و مفید را دشوار می‌کند. او اضافه می‌کند که موتورهای جستجو و رسانه‌های اجتماعی تنها اطلاعات نادرست را تقویت می‌کنند.

اگرچه بسیاری از این محتواها برای سرگرمی ساخته شده‌اند، مانند تصویر پاپ فرانسیس که ژاکت پف‌دار پوشیده بود اما برخی از آنها مخرب هستند. برای مثال یک فایل ساختگی می‌تواند موج ایجاد کند. یک تصویر تولید شده توسط هوش مصنوعی از انفجاری در پنتاگون ایالات متحده که در ماه مه در فضای مجازی منتشر شد، باعث شد بازار سهام برای مدت کوتاهی افت کند. وجود محتوای ساختگی همچنین به بازیگران بد اجازه می‌دهد تا شواهد واقعی از رفتار نادرست‌شان را صرفا با ادعای جعلی بودن آن رد کنند.

سوفی نایتینگل(Sophie Nightingale) روانشناس در دانشگاه لنکستر بریتانیا که اثرات هوش مصنوعی مولد را مطالعه می‌کند، می‌گوید توانایی مردم برای اینکه واقعا بدانند کجا باید اعتماد کنند در حال از بین رفتن است. و این یک مشکل واقعی برای دموکراسی است. ما باید در این مورد خیلی سریع عمل کنیم. این یک تهدید بزرگ است.

برخی از کارشناسان می‌گویند جعل‌های تولید شده توسط هوش مصنوعی نیز می‌توانند تاثیرات زیادی بر علم داشته باشند. آن‌ها نگرانند که توانایی‌های در حال توسعه سریع سیستم‌های هوش مصنوعی مولد بتواند انتشار داده‌ها و تصاویر جعلی را برای محققانی که به اصول اخلاقی پایبند نیستند، آسان‌تر کند.

در حال حاضر، برخی از محتوای ساختگی حاوی سرنخ‌هایی هستند مانند تصاویری که افراد را با شش انگشت در یک دست نشان می‌دهند. اما هوش مصنوعی مولد هر روز بهتر می‌شود. وائل عبدالمجید(Wael Abd-Almageed)، دانشمند اطلاعات و مهندس رایانه در دانشگاه کالیفرنیای جنوبی در لس‌آنجلس می‌گوید: ما در مورد چند ماه‌ صحبت می‌کنیم. زمانی که مردم نمی‌توانند با چشم غیر مسلح تفاوت را تشخیص دهند.

چگونه می‌توان جامعه و علم را از جعل عمیق نجات داد؟
پوشش چهره جعلی(سمت چپ) نظم بیشتری را نسبت به یک تصویر واقعی(سمت راست) نشان می‌دهد

همه اینها باعث شده است که محققان تلاش کنند تا دریابند چگونه می‌توان از قدرت‌های جعل عمیق هوش مصنوعی در راستای موارد مفید استفاده کرد و در عین حال ابزارهایی برای محافظت در برابر موارد مخرب آن توسعه داد.

 دو جنبه دفاع فناورانه وجود دارد: برچسب‌گذاری فعالانه محتوای واقعی یا جعلی هنگام تولید آنها و استفاده از آشکارسازها برای پیدا کردن موارد جعلی پس از انتشار.

شیام ساندار(Shyam Sundar)، روانشناس و موسس آزمایشگاه تحقیقاتی تاثیرات رسانه‌ای در دانشگاه ایالتی پنسیلوانیا در دانشگاه پارک، می‌گوید هیچ کدام راه حل کاملی نیستند، اما هر دو با اضافه کردن موانع به تشخیص جعل کمک می‌کنند. اگر شما یک بازیگر مخرب هستید، مطمئنا می‌توانید خیلی پیش بروید. ایده این است که کار را برای آنها سخت کنیم.

نایتینگل می‌گوید، فناوری در کوتاه‌مدت بسیار حیاتی خواهد بود، اما پس از آن در دراز مدت، شاید بتوانیم بیشتر به آموزش و مقررات فکر کنیم.

 اتحادیه اروپا با قانون هوش مصنوعی خود که در ژوئن امسال توسط پارلمان تصویب شد و منتظر تصمیمات دو شاخه دیگر دولت اتحادیه اروپا است، در سطح جهانی پیشرو است. نایتینگل می‌گوید: ما قطعا درس‌های مهمی از آن می‌گیریم، چه به درستی انجام شوند یا خیر.

آیا این فقط یک فانتزی است؟

برای محققان، هوش مصنوعی مولد، ابزار قدرتمندی است. برای مثال، برای ایجاد مجموعه‌های داده‌های پزشکی بدون نگرانی در مورد حفظ حریم خصوصی، برای کمک به طراحی مولکول‌های دارویی و بهبود نسخه‌های خطی علمی و نرم‌افزاری می‌توان از آن استفاده کرد. جعل‌ عمیق‌ به دلیل استفاده از آنها در ناشناس کردن شرکت کنندگان در درمان گروهی مبتنی بر ویدئو در حال بررسی هستند. ایجاد آواتارهای سفارشی از پزشکان یا معلمان که برای بینندگان قانع کننده‌تر است. یا امکان بهبود شرایط کنترل در مطالعات علوم اجتماعی.

ساندار می‌گوید: من بیشتر امیدوار هستم تا نگران. من فکر می‌کنم این به عنوان یک فناوری متحول کننده است.

اما با نگرانی از سوء استفاده گسترده، محققان و متخصصان اخلاق تلاش کرده‌اند قوانینی را برای هوش مصنوعی وضع کنند. بیانیه مونترال در سال ۲۰۱۸ برای توسعه مسئولانه هوش مصنوعی و توصیه ۲۰۱۹ درباره هوش مصنوعی از سازمان همکاری و توسعه اقتصادی در این مورد ارائه شد.

 ابتکاری به نام مشارکت در هوش مصنوعی، یک سازمان غیرانتفاعی که شامل شرکای اصلی صنعت است، گفت‌وگو در مورد بهترین شیوه‌ها را ترویج کرد. اگرچه برخی از ناظران و شرکت‌کنندگان در مورد اینکه آیا تأثیری داشته است یا خیر مطمئن نیستند.

همه از اصول شفافیت و افشای محتوای ساختگی دفاع می‌کنند. شرکت‌ها در حال در نظر گرفتن این موضوع هستند. برای مثال، در ماه مارس، تیک تاک دستورالعمل‌های انجمن خود را به‌روزرسانی کرد تا برای سازندگان اجباری شود که استفاده از هوش مصنوعی را در هر صحنه‌ای که ظاهری واقعی دارد، افشا کنند. در ماه ژوئیه، هفت شرکت فناوری پیشرو از جمله متا، مایکروسافت، گوگل، اپن ای‌آی و آمازون به طور داوطلبانه به کاخ سفید تعهد دادند تا محتوای تولید شده توسط هوش مصنوعی را برچسب‌گذاری کنند. در ماه سپتامبر، گوگل اعلام کرد که از اواسط نوامبر، هر محتوای تولید شده توسط هوش مصنوعی که در تبلیغات سیاسی در پلتفرم‌های این شرکت از جمله یوتیوب استفاده شود، باید مشخص شود.

یکی از راه‌های برچسب‌گذاری تصاویر ساختگی، مشخص کردن آنها با تغییر پیکسل‌ها به روشی متمایز است که برای چشم غیرقابل تشخیص است اما در تجزیه و تحلیل مشخص می‌شود.

به‌عنوان مثال، تغییر دادن هر n‌امین پیکسل به‌گونه‌ای که مقدار رنگ آن یک عدد زوج باشد، یک واترمارک ایجاد می‌کند اما یک واترمارک ساده که تقریبا پس از هر گونه دستکاری تصویر، مانند اعمال فیلتر رنگ، ناپدید می‌شود.

برخی از واترمارک‌ها به دلیل آسان بودن فرآیند حذف آنها مورد انتقاد قرار گرفته‌اند. اما واترمارک‌های عمیق‌تر می‌توانند، به‌عنوان مثال، موجی از سایه‌های تیره به روشن را از یک طرف تصویر به سمت دیگر هدایت کنند و آن را روی چندین الگوی‌ این‌چینی دیگر قرار دهند، به‌گونه‌ای که قابل پاک کردن نباشد. فرید می‌گوید، حذف این واترمارک‌ها دشوار است اما غیرممکن نیست. در ماه اوت، گوگل یک واترمارک برای تصاویر ساختگی به نام SynthID منتشر کرد، بدون اینکه جزئیاتی در مورد نحوه عملکرد آن فاش کند. فرید می‌گوید هنوز مشخص نیست که این واترمارک چقدر قوی است.

ایده واترمارکینگ زدن برای این است که ابرداده یک فایل را با اطلاعات منشا امن برچسب گذاری کنیم. در عکاسی، چنین سیستم‌هایی با استفاده از نرم‌افزاری بر روی دستگاه دوربین شروع به کار می‌کنند که تضمین می‌کند جی‌پی‌اس و مهرهای زمانی یک تصویر مشروع هستند و برای مثال تصویر، از روی تصویر دیگری گرفته نشده است.

بیمه‌گرها از چنین سیستم هایی برای تایید تصاویر دارایی‌ها و خسارت‌ها استفاده می‌کنند و خبرگزاری رویترز فناوری احراز هویت را برای تایید عکس‌های جنگ در اوکراین آزمایش کرده است.

ائتلاف برای منشا و اصالت محتوا(C۲PA)، که گروه‌های صنعتی مهم در فناوری و انتشار را گردهم می‌آورد، اولین نسخه از مجموعه‌ای از مشخصات فنی را در سال ۲۰۲۲ منتشر کرد که چگونه سیستم‌ها باید اطلاعات منشا را برای تصاویر ساختگی و واقعی ردیابی کنند.

بسیاری از ابزارهای سازگار با C۲PA که داده‌های منشا را جاسازی، ردیابی و تایید می‌کنند، اکنون در دسترس هستند و بسیاری از شرکت‌ها مانند مایکروسافت می‌گویند که از دستورالعمل‌های C۲PA پیروی می‌کنند. اندرسون روچا(Anderson Rocha) محقق هوش مصنوعی در دانشگاه کامپیناس در برزیل می‌گوید: C۲PA بسیار مهم خواهد بود. این کمک خواهد کرد.

کارآگاهان جعل

هانی فرید که در کمیته راهبری C۲PA است و به عنوان مشاور حقوقی Truepic، شرکتی در سن دیگو، کالیفرنیا، که نرم‌افزاری برای ردیابی عکس‌ها و فیلم‌های معتبر می‌فروشد، فعالیت می‌کند، می‌گوید: سیستم‌هایی که منشا تصویر را ردیابی می‌کنند باید به ابزاری برای کاهش تعداد زیادی فایل‌های مشکوک تبدیل شوند. او می‌گوید، اما این به «فعالان خوب» بستگی دارد که در طرحی مانند C۲PA ثبت‌نام کنند. این آشکارسازها را به یک ابزار مکمل خوب تبدیل می‌کند.

آزمایشگاه‌ها و شرکت‌های دانشگاهی طبقه‌بندی کننده‌های مبتنی بر هوش مصنوعی زیادی تولید کرده‌اند. آنها الگوهایی را یاد می‌گیرند که می‌توانند داده‌های ساخته شده با هوش مصنوعی را از عکس‌های واقعی متمایز کنند و بسیاری از سیستم‌ها گزارش کرده‌اند که می‌توانند در بیش از ۹۰ درصد مواقع موارد تقلبی را شناسایی کنند، در حالی که تنها در یک درصد یا کمتر از مواقع تصاویر واقعی را تقلبی تشخیص می‌دهند. اما اغلب می‌توان این سیستم‌ها را شکست داد. فرید می‌گوید یک فعال بد می‌تواند تصاویر را به گونه‌ای تغییر دهد که آشکارساز بیشتر خطا کند.

ابزارهای مبتنی بر هوش مصنوعی را می‌توان با روش‌های دیگری جفت کرد که بر درک انسان تکیه و موارد جعلی را از واقعی جدا کنند. فرید به دنبال سرنخ‌هایی مانند خطوط پرسپکتیو است که از قوانین فیزیک پیروی نمی‌کند. نشانه‌های دیگر ظریف‌تر هستند. او و همکارانش دریافتند که پروفایل‌های صورت ساخته شده توسط ژنراتورهای StyleGAN، به عنوان مثال، چشم‌هایشان را دقیقا به سمت یک موقعیت یکسان در عکس می‌گیرند، و به این نکته اشاره می‌کنند که کدام تصویر چهره جعلی است. می‌توان به آشکارسازها الگوریتم‌های پیچیده‌ای داد که به‌عنوان مثال بتوانند یک ساعت را در جایی از عکس بخوانند و بررسی کنند که آیا نور در تصویر با زمان ثبت‌شده روز مطابقت دارد یا خیر.

FakeCatcher شرکت فناوری اینتل با جستجوی تغییرات رنگ مورد انتظار در صورت که از نوسانات جریان خون ناشی می‌شود، ویدیوها را تجزیه و تحلیل می‌کند.

 روچا می‌گوید برخی آشکارسازها به دنبال الگوهای اختلال(نویز) متمایز تولید شده توسط حسگرهای نور در دوربین هستند که تاکنون به خوبی توسط هوش مصنوعی شبیه‌سازی نشده‌اند.

چگونه می‌توان جامعه و علم را از جعل عمیق نجات داد؟
کارشناسان نگران تاثیر ویدیوهای جعل عمیق مانند این ویدیوی باراک اوباما هستند

نبرد بین سازندگان داده‌های جعلی و کارآگاهان شدید است.

فرید مقاله‌ای از دانش‌آموز سابق خود سیوی لیو(Siwei Lyu) را به یاد می‌آورد که اکنون دانشمند رایانه در دانشگاه بوفالو، نیویورک است، که نشان می‌دهد چگونه برخی ویدیوهای هوش مصنوعی افرادی را نشان می‌دهند که دو چشم‌شان با سرعت‌های متفاوت پلک می‌زند.

او می گوید که ژنراتورها این مشکل را در چند هفته برطرف کردند. به همین دلیل، اگرچه آزمایشگاه فرید اکثریت قریب به اتفاق تحقیقات خود را منتشر می‌کند، اما او کد را تنها مورد به مورد براساس درخواست دانشگاهیان منتشر می‌کند.

عبدالمجید نیز رویکردی مشابه دارد. او می‌گوید: اگر ابزار خود را در اختیار عموم قرار دهیم، مردم روش‌های تولید خود را حتی پیچیده‌تر خواهند کرد.

چندین سرویس شناسایی که دارای رابط کاربری عمومی هستند، ایجاد شده‌اند، و بسیاری از آزمایشگاه‌های دانشگاهی در این مورد وجود دارند، از جمله پروژه DeFake در موسسه فناوری روچستر در نیویورک و DeepFake-o-meter در دانشگاه بوفالو.

آژانس پروژه‌های تحقیقاتی پیشرفته دفاعی ایالات متحده(دارپا) پروژه Semantic Forensics به اختصار سمافور خود را در سال ۲۰۲۱ راه‌اندازی کرد.

ویل کوروی(Wil Corvey)، سرپرست این پروژه، می‌گوید گروهی متشکل از نزدیک به ۱۰۰ فرد دانشگاهی و محقق شرکتی تحت پوشش سمافور برای انجام بیش از ۱۵۰ تجزیه و تحلیل با یکدیگر همکاری کرده‌اند. مجموعه‌ای از الگوریتم‌های تشخیص استفاده می‌شوند که می‌توانند به صورت مجزا یا با هم استفاده شوند.

از آنجایی که تعداد زیادی ژنراتور و آشکارساز وجود دارد و هر مورد متفاوت است، میزان دقت گزارش شده بسیار متفاوت است.

رقابت تسلیحاتی بین آنها به این معنی است که وضعیت دائما در حال تغییر است. اما برای بسیاری از انواع رسانه، میزان موفقیت فعلی ضعیف به حساب می‌آید. بررسی متون تولید شده توسط ۱۴ ابزار تشخیصی در سال جاری نشان داد که همه «نه دقیق بودند و نه قابل اعتماد». در مورد ویدئو، یک رقابت پرمخاطب در سال ۲۰۲۰ توسط سیستمی برنده شد که تنها حدود ۶۵ درصد دقیق بود. روچا در مورد تصاویر می‌گوید که اگر ژنراتور به خوبی شناخته شده باشد، آشکارسازها به راحتی می‌توانند بیش از ۹۵ درصد دقیق باشند. اما اگر ژنراتور جدید یا ناشناخته باشد، نرخ موفقیت معمولا کاهش می‌یابد.

کوروی می‌گوید: استفاده از آشکارسازهای متعدد روی یک تصویر می‌تواند میزان موفقیت را افزایش دهد.

او می‌افزاید که تشخیص مصنوعی بودن چیزی تنها یک بخش از پازل است: از آنجایی که کاربران بیشتری برای تغییر محتوای خود به هوش مصنوعی اعتماد می‌کنند، سوال مهم‌تر این نیست که «چه میزان از این داده جعلی است؟» بلکه سوال اصلی این است که «چرا این ساخته شده است؟». به همین دلیل، بخش مهمی از کار سمافور این است که با نسبت دادن رسانه به یک خالق و مشخص کردن معنای آن، هدف پشت جعل را تعیین کند.

 یک پروژه موازی دارپا با نام INCAS، در تلاش است تا ابزارهای خودکاری را برای شناسایی سیگنال‌های کمپین‌های اطلاعات غلط انبوه که ممکن است توسط هوش مصنوعی جعل شده یا نشده باشند، توسعه دهد.

شبکه اجتماعی

ابزار سمافور(SemaFor) اکنون در مرحله سوم و آخر پروژه خود است و کوروی در آن بر روی دسترسی به کاربران بالقوه مانند سایت‌های رسانه‌های اجتماعی تمرکز دارد.

او می‌گوید: ما با تعدادی از شرکت‌ها از جمله گوگل ارتباط برقرار کرده‌ایم. تا جایی که ما می‌دانیم، هیچ کدام الگوریتم‌های ما را به طور ثابت در سایت اجرا نمی‌کنند. متا با محققان دانشگاه ایالتی میشیگان در ایست لنسینگ بر روی آشکارسازها همکاری کرده است، اما نگفته است که چگونه ممکن است از آن‌ها استفاده کند. فرید با پلتفرم متمرکز بر اشتغال لینکدین(LinkedIn) کار می‌کند و از آشکارسازهای مبتنی بر هوش مصنوعی برای کمک به از بین بردن چهره‌های مصنوعی که از حساب‌های کاربری کلاهبرداران پشتیبانی می‌کنند، استفاده می‌کنند.

عبدالمجید طرفدار این است که سایت‌های رسانه‌های اجتماعی ردیاب‌هایی را بر روی تمام تصاویر موجود در سایت‌های خود اجرا کنند.

برای مثال یک برچسب هشدار بر روی تصاویر پرچم گذاری شده با درصد بالایی از احتمال جعلی بودن منتشر کنند. اما او این شانس را نداشت که چند سال قبل در مورد این موضوع با شرکتی که نامش را فاش نمی‌کند، صحبت کرد.

او می‌گوید: من به یک پلتفرم شبکه اجتماعی گفتم، نرم افزار من را بردارید و از آن استفاده کنید، آن را رایگان بگیرید. و آن‌ها گفتند، اگر نمی‌توانید به ما نشان دهید چگونه پول در آوریم، پس برای ما اهمیتی ندارد. با این حال، فرید استدلال می‌کند که آشکارسازهای خودکار برای این نوع استفاده مناسب نیستند: حتی یک ابزار دقیق ۹۹ درصدی نیز یک بار از ۱۰۰ بار اشتباه می‌کند، و این به نظر او اعتماد عمومی را کاملا از بین می‌برد. فرید استدلال می‌کند که تشخیص باید به جای تلاش برای کنترل کل اینترنت، با تحقیقات فشرده و تحت هدایت انسان در مورد موارد خاص انجام شود.

بسیاری استدلال می‌کنند که شرکت‌هایی مانند ناشران و سایت‌های رسانه‌های اجتماعی به قوانینی نیاز دارند تا آنها را به سمت رفتار مسئولانه سوق دهد.

در ماه ژوئن، پارلمان اروپا پیش نویس قانونی را تصویب کرد که به شدت استفاده‌های پرخطر از هوش مصنوعی را تنظیم می‌کند و افشای محتوای تولید شده توسط چنین ابزارهایی را به اجرا در می‌آورد.

نایتینگل، روانشناس می‌گوید: جهان نظاره‌گر است، زیرا اتحادیه اروپا رهبری این موضوع را بر عهده گرفته است.

اما کارشناسان در مورد شایستگی این عمل و اینکه آیا ممکن است نوآوری را خنثی کند، اختلاف نظر دارند.

در ایالات متحده، چند لایحه هوش مصنوعی در حال بررسی است، از جمله یک مورد با هدف جلوگیری از جعل عمیق تصاویر محرمانه و دیگری در مورد استفاده از هوش مصنوعی در تبلیغات سیاسی، اما هیچ کدام قطعی نیستند.

یک نکته وجود دارد که کارشناسان روی آن اتفاق نظر دارند: بهبود سواد فناوری به جلوگیری از غرق شدن جامعه و دموکراسی در جعل عمیق کمک می‌کند. روچا می‌گوید: ما باید این خبر را به گوش مردم برسانیم تا مردم را از آنچه در حال وقوع است آگاه کنیم. زمانی که آنها در مورد آن مطلع شوند، می‌توانند اقدام کنند. آنها می‌توانند مطالبه آموزش در مدارس را داشته باشند.

فرید می‌گوید، حتی با وجود تمام ابزارهای فناوری و اجتماعی که در اختیار داریم، این یک نبرد شکست‌خورده برای متوقف کردن تمام جعلیات است. او می‌گوید: اما اشکالی ندارد زیرا مانند پول‌های تقلبی، همچنان می‌توان جهان را با جعل‌های هوش مصنوعی فریب داد اما بسیار سخت‌تر از قبل.

انتهای پیام

  • در زمینه انتشار نظرات مخاطبان رعایت چند مورد ضروری است:
  • -لطفا نظرات خود را با حروف فارسی تایپ کنید.
  • -«ایسنا» مجاز به ویرایش ادبی نظرات مخاطبان است.
  • - ایسنا از انتشار نظراتی که حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های دین مبین اسلام باشد معذور است.
  • - نظرات پس از تأیید مدیر بخش مربوطه منتشر می‌شود.

نظرات

شما در حال پاسخ به نظر «» هستید.
لطفا عدد مقابل را در جعبه متن وارد کنید
captcha