• یکشنبه / ۳۱ اردیبهشت ۱۴۰۲ / ۱۱:۲۲
  • دسته‌بندی: فناوری
  • کد خبر: 1402023119833
  • خبرنگار : 71589

هشدار سازمان ملل در مورد استفاده مخرب از «جعل عمیق»

هشدار سازمان ملل در مورد استفاده مخرب از «جعل عمیق»

مشاور هوش مصنوعی در سازمان ملل متحد در مورد استفاده مخرب از فناوری جدید جعل عمیق(دیپ فیک) که در آن، هوش مصنوعی می‌تواند تصاویر غیر واقعی اما بسیار نزدیک به واقعیت تولید کند، هشدار داد و گفت که سیاستگذاران باید برای محافظت از مردم بیشتر تلاش کنند.

به گزارش ایسنا و به نقل از سی‌ان‌ان، یکی از مشاوران هوش مصنوعی سازمان ملل متحد در یک گفتگو در مورد خطرات ظهور جعل‌های عمیق واقعی‌تر هشدار داد.

نیل ساهوتا(Neil Sahota) کارشناس هوش مصنوعی مستقر در کالیفرنیا که به عنوان مشاور سازمان ملل متحد خدمت می‌کند، گفت: یک دوقلوی دیجیتال اساسا یک نسخه از چیزی از دنیای واقعی است. دیپ فیک‌ها تصویری آینه‌ای از دوقلوهای دیجیتال هستند، به این معنی که بدون اجازه شخص و معمولا برای اهداف مخرب و برای فریب دادن کسی، یک ماکت دیجیتالی از وی ایجاد می‌شود.

برخی تصاویر جعل عمیق شده تاکنون چندین بار خبرساز و فراگیر شده‌اند، مانند ویدیویی که نشان می‌داد ولودیمیر زلنسکی رئیس‌جمهور اوکراین به کشورش می‌گوید تسلیم روسیه شوند یا کلیپی از ایلان ماسک که برای تبلیغ سرمایه‌گذاری و البته برای کلاهبرداری بود.

اما فقط افراد مشهور در معرض خطر نیستند. شهروندان عادی نیز می‌توانند تحت تأثیر این فناوری قرار گیرند.

ساهوتا گفت: ما داستان‌های افراد مشهور را می‌شنویم و در واقع می‌توان آن را روی هر کسی انجام داد. دیپ فیک در واقع با فیلم مستهجن انتقام جویانه شروع شد. شما واقعا باید مراقب باشید.

ساهوتا افزود که راه تشخیص محتواهای دستکاری شده از طریق ویدئو و صدایی است که قطع می‌شوند.

وی گفت: شما باید یک چشم هوشیار داشته باشید. اگر با یک ویدئو مواجه هستید، باید به دنبال چیزهای عجیب و غریب مانند زبان بدن، سایه‌های عجیب و غریب و این نوع چیزها باشید. در مورد صدا نیز باید بپرسید آیا فرد چیزهایی می‌گوید که به طور معمول می‌گوید؟

ساهوتا همچنین استدلال کرد که در حال حاضر سیاست‌گذاران در زمینه آموزش مردم در مورد خطرات فراوان جعل عمیق و نحوه تشخیص آنها به اندازه کافی تلاش نمی‌کنند. او توصیه کرد که یک سیستم تأیید محتوا پیاده‌سازی شود که از توکن‌های دیجیتال برای احراز هویت محتواها و شناسایی جعل‌های عمیق استفاده کند.

وی گفت: حتی افراد مشهور سعی می‌کنند راهی برای ایجاد یک تمبر قابل اعتماد، نوعی نشانه یا سیستم احراز هویت بیابند تا در صورت داشتن هر نوع تعامل غیر حضوری، راهی برای تأیید وجود داشته باشد. این چیزی است که در سطح سازمان ملل شروع به اتفاق افتادن کرده است. مثلاً اینکه چگونه مکالمات را احراز هویت کنیم یا صحت یک ویدیو را تایید کنیم؟

انتهای پیام

  • در زمینه انتشار نظرات مخاطبان رعایت چند مورد ضروری است:
  • -لطفا نظرات خود را با حروف فارسی تایپ کنید.
  • -«ایسنا» مجاز به ویرایش ادبی نظرات مخاطبان است.
  • - ایسنا از انتشار نظراتی که حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های دین مبین اسلام باشد معذور است.
  • - نظرات پس از تأیید مدیر بخش مربوطه منتشر می‌شود.

نظرات

شما در حال پاسخ به نظر «» هستید.
لطفا عدد مقابل را در جعبه متن وارد کنید
captcha