به گزارش ایسنا، رسانه آمریکایی در مقالهای تأکید میکند که گسترش سریع هوش مصنوعی، بهویژه فناوری «دیپفِیک»، خطرات تازه و بسیار جدیای را وارد فرآیند تصمیمگیری هستهای کرده و میتواند احتمال وقوع جنگ هستهای تصادفی را بهطور چشمگیری افزایش دهد.
نشریه «فارن افرز» مینویسد گرچه کشورهای دارای سلاح هستهای دهههاست تلاش کردهاند از شلیک اشتباهی این سلاحها جلوگیری کنند، اما خطر محاسبه غلط امروز به همان اندازه دوران جنگ سرد جدی است و حتی بهدلیل اطلاعات نادرست مبتنی بر هوش مصنوعی میتواند شدیدتر هم باشد.
نشانههای تاریخی خطای هستهای
رسانه آمریکایی با اشاره به یک نمونه تاریخی یادآوری میکند که جهان پیشتر نیز تا آستانه فاجعه هستهای پیش رفته است. در سال ۱۹۸۳، سامانه هشدار زودهنگام اتحاد جماهیر شوروی بهاشتباه اعلام کرد که آمریکا حمله هستهای را آغاز کرده است. بنا به روایت مقاله، تنها به این دلیل که افسر شیفت، «استانیسلاو پتروف»، این هشدار را نادرست تشخیص داد، از یک ضدحمله ویرانگر جلوگیری شد. نویسنده تأکید میکند اگر تصمیم پتروف متفاوت بود، رهبران شوروی میتوانستند مرگبارترین سلاحهای جهان را علیه ایالات متحده شلیک کنند. این رویداد، بهگفته مقاله، نشان میدهد ثبات هستهای همواره تا چه اندازه شکننده بوده است.
به نوشته فارن افرز، گسترش هوش مصنوعی این خطرات دیرینه را تشدید کرده است. یکی از نگرانیها، امکان واگذاری تصمیم استفاده از سلاح هستهای به ماشینهاست. مقاله یادآور میشود که ایالات متحده رسماً با چنین رویکردی مخالفت کرده و طبق «راهبرد دفاع ملی ۲۰۲۲»، انسان همواره «در حلقه تصمیمگیری» درباره استفاده یا عدم استفاده از سلاح هستهای باقی خواهد ماند. فارن افرز همچنین به توافق اعلامی میان «جو بایدن» رئیسجمهور سابق آمریکا و «شی جینپینگ» رئیسجمهور چین اشاره میکند که بر ضرورت کنترل انسانی بر تصمیم استفاده از سلاح هستهای تأکید کردهاند. با این حال، مقاله هشدار میدهد که حتی بدون واگذاری مستقیم تصمیم به ماشینها، هوش مصنوعی تهدیدهای غیرمستقیم و خطرناکی برای امنیت هستهای ایجاد میکند.
دیپفیکها و خطر تصمیمگیری در شرایط خطا
این مقاله خطر اصلی را در رشد دیپفیکها میداند؛ ویدئوها، تصاویر یا فایلهای صوتی بسیار باورپذیری که برای تولید اطلاعات نادرست بهکار میروند. به نوشته مقاله، این فناوریها پیشتر نیز در عرصه ژئوپلیتیک استفاده شدهاند. از جمله، اندکی پس از آغاز جنگ اوکراین در سال ۲۰۲۲، یک دیپفیک گسترده منتشر شد که در آن رئیسجمهور اوکراین ظاهراً از نیروهایش میخواست سلاحها را زمین بگذارند. همچنین در سال ۲۰۲۳، یک دیپفیک باعث شد عدهای تصور کنند رئیسجمهور روسیه بسیج عمومی اعلام کرده است. مقاله استدلال میکند که چنین جعلهایی در زمینه هستهای میتواند بهمراتب بیثباتکنندهتر باشد.
بر اساس این تحلیل، در بدترین سناریو، یک دیپفیک میتواند رهبر یک کشور دارای سلاح هستهای را متقاعد کند که دشمن حمله نخست را آغاز کرده یا در شرف آغاز آن است. همچنین سامانههای اطلاعاتی پشتیبانیشده با هوش مصنوعی ممکن است هشدارهای نادرستی درباره بسیج نظامی یا حتی حمله با بمب هستهای صادر کنند. در چنین شرایطی، رهبران تنها چند دقیقه فرصت خواهند داشت تا درباره پاسخ هستهای تصمیم بگیرند.
فارن افرز مینویسد دولت کنونی آمریکا بهطور فعال در پی بهکارگیری هوش مصنوعی در زیرساختهای امنیت ملی است، از جمله اقداماتی مانند انتشار یک برنامه عملیاتی برای استفاده «تهاجمی» از هوش مصنوعی در وزارت جنگ و راهاندازی یک پلتفرم جدید مبتنی بر هوش مصنوعی برای کارکنان این وزارتخانه. با این حال، نویسنده هشدار میدهد که ادغام هوش مصنوعی در مراحل اولیه تصمیمگیری هستهای خطرات فوقالعادهای به همراه دارد.
ضرورت حفظ عامل انسانی
به گفته نشریه آمریکایی، سامانههای هوش مصنوعی مستعد پدیدههایی مانند «توهم» و «جعل» هستند؛ یعنی تولید پاسخهای نادرست اما با اعتمادبهنفس بالا. از آنجا که منطق درونی این سامانهها اغلب شفاف نیست، کاربران انسانی ممکن است ندانند چرا یک سیستم به نتیجهای خاص رسیده است. مقاله به پژوهشهایی اشاره میکند که نشان میدهد افراد با آشنایی متوسط با هوش مصنوعی، حتی در حوزه امنیت ملی، به خروجی هوض مصنوعی اعتماد دارند.
فارن افرز هشدار میدهد این وضعیت میتواند به بحرانهای زنجیرهای منجر شود. اگر سامانههای هوش مصنوعی برای تفسیر دادههای هشدار زودهنگام بهکار گرفته شوند، ممکن است حملهای را تشخیص دهند که در واقع وجود ندارد؛ وضعیتی مشابه آنچه پتروف در سال ۱۹۸۳ با آن روبهرو شد، اما با زمان کمتر و ابهام بیشتر. بدون آموزش و سازوکارهای مناسب، مشاوران و تصمیمگیران ممکن است اطلاعات تولیدشده توسط هوش مصنوعی را معتبر فرض کنند.
این مقاله همچنین تأکید میکند دیپفیکهای منتشرشده در فضای مجازی نیز تقریباً به همان اندازه خطرناکاند. یک رهبر ممکن است پس از دیدن یک ویدئوی جعلی، آزمایش موشکی یا رزمایش نظامی را بهاشتباه حمله تلقی کند. بهگفته نشریه آمریکایی، دیپفیکها میتوانند برای آغاز جنگ بهانهتراشی کنند، افکار عمومی را تحریک کنند یا در بحبوحه بحران، سردرگمی ایجاد کنند.
در عین حال، فارن افرز میپذیرد که هوش مصنوعی کاربردهای مشروعی در حوزه نظامی دارد؛ از لجستیک و نگهداری گرفته تا ترجمه و تحلیل تصاویر ماهوارهای. اما نویسنده تأکید میکند برخی حوزهها، بهویژه سامانههای هشدار زودهنگام هستهای و فرماندهی و کنترل هستهای، باید کاملاً از دسترس هوش مصنوعی دور بمانند. به نوشته این مقاله، کمبود دادههای واقعی درباره حملات هستهای باعث میشود آموزش امن چنین سامانههایی تقریباً ناممکن باشد و خطر خطا بسیار بالا برود.
فارن افرز هشدار میدهد که دیپفیکها و اطلاعات نادرست مبتنی بر هوش مصنوعی، خطرات بیسابقهای برای سامانههای هستهای ایجاد کردهاند؛ بنابراین سیاستها باید بهصراحت تضمین کنند که ماشینها هرگز بدون کنترل انسانی تصمیم به شلیک هستهای نخواهند گرفت و همه کشورهای دارای سلاح هستهای باید به این اصل پایبند باشند. بهگفته نویسنده، اگر چنین ملاحظاتی جدی گرفته نشود، هوش مصنوعی میتواند جهان را به سوی فاجعهای برگشتناپذیر سوق دهد.
انتهای پیام