• سه‌شنبه / ۵ دی ۱۴۰۲ / ۲۲:۲۰
  • دسته‌بندی: گزارش و تحلیل
  • کد خبر: 1402100503412
  • خبرنگار : 71129

طرح جدید پنتاگون درباره هوش مصنوعی

طرح جدید پنتاگون درباره هوش مصنوعی

«هوش مصنوعی به یکی از سلاح‌های استراتژیک وزارت دفاع آمریکا برای تقویت عملیات‌های نظامی، تسهیل تصمیم‌گیری، افزایش فعالیت‌های عملکردی در حین مواجهه با موانع فنی و در هنگام واگذاری کنترل سلاح‌های کشنده به انسان، تبدیل شده است.»

به گزارش ایسنا، شبکه خبری اسپوتنیک در گزارشی می‌نویسد: منابع رسانه‌ای گزارش کردند که پنتاگون از طرح جدید و جامعی برای اجرای تحلیل‌های داده‌ای پیشرفته و هوش مصنوعی رونمایی کرده است. این استراتژی بر افزایش بودجه در فناوری‌های مبتنی بر هوش مصنوعی، تجزیه و تحلیل الگوریتمی پیچیده و توسعه سیستم‌های خودمختار مانند پهپادها تاکید می‌کند.

این چارچوب جدید که یک تکرار تکامل یافته از استراتژی اولیه مربوط به سال ۲۰۱۸ است، بازتاب پیش بینی دور اندیشانه وزارت دفاع درباره پتانسیل قابل تغییر هوش مصنوعی در صنایع مختلف و اجرا و تحقق آن در دفاع ملی است. به گفته "کرگ مارتل"، رئیس دفتر امور هوش مصنوعی و دیجیتال وزارت دفاع آمریکا، این سند اصلاح شده شامل گسترش قابل ملاحظه هوش مصنوعی در داخل بخش دفاعی است.

پنتاگون همچنین با ایجاد دفتر اصلی هوش دیجیتال و هوش مصنوعی به اختصار "CDAO" در سال ۲۰۲۱، رویکرد خود را در زمینه مدیریت هوش مصنوعی و با ایجاد نهادهایی مانند "مرکز مشترک هوش مصنوعی"، "سرویس دیجیتال دفاعی"، "پلتفرم داده موسوم به Advana" و "موقعیت افسر ارشد داده" توضیح داده است.

استفاده ارتش آمریکا از هوش مصنوعی اقدامی مناقشه برانگیز به ویژه بابت پتانسیل آن در حیطه‌های ساده سازی و احتمال سوءاستفاده در حملات سایبری و اشاعه اطلاعات نادرست محسوب می‌شود.

"کاتلین هیکس"، معاون وزیر دفاع آمریکا تاکید کرده که بشر همچنان بر تصمیم گیری‌های مربوط به نیروی کشنده و تسلیحات اتمی با وجود ادغام هوش مصنوعی در بازبینی اخیر پنتاگون درباره تسلیحات اتمی، کنترل دارد.

وی همچنین به خطرات بالقوه هوش مصنوعی اشاره و بر کاستن از آنها تاکید کرد.

این رونمایی همزمان با نشست هوش مصنوعی در لندن، با حضور معاون رئیس جمهوری آمریکا کامالا هریس و به دنبال دستور اجرایی جو بایدن، رئیس جمهوری ایالات متحده در مورد امنیت و حریم خصوصی هوش مصنوعی انجام شده است. با وجود تلاش‌های چاک شومر، سناتور آمریکایی کنگره در مورد این موضوع قانونی وضع نکرده است.

پنتاگون ۱.۴ میلیارد دلار برای هوش مصنوعی برای سال مالی ۲۰۲۴ درخواست کرده و سطح بودجه فعلی تا اواسط نوامبر حفظ می‌شود.

گزارش‌های اخیر به ‌دست ‌آمده توسط منابع خبری در مورد اجلاس اخیر هوش مصنوعی، خطرات بالقوه‌ای را نشان می‌دهد که فقط مختص ظهور هوش مصنوعی است. مهمترین این خطرات شامل تکثیر اطلاعات نادرست ناشی از هوش مصنوعی و چشم‌انداز نگران ‌کننده دخالت هوش مصنوعی در سیستم‌های انتخاباتی است.

در ضمن، چنین پیشرفت‌هایی تهدیدی برای عمیق‌تر کردن شکاف‌های اجتماعی و از بین بردن اعتماد در میان مردم جهان است.

یک نگرانی اساسی این است که هوش مصنوعی می‌تواند توسعه تسلیحات بیولوژیکی را تسریع کند یا از محدودیت‌های اقدامات ایمنی فعلی فراتر رود.

در مه سال جاری میلادی گزارش شد که سران صنایع دفاعی هشداری بسیار جدی را مربوط به تهدید موجودی هوش مصنوعی منتشر کنند که با خطرات مربوط به پاندمی‌ها و جنگ اتمی برابری می‌کند. این نگرانی جمعی بر فوریت مدیریت خطرات هوش مصنوعی، به ویژه با توجه به پیشرفت‌های اخیر در مدل‌های زبان بزرگ که باعث ترس از سوء استفاده از آنها در انتشار اطلاعات نادرست و جابجایی شغلی شده است، تاکید دارد.

این توسعه و تحول سریع در حوزه هوش مصنوعی شامل مدل‌های زبانی بزرگ از جمله ChatGPT در سال جاری میلادی در مرکز توجه قرار گرفته اگرچه اینها هنوز استانداردهای وزارت دفاع آمریکا را ندارند.

با این حال، پنتاگون در حال توسعه مدل‌های خود است.

معاون وزیر دفاع آمریکا اذعان کرده که بیش از ۱۸۰ برنامه احتمالی برای هوش مصنوعی در داخل پنتاگون مشخص شده که شامل تحلیل میدانی تا تحلیل و ارزیابی داده‌های محرمانه می‌شود. همچنین تاکنون بیش از ۶۸۵ پروژه مرتبط با هوش مصنوعی توسط دفتر مسئولیت دولتی در اوایل ۲۰۲۱ گزارش شده است.

انتهای پیام

  • در زمینه انتشار نظرات مخاطبان رعایت چند مورد ضروری است:
  • -لطفا نظرات خود را با حروف فارسی تایپ کنید.
  • -«ایسنا» مجاز به ویرایش ادبی نظرات مخاطبان است.
  • - ایسنا از انتشار نظراتی که حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های دین مبین اسلام باشد معذور است.
  • - نظرات پس از تأیید مدیر بخش مربوطه منتشر می‌شود.

نظرات

شما در حال پاسخ به نظر «» هستید.
لطفا عدد مقابل را در جعبه متن وارد کنید
captcha