• دوشنبه / ۲۸ آذر ۱۴۰۱ / ۱۲:۴۴
  • دسته‌بندی: فناوری
  • کد خبر: 1401092818933
  • خبرنگار : 71589

هشدار یک گزارش جدید

حملات سایبری هوش مصنوعی در ۵ سال آینده کشنده می‌شوند

حملات سایبری هوش مصنوعی در ۵ سال آینده کشنده می‌شوند

طبق یک مطالعه جدید، حملات سایبری مبتنی بر هوش مصنوعی در جعل هویت، تاکتیکی که اغلب در فیشینگ استفاده می‌شود، حرفه‌ای می‌شوند و می‌توانند آسیب‌رسان باشند.

به گزارش ایسنا و به نقل از سایبرنیوز، یک گزارش تحلیلی سایبری جدید هشدار داده است که حملات سایبری فعال هوش مصنوعی که تاکنون کاملاً محدود بوده‌اند، ممکن است در سال‌های آینده تهاجمی‌تر شوند.

بر اساس این گزارش، شرکت امنیت سایبری و حریم خصوصی WithSecure مستقر در هلسینکی، آژانس حمل و نقل و ارتباطات فنلاند و آژانس تامین اضطراری ملی فنلاند در این گزارش همکاری کرده‌اند.

اندی پاتل پژوهشگر اطلاعاتی شرکت WithSecure می‌گوید: اگرچه محتوای تولید شده توسط هوش مصنوعی برای اهداف مهندسی اجتماعی استفاده شده است، اما تکنیک‌های هوش مصنوعی طراحی شده برای هدایت کمپین‌ها، انجام مراحل حمله یا کنترل منطق بدافزار هنوز در عمل مشاهده نشده است.

این مقاله روندها و پیشرفت‌های کنونی در هوش مصنوعی، حملات سایبری و مناطقی را که این دو با هم تلاقی دارند، مورد بررسی قرار داده است که نشان می‌دهد اتخاذ زودهنگام و تکامل اقدامات پیشگیرانه برای غلبه بر این تهدیدات، کلیدی است.

تهدید در پنج سال آینده

نویسندگان این گزارش ادعا می‌کنند که هک‌های مبتنی بر هوش مصنوعی اکنون بسیار غیر معمول هستند و بیشتر برای اهداف مهندسی اجتماعی استفاده می‌شوند. با این حال، آنها همچنین به روش‌هایی استفاده می‌شوند که تحلیلگران و پژوهشگران نمی‌توانند مستقیماً مشاهده کنند.

اکثر چارچوب‌های فعلی هوش مصنوعی به عقل انسان نزدیک نیستند و نمی‌توانند به طور مستقل حملات سایبری را برنامه‌ریزی کنند یا انجام دهند.

با این حال، مهاجمان سایبری احتمالاً در پنج سال آینده هوش مصنوعی جدیدی ایجاد خواهند کرد که می‌تواند به طور مستقل آسیب‌پذیری‌ها را شناسایی کند، کمپین‌های حمله را برنامه‌ریزی و اجرا کند، از مخفی کاری برای جلوگیری از دفاع استفاده کند و داده‌های سیستم‌های آلوده یا اطلاعات منبع باز را جمع‌آوری یا استخراج کند.

در این گزارش آمده است: حملات مجهز به هوش مصنوعی می‌توانند سریع‌تر اجرا شوند، قربانیان بیشتری را هدف قرار دهند و شعاع حمله بیشتری را نسبت به حملات معمولی پیدا کنند، زیرا ماهیت اتوماسیون هوشمند و این واقعیت که آنها جایگزین وظایف معمول دستی می‌شوند، این است.

بر اساس این مقاله، روش‌های جدیدی برای مبارزه با هک مبتنی بر هوش مصنوعی مورد نیاز است که از اطلاعات مصنوعی، جعل سیستم‌های احراز هویت بیومتریک و سایر قابلیت‌های آینده استفاده می‌کند.

جعل عمیق‌های مبتنی بر هوش مصنوعی

در این گزارش اشاره شده است که حملات مبتنی بر هوش مصنوعی قطعاً در جعل هویت فوق العاده خواهند بود، تاکتیکی که اغلب در حملات سایبری فیشینگ و ویشینگ(فیشینگ صوتی) استفاده می‌شود.

نویسندگان این گزارش پیش‌بینی می‌کنند جعل هویت توسط هوش مصنوعی مبتنی بر جعل عمیق(دیپ‌فیک) نمونه‌ای از قابلیت‌های جدیدی است که هوش مصنوعی برای حملات مهندسی اجتماعی به ارمغان آورده است.

آنها می‌گویند: هیچ فناوری تاکنون قادر به تقلید متقاعد کننده صدا، حرکات و تصویر انسان مورد نظر به نحوی که قربانیان را فریب دهد، وجود نداشته است.

بسیاری از کارشناسان فناوری معتقدند که جعل عمیق بزرگترین نگرانی امنیت سایبری است.

هوش مصنوعی در این زمینه بسیار خوب عمل می‌کند، زیرا از قفل تلفن‌های هوشمند گرفته تا دسترسی به حساب‌های بانکی و پاسپورت‌ها و همچنین تمام پیشرفت‌های فنی اخیر به سمت فناوری‌های بیومتریک رفته است.

با توجه به سرعت توسعه فناوری جعل عمیق، به نظر می‌رسد سیستم‌های امنیتی که عمدتاً به چنین فناوری‌هایی متکی هستند، در معرض خطر بیشتری قرار دارند.

بر اساس این مطالعه در مورد نقض داده‌ها، ۱۲۹۱ نقض داده تا سپتامبر ۲۰۲۱ وجود داشته است که در مقایسه با نقض داده‌ها در سال ۲۰۲۰ که در مجموع ۱۱۰۸ مورد بوده است، افزایش ۱۷ درصدی را نشان می‌دهد.

بر اساس این پژوهش، ۲۸۱ میلیون قربانی به خطر افتادن داده‌ها در ۹ ماه اول سال ۲۰۲۱ کشف شدند که افزایش شدیدی را نشان می‌دهد.

انتهای پیام

  • در زمینه انتشار نظرات مخاطبان رعایت چند مورد ضروری است:
  • -لطفا نظرات خود را با حروف فارسی تایپ کنید.
  • -«ایسنا» مجاز به ویرایش ادبی نظرات مخاطبان است.
  • - ایسنا از انتشار نظراتی که حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های دین مبین اسلام باشد معذور است.
  • - نظرات پس از تأیید مدیر بخش مربوطه منتشر می‌شود.

نظرات

شما در حال پاسخ به نظر «» هستید.
لطفا عدد مقابل را در جعبه متن وارد کنید
captcha