• سه‌شنبه / ۲۸ شهریور ۱۴۰۲ / ۰۹:۵۳
  • دسته‌بندی: ارتباطات و فناوری اطلاعات
  • کد خبر: 1402062817154
  • خبرنگار : 71263

گاف امنیتی محققان هوش مصنوعی مایکروسافت

گاف امنیتی محققان هوش مصنوعی مایکروسافت

تیم تحقیقات هوش مصنوعی مایکروسافت، حجم عظیمی از داده‌های شخصی را تصادفی در پلتفرم توسعه نرم افزار گیت هاب، افشا کردند.

به گزارش ایسنا، تحقیقات جدید شرکت امنیت سایبری «ویز» (Wiz) نشان داد داده‌های میزبانی شده در ابر، در پلتفرم آموزش هوش مصنوعی گیت هاب از طریق لینکی که پیکربندی اشتباهی داشت، افشا شده‌اند. این داده‌ها توسط تیم تحقیقات مایکروسافت در هنگام انتشار داده‌های آموزش کد باز در گیت هاب، درز کردند.

طبق یک پست وبلاگ «ویز»، از کاربران این پلتفرم خواسته شد تا مدل‌های هوش مصنوعی را از یک URL ذخیره‌سازی ابری دانلود کنند اما برای اعطای مجوز به کل حساب ذخیره سازی، این لینک به اشتباه پیکربندی شده بود و همچنین، به کاربران اجازه کنترل کامل را داد و در نتیجه، آنها به جای این که فقط قادر به خواندن داده‌ها باشند، می‌توانستند فایل‌های موجود را حذف و بازنویسی کنند. داده‌های افشا شده شامل پشتیبان‌گیری از رایانه شخصی کارکنان مایکروسافت بود که حاوی رمزهای عبور خدمات مایکروسافت، کلیدهای مخفی و بیش از ۳۰ هزار پیام داخلی تیم مایکروسافت از ۳۵۹ کارمند مایکروسافت بوده است.

به گفته محققان «ویز»، اشتراک‌گذاری داده‌های باز، یکی از اجزای کلیدی آموزش هوش مصنوعی است، اما به اشتراک‌گذاری مقادیر بیشتر داده، در صورت به اشتراک‌گذاری نادرست، شرکت‌ها را در معرض ریسک بزرگ‌تری قرار می‌دهد.

امی لوتواک، مدیر فناوری ارشد و یکی از موسسان شرکت «ویز» در این باره گفت: «ویز»  داده‌ها را در ژوئن با مایکروسافت در میان گذاشت و این شرکت نرم افزاری، سریعا به حذف داده‌های افشا شده اقدام کرد. وی افزود: این واقعه می‌توانست بدتر هم باشد.

بر اساس گزارش بلومبرگ، مایکروسافت در یک پست وبلاگ اعلام کرد درباره این واقعه تحقیق کرده است و داده‌های افشا شده در حساب ذخیره‌سازی، شامل نسخه‌های پشتیبان از پروفایل دستگاه دو کارمند سابق و پیام‌های تیم‌های داخلی مایکروسافت این دو کارمند با همکارانشان بوده است.

انتهای پیام

  • در زمینه انتشار نظرات مخاطبان رعایت چند مورد ضروری است:
  • -لطفا نظرات خود را با حروف فارسی تایپ کنید.
  • -«ایسنا» مجاز به ویرایش ادبی نظرات مخاطبان است.
  • - ایسنا از انتشار نظراتی که حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های دین مبین اسلام باشد معذور است.
  • - نظرات پس از تأیید مدیر بخش مربوطه منتشر می‌شود.

نظرات

شما در حال پاسخ به نظر «» هستید.
لطفا عدد مقابل را در جعبه متن وارد کنید
captcha