• یکشنبه / ۳۰ اردیبهشت ۱۴۰۳ / ۰۸:۲۴
  • دسته‌بندی: هوش مصنوعی
  • کد خبر: 1403023021596
  • خبرنگار : 71654

استعفای رئیس گروه حفاظت از بشریت «اُپن‌ای‌آی»

استعفای رئیس گروه حفاظت از بشریت «اُپن‌ای‌آی»

رئیس گروه حفاظت از بشریت شرکت هوش مصنوعی اُپن ای‌آی با بیان این که نگرانی‌های ایمنی اهمیت خود را در برابر محصولات پر زرق و برق از دست داده‌اند، از سمت خود استعفا داد.

به گزارش ایسنا، در تابستان سال ۲۰۲۳، شرکت هوش مصنوعی اُپن‌ای‌آی(OpenAI) یک گروه ابرتنظیم(Superalignment) ایجاد کرد که هدف آن هدایت و کنترل سیستم‌های هوش مصنوعی آینده بود که می‌توانند آنقدر قدرتمند باشند که منجر به انقراض بشر شوند. کمتر از یک سال بعد، این گروه منحل شد.

به نقل از انگجت، اُپن ای‌آی به بلومبرگ گفته است که این شرکت در حال ادغام گروه در تلاش‌های تحقیقاتی خود برای کمک به شرکت در دستیابی به اهداف ایمنی خود است. اما مجموعه‌ای از توییت‌های جان لیک(Jan Leike)، یکی از رهبران تیم که به تازگی استعفا داده، تنش‌های داخلی بین تیم ایمنی و شرکت را فاش کرده است.

در بیانیه‌ای که در روز جمعه در شبکه اجتماعی ایکس منتشر شد، لیک گفت که تیم ابرتنظیم برای بدست آوردن منابع برای انجام تحقیقات مبارزه کرده است. او نوشت: ساخت دستگاه‌های هوشمندتر از انسان، یک تلاش ذاتا خطرناک است. اُپن ای‌آی ‌مسئولیت بزرگی را از طرف تمام بشریت بر عهده دارد. اما در طول سال‌های گذشته، فرهنگ ایمنی و فرآیندها اهمیت خود را از دست داده است.

انتهای پیام

  • در زمینه انتشار نظرات مخاطبان رعایت چند مورد ضروری است:
  • -لطفا نظرات خود را با حروف فارسی تایپ کنید.
  • -«ایسنا» مجاز به ویرایش ادبی نظرات مخاطبان است.
  • - ایسنا از انتشار نظراتی که حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های دین مبین اسلام باشد معذور است.
  • - نظرات پس از تأیید مدیر بخش مربوطه منتشر می‌شود.

نظرات

شما در حال پاسخ به نظر «» هستید.
لطفا عدد مقابل را در جعبه متن وارد کنید
captcha