• سه‌شنبه / ۲۰ فروردین ۱۳۹۸ / ۱۵:۵۶
  • دسته‌بندی: فناوری
  • کد خبر: 98012007672
  • خبرنگار : 71589

دستورالعمل اتحادیه اروپا برای توسعه اخلاقی هوش مصنوعی منتشر شد

دستورالعمل اتحادیه اروپا برای توسعه اخلاقی هوش مصنوعی منتشر شد

اتحادیه اروپا به منظور تشویق کشورهای عضو به توسعه اخلاق‌مدارانه هوش مصنوعی یک دستورالعمل هفت بندی را منتشر کرده است.

به گزارش ایسنا و به نقل از انگجت، توسعه هیچ‌یک از فناوری‌های امروزی به اندازه توسعه هوش مصنوعی، نگرانی‌های اخلاقی و حتی ترس را برنمی‌انگیزد و فقط شهروندان عادی نیستند که نگران این مسئله هستند، بلکه شرکت‌های فیسبوک، گوگل و دانشگاه استنفورد با تأسیس مراکز تحقیقاتی اخلاق هوش مصنوعی روی آن سرمایه‌گذاری کرده‌اند.

اواخر سال گذشته کانادا و فرانسه برای ایجاد یک پیمان بین‌المللی برای بحث در مورد مسئولیت هوش مصنوعی همکاری کردند. امروز نیز کمیسیون اروپا دستورالعمل خود را که خواستار "هوش مصنوعی قابل اعتماد" است، منتشر کرد.

با توجه به این دستورالعمل اتحادیه اروپا، هوش مصنوعی باید به اصول پایه اخلاقی و احترام به استقلال بشر، پیشگیری از آسیب، عدالت و پاسخگویی پایبند باشد. این دستورالعمل شامل هفت الزام ذکر شده در زیر می‌شود و توجه ویژه‌ای به محافظت از قشرهای آسیب پذیر مانند کودکان و افراد معلول دارد. همچنین می‌گوید که شهروندان باید کنترل کاملی روی اطلاعات خود داشته باشند.

کمیسیون اروپا توصیه می‌کند که در هنگام توسعه یا استقرار هوش مصنوعی از یک فهرست ارزیابی استفاده شود، اما این دستورالعمل به معنای دخالت در سیاست یا مقررات شرکت‌ها نیست. در عوض یک چارچوب کلی ارائه می‌دهد.

کمیسیون اروپا در تابستان پیش رو تلاش خواهد کرد تا مناطقی را شناسایی کند که در آن راهنمایی‌های اضافی ممکن است لازم باشد و چگونگی به کارگیری این دستورالعمل و توصیه‌های خود را بهتر می‌کند.

در اوایل سال ۲۰۲۰ نیز گروهی از متخصصان بازخورد این مرحله آزمایشی را بررسی خواهند کرد. همانطور که پتانسیل ساختن چیزهایی مانند سلاح‌های خودکار و الگوریتم‌های تولید اخبار جعلی توسعه می‌یابند، دولت‌ها باید بیشتر در زمینه نگرانی‌های اخلاقی موضع‌گیری کنند.

خلاصه‌ای از دستورالعمل اتحادیه اروپا در زیر آمده است:

-سازمان‌های انسانی و نظارت: سیستم‌های هوش مصنوعی باید با حمایت از سازمان‌های انسانی و حقوق بنیادین آنها برابری را رعایت کنند و موجب کاهش، محدود کردن یا نادیده گرفتن استقلال بشر نشوند.

-استحکام و ایمنی: یک هوش مصنوعی قابل اطمینان به الگوریتم‌های امن، قابل اعتماد و قوی برای مقابله با اشتباهات و یا عدم انطباق در تمام مراحل چرخه حیات سیستم‌های هوش مصنوعی نیاز دارد.

-حفظ حریم خصوصی و کنترل داده‌ها: شهروندان باید کنترل کامل بر داده‌های خود داشته باشند تا داده‌های مربوط به آنها به منظور آسیب رساندن و یا تبعیض علیه آنها مورد استفاده قرار نگیرد.

-شفافیت: از ردیابی سیستم‌های هوش مصنوعی باید اطمینان حاصل شود.

-تنوع، عدم تبعیض و انصاف: سیستم‌های هوش مصنوعی باید طیف وسیعی از توانایی‌ها، مهارت‌ها و الزامات انسانی را در نظر بگیرند و دسترسی آزاد را تضمین کنند.

-رفاه اجتماعی و محیط‌زیست: سیستم‌های هوش مصنوعی باید برای تقویت تغییرات مثبت اجتماعی و افزایش پایداری و مسئولیت زیست‌محیطی مورد استفاده قرار گیرند.

-مسئولیت پذیری: باید مکانیزم‌هایی برای اطمینان از پاسخگویی و مسئولیت پذیری سیستم‌های هوش مصنوعی و نتایج آنها ایجاد شود.

انتهای پیام

  • در زمینه انتشار نظرات مخاطبان رعایت چند مورد ضروری است:
  • -لطفا نظرات خود را با حروف فارسی تایپ کنید.
  • -«ایسنا» مجاز به ویرایش ادبی نظرات مخاطبان است.
  • - ایسنا از انتشار نظراتی که حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های دین مبین اسلام باشد معذور است.
  • - نظرات پس از تأیید مدیر بخش مربوطه منتشر می‌شود.

نظرات

شما در حال پاسخ به نظر «» هستید.
لطفا عدد مقابل را در جعبه متن وارد کنید
captcha