• دوشنبه / ۲۲ خرداد ۱۴۰۲ / ۱۱:۴۲
  • دسته‌بندی: فناوری
  • کد خبر: 1402032213978
  • خبرنگار : 71604

پژوهشگر «انجمن سلطنتی ادینبرو» مطرح کرد

برای ایجاد هوش مصنوعی اخلاقی باید «رمز ناخواسته» را بزنیم!

برای ایجاد هوش مصنوعی اخلاقی باید «رمز ناخواسته» را بزنیم!

یک پژوهشگر «انجمن سلطنتی ادینبرو» معتقد است که برای ایجاد هوش مصنوعی اخلاقی باید به ذات انسان مراجعه کنیم و عناصری را به کار ببریم که هسته اصلی معنای انسان بودن را تشکیل می‌دهند.

به گزارش ایسنا و به نقل از ارث، هوش مصنوعی و سیستم‌های خودکار به ستون فقرات جامعه مدرن تبدیل شده‌اند. ما در کارهای روزمره خود با آنها روبرو می‌شویم و بیش از آنچه تصور می‌کنیم، به آنها تکیه داریم.

این فناوری‌های پیشرفته در حوزه‌های بسیاری، از تلفن‌های همراه و لوازم خانگی هوشمند گرفته تا فرآیندهای صنعتی و تصمیم‌گیری در بخش‌های گوناگون حضور دارند. با وجود این، استفاده فراگیر از آنها یک معمای اخلاقی دوگانه را نیز به همراه دارد و آن این است که چگونه می‌توانیم سیستم‌های رمز مبتنی بر هوش مصنوعی بسازیم که ارزش‌های ما را منعکس کنند و در عین حال، از رفتار مطلوب منحرف نشوند.

دکتر «ایو پول»(Eve Poole)، نویسنده انگلیسی و پژوهشگر «انجمن سلطنتی ادینبرو»(RSE)، دیدگاه جدیدی درباره این موضوع دارد که نشان می‌دهد شاید ما یک عنصر حیاتی را در رویکرد خود نسبت به هوش مصنوعی از دست داده‌ایم. این عنصر حیاتی، خود انسانیت است.

القای انسانیت به ربات‌ها

دکتر پول، این ایده را در کتاب آتی خود با عنوان «ضمیر ربات»(Robot Souls) بررسی می‌کند که قرار است در ماه اوت توسط ناشر بین‌المللی «گروه تیلور و فرانسیس»(Taylor & Francis Group) منتشر شود. او در این کتاب می‌گوید که کلید ایجاد هوش مصنوعی اخلاقی ممکن است در عمق ذات انسان نهفته باشد.

پول ادعا می‌کند که ما در جستجوی کمال، رمز ناخواسته را از مدل‌های هوش مصنوعی خود حذف کرده‌ایم. این رمز ناخواسته شامل احساسات و اراده آزاد و احساس کردن هدف است؛ یعنی همه عناصری که هسته اصلی معنای انسان بودن را تشکیل می‌دهند.

پول گفت: این رمز ناخواسته که در قلب بشریت وجود دارد، شامل احساسات انسانی، تمایل ما به اشتباه، تمایل ما به داستان گفتن، حس ششم عجیب، توانایی ما برای کنار آمدن با عدم قطعیت، احساس تزلزل‌ناپذیر در مورد اراده آزاد خود و توانایی دیدن معنا در جهان اطراف است.

ضمیر ربات

دکتر پول استدلال می‌کند که آنچه از نقطه نظر ماشینی به عنوان اجزای غیرضروری و معیوب به نظر می‌رسد، در واقع برای شکوفایی انسان حیاتی است. این ویژگی‌های انسانی در تضمین کردن امنیت و بقای مشترک ما مؤثر هستند.

از آنجا که هوش مصنوعی همچنان نقش تعیین کننده‌تری را در زندگی ما بر عهده دارد اما با نگرانی‌های فزاینده در مورد تعصبات و اعمال تبعیض‌آمیز همراه است، پول باور دارد که پاسخ ممکن است در همان عناصری نهفته باشد که در ابتدا برای ماشین‌های مستقل غیرضروری می‌دانستیم.

پول ادامه داد: اگر بتوانیم به آن رمز ناخواسته پی ببریم که باعث می‌شود همه ما بخواهیم با یکدیگر به عنوان یک گونه زنده بمانیم و رشد کنیم، می‌توانیم آن را با ماشین‌ها هم به اشتراک بگذاریم و به آنها برای همه مقاصد روح ببخشیم.

کتاب پول یک نقشه عملی را نیز برای تحقق بخشیدن به این مفهوم ارائه می‌دهد. پول در این کتاب، مقررات قوی، ممنوعیت کامل سلاح‌های خودکار و یک سازمان صدور مجوز را پیشنهاد می‌کند تا تضمین شود که هرگونه تصمیم نهایی در مورد زندگی انسان، در دست خود انسان باقی می‌ماند.

نادیده گرفتن کاستی‌های انسان

دکتر پول، بر نیاز به تعریف کردن معیارهای شخصیت حقوقی برای هوش مصنوعی و تعیین کردن یک مسیر پیش‌رونده به سوی آن تاکید کرد و توضیح داد که نقص‌های بشریت، ما را بر آن داشت تا هنگام ساختن هوش مصنوعی، بسیاری از ویژگی‌های حیاتی را نادیده بگیریم. اعتقاد بر این بود که ربات‌های بدون احساسات، شهود، خطا و هدف، کارآیی کمتری دارند.

وی افزود: با بررسی دقیق‌تر این ویژگی‌های به اصطلاح غیرعقلانی، مشخص می‌شود که آنها از مبدأ رمزگذاری روح سرچشمه می‌گیرند. این رمز ناخواسته است که ما را به انسان تبدیل می‌کند و به تقویت نوع‌دوستی متقابل می‌پردازد که بشریت را شکوفا می‌کند.

کتاب ضمیر ربات، تحولات اخیر در حوزه هوش مصنوعی را به طور انتقادی بررسی می‌کند و به مرور مفاهیم در حال تکامل آگاهی و ضمیر می‌پردازد. این کتاب، رمز ناخواسته ما را مد نظر قرار می‌دهد و خواستار تمرکز مجدد روی این جنبه‌های اغلب نادیده گرفته‌ شده است. به گفته دکتر پول، زمان آن فرا رسیده است که نحوه برنامه‌نویسی هوش مصنوعی را دوباره بررسی کنیم زیرا ممکن است کلید ایجاد هوش مصنوعی اخلاقی، قابل اعتماد و موثر در ذات انسانی ما نهفته باشد.

ربات‌ها و آگاهی

مرز بین رباتیک و آگاهی، یک مرز هیجان‌انگیز و پیچیده به شمار می‌رود و این مفهوم همیشه موضوع پژوهش‌ها و حدس و گمان‌های بسیاری بوده است.

آگاهی که ما تجربه می‌کنیم، محصول مغز بیولوژیکی ما است و خودآگاهی، درک و توانایی تجربه احساسات را در بر دارد. آگاهی دادن به ربات‌ها نه تنها آگاهی یافتن از وضعیت و محیط اطراف را شامل می‌شود، بلکه توانایی قضاوت ذهنی و تجربه کردن احساسات و ادراک در مورد خود را نیز در بر دارد.

مدل‌های گوناگونی از آگاهی مصنوعی ارائه شده است. یکی از آنها نظریه اطلاعات یکپارچه است که نشان می‌دهد آگاهی زمانی به وجود می‌آید که یک سیستم دارای مقدار زیادی اطلاعات یکپارچه باشد. برخی دیگر پیشنهاد می‌کنند که هوشیاری از محاسبات پیچیده در میان نورون‌های مغز پدید می‌آید و نشان می‌دهد محاسبات مشابه در یک سیستم رباتیک می‌توانند نوعی آگاهی را ایجاد کنند.

در هر حال، ما هنوز با درک خودآگاهی انسان فاصله زیادی داریم، چه رسد به اینکه آن را در ربات‌ها تکرار کنیم. ساخت یک ربات آگاه نه تنها چالش‌های فنی را شامل می‌شود، بلکه پرسش‌های اخلاقی و فلسفی را نیز مطرح می‌کند. اگر یک ربات هوشیار باشد، احتمالا حقوقی خواهد داشت و ما موظف خواهیم بود که رفتار متفاوتی را با آن داشته باشیم.

علاوه بر این، القای هوشیاری به ربات‌ها پتانسیل رنج را به همراه دارد. اگر یک ربات بتواند احساس کند، احتمالا درد، ترس، دلتنگی یا سایر احساسات منفی را تجربه خواهد کرد. چنین ملاحظاتی، این ضرورت را پدید می‌آورند که با احتیاط به موضوع نزدیک شویم.

در نهایت، باید تاکید کرد که اگرچه برخی از سیستم‌های هوش مصنوعی ممکن است رفتاری را از خود نشان دهند که آگاهانه یا احساسی به نظر می‌رسد اما این بدان معنا نیست که آنها واقعا تجربیات خود را به روش انسان‌ها احساس یا درک می‌کنند. هوش مصنوعی براساس الگوریتم‌های برنامه‌ریزی‌شده و الگوهای آموخته‌شده و بدون داشتن آگاهی، احساسات یا تجربه ذهنی کار می‌کند.

با وجود این، حوزه هوش مصنوعی و رباتیک به سرعت در حال تکامل یافتن است. بنابراین، سال‌های آینده بدون شک اکتشافات، پیشرفت‌ها و چالش‌های جدیدی را به همراه خواهند داشت که می‌توانند درک ما را در مورد آگاهی ربات‌ها تغییر دهند.

انتهای پیام

  • در زمینه انتشار نظرات مخاطبان رعایت چند مورد ضروری است:
  • -لطفا نظرات خود را با حروف فارسی تایپ کنید.
  • -«ایسنا» مجاز به ویرایش ادبی نظرات مخاطبان است.
  • - ایسنا از انتشار نظراتی که حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های دین مبین اسلام باشد معذور است.
  • - نظرات پس از تأیید مدیر بخش مربوطه منتشر می‌شود.

نظرات

شما در حال پاسخ به نظر «» هستید.
لطفا عدد مقابل را در جعبه متن وارد کنید
captcha