• دوشنبه / ۱۲ تیر ۱۴۰۲ / ۱۲:۳۰
  • دسته‌بندی: فناوری
  • کد خبر: 1402041207222
  • خبرنگار : 71589

پدرخوانده هوش مصنوعی:

هوش مصنوعیِ خوب بر بد پیروز نمی‌شود

هوش مصنوعیِ خوب بر بد پیروز نمی‌شود

جفری هینتون دانشمند پیشگام در حوزه هوش مصنوعی که لقب پدرخوانده هوش مصنوعی را یدک می‌کشد، در جدیدترین اظهارات خود گفته که هنوز متقاعد نشده است که هوش مصنوعیِ خوب بر هوش مصنوعیِ بد پیروز می‌شود و به آینده‌ی این فناوری خوش‌بین نیست.

به گزارش ایسنا، جفری هینتون، استاد دانشگاه تورنتو که اغلب به دلیل تحقیقات پیشگامانه‌اش در زمینه شبکه‌های عصبی، «پدرخوانده هوش مصنوعی» نامیده می‌شود، اخیراً به صف هشدار دهندگان در مورد پیشرفت بالقوه خطرناک این فناوری پیوسته است.

او اواسط اردیبهشت ماه کار خود را در گوگل رها کرد تا آزادانه‌تر حوزه‌ای را که به پیشگامی آن کمک کرده بود، نقد کند.

هینتون عمر خود را وقف مطالعه شبکه‌های عصبی کرده است که اغلب، کلید هوش مصنوعی هستند، اما بیشتر به خاطر توسعه یک سیستم تشخیص اشیا در سال ۲۰۱۲ شناخته می‌شود. شبکه عصبی موفق او می‌تواند از تصاویر آموزشی برای کمک به تشخیص اشیای رایج استفاده کند.

هینتون پیشرفت و افزایش اخیر هوش مصنوعی‌های مولد مانند ChatGPT و Bing Chat را نشانه‌هایی از شتاب غیرقابل کنترل و بالقوه خطرناک در توسعه این فناوری دانست.

وی در روزهای اخیر در کنفرانسی موسوم به کالیژن(Collision) که در تورنتو برگزار شد، نگرانی‌های خود را تشریح کرده است.

در حالی که شرکت‌ها هوش مصنوعی را به عنوان راه حلی برای همه چیز می‌دانند و آن را تبلیغ می‌کنند، جفری هینتون زنگ خطر را به صدا درآورده است. او می‌گوید متقاعد نشده است که هوش مصنوعیِ خوب بر هوش مصنوعیِ بد پیروز شود و معتقد است که سازگاری اخلاقی هوش مصنوعی ممکن است هزینه زیادی داشته باشد.

گذشتن از گوگل برای آزادی بیان

گوگل در سال ۲۰۱۳ استارتاپ DNNresearch متعلق به جفری هینتون را خریداری کرد و مفهوم زیربنایی اختراع او به رشد موجی از توسعه کمک کرد که منجر به فناوری هوش مصنوعی مولد امروزی شد.

اما جفری هینتون در ماه آوریل از سمت معاونت و رئیس مهندسی گوگل استعفا داد تا بتواند آزادانه در مورد خطرات مرتبط با این فناوری هشدار دهد.

این پژوهشگر نگران است که گوگل در تلاش برای رقابت با ربات‌های هوش مصنوعی نظیر ChatGPT، Bing Chat و مدل‌های مشابه، محدودیت‌ها و احتیاط‌های قبلی خود را برای توسعه هوش مصنوعی کنار بگذارد و راه را به روی مشکلات اخلاقی متعدد باز کند.

هینتون نگران است که هوش مصنوعی مولد در کوتاه مدت بتواند به موجی از اطلاعات نادرست دامن بزند. وی می‌گوید: شاید دیگر نتوانید بدانید چه چیزی درست است. او همچنین نگران است که این فناوری نه تنها برخی کارها را حذف کند، بلکه به طور کامل جایگزین برخی از مشاغل شود.

این دانشمند همچنین در مورد امکان توسعه سلاح‌های کاملاً خودمختار و تمایل مدل‌های هوش مصنوعی به یادگیری رفتارهای عجیب و غریب از داده‌های آموزشی نگران است.

جفری هینتون می‌گوید سال گذشته زمانی که شرکت‌های گوگل، OpenAI و دیگران شروع به ایجاد سیستم‌های هوش مصنوعی کردند، موضع او تغییر کرده است. هوش مصنوعی تنها در پنج سال گذشته به سرعت توسعه یافته است که به گفته پدرخوانده این حوزه، تصور اینکه در پنج سال آینده چه اتفاقی می‌افتد، «ترسناک» است.

هوش مصنوعیِ خوب بر بد پیروز نمی‌شود

تهدیدی برای بشریت

هینتون مدعی است که هوش مصنوعی تنها به اندازه افرادی که آن را می‌سازند، خوب است و نوعِ بد آن هنوز هم می‌تواند بر نمونه‌ی خوب آن پیروز شود.

وی توضیح داد: من متقاعد نشده‌ام که بتوانم یک هوش مصنوعی خوب را که تلاش می‌کند جلوی بدی را بگیرد، کنترل کنم. برای مثال، ممکن است دشوار باشد که یک مجتمع نظامی-صنعتی را از تولید ربات‌های جنگی بازدارید.

او می‌گوید شرکت‌ها و ارتش‌ها ممکن است جنگ‌هایی را دوست داشته باشند که تلفات در آنها، ماشین‌هایی هستند که به راحتی می‌توان آنها را جایگزین کرد.

در حالی که هینتون معتقد است که مدل‌های زبانی بزرگ(هوش مصنوعی آموزش‌دیده که متنی شبیه به انسان تولید می‌کند، مانند GPT-۴ توسعه یافته توسط شرکت OpenAI) می‌تواند منجر به افزایش چشمگیر بهره‌وری شود، اما او نگران است که طبقه حاکم به سادگی از این مزیت برای غنی‌سازی خود سوءاستفاده کند و شکاف ثروت بزرگ کنونی را بیشتر کند. هینتون می‌گوید این امر «ثروتمندان را ثروتمندتر و فقرا را فقیرتر می‌کند».

هینتون همچنین دیدگاه خود را که بسیار نقل قول شده بود، تکرار کرد. او می‌گوید هوش مصنوعی می‌تواند خطری برای موجودیت بشریت ایجاد کند. اگر هوش مصنوعی از انسان باهوش‌تر شود، هیچ تضمینی وجود ندارد که مردم در راس کار باقی بمانند.

هینتون افزود: اگر هوش مصنوعی تصمیم بگیرد که در دست گرفتن اختیار امور برای دستیابی به اهدافش ضروری است، ما به مشکل می‌خوریم.

از نظر هینتون، این تهدیدها، علمی-تخیلی نیستند. آنها باید جدی گرفته شوند. او نگران است که جامعه وقتی به فکر چاره بیافتد که دیر شده است.

هینتون می‌گوید در حال حاضر مشکلات زیادی وجود دارد. او استدلال می‌کند که سوگیری و تبعیض همچنان یک مشکل اساسی است، زیرا داده‌های آموزشی نادرست می‌تواند نتایج ناعادلانه‌ای ایجاد کند. الگوریتم‌ها نیز اتاق‌های پژواک ایجاد می‌کنند که اطلاعات نادرست و مسائل مربوط به سلامت روان را تقویت می‌کنند.

در رسانه‌های خبری، لفظ اتاق پژواک تمثیلی از اتاق پژواک صوتی است که در آن صدا در فضایی بسته منعکس می‌شود. اتاق پژواک توصیفی کنایی از وضعیتی است که در آن اطلاعات، ایده‌ها یا باورها با ارتباطات و تکرار درون یک سامانه تعریف شده تقویت می‌شوند. درون یک اتاق پژواک تمثیلی، منابع رسمی غالباً زیر سؤال نمی‌روند و دیدگاه‌های متفاوت یا رقیب سانسور، ممنوع یا کمتر از حد، پوشش داده می‌شوند.

هینتون همچنین نگران انتشار اطلاعات نادرست توسط هوش مصنوعی فراتر از اتاق‌های پژواک است. او مطمئن نیست که آیا بتوان هر ادعای جعلی هوش مصنوعی را تمیز داد.

این بدان معنا نیست که هینتون از تأثیر هوش مصنوعی ناامید شده است، اگرچه او هشدار می‌دهد که استفاده سالم از این فناوری ممکن است هزینه بالایی داشته باشد. انسان‌ها ممکن است مجبور باشند کار آزمایشی و تجربی را برای درک اینکه چگونه هوش مصنوعی ممکن است اشتباه کند و این که چگونه از در دست گرفتن کنترل توسط آن جلوگیری کنند، انجام دهند.

وی می‌گوید در حال حاضر تصحیح سوگیری‌ها امکان‌پذیر است. یک مدل زبانی بزرگ می‌تواند به اتاق‌های پژواک پایان دهد، اما تغییرات در سیاست‌های شرکت را بسیار مهم می‌دانم.

این استاد دانشگاه در پاسخ به سوالاتی در مورد افرادی که شغل خود را به خاطر اتوماسیون و ماشینی شدن از دست می‌دهند، گفت که احساس می‌کند «سوسیالیسم» یا جامعه‌گرایی برای رسیدگی به نابرابری مورد نیاز است و مردم می‌توانند با انتخاب مشاغلی که می‌تواند با گذشت زمان تغییر کند، مانند لوله‌کشی، از بیکاری در امان بمانند. به نظر می‌رسد او شوخی نمی‌کند و معتقد است که جامعه ممکن است مجبور باشد تغییرات گسترده‌ای برای انطباق با هوش مصنوعی در خود ایجاد کند.

شایان ذکر است که هینتون در این موضع‌گیری، تنها نیست. تعدادی از دانشگاهیان و افراد برجسته در حوزه فناوری از جمله ایلان ماسک و استیو وزنیاک نیز اخیراً نامه‌ای سرگشاده امضا و منتشر کرده‌اند که در آن خواستار توقف شش ماهه توسعه هوش مصنوعی برای رسیدگی به مشکلات اخلاقی و ایمنی آن شده‌اند. با این حال، سخنان هینتون به عنوان یکی از برجسته‌ترین چهره‌های این صنعت، وزن قابل توجهی دارد.

هوش مصنوعیِ خوب بر بد پیروز نمی‌شود

امیدواری به صنعت هوش مصنوعی

برخی دیگر از مصاحبه‌ها در کنفرانس کالیژن(Collision) امیدوارکننده‌تر بود. کالین مورداک، مدیر بازرگانی گوگل دیپ‌مایند در یک بحث متفاوت گفت که هوش مصنوعی در حال حل برخی از سخت‌ترین چالش‌های جهان است.

وی گفت صحبت زیادی در این زمینه نمی‌شود. گوگل دیپ‌مایند در حال فهرست‌بندی تمام پروتئین‌های شناخته شده، مبارزه با باکتری‌های مقاوم به آنتی‌بیوتیک و حتی تسریع کار بر روی توسعه واکسن‌های مالاریا است.

او از چیزی به عنوان «هوش مصنوعی عمومی» سخن به میان آورد که می‌تواند چندین مشکل را حل کند و به عنوان نمونه به محصولات گوگل اشاره کرد. وی گفت: ابزار Lookout برای توصیف عکس‌ها مفید است، اما فناوری زیربنایی آن باعث می‌شود جستجو در YouTube Shorts نیز امکان‌پذیر شود.

مورداک تا آنجا پیش رفت که از ۶ تا ۱۲ ماه گذشته به عنوان نقطه عطف در شکوفایی هوش مصنوعی نام برد که پتانسیل آن آزاد شده است.

مورگان مک‌گوایر، دانشمند ارشد روبلوکس(Roblox) –سکویی جهانی که افراد را از طریق بازی دور هم جمع می‌کند- تا حد زیادی با این موضوع موافق است. او معتقد است که ابزارهای هوش مصنوعی مولدِ سکوی بازی، شکاف را بین سازندگان جدید و پیشکسوتان کم کرده و نوشتن کد و ایجاد مواد درون بازی را آسان‌تر می‌کنند.

روبلوکس حتی در حال عرضه یک مدل هوش مصنوعی منبع‌باز به نام StarCoder است که امیدوار است با در دسترس‌تر کردن مدل‌های زبانی بزرگ به دیگران کمک کند.

در حالی که مک‌گوایر در یک بحث به چالش‌هایی در مورد مقیاس‌بندی و تعدیل محتوا اذعان کرد، اما او معتقد است که متاورس به لطف مجموعه خلاقانه‌اش، امکانات نامحدودی خواهد داشت.

مورداک و مک‌گوایر هر دو نگرانی‌های مشابهی را با هینتون ابراز کردند، اما لحن آنها قطعاً کمتر هشداردهنده بود.

مورداک تاکید کرد که دیپ‌مایند خواهان یک هوش مصنوعی ایمن، اخلاقی و فراگیر است و به مشاوره‌های تخصصی و سرمایه‌گذاری‌های آموزشی گوگل دیپ‌مایند به عنوان مدرک اشاره کرد. وی اصرار دارد که راه برای وضع مقررات باز است، اما فقط تا جایی که اجازه پیشرفت‌های شگفت‌انگیز را بدهد.

مک‌گوایر نیز گفت که روبلوکس همیشه ابزارهای هوش مصنوعی مولد را با تعدیل محتوا عرضه می‌کند، بر مجموعه‌های داده‌ای متنوع تکیه می‌کند و شفافیت را تمرین می‌کند.

هوش مصنوعیِ خوب بر بد پیروز نمی‌شود

امید به آینده

بر خلاف اظهار نظرهایی که جفری هینتون اخیرا داشته است، اشتیاق کلی وی برای توسعه هوش مصنوعی پس از ترک گوگل کاهش نیافته است. خودش می‌گوید اگر کارم را در گوگل ترک نمی‌کردم، مطمئنم که روی مدل‌های هوش مصنوعی چندوجهی کار می‌کردم که در آن بینش، زبان و سایر نشانه‌ها به تصمیم‌گیری کمک می‌کند.

وی می‌گوید کودکان کوچک فقط از زبان یاد نمی‌گیرند، ماشین‌ها نیز می‌توانند همین کار را انجام دهند.

در عین حال که هینتون نگران خطرات هوش مصنوعی است، معتقد است که در نهایت می‌تواند هر کاری را که یک انسان می‌تواند، انجام دهد و قدرت تعقل داشته باشد. به عنوان مثال، GPT-۴ می‌تواند خود را برای حل پازل‌ها و معماهای دشوارتر وفق دهد.

هینتون اذعان می‌کند که سخنرانی‌اش در کنفرانس کالیژن، چیز زیادی درباره کاربردهای خوب هوش مصنوعی مانند مبارزه با تغییرات آب و هوایی بیان نکرده است.

او می‌گوید، پیشرفت فناوری هوش مصنوعی احتمالاً سالم بوده است، حتی اگر هنوز نگران پیامدهای آن باشیم.

هینتون در پایان، آزادانه اعتراف کرد که با وجود مشکلات اخلاقی احتمالی، از اشتیاقش نسبت به هوش مصنوعی کاسته نشده است. او گفت: من عاشق این چیزها هستم. چطور می‌توان عاشق ساختن چیزهای هوشمند نبود؟

انتهای پیام

  • در زمینه انتشار نظرات مخاطبان رعایت چند مورد ضروری است:
  • -لطفا نظرات خود را با حروف فارسی تایپ کنید.
  • -«ایسنا» مجاز به ویرایش ادبی نظرات مخاطبان است.
  • - ایسنا از انتشار نظراتی که حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های دین مبین اسلام باشد معذور است.
  • - نظرات پس از تأیید مدیر بخش مربوطه منتشر می‌شود.

نظرات

شما در حال پاسخ به نظر «» هستید.
لطفا عدد مقابل را در جعبه متن وارد کنید
captcha