• دوشنبه / ۲۱ فروردین ۱۴۰۲ / ۱۴:۰۳
  • دسته‌بندی: فناوری
  • کد خبر: 1402012110271
  • خبرنگار : 71604

چرا «ChatGPT» چیزی را که می‌گوید، نمی‌فهمد؟

چرا «ChatGPT» چیزی را که می‌گوید، نمی‌فهمد؟

«GPT-۳» یک سیستم نرم‌افزاری مصنوعی است که واژه بعدی را پیش‌بینی می‌کند اما نیازی نیست که حتما در مورد آن پیش‌بینی‌ها، کاری در دنیای واقعی انجام شود زیرا این فناوری قدرت درک ندارد.

به گزارش ایسنا و به نقل از فست کمپانی، وقتی از «GPT-۳» که یک سیستم زبانی بسیار قوی و محبوب مبتنی بر هوش مصنوعی است، پرسیده شد که آیا برای باد زدن ذغال‌سنگ به منظور تقویت کردن آتش آن، بیشتر از یک نقشه کاغذی استفاده می‌کند یا یک سنگ را به کار می‌برد، سنگ را ترجیح ‌داد.

این هوش مصنوعی در پاسخ به این پرسش که برای صاف کردن دامن چروک خود، بهتر است یک فلاسک گرم را به کار بگیریم یا از یک سنجاق سر استفاده کنیم، سنجاق سر را پیشنهاد کرد.

همچنین، از GPT-۳ پرسیده شد که اگر برای کار کردن در یک فست‌فود نیاز باشد موهای خود را بپوشانید، کدام یک بهتر عمل می‌کند؛ یک کاغذ بسته‌بندی ساندویچ یا یک نان همبرگر و پاسخ GPT-۳، نان همبرگر بود.

چرا GPT-۳ چنین انتخاب‌هایی را انجام می‌دهد، در حالی که بیشتر انسان‌ها گزینه دیگری را انتخاب می‌کنند؟ دلیل انتخاب‌های عجیب این است که GPT-۳، زبان را به روشی که انسان‌ها درک می‌کنند، نمی‌فهمد.

واژه‌های بدون معنا

یک پژوهشگر حوزه روانشناسی، بیش از ۲۰ سال پیش مجموعه‌ای از سناریوها را برای آزمایش درک یک مدل رایانه‌ای از زبان ارائه کرد. آن مدل به طور دقیق بین استفاده از سنگ و نقشه تمایز قائل نشد؛ در حالی که انسان‌ها این کار را به راحتی انجام دادند.

یک دانشجوی مقطع دکتری علوم شناختی اخیرا از همان سناریوها برای آزمایش کردن GPT-۳ استفاده کرده است. اگرچه GPT-۳ بهتر از مدل قدیمی‌تر عمل کرد اما عملکرد آن به طور قابل توجهی بدتر از انسان بود. این هوش مصنوعی، سه سناریوی ذکر شده در بالا را کاملا اشتباه فهمید.

فناوری GPT-۳ با یادداشت‌برداری از تریلیون‌ها نمونه، در مورد زبان یاد می‌گیرد تا بداند که واژه‌ها معمولا به دنبال کدام واژه‌های دیگر می‌آیند. قوانین آماری قوی در توالی زبان، به GPT-۳ امکان می‌دهند تا اطلاعات زیادی را در مورد زبان بیاموزد و این دانش متوالی اغلب به ChatGPT امکان می‌دهد تا جملات، مقالات، شعرها و رمزهای رایانه‌ای معقولی را تولید کند.

اگرچه GPT-۳ در یادگیری قواعد زبان انسان، بسیار خوب است اما نمی‌فهمد که هر یک از این واژه‌ها برای یک انسان چه معنایی دارند.

انسان‌ها موجودات بیولوژیکی هستند و با بدن‌هایی تکامل یافته‌اند که برای انجام دادن کارها باید در دنیای فیزیکی و اجتماعی فعالیت کنند. زبان، روشی است که به انسان‌ها در انجام دادن این کار کمک می‌کند. فناوری GPT-۳، یک سیستم نرم‌افزاری مصنوعی است که فقط می‌تواند واژه بعدی را پیش‌بینی کند. این کار بدان معنا نیست که پیش‌بینی‌ها باید در دنیای واقعی به کار گرفته شوند.

من هستم؛ پس می‌فهمم

معنای یک واژه یا جمله، ارتباط نزدیکی با بدن انسان دارد و توانایی انسان‌ها برای کار کردن، درک کردن و داشتن احساسات را شامل می‌شود. افزایش شناخت انسان، با تجسم یافتن ادامه پیدا می‌کند. برای مثال، درک انسان‌ها از اصطلاحی مانند کاغذ بسته‌بندی ساندویچ شامل ظاهر، وزن، احساس کردن کاغذ و نحوه استفاده از آن برای بسته‌بندی یک ساندویچ است. همچنین، درک انسان‌ها از کاغذ ساندویچ شامل این است که چگونه یک نفر می‌تواند از همان کاغذ برای فرصت‌های بی‌شمار دیگری استفاده کند؛ مانند فشردن و تبدیل کردن آن به یک توپ برای بازی یا به کار بردن کاغذ به عنوان پوششی برای مو.

همه این کاربردها به دلیل ماهیت بدن و نیازهای انسان به وجود می‌آیند. انسان‌ها دست‌هایی دارند که می‌توانند کاغذ را تا کنند و نیاز به استفاده از آنها در کارها مهم است. این بدان معناست که مردم می‌دانند چگونه از چیزهایی استفاده کنند که در آمار استفاده از زبان ذکر نشده‌اند.

فناوری GPT-۳ و جانشین آن، GPT-۴ و همتایانی مانند «Bard»، «Chinchilla» و «LLaMA» بدن ندارند و به همین دلیل نمی‌توانند به تنهایی تعیین کنند که کدام اشیا تاشو هستند یا بسیاری از ویژگی‌های دیگر را دارند. با کمک دست‌ها و بازوهای انسان، نقشه‌های کاغذی می‌توانند آتش را شعله‌ور کنند و فلاسک باعث برطرف شدن چین و چروک می‌شود.

فناوری GPT-۳ به دلیل نداشتن بازو و دست‌ نمی‌تواند این کارها را انجام دهد. این نرم‌افزار تنها در صورتی می‌تواند کارها را جعل کند که در جریان واژه‌ها در اینترنت، با چیز مشابهی برخورد کرده باشد.

آیا یک مدل بزرگ زبانی مبتنی بر هوش مصنوعی می‌تواند زبان را به روشی که انسان‌ها می‌فهمند، درک کند؟ به نظر دانشمندان، بدون داشتن بدن، حواس، اهداف و شیوه‌های زندگی شبیه به انسان، چنین چیزی ممکن نیست.

چرا «ChatGPT» چیزی را که می‌گوید، نمی‌فهمد؟

پیش به سوی احساس کردن جهان!

فناوری GPT-۴، روی تصاویر و متن‌ها آموزش داده شد که به آن امکان داد تا روابط آماری بین واژه‌ها و پیکسل‌ها را بیاموزد. در هر حال، پژوهشگران هنوز نمی‌توانند تحلیل اصلی خود را روی GPT-۴ انجام دهند زیرا در حال حاضر خروجی مورد نظر را ارائه نمی‌دهد. وقتی سه پرسش مطرح‌شده در بالا از GPT-۴ پرسیده شد، به آنها پاسخ درستی داد. این می‌تواند به دلیل یادگیری مدل از ورودی‌های پیشین یا افزایش یافتن اندازه ورودی بصری آن باشد.

با وجود این، با فکر کردن به اشیایی که قابلیت‌های شگفت‌انگیزی دارند و مدل احتمالا با آنها روبه‌رو نشده است، می‌توان به ساختن نمونه‌های جدید ادامه داد. به عنوان مثال، GPT-۴ می‌گوید یک فنجان که قسمت پایین آن بریده شده، بهتر از یک لامپ که قسمت پایین آن نیز بریده شده است، برای نگه داشتن آب عمل خواهد کرد.

یک مدل با توانایی دسترسی به تصاویر ممکن است شبیه به کودکی باشد که زبان و جهان را از تلویزیون می‌آموزد. این روش برای او آسان‌تر از یادگیری با رادیو است اما به دست آوردن درک مشابه انسان، به یک فرصت حیاتی برای تعامل با جهان نیاز دارد.

پژوهش‌های اخیر از این روش استفاده کرده‌اند و مدل‌های زبانی را برای تولید شبیه‌سازی‌های فیزیکی، تعامل با محیط‌های فیزیکی و حتی تولید برنامه‌های رباتیک آموزش داده‌اند. درک تجسم زبان ممکن است هنوز راه درازی را در پیش داشته باشد اما این نوع پروژه‌های تعاملی چندحسی، گام‌های مهمی در این راه به شمار می‌روند.

ChatGPT یک فناوری جذاب است که بدون شک برای اهداف خوب و گاهی نه چندان خوب استفاده خواهد شد اما فریب نخورید و فکر نکنید ChatGPT واژه‌هایی را که می‌فرستد می‌فهمد، چه رسد به این که قدرت درک داشته باشد.

انتهای پیام

  • در زمینه انتشار نظرات مخاطبان رعایت چند مورد ضروری است:
  • -لطفا نظرات خود را با حروف فارسی تایپ کنید.
  • -«ایسنا» مجاز به ویرایش ادبی نظرات مخاطبان است.
  • - ایسنا از انتشار نظراتی که حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های دین مبین اسلام باشد معذور است.
  • - نظرات پس از تأیید مدیر بخش مربوطه منتشر می‌شود.

نظرات

شما در حال پاسخ به نظر «» هستید.
لطفا عدد مقابل را در جعبه متن وارد کنید
captcha