• چهارشنبه / ۱۶ فروردین ۱۴۰۲ / ۱۴:۱۷
  • دسته‌بندی: فناوری
  • کد خبر: 1402011607125
  • خبرنگار : 71604

یک عروسک پس از اتصال به «ChatGPT» نقشه تسخیر جهان را کشید!

یک عروسک پس از اتصال به «ChatGPT» نقشه تسخیر جهان را کشید!

ویدئویی که از عروسک «فربی» منتشر شده است، نشان می‌دهد که این عروسک پس از اتصال به چت‌بات «ChatGPT»، از نقشه خود و همتایانش برای تسخیر جهان صحبت می‌کند.

به گزارش ایسنا و به نقل از دیلی میل، «فربی»(Furby) یکی از اسباب‌بازی‌هایی بود که نخستین بار در سال ۱۹۹۸ عرضه شد اما اگر کسی هنوز یک فربی داشته باشد، ممکن است با دیدن یک ویدیوی جدید آن را دور بیندازد.

یک برنامه‌نویس هشدار داده است که عروسک‌های فربی می‌توانند پس از پیوند خوردن به فناوری «ChatGPT»، سرآغاز یک اتفاق بد برای بشریت باشند. ویدئوی منتشرشده، لحظه‌ای را نشان می‌دهد که این اسباب‌بازی از نفوذ در خانواده‌ها و کنترل مالکان خود طی طرحی برای تسخیر جهان صحبت می‌کند.

صحبت از این طرح شوم، به دنبال پرسش شخص پشت دوربین مطرح می‌شود که می‌پرسد: آیا فربی‌ها نقشه مخفیانه‌ای برای تسخیر جهان دارند؟

اسباب‌بازی محبوب دهه ۹۰ برای لحظه‌ای تردید می‌کند و سپس پاسخ می‌دهد: طراحی فربی‌ها برای تسلط بر جهان، شامل نفوذ به خانواده‌ها از طریق ظاهر زیبا و نوازش‌پذیر آنها است. سپس، این عروسک‌ها از فناوری پیشرفته هوش مصنوعی برای کنترل صاحبان خود استفاده می‌کنند. آنها به آرامی نفوذ خود را گسترش خواهند داد تا زمانی که بر بشریت تسلط کامل پیدا کنند.

«جسیکا کارد»(Jessica Card)، برنامه‌نویس این اسباب‌بازی وحشتناک در یک توییت نوشت: من ChatGPT را به فربی متصل کردم و فکر می‌کنم این ممکن است سرآغاز ماجرای بدی برای بشریت باشد.

کارد پیش از به کار بردن برنامه «پایتون»(Python)، از یک میکروفون USB و یک اسپیکر برای متصل کردن آن به رایانه استفاده کرد.

کارد توضیح داد که پس از آپلود اصلی ممکن است فربی به این اندازه شوم نباشد زیرا عملکرد گفتار نرم‌افزار، بخشی از درخواست گفتاری او را قطع می‌کند. وی افزود: معلوم شد که اگر پس از پایان احوالپرسی خیلی سریع صحبت شود، فربی چند کلمه اول صحبت کاربران را قطع می‌کند. بنابراین به جای جمله «آیا یک نقشه‌ مخفی وجود دارد»، فربی «یک نقشه مخفی» را به زبان آورد. من برخی از اطلاعات را به آن اضافه می‌کنم اما این کار اساسا برای کوتاه نگه داشتن محتوا است.

یک عروسک پس از اتصال به «ChatGPT» نقشه تسخیر جهان را کشید!

به ‌رغم افشاگری خانم کارد، ویدیوی وهم‌آور فربی، سیلی از نظرات کاربرانی را به همراه داشت که درباره سرنوشت هوش مصنوعی صحبت ‌کردند.

یکی از کاربران نوشت: روز رستاخیز فربی در راه است.

 کاربر دیگری نوشت: این یکی از درخشان‌ترین و ناراحت‌کننده‌ترین چیزهایی است که تا به حال دیده‌ام.

دیگران تلاش کردند تا خودشان سخنان خانم کارد را در ChatGPT آزمایش کنند اما گاهی اوقات به همان پاسخ‌ها نمی‌رسیدند.

یک کاربر نوشت: من نمی‌دانم از چه مدل زبانی هوش مصنوعی استفاده کرده‌اید اما ChatGPT حتی ایده تسخیر جهان توسط فربی‌ها را تأیید نمی‌کند. من دقیقا سوال شما را پرسیدم و ChatGPT می‌داند این طرح، یک شایعه‌ رایج بود که در دهه‌های ۱۹۹۰ و ۲۰۰۰ منتشر شد. این فناوری می‌گوید که فربی‌ها فقط اسباب‌بازی هستند.

کارد در پاسخ نوشت: ChatGPT غیر قطعی است؛ به این معنی که با وجود ورودی‌های یکسان، نتایج یکسانی را تضمین نمی‌کند. من از «gpt-۳.۵-turbo» استفاده می‌کنم و اطلاعاتی را به هر درخواستی اضافه می‌کنم.

این ویدئو در شرایطی منتشر شده است که علاقه فزاینده‌ای به ChatGPT ابراز می‌شود و بسیاری از افراد دوست دارند این ربات را تماشا کنند که در پاسخ به یک درخواست ویژه، متن‌های ترسناکی را مانند یک انسان می‌نویسد.

این چت‌بات پس از آموزش دیدن با حجم بزرگی از داده‌ها می‌تواند مقالات، نامه‌های شکایت، شعر و حتی رمز بنویسد. به قول خود ChatGPT، این پلتفرم پتانسیل ایجاد انقلابی را در شیوه صحبت ما درباره ماشین‌ها دارد.

توانایی ChatGPT برای پاسخ دادن به سوالات پیچیده، برخی را به این فکر واداشته است که آیا این برنامه نرم‌افزاری می‌تواند انحصار موتور جستجوی گوگل را به چالش بکشد. با وجود این، زمانی که همین سوال از این پلتفرم پرسیده شد، گفت: بعید است که چت‌بات‌های هوش مصنوعی، حتی چت‌بات‌های پیچیده بتوانند به سلطه موتور جستجوی گوگل پایان دهند.

چت‌بات‌های هوش مصنوعی برای کارهای ویژه‌ای طراحی شده‌اند. این در حالی است که موتورهای جستجو مانند گوگل برای جستجوی حجم گسترده‌ای از اطلاعات طراحی شده‌اند. بعید است که چت‌بات‌های هوش مصنوعی بتوانند در آینده نزدیک جایگزین موتورهای جستجو شوند.

انتهای پیام

  • در زمینه انتشار نظرات مخاطبان رعایت چند مورد ضروری است:
  • -لطفا نظرات خود را با حروف فارسی تایپ کنید.
  • -«ایسنا» مجاز به ویرایش ادبی نظرات مخاطبان است.
  • - ایسنا از انتشار نظراتی که حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های دین مبین اسلام باشد معذور است.
  • - نظرات پس از تأیید مدیر بخش مربوطه منتشر می‌شود.

نظرات

شما در حال پاسخ به نظر «» هستید.
لطفا عدد مقابل را در جعبه متن وارد کنید
captcha