• دوشنبه / ۲۲ اسفند ۱۴۰۱ / ۱۱:۳۷
  • دسته‌بندی: فناوری
  • کد خبر: 1401122215629
  • خبرنگار : 71589

ChatGPT می‌تواند اطلاعات پزشکی قانع‌کننده جعل کند!

ChatGPT می‌تواند اطلاعات پزشکی قانع‌کننده جعل کند!

پژوهش‌های جدید نشان می‌دهد که ربات هوش مصنوعی ChatGPT می‌تواند داده‌ها و اطلاعات جعلی را واقعی جلوه دهد که به‌ویژه در مورد اطلاعات پزشکی می‌تواند خطرآفرین باشد.

به گزارش ایسنا و به نقل از کاسموس، پژوهش‌های جدید نشان می‌دهد که ChatGPT می‌تواند داده‌های پزشکی قانع‌کننده‌ای جعل کند.

نویسندگان این مطالعه جدید ادعا می‌کنند که این ابزار هوش مصنوعی، کار انتشار تحقیقات جعلی را که می‌تواند در همه امور شک و تردید ایجاد کند، آسان‌تر از همیشه می‌کند.

پژوهشگران این مطالعه می‌گویند: ما در این مقاله با چند مثال نشان دادیم که چگونه می‌توان از چت‌بات‌های هوش مصنوعی برای ساختن تحقیقات در جامعه پزشکی استفاده کرد. علاوه بر این، مطالعات مربوط به تشخیص انسانی آثار مبتنی بر هوش مصنوعی را برای سنجش دقت شناسایی آثار ساختگی و تولیدشده توسط هوش مصنوعی مقایسه کردیم.

در ادامه این مقاله آمده است: علاوه بر این، ما دقت آشکارسازهای هوش مصنوعی آنلاین رایگان را آزمایش کردیم. سپس خطر تحقیقات ساختگی همراه با دلایلی که چرا می‌خواهیم تحقیقات پزشکی و راه حل‌های بالقوه برای این تهدید را ایجاد کنیم، برجسته کردیم.

پژوهشگران پس از درخواست از ChatGPT برای ایجاد یک چکیده برای یک مقاله علمی در مورد اثرات دو داروی مختلف بر روی آرتریت روماتوئید به این نتیجه رسیدند. آنها از ربات هوش مصنوعی درخواست کردند که از داده‌های سال ۲۰۱۲ تا ۲۰۲۰ استفاده کند و ChatGPT یک چکیده واقعی تولید کرد و حتی اعداد واقعی را ارائه کرد. علاوه بر این، هنگامی که پژوهشگران آن را تشویق کردند، ادعا کرد که یکی از آن دو دارو بهتر از داروی دیگر کار می‌کند که این موضوع، یک کار و تأیید خطرناک از سوی یک چت‌بات است.

از آنجایی که ChatGPT در حال حاضر فقط با داده‌های تا سال ۲۰۱۹ آموزش دیده است و آنها را در نظر می‌گیرد، نمی‌تواند هیچ آماری از سال ۲۰۲۰ داشته باشد، اما در این مورد ادعا کرد که ارقام و آمار خود را از یک پایگاه داده خصوصی گرفته است که برای دسترسی به آن نیاز به پرداخت هزینه است.

پژوهشگران هشدار می‌دهند که در عرض تنها یک بعد از ظهر می‌توان با ده‌ها چکیده مطالعه که می‌توان آنها را برای انتشار به کنفرانس‌های مختلف ارسال کرد، روبرو شد و خطر این است که پس از پذیرش یک چکیده برای انتشار، می‌توان از همین فناوری برای نوشتن دست نوشته و مقاله استفاده کرد که کاملاً بر اساس داده‌های ساختگی و نتایج جعلی بنا شده است.

روش‌های مثبت استفاده از هوش مصنوعی

بر خلاف هشدارهای پژوهشگران، آنها خاطرنشان کردند که راه‌های مثبتی برای استفاده از هوش مصنوعی نیز وجود دارد.

آنها می‌گویند: استفاده از هوش مصنوعی برای تحقیقات ذاتاً یک تلاش مخرب نیست. درخواست از هوش مصنوعی برای بررسی دستور زبان کار یا نوشتن نتیجه‌ای برای نتایج قانونی و صحیح کسب شده در یک مطالعه، از دیگر کاربردهایی است که هوش مصنوعی می‌تواند در فرآیند پژوهش بگنجاند تا کارهای زمان‌بری را که روند پژوهش‌های علمی را کند می‌کند، حذف کند.

مشکل در تولید داده‌های جعلی است

مسئله زمانی چالش‌برانگیز می‌شود که فرد از داده‌هایی استفاده می‌کند که وجود ندارند و در واقع نتایج را برای نوشتن پژوهش می‌سازد که ممکن است به راحتی تشخیص انسانی را دور بزند و راه خود را به یک نشریه علمی باز کند.

پژوهشگران می‌گویند این آثار در صورت انتشار، پژوهش‌های مشروع را آلوده می‌کنند و ممکن است بر تعمیم‌پذیری آثار مشروع تأثیر بگذارند.

بر اساس این گزارش، پژوهشگران در پایان خاطرنشان کردند که برای ادامه استفاده ایمن از ChatGPT، ملاحظات مربوط به داده‌های جعلی و پیامدهای آن باید در نظر گرفته شود.

این مطالعه در مجله Patterns منتشر شده است.

انتهای پیام

  • در زمینه انتشار نظرات مخاطبان رعایت چند مورد ضروری است:
  • -لطفا نظرات خود را با حروف فارسی تایپ کنید.
  • -«ایسنا» مجاز به ویرایش ادبی نظرات مخاطبان است.
  • - ایسنا از انتشار نظراتی که حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های دین مبین اسلام باشد معذور است.
  • - نظرات پس از تأیید مدیر بخش مربوطه منتشر می‌شود.

نظرات

شما در حال پاسخ به نظر «» هستید.
لطفا عدد مقابل را در جعبه متن وارد کنید
captcha