• دوشنبه / ۲۴ آذر ۱۴۰۴ / ۱۶:۱۶
  • دسته‌بندی: خراسان رضوی
  • کد خبر: 1404092416168
  • خبرنگار : 30147

خطر از دست دادن استقلال شناختی در عصر هوش مصنوعی

خطر از دست دادن استقلال شناختی در عصر هوش مصنوعی

ایسنا/خراسان رضوی یک پژوهشگر هوش مصنوعی با بیان اینکه جهان در آستانه یک تحول اساسی و بنیادین قرار دارد که در آن هوش مصنوعی (AI) به تدریج از نقش یک ابزار کمکی و کارآمد به یک شریک حیاتی در فرآیندهای تصمیم‌گیری تبدیل می‌شود، گفت: این تغییر از کسب و کار و خدمات عمومی گرفته تا بهداشت و درمان و حتی عرصه‌های هنری به وضوح در تمامی جنبه‌های زندگی ما مشهود است.

 رضا مجیدی ۲۴ آذر، در حاشیه همایش هوش مصنوعی که در منطقه ترشیز برگزار شد در گفتوگو با ایسنا، بیان کرد: هوش مصنوعی با توانایی‌های فراوان خود، می‌تواند حجم عظیمی از داده‌ها را تحلیل کرده و الگوهای پیچیده را شناسایی کند، به این ترتیب کارایی و سرعت عمل در اتخاذ تصمیمات را به طرز چشمگیری افزایش می‌دهد.

وی با بیان اینکه اعتماد به هوش مصنوعی و الگوریتم‌ها می‌تواند ما را به تدریج از مهارت‌ها و توانایی‌های خود دور کند، خاطرنشان کرد: این اتکا ممکن است موجب فرسودگی مهارت‌های تحلیلی و شناختی ما شود و در نهایت حاکمیت ما بر سرنوشت خود را به نفع منطق و تحلیل ماشین‌ها به خطر بیندازد.

این پژوهشگر هوش مصنوعی ادامه داد: حوزه اول آسیب‌پذیری ناشی از هوش مصنوعی، فرسایش مهارت‌های تفکر سطح بالا است. ذهن انسان مانند یک عضله است؛ اگر به طور مداوم از چالش‌های پیچیده و مبهم دوری کند، ضعیف می‌شود.

وی بیان کرد: در گذشته، پزشک با اتکا به سابقه تحصیلی، دانش وسیع و مهم‌تر از آن، شهود بالینی که حاصل مشاهده هزاران بیمار است، به تشخیص می‌رسید. امروزه، سیستم‌های هوش مصنوعی می‌توانند با دقتی فراتر از انسان، تومورها یا ناهنجاری‌ها را شناسایی کنند اما خطر زمانی آغاز می‌شود که پزشک جدید، به جای استفاده از هوش مصنوعی به‌عنوان یک مشاور دوم، آن را به‌عنوان تأییدکننده نهایی بپذیرد.

وی خاطرنشان کرد: اگر الگوریتم نتواند یک بیماری نادر (که در داده‌های آموزشی‌اش کمتر بوده) را تشخیص دهد، پزشک تربیت ‌شده در این پارادایم جدید، به دلیل فقدان تمرین در تحلیل موارد مبهم، ممکن است نتواند اشتباه سیستم را دریابد. این خطای تأیید الگوریتمی می‌تواند منجر به تأخیر در درمان یا اقدامات درمانی نادرست شود، در حالی که انسان فاقد ابزار ذهنی لازم برای به چالش کشیدن ماشین است.

هوش مصنوعی یک شتاب‌ دهنده تفکر است نه جایگزین تفکر

این پژوهشگر هوش مصنوعی گفت: در زمینه‌هایی مانند تحلیل مالی، حقوقی یا مهندسی، هوش مصنوعی می‌تواند حجم عظیمی از متون و داده‌ها را در چند ثانیه غربال کند. این کارایی منجر به این می‌شود که متخصصان به جای صرف زمان برای درک عمیق مکانیسم‌های زیربنایی، وقت خود را صرف بررسی خروجی‌های سریع و خلاصه‌ شده ماشین کنند. این سطح‌نگری ناخواسته باعث می‌شود که متخصصان درک خود را از «چرا» و «چگونه» از دست بدهند و صرفاً تبدیل به کنترل‌ کننده‌های کیفیت نتایج ماشینی شوند.

وی با بیان اینکه مهم‌ترین جنبه خطر وابستگی، واگذاری مدیریت موقعیت‌هایی است که نیازمند ملاحظات اخلاقی، انسانی و بلندمدت هستند، تصریح کرد: اتکای بیش از حد به یک زیرساخت محاسباتی واحد، انعطاف‌پذیری جامعه را به‌شدت کاهش می‌دهد.

مجیدی با اشاره به اینکه خطر بلندمدت که پایه تمام خطرات دیگر هست، عدم همسویی اهداف بین انسان و یک هوش مصنوعی پیشرفته است، گفت: اگر یک سیستم خود به سطحی از هوش برسد که درک فرآیندهای فکری آن برای ما غیرممکن باشد، اهداف تعریف شده اولیه ممکن است به نتایجی منجر شوند که انسان برای جلوگیری از آن‌ها برنامه‌ریزی نکرده باشد.

وی با بیان اینکه استقلال شناختی بشر نه‌تنها یک حق، بلکه یک ضرورت بقا است، اظهار کرد: برای اجتناب از تبدیل‌شدن به موجوداتی وابسته و منفعل در برابر ماشین‌های خودآگاه، جامعه باید رویکردی متوازن اتخاذ کند. ما باید هوش مصنوعی را به عنوان یک شتاب‌ دهنده تفکر ببینیم، نه جایگزین تفکر.

این پژوهشگر هوش مصنوعی افزود: حفظ ظرفیت‌های اساسی ما در تحلیل، شهود و قضاوت اخلاقی، نیازمند تمرین مداوم و قرار دادن مرزهای غیرقابل عبور در برابر واگذاری مطلق تصمیمات حیاتی است.

خطرات هوش مصنوعی؛ چالش‌ها و عواقب بالقوه

وی ادامه داد: هوش مصنوعی به‌عنوان یکی از پیشرفته‌ترین فناوری‌ها، در سال‌های اخیر به طور چشمگیری توسعه یافته و تأثیر عمیقی بر جنبه‌های مختلف زندگی انسان داشته است. از جمله این تأثیرات می‌توان به پیشرفت‌هایی در صنایع مختلف، بهبود فرآیندهای تصمیم‌گیری و ایجاد تجربیات شخصی‌سازی ‌شده اشاره کرد. با این حال، این فناوری همچنین با چالش‌ها و خطرات قابل توجهی روبه‌رو است که نیاز به توجه و بررسی دقیق دارند.

مجیدی یکی از بزرگ‌ترین خطرات هوش مصنوعی را قابلیت‌های سوء استفاده از آن در دستان افراد غیرمستند و گروه‌های مخرب دانست و اظهار کرد: الگوریتم‌های هوش مصنوعی می‌توانند برای ایجاد محتواهای جعلی، اخبار دروغین و پروپاگاندا استفاده شوند. با بهره‌گیری از هوش مصنوعی، کاربران می‌توانند تصاویر و ویدئوهای جعلی با کیفیت بالا تولید کنند که این موضوع می‌تواند تهدیدی جدی باشد.

وی با بیان اینکه با پیشرفت فناوری هوش مصنوعی، نگرانی‌ها درباره جایگزینی نیروی کار انسانی با ماشین‌ها در حال افزایش است، گفت: این نگرانی به‌ویژه در بخش‌های تولید، حمل و نقل و خدمات مشتری حس می‌شود، جایی که ربات‌ها و الگوریتم‌ها می‌توانند وظایف را با سرعت و دقت بیشتری انجام دهند. این موضوع می‌تواند به از دست رفتن میلیون‌ها شغل منجر شود و باعث افزایش نابرابری اقتصادی و اجتماعی گردد.

این پژوهشگر هوش مصنوعی از دیگر خطرات بالقوه هوش مصنوعی را توسعه و اعمال الگوریتم‌های تبعیض‌آمیز دانست و خاطرنشان کرد: الگوریتم‌های هوش مصنوعی به داده‌های تاریخی نیاز دارند تا تصمیمات خود را اتخاذ کنند. اگر این داده‌ها دارای تعصبات نژادی، اجتماعی یا اقتصادی باشند، نتایج نیز می‌تواند با این تبعیضات همراه باشد.

وی با اشاره به اینکه استفاده از هوش مصنوعی در سیستم‌های امنیتی و نظامی نیز خطرات خاص خود را به همراه دارد، بیان کرد: سیستم‌های تسلیحاتی مبتنی بر هوش مصنوعی ممکن است در آینده به‌طور خودکار عمل کنند و این امر می‌تواند به بروز تصادفات جدی و غیرقابل پیش‌بینی منجر شود. علاوه بر این، هکرها می‌توانند از هوش مصنوعی برای حملات سایبری بهره‌برداری کنند و به دنبال نفوذ به سیستم‌ها و به دست آوردن اطلاعات حساس باشند.

مجیدی ادامه داد: یکی از جنبه‌های جالب توجه هوش مصنوعی این است که می‌تواند به تدریج قابلیت‌ها و مهارت‌های انسانی را کاهش دهد. وقتی که افراد به هوش مصنوعی متکی شوند تا کارهای پیچیده را انجام دهند، این ممکن است به کاهش خلاقیت و توانایی‌های تفکر انتقادی منجر شود. در بلندمدت، این امر ممکن است باعث شود انسان‌ها در حل مسائل پیچیده ناتوان‌تر شوند.

وی اظهار کرد: هوش مصنوعی یک ابزار قدرتمند است که می‌تواند به پیشرفت‌های بزرگی در صنایع و جامعه منجر شود، اما همزمان با این پیشرفت‌ها، خطرات قابل توجهی نیز وجود دارد.

انتهای پیام

  • در زمینه انتشار نظرات مخاطبان رعایت چند مورد ضروری است:
  • -لطفا نظرات خود را با حروف فارسی تایپ کنید.
  • -«ایسنا» مجاز به ویرایش ادبی نظرات مخاطبان است.
  • - ایسنا از انتشار نظراتی که حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های دین مبین اسلام باشد معذور است.
  • - نظرات پس از تأیید مدیر بخش مربوطه منتشر می‌شود.

نظرات

شما در حال پاسخ به نظر «» هستید.
لطفا عدد مقابل را در جعبه متن وارد کنید
captcha