رضا مجیدی ۲۴ آذر، در حاشیه همایش هوش مصنوعی که در منطقه ترشیز برگزار شد در گفتوگو با ایسنا، بیان کرد: هوش مصنوعی با تواناییهای فراوان خود، میتواند حجم عظیمی از دادهها را تحلیل کرده و الگوهای پیچیده را شناسایی کند، به این ترتیب کارایی و سرعت عمل در اتخاذ تصمیمات را به طرز چشمگیری افزایش میدهد.
وی با بیان اینکه اعتماد به هوش مصنوعی و الگوریتمها میتواند ما را به تدریج از مهارتها و تواناییهای خود دور کند، خاطرنشان کرد: این اتکا ممکن است موجب فرسودگی مهارتهای تحلیلی و شناختی ما شود و در نهایت حاکمیت ما بر سرنوشت خود را به نفع منطق و تحلیل ماشینها به خطر بیندازد.
این پژوهشگر هوش مصنوعی ادامه داد: حوزه اول آسیبپذیری ناشی از هوش مصنوعی، فرسایش مهارتهای تفکر سطح بالا است. ذهن انسان مانند یک عضله است؛ اگر به طور مداوم از چالشهای پیچیده و مبهم دوری کند، ضعیف میشود.
وی بیان کرد: در گذشته، پزشک با اتکا به سابقه تحصیلی، دانش وسیع و مهمتر از آن، شهود بالینی که حاصل مشاهده هزاران بیمار است، به تشخیص میرسید. امروزه، سیستمهای هوش مصنوعی میتوانند با دقتی فراتر از انسان، تومورها یا ناهنجاریها را شناسایی کنند اما خطر زمانی آغاز میشود که پزشک جدید، به جای استفاده از هوش مصنوعی بهعنوان یک مشاور دوم، آن را بهعنوان تأییدکننده نهایی بپذیرد.
وی خاطرنشان کرد: اگر الگوریتم نتواند یک بیماری نادر (که در دادههای آموزشیاش کمتر بوده) را تشخیص دهد، پزشک تربیت شده در این پارادایم جدید، به دلیل فقدان تمرین در تحلیل موارد مبهم، ممکن است نتواند اشتباه سیستم را دریابد. این خطای تأیید الگوریتمی میتواند منجر به تأخیر در درمان یا اقدامات درمانی نادرست شود، در حالی که انسان فاقد ابزار ذهنی لازم برای به چالش کشیدن ماشین است.
هوش مصنوعی یک شتاب دهنده تفکر است نه جایگزین تفکر
این پژوهشگر هوش مصنوعی گفت: در زمینههایی مانند تحلیل مالی، حقوقی یا مهندسی، هوش مصنوعی میتواند حجم عظیمی از متون و دادهها را در چند ثانیه غربال کند. این کارایی منجر به این میشود که متخصصان به جای صرف زمان برای درک عمیق مکانیسمهای زیربنایی، وقت خود را صرف بررسی خروجیهای سریع و خلاصه شده ماشین کنند. این سطحنگری ناخواسته باعث میشود که متخصصان درک خود را از «چرا» و «چگونه» از دست بدهند و صرفاً تبدیل به کنترل کنندههای کیفیت نتایج ماشینی شوند.
وی با بیان اینکه مهمترین جنبه خطر وابستگی، واگذاری مدیریت موقعیتهایی است که نیازمند ملاحظات اخلاقی، انسانی و بلندمدت هستند، تصریح کرد: اتکای بیش از حد به یک زیرساخت محاسباتی واحد، انعطافپذیری جامعه را بهشدت کاهش میدهد.
مجیدی با اشاره به اینکه خطر بلندمدت که پایه تمام خطرات دیگر هست، عدم همسویی اهداف بین انسان و یک هوش مصنوعی پیشرفته است، گفت: اگر یک سیستم خود به سطحی از هوش برسد که درک فرآیندهای فکری آن برای ما غیرممکن باشد، اهداف تعریف شده اولیه ممکن است به نتایجی منجر شوند که انسان برای جلوگیری از آنها برنامهریزی نکرده باشد.
وی با بیان اینکه استقلال شناختی بشر نهتنها یک حق، بلکه یک ضرورت بقا است، اظهار کرد: برای اجتناب از تبدیلشدن به موجوداتی وابسته و منفعل در برابر ماشینهای خودآگاه، جامعه باید رویکردی متوازن اتخاذ کند. ما باید هوش مصنوعی را به عنوان یک شتاب دهنده تفکر ببینیم، نه جایگزین تفکر.
این پژوهشگر هوش مصنوعی افزود: حفظ ظرفیتهای اساسی ما در تحلیل، شهود و قضاوت اخلاقی، نیازمند تمرین مداوم و قرار دادن مرزهای غیرقابل عبور در برابر واگذاری مطلق تصمیمات حیاتی است.
خطرات هوش مصنوعی؛ چالشها و عواقب بالقوه
وی ادامه داد: هوش مصنوعی بهعنوان یکی از پیشرفتهترین فناوریها، در سالهای اخیر به طور چشمگیری توسعه یافته و تأثیر عمیقی بر جنبههای مختلف زندگی انسان داشته است. از جمله این تأثیرات میتوان به پیشرفتهایی در صنایع مختلف، بهبود فرآیندهای تصمیمگیری و ایجاد تجربیات شخصیسازی شده اشاره کرد. با این حال، این فناوری همچنین با چالشها و خطرات قابل توجهی روبهرو است که نیاز به توجه و بررسی دقیق دارند.
مجیدی یکی از بزرگترین خطرات هوش مصنوعی را قابلیتهای سوء استفاده از آن در دستان افراد غیرمستند و گروههای مخرب دانست و اظهار کرد: الگوریتمهای هوش مصنوعی میتوانند برای ایجاد محتواهای جعلی، اخبار دروغین و پروپاگاندا استفاده شوند. با بهرهگیری از هوش مصنوعی، کاربران میتوانند تصاویر و ویدئوهای جعلی با کیفیت بالا تولید کنند که این موضوع میتواند تهدیدی جدی باشد.
وی با بیان اینکه با پیشرفت فناوری هوش مصنوعی، نگرانیها درباره جایگزینی نیروی کار انسانی با ماشینها در حال افزایش است، گفت: این نگرانی بهویژه در بخشهای تولید، حمل و نقل و خدمات مشتری حس میشود، جایی که رباتها و الگوریتمها میتوانند وظایف را با سرعت و دقت بیشتری انجام دهند. این موضوع میتواند به از دست رفتن میلیونها شغل منجر شود و باعث افزایش نابرابری اقتصادی و اجتماعی گردد.
این پژوهشگر هوش مصنوعی از دیگر خطرات بالقوه هوش مصنوعی را توسعه و اعمال الگوریتمهای تبعیضآمیز دانست و خاطرنشان کرد: الگوریتمهای هوش مصنوعی به دادههای تاریخی نیاز دارند تا تصمیمات خود را اتخاذ کنند. اگر این دادهها دارای تعصبات نژادی، اجتماعی یا اقتصادی باشند، نتایج نیز میتواند با این تبعیضات همراه باشد.
وی با اشاره به اینکه استفاده از هوش مصنوعی در سیستمهای امنیتی و نظامی نیز خطرات خاص خود را به همراه دارد، بیان کرد: سیستمهای تسلیحاتی مبتنی بر هوش مصنوعی ممکن است در آینده بهطور خودکار عمل کنند و این امر میتواند به بروز تصادفات جدی و غیرقابل پیشبینی منجر شود. علاوه بر این، هکرها میتوانند از هوش مصنوعی برای حملات سایبری بهرهبرداری کنند و به دنبال نفوذ به سیستمها و به دست آوردن اطلاعات حساس باشند.
مجیدی ادامه داد: یکی از جنبههای جالب توجه هوش مصنوعی این است که میتواند به تدریج قابلیتها و مهارتهای انسانی را کاهش دهد. وقتی که افراد به هوش مصنوعی متکی شوند تا کارهای پیچیده را انجام دهند، این ممکن است به کاهش خلاقیت و تواناییهای تفکر انتقادی منجر شود. در بلندمدت، این امر ممکن است باعث شود انسانها در حل مسائل پیچیده ناتوانتر شوند.
وی اظهار کرد: هوش مصنوعی یک ابزار قدرتمند است که میتواند به پیشرفتهای بزرگی در صنایع و جامعه منجر شود، اما همزمان با این پیشرفتها، خطرات قابل توجهی نیز وجود دارد.
انتهای پیام