/۱۱ فوریه؛ روز جهانی زنان و دختران در علم/

آینده علمی ایمن بدون حضور زنان ساخته نمی‌شود

همزمان با گسترش نقش الگوریتم‌ها در سیاست‌گذاری و خدمات عمومی، نهادهای بین‌المللی تاکید کردند که نبود زنان در طراحی علم و فناوری، خطر بازتولید سوگیری و آسیب‌های قابل پیشگیری را افزایش می‌دهد.

در جهانی که هوش مصنوعی دیگر مفهومی مربوط به آینده نیست و همین امروز بر تصمیم‌هایی تاثیر می‌گذارد که زندگی میلیون‌ها نفر را شکل می‌دهند، نابرابری جنسیتی در علم و فناوری از مسئله اخلاقی فراتر رفته و به ریسک عملیاتی تبدیل شده است. از اولویت‌بندی بیماران در نظام‌های سلامت گرفته تا شناسایی گروه‌های آسیب‌پذیر در خدمات اجتماعی، از نحوه انتشار پیام‌های پیشگیرانه در شبکه‌های الگوریتم‌محور تا تخصیص منابع در شرایط فشار نهادی، همه و همه به داده‌ها، مدل‌ها و تصمیم‌هایی وابسته‌ هستند که اگر نیمی از جامعه در طراحی آن‌ها غایب باشد، ناگزیر دچار نقاط کور خواهند شد.

در چنین شرایطی، یونسکو با برگزاری «روز جهانی زنان و دختران در علم» در سال ۲۰۲۶، بر پیوند مستقیم میان پیشرفت علمی و برابری جنسیتی تاکید کرده است. این نهاد بین‌المللی اعلام کرد که حرکت «از چشم‌انداز به سوی اثرگذاری» تنها زمانی ممکن است که هم شکاف مشارکت و هم شکاف تاثیرگذاری در علم و فناوری از بین برود؛ علمی که از نظر فنی پیشرفته است و علمی که به‌طور واقعی به نیازهای اجتماعی پاسخ می‌دهد.

آمارهایی که زنگ خطر را به صدا درآورده‌اند

داده‌های یونسکو نشان می‌دهد که زنان همچنان به‌طور متوسط کمتر از یک‌سوم پژوهشگران جهان را تشکیل می‌دهند. سهم جهانی زنان پژوهشگر در سال ۲۰۲۱ به ۳۱.۷ درصد رسید، افزایشی اندک نسبت به دوره قبل، اما رشدی که با سرعت تحولات فناورانه و اجتماعی همخوانی ندارد. اگر پیشگیری به معنای کاهش آسیب‌پذیری پیش از تبدیل شدن آن به بحران است—از سلامت روان و اعتیاد گرفته تا بیماری‌های مزمن و خشونت—آنگاه برابری در STEM دیگر ماموریت جانبی نیست، بلکه بخشی از زیرساخت پیشگیری محسوب می‌شود.

افسانه‌ها و واقعیت‌ها

سایت یونسکو گزارش کرد، برخلاف روایتی رایج، انتخاب ۱۱ فوریه به‌عنوان روز جهانی زنان و دختران در علم به مناسبت تولد ماری کوری نبوده است. این روز بر اساس قطعنامه رسمی مجمع عمومی سازمان ملل تعیین شد، زیرا سازمان ملل به این جمع‌بندی رسید که حل چالش‌های جهانی و تحقق اهداف توسعه پایدار ۲۰۳۰ بدون پیشرفت همزمان علم و برابری جنسیتی ممکن نیست. ماری کوری همچنان نماد نبوغ علمی است، اما بیش از آن، یادآور نابرابری فرصت‌هاست.

شکافی که در هر مرحله وجود دارد

شکاف جنسیتی در حوزه‌های علوم، فناوری، مهندسی و ریاضیات (STEM) یک مانع واحد نیست که با برداشتن آن مشکل حل شود بلکه مسیر طولانی است که در هر مرحله—از آموزش و دانشگاه تا ورود به بازار کار و رسیدن به موقعیت‌های تصمیم‌گیری— ممکن است زنان، به دلایل مختلف از آن خارج شوند. یونسکو تاکید کرد: مسئله فقط حضور عددی نیست، بلکه این پرسش است که علم تا چه اندازه اخلاق‌محور، فراگیر و پاسخگو به جامعه می‌ماند. در این میان، مسئله راهبردی‌تر از «شغل» است، حوزه‌های علوم، فناوری، مهندسی و ریاضیات تعیین می‌کنند چه مواردی مسئله تلقی شوند، چه راه‌حل‌هایی طراحی شود و پیشرفت به نفع چه کسانی تعریف گردد.

هوش مصنوعی و تغییر قواعد بازی

نتایج گزارش‌های سازمان همکاری و توسعه اقتصادی (OECD) نشان می‌دهد، زنان لزوما کمتر از مردان در معرض هوش مصنوعی در محیط کار نیستند، اما احتمال بیشتری دارد که از منافع آن بی‌بهره بمانند. طبق نتایج تحقیقی، زنان در مشاغل مشابه، ۲۰ درصد کمتر از مردان گزارش کرده‌اند که از ابزارهایی مانند «چت‌جی‌پی‌تی» (ChatGPT) استفاده می‌کنند. این شکاف در پذیرش فناوری، فقط تفاوت رفتاری نیست بلکه سازوکاری برای توزیع نابرابر فرصت، بهره‌وری و اعتمادبه‌نفس است.

همزمان، تمرکز بالاتر زنان در مشاغل دفتری—که بیشترین فشار اتوماسیون را تجربه می‌کنند—خطر «اختلال نابرابر» قرار گرفتن در معرض تغییر، بدون دسترسی کافی به مزایای آن را تشدید می‌کند.

گزارش مشترک یونسکو، بانک توسعه بین‌المللی و سازمان همکاری و توسعه اقتصادی نیز نشان می‌دهد، زنان فقط ۲۹ درصد از مشاغل تحقیق و توسعه علمی را در اختیار دارند و ۲۵ درصد کمتر از مردان می‌دانند چگونه از فناوری دیجیتال برای کاربردهای پایه استفاده کنند، شکافی که با ورود هوش مصنوعی به زیرساخت اصلی کار، به سرعت عمیق‌تر می‌شود.

ترس از قضاوت و مسئله امنیت

نتایج پژوهش دانشکده کسب‌وکار هاروارد نشان می‌دهد، یکی از دلایل اصلی پذیرش کمتر ابزارهای هوش مصنوعی توسط زنان، ترس از قضاوت و نگرانی‌های اخلاقی است. اگر استفاده از این ابزارها به‌عنوان «تقلب» یا «غیراصیل بودن» تلقی شود، محیط‌های کاری باید به‌جای تشویق مبهم، ساختارهای صریح و امن برای استفاده مسوولانه از فناوری ایجاد کنند.

از سوی دیگر، نهادهایی مانند نهاد زنان سازمان ملل (UN Women) هشدار می‌دهند که هوش مصنوعی ذاتا بی‌طرف نیست و اگر آگاهانه برای برابری طراحی نشود، سوگیری‌ها را در مقیاسی وسیع بازتولید خواهد کرد. تهدیدهایی مانند جعل عمیق، آزار دیجیتال، تبعیض در استخدام و خطاهای سلامت دیجیتال، مسائل حاشیه‌ای نیستند بلکه به‌طور مستقیم با امنیت، کرامت و دسترسی مرتبط‌ هستند.

تبدیل حوزه‌های علوم، فناوری، مهندسی و ریاضیات به مسئله سلامت و پیشگیری 

در حوزه سلامت و سیاست اجتماعی، هوش مصنوعی تعیین می‌کند چه کسی «پرخطر» محسوب می‌شود، چه کسی زودتر خدمات می‌گیرد و کدام جوامع، هدف برنامه‌های پیشگیرانه قرار می‌گیرند. وقتی نگاه و تجربه زنان در این طراحی وجود نداشته باشد، خطر آن قابل پیش‌بینی است، مدل‌هایی که تجربه واقعی زندگی را درست درک نمی‌کنند، رابط‌هایی که محدودیت‌های واقعی را نادیده می‌گیرند و برنامه‌های پیشگیرانه‌ای که در عمل از همان کسانی بازمی‌مانند که قرار بوده از آن‌ها محافظت کنند.

حتی خارج از سلامت، پیشگیری امروز به‌شدت الگوریتم‌محور شده است. پیام‌هایی که به افراد می‌رسد یا نمی‌رسد با سیستم‌هایی فیلتر می‌شود که برای تعامل و نه برای مراقبت طراحی شده‌اند. در چنین فضایی، برابری در حوزه‌های علوم، فناوری، مهندسی و ریاضیات به معنای ارتباط اخلاقی و قابل اعتماد است.

چالش‌ها و فرصت‌ها

سایت دیانوا گزارش می‌دهد، پنج چالش اصلی خروج زنان از مسیر شغلی، سوگیری نهادی، شکاف مهارت‌های پایه دیجیتال، دسترسی نابرابر به ابزارهای هوش مصنوعی و نگرانی‌های امنیتی و اخلاقی است. در مقابل، فرصت‌هایی مانند حکمرانی هوش مصنوعی با رویکرد جنسیتی، آموزش مرحله‌ای مهارت‌ها، ایجاد امنیت روانی در سازمان‌ها، طراحی اخلاق‌محور فناوری و ایمنی دیجیتال می‌توانند مسیر را تغییر دهند.

حضور زنان و دختران در علم و فناوری، نمادین یا تزئینی نیست، این حضور، بخشی از زیرساخت پیشگیری و تاب‌آوری اجتماعی است. وقتی زنان در طراحی علم و فناوری نقش دارند، پرسش‌ها دقیق‌تر مطرح می‌شوند، داده‌ها واقعیت‌های پنهان را بهتر منعکس می‌کنند، پیشگیری موثرتر طراحی می‌شود و اعتماد عمومی افزایش می‌یابد. در عصر هوش مصنوعی، برابری در حوزه‌های علوم، فناوری، مهندسی و ریاضیات نه‌ فقط مطالبه عدالت‌خواهانه، بلکه شرط ضروری برای آینده‌ای ایمن‌تر و انسانی‌تر است.

انتهای پیام

  • چهارشنبه/ ۲۲ بهمن ۱۴۰۴ / ۱۰:۲۱
  • دسته‌بندی: خراسان رضوی
  • کد خبر: 1404112213209
  • خبرنگار : 50072