صاحب‌دیوان، پایـگاه خبــری و تحلیلی تاریخ و فـرهنگ ایران

پارس وی دی اس
پنجشنبه, 19 تیر, 1404

از تسلط هوش مصنوعی فرار کرده‌اید؟

علی خیابانیان

از تسلط هوش مصنوعی فرار کرده‌اید؟ ممکن است باز هم اخراج شوید و رئیس‌تان اجازه دهد ChatGPT تصمیم بگیرد

 

اختصاصی صاحب دیوان / در حالی که بسیاری از تسخیر گسترده جهان توسط هوش مصنوعی بیم دارند و آن را تهدیدی آینده‌نگر می‌بینند، تأثیر این فناوری هم‌اکنون به‌طور مستقیم و ملموس در محیط کار احساس می‌شود، به‌ویژه در تصمیم‌گیری‌های حیاتی مانند استخدام و اخراج کارکنان. یک گزارش اخیر نشان می‌دهد که مدیران به‌طور فزاینده‌ای برای این فرآیندهای حساس به ابزارهای هوش مصنوعی، از جمله مدل‌های زبان بزرگ مانند ChatGPT، متکی می‌شوند. این روند نگرانی‌های قابل توجهی را در خصوص امنیت شغلی کارکنان و پتانسیل سوگیری الگوریتمی ایجاد می‌کند. بر اساس این گزارش، سیستم‌های هوش مصنوعی در حال استقرار در بخش‌های منابع انسانی هستند تا وظایفی فراتر از غربالگری اولیه رزومه‌ها را انجام دهند.

این ابزارها ممکن است برای تحلیل داده‌های عملکرد کارکنان، ارزیابی پتانسیل رشد یا حتی شناسایی نامزدهای احتمالی برای تعدیل نیرو یا اخراج به کار روند. طرفداران استفاده از هوش مصنوعی در این زمینه‌ها استدلال می‌کنند که این کار می‌تواند کارایی فرآیندهای منابع انسانی را افزایش داده، به مدیران در اتخاذ تصمیمات مبتنی بر داده کمک کند و حتی عینیت بیشتری را نسبت به قضاوت‌های انسانی که ممکن است تحت تأثیر احساسات یا سوگیری‌های ناخودآگاه قرار گیرند، فراهم آورد. اما برای کارکنان، اتکای فزاینده به هوش مصنوعی در چنین تصمیمات سرنوشت‌سازی، منبع اضطراب و نگرانی است. ترس اصلی این است که الگوریتم‌های پیچیده، که سازوکار داخلی‌شان اغلب برای کاربران و حتی گاهی توسعه‌دهندگان مبهم است، بتوانند تصمیمات حیاتی و سرنوشت‌ساز را بدون نظارت انسانی معنادار، شفافیت کافی یا امکان اعتراض موثر اتخاذ کنند. این وضعیت می‌تواند احساس عدم امنیت شغلی را به شدت افزایش دهد، چرا که آینده حرفه‌ای افراد به قضاوت یک سیستم غیرانسانی و غیرقابل درک وابسته می‌شود. نگرانی عمده دیگر که در این گزارش و توسط کارشناسان مطرح می‌شود، مسئله سوگیری الگوریتمی است.

 

 

مدل‌های هوش مصنوعی بر اساس مجموعه داده‌های عظیمی آموزش می‌بینند که ممکن است منعکس‌کننده سوگیری‌های موجود در جامعه باشند. اگر داده‌های تاریخی استخدام یا عملکرد حاوی تبعیض‌های گذشته بر اساس جنسیت، سن، قومیت، سابقه تحصیلی یا سایر عوامل باشند، هوش مصنوعی می‌تواند این سوگیری‌ها را یاد گرفته و در تصمیمات خود تداوم بخشد یا حتی آن‌ها را تقویت کند. این مسئله می‌تواند منجر به تبعیض ناخواسته و ناعادلانه علیه گروه‌های خاصی از داوطلبان یا کارکنان شود، حتی اگر آن‌ها از نظر شایستگی کاملاً واجد شرایط باشند. این گزارش به طور خاص از ادغام مدل‌های زبان بزرگ مانند ChatGPT در فرآیندهای منابع انسانی نام می‌برد. در حالی که این مدل‌ها ممکن است برای کارهایی مانند نوشتن شرح شغل، پیش‌نویس ایمیل‌های استخدامی یا ارتباط اولیه با داوطلبان به کار روند، پتانسیل استفاده از آن‌ها در ارزیابی پاسخ‌های کتبی داوطلبان، تحلیل الگوهای ارتباطی در مصاحبه‌ها یا حتی خلاصه‌سازی و تحلیل بازخوردهای عملکردی کارکنان، سوالات اخلاقی جدیدی را مطرح می‌کند.

 دقت، بی‌طرفی و قابلیت اعتماد این مدل‌ها در چنین کاربردهای حساسی هنوز به طور کامل مشخص نیست و می‌تواند به تصمیمات اشتباه یا ناعادلانه منجر شود. در مجموع، پذیرش فزاینده هوش مصنوعی در بخش‌های منابع انسانی، در حالی که کارایی‌های بالقوه‌ای مانند سرعت بخشیدن به فرآیندها و کاهش هزینه‌ها را ارائه می‌دهد، خطرات قابل توجهی را نیز به همراه دارد. نگرانی‌ها در مورد امنیت شغلی کارکنان، پتانسیل بالای سوگیری الگوریتمی، عدم شفافیت در نحوه اتخاذ تصمیمات توسط این سیستم‌ها و فقدان نظارت انسانی کافی، مسائل جدی هستند که نیازمند توجه فوری هستند. کارشناسان بر لزوم پیاده‌سازی دقیق، نظارت قوی، بررسی منظم عملکرد سیستم‌های هوش مصنوعی برای شناسایی و رفع سوگیری‌ها و تدوین دستورالعمل‌های اخلاقی روشن تأکید می‌کنند تا اطمینان حاصل شود که این ابزارها مسئولانه و با رعایت اصول عدالت و کرامت انسانی در محیط کار استفاده می‌شوند. همانطور که هوش مصنوعی به تکامل خود ادامه می‌دهد، مدیریت نقش آن در تصمیم‌گیری‌هایی که مستقیماً بر معیشت و آینده حرفه‌ای افراد تأثیر می‌گذارند، یک چالش حیاتی برای کسب‌وکارها، قانون‌گذاران و جامعه به طور کلی خواهد بود.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

کانون تبلیغاتی آریانی
یادداشت