این ابزارها ممکن است برای تحلیل دادههای عملکرد کارکنان، ارزیابی پتانسیل رشد یا حتی شناسایی نامزدهای احتمالی برای تعدیل نیرو یا اخراج به کار روند. طرفداران استفاده از هوش مصنوعی در این زمینهها استدلال میکنند که این کار میتواند کارایی فرآیندهای منابع انسانی را افزایش داده، به مدیران در اتخاذ تصمیمات مبتنی بر داده کمک کند و حتی عینیت بیشتری را نسبت به قضاوتهای انسانی که ممکن است تحت تأثیر احساسات یا سوگیریهای ناخودآگاه قرار گیرند، فراهم آورد. اما برای کارکنان، اتکای فزاینده به هوش مصنوعی در چنین تصمیمات سرنوشتسازی، منبع اضطراب و نگرانی است. ترس اصلی این است که الگوریتمهای پیچیده، که سازوکار داخلیشان اغلب برای کاربران و حتی گاهی توسعهدهندگان مبهم است، بتوانند تصمیمات حیاتی و سرنوشتساز را بدون نظارت انسانی معنادار، شفافیت کافی یا امکان اعتراض موثر اتخاذ کنند. این وضعیت میتواند احساس عدم امنیت شغلی را به شدت افزایش دهد، چرا که آینده حرفهای افراد به قضاوت یک سیستم غیرانسانی و غیرقابل درک وابسته میشود. نگرانی عمده دیگر که در این گزارش و توسط کارشناسان مطرح میشود، مسئله سوگیری الگوریتمی است.
مدلهای هوش مصنوعی بر اساس مجموعه دادههای عظیمی آموزش میبینند که ممکن است منعکسکننده سوگیریهای موجود در جامعه باشند. اگر دادههای تاریخی استخدام یا عملکرد حاوی تبعیضهای گذشته بر اساس جنسیت، سن، قومیت، سابقه تحصیلی یا سایر عوامل باشند، هوش مصنوعی میتواند این سوگیریها را یاد گرفته و در تصمیمات خود تداوم بخشد یا حتی آنها را تقویت کند. این مسئله میتواند منجر به تبعیض ناخواسته و ناعادلانه علیه گروههای خاصی از داوطلبان یا کارکنان شود، حتی اگر آنها از نظر شایستگی کاملاً واجد شرایط باشند. این گزارش به طور خاص از ادغام مدلهای زبان بزرگ مانند ChatGPT در فرآیندهای منابع انسانی نام میبرد. در حالی که این مدلها ممکن است برای کارهایی مانند نوشتن شرح شغل، پیشنویس ایمیلهای استخدامی یا ارتباط اولیه با داوطلبان به کار روند، پتانسیل استفاده از آنها در ارزیابی پاسخهای کتبی داوطلبان، تحلیل الگوهای ارتباطی در مصاحبهها یا حتی خلاصهسازی و تحلیل بازخوردهای عملکردی کارکنان، سوالات اخلاقی جدیدی را مطرح میکند.
دقت، بیطرفی و قابلیت اعتماد این مدلها در چنین کاربردهای حساسی هنوز به طور کامل مشخص نیست و میتواند به تصمیمات اشتباه یا ناعادلانه منجر شود. در مجموع، پذیرش فزاینده هوش مصنوعی در بخشهای منابع انسانی، در حالی که کاراییهای بالقوهای مانند سرعت بخشیدن به فرآیندها و کاهش هزینهها را ارائه میدهد، خطرات قابل توجهی را نیز به همراه دارد. نگرانیها در مورد امنیت شغلی کارکنان، پتانسیل بالای سوگیری الگوریتمی، عدم شفافیت در نحوه اتخاذ تصمیمات توسط این سیستمها و فقدان نظارت انسانی کافی، مسائل جدی هستند که نیازمند توجه فوری هستند. کارشناسان بر لزوم پیادهسازی دقیق، نظارت قوی، بررسی منظم عملکرد سیستمهای هوش مصنوعی برای شناسایی و رفع سوگیریها و تدوین دستورالعملهای اخلاقی روشن تأکید میکنند تا اطمینان حاصل شود که این ابزارها مسئولانه و با رعایت اصول عدالت و کرامت انسانی در محیط کار استفاده میشوند. همانطور که هوش مصنوعی به تکامل خود ادامه میدهد، مدیریت نقش آن در تصمیمگیریهایی که مستقیماً بر معیشت و آینده حرفهای افراد تأثیر میگذارند، یک چالش حیاتی برای کسبوکارها، قانونگذاران و جامعه به طور کلی خواهد بود.