سازمانهای سراسری به طور قابلتوجهی ریسک هوش مصنوعی را نادیده میگیرند. اجرای ضعیف هوش مصنوعی می تواند نابرابری های موجود در محل کار را تداوم بخشد. ما بررسی میکنیم که چگونه کسبوکارها میتوانند از استقرار اخلاق مدار هوش مصنوعی مولد اطمینان حاصل کنند.
در میان تبلیغات اخیر در مورد ChatGPT و هوش مصنوعی مولد، بسیاری مشتاق هستند تا از پتانسیل پیشرفته این فناوری استفاده کنند. با این حال، یافتههای تحقیق هوش مصنوعی بیکر مککنزی در سال ۲۰۲۲ در آمریکای شمالی نشان میدهد که رهبران کسبوکار ممکن است در حال حاضر خطرات مرتبط با هوش مصنوعی را برای سازمان خود نادیده بگیرند. تنها 4 درصد از پاسخ دهندگان در سطح C-suite گفتند که خطرات مرتبط با استفاده از هوش مصنوعی را «مهم» می دانند و کمتر از نیمی از آنها گفتند که در سطح هیئت مدیره تخصص هوش مصنوعی دارند.
این ارقام واقعیت نگرانکنندهای را نشان میدهد: بسیاری از سازمانها برای هوش مصنوعی آمادگی کافی ندارند، و فاقد نظارت و تخصص مناسب از سوی تصمیمگیرندگان کلیدی برای مدیریت ریسک هستند. اگر به نقاط کور سازمانی پیرامون استقرار اخلاق مدار و مؤثر فناوری توجه نشود، احتمالاً فرصتهای متحول کننده را تحت الشعاع قرار میدهد و در عین حال باعث شده که سازمانها سرعت رشد انفجاری فناوری را از دست بدهند.
هوش مصنوعی مولد چگونه چشم انداز ریسک را تغییر می دهد؟
این روزها، پیشرفت و پذیرش مرتبط با هوش مصنوعی با نرخ تصاعدی اتفاق میافتد، برخی خیلی سریع استدلال میکنند. در حالی که این رشد تصاعدی تمرکز بر استفاده از هوش مصنوعی را تجدید کرده، واقعیت این است که دانشگاهیان، دانشمندان، سیاست گذاران، متخصصان حقوقی و دیگران مدتی است که برای استفاده اخلاقی و قانونی به کارگیری هوش مصنوعی، به ویژه در محل کار نگرانی هایی را مطرح کرده اند.
طبق نظرسنجی ما، 75 درصد از شرکتها در حال حاضر از ابزار و فناوری هوش مصنوعی برای اهداف استخدام و منابع انسانی استفاده میکنند.
در این مرحله جدید از هوش مصنوعی مولد، اصول اساسی در مورد پذیرش هوش مصنوعی مانند حکمرانی، پاسخگویی و شفافیت بیش از هر زمان دیگری مهم هستند، همانطور که نگرانی ها در مورد عواقب هوش مصنوعی ضعیف استقرار یافته است.
به عنوان مثال، الگوریتمهای کنترل نشده میتوانند منجر به نتایج مغرضانه و تبعیضآمیز، تداوم نابرابری و کاهش پیشرفت تنوع نیروی کار شوند. حریم خصوصی و نقض داده ها نگرانی دیگری است که به راحتی از طریق جمع آوری داده های کارکنان رخ می دهد.
هوش مصنوعی مولد همچنین جای خود را به ملاحظات IP جدید داده است و سؤالاتی را در مورد مالکیت ورودی ها و خروجی های برنامه های شخص ثالث و نگرانی های بعدی مربوط به نقض حق نسخه برداری ایجاد کرده است. به طور کلی، شاهد تلاش دولتها و تنظیمکنندهها برای اجرای قوانین مرتبط با هوش مصنوعی و مکانیسمهای اجرایی نظارتی بودهایم. در ایالات متحده، تمرکز اصلی قوانین نوظهور بر استفاده از هوش مصنوعی در استخدام و عملیات مرتبط با منابع انسانی خواهد بود.
دعوی قضایی، از جمله دعوای طبقاتی، نیز در افق است. ما در حال حاضر شاهد موج اول دعاوی مولد AI IP در ایالات متحده هستیم و این تصمیمات اولیه دادگاه در حال شکل دادن به چشم انداز قانونی فقدان مقررات موجود است.
سازمانهایی که هوش مصنوعی مولد را پیادهسازی میکنند باید فرض کنند که دادههای وارد شده به ابزارها و پرسشهای هوش مصنوعی توسط ارائهدهندگان شخص ثالث این فناوری جمعآوری میشوند. در برخی موارد، این ارائه دهندگان حق استفاده و یا افشای این ورودی ها را خواهند داشت.
از آنجایی که کارفرمایان به دنبال تجهیز نیروی کار خود به ابزارهای مولد هوش مصنوعی هستند، آیا داده های حساس و اسرار تجاری را در معرض خطر قرار می دهند؟ به طور خلاصه بله. در مجموع، به نظر میرسد هر توسعه جدید سریعتر از آنچه سازمانها، قانونگذاران و دادگاهها بتوانند به آنها پاسخ دهند، سؤالات را باز میکند.
چگونه سازمان ها می توانند آمادگی هوش مصنوعی خود را افزایش دهند؟
هوش مصنوعی مولد در حال تغییر پارادایم بوده و خطرات پیرامون موارد استفاده خاص همچنان به وجود خواهند آمد. برای ماندن در آینده، سازمانها باید رویکردهای فعلی را فراتر از تلاشهای بیحساب حرکت داده و عملکردهای گسسته را زیر چتر یک چارچوب حاکمیتی قوی گرد هم آورند.
در حالی که بسیاری از سازمانها برای رهبری ابتکارات هوش مصنوعی به دانشمندان داده تکیه میکنند، همه ذینفعان مرتبط، از جمله حقوقی، C-suite، هیئتمدیره، حریم خصوصی، انطباق و منابع انسانی، باید در کل فرآیند تصمیمگیری مشارکت داشته باشند.
این شکاف بازنمایی در یافتههای نظرسنجی ما مشخص شد. در حال حاضر، تنها 54 درصد از پاسخ دهندگان گفتند که سازمان آنها منابع انسانی را در فرآیند تصمیم گیری برای ابزارهای هوش مصنوعی درگیر می کند و تنها 36 درصد از پاسخ دهندگان گفتند که یک مدیر ارشد هوش مصنوعی (CAIO) دارند. در این محیط پرخطر، CAIO نقش مهمی در حصول اطمینان از وجود حاکمیت و نظارت مربوطه در سطح C-Suite ایفا میکند و منابع انسانی را در آموزش و پرورش یک تیم هوش مصنوعی متقابل مشارکت میکند.
در کنار این موضوع، سازمانها باید چارچوب حاکمیت داخلی را آماده کرده و از آن پیروی کنند که ریسکهای سازمانی را در همه موارد استفاده محاسبه کرده و به شرکت اجازه داده تا پس از شناسایی مسائل، تنظیمات انطباق صحیح را به طور موثر انجام دهد.
شرکتهایی که ساختار حاکمیت هوش مصنوعی نداشته و با فقدان نظارت از سوی ذینفعان کلیدی رو به رو هستند یا شرکتهایی که به ابزارهای شخص ثالث بهعنوان عمدهفروشی متکی هستند، با خطر استفاده از ابزارهای هوش مصنوعی به گونهای که مسئولیتهای قانونی برای سازمان آن ها ایجاد کند، مواجه می شوند (به عنوان مثال، ادعاهای تبعیض).
تقریباً تمام تصمیمگیریها، خواه مبتنی بر هوش مصنوعی یا غیرمستقیم باشد، سوگیری ایجاد میکند. شرکتهایی که از این ابزارها استفاده کرده باید چارچوبی ایجاد کنند که رویکردی برای ارزیابی سوگیری و مکانیزمی برای آزمایش و اجتناب از سوگیری غیرقانونی و همچنین اطمینان از رعایت الزامات مربوط به حریم خصوصی دادهها را ایجاد کنند.
شرکتهایی که هوش مصنوعی را مستقر میکنند باید اطمینان حاصل کرده که فرآیندهای موجود آن ها درک روشنی از مجموعه دادههای مورد استفاده، عملکرد الگوریتمی و محدودیتهای تکنولوژیکی ارائه میدهد، زیرا قانون پیشنهادی احتمالاً شامل الزامات گزارشدهی میشود.
چشم انداز نهایی هوش مصنوعی
مقدمه ساده است: هوش مصنوعی به طور گسترده و سریع مورد استفاده قرار گرفته و مزایای بسیاری را ارائه می دهد. اما با چنان سرعتی در حال گسترش و توسعه است که نظارت استراتژیک و حکمرانی برای استفاده مسئولانه و کاهش ریسک آن حیاتی تر می شود.
بسیاری از سازمانها برای هوش مصنوعی آماده نیستند و خطرات آن را نادیده میگیرند، این امر موجب میشود که فناوری را بدون حفاظ مناسب به کار گیرند. خوشبختانه، با ایجاد ساختارهای حاکمیتی و نظارتی قوی، سازمانها میتوانند بدون توجه به جایی که در هوش مصنوعی خود هستند، در برابر این جزر و مدهای فناوری مقاومت کنند.
فراتر از این، راه حل بلندمدت برای مدیریت ریسک مرتبط با هوش مصنوعی، متکی به ذینفعان آگاه به موضوعات حقوقی، نظارتی و خصوصی است. این گروه ها باید نیروهای خود را برای پیشبرد قوانین، با کدهای عملی یا چارچوبهای راهنمایی که هم فرصتها و هم ریسکهای ارائهشده فناوری را تشخیص دهند، مسلح کنند.
با وجود یک چارچوب امن، سازمان ها می توانند خود را قادر سازند تا فناوری هوش مصنوعی را به کار گرفته و از مزایای آن با اطمینان بیشتری بهره ببرند.