چگونه سازمان ها می توانند در برابر خطرات هوش مصنوعی آماده شوند؟

سازمان‌های سراسری به طور قابل‌توجهی ریسک هوش مصنوعی را نادیده می‌گیرند.

اجرای ضعیف هوش مصنوعی می تواند نابرابری های موجود در محل کار را تداوم بخشد.

ما بررسی می‌کنیم که چگونه کسب‌وکارها می‌توانند از استقرار اخلاق مدار هوش مصنوعی مولد اطمینان حاصل کنند.

Artificial intelligence

در میان تبلیغات اخیر در مورد ChatGPT و هوش مصنوعی مولد (AI)، بسیاری مشتاق هستند تا از پتانسیل پیشرفته این فناوری استفاده کنند. با این حال، یافته‌های تحقیق هوش مصنوعی بیکر مک‌کنزی در سال ۲۰۲۲ در آمریکای شمالی نشان می‌دهد که رهبران کسب‌وکار ممکن است در حال حاضر خطرات مرتبط با هوش مصنوعی را برای سازمان خود نادیده بگیرند. تنها 4 درصد از پاسخ دهندگان در سطح C-suite گفتند که خطرات مرتبط با استفاده از هوش مصنوعی را «مهم» می دانند و کمتر از نیمی از آنها گفتند که در سطح هیئت مدیره تخصص هوش مصنوعی دارند.

این ارقام واقعیت نگران‌کننده‌ای را نشان می‌دهد: بسیاری از سازمان‌ها برای هوش مصنوعی آمادگی کافی ندارند، و فاقد نظارت و تخصص مناسب از سوی تصمیم‌گیرندگان کلیدی برای مدیریت ریسک هستند. و اگر به نقاط کور سازمانی پیرامون استقرار اخلاق مدار و مؤثر فناوری توجه نشود، احتمالاً فرصت‌های متحول کننده را تحت الشعاع قرار می‌دهد و در عین حال باعث می‌شود که سازمان‌ها سرعت رشد انفجاری فناوری را از دست بدهند.

هوش مصنوعی مولد چگونه چشم انداز ریسک را تغییر می دهد؟

این روزها، پیشرفت و پذیرش مرتبط با هوش مصنوعی با نرخ تصاعدی اتفاق می‌افتد – برخی خیلی سریع استدلال می‌کنند. در حالی که این رشد تصاعدی تمرکز بر استفاده از هوش مصنوعی را تجدید کرده است، واقعیت این است که دانشگاهیان، دانشمندان، سیاست گذاران، متخصصان حقوقی و دیگران مدتی است که برای استفاده اخلاقی و قانونی و به کارگیری هوش مصنوعی، به ویژه در محل کار نگرانی هایی را مطرح کرده اند.

طبق نظرسنجی ما، 75 درصد از شرکت‌ها در حال حاضر از ابزار و فناوری هوش مصنوعی برای اهداف استخدام و منابع انسانی استفاده می‌کنند.

در این مرحله جدید از هوش مصنوعی مولد، اصول اصلی در مورد پذیرش هوش مصنوعی – مانند حکمرانی، پاسخگویی و شفافیت – بیش از هر زمان دیگری مهم هستند، همانطور که نگرانی ها در مورد عواقب هوش مصنوعی ضعیف استقرار یافته است.

به عنوان مثال، الگوریتم‌های کنترل نشده می‌توانند منجر به نتایج مغرضانه و تبعیض‌آمیز، تداوم نابرابری و کاهش پیشرفت تنوع نیروی کار شوند. حریم خصوصی و نقض داده ها نگرانی دیگری است که به راحتی از طریق ناشناس نبودن و جمع آوری داده های کارکنان رخ می دهد.

هوش مصنوعی مولد همچنین جای خود را به ملاحظات IP جدید داده است و سؤالاتی را در مورد مالکیت ورودی ها و خروجی های برنامه های شخص ثالث و نگرانی های بعدی مربوط به نقض حق نسخه برداری ایجاد کرده است. به طور کلی، شاهد تلاش دولت‌ها و تنظیم‌کننده‌ها برای اجرای قوانین مرتبط با هوش مصنوعی و مکانیسم‌های اجرایی نظارتی بوده‌ایم. در ایالات متحده، تمرکز اصلی قوانین نوظهور بر استفاده از هوش مصنوعی در استخدام و عملیات مرتبط با منابع انسانی خواهد بود.

دعوی قضایی، از جمله دعوای طبقاتی، نیز در افق است. ما در حال حاضر شاهد موج اول دعاوی مولد AI IP در ایالات متحده هستیم و این تصمیمات اولیه دادگاه در حال شکل دادن به چشم انداز قانونی فقدان مقررات موجود است.

سازمان‌هایی که هوش مصنوعی مولد را پیاده‌سازی می‌کنند باید فرض کنند که داده‌های وارد شده به ابزارها و پرسش‌های هوش مصنوعی توسط ارائه‌دهندگان شخص ثالث این فناوری جمع‌آوری می‌شوند. در برخی موارد، این ارائه دهندگان حق استفاده و/یا افشای این ورودی ها را خواهند داشت.

از آنجایی که کارفرمایان به دنبال تجهیز نیروی کار خود به ابزارهای مولد هوش مصنوعی هستند، آیا داده های حساس و اسرار تجاری را در معرض خطر قرار می دهند؟ به طور خلاصه بله. در مجموع، به نظر می‌رسد هر توسعه جدید سریع‌تر از آن‌چه سازمان‌ها، قانون‌گذاران و دادگاه‌ها بتوانند به آنها پاسخ دهند، سؤالات را باز می‌کند.

چگونه سازمان ها می توانند آمادگی هوش مصنوعی خود را افزایش دهند؟

هوش مصنوعی مولد در حال تغییر پارادایم است و خطرات پیرامون موارد استفاده خاص همچنان به وجود خواهند آمد. برای ماندن در آینده، سازمان‌ها باید رویکردهای فعلی را فراتر از تلاش‌های بی‌حساب حرکت دهند و عملکردهای گسسته را زیر چتر یک چارچوب حاکمیتی قوی گرد هم آورند.

در حالی که بسیاری از سازمان‌ها برای رهبری ابتکارات هوش مصنوعی به دانشمندان داده تکیه می‌کنند، همه ذینفعان مرتبط، از جمله حقوقی، C-suite، هیئت‌مدیره، حریم خصوصی، انطباق و منابع انسانی، باید در کل فرآیند تصمیم‌گیری مشارکت داشته باشند.

این شکاف بازنمایی در یافته‌های نظرسنجی ما مشخص شد. در حال حاضر، تنها 54 درصد از پاسخ دهندگان گفتند که سازمان آنها منابع انسانی را در فرآیند تصمیم گیری برای ابزارهای هوش مصنوعی درگیر می کند و تنها 36 درصد از پاسخ دهندگان گفتند که یک مدیر ارشد هوش مصنوعی (CAIO) دارند. در این محیط پرخطر، CAIO نقش مهمی در حصول اطمینان از وجود حاکمیت و نظارت مربوطه در سطح C-Suite ایفا می‌کند و منابع انسانی را در آموزش و پرورش یک تیم هوش مصنوعی متقابل مشارکت می‌کند.

در کنار این موضوع، سازمان‌ها باید چارچوب حاکمیت داخلی را آماده کرده و از آن پیروی کنند که ریسک‌های سازمانی را در همه موارد استفاده حساب می‌کند و به شرکت اجازه می‌دهد تا پس از شناسایی مسائل، تنظیمات انطباق صحیح را به طور موثر انجام دهد.

خطری که برای شرکت‌هایی که ساختار حاکمیت هوش مصنوعی ندارند و فقدان نظارت از سوی ذینفعان کلیدی – یا شرکت‌هایی که به ابزارهای شخص ثالث به‌عنوان عمده‌فروشی متکی هستند – استفاده از ابزارهای هوش مصنوعی به گونه‌ای است که مسئولیت‌های قانونی سازمانی ایجاد می‌کند (به عنوان مثال، ادعاهای تبعیض).

تقریباً تمام تصمیم‌گیری‌ها، خواه مبتنی بر هوش مصنوعی یا غیرمستقیم باشد، سوگیری ایجاد می‌کند. شرکت‌هایی که از این ابزارها استفاده می‌کنند باید چارچوبی ایجاد کنند که رویکردی برای ارزیابی سوگیری و مکانیزمی برای آزمایش و اجتناب از سوگیری غیرقانونی و همچنین اطمینان از رعایت الزامات مربوط به حریم خصوصی داده‌ها را ایجاد کند.

شرکت‌هایی که هوش مصنوعی را مستقر می‌کنند باید اطمینان حاصل کنند که فرآیندهایی وجود دارد که درک روشنی از مجموعه داده‌های مورد استفاده، عملکرد الگوریتمی و محدودیت‌های تکنولوژیکی ارائه می‌دهد، زیرا قانون پیشنهادی احتمالاً شامل الزامات گزارش‌دهی می‌شود.

چشم انداز نهایی هوش مصنوعی

مقدمه ساده است: هوش مصنوعی به طور گسترده و سریع مورد استفاده قرار می گیرد و مزایای بسیاری را ارائه می دهد. اما با چنان سرعتی در حال گسترش و توسعه است که نظارت استراتژیک و حکمرانی برای استفاده مسئولانه و کاهش ریسک آن حیاتی تر می شود.

بسیاری از سازمان‌ها هم برای هوش مصنوعی آماده نیستند و هم خطرات را نادیده می‌گیرند، و این باعث می‌شود که این فناوری را بدون حفاظ مناسب به کار گیرند. خوشبختانه، با ایجاد ساختارهای حاکمیتی و نظارتی قوی، سازمان‌ها می‌توانند بدون توجه به جایی که در هوش مصنوعی خود هستند، در برابر این جزر و مدهای فناوری مقاومت کنند.

فراتر از این، راه حل بلندمدت برای مدیریت ریسک مرتبط با هوش مصنوعی، متکی به ذینفعان آگاه به موضوعات حقوقی، نظارتی و خصوصی است. این گروه ها باید نیروهای خود را برای پیشبرد قوانین، با کدهای عملی یا چارچوب‌های راهنمایی که هم فرصت‌ها و هم ریسک‌های ارائه‌شده فناوری را تشخیص ‌دهند، مسلح کنند.

با وجود یک چارچوب امن، سازمان ها می توانند خود را قادر سازند تا فناوری هوش مصنوعی را به کار گرفته و از مزایای آن با اطمینان بیشتری بهره ببرند.

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا