چگونه سازمان ها می توانند برای هوش مصنوعی مولد آماده شوند؟

سازمان‌های سراسری به طور قابل‌توجهی ریسک هوش مصنوعی را نادیده می‌گیرند. اجرای ضعیف هوش مصنوعی می تواند نابرابری های موجود در محل کار را تداوم بخشد. ما بررسی می‌کنیم که چگونه کسب‌وکارها می‌توانند از استقرار اخلاق مدار هوش مصنوعی مولد اطمینان حاصل کنند.

در میان تبلیغات اخیر در مورد ChatGPT و هوش مصنوعی مولد، بسیاری مشتاق هستند تا از پتانسیل پیشرفته این فناوری استفاده کنند. با این حال، یافته‌های تحقیق هوش مصنوعی بیکر مک‌کنزی در سال ۲۰۲۲ در آمریکای شمالی نشان می‌دهد که رهبران کسب‌وکار ممکن است در حال حاضر خطرات مرتبط با هوش مصنوعی را برای سازمان خود نادیده بگیرند. تنها 4 درصد از پاسخ دهندگان در سطح C-suite گفتند که خطرات مرتبط با استفاده از هوش مصنوعی را «مهم» می دانند و کمتر از نیمی از آنها گفتند که در سطح هیئت مدیره تخصص هوش مصنوعی دارند.

این ارقام واقعیت نگران‌کننده‌ای را نشان می‌دهد: بسیاری از سازمان‌ها برای هوش مصنوعی آمادگی کافی ندارند، و فاقد نظارت و تخصص مناسب از سوی تصمیم‌گیرندگان کلیدی برای مدیریت ریسک هستند. اگر به نقاط کور سازمانی پیرامون استقرار اخلاق مدار و مؤثر فناوری توجه نشود، احتمالاً فرصت‌های متحول کننده را تحت الشعاع قرار می‌دهد و در عین حال باعث شده که سازمان‌ها سرعت رشد انفجاری فناوری را از دست بدهند.

هوش مصنوعی مولد چگونه چشم انداز ریسک را تغییر می دهد؟

این روزها، پیشرفت و پذیرش مرتبط با هوش مصنوعی با نرخ تصاعدی اتفاق می‌افتد، برخی خیلی سریع استدلال می‌کنند. در حالی که این رشد تصاعدی تمرکز بر استفاده از هوش مصنوعی را تجدید کرده، واقعیت این است که دانشگاهیان، دانشمندان، سیاست گذاران، متخصصان حقوقی و دیگران مدتی است که برای استفاده اخلاقی و قانونی به کارگیری هوش مصنوعی، به ویژه در محل کار نگرانی هایی را مطرح کرده اند.

طبق نظرسنجی ما، 75 درصد از شرکت‌ها در حال حاضر از ابزار و فناوری هوش مصنوعی برای اهداف استخدام و منابع انسانی استفاده می‌کنند.

در این مرحله جدید از هوش مصنوعی مولد، اصول اساسی در مورد پذیرش هوش مصنوعی مانند حکمرانی، پاسخگویی و شفافیت بیش از هر زمان دیگری مهم هستند، همانطور که نگرانی ها در مورد عواقب هوش مصنوعی ضعیف استقرار یافته است.

به عنوان مثال، الگوریتم‌های کنترل نشده می‌توانند منجر به نتایج مغرضانه و تبعیض‌آمیز، تداوم نابرابری و کاهش پیشرفت تنوع نیروی کار شوند. حریم خصوصی و نقض داده ها نگرانی دیگری است که به راحتی از طریق جمع آوری داده های کارکنان رخ می دهد.

هوش مصنوعی مولد همچنین جای خود را به ملاحظات IP جدید داده است و سؤالاتی را در مورد مالکیت ورودی ها و خروجی های برنامه های شخص ثالث و نگرانی های بعدی مربوط به نقض حق نسخه برداری ایجاد کرده است. به طور کلی، شاهد تلاش دولت‌ها و تنظیم‌کننده‌ها برای اجرای قوانین مرتبط با هوش مصنوعی و مکانیسم‌های اجرایی نظارتی بوده‌ایم. در ایالات متحده، تمرکز اصلی قوانین نوظهور بر استفاده از هوش مصنوعی در استخدام و عملیات مرتبط با منابع انسانی خواهد بود.

دعوی قضایی، از جمله دعوای طبقاتی، نیز در افق است. ما در حال حاضر شاهد موج اول دعاوی مولد AI IP در ایالات متحده هستیم و این تصمیمات اولیه دادگاه در حال شکل دادن به چشم انداز قانونی فقدان مقررات موجود است.

سازمان‌هایی که هوش مصنوعی مولد را پیاده‌سازی می‌کنند باید فرض کنند که داده‌های وارد شده به ابزارها و پرسش‌های هوش مصنوعی توسط ارائه‌دهندگان شخص ثالث این فناوری جمع‌آوری می‌شوند. در برخی موارد، این ارائه دهندگان حق استفاده و یا افشای این ورودی ها را خواهند داشت.

از آنجایی که کارفرمایان به دنبال تجهیز نیروی کار خود به ابزارهای مولد هوش مصنوعی هستند، آیا داده های حساس و اسرار تجاری را در معرض خطر قرار می دهند؟ به طور خلاصه بله. در مجموع، به نظر می‌رسد هر توسعه جدید سریع‌تر از آن‌چه سازمان‌ها، قانون‌گذاران و دادگاه‌ها بتوانند به آنها پاسخ دهند، سؤالات را باز می‌کند.

cta telegram

چگونه سازمان ها می توانند آمادگی هوش مصنوعی خود را افزایش دهند؟

هوش مصنوعی مولد در حال تغییر پارادایم بوده و خطرات پیرامون موارد استفاده خاص همچنان به وجود خواهند آمد. برای ماندن در آینده، سازمان‌ها باید رویکردهای فعلی را فراتر از تلاش‌های بی‌حساب حرکت داده و عملکردهای گسسته را زیر چتر یک چارچوب حاکمیتی قوی گرد هم آورند.

در حالی که بسیاری از سازمان‌ها برای رهبری ابتکارات هوش مصنوعی به دانشمندان داده تکیه می‌کنند، همه ذینفعان مرتبط، از جمله حقوقی، C-suite، هیئت‌مدیره، حریم خصوصی، انطباق و منابع انسانی، باید در کل فرآیند تصمیم‌گیری مشارکت داشته باشند.

این شکاف بازنمایی در یافته‌های نظرسنجی ما مشخص شد. در حال حاضر، تنها 54 درصد از پاسخ دهندگان گفتند که سازمان آنها منابع انسانی را در فرآیند تصمیم گیری برای ابزارهای هوش مصنوعی درگیر می کند و تنها 36 درصد از پاسخ دهندگان گفتند که یک مدیر ارشد هوش مصنوعی (CAIO) دارند. در این محیط پرخطر، CAIO نقش مهمی در حصول اطمینان از وجود حاکمیت و نظارت مربوطه در سطح C-Suite ایفا می‌کند و منابع انسانی را در آموزش و پرورش یک تیم هوش مصنوعی متقابل مشارکت می‌کند.

در کنار این موضوع، سازمان‌ها باید چارچوب حاکمیت داخلی را آماده کرده و از آن پیروی کنند که ریسک‌های سازمانی را در همه موارد استفاده محاسبه کرده و به شرکت اجازه ‌داده تا پس از شناسایی مسائل، تنظیمات انطباق صحیح را به طور موثر انجام دهد.

شرکت‌هایی که ساختار حاکمیت هوش مصنوعی نداشته و با فقدان نظارت از سوی ذینفعان کلیدی رو به رو هستند یا شرکت‌هایی که به ابزارهای شخص ثالث به‌عنوان عمده‌فروشی متکی هستند، با خطر استفاده از ابزارهای هوش مصنوعی به گونه‌ای که مسئولیت‌های قانونی برای سازمان آن ها ایجاد ‌کند، مواجه می شوند (به عنوان مثال، ادعاهای تبعیض).

تقریباً تمام تصمیم‌گیری‌ها، خواه مبتنی بر هوش مصنوعی یا غیرمستقیم باشد، سوگیری ایجاد می‌کند. شرکت‌هایی که از این ابزارها استفاده کرده باید چارچوبی ایجاد کنند که رویکردی برای ارزیابی سوگیری و مکانیزمی برای آزمایش و اجتناب از سوگیری غیرقانونی و همچنین اطمینان از رعایت الزامات مربوط به حریم خصوصی داده‌ها را ایجاد کنند.

شرکت‌هایی که هوش مصنوعی را مستقر می‌کنند باید اطمینان حاصل کرده که فرآیندهای موجود آن ها درک روشنی از مجموعه داده‌های مورد استفاده، عملکرد الگوریتمی و محدودیت‌های تکنولوژیکی ارائه می‌دهد، زیرا قانون پیشنهادی احتمالاً شامل الزامات گزارش‌دهی می‌شود.

چشم انداز نهایی هوش مصنوعی

مقدمه ساده است: هوش مصنوعی به طور گسترده و سریع مورد استفاده قرار گرفته و مزایای بسیاری را ارائه می دهد. اما با چنان سرعتی در حال گسترش و توسعه است که نظارت استراتژیک و حکمرانی برای استفاده مسئولانه و کاهش ریسک آن حیاتی تر می شود.

بسیاری از سازمان‌ها برای هوش مصنوعی آماده نیستند و خطرات آن را نادیده می‌گیرند، این امر موجب می‌شود که فناوری را بدون حفاظ مناسب به کار گیرند. خوشبختانه، با ایجاد ساختارهای حاکمیتی و نظارتی قوی، سازمان‌ها می‌توانند بدون توجه به جایی که در هوش مصنوعی خود هستند، در برابر این جزر و مدهای فناوری مقاومت کنند.

فراتر از این، راه حل بلندمدت برای مدیریت ریسک مرتبط با هوش مصنوعی، متکی به ذینفعان آگاه به موضوعات حقوقی، نظارتی و خصوصی است. این گروه ها باید نیروهای خود را برای پیشبرد قوانین، با کدهای عملی یا چارچوب‌های راهنمایی که هم فرصت‌ها و هم ریسک‌های ارائه‌شده فناوری را تشخیص ‌دهند، مسلح کنند.

با وجود یک چارچوب امن، سازمان ها می توانند خود را قادر سازند تا فناوری هوش مصنوعی را به کار گرفته و از مزایای آن با اطمینان بیشتری بهره ببرند.

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا