مرور بر تاثیرات هوش مصنوعی در سال 2023

چهار روندی که در سال 2023 در حوزه هوش مصنوعی اتفاق افتاد، شامل عرضه بی‌پایان محصولات، کودتاهای اتاق هیئت مدیره، بحث‌های شدید سیاستی، و رقابت برای کشف قدم های بزرگ بعدی، سال پرمشغله‌ای را به دنبال داشت. اما به همراه این رویدادها، ابزارها و سیاست‌هایی هم به چشم می‌خورند که هدفشان افزایش مسئولیت در رفتار هوش مصنوعی و نگه‌داشتن بازیکنان قدرتمند بوده که این نکته امیدوارکننده‌ای برای آینده هوش مصنوعی است.

1- مدل های زبان بزرگ ( LLM )

هوش مصنوعی مولد آزمایشگاه را با انتقام ترک کرد، اما مقصد در آینده‌ای نامعلوم است. سال با ورود فناوری بزرگ هوش مصنوعی مولد آغاز شد، که با موفقیت چشمگیر ChatGPT از OpenAI، هر کمپانی فناوری را بر آن داشت تا نسخه خود را معرفی کند. این سال ممکن است به ‌عنوان سال بی‌سابقه‌ای در تاریخ عرضه محصولات هوش مصنوعی ثبت شود: LLaMA 2 از متا، ربات چت بارد و جمینای گوگل، ربات ارنی بایدو، GPT-4 از OpenAI، و تعدادی از مدل‌های دیگر. با این حال، علی‌رغم تبلیغات اولیه، هنوز هیچ اپلیکیشن هوش مصنوعی نتواسته به سرعت به موفقیت دست یابد. اشتباهات اساسی در مدل‌های زبان، همچون تولید محتوای غیرمنطقی، به برخی از لحظات خنده‌دار و حتی خجالت‌آور منجر شد. به طور مثال بینگ مایکروسافت اغلب با تئوری‌های توطئه به سوالات مردم پاسخ می‌داد و Bard گوگل برای کمپین بازاریابی خود پاسخ‌های نادرستی ارائه کرد که نقص‌های جدی را برای برخی شرکت ها در پی داشت.

اکنون یک مسابقه بزرگ برای بهترین محصول هوش مصنوعی در حال جریان است، که تمام مردم برای استفاده از آن مشتاق هستند. هم OpenAI و هم گوگل در حال آزمایش نمونه هایی هستند تا به شرکت‌ها و توسعه‌دهندگان این امکان را بدهند که چت‌ربات‌های هوش مصنوعی سفارشی بسازند و به افراد نیز این امکان را بدهند تا بدون نیاز به مهارت در کدنویسی برنامه‌های خود را با استفاده از هوش مصنوعی ایجاد کنند. این مهم می‌تواند به طور نهایی در تبدیل هوش مصنوعی مولد به ابزاری مفید برای افزایش بهره‌وری در محل کار به عنوان دستیار هوش مصنوعی با قابلیت‌های صوتی یا حتی پشتیبانی از کدنویسی کمک کند. در این زمینه ارزیابی ارزش واقعی هوش مصنوعی مولد در سال 2024 بسیار حیاتی خواهد بود.

2- تلاش برای درک بیشتر مدل های زبان بزرگ ( LLM )

ما اکنون درباره عملکرد مدل‌های زبانی بزرگ اطلاعات بسیاری داریم، اما هنوز به اندازه کافی در مورد جنبه‌های مختلف آنها آگاه نیستیم. حتی با افزایش سریع عرضه محصولات توسط شرکت‌های فناوری، هنوز اطلاعات محدودی در خصوص عملکرد دقیق آنها به دست نیاورده‌ایم. این مدل‌ها محصولاتی تولید می‌کنند که دارای تعصبات جنسی و قومی قوی هستند. امسال هم مشاهده کردیم که مدل‌های زبانی مختلف، متن‌هایی با سوگیری‌های سیاسی متفاوت ایجاد کرده و ابزارهای قدرتمندی برای نفوذ به اطلاعات خصوصی افراد هستند. مدل‌های تبدیل متن به تصویر هم می‌توانند تصاویر واقعی افراد را با حق چاپ ایجاد کرده و آنها را به راحتی فریب داده و تصاویر آزاردهنده تولید کنند.

تلاش‌های زیادی در سال جاری برای بهبود رفتار مدل‌های مولد انجام شد. OpenAI از تکنیک یادگیری تقویتی با استفاده از بازخورد انسانی به منظور هدایت ChatGPT به پاسخ‌های بهتر استفاده می‌کند. مطالعات از آزمایشگاه هوش مصنوعی Anthropic نشان می‌دهد که دستورالعمل‌های ساده به زبان طبیعی می‌توانند مدل‌های زبان بزرگ را به نوعی هدایت کنند تا نتایج آنها کمتر سمی شود. با این حال، متأسفانه، بسیاری از این تلاش‌ها به جایی نرسیده و به سرعت متوقف می‌شوند. راه‌حل‌های نادرست مانند ممنوع کردن کلمات بی‌ضرر مانند “جفت” به عنوان راهی برای جلوگیری از ایجاد محتوای مضر از طریق سیستم‌های هوش مصنوعی تولید کننده تصویر وجود دارد. شرکت‌های فناوری راه‌حل‌هایی ارائه می‌دهند، اما هنوز نمی‌دانیم چرا مدل‌ها محتوای خاصی را تولید می‌کنند.

3- خطرات هوش مصنوعی

همچنین، در سال جاری، درک بهتری از تأثیرات کربنی که هوش مصنوعی بر جوامع دارد، به دست آمد. تحقیقات نشان می‌دهد که تولید تصویر با استفاده از مدل‌های قوی هوش مصنوعی می‌تواند انرژی معادل شارژ کامل تلفن هوشمند را مصرف کند که امروزه این اطلاعات دقیق در خصوص مصرف انرژی هوش مصنوعی مولد، به چالشی برای ما تبدیل شده است. تحقیقات بیشتر در این زمینه می‌تواند کمک کند تا راهکارهایی برای استفاده پایدارتر از هوش مصنوعی پیدا کنیم.

نابودی هوش مصنوعی به جریان اصلی تبدیل شده و در سال جاری آگاهی‌های بسیاری در مورد خطرات وجودی هوش مصنوعی برای انسان به وجود آمده است. مجموعه‌ای از صدها دانشمند، کارآفرین، و سیاست‌گذاران از افرادی چون جفری هینتون و یوشوا بنجیو تا مدیران شرکت‌های برجسته هوش مصنوعی، از جمله سم آلتمن، دمیس حسابیس، تد لیو، و … درباره خطرات پیش‌روی هوش مصنوعی به گفت‌وگو پرداخته‌اند.

موضوع خطرات وجودی هوش مصنوعی به یکی از مهمترین مسائل در این حوزه تبدیل شده است. بر اساس برخی پیش بینی ها در آینده ممکن است یک هوش مصنوعی با بازدهی بسیار بالاتر از انسان‌ها داشته باشیم که می‌تواند به عواقب جدی و خطرناکی منجر شود. این ایدئولوژی توسط بسیاری از فعالان در صنعت فناوری، از جمله ایلیا سوتسکور از OpenAI، دفاع می‌شود.

هرچند که بسیاری از افراد با این ایده موافقت نمی‌کنند. برخی از رهبران هوش مصنوعی متا، اعمال این ترس‌ها را «مضحک» خوانده و برخی دیگر، همچون جوی بولاموینی، مدعی شده‌اند که تمرکز بر خطرات فرضی از آنکه به آسیب‌های واقعی که هوش مصنوعی امروزی ایجاد می‌کند، منحرف شده است.

اما با این حال، توجه به پتانسیل آسیب‌های این فناوری باعث شده است که گفت‌وگوهای مهمی در زمینه‌های سیاست و قانون‌گذاری هوش مصنوعی در سراسر جهان آغاز شود. در سال جاری، قانون‌گذاران اروپایی به توافق در مورد قوانین و استانداردهای الزام‌آور برای توسعه مسئولانه‌تر هوش مصنوعی رسیدند. همچنین در آمریکا، پیشنهادات و تعهدات داوطلبانه از طرف شرکت‌های بزرگ هوش مصنوعی و یک فرمان اجرایی از سوی کاخ سفید اعلام شد که به ایجاد شفافیت و استانداردهای بیشتر برای هوش مصنوعی هدفمند تاکید دارد.

یک پیشنهاد جالب و مهم در مورد سیاست هوش مصنوعی امسال، معرفی واترمارک ها بود. این نشانه‌های نامرئی در متن و تصاویر است که می‌تواند توسط رایانه‌ها شناسایی شده و برای ایجاد شفافیت و پیشگیری از محتوای نادرست مورد استفاده قرار گیرند. این تلاش‌ها همچنین در حوزه حقوقی پیگیری و تعداد زیادی از شکایت‌ها ارائه شد که نشان می‌دهد هنرمندان و نویسندگان از اینکه شرکت‌های هوش مصنوعی بدون اجازه مالکیت معنوی خود را به کار گیرند، عصبانی هستند.

همچنین در حال حاضر شاهد ایجاد مقاومتی در برابر هوش مصنوعی هستیم، و امیدواریم که تلاش‌های مردمی برای تغییر تعادل قدرت در زمینه فناوری در سال‌های آینده ادامه داشته باشد.

cta telegram

4- قدرت های فعال در هوش مصنوعی

تیم Superalignment OpenAI:

OpenAI اقدام به اعلام نتایج کار تیم superalignment خود کرده است. این تیم، تحت رهبری دانشمند ارشد Ilya Sutskever، بر ایجاد راهکارهایی برای جلوگیری از سرکشی یک ابر هوش (هوش مصنوعی فرضی که از انسان‌ها پیشی می‌گیرد) تمرکز دارد. این تیم به اشتراک گذاشته که از یک تکنیک کم‌کلید برای کنترل یک مدل زبان کمتر قدرتمند استفاده می‌کند، که ممکن است گامی کوچک به سوی درک بهتر از نحوه نظارت انسان بر ماشین‌های فوق‌بشری باشد.

Google DeepMind:

Google DeepMind از یک مدل زبان بزرگ برای حل یک مسئله ریاضی غیرقابل حل استفاده کرده است. این شرکت در مقاله‌ای در نشریه Nature اعلام کرده است که این اولین بار است که از یک مدل زبان برای کشف راه‌حل معمای علمی قدیمی استفاده شده و اطلاعات جدیدی را تولید کرده که قبلاً در دسترس نبوده است.

سیستم Dobb-E:

یک سیستم منبع باز جدید به نام Dobb-E با استفاده از داده‌های جمع‌آوری شده از خانه‌های واقعی آموزش داده شده است. این سیستم می‌تواند به آموزش ربات‌ها کمک کند تا مهارت‌های خانگی ساده‌ای را یاد بگیرند، از جمله پاکسازی هوا، بستن درها و صاف کردن بالشتک. همچنین می‌تواند به حل چالش‌های رباتیکی کمک کند که با کمبود داده‌های آموزشی مواجه هستند.

همکاری Axel Springer و OpenAI:

Axel Springer، که مالک Politico و Business Insider است، اعلام کرده که از همکاری با OpenAI برای استفاده از ChatGPT در خلاصه خبرها استفاده خواهد کرد. این همکاری نشان از نقش روزافزون شرکت‌های فناوری به عنوان دروازه‌بان محتوای آنلاین است.

سدریک او:

قبل از پیوستن به یونیکورن هوش مصنوعی فرانسه، طرفدار جدی قوانین سختگیرانه برای فناوری بود، اما به شدت علیه قوانین موجود در قانون هوش مصنوعی که مدل‌های Mistral را محدود می‌کرد، لابی کرد. او موافق بود که مدل‌های این شرکت آستانه محاسباتی تعیین‌شده توسط قانون را برآورده نمی‌کنند، و مدل‌های منبع باز آن نیز از تعهدات شفافیت معاف هستند.

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا