چهار روندی که در سال 2023 در حوزه هوش مصنوعی اتفاق افتاد، شامل عرضه بیپایان محصولات، کودتاهای اتاق هیئت مدیره، بحثهای شدید سیاستی، و رقابت برای کشف قدم های بزرگ بعدی، سال پرمشغلهای را به دنبال داشت. اما به همراه این رویدادها، ابزارها و سیاستهایی هم به چشم میخورند که هدفشان افزایش مسئولیت در رفتار هوش مصنوعی و نگهداشتن بازیکنان قدرتمند بوده که این نکته امیدوارکنندهای برای آینده هوش مصنوعی است.
1- مدل های زبان بزرگ ( LLM )
هوش مصنوعی مولد آزمایشگاه را با انتقام ترک کرد، اما مقصد در آیندهای نامعلوم است. سال با ورود فناوری بزرگ هوش مصنوعی مولد آغاز شد، که با موفقیت چشمگیر ChatGPT از OpenAI، هر کمپانی فناوری را بر آن داشت تا نسخه خود را معرفی کند. این سال ممکن است به عنوان سال بیسابقهای در تاریخ عرضه محصولات هوش مصنوعی ثبت شود: LLaMA 2 از متا، ربات چت بارد و جمینای گوگل، ربات ارنی بایدو، GPT-4 از OpenAI، و تعدادی از مدلهای دیگر. با این حال، علیرغم تبلیغات اولیه، هنوز هیچ اپلیکیشن هوش مصنوعی نتواسته به سرعت به موفقیت دست یابد. اشتباهات اساسی در مدلهای زبان، همچون تولید محتوای غیرمنطقی، به برخی از لحظات خندهدار و حتی خجالتآور منجر شد. به طور مثال بینگ مایکروسافت اغلب با تئوریهای توطئه به سوالات مردم پاسخ میداد و Bard گوگل برای کمپین بازاریابی خود پاسخهای نادرستی ارائه کرد که نقصهای جدی را برای برخی شرکت ها در پی داشت.
اکنون یک مسابقه بزرگ برای بهترین محصول هوش مصنوعی در حال جریان است، که تمام مردم برای استفاده از آن مشتاق هستند. هم OpenAI و هم گوگل در حال آزمایش نمونه هایی هستند تا به شرکتها و توسعهدهندگان این امکان را بدهند که چترباتهای هوش مصنوعی سفارشی بسازند و به افراد نیز این امکان را بدهند تا بدون نیاز به مهارت در کدنویسی برنامههای خود را با استفاده از هوش مصنوعی ایجاد کنند. این مهم میتواند به طور نهایی در تبدیل هوش مصنوعی مولد به ابزاری مفید برای افزایش بهرهوری در محل کار به عنوان دستیار هوش مصنوعی با قابلیتهای صوتی یا حتی پشتیبانی از کدنویسی کمک کند. در این زمینه ارزیابی ارزش واقعی هوش مصنوعی مولد در سال 2024 بسیار حیاتی خواهد بود.
2- تلاش برای درک بیشتر مدل های زبان بزرگ ( LLM )
ما اکنون درباره عملکرد مدلهای زبانی بزرگ اطلاعات بسیاری داریم، اما هنوز به اندازه کافی در مورد جنبههای مختلف آنها آگاه نیستیم. حتی با افزایش سریع عرضه محصولات توسط شرکتهای فناوری، هنوز اطلاعات محدودی در خصوص عملکرد دقیق آنها به دست نیاوردهایم. این مدلها محصولاتی تولید میکنند که دارای تعصبات جنسی و قومی قوی هستند. امسال هم مشاهده کردیم که مدلهای زبانی مختلف، متنهایی با سوگیریهای سیاسی متفاوت ایجاد کرده و ابزارهای قدرتمندی برای نفوذ به اطلاعات خصوصی افراد هستند. مدلهای تبدیل متن به تصویر هم میتوانند تصاویر واقعی افراد را با حق چاپ ایجاد کرده و آنها را به راحتی فریب داده و تصاویر آزاردهنده تولید کنند.
تلاشهای زیادی در سال جاری برای بهبود رفتار مدلهای مولد انجام شد. OpenAI از تکنیک یادگیری تقویتی با استفاده از بازخورد انسانی به منظور هدایت ChatGPT به پاسخهای بهتر استفاده میکند. مطالعات از آزمایشگاه هوش مصنوعی Anthropic نشان میدهد که دستورالعملهای ساده به زبان طبیعی میتوانند مدلهای زبان بزرگ را به نوعی هدایت کنند تا نتایج آنها کمتر سمی شود. با این حال، متأسفانه، بسیاری از این تلاشها به جایی نرسیده و به سرعت متوقف میشوند. راهحلهای نادرست مانند ممنوع کردن کلمات بیضرر مانند “جفت” به عنوان راهی برای جلوگیری از ایجاد محتوای مضر از طریق سیستمهای هوش مصنوعی تولید کننده تصویر وجود دارد. شرکتهای فناوری راهحلهایی ارائه میدهند، اما هنوز نمیدانیم چرا مدلها محتوای خاصی را تولید میکنند.
3- خطرات هوش مصنوعی
همچنین، در سال جاری، درک بهتری از تأثیرات کربنی که هوش مصنوعی بر جوامع دارد، به دست آمد. تحقیقات نشان میدهد که تولید تصویر با استفاده از مدلهای قوی هوش مصنوعی میتواند انرژی معادل شارژ کامل تلفن هوشمند را مصرف کند که امروزه این اطلاعات دقیق در خصوص مصرف انرژی هوش مصنوعی مولد، به چالشی برای ما تبدیل شده است. تحقیقات بیشتر در این زمینه میتواند کمک کند تا راهکارهایی برای استفاده پایدارتر از هوش مصنوعی پیدا کنیم.
نابودی هوش مصنوعی به جریان اصلی تبدیل شده و در سال جاری آگاهیهای بسیاری در مورد خطرات وجودی هوش مصنوعی برای انسان به وجود آمده است. مجموعهای از صدها دانشمند، کارآفرین، و سیاستگذاران از افرادی چون جفری هینتون و یوشوا بنجیو تا مدیران شرکتهای برجسته هوش مصنوعی، از جمله سم آلتمن، دمیس حسابیس، تد لیو، و … درباره خطرات پیشروی هوش مصنوعی به گفتوگو پرداختهاند.
موضوع خطرات وجودی هوش مصنوعی به یکی از مهمترین مسائل در این حوزه تبدیل شده است. بر اساس برخی پیش بینی ها در آینده ممکن است یک هوش مصنوعی با بازدهی بسیار بالاتر از انسانها داشته باشیم که میتواند به عواقب جدی و خطرناکی منجر شود. این ایدئولوژی توسط بسیاری از فعالان در صنعت فناوری، از جمله ایلیا سوتسکور از OpenAI، دفاع میشود.
هرچند که بسیاری از افراد با این ایده موافقت نمیکنند. برخی از رهبران هوش مصنوعی متا، اعمال این ترسها را «مضحک» خوانده و برخی دیگر، همچون جوی بولاموینی، مدعی شدهاند که تمرکز بر خطرات فرضی از آنکه به آسیبهای واقعی که هوش مصنوعی امروزی ایجاد میکند، منحرف شده است.
اما با این حال، توجه به پتانسیل آسیبهای این فناوری باعث شده است که گفتوگوهای مهمی در زمینههای سیاست و قانونگذاری هوش مصنوعی در سراسر جهان آغاز شود. در سال جاری، قانونگذاران اروپایی به توافق در مورد قوانین و استانداردهای الزامآور برای توسعه مسئولانهتر هوش مصنوعی رسیدند. همچنین در آمریکا، پیشنهادات و تعهدات داوطلبانه از طرف شرکتهای بزرگ هوش مصنوعی و یک فرمان اجرایی از سوی کاخ سفید اعلام شد که به ایجاد شفافیت و استانداردهای بیشتر برای هوش مصنوعی هدفمند تاکید دارد.
یک پیشنهاد جالب و مهم در مورد سیاست هوش مصنوعی امسال، معرفی واترمارک ها بود. این نشانههای نامرئی در متن و تصاویر است که میتواند توسط رایانهها شناسایی شده و برای ایجاد شفافیت و پیشگیری از محتوای نادرست مورد استفاده قرار گیرند. این تلاشها همچنین در حوزه حقوقی پیگیری و تعداد زیادی از شکایتها ارائه شد که نشان میدهد هنرمندان و نویسندگان از اینکه شرکتهای هوش مصنوعی بدون اجازه مالکیت معنوی خود را به کار گیرند، عصبانی هستند.
همچنین در حال حاضر شاهد ایجاد مقاومتی در برابر هوش مصنوعی هستیم، و امیدواریم که تلاشهای مردمی برای تغییر تعادل قدرت در زمینه فناوری در سالهای آینده ادامه داشته باشد.
4- قدرت های فعال در هوش مصنوعی
تیم Superalignment OpenAI:
OpenAI اقدام به اعلام نتایج کار تیم superalignment خود کرده است. این تیم، تحت رهبری دانشمند ارشد Ilya Sutskever، بر ایجاد راهکارهایی برای جلوگیری از سرکشی یک ابر هوش (هوش مصنوعی فرضی که از انسانها پیشی میگیرد) تمرکز دارد. این تیم به اشتراک گذاشته که از یک تکنیک کمکلید برای کنترل یک مدل زبان کمتر قدرتمند استفاده میکند، که ممکن است گامی کوچک به سوی درک بهتر از نحوه نظارت انسان بر ماشینهای فوقبشری باشد.
Google DeepMind:
Google DeepMind از یک مدل زبان بزرگ برای حل یک مسئله ریاضی غیرقابل حل استفاده کرده است. این شرکت در مقالهای در نشریه Nature اعلام کرده است که این اولین بار است که از یک مدل زبان برای کشف راهحل معمای علمی قدیمی استفاده شده و اطلاعات جدیدی را تولید کرده که قبلاً در دسترس نبوده است.
سیستم Dobb-E:
یک سیستم منبع باز جدید به نام Dobb-E با استفاده از دادههای جمعآوری شده از خانههای واقعی آموزش داده شده است. این سیستم میتواند به آموزش رباتها کمک کند تا مهارتهای خانگی سادهای را یاد بگیرند، از جمله پاکسازی هوا، بستن درها و صاف کردن بالشتک. همچنین میتواند به حل چالشهای رباتیکی (رباتیک چیست؟) کمک کند که با کمبود دادههای آموزشی مواجه هستند.
همکاری Axel Springer و OpenAI:
Axel Springer، که مالک Politico و Business Insider است، اعلام کرده که از همکاری با OpenAI برای استفاده از ChatGPT در خلاصه خبرها استفاده خواهد کرد. این همکاری نشان از نقش روزافزون شرکتهای فناوری به عنوان دروازهبان محتوای آنلاین است.
سدریک او:
قبل از پیوستن به یونیکورن هوش مصنوعی فرانسه، طرفدار جدی قوانین سختگیرانه برای فناوری بود، اما به شدت علیه قوانین موجود در قانون هوش مصنوعی که مدلهای Mistral را محدود میکرد، لابی کرد. او موافق بود که مدلهای این شرکت آستانه محاسباتی تعیینشده توسط قانون را برآورده نمیکنند، و مدلهای منبع باز آن نیز از تعهدات شفافیت معاف هستند.