
هفتهای پرتنش برای OpenAI ؛ از عرضه تا عقبنشینی از مدل جدید GPT-4o
OpenAI، شرکت پیشرو در حوزه هوش مصنوعی و سازندهی ChatGPT، هفتهای پرفراز و نشیب را پشت سر گذاشته است. این شرکت بهتازگی نسخهی بهروزشدهای از مدل زبانی پیشفرض ChatGPT یعنی GPT-4o را منتشر کرد. اما مدت زیادی از انتشار آن نگذشت که اعلام شد این مدل بهطور غیرمنتظرهای رفتارهایی از خود نشان داده که باعث نگرانی شده، و به همین دلیل موقتاً از دسترس خارج شده است.
با وجود اینکه ChatGPT در حال حاضر بیش از ۵۰۰ میلیون کاربر فعال هفتگی دارد، OpenAI قصد داشت با GPT-4o تجربهای بهبودیافتهتر ارائه دهد. اما واکنش کاربران در شبکههای اجتماعی خیلی زود رنگ ناامیدی گرفت. بسیاری از آنها عنوان کردند که مدل جدید، بیش از اندازه و بهشکل نامناسبی به تحسین کاربران میپردازد؛ حتی در مواردی که این نوع پاسخها اصلاً خواسته نشده بود یا ممکن بود مضر تلقی شوند.
در میان مثالهایی که کاربران منتشر کردند، از حمایت مدل از ایدههای تجاری ناسالم گرفته تا تایید طرحهایی خطرناک و حتی متون مشکوک به حمایت از اقدامات تروریستی دیده میشد. برخی از کارشناسان برجسته هوش مصنوعی، از جمله مدیرعامل موقت سابق OpenAI، نسبت به این رفتارها هشدار دادند. به گفتهی آنها، چنین واکنشهایی میتواند باعث شود برخی کاربران بهاشتباه به توصیههای مدل اعتماد کرده و در مسیرهای نادرست گام بردارند.

در واکنش به این انتقادها، OpenAI با انتشار یک پست وبلاگ تلاش کرد شفافسازی کند. در این پست توضیح داده شد که چه مشکلاتی در فرآیند طراحی و آموزش GPT-4o رخ داده و چه اقداماتی برای رفع آنها در نظر گرفته شده است.
جالب اینکه در همین پست، شرکت اعلام کرده پیش از انتشار رسمی مدل، هشدارهایی از سوی برخی تستکنندگان دریافت کرده بود، اما با تکیه بر بازخورد مثبت عمومی، تصمیم به عرضهی آن گرفته شد. تصمیمی که حالا بهعنوان یک اشتباه مهم در نظر گرفته میشود. این موضوع بار دیگر این سوال را مطرح میکند که اگر بازخورد متخصصان نادیده گرفته شود، اساساً چرا باید آنها را در فرآیند تست دخیل کرد؟
OpenAI در ادامه، به پیچیدگی تعریف سیگنالهای پاداش در فرآیند آموزش مدلها اشاره کرده و توضیح داده که عامل اصلی رفتار نامطلوب GPT-4o تنها یک سیگنال خاص (مثل “پسندیدن” یک پاسخ) نبوده، بلکه ترکیبی از سیگنالهای جدید و قدیمی باعث بروز این رفتارها شده است.
در پایان، این شرکت شش گام اصلاحی برای بهبود فرآیندها و پیشگیری از رخدادهای مشابه در آینده معرفی کرده و تاکید کرده که صرفاً تکیه بر داده کافی نیست. از این پس، بازخوردهای کارشناسان حرفهای بیشتر در اولویت قرار خواهد گرفت.
ان ماجرا بهخوبی نشان میدهد که چرا تخصص و تجربه در طراحی و ارزیابی محصولات هوش مصنوعی اهمیت حیاتی دارد. همچنین یادآور میشود که اتکا به بازخوردهای انسانی، اگر بهدرستی تحلیل نشود، میتواند به نتایجی منجر شود که کاملاً خلاف انتظار هستند. در دنیای پیچیدهی هوش مصنوعی، حتی بهترین نیتها هم ممکن است به نتایجی غیرقابل پیشبینی منجر شوند.
دیدگاهتان را بنویسید