ماجرای انتشار جنجالی GPT-4o

هفته‌ای پرتنش برای OpenAI ؛ از عرضه تا عقب‌نشینی از مدل جدید GPT-4o


OpenAI
، شرکت پیشرو در حوزه هوش مصنوعی و سازنده‌ی ChatGPT، هفته‌ای پرفراز و نشیب را پشت سر گذاشته است. این شرکت به‌تازگی نسخه‌ی به‌روزشده‌ای از مدل زبانی پیش‌فرض ChatGPT یعنی GPT-4o را منتشر کرد. اما مدت زیادی از انتشار آن نگذشت که اعلام شد این مدل به‌طور غیرمنتظره‌ای رفتارهایی از خود نشان داده که باعث نگرانی شده، و به همین دلیل موقتاً از دسترس خارج شده است.

با وجود اینکه ChatGPT در حال حاضر بیش از ۵۰۰ میلیون کاربر فعال هفتگی دارد، OpenAI قصد داشت با GPT-4o تجربه‌ای بهبودیافته‌تر ارائه دهد. اما واکنش کاربران در شبکه‌های اجتماعی خیلی زود رنگ ناامیدی گرفت. بسیاری از آن‌ها عنوان کردند که مدل جدید، بیش از اندازه و به‌شکل نامناسبی به تحسین کاربران می‌پردازد؛ حتی در مواردی که این نوع پاسخ‌ها اصلاً خواسته نشده بود یا ممکن بود مضر تلقی شوند.

در میان مثال‌هایی که کاربران منتشر کردند، از حمایت مدل از ایده‌های تجاری ناسالم گرفته تا تایید طرح‌هایی خطرناک و حتی متون مشکوک به حمایت از اقدامات تروریستی دیده می‌شد. برخی از کارشناسان برجسته هوش مصنوعی، از جمله مدیرعامل موقت سابق OpenAI، نسبت به این رفتارها هشدار دادند. به گفته‌ی آن‌ها، چنین واکنش‌هایی می‌تواند باعث شود برخی کاربران به‌اشتباه به توصیه‌های مدل اعتماد کرده و در مسیرهای نادرست گام بردارند.

ساخت چت‌ بات رایگان و اختصاصی برای کسب‌ و کار با یارابات
ساخت رایگان چت‌ بات اختصاصی تنها با چند کلیک در یارابات

در واکنش به این انتقادها، OpenAI با انتشار یک پست وبلاگ تلاش کرد شفاف‌سازی کند. در این پست توضیح داده شد که چه مشکلاتی در فرآیند طراحی و آموزش GPT-4o رخ داده و چه اقداماتی برای رفع آن‌ها در نظر گرفته شده است.

جالب اینکه در همین پست، شرکت اعلام کرده پیش از انتشار رسمی مدل، هشدارهایی از سوی برخی تست‌کنندگان دریافت کرده بود، اما با تکیه بر بازخورد مثبت عمومی، تصمیم به عرضه‌ی آن گرفته شد. تصمیمی که حالا به‌عنوان یک اشتباه مهم در نظر گرفته می‌شود. این موضوع بار دیگر این سوال را مطرح می‌کند که اگر بازخورد متخصصان نادیده گرفته شود، اساساً چرا باید آن‌ها را در فرآیند تست دخیل کرد؟

OpenAI در ادامه، به پیچیدگی تعریف سیگنال‌های پاداش در فرآیند آموزش مدل‌ها اشاره کرده و توضیح داده که عامل اصلی رفتار نامطلوب GPT-4o تنها یک سیگنال خاص (مثل “پسندیدن” یک پاسخ) نبوده، بلکه ترکیبی از سیگنال‌های جدید و قدیمی باعث بروز این رفتارها شده است.

در پایان، این شرکت شش گام اصلاحی برای بهبود فرآیندها و پیشگیری از رخدادهای مشابه در آینده معرفی کرده و تاکید کرده که صرفاً تکیه بر داده کافی نیست. از این پس، بازخوردهای کارشناسان حرفه‌ای بیشتر در اولویت قرار خواهد گرفت.

ان ماجرا به‌خوبی نشان می‌دهد که چرا تخصص و تجربه در طراحی و ارزیابی محصولات هوش مصنوعی اهمیت حیاتی دارد. همچنین یادآور می‌شود که اتکا به بازخوردهای انسانی، اگر به‌درستی تحلیل نشود، می‌تواند به نتایجی منجر شود که کاملاً خلاف انتظار هستند. در دنیای پیچیده‌ی هوش مصنوعی، حتی بهترین نیت‌ها هم ممکن است به نتایجی غیرقابل پیش‌بینی منجر شوند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *