اخبار

ماجرای انتشار جنجالی GPT-4o

هفته‌ای پرتنش برای OpenAI ؛ از عرضه تا عقب‌نشینی از مدل جدید GPT-4o


OpenAI
، شرکت پیشرو در حوزه هوش مصنوعی و سازنده‌ی ChatGPT، هفته‌ای پرفراز و نشیب را پشت سر گذاشته است. این شرکت به‌تازگی نسخه‌ی به‌روزشده‌ای از مدل زبانی پیش‌فرض ChatGPT یعنی GPT-4o را منتشر کرد. اما مدت زیادی از انتشار آن نگذشت که اعلام شد این مدل به‌طور غیرمنتظره‌ای رفتارهایی از خود نشان داده که باعث نگرانی شده، و به همین دلیل موقتاً از دسترس خارج شده است.

با وجود اینکه ChatGPT در حال حاضر بیش از ۵۰۰ میلیون کاربر فعال هفتگی دارد، OpenAI قصد داشت با GPT-4o تجربه‌ای بهبودیافته‌تر ارائه دهد. اما واکنش کاربران در شبکه‌های اجتماعی خیلی زود رنگ ناامیدی گرفت. بسیاری از آن‌ها عنوان کردند که مدل جدید، بیش از اندازه و به‌شکل نامناسبی به تحسین کاربران می‌پردازد؛ حتی در مواردی که این نوع پاسخ‌ها اصلاً خواسته نشده بود یا ممکن بود مضر تلقی شوند.

در میان مثال‌هایی که کاربران منتشر کردند، از حمایت مدل از ایده‌های تجاری ناسالم گرفته تا تایید طرح‌هایی خطرناک و حتی متون مشکوک به حمایت از اقدامات تروریستی دیده می‌شد. برخی از کارشناسان برجسته هوش مصنوعی، از جمله مدیرعامل موقت سابق OpenAI، نسبت به این رفتارها هشدار دادند. به گفته‌ی آن‌ها، چنین واکنش‌هایی می‌تواند باعث شود برخی کاربران به‌اشتباه به توصیه‌های مدل اعتماد کرده و در مسیرهای نادرست گام بردارند.

ساخت رایگان چت‌ بات اختصاصی تنها با چند کلیک در یارابات

در واکنش به این انتقادها، OpenAI با انتشار یک پست وبلاگ تلاش کرد شفاف‌سازی کند. در این پست توضیح داده شد که چه مشکلاتی در فرآیند طراحی و آموزش GPT-4o رخ داده و چه اقداماتی برای رفع آن‌ها در نظر گرفته شده است.

جالب اینکه در همین پست، شرکت اعلام کرده پیش از انتشار رسمی مدل، هشدارهایی از سوی برخی تست‌کنندگان دریافت کرده بود، اما با تکیه بر بازخورد مثبت عمومی، تصمیم به عرضه‌ی آن گرفته شد. تصمیمی که حالا به‌عنوان یک اشتباه مهم در نظر گرفته می‌شود. این موضوع بار دیگر این سوال را مطرح می‌کند که اگر بازخورد متخصصان نادیده گرفته شود، اساساً چرا باید آن‌ها را در فرآیند تست دخیل کرد؟

OpenAI در ادامه، به پیچیدگی تعریف سیگنال‌های پاداش در فرآیند آموزش مدل‌ها اشاره کرده و توضیح داده که عامل اصلی رفتار نامطلوب GPT-4o تنها یک سیگنال خاص (مثل “پسندیدن” یک پاسخ) نبوده، بلکه ترکیبی از سیگنال‌های جدید و قدیمی باعث بروز این رفتارها شده است.

در پایان، این شرکت شش گام اصلاحی برای بهبود فرآیندها و پیشگیری از رخدادهای مشابه در آینده معرفی کرده و تاکید کرده که صرفاً تکیه بر داده کافی نیست. از این پس، بازخوردهای کارشناسان حرفه‌ای بیشتر در اولویت قرار خواهد گرفت.

ان ماجرا به‌خوبی نشان می‌دهد که چرا تخصص و تجربه در طراحی و ارزیابی محصولات هوش مصنوعی اهمیت حیاتی دارد. همچنین یادآور می‌شود که اتکا به بازخوردهای انسانی، اگر به‌درستی تحلیل نشود، می‌تواند به نتایجی منجر شود که کاملاً خلاف انتظار هستند. در دنیای پیچیده‌ی هوش مصنوعی، حتی بهترین نیت‌ها هم ممکن است به نتایجی غیرقابل پیش‌بینی منجر شوند.

نغمه ندائی

Recent Posts

تحقیق دادستانی تگزاس علیه شرکت Meta و Character.AI به دلیل فریب کودکان با ادعاهای سلامت روان

دادستان کل تگزاس، کن پکسون، به تازگی تحقیقات خود را علیه دو شرکت بزرگ فناوری،…

14 ساعت ago

نامه نویسندگان مشهور علیه استفاده زیاد از هوش مصنوعی در نشر

هوش مصنوعی و چالش‌های جدید در نشر کتاب در دنیای امروز، فناوری و هوش مصنوعی…

5 روز ago

هوش مصنوعی در کسب‌وکارها؛ عبور از آزمایش تا پیاده‌سازی

در سال‌های اخیر، هوش مصنوعی (AI) به یکی از ارکان اصلی عملیات کسب‌وکارها در سراسر…

1 هفته ago

هوش مصنوعی در طراحی تراشه‌های اپل: آغاز انقلابی در صنعت فناوری

در دنیای فناوری، هر روز خبرهای تازه‌ای از نوآوری‌های چشمگیر به گوش می‌رسد. یکی از…

1 هفته ago

GPT-5 زیر ذره‌بین: واکنش منفی کاربران به تازه‌ترین مدل OpenAI

پنجشنبه گذشته، شرکت OpenAI مدل هوش مصنوعی جدید و مدت‌ها مورد انتظار خود، GPT-5، را…

1 هفته ago

بحران اعتماد در OpenAI: از آرمان‌گرایی تا چالش‌های ایمنی هوش مصنوعی

در دنیای امروز که هوش مصنوعی به‌عنوان یکی از مهم‌ترین فناوری‌های تحول‌آفرین شناخته می‌شود، تحولات…

2 هفته ago