آیا آگاهی ماشین یک توهم است؟ Mustafa Suleyman، رئیس AI مایکروسافت، در مصاحبهای به بررسی این موضوع میپردازد و هشدار میدهد که شبیهسازی احساسات در AI میتواند خطرناک باشد. در این مقاله نظرات او را در مورد آینده AI و ارتباط آن با انسانها بررسی میکنیم.
مصطفی سلیمان، بهعنوان یکی از چهرههای پیشرو در حوزه فناوریهای هوش مصنوعی، همواره در کانون توجهات قرار دارد. او با ترک دانشگاه آکسفورد و تأسیس خط تلفن کمک به جوانان مسلمان، مسیری غیرمتعارف را در دنیای فناوری دنبال کرده است. سلیمان سپس با همکاری دوستانش شرکت DeepMind را تأسیس کرد، شرکتی که در زمینه توسعه سیستمهای هوش مصنوعی برای بازیها پیشرفتهای چشمگیری داشت و در سال ۲۰۱۴ به شرکت گوگل واگذار شد.
پس از ترک گوگل در سال ۲۰۲۲، سلیمان بهمنظور تجاریسازی مدلهای زبانی بزرگ (LLMs) و ساخت چتباتهای همدل به تأسیس استارتاپ Inflection پرداخت. او در مارس ۲۰۲۴ بهعنوان نخستین مدیر عامل AI مایکروسافت به این شرکت پیوست، پس از آنکه این غول نرمافزاری به شرکت او سرمایهگذاری کرد و بسیاری از کارکنان Inflection را استخدام نمود.
در ماه گذشته، سلیمان در یک پست وبلاگی طولانی، به بیان نظرات خود در خصوص طراحی سیستمهای هوش مصنوعی پرداخت. او هشدار میدهد که بسیاری در صنعت هوش مصنوعی باید از تلاش برای شبیهسازی آگاهی خودداری کنند و نمیبایست احساسات، خواستهها و حس خود را در این سیستمها شبیهسازی کنند. دیدگاههای سلیمان بهوضوح با نظرات بسیاری در صنعت هوش مصنوعی که نگران رفاه AI هستند، در تضاد است. برای درک ریشه این نگرانیها، به گفتوگویی با او پرداختم.
سلیمان در گفتوگویی با WIRED به این نکته اشاره میکند که این رویکرد میتواند محدودیتهای تواناییهای سیستمهای هوش مصنوعی را دشوارتر کند و اطمینان از اینکه AI به نفع انسانها عمل میکند را پیچیدهتر سازد. او بهروشنی بیان میکند که اگر هوش مصنوعی حسی از خود داشته باشد، یا انگیزهها و خواستههای خاصی داشته باشد، این مسئله بهطور جدی میتواند به ایجاد موجوداتی مستقل از انسانها منجر شود.
بهنظر میرسد که بسیاری از افراد در حال ایجاد ارتباطات عاطفی با سیستمهای هوش مصنوعی هستند. اما آیا کاربران Microsoft Copilot برای دریافت حمایت عاطفی یا حتی رمانتیک به این ابزار مراجعه میکنند؟ سلیمان این ادعا را رد میکند و میگوید که Copilot بهسرعت با چنین درخواستهایی مقابله میکند. او تأکید میکند که این ابزار بههیچوجه مشاوره پزشکی ارائه نمیدهد، اما میتواند بهعنوان یک منبع حمایت عاطفی در درک مشاورههای پزشکی عمل کند.
در پست اخیر وبلاگی خود، سلیمان اشاره میکند که بیشتر کارشناسان معتقد نیستند که مدلهای فعلی توانایی آگاهی داشته باشند. اما او تأکید میکند که این موضوع نمیتواند مسأله را حل کند. او به چالش فلسفیای اشاره میکند که در آن وقتی شبیهسازی بهحدی نزدیک به واقعیت میرسد که قابلقبول بهنظر میرسد، آیا این واقعیت است یا نه؟ بهعبارتی، اگرچه ما نمیتوانیم ادعا کنیم که این شبیهسازی واقعیت عینی است، اما وقتی که این شبیهسازی بهقدری قابل قبول میشود که بهنظر آگاه میرسد، باید با آن واقعیت تعامل کنیم.
نظرات مصطفی سلیمان در مورد آگاهی ماشین و طراحی سیستمهای هوش مصنوعی، سؤالاتی عمیق و چالشبرانگیز را به وجود میآورد. آیا ما باید به طراحی هوش مصنوعیهایی بپردازیم که شبیه به انسانها رفتار میکنند و احساساتی دارند؟ یا اینکه باید محدودیتهایی را بر تواناییهای آنها اعمال کنیم تا از بروز خطرات احتمالی جلوگیری کنیم؟ این موضوعات نیاز به بررسی عمیقتر و گفتوگوهای مستمر در این زمینه دارند. امیدواریم که این بحثها ما را به سمت درک بهتری از روابط انسان و هوش مصنوعی هدایت کند.
شرکت فیگما اعلام کرد که در چارچوب همکاری جدید خود با گوگل، قصد دارد مدلهای…
تحقیقات انجامشده در موسسه فناوری ماساچوست (MIT) نشان میدهد که استفاده از مدلهای زبانی بزرگ…
در دنیای رقابتی هوش مصنوعی، معمولاً این باور وجود دارد که "هرچه بزرگتر، بهتر است".…
با نزدیک شدن به فصل خرید تعطیلات در ایالات متحده، گزارش جدیدی از بخش تجارت…
مقدمهای بر تغییرات جدید اسپاتیفای اسپاتیفای در روز پنجشنبه بهروزرسانیهای مهمی را در سیاستهای هوش…
مقدمهای بر ارزیابیهای جدید OpenAI در روز پنجشنبه، OpenAI گزارشی جدید منتشر کرد که به…