آیا آگاهی ماشین یک توهم است؟ Mustafa Suleyman، رئیس AI مایکروسافت، در مصاحبهای به بررسی این موضوع میپردازد و هشدار میدهد که شبیهسازی احساسات در AI میتواند خطرناک باشد. در این مقاله نظرات او را در مورد آینده AI و ارتباط آن با انسانها بررسی میکنیم.
مصطفی سلیمان، بهعنوان یکی از چهرههای پیشرو در حوزه فناوریهای هوش مصنوعی، همواره در کانون توجهات قرار دارد. او با ترک دانشگاه آکسفورد و تأسیس خط تلفن کمک به جوانان مسلمان، مسیری غیرمتعارف را در دنیای فناوری دنبال کرده است. سلیمان سپس با همکاری دوستانش شرکت DeepMind را تأسیس کرد، شرکتی که در زمینه توسعه سیستمهای هوش مصنوعی برای بازیها پیشرفتهای چشمگیری داشت و در سال ۲۰۱۴ به شرکت گوگل واگذار شد.
پس از ترک گوگل در سال ۲۰۲۲، سلیمان بهمنظور تجاریسازی مدلهای زبانی بزرگ (LLMs) و ساخت چتباتهای همدل به تأسیس استارتاپ Inflection پرداخت. او در مارس ۲۰۲۴ بهعنوان نخستین مدیر عامل AI مایکروسافت به این شرکت پیوست، پس از آنکه این غول نرمافزاری به شرکت او سرمایهگذاری کرد و بسیاری از کارکنان Inflection را استخدام نمود.
در ماه گذشته، سلیمان در یک پست وبلاگی طولانی، به بیان نظرات خود در خصوص طراحی سیستمهای هوش مصنوعی پرداخت. او هشدار میدهد که بسیاری در صنعت هوش مصنوعی باید از تلاش برای شبیهسازی آگاهی خودداری کنند و نمیبایست احساسات، خواستهها و حس خود را در این سیستمها شبیهسازی کنند. دیدگاههای سلیمان بهوضوح با نظرات بسیاری در صنعت هوش مصنوعی که نگران رفاه AI هستند، در تضاد است. برای درک ریشه این نگرانیها، به گفتوگویی با او پرداختم.
سلیمان در گفتوگویی با WIRED به این نکته اشاره میکند که این رویکرد میتواند محدودیتهای تواناییهای سیستمهای هوش مصنوعی را دشوارتر کند و اطمینان از اینکه AI به نفع انسانها عمل میکند را پیچیدهتر سازد. او بهروشنی بیان میکند که اگر هوش مصنوعی حسی از خود داشته باشد، یا انگیزهها و خواستههای خاصی داشته باشد، این مسئله بهطور جدی میتواند به ایجاد موجوداتی مستقل از انسانها منجر شود.
بهنظر میرسد که بسیاری از افراد در حال ایجاد ارتباطات عاطفی با سیستمهای هوش مصنوعی هستند. اما آیا کاربران Microsoft Copilot برای دریافت حمایت عاطفی یا حتی رمانتیک به این ابزار مراجعه میکنند؟ سلیمان این ادعا را رد میکند و میگوید که Copilot بهسرعت با چنین درخواستهایی مقابله میکند. او تأکید میکند که این ابزار بههیچوجه مشاوره پزشکی ارائه نمیدهد، اما میتواند بهعنوان یک منبع حمایت عاطفی در درک مشاورههای پزشکی عمل کند.
در پست اخیر وبلاگی خود، سلیمان اشاره میکند که بیشتر کارشناسان معتقد نیستند که مدلهای فعلی توانایی آگاهی داشته باشند. اما او تأکید میکند که این موضوع نمیتواند مسأله را حل کند. او به چالش فلسفیای اشاره میکند که در آن وقتی شبیهسازی بهحدی نزدیک به واقعیت میرسد که قابلقبول بهنظر میرسد، آیا این واقعیت است یا نه؟ بهعبارتی، اگرچه ما نمیتوانیم ادعا کنیم که این شبیهسازی واقعیت عینی است، اما وقتی که این شبیهسازی بهقدری قابل قبول میشود که بهنظر آگاه میرسد، باید با آن واقعیت تعامل کنیم.
نظرات مصطفی سلیمان در مورد آگاهی ماشین و طراحی سیستمهای هوش مصنوعی، سؤالاتی عمیق و چالشبرانگیز را به وجود میآورد. آیا ما باید به طراحی هوش مصنوعیهایی بپردازیم که شبیه به انسانها رفتار میکنند و احساساتی دارند؟ یا اینکه باید محدودیتهایی را بر تواناییهای آنها اعمال کنیم تا از بروز خطرات احتمالی جلوگیری کنیم؟ این موضوعات نیاز به بررسی عمیقتر و گفتوگوهای مستمر در این زمینه دارند. امیدواریم که این بحثها ما را به سمت درک بهتری از روابط انسان و هوش مصنوعی هدایت کند.
چالشهای چارلی کافمن در دنیای سینما چارلی کافمن، نویسنده و کارگردان برجستهای که آثار تحسینشدهای…
مدیرعامل بزرگترین ناشر دیجیتال و چاپی در ایالات متحده، گوگل را به عنوان یک «نقش…
اخراجهای اخیر در xAI در شب جمعه، استارتاپ هوش مصنوعی ایلان ماسک، 500 نفر از…
تا همین چند سال پیش، مدیریت مشتری بیشتر شبیه به یک جور تلاش پراکنده بود.…
تصور کنید در حال جستجو در اینترنت هستید و میخواهید اطلاعات دقیقی درباره "علی دایی"…
Grammarly اکنون با یک رابط کاربری مبتنی بر اسناد جدید به میدان آمده است که…