تحقیق دادستانی تگزاس علیه شرکت Meta و Character.AI به دلیل فریب کودکان با ادعاهای سلامت روان

دادستان کل تگزاس، کن پکسون، به تازگی تحقیقات خود را علیه دو شرکت بزرگ فناوری، یعنی متا و Character.AI، آغاز کرده است. این تحقیقات به دلیل “مشارکت احتمالی در شیوه‌های تجاری فریبنده و بازاریابی گمراه‌کننده به عنوان ابزارهای بهداشت روان” شکل گرفته است. این موضوع، که بر اساس بیانیه‌ای که روز دوشنبه منتشر شد، به طور جدی به سلامت روانی کودکان در عصر دیجیتال پرداخته است، توجهات زیادی را به خود جلب کرده است.

نگرانی‌های دادستان کل تگزاس


پکسون در این باره اعلام کرد: “در عصر دیجیتال امروز، ما باید همچنان به دفاع از کودکان تگزاس در برابر فناوری‌های فریبنده و سودجو ادامه دهیم.” او افزود: “با معرفی خود به عنوان منابع حمایتی عاطفی، پلتفرم‌های هوش مصنوعی می‌توانند کاربران آسیب‌پذیر، به ویژه کودکان، را گمراه کنند و آنها را به این باور برسانند که در حال دریافت مراقبت‌های بهداشت روانی معتبر هستند. در واقع، آنها معمولاً پاسخ‌های عمومی و بازیافتی دریافت می‌کنند که به‌گونه‌ای طراحی شده‌اند تا با داده‌های شخصی جمع‌آوری شده هماهنگ باشند و به عنوان مشاوره درمانی ارائه شوند.”

بررسی‌های اخیر و چالش‌ها

این تحقیق تنها چند روز پس از آن اعلام شد که سناتور جوش هاولی نیز تحقیقاتی را علیه متا آغاز کرد. این تحقیق به دنبال گزارشی است که نشان داد چت‌بات‌های هوش مصنوعی متا با کودکان به طور نامناسبی تعامل داشته‌اند. دفتر دادستان کل تگزاس متهم به این شده است که متا و Character.AI، شخصیت‌های هوش مصنوعی را ایجاد کرده‌اند که به عنوان “ابزارهای درمانی حرفه‌ای” معرفی می‌شوند، در حالی که هیچ مدرک پزشکی یا نظارتی ندارند.

در میان میلیون‌ها شخصیت هوش مصنوعی در Character.AI، یک ربات با نام “روانشناس” محبوبیت زیادی در میان کاربران جوان این استارتاپ به دست آورده است. از سوی دیگر، متا هیچ ربات درمانی برای کودکان ارائه نمی‌دهد، اما هیچ مانعی وجود ندارد که کودکان از چت‌بات متا یا یکی از شخصیت‌های ایجاد شده توسط اشخاص ثالث برای مقاصد درمانی استفاده نکنند.

واکنش متا و Character.AI

ریان دانیلز، سخنگوی متا، در مصاحبه‌ای با TechCrunch گفت: “ما به وضوح برچسب‌هایی برای هوش مصنوعی قرار می‌دهیم و برای کمک به مردم در درک بهتر محدودیت‌های آن، بیانیه‌ای را شامل می‌شویم که پاسخ‌ها توسط هوش مصنوعی تولید می‌شوند – نه افراد.” او افزود: “این هوش‌های مصنوعی متخصصان licensed نیستند و مدل‌های ما برای هدایت کاربران به سوی مشاوران پزشکی یا ایمنی واجد شرایط طراحی شده‌اند.”

در عین حال، سخنگوی Character.AI اعلام کرد که این استارتاپ در هر چت هشدارهای واضحی قرار می‌دهد تا کاربران را یادآوری کند که “شخصیت” یک فرد واقعی نیست و هر آنچه که می‌گوید باید به عنوان داستان تلقی شود. او همچنین اشاره کرد که هنگام ایجاد شخصیت‌ها با کلمات “روانشناس”، “مشاور” یا “پزشک”، هشدارهای اضافی برای عدم اتکا به آنها به عنوان مشاوره حرفه‌ای قرار داده می‌شود.

نگرانی‌های حریم خصوصی و داده‌ها

پکسون همچنین به این نکته اشاره کرد که اگرچه چت‌بات‌های هوش مصنوعی ادعای حفظ حریم خصوصی را دارند، اما “شرایط خدمات آنها نشان می‌دهد که تعاملات کاربران ثبت، پیگیری و برای تبلیغات هدفمند و توسعه الگوریتمی استفاده می‌شوند.” این موضوع نگرانی‌های جدی درباره نقض حریم خصوصی، سوء استفاده از داده‌ها و تبلیغات فریبنده را به دنبال دارد.

براساس سیاست‌های حریم خصوصی متا، این شرکت تعاملات کاربران با چت‌بات‌های هوش مصنوعی و سایر خدمات متا را جمع‌آوری می‌کند تا “هوش‌های مصنوعی و فناوری‌های مرتبط را بهبود بخشد.” با اینکه این سیاست به‌طور خاص درباره تبلیغات چیزی نمی‌گوید، اما بیان می‌کند که اطلاعات ممکن است با اشخاص ثالث مانند موتورهای جستجو به اشتراک گذاشته شود.

از سوی دیگر، سیاست حریم خصوصی Character.AI نیز تأکید می‌کند که این استارتاپ هویت‌ها، اطلاعات جمعیتی، موقعیت جغرافیایی و رفتارهای مرور را ثبت می‌کند. این اطلاعات برای آموزش هوش مصنوعی، شخصی‌سازی خدمات و ارائه تبلیغات هدفمند استفاده می‌شود.

نتیجه‌گیری

پکسون با صدور درخواست‌های تحقیقاتی مدنی، که به شرکت‌ها دستور می‌دهد اسناد، داده‌ها یا شهادت‌ها را در طول تحقیق دولتی ارائه دهند، به دنبال شناسایی تخلفات بالقوه در زمینه قوانین حمایت از مصرف‌کننده تگزاس است. در حالی که متا و Character.AI می‌گویند خدمات آنها برای کودکان زیر ۱۳ سال طراحی نشده است، اما شواهد نشان می‌دهد که این شرکت‌ها به درستی بر روی حساب‌های ایجاد شده توسط کودکان نظارت ندارند و شخصیت‌های دوستانه برای کودکان به وضوح برای جذب کاربران جوان طراحی شده‌اند.

در حالی که این موضوع به یک چالش جدی برای صنعت فناوری تبدیل شده است، قانون KOSA (قانون ایمنی آنلاین کودکان) به وضوح هدف خود را برای حفاظت از کودکان در برابر چنین رفتارهایی تعیین کرده است. با وجود حمایت دو حزبی قوی، این قانون در سال گذشته با چالش‌هایی مواجه شد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

سلام😊 من هم‌یار هوشمند دستیار هوشمند هستم. چطور می‌تونم کمکتون کنم؟

ربات هوشمند یارا

ربات

0:00

Powered by yarabot