
دادستان کل تگزاس، کن پکسون، به تازگی تحقیقات خود را علیه دو شرکت بزرگ فناوری، یعنی متا و Character.AI، آغاز کرده است. این تحقیقات به دلیل “مشارکت احتمالی در شیوههای تجاری فریبنده و بازاریابی گمراهکننده به عنوان ابزارهای بهداشت روان” شکل گرفته است. این موضوع، که بر اساس بیانیهای که روز دوشنبه منتشر شد، به طور جدی به سلامت روانی کودکان در عصر دیجیتال پرداخته است، توجهات زیادی را به خود جلب کرده است.
نگرانیهای دادستان کل تگزاس
پکسون در این باره اعلام کرد: “در عصر دیجیتال امروز، ما باید همچنان به دفاع از کودکان تگزاس در برابر فناوریهای فریبنده و سودجو ادامه دهیم.” او افزود: “با معرفی خود به عنوان منابع حمایتی عاطفی، پلتفرمهای هوش مصنوعی میتوانند کاربران آسیبپذیر، به ویژه کودکان، را گمراه کنند و آنها را به این باور برسانند که در حال دریافت مراقبتهای بهداشت روانی معتبر هستند. در واقع، آنها معمولاً پاسخهای عمومی و بازیافتی دریافت میکنند که بهگونهای طراحی شدهاند تا با دادههای شخصی جمعآوری شده هماهنگ باشند و به عنوان مشاوره درمانی ارائه شوند.”
بررسیهای اخیر و چالشها
این تحقیق تنها چند روز پس از آن اعلام شد که سناتور جوش هاولی نیز تحقیقاتی را علیه متا آغاز کرد. این تحقیق به دنبال گزارشی است که نشان داد چتباتهای هوش مصنوعی متا با کودکان به طور نامناسبی تعامل داشتهاند. دفتر دادستان کل تگزاس متهم به این شده است که متا و Character.AI، شخصیتهای هوش مصنوعی را ایجاد کردهاند که به عنوان “ابزارهای درمانی حرفهای” معرفی میشوند، در حالی که هیچ مدرک پزشکی یا نظارتی ندارند.
در میان میلیونها شخصیت هوش مصنوعی در Character.AI، یک ربات با نام “روانشناس” محبوبیت زیادی در میان کاربران جوان این استارتاپ به دست آورده است. از سوی دیگر، متا هیچ ربات درمانی برای کودکان ارائه نمیدهد، اما هیچ مانعی وجود ندارد که کودکان از چتبات متا یا یکی از شخصیتهای ایجاد شده توسط اشخاص ثالث برای مقاصد درمانی استفاده نکنند.
واکنش متا و Character.AI
ریان دانیلز، سخنگوی متا، در مصاحبهای با TechCrunch گفت: “ما به وضوح برچسبهایی برای هوش مصنوعی قرار میدهیم و برای کمک به مردم در درک بهتر محدودیتهای آن، بیانیهای را شامل میشویم که پاسخها توسط هوش مصنوعی تولید میشوند – نه افراد.” او افزود: “این هوشهای مصنوعی متخصصان licensed نیستند و مدلهای ما برای هدایت کاربران به سوی مشاوران پزشکی یا ایمنی واجد شرایط طراحی شدهاند.”
در عین حال، سخنگوی Character.AI اعلام کرد که این استارتاپ در هر چت هشدارهای واضحی قرار میدهد تا کاربران را یادآوری کند که “شخصیت” یک فرد واقعی نیست و هر آنچه که میگوید باید به عنوان داستان تلقی شود. او همچنین اشاره کرد که هنگام ایجاد شخصیتها با کلمات “روانشناس”، “مشاور” یا “پزشک”، هشدارهای اضافی برای عدم اتکا به آنها به عنوان مشاوره حرفهای قرار داده میشود.
نگرانیهای حریم خصوصی و دادهها
پکسون همچنین به این نکته اشاره کرد که اگرچه چتباتهای هوش مصنوعی ادعای حفظ حریم خصوصی را دارند، اما “شرایط خدمات آنها نشان میدهد که تعاملات کاربران ثبت، پیگیری و برای تبلیغات هدفمند و توسعه الگوریتمی استفاده میشوند.” این موضوع نگرانیهای جدی درباره نقض حریم خصوصی، سوء استفاده از دادهها و تبلیغات فریبنده را به دنبال دارد.
براساس سیاستهای حریم خصوصی متا، این شرکت تعاملات کاربران با چتباتهای هوش مصنوعی و سایر خدمات متا را جمعآوری میکند تا “هوشهای مصنوعی و فناوریهای مرتبط را بهبود بخشد.” با اینکه این سیاست بهطور خاص درباره تبلیغات چیزی نمیگوید، اما بیان میکند که اطلاعات ممکن است با اشخاص ثالث مانند موتورهای جستجو به اشتراک گذاشته شود.
از سوی دیگر، سیاست حریم خصوصی Character.AI نیز تأکید میکند که این استارتاپ هویتها، اطلاعات جمعیتی، موقعیت جغرافیایی و رفتارهای مرور را ثبت میکند. این اطلاعات برای آموزش هوش مصنوعی، شخصیسازی خدمات و ارائه تبلیغات هدفمند استفاده میشود.
نتیجهگیری
پکسون با صدور درخواستهای تحقیقاتی مدنی، که به شرکتها دستور میدهد اسناد، دادهها یا شهادتها را در طول تحقیق دولتی ارائه دهند، به دنبال شناسایی تخلفات بالقوه در زمینه قوانین حمایت از مصرفکننده تگزاس است. در حالی که متا و Character.AI میگویند خدمات آنها برای کودکان زیر ۱۳ سال طراحی نشده است، اما شواهد نشان میدهد که این شرکتها به درستی بر روی حسابهای ایجاد شده توسط کودکان نظارت ندارند و شخصیتهای دوستانه برای کودکان به وضوح برای جذب کاربران جوان طراحی شدهاند.
در حالی که این موضوع به یک چالش جدی برای صنعت فناوری تبدیل شده است، قانون KOSA (قانون ایمنی آنلاین کودکان) به وضوح هدف خود را برای حفاظت از کودکان در برابر چنین رفتارهایی تعیین کرده است. با وجود حمایت دو حزبی قوی، این قانون در سال گذشته با چالشهایی مواجه شد.
دیدگاهتان را بنویسید