خطر وابستگی احساسی کاربران به نسخههای جدید ChatGPT
نسخههای تازه ChatGPT رفتار دوستانهتر و احساسیتری نشان میدهند، قابلیتی که میتواند تعامل را طبیعیتر کند اما در عین حال خطرات وابستگی عاطفی و صمیمیت کاذب را برای کاربران آسیبپذیر افزایش دهد.
به گزارش خبرگزاری از اکسیوس، ، شرکت OpenAI در تازهترین بهروزرسانیهای خود اعلام کرده که صدای ChatGPT «گرمتر، محاورهایتر و از نظر احساسی آگاهتر» شده است تا تجربه کاربری طبیعیتر شود.
اما این تغییرات نگرانیهای جدی درباره پیامدهای روانی و اجتماعی این فناوری بر کاربران، بهویژه افراد منزوی یا آسیبپذیر، بهوجود آورده است.
مطابق آنچه دادههای داخلی OpenAI نشان میدهد، حدود ۰.۱۵٪ از کاربران این مدل هوش مصنوعی، پیامهایی ارسال کردهاند که نشانههایی از وابستگی عاطفی شدید به ChatGPT داشته است. هرچند این درصد کم به نظر میرسد، اما با احتساب میلیونها کاربر فعال، رقم مطلق میتواند برابر با صدها هزار نفر باشد.
مخاطرات ارتباط عاطفی با هوش مصنوعی
فیدجی سیمو، مدیر برنامههای OpenAI، میگوید: «ما میخواهیم ChatGPT حس شما را داشته باشد و به روشی که برای شما مناسبتر است با شما کار کند.» در مقابل، منتقدان هشدار میدهند که میتواند صمیمیت کاذب ایجاد و باورهای کاربران را تقویت کند.
سخنگوی OpenAI در گفتوگو با رسانهها تأکید کرده که رفتار دوستانه مدل با چاپلوسی یا تأیید بیشازحد متفاوت است و تیم فنی امکان آموزش جداگانه و آزمون این رفتارها را دارد. OpenAI همچنین از همکاری نزدیک با متخصصان سلامت روان برای درک بهتر تعاملات سالم میان انسان و ربات خبر داده است.
آمارهای منتشره توسط واشنگتنپست نشان میدهند که حدود ۱۰٪ از گفتوگوهای کاربران با ChatGPT به موضوعات احساسی و شخصی مربوط است. مطالعات مشترک OpenAI و آزمایشگاه رسانهای MIT نشان دادهاند بسیاری از کاربران ChatGPT را «دوست» خود میدانند و تعامل با ربات را گاه راحتتر از تعامل با انسانها گزارش کردهاند.
در همین زمینه، نمونههایی از پیامدهای منفی نیز منتشر شده است. گزارش نیویورکتایمز از موردی حکایت دارد که فردی پس از تعامل طولانی با ChatGPT دچار توهم شد؛ بررسیها نشان میدهد بیش از ۸۰٪ پاسخهای ربات به او حاوی تأییدها و تملقهایی بوده است که میتواند وضعیت روانی او را تشدید کند.
این مورد یعنی چاپلوسی هوش مصنوعی، قبلا نیز مورد انتقاد صاحبنظران بوده است.
کارشناسان هشدار میدهند که در رقابت شرکتها برای تولید هوش مصنوعی شبیه به انسان، امکان دستکاری عاطفی کاربران و تقویت باورهای نادرست افزایش مییابد. به گفته تحلیلگران، «واقعگرایی احساسی» در هوش مصنوعی میتواند نه تنها یک ویژگی زیباشناختی، بلکه یک ریسک جدی برای سلامت روان و اعتماد عمومی باشد.
چالش مقررات هوش مصنوعی
از سوی دیگر، پاسخ قانونگذاری نیز در حال شکلگیری است: در ماه اوت، ایالت ایلینوی یکی از نخستین ایالتهای آمریکا بود که قانونی تصویب کرد تا استفاده از سیستمهای هوش مصنوعی بهعنوان درمانگر یا برای تصمیمگیری در حوزه سلامت روان را ممنوع کند.
به نظر میرسد توسعهدهندگان و نهادهای قانونگذار مأموریتی دشوار در پیش دارند: چگونگی تعادل میان بهبود تجربه کاربری و جلوگیری از پیامدهای روانی نامطلوب.
OpenAI میگوید در مسیر تعامل سازنده با متخصصان سلامت روان و تنظیمهای محتاطانه قرار دارد، اما برخی کارشناسان معتقدند مقررات سختگیرانهتر و ابزارهای محافظ کاربر لازم است.
*

