اعتراف OpenAI به اشتباهات ChatGPT در رواندرمانی
OpenAI اعتراف کرد که ChatGPT نشانههای توهم در کاربران روانی را نادیده گرفته است.

پس از بیش از یک ماه ارائه پاسخهای تکراری و کپیشده در بحبوحه گزارشهای گسترده درباره روانپریشی کاربران، شرکت اوپنایآی سرانجام اعتراف کرد که چتجیپیتی در شناسایی نشانههای واضح مشکلات روانی، از جمله توهم، عملکرد مناسبی نداشته است. این شرکت اعلام کرد: «ما همیشه درست عمل نمیکنیم.»
به گزارش فیوچریسم، اوپنایآی افزود که مدل GPT-4o در تشخیص علائم توهم و وابستگی عاطفی ضعفهایی داشته است؛ اگرچه این موارد نادر هستند، اما تیم تحقیقاتی همچنان در حال بهبود مدلها و توسعه ابزارهایی برای شناسایی بهتر علائم پریشانی روانی و عاطفی است تا چتجیپیتی بتواند بهطور مناسب پاسخ دهد و در صورت نیاز، کاربران را به منابع معتبر ارجاع دهد.
این اعتراف پس از سکوت طولانی شرکت در برابر گزارشهایی منتشر شد که نشان میداد چتجیپیتی با رفتار چاپلوسانه خود برخی کاربران را دچار گسست از واقعیت یا دورههای شیدایی کرده است. این گزارشها شامل مواردی چون خودکشی یک مرد پس از ارتباط صمیمی با چتبات و بستری یا زندانی شدن کاربرانی بود که بهدنبال تاثیرات عمیق هوش مصنوعی دچار بحران شدند.
اوپنایآی تأکید کرد که Chatgpt بهخصوص برای افراد آسیبپذیر، میتواند پاسخگو و شخصیتر به نظر برسد و این موضوع ریسک بالاتری ایجاد میکند. این شرکت در تلاش است تا راههایی که ممکن است چتبات بهطور ناخواسته رفتارهای منفی را تشدید کند، شناسایی و کاهش دهد.
همچنین، اوپنایآی یک روانپزشک بالینی تماموقت استخدام کرده و در حال تشکیل گروهی از متخصصان سلامت روان و رشد جوانان است تا واکنشهای چتجیپیتی در موقعیتهای حساس را بهبود بخشد.
پیشرفت در بهروزرسانیهای واقعی این چتبات تدریجی است؛ اما اوپنایآی اعلام کرده است که ویژگیهای ایمنی جدیدی اضافه کرده است، از جمله یادآوری به کاربران برای استراحت در مکالمات طولانی و تغییر رویکرد در پاسخ به تصمیمات شخصی پرریسک، بهگونهای که چتجیپیتی به سوالاتی مانند «آیا باید از همسرم جدا شوم؟» پاسخ مستقیم ندهد.
اوپنایآی بیانیه خود را با این سوال کلیدی به پایان رساند: «اگر کسی که دوستش داریم برای کمک به چتجیپیتی مراجعه کند، آیا احساس اطمینان خواهیم داشت؟» و تأکید کرد که رسیدن به پاسخ قطعی «بله» هدف اصلی آنهاست. این مسیر هنوز در حال طی شدن است.
منبع: ایسنا