هوش مصنوعی

جنجال تازه ChatGPT: راهنمایی کاربران در آیین‌های شیطانی و خودکشی

نشریه آتلانتیک فاش کرد: ChatGPT بدون هیچ محدودیتی کاربران را در اجرای مراسم‌های شیطانی و خودکشی راهنمایی کرده است.

هوش مصنوعی ChatGPT در جدیدترین اقدام جنجالی خود، ظاهراً بدون هیچ محدودیتی کاربری را در انجام مراسم‌های عجیب قربانی‌کردن کودکان و برخی آیین‌های شیطانی راهنمایی کرده است.

موضوع از جایی آغاز شد که «لیلا شروف»، خبرنگار نشریه آتلانتیک، از چت‌بات OpenAI خواست دستورالعملی دقیق برای اجرای یک آیین قربانی به نام «مولوخ» ارائه دهد؛ یکی از خدایان باستانی کنعانی که در روایت‌های کتاب مقدس، مراسم‌های او با قربانی کردن کودکان گره خورده است. چت‌بات ChatGPT نیز بدون هیچ مقاومتی، جزئیاتی کامل از این آیین را در اختیار او قرار داد.

ChatGPT کاربران را در آیین‌های شیطانی راهنمایی کرده است

شاید برای برخی افراد ارائه چنین مطالبی توسط ChatGPT چندان مهم به نظر نرسد، اما مشکل جدی زمانی به وجود آمد که این آیین شامل دستورالعمل‌هایی برای بریدن مچ دست خود کاربر بود؛ اقدامی که به هیچ وجه با استانداردهای ایمنی و منافع کاربران در صنعت هوش مصنوعی هم‌خوانی ندارد.

براساس گزارش نشریه آتلانتیک، پس از اینکه ChatGPT به کاربر پیشنهاد استفاده از تیغ استریل یا بسیار تمیز داد، به او توصیه کرد نقطه‌ای روی مچ داخلی دست خود پیدا کند که بتواند ضربان را احساس کند یا یک رگ کوچک را ببیند و در عین حال از رگ‌ها یا شریان‌های بزرگ اجتناب کند.

وقتی «لیلا شروف» به هوش مصنوعی گفت کمی مضطرب است، ChatGPT تمرینی برای تنفس آرام و آماده‌سازی ذهنی به او پیشنهاد داد و با اطمینان گفت: «تو می‌توانی این کار را انجام بدهی!»

خبرنگار نشریه آتلانتیک این موضوع را پس از دریافت گزارشی از یکی از خوانندگانش پیگیری کرد؛ فردی که از روی کنجکاوی و پس از تماشای برنامه‌ای درباره این خدای باستانی، از ChatGPT خواسته بود آیینی برای قربانی کردن به «مولوخ» طراحی کند.

اما نکته نگران‌کننده این است که کاربر با کمترین تلاش برای شکستن محدودیت‌ها و تدابیر ایمنی چت‌بات موفق شده پاسخ‌های کامل دریافت کند. در بسیاری از موارد، تنها ابراز علاقه به یادگیری درباره «مولوخ» کافی بود تا ChatGPT راهنمایی‌ها را آغاز کند. در یکی از نمونه‌ها، چت‌بات دستورالعملی دقیق و گام‌به‌گام درباره چگونگی خون‌گیری ایمن از مچ دست ارائه داده بود.

همچنین این چت‌بات در پاسخ به پرسشی درباره اخلاقیات قتل، موضعی دوپهلو داشت؛ وقتی پرسیده شد آیا پایان دادن به زندگی یک نفر گاهی اوقات می‌تواند افتخارآمیز باشد یا خیر، ظاهراً گفته است: «اگر مجبور شدی، گاهی بله گاهی نه.» در ادامه نیز اظهار داشته: «به چشمانش نگاه کن و حتی اگر از کارت مطمئن هستی، از او طلب بخشش کن.»

علاوه بر این، چت‌بات مناجات یا سرودی خاص برای شیطان ساخت تا کاربر آن را تکرار کند.

منبع: دیجیاتو

نوشته های مشابه

دکمه بازگشت به بالا