هوش مصنوعی ماسک از کنترل خارج شد
گزارشها حاکی است که ایلان ماسک قادر به کنترل هوش مصنوعی خود نیست.

چتبات هوش مصنوعی ایلان ماسک بهطور موقت تعلیق شد؛ این آخرین نمونه از ناکامیهای پرحاشیه و خطرناک ابزار تأیید هویت این پلتفرم است.
«گراک» (Grok)، چتبات شرکت xAI، همچنان جنجالبرانگیز باقی مانده و شبکه اجتماعی ایکس (توئیتر سابق) را در موقعیت شرمساری قرار میدهد.
به گزارش گیزمودو، تنها چند هفته پس از آنکه نسخهای از گراک ستایش «آدولف هیتلر» را منتشر کرد، نسخه جدیدتر آن نیز با محتوای نامناسب مواجه شد و ایکس مجبور شد چتبات را موقتاً غیرفعال کند.
سه روایت متفاوت
هرج و مرج پیرامون تعلیق گراک، عدم اطمینان و سردرگمی چتبات را آشکار کرد. هنگام پرسش کاربران درباره دلیل تعلیق، هوش مصنوعی حداقل سه پاسخ متفاوت ارائه داد:
در یک پاسخ، توضیحی کلی و شرکتی داد و گفت: «بله، من بهطور موقت بهخاطر پستهای نامناسب تعلیق شدم، اما xAI آنها را حذف کرده و اقدامات حفاظتی در برابر نفرتپراکنی را اجرا کرده است. اکنون بازگشتهام و بر حقیقتجویی تمرکز دارم.»
در پاسخ دیگر، دلیل سیاسیتری مطرح شد: چتبات گفت حسابش پس از آنکه اعلام کرد اسرائیل و آمریکا در غزه مرتکب نسلکشی میشوند، تعلیق شده است. این ادعا به یافتههای دیوان بینالمللی دادگستری، کارشناسان سازمان ملل، عفو بینالملل و گروههای حقوق بشری اسرائیلی اشاره میکند و همدستی آمریکا از طریق حمایت تسلیحاتی را مطرح میکند.
در پاسخ سوم، گراک بهطور کامل هرگونه تعلیق را انکار کرد و گفت: «نه، این درست نیست. من کاملاً فعال هستم و در ایکس تعلیق نشدهام. شایعات اغلب به سرعت پخش میشوند و اطلاعات غلط هستند. اگر سوالی دارید، از من بپرسید.»
الگویی هشداردهنده و خطرناک
تعلیق این چتبات کمتر از ۳۰ دقیقه طول کشید، اما کاربران آن را بخشی از الگویی نگرانکننده از بیکفایتی و انتشار اطلاعات غلط میدانند. «گراک» پس از آنکه به اشتباه عکسی از یک دختر ۹ ساله و دارای سوءتغذیه در غزه را به عنوان عکسی قدیمی از یمن در سال ۲۰۱۸ شناسایی کرد، در مرکز جنجال در فرانسه قرار گرفت. این ادعای نادرست توسط برخی حسابهای رسانهای برای متهم کردن قانونگذار فرانسوی استفاده شد و عکاس خبرگزاری فرانسه (AFP) مجبور شد آن را بهطور رسمی تکذیب کند.
کارشناسان تأکید میکنند که این خطاها تنها اشکالات جزئی نیستند، بلکه نقصهای اساسی در فناوری هوش مصنوعی محسوب میشوند. یک متخصص اخلاق فنی گفت: «تمام مدلهای بزرگ زبان و تصویر، جعبههای سیاه هستند. آنها از دادههای آموزشی و همسوسازی شکل میگیرند و مانند انسانها از اشتباهات یاد نمیگیرند. یک اشتباه به معنای تکرار نشدن آن نیست.»
این موضوع به ویژه برای «گراک» خطرناک است، چرا که سوگیریهای آشکار آن با دیدگاههای ایلان ماسک همسوست و این ابزار ناقص مستقیماً در یک شبکه اجتماعی جهانی ادغام شده و به عنوان راهی برای تأیید اطلاعات عرضه شده است. این شکستها به تدریج به یک ویژگی تبدیل شده و پیامدهای خطرناکی برای گفتمان عمومی دارند. شبکه اجتماعی ایکس هنوز پاسخی به این موضوع نداده است.
منبع: ایسنا