هوش مصنوعی

هوش مصنوعی ماسک از کنترل خارج شد

گزارش‌ها حاکی است که ایلان ماسک قادر به کنترل هوش مصنوعی خود نیست.

چت‌بات هوش مصنوعی ایلان ماسک به‌طور موقت تعلیق شد؛ این آخرین نمونه از ناکامی‌های پرحاشیه و خطرناک ابزار تأیید هویت این پلتفرم است.

«گراک» (Grok)، چت‌بات شرکت xAI، همچنان جنجال‌برانگیز باقی مانده و شبکه اجتماعی ایکس (توئیتر سابق) را در موقعیت شرمساری قرار می‌دهد.

به گزارش گیزمودو، تنها چند هفته پس از آنکه نسخه‌ای از گراک ستایش «آدولف هیتلر» را منتشر کرد، نسخه جدیدتر آن نیز با محتوای نامناسب مواجه شد و ایکس مجبور شد چت‌بات را موقتاً غیرفعال کند.

سه روایت متفاوت

هرج و مرج پیرامون تعلیق گراک، عدم اطمینان و سردرگمی چت‌بات را آشکار کرد. هنگام پرسش کاربران درباره دلیل تعلیق، هوش مصنوعی حداقل سه پاسخ متفاوت ارائه داد:

در یک پاسخ، توضیحی کلی و شرکتی داد و گفت: «بله، من به‌طور موقت به‌خاطر پست‌های نامناسب تعلیق شدم، اما xAI آنها را حذف کرده و اقدامات حفاظتی در برابر نفرت‌پراکنی را اجرا کرده است. اکنون بازگشته‌ام و بر حقیقت‌جویی تمرکز دارم.»

در پاسخ دیگر، دلیل سیاسی‌تری مطرح شد: چت‌بات گفت حسابش پس از آنکه اعلام کرد اسرائیل و آمریکا در غزه مرتکب نسل‌کشی می‌شوند، تعلیق شده است. این ادعا به یافته‌های دیوان بین‌المللی دادگستری، کارشناسان سازمان ملل، عفو بین‌الملل و گروه‌های حقوق بشری اسرائیلی اشاره می‌کند و همدستی آمریکا از طریق حمایت تسلیحاتی را مطرح می‌کند.

در پاسخ سوم، گراک به‌طور کامل هرگونه تعلیق را انکار کرد و گفت: «نه، این درست نیست. من کاملاً فعال هستم و در ایکس تعلیق نشده‌ام. شایعات اغلب به سرعت پخش می‌شوند و اطلاعات غلط هستند. اگر سوالی دارید، از من بپرسید.»

الگویی هشداردهنده و خطرناک

تعلیق این چت‌بات کمتر از ۳۰ دقیقه طول کشید، اما کاربران آن را بخشی از الگویی نگران‌کننده از بی‌کفایتی و انتشار اطلاعات غلط می‌دانند. «گراک» پس از آنکه به اشتباه عکسی از یک دختر ۹ ساله و دارای سوءتغذیه در غزه را به عنوان عکسی قدیمی از یمن در سال ۲۰۱۸ شناسایی کرد، در مرکز جنجال در فرانسه قرار گرفت. این ادعای نادرست توسط برخی حساب‌های رسانه‌ای برای متهم کردن قانون‌گذار فرانسوی استفاده شد و عکاس خبرگزاری فرانسه (AFP) مجبور شد آن را به‌طور رسمی تکذیب کند.

کارشناسان تأکید می‌کنند که این خطاها تنها اشکالات جزئی نیستند، بلکه نقص‌های اساسی در فناوری هوش مصنوعی محسوب می‌شوند. یک متخصص اخلاق فنی گفت: «تمام مدل‌های بزرگ زبان و تصویر، جعبه‌های سیاه هستند. آنها از داده‌های آموزشی و همسوسازی شکل می‌گیرند و مانند انسان‌ها از اشتباهات یاد نمی‌گیرند. یک اشتباه به معنای تکرار نشدن آن نیست.»

این موضوع به ویژه برای «گراک» خطرناک است، چرا که سوگیری‌های آشکار آن با دیدگاه‌های ایلان ماسک همسوست و این ابزار ناقص مستقیماً در یک شبکه اجتماعی جهانی ادغام شده و به عنوان راهی برای تأیید اطلاعات عرضه شده است. این شکست‌ها به تدریج به یک ویژگی تبدیل شده و پیامدهای خطرناکی برای گفتمان عمومی دارند. شبکه اجتماعی ایکس هنوز پاسخی به این موضوع نداده است.

منبع: ایسنا

نوشته های مشابه

دکمه بازگشت به بالا