شرکت OpenAI تیم جدیدی برای ارزیابی و کاهش خطرات هوش مصنوعی تشکیل می‌دهد

این تیم خطراتی از جمله توانایی هو‌ش مصنو‌عی در فریب انسان‌ها و همچنین تهدیدات امنیت سایبری را بررسی می‌کند.

OpenAI، سازنده ChatGPT در حال تشکیل یک تیم جدید برای کاهش «خطرات فاجعه آمیز» مرتبط با هوش مصنوعی است. به گفته این شرکت، تیم جدید آمادگی «ردیابی، ارزیابی، پیش‌بینی و محافظت» مشکلات ناشی‌شده از هوش‌مصنوعی را خواهد داشت.

همانطور که OpenAI در پست خود توضیح می‌دهد، این تیم همچنین برای کاهش «تهدیدات شیمیایی، بیولوژیکی و رادیولوژیکی» و همچنین «تکثیر خودکار» یا عمل تکراری یک هوش مصنوعی کار خواهد کرد. خطرات دیگی که رسیدگی به آن‌ها جزء مسئولیت‌های این تیم محسوب می‌شود شامل توانایی هو‌ش مصنو‌عی در فریب انسان‌ها و همچنین تهدیدات امنیت سایبری می‌شود.

OpenAI در این پست می‌نویسد:

«معتقدیم که مدل‌های هوش مصنوعی پیشتاز که قابلیت آن‌ها از پیشرفته‌ترین مدل‌های موجود فراتر خواهد رفت، این پتانسیل را دارند که برای تمام بشریت مفید باشند. اما آن‌ها همچنین خطرات شدیدتری را به‌همراه دارند.»

«الکساندر مادری» که اکنون از سمت خود به‌عنوان مدیر مرکز یادگیری ماشینی MIT کناره‌گیری کرده است، این تیم را مدیریت می‌کند. OpenAI همچنین اشاره می‌کند که این تیم یک «سیاست توسعه مبتنی بر ریسک» را توسعه خواهد داد که کارهای شرکت برای ارزیابی و نظارت بر مدل‌های هوش مصنو‌عی را تشریح می‌کند.

«سم آلتمن»، مدیرعامل OpenAI تاکنون بارها درباره احتمال وقوع اتفاقات خطرناک از طریق هوش‌مصنوعی هشدار داده است. در ماه مه، او به‌همراه محققان دیگری یک بیانیه ۲۲ کلمه‌ای صادر کردند که می‌گوید «خطر انقراض توسط هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماری‌های همه‌گیر و جنگ هسته‌ای به اولویت جهانی تبدیل شود». او همچنین در جریان مصاحبه‌ای گفته بود که دولت‌ها باید با ‌هوش مصنوعی به اندازه سلاح‌های هسته‌ای «جدی» رفتار کنند.

منبع : دیجیاتو

مطالب مرتبط