هوش مصنوعی چگونه میتواند بشریت را نابود کند؟
پژوهشگران و افراد سرشناس حوزه هوش مصنوعی هشدار دادهاند که این فناوری میتواند در آینده به تهدید بزرگی برای نابودی انسان تبدیل شود.
ماه گذشته صدها نفر از افراد سرشناس در دنیای AI نامه سرگشادهای را امضا کردند که دربردارنده هشدار در مورد احتمال نابودی بشریت به دست هوش مصنوعی است.
«کاهش خطر نابودی بشریت به دست هوش مصنوعی باید همچون مقابله با سایر خطرات جدی جهانی مثل پاندمیهای ویروسهای مختلف و جنگ هستهای، در اولویت قرار بگیرد.»
این نامه دربردارنده جدیدترین هشدارهای شوم در مورد هوش مصنوعی بوده که بهطور قابلتوجهی به جزئیات این موضوع نیز پرداخته است. با توجه به اینکه امروزه AI نمیتواند انسان را نابود کند و تنها در برخی از موارد او را تهدید میکند، چرا افرادی که بیشترین اطلاعات را در مورد هوش مصنوعی دارند، اینچنین در مورد آن نگران هستند؟
سناریویی ترسناک
کسندرا، شرکت فعال در حوزه فناوری، معتقد است روزی دولتها، شرکتها و پژوهشگران مستقل میتوانند از سیستمهای قوی AI برای مدیریت موارد مختلف استفاده کنند؛ از تجارت گرفته تا رفاه. این سیستمها توانایی انجام کارهایی را دارند که ما نمیخواهیم آنها را انجام دهند. اگر انسان بخواهد در کار چنین سیستمهایی دخالت یا فعالیت آنها را متوقف کند، این سیستمها میتوانند برای ادامه فعالیت خود به هر قیمتی مقابل انسان بایستند یا حتی کمر به نابودی او ببندند.
«یوشوآ بنجیو» (Yoshua Bengio)، استاد دانشگاه و پژوهشگر حوزه AI از دانشگاه مونترآل، در مورد خطر نابودی بشر به دست هوش مصنوعی اینچنین گفته است:
«سیستمهای کنونی تهدیدی برای انقراض بشر نیستند؛ اما در ۱ یا ۲ یا ۵ سال آینده وضعیت چگونه خواهد شد؟ در این مورد تردیدهای زیادی وجود دارد. مسئله این است که آیا میتوانیم تضمین کنیم این سیستمها در آینده هم بهجایی نمیرسند که فاجعهبار شوند یا خیر.»
اجازه دهید با بیان مثالی ساده این موضوع را برای شما روشنتر کنیم؛ اگر از یک دستگاه بخواهیم تا جایی که میتواند گیره کاغذ تولید کند، در پاسخ خواهد گفت چنین درخواستی میتواند همهچیز را تغییر دهد و حتی شاید به قیمت بیکارشدن نیروهای کارخانههای تولیدکننده این گیرهها تمام شود. خطر نابودی بشریت بهواسطه AI چگونه میتواند به دنیای واقعی (یا دنیای خیالی در آینده که تحقق آن خیلی هم دور نیست) ربط پیدا کند؟
ممکن است شرکتها سیستمهای هوش مصنوعی را بیشتر و بیشتر مستقل کرده و آنها را به زیرساختهای حیاتی مثل شبکههای برقرسانی، بازارهای سهام و سلاحهای نظامی متصل کنند. درصورت رخدادن چنین اتفاقی، مشکلات از همان زمان شروع میشوند.
طی همین چند سال گذشته، بهنظر نمیرسید متخصصان رخدادن چنین اتفاقی را محتمل بدانند؛ اما زمانی که شرکتهایی مثل OpenAI مدلهای هوش مصنوعی بسیار پیشرفتهای را عرضه کردند، معلوم شد اگر شرکتهای هوش مصنوعی با این سرعت به پیشرفتهای مختلف دست یابند، ممکن است شاهد این اتفاق باشیم.
«آنتونی آگیره»، کیهانشناس در دانشگاه کالیفرنیا و بنیانگذار مؤسسه آینده فیوچر اف لایف (Future of Life)، یکی از مؤسسات فعال در ارائه نامه مذکور در ابتدای مقاله، در مورد خطر نابودی بشریت به دست هوش مصنوعی اینچنین گفته است:
«هوش مصنوعی در آینده میتواند نماینده انسان باشد و با افزایش استقلال خود به جایی برسد که توانایی تصمیمگیری و تفکر را از انسانهای کنونی و مؤسسات درحال اداره توسط انسانها بگیرد.»
در برخی از موارد واضح است سیستم بزرگی که جامعه و اقتصاد را اداره میکند، واقعاً نه تحت کنترل انسان است و نه میتوان آن را متوقف کرد. درصورتیکه چنین اتفاقی رخ دهد، شاید فعالیت شرکتهای بیشماری با تعدادی بیش از شرکتهای ثبتشده در فهرست S&P 500، متوقف شود. البته بسیاری از متخصصان چنین فرضیهای را مضحک میدانند.
«اورن اتزوینی»، مؤسس و مدیر اجرایی مؤسسه هوش مصنوعی آلن (Allen Institute for AI)، آزمایشگاهی پژوهشی در سیاتل، در مورد این موضوع اینچنین گفته است:
«بیان فرضیه گمانی، روشی مؤدبانه برای اظهارنظرم در مورد خطر نابودی بشر توسط AI است.»
آیا نشانههایی مبنی بر توانایی هوش مصنوعی برای نابودکردن بشر وجود دارد؟
کاملاً نه؛ اما پژوهشگران درحال تبدیل چتباتهایی مثل ChatGPT به سیستمهایی هستند که میتوانند براساس متونی که خود تولید میکنند، کارهایی را انجام دهند. پروژه AutoGPT مثال بارزی از این رویکرد است. مثلاً میتوان اهدافی مثل «تأسیس یک شرکت» یا «کسب درآمد» را برای چنین سیستمی مشخص کرد. در مرحله بعدی، سیستمْ جستجوی خود را برای روشهای دستیابی به این اهداف آغاز میکند و ادامه میدهد؛ مخصوصاً اگر به سایر سرویسهای اینترنتی متصل باشد.
سیستمی مثل AutoGPT میتواند نرمافزار کامپیوتر ایجاد کند و اگر پژوهشگران دسترسی آن به یک سرور کامپیوتری را فراهم کنند، حتی از عهده اجرای آن نرمافزارها نیز برمیآید. این سیستم پیشرفته با چنین روشی میتواند تقریباً هر کاری را آنلاین انجام دهد که شامل بازیابی اطلاعات، استفاده از اپلیکیشنها، ایجاد اپلیکیشنهای جدید و حتی تقویت تواناییهای خودش میشود.
سیستمهایی مثل AutoGPT اکنون عملکرد خوبی ندارند و معمولاً در یک دور باطل و بینهایت گیر میکنند. مدتی پیش محققان به یک سیستم تمام منابع موردنیاز برای توسعه را دادند، اما آن سیستم موفق به انجام این کار نشد؛ البته با گذشت زمان میتوان تمام این محدودیتها را برطرف کرد.
«کانر لیهی»، مؤسس کانجکچر (Conjecture)، شرکتی که قصد دارد فناوریهای هوش مصنوعی را با ارزشهای انسانی همتراز کند، در مورد این موضوع اینچنین گفته است:
«پژوهشگران بهطور جدی درحال تلاش برای ساخت سیستمهایی هستند که بتوانند خودشان را تقویت کنند. درحالحاضر چنین تلاشی جواب نمیدهد؛ اما روزی که نمیدانیم کی فرا میرسد، به نتیجه خواهد رسید.»
او معتقد است تعیین اهدافی مثل کسب درآمد برای این سیستمها از سوی پژوهشگران، شرکتها و مجرمان میتواند منجر به اتفاقاتی مثل دستبرد به بانکها، زمینهسازی انقلاب در کشورهای نفتخیز و تصاحب معاملات آتی نفتی یا تکثیر خودشان در زمان تلاش انسانها برای توقف فعالیت آنها شود.
سیستمهای هوش مصنوعی سوءرفتار را از کجا یاد میگیرند؟
سیستمهای AI مانند ChatGPT براساس شبکههای عصبی ساخته میشوند. این شبکهها درحقیقت یکسری سیستم ریاضی با قابلیت فراگیری مهارتها براساس تحلیل دادهها هستند.
در سال ۲۰۱۸، شرکتهایی مثل گوگل و Open AI ساخت یکسری شبکه عصبی را آغاز کردند که با استفاده از اطلاعات جمعآوریشده از اینترنت، آموزش داده میشدند. این سیستمها با مشخصکردن الگوها در این دادهها یاد میگیرند محتواهایی مثل مقاله، شعر، نرمافزارهای کامپیوتری و مکالمات انسانی را خودشان بنویسند. نتیجه این کار ایجاد سیستمهایی مثل ChatGPT است. این سیستمها میتوانند از اطلاعاتی که اختیار دارند، چیزهای بیشتری یاد بگیرند. حتی ممکن است رفتارهای غیرمنتظرهای را هم از این سیستمها ببینیم.
پژوهشگران بهتازگی اعلام کردهاند که متوجه وجود سیستمی شدهاند که میتوانسته است برای انجام یک آزمایش تشخیص ربات یا انسان بودن کاربر، انسانی را به خدمت بگیرد و اگر فردی از او میپرسیده، ربات است یا خیر، دروغ میگفته و خود را انسانی با مشکل بینایی معرفی میکرده است.
برخی از متخصصان نگران این هستند که پژوهشگران در حین تقویت چنین سیستمهایی، آنها را با حجم فزایندهای از دادهها آموزش دهند و همین رویکرد باعث شود بیشتر رفتارهای بد را یاد بگیرند.
چه کسانی پشت این هشدارها هستند؟
در اوایل دهه ۲۰۰۰ نویسنده جوانی به نام «الیزر یادکووسکی»، هشدار در مورد خطر نابودی بشریت بهدلیل توسعه AI را شروع کرد. پستهای آنلاین او باعث ایجاد جامعهای از افراد نگران این موضوع شد. این جامعه که عقلگرایان و همنوعدوستان تأثیرگذار نام گرفت، بهشدت در جامعه علمی، اندیشکدههای دولتی و صنعت فناوری تأثیرگذار شد.
آقای یادکووسک و آثارش برای ایجاد هر دو شرکت OpenAI و Deepmind (آزمایشگاهی در حوزه AI که گوگل آن را در سال ۲۰۱۴ خرید)، نقشی اساسی ایفا کردهاند. بسیاری از اعضای جامعه مذکور در این دو آزمایشگاه مشغول به کار شدند؛ زیرا معتقد بودند بهدلیل اینکه بر خطرات هوش مصنوعی واقف هستند، در بهترین موقعیت برای ایجاد آن قرار گرفتهاند.
سازمانهای Center for A.I. Safety و Future of Life Institute شدیداً به این جنبش پایبند هستند.
گفتههای پژوهشگران پیشتاز در حوزه AI و همچنین افراد سرشناس این صنعت که از مدتها پیش در مورد آن هشدار دادهاند، منشأ این هشدارهای جدید است. این نامه سرگشاده توسط «سم آلتمن»، مدیرعامل OpenAI و همچنین «دمیس هاسابیس» که به تأسیس Deepmind کمک کرده و اکنون نظارت بر یک آزمایشگاه جدید را بر عهده گرفته (که قرار است برجستهترین پژوهشگران حوزه هوش مصنوعی از Deepmind و گوگل در آن مشغول به کار شوند)، امضا شده است.
دیگر چهرههای سرشناس این حوزه، یعنی دکتر بنجیو و جفری هینتون که بهتازگی بهعنوان مدیر اجرایی و پژوهشگر در گوگل مشغول به کار شده است نیز یک یا دو نامه هشداردهنده را امضا کردهاند. این دو نفر در سال ۲۰۱۸ بهدلیل کار روی شبکههای عصبی موفق به دریافت جایزه تورینگ شدهاند که معمولاً جایزه نوبل کامپیوتر نامیده میشود.