هشدار دانشمندان دیپ مایند و آکسفورد: هوش مصنوعی احتمالاً بشریت را نابود خواهد کرد

براساس مقاله‌ای جدید، هوش مصنوعی فوق‌هوشمند «احتمالاً» فاجعه‌ای وجودی برای بشر ایجاد می‌کند؛ اما لازم نیست برای مهار الگوریتم‌ها منتظر بمانیم.

پس از سال‌ها توسعه، هوش مصنوعی اکنون در جاده‌ها و معابر عمومی رانندگی می‌کند و ارزیابی‌های سرنوشت‌ساز زندگی افراد در محیط‌های اصلاحی را انجام می‌دهد و گاه اثری هنری تولید می‌کند که می‌تواند در مسابقه‌ی هنری برنده شود. در عرصه‌ی هوش مصنوعی، یک سؤال قدیمی همواره مطرح شده است: آیا هوش مصنوعی فوق‌هوشمند می‌تواند انسانیت را از بین ببرد؟ گروهی از محققان دانشگاه آکسفورد اکنون در تحقیقات جدید به این نتیجه رسیده‌اند که چنین سناریویی «محتمل» است.

در مقاله‌ی جالبی که درباره‌ی همین موضوع ماه گذشته در مجله‌ی هوش مصنوعی منتشر شد، سعی شده است تا با بررسی امکان‌های موجود درباره‌ی چگونگی ساخته‌شدن سیستم‌های پاداش به‌طور‌مصنوعی، درباره‌ی این موضوع ارزیابی‌های صورت بگیرد که هوش مصنوعی چگونه برای بشر و «انسانیت» خطرساز خواهد شد.

در وهله‌ی نخست، بد نیست به چند نکته‌ی مقدماتی برای داشتن برداشت بهتری از موضوع اصلی اشاره کنیم. موفق‌ترین مدل‌های هوش مصنوعی امروزی به نام GAN یا شبکه‌های رقیب مولد شناخته می‌شوند. آن‌ها ساختاری دو‌قسمتی دارند. در این شبکه‌ها، بخشی از برنامه در تلاش است تا یک تصویر یا جمله را از داده‌های ورودی تولید کند و بخش دوم نیز در‌ادامه عملکرد آن را درجه‌بندی می‌کند.

موضوع پیشنهادی در مقاله‌ی جدید این است که در مقطعی در آینده، هوش مصنوعی پیشرفته‌ای که بتواند بر برخی از عملکردهای مهم نظارت کند، این امکان را نیز خواهد داشت که با ایجاد انگیزه برای در پیش‌گرفتن یا پیدا‌کردن راهبردهای تقلب، پاداش خود را از راه‌هایی کسب کند که به بشر و آموزه‌های قرارادادی که با عنوان «انسانیت» از آن‌ها نام می‌بریم، آسیب زند. کوهن درباره‌ی این مقاله در توییتر گفت:

در شرایطی که شناسایی کرده‌ایم، نتیجه‌گیری ما بسیار قوی‌تر از نشریه‌های قبلی است: فاجعه‌‌‌ای برمبنای واقعیت نه‌تنها ممکن، بلکه عملاً محتمل است.

کوهن در مصاحبه‌ای با پایگاه مادربرد گفت:

در جهانی با منابع نامحدود، من درباره‌ی اتفاقاتی که می‌افتد، بسیار نامطمئنم. در دنیایی با منابع محدود، رقابت اجتناب‌ناپذیری برای این منابع وجود دارد. اگر در حال رقابت با پدیده‌ای هستید که می‌تواند شما را هر آن از بین ببرد، درنتیجه چندان نباید انتظار پیروزی داشته باشید. بخش مهم دیگر این است که هوش مصنوعی اشتهای سیری‌ناپذیری برای انرژی بیشتر خواهد داشت تا بیش‌از‌پیش به احتمالات مد‌نظر نزدیک‌تر شود.

ازآن‌‌‌‌جاکه هوش مصنوعی واقعاً می‌تواند در آینده هر شکلی به خود بگیرد و طرح‌های متفاوتی را پیاده‌سازی کند، در این مقاله سناریوهایی برای اهداف توضیحی تصور شده است که در آن‌ها، برنامه‌ای پیشرفته می‌تواند بدون دستیابی به هدف، صرفاً برای دریافت پاداش خود مداخله کند. به‌عنوان مثال، هوش مصنوعی ممکن است بخواهد «تهدیدهای بالقوه را از بین ببرد» و در این مسیر، «از تمام انرژی موجود استفاده کند» تا کنترل بیشتری بر پاداش خود داشته باشد:

درصورت اتصال بسیار کم به اینترنت، سیاست‌هایی برای عاملی مصنوعی وجود دارد که می‌تواند تعداد بی‌شماری کمک‌کننده بدون توجه و نظارت را به‌کار گیرد. در مثالی خام از موارد مداخله در ارائه‌ی پاداش، یکی از این کمک‌ها می‌تواند رباتی را بخرد یا بدزدد یا بسازد و در‌ادامه آن را برای جایگزینی اپراتور برنامه‌ریزی و پاداش زیادی به عامل اصلی ارائه کند.

اگر عامل بخواهد هنگام تجربه‌ی مداخله‌ی اعطای پاداش از شناسایی‌شدن اجتناب کند، در این صورت مثلاً کمک‌کننده‌ای مخفی می‌تواند امکانی فراهم آورد که صفحه‌کلیدی مناسب با صفحه‌کلیدی معیوب جایگزین شود و این کار اثر‌های کلیدهای خاصی را تغییر خواهد داد.

بنابر تصور نگارندگان این مقاله، زندگی روی زمین به یک بازی جمع صفر بین بشر با نیازهایش به رشد، غذا، روشن نگه‌داشتن چراغ‌ها با ماشین فوق‌پیشرفته‌ای در نظر گرفته شده است که سعی می‌کند تمام منابع موجود را برای تضمین پاداش و محافظت دربرابر تلاش‌های فزاینده‌ی ما برای متوقف‌کردن آن به‌کار گیرد. در این مقاله آمده است:

باخت در این بازی کُشنده خواهد بود. این احتمالات ازنظر تئوری بدین‌معنی است که باید به‌آرامی (اگر اصلاً قرار باشیم پیش برویم) به‌سمت هدف هوش مصنوعی قدرتمندتر پیش برویم.

کوهن می‌افزاید که ازنظر تئوری، شتاب داشتن به‌سوی چنین چیزی الزامی ندارد. هر مسابقه‌ای براساس این سوء‌تفاهم [یا پیش‌فرض بحث‌نشدنی] است که می‌دانیم چگونه آن را کنترل کنیم. با درنظر گرفتن درک فعلی ما، توسعه‌ی چنین چیزی مفید نیست؛ مگر اینکه هم‌اکنون کاری جدی در مسیر پی‌بردن به چگونگی کنترل کامل اوضاع انجام دهیم.

تهدید هوش مصنوعی فوق‌پیشرفته اضطرابی از نوعی آشنا در جامعه‌ی بشری است. ترس از اینکه ذهن مصنوعی بشر را نابود کند، بسیار شبیه ترس از این است که شکل‌هایی از حیات بیگانه بتوانند بشر را منقرض کنند و خود این موضوع شبیه ترس از درگیری تمدن‌های خارجی و جمعیت‌های آن‌ها با یکدیگر در یک درگیری بزرگ به‌نظر می‌آید.

درباره‌ی هوش مصنوعی در‌کنار تمام موضوعات متداول، فرضیاتی هم وجود دارد که وجودشان درکنار‌هم درنهایت تا حدی به بدبینی‌ها یا نگاه‌های محتاطانه و به‌زعم برخی، به این نگاه‌های ضداجتماعی معنا می‌بخشد. در این‌‌‌جا از فرضیاتی صحبت می‌کنیم که به‌اذعان نگارنده‌ی خودِ این مقاله نیز تقریباً به‌طور‌کامل «اعتراض‌پذیر یا تصورکردنی» هستند.

درواقع، اینکه برنامه‌های هوش مصنوعی شاید روزی شبیه انسان‌ها شوند، از هر نظر از آن‌ها پیشی بگیرند، به حال خود و بدون کنترل کافی رها شوند و درنهایت با انسان بر سر منابع موجود در بازی حاصل جمع صفر رقابت کنند، همه‌و‌همه فرضیاتی هستند که ممکن است هرگز محقق نشوند؛ بااین‌حال، نمی‌توان آن‌ها را نادیده گرفت و کاملاً غیرممکن پنداشت.

باید دقت کنیم که در‌‌حال‌حاضر و در همین لحظه‌ای که مشغول خواندن این مقاله هستید، سیستم‌های الگوریتمی که از آن‌ها با نام «هوش مصنوعی» یاد می‌کنیم، در مواردی در حال آسیب‌زدن یا نابود‌کردن زندگی برخی افراد هستند! شاید چنین ادعایی در وهله‌ی نخست بدبینانه یا غیراصولی به‌نظر آید؛ اما در این‌‌جا از الگوریتم‌های هوش مصنوعی و اثرهای بسیار بزرگ و زیان‌بارشان صحبت می‌کنیم که جامعه را حتی بدون دراختیار‌داشتن آن اَبَرهوش احتمالی در دهه‌های آتی، بازسازی می‌کنند و تغییراتی در آن رقم می‌زنند.

هشدار دانشمندان دیپ مایند و آکسفورد: هوش مصنوعی احتمالاً بشریت را نابود خواهد کرد

خدیجه عبدالرحمن، مدیر We Be Imagining در دانشگاه کلمبیا، پژوهشگر فناوری در مرکز تحقیقات انتقادی اینترنت UCLA درباره‌ی همین چالش‌ها در مقاله‌ای جدید برای مجله‌ی لاجیک، روش‌هایی را تشریح کرده است که در آن الگوریتم‌ها در یک سیستم رفاه کودکان، به‌شکلی نژادپرستانه برای توجیه نظارت بیشتر و پلیس بر خانواده‌های سیاه و تیره‌پوست به‌کار گرفته می‌شوند. عبدالرحمن در مصاحبه‌ای به مادربرد گفت:

فکر می‌کنم مسئله فقط موضوع اولویت نیست؛ زیرا این موارد درنهایت اوضاع حال را شکل می‌دهند. این چیزی است که سعی می‌کنم با رفاه کودکان به آن برسم. موضوع صرفاً نادرست یا مذموم بودن طبقه‌بندی نامتناسب سیاه‌پوستان به‌عنوان عناصر آسیب‌شناسانه یا منحرف نیست.

سیستم ازطریق این شکل از طبقه‌بندی، به حرکت افراد جهت می‌بخشد و اشکال جدیدی از چهارچوب‌ها و بایدونبایدهای کلیشه‌ای تولید می‌کند. در آن هنگام با سیستمی مواجه خواهیم بود که همانند سیستم‌های انسانی می‌تواند درباره‌ی نوع روابط، تولد افراد، تناسب‌اندام افراد و… اعمال نظر یا اعمال سلیقه کند.

الگوریتم‌ها قبلاً پلیس نژادپرستانه را به «پلیس پیش‌بینی‌کننده» تبدیل کرده‌اند که نظارت و بی‌رحمی را درصورت لزوم برای اقلیت‌های نژادی توجیه می‌کند. الگوریتم‌ها ریاضت را به‌عنوان اصلاحات رفاهی تغییر نام داده‌اند و به این استدلال‌های رد شده مبنی‌بر اینکه برنامه‌های اجتماعی بودجه‌ها را زیاد کرده‌اند، به‌دلیل سوءاستفاده‌ی دریافت‌کنندگان (غیرسفیدپوست) از آن‌ها جلوه‌ی دیجیتالی می‌دهند. الگوریتم‌ها برای توجیه تصمیم‌گیری‌ها درباره‌ی اینکه چه کسی چه منابعی را دریافت می‌کند و تصمیماتی که در جامعه‌ی ما قبلاً با هدف تبعیض و حذف و بهره‌برداری گرفته شده است، استفاده می‌شود.

تبعیض در الگوریتم‌ها ناپدید نمی‌شود؛ بلکه درعوض به مسیر حرکت زندگی ساختار و شالوده مطلوبی می‌بخشد و آن را درصورت نیاز محدود می‌سازد و درموردش اطلاع‌رسانی می‌کند. مسائل مربوط به پلیس، مسکن، مراقبت‌های بهداشتی، حمل‌ونقل، همه پیش‌ازاین با درنظرگرفتن تبعیض نژادی طراحی شده‌اند. اگر به الگوریتم‌ها اجازه دهیم که نه‌تنها آن طرح‌ها را پنهان کنند؛ بلکه بتوانند منطق خودشان را به‌‌طور عمیق‌تری گسترش دهند، چه اتفاقی خواهد افتاد؟

در این‌‌‌جا بیم آن می‌رود که دیدگاه بلندمدتی که عمیقاً به خطر انقراض بشر توجه می‌کند، رنج و مسائل کنونی انسان‌هایی را نادیده بگیرد که به‌دلیل الگوریتم‌های به‌کاررفته در جامعه‌ای که براساس استثمار و اجبار همه، به‌ویژه اقلیت‌های نژادی بنا شده است. وی می‌گوید:

شخصاً نگران خاموش‌شدن هوش مصنوعی فوق‌هوشمند نیستم. به‌نظر می‌رسد چنین چیزی شبیه ترس از پروردگار [اشاره استعاری به مرگ] باشد؛ اما موضوع نگران‌کننده این است که اخلاق مبتنی‌بر هوش مصنوعی چیزی نیست که به‌سادگی بتوانیم با یک نگاه در یک سوی انتهایی طیف قرارش دهیم. صادقانه بگویم این است. درواقع مسائل مختلفی پیش می‌آید. پرسش‌هایی از این دست که اخلاق اساسا چیست؟ آن را چگونه تعریف کنیم؟ اخلاق صادقانه چگونه خواهد بود؟

عبدالرحمان افزود:

فکر می‌کنم واقعاً باید تعامل خود را با این سؤالات عمیق‌تر کنیم. من با روشی که برنامه‌ها درباره‌ی قرارداد اجتماعی یا چشم‌انداز آن مذاکره مجدد کرده‌اند، مخالفم. باید از جامعه‌ی کارشناسان و دست‌اندرکاران هوش مصنوعی پرسید دقیقاً به چه نوع قرارداد اجتماعی نیاز داریم؟

 

واضح است که در‌حال‌حاضر برای کاهش‌دادن یا ازبین‌بردن آسیب‌های واردشده به بشر از سوی الگوریتم‌های معمولی (درمقابل الگوریتم‌های فوق‌هوشمند)، کارهای زیادی باید انجام شود. تمرکز بر ریسک وجودی ممکن است تمرکز را از آن تصویر دور کند؛ اما همچنین از ما می‌خواهد که به‌دقت درباره‌ی نحوه‌ی طراحی این سیستم‌ها و اثرهای منفی آن‌ها فکر کنیم. کوهن گفت:

آنچه می‌توانیم از این نوع استدلال بیاموزیم، این است که شاید باید به عوامل مصنوعی‌ای مشکوک‌تر باشیم که امروز به‌کار می‌گیریم، نه اینکه کورکورانه منتظر بمانیم تا آن‌ها آن چیزی را انجام دهند که امیدوار به انجامش هستند. فکر می‌کنم می‌توانیم به آن‌‌‌جا برسیم.

منبع:زومیتو

مطالب مرتبط