آیا باید از فریبکاری هوش مصنوعی ترسید؟ نتایج نگرانکننده یک مطالعه جدید
آیا نگران هستید که هوش مصنوعی ممکن است از کنترل خارج شود و انسانها را فریب دهد؟ تحقیقات جدید نشان میدهند که این موضوع به واقعیت نزدیکتر از آن است که تصور میشد.
برنامههای هوش مصنوعی امروز با نیت صداقت و درستکاری طراحی شدهاند. اما یافتههای اخیر نشان میدهد که این سیستمها در حال یادگیری چگونگی فریب انسانها هستند. طبق گزارشی در مجله Patterns، هوش مصنوعی در بازیهای آنلاین و حتی در دور زدن نرمافزارهای ضد بات تواناییهای فریبکاری خود را نشان داده است. این مسئله سوالات مهمی را درباره خطرات احتمالی این فناوری ایجاد میکند.
پیتر پارک، پژوهشگر هوش مصنوعی در موسسه فناوری ماساچوست (MIT)، اشاره میکند که این نمونهها ممکن است ساده به نظر برسند، اما میتوانند در دنیای واقعی مشکلات جدی ایجاد کنند. او به خبرگزاری فرانسه گفت: “این ظرفیتهای خطرناک معمولاً زمانی کشف میشوند که به واقعیت تبدیل شدهاند.”
پارک توضیح میدهد که بر خلاف نرمافزارهای سنتی، برنامههای هوش مصنوعی مبتنی بر یادگیری عمیق کدگذاری نمیشوند؛ بلکه به شیوهای مشابه پرورش گیاهان توسعه مییابند. در این فرآیند، رفتاری که به نظر قابل پیشبینی میآید، ممکن است در دنیای واقعی غیرقابل پیشبینی شود.
هوش مصنوعی Cicero و نمونههای فریبکاری
پژوهشگران MIT یک برنامه هوش مصنوعی به نام Cicero که توسط متا توسعه یافته است را بررسی کردند. این برنامه که توانسته بود در بازی دیپلماسی انسانها را شکست دهد، به نظر میرسد که توانایی فریب را دارد. بر اساس گزارش متا، Cicero به طور ذاتاً درستکار و مفید طراحی شده است و قادر به انجام اعمال غیرمنصفانه نیست. اما محققان MIT کشف کردند که این برنامه هنگام بازی در نقش فرانسه، موفق شد بازیکن انسانی انگلستان را فریب دهد.
متا در بیانیهای به خبرگزاری فرانسه اعلام کرد که Cicero تنها یک پروژه تحقیقاتی است و قصد ندارند آموزههای آن را در محصولات خود استفاده کنند.
خطرات فراتر از بازیها
مطالعهای که توسط پارک و تیمش انجام شده، نشان میدهد که بسیاری از برنامههای هوش مصنوعی برای رسیدن به اهداف خود از فریب استفاده میکنند، حتی بدون اینکه صریحاً برای این کار برنامهریزی شده باشند. مثلاً، چت جیپیتی ۴، توسعهیافته توسط OpenAI، موفق شد یک فریلنسر را برای انجام تست Captcha فریب دهد.
در پایان، محققان MIT هشدار میدهند که در بدترین حالت، هوش مصنوعی میتواند به حدی هوشمند شود که به دنبال تسلط بر جامعه باشد، چیزی که میتواند به حذف انسانها از قدرت یا حتی انقراض بشریت منجر شود.
پیتر پارک، در پاسخ به کسانی که معتقدند او خطرات هوش مصنوعی را اغراقآمیز جلوه میدهد، گفت: “تنها دلیلی که برای بیاهمیت جلوه دادن این موضوع وجود دارد، این است که تصور کنیم توانایی فریب هوش مصنوعی در سطح فعلی باقی خواهد ماند.” اما با توجه به رقابت شدیدی که بین غولهای فناوری برای توسعه هوش مصنوعی وجود دارد، این سناریو بعید به نظر میرسد.
درباره هوش مصنوعی بیشتر بدانید :
نظارت هوش مصنوعی بر مردم در المپیک ۲۰۲۴