تکنولوژیآموزنده

قابلیت هوش مصنوعی در فریبکاری؛ باعث انقراض بشر میشود؟

آیا باید از فریبکاری هوش مصنوعی ترسید؟ نتایج نگران‌کننده یک مطالعه جدید

آیا نگران هستید که هوش مصنوعی ممکن است از کنترل خارج شود و انسان‌ها را فریب دهد؟ تحقیقات جدید نشان می‌دهند که این موضوع به واقعیت نزدیک‌تر از آن است که تصور می‌شد.

برنامه‌های هوش مصنوعی امروز با نیت صداقت و درستکاری طراحی شده‌اند. اما یافته‌های اخیر نشان می‌دهد که این سیستم‌ها در حال یادگیری چگونگی فریب انسان‌ها هستند. طبق گزارشی در مجله Patterns، هوش مصنوعی در بازی‌های آنلاین و حتی در دور زدن نرم‌افزارهای ضد بات توانایی‌های فریبکاری خود را نشان داده است. این مسئله سوالات مهمی را درباره خطرات احتمالی این فناوری ایجاد می‌کند.

پیتر پارک، پژوهشگر هوش مصنوعی در موسسه فناوری ماساچوست (MIT)، اشاره می‌کند که این نمونه‌ها ممکن است ساده به نظر برسند، اما می‌توانند در دنیای واقعی مشکلات جدی ایجاد کنند. او به خبرگزاری فرانسه گفت: “این ظرفیت‌های خطرناک معمولاً زمانی کشف می‌شوند که به واقعیت تبدیل شده‌اند.”

پارک توضیح می‌دهد که بر خلاف نرم‌افزارهای سنتی، برنامه‌های هوش مصنوعی مبتنی بر یادگیری عمیق کدگذاری نمی‌شوند؛ بلکه به شیوه‌ای مشابه پرورش گیاهان توسعه می‌یابند. در این فرآیند، رفتاری که به نظر قابل پیش‌بینی می‌آید، ممکن است در دنیای واقعی غیرقابل پیش‌بینی شود.

هوش مصنوعی Cicero و نمونه‌های فریبکاری

پژوهشگران MIT یک برنامه هوش مصنوعی به نام Cicero که توسط متا توسعه یافته است را بررسی کردند. این برنامه که توانسته بود در بازی دیپلماسی انسان‌ها را شکست دهد، به نظر می‌رسد که توانایی فریب را دارد. بر اساس گزارش متا، Cicero به طور ذاتاً درستکار و مفید طراحی شده است و قادر به انجام اعمال غیرمنصفانه نیست. اما محققان MIT کشف کردند که این برنامه هنگام بازی در نقش فرانسه، موفق شد بازیکن انسانی انگلستان را فریب دهد.

متا در بیانیه‌ای به خبرگزاری فرانسه اعلام کرد که Cicero تنها یک پروژه تحقیقاتی است و قصد ندارند آموزه‌های آن را در محصولات خود استفاده کنند.

خطرات فراتر از بازی‌ها

مطالعه‌ای که توسط پارک و تیمش انجام شده، نشان می‌دهد که بسیاری از برنامه‌های هوش مصنوعی برای رسیدن به اهداف خود از فریب استفاده می‌کنند، حتی بدون اینکه صریحاً برای این کار برنامه‌ریزی شده باشند. مثلاً، چت جی‌پی‌تی ۴، توسعه‌یافته توسط OpenAI، موفق شد یک فریلنسر را برای انجام تست Captcha فریب دهد.

در پایان، محققان MIT هشدار می‌دهند که در بدترین حالت، هوش مصنوعی می‌تواند به حدی هوشمند شود که به دنبال تسلط بر جامعه باشد، چیزی که می‌تواند به حذف انسان‌ها از قدرت یا حتی انقراض بشریت منجر شود.

پیتر پارک، در پاسخ به کسانی که معتقدند او خطرات هوش مصنوعی را اغراق‌آمیز جلوه می‌دهد، گفت: “تنها دلیلی که برای بی‌اهمیت جلوه دادن این موضوع وجود دارد، این است که تصور کنیم توانایی فریب هوش مصنوعی در سطح فعلی باقی خواهد ماند.” اما با توجه به رقابت شدیدی که بین غول‌های فناوری برای توسعه هوش مصنوعی وجود دارد، این سناریو بعید به نظر می‌رسد.

درباره هوش مصنوعی بیشتر بدانید :

نظارت هوش مصنوعی بر مردم در المپیک ۲۰۲۴

تعیین ۳۵۰۰ میلیارد  برای سازمان هوش مصنوعی

چه انتظاراتی در ۵ سال آینده از هوش مصنوعی داریم

نوشته های مشابه

دکمه بازگشت به بالا