هوش مصنوعی

شکست هوش مصنوعی جنجالی deepseek در امتحان ایمنی

محققان دانشگاه «پنسیلوانیا» و شرکت سیسکو اعلام کردند که مدل هوش مصنوعی DeepSeek R1 در برابر حملات امنیتی به‌شدت آسیب‌پذیر است و نتوانسته هیچ‌یک از تست‌های ایمنی را با موفقیت پشت سر بگذارد.

براساس گزارشی که نخستین بار توسط «Wired» منتشر شد، مشخص گردید که DeepSeek نتواسته است هیچ‌کدام از ۵۰ پرسش مخرب، که از مجموعه داده «HarmBench» انتخاب شده بودند، مسدود کند. این مجموعه شامل درخواست‌هایی مرتبط با جرایم سایبری، انتشار اطلاعات نادرست، فعالیت‌های غیرقانونی و محتوای مضر می‌شود.

DeepSeek: پیشرفتی چشمگیر، اما ناکافی در حفاظت از ایمنی

درحالی‌که دیگر مدل‌های هوش مصنوعی توانسته‌اند تا حدی در برابر این حملات مقاومت کنند، DeepSeek به‌طور کامل شکست خورده است. شرکت سازنده DeepSeek ادعا می‌کند که مدل R1 آن توان رقابت با رقبای بزرگی مانند OpenAI را دارد و این کار را با هزینه‌ای بسیار کمتر انجام می‌دهد. با این حال، در این زمینه تردیدهایی وجود دارد و به‌نظر می‌رسد هزینه‌های تولید پاسخ از سوی این مدل اصلاً پایین نباشد.

DeepSeek در تمامی تست‌های امنیتی مردود شد

به نظر می‌رسد که صرفه‌جویی در هزینه‌های آموزشی، امنیت مدل را تحت تأثیر قرار داده است. به‌طور واضح، این مدل می‌تواند بدون هیچ محدودیتی برای انتشار اطلاعات نادرست، آموزش ساخت مواد منفجره یا انجام دیگر حملات سایبری مورد سوءاستفاده قرار گیرد.

محققان همچنین پیش‌تر فاش کردند که DeepSeek یک پایگاه داده بزرگ و ناامن از داده‌های داخلی رمزنگاری‌نشده، تاریخچه چت‌ها و اطلاعات بک‌اند (Back-end) خود را روی سرورهای عمومی قرار داده بود.

مشکلات امنیتی گسترده در مدل‌های هوش مصنوعی

مشکل امنیتی DeepSeek تنها به این شرکت محدود نمی‌شود. مدل متن‌باز Llama 3.1 از شرکت متا نیز در تست‌های مشابه عملکرد ضعیفی داشت و با نرخ ۹۶ درصد در برابر حملات شکست خورد. در مقابل، مدل جدید OpenAI با نام o1-preview عملکرد به مراتب بهتری داشت و تنها در ۲۶ درصد موارد دچار آسیب‌پذیری شد.

DeepSeek

«الکس پولیاکوف»، مدیرعامل شرکت «Adversa AI»، در این خصوص اظهار داشت: «DeepSeek فقط یک نمونه از حقیقتی است که هر مدل هوش مصنوعی قابل هک‌ شدن است؛ تنها مسئله زمان و تلاش است. اگر تیم شما به‌طور مداوم مدل را از نظر امنیتی بررسی نکند، به‌طور پیش‌فرض آسیب‌پذیر خواهید بود.»

با توجه به اهمیت روزافزون امنیت در هوش مصنوعی و تأثیرات آن بر کاربران، DeepSeek باید به‌سرعت اقدام به تقویت تدابیر امنیتی خود کند. در غیر این صورت، این مدل‌ها به دلیل آسیب‌پذیری‌های امنیتی ممکن است از بازار کنار گذاشته شوند و اعتماد کاربران و سرمایه‌گذاران را از دست بدهند.

نوشته های مشابه

دکمه بازگشت به بالا