شکست هوش مصنوعی جنجالی deepseek در امتحان ایمنی
![شکست هوش مصنوعی جنجالی deepseek در امتحان ایمنی](/wp-content/uploads/2025/02/شکست-هوش-مصنوعی-جنجالی-deepseek-در-امتحان-ایمنی--780x470.png)
محققان دانشگاه «پنسیلوانیا» و شرکت سیسکو اعلام کردند که مدل هوش مصنوعی DeepSeek R1 در برابر حملات امنیتی بهشدت آسیبپذیر است و نتوانسته هیچیک از تستهای ایمنی را با موفقیت پشت سر بگذارد.
براساس گزارشی که نخستین بار توسط «Wired» منتشر شد، مشخص گردید که DeepSeek نتواسته است هیچکدام از ۵۰ پرسش مخرب، که از مجموعه داده «HarmBench» انتخاب شده بودند، مسدود کند. این مجموعه شامل درخواستهایی مرتبط با جرایم سایبری، انتشار اطلاعات نادرست، فعالیتهای غیرقانونی و محتوای مضر میشود.
DeepSeek: پیشرفتی چشمگیر، اما ناکافی در حفاظت از ایمنی
درحالیکه دیگر مدلهای هوش مصنوعی توانستهاند تا حدی در برابر این حملات مقاومت کنند، DeepSeek بهطور کامل شکست خورده است. شرکت سازنده DeepSeek ادعا میکند که مدل R1 آن توان رقابت با رقبای بزرگی مانند OpenAI را دارد و این کار را با هزینهای بسیار کمتر انجام میدهد. با این حال، در این زمینه تردیدهایی وجود دارد و بهنظر میرسد هزینههای تولید پاسخ از سوی این مدل اصلاً پایین نباشد.
به نظر میرسد که صرفهجویی در هزینههای آموزشی، امنیت مدل را تحت تأثیر قرار داده است. بهطور واضح، این مدل میتواند بدون هیچ محدودیتی برای انتشار اطلاعات نادرست، آموزش ساخت مواد منفجره یا انجام دیگر حملات سایبری مورد سوءاستفاده قرار گیرد.
محققان همچنین پیشتر فاش کردند که DeepSeek یک پایگاه داده بزرگ و ناامن از دادههای داخلی رمزنگارینشده، تاریخچه چتها و اطلاعات بکاند (Back-end) خود را روی سرورهای عمومی قرار داده بود.
مشکلات امنیتی گسترده در مدلهای هوش مصنوعی
مشکل امنیتی DeepSeek تنها به این شرکت محدود نمیشود. مدل متنباز Llama 3.1 از شرکت متا نیز در تستهای مشابه عملکرد ضعیفی داشت و با نرخ ۹۶ درصد در برابر حملات شکست خورد. در مقابل، مدل جدید OpenAI با نام o1-preview عملکرد به مراتب بهتری داشت و تنها در ۲۶ درصد موارد دچار آسیبپذیری شد.
![DeepSeek](http://static.digiato.com/digiato/2025/02/DeepSeek-Failed-1024x683.jpg)
«الکس پولیاکوف»، مدیرعامل شرکت «Adversa AI»، در این خصوص اظهار داشت: «DeepSeek فقط یک نمونه از حقیقتی است که هر مدل هوش مصنوعی قابل هک شدن است؛ تنها مسئله زمان و تلاش است. اگر تیم شما بهطور مداوم مدل را از نظر امنیتی بررسی نکند، بهطور پیشفرض آسیبپذیر خواهید بود.»
با توجه به اهمیت روزافزون امنیت در هوش مصنوعی و تأثیرات آن بر کاربران، DeepSeek باید بهسرعت اقدام به تقویت تدابیر امنیتی خود کند. در غیر این صورت، این مدلها به دلیل آسیبپذیریهای امنیتی ممکن است از بازار کنار گذاشته شوند و اعتماد کاربران و سرمایهگذاران را از دست بدهند.