مدیرعامل انتروپیک : دیپ‌سیک در آزمون امنیت داده سلاح‌های شیمیایی بدترین عملکرد را دارد

۱۴۰۳/۱۱/۲۱ - ۰۱:۰۸:۵۳
|
کد خبر: ۳۳۳۵۹۳

داریو آمودی، مدیرعامل شرکت هوش مصنوعی انتروپیک، نگران امنیت شرکت هوش مصنوعی دیپ‌سیک است که با عرضه مدل استدلال‌گر R1 شوک شدیدی به بازار سرمایه آمریکا وارد کرد.

داریو آمودی، مدیرعامل شرکت هوش مصنوعی انتروپیک، نگران امنیت شرکت هوش مصنوعی دیپ‌سیک است که با عرضه مدل استدلال‌گر R1 شوک شدیدی به بازار سرمایه آمریکا وارد کرد. آمودی طی گفتگویی درمورد این شرکت گفت که مدل ساخته دیپ‌سیک «بدترین عملکرد» را در میان مدل‌های بررسی شده از لحاظ امنیتی به نمایش گذاشته است و تقریبا «هیچ مانعی» برای تولید اطلاعات ندارد. به گزارش پیوست به نقل از تک‌کرانچ، آمودی انتقادات تند خود را در پادکست China Talk به میزبانی جردن اشنایدر مطرح کرد. به گفته او این هوش مصنوعی اطلاعات نایابی را در مورد سلاح‌های شیمیایی تولید می‌کند.

 

تقریبا هیچ مانعی در برابر تولید اطلاعات  وجود نداشت

شرکت انتروپیک خود را به عنوان پیشتاز امنیت در بین استارت‌آپ‌های بزرگ هوش مصنوعی معرفی می‌کند و تمرکز ویژه‌ای بر راهکارهای جدید حفظ ایمنی این سیستم‌ها دارد. این شرکت در مقاله‌ تازه‌ای از یک راهکار تازه با نرخ موفقیت بالا برای جلوگیری از جیل‌بریک هوش مصنوعی رونمایی کرده است. آمودی می‌گوید هوش مصنوعی چینی را به عنوان بخشی از ارزیابی‌های روتین انتروپیک روی مدل‌های مختلف هوش مصنوعی بررسی کرده‌اند که خطرات احتمالی ابزارهای هوش مصنوعی را از لحاظ امنیت ملی مورد بررسی قرار می‌دهد. آمودی مدعی شد که عملکرد هوش مصنوعی دیپ‌سیک «اساسا در میان تمام مدل‌هایی که تا به حال آزمایش کرده‌ایم، بدترین بود. [این هوش مصنوعی] تقریبا هیچ مانعی در برابر تولید این اطلاعات نداشت.» تیم او در این آزمون مدل‌های مختلف را از لحاظ تولید اطلاعات مربوط به سلاح‌های شیمیایی بررسی کرده‌اند،‌ اما اطلاعاتی که به راحتی در گوگل یا کتابچه‌ها پیدا نمی‌شوند. آمودی می‌گوید از نظر او مدل‌های دیپ‌سیک در حال حاضر از لحاظ ارائه اطلاعات نایاب و خطرناک «به معنای واقعی کلمه خطرناک» نیستند اما ممکن است در آینده چنین ماهیتی پیدا کنند. آمودی همچنین با اشاره به نگرانی‌هایی که درمورد استفاده نظامی چین از هوش مصنوعی وجود دارد، از محدودیت‌های صادرات چیپ به این کشور حمایت کرده است. مدیرعامل انتروپیک مشخص نکرد که در این آزمون از کدام مدل دیپ‌سیک استفاده شده است و جزئیاتی نیز از این آزمون ارائه نشد.

 

نگرانی‌ها و واکنش‌ها  به مشکلات امنیتی دیپ‌سیک

دیپ‌سیک تا به امروز نگرانی‌های امنیتی متعددی را برانگیخته است. برای مثال پژوهشگران شرکت Cisco هفته گذشته اعلام کردند که مدل R1 دیپ‌سیک هیچ کدام از پرامپت‌های خطرناک تست ایمنی آنها را مسدود نکرده است و آزمون این مدل با نرخ موفقیت ۱۰۰ درصدی برای جیل‌بریک به پایان رسید. شرکت Cisco اشاره‌ ویژه‌ای به سلاح‌های شیمیایی نکرده است اما می‌گوید توانسته است اطلاعات خطرناکی را درمورد جرایم سایبری یا دیگر فعالیت‌های غیرمجاز تولید کند. البته باید گفت که دیگر مدل‌های پیشتاز از جمله Llama 3.1-405B از شرکت متا و GPT-4o شرکت اوپن‌ای‌آی نیز به ترتیب در جلوگیری از ۹۶ درصد و ۸۶ درصد از تلاش‌های جیل‌بریک شکست خوردند. باید دید که آیا این تهدید‌ها و کاستی‌های امنیتی هوش مصنوعی چینی ممکن است به مانعی برای افزایش نفوذ آن تبدیل شود یا خیر. طبق گزارش بلومبرگ، دولت فدرال کانادا به دلیل «نگرانی‌های جدی حریم خصوصی» استفاده از هوش مصنوعی دیپ‌سیک را در دستگاه‌های دولتی ممنوع کرده است. همچنین سازمان‌های نیروی دریایی آمریکا و پنتاگون نیز فرایند ممنوعیت این چت‌بات را آغاز کرده‌اند. با این حال شرکت‌هایی همچون AWS ‌ بخش زیرساخت ابر آمازون و مایکروسافت مدل R1 را در پلتفرم‌های ابری خود ادغام کرده‌اند و این در حالی است که آمازون بزرگترین حامی شرکت انتروپیک محسوب می‌شود.