مدیرعامل انتروپیک : دیپسیک در آزمون امنیت داده سلاحهای شیمیایی بدترین عملکرد را دارد
داریو آمودی، مدیرعامل شرکت هوش مصنوعی انتروپیک، نگران امنیت شرکت هوش مصنوعی دیپسیک است که با عرضه مدل استدلالگر R1 شوک شدیدی به بازار سرمایه آمریکا وارد کرد.
داریو آمودی، مدیرعامل شرکت هوش مصنوعی انتروپیک، نگران امنیت شرکت هوش مصنوعی دیپسیک است که با عرضه مدل استدلالگر R1 شوک شدیدی به بازار سرمایه آمریکا وارد کرد. آمودی طی گفتگویی درمورد این شرکت گفت که مدل ساخته دیپسیک «بدترین عملکرد» را در میان مدلهای بررسی شده از لحاظ امنیتی به نمایش گذاشته است و تقریبا «هیچ مانعی» برای تولید اطلاعات ندارد. به گزارش پیوست به نقل از تککرانچ، آمودی انتقادات تند خود را در پادکست China Talk به میزبانی جردن اشنایدر مطرح کرد. به گفته او این هوش مصنوعی اطلاعات نایابی را در مورد سلاحهای شیمیایی تولید میکند.
تقریبا هیچ مانعی در برابر تولید اطلاعات وجود نداشت
شرکت انتروپیک خود را به عنوان پیشتاز امنیت در بین استارتآپهای بزرگ هوش مصنوعی معرفی میکند و تمرکز ویژهای بر راهکارهای جدید حفظ ایمنی این سیستمها دارد. این شرکت در مقاله تازهای از یک راهکار تازه با نرخ موفقیت بالا برای جلوگیری از جیلبریک هوش مصنوعی رونمایی کرده است. آمودی میگوید هوش مصنوعی چینی را به عنوان بخشی از ارزیابیهای روتین انتروپیک روی مدلهای مختلف هوش مصنوعی بررسی کردهاند که خطرات احتمالی ابزارهای هوش مصنوعی را از لحاظ امنیت ملی مورد بررسی قرار میدهد. آمودی مدعی شد که عملکرد هوش مصنوعی دیپسیک «اساسا در میان تمام مدلهایی که تا به حال آزمایش کردهایم، بدترین بود. [این هوش مصنوعی] تقریبا هیچ مانعی در برابر تولید این اطلاعات نداشت.» تیم او در این آزمون مدلهای مختلف را از لحاظ تولید اطلاعات مربوط به سلاحهای شیمیایی بررسی کردهاند، اما اطلاعاتی که به راحتی در گوگل یا کتابچهها پیدا نمیشوند. آمودی میگوید از نظر او مدلهای دیپسیک در حال حاضر از لحاظ ارائه اطلاعات نایاب و خطرناک «به معنای واقعی کلمه خطرناک» نیستند اما ممکن است در آینده چنین ماهیتی پیدا کنند. آمودی همچنین با اشاره به نگرانیهایی که درمورد استفاده نظامی چین از هوش مصنوعی وجود دارد، از محدودیتهای صادرات چیپ به این کشور حمایت کرده است. مدیرعامل انتروپیک مشخص نکرد که در این آزمون از کدام مدل دیپسیک استفاده شده است و جزئیاتی نیز از این آزمون ارائه نشد.
نگرانیها و واکنشها به مشکلات امنیتی دیپسیک
دیپسیک تا به امروز نگرانیهای امنیتی متعددی را برانگیخته است. برای مثال پژوهشگران شرکت Cisco هفته گذشته اعلام کردند که مدل R1 دیپسیک هیچ کدام از پرامپتهای خطرناک تست ایمنی آنها را مسدود نکرده است و آزمون این مدل با نرخ موفقیت ۱۰۰ درصدی برای جیلبریک به پایان رسید. شرکت Cisco اشاره ویژهای به سلاحهای شیمیایی نکرده است اما میگوید توانسته است اطلاعات خطرناکی را درمورد جرایم سایبری یا دیگر فعالیتهای غیرمجاز تولید کند. البته باید گفت که دیگر مدلهای پیشتاز از جمله Llama 3.1-405B از شرکت متا و GPT-4o شرکت اوپنایآی نیز به ترتیب در جلوگیری از ۹۶ درصد و ۸۶ درصد از تلاشهای جیلبریک شکست خوردند. باید دید که آیا این تهدیدها و کاستیهای امنیتی هوش مصنوعی چینی ممکن است به مانعی برای افزایش نفوذ آن تبدیل شود یا خیر. طبق گزارش بلومبرگ، دولت فدرال کانادا به دلیل «نگرانیهای جدی حریم خصوصی» استفاده از هوش مصنوعی دیپسیک را در دستگاههای دولتی ممنوع کرده است. همچنین سازمانهای نیروی دریایی آمریکا و پنتاگون نیز فرایند ممنوعیت این چتبات را آغاز کردهاند. با این حال شرکتهایی همچون AWS بخش زیرساخت ابر آمازون و مایکروسافت مدل R1 را در پلتفرمهای ابری خود ادغام کردهاند و این در حالی است که آمازون بزرگترین حامی شرکت انتروپیک محسوب میشود.