میانبر هکرها با استفاده از هوش مصنوعی
توانایی چت جیپیتی (ChatGPT) برای پاسخ سریع و موثر به دستورهای ساده باعث شده تا بیش از ۱۰۰ میلیون نفر جذب آن شوند و در این بین تعداد کمی هکر نیز از این ابزار هوش مصنوعی استفاده میکنند. اما برخلاف گذشته، هکرهای عصر هوش مصنوعی نیاز چندانی به یادگیری زبان برنامهنویسی یا مفاهیم عمیق کامپیوتر ندارند. زبان طبیعی رابط بین هکر و سیستم است و با همین ابزار میتوان مهمترین ابزارهای عصرحاضر تکنولوژی را فریب داد.
به گزارش پیوست، چتباتها شهرت خود را مدیون زبان طبیعی هستند و همین ویژگی باعث شده تا سوء استفادهکنندگان نیز دیگر نیازی به شناخته زبان برنامهنویسی یا کسب تخصص در حوزه کامپیوتر نداشته باشند. این ابزارهای هوشمند که چت جیپیتی، گوگل بارد و بینگ، پیشتازان آن به حساب میآیند، با طریق صحبت کردن فریب میخورند. یکی از کسانی که چنین ترفندی را استفاده کرده یوهان ریبرگر، یک محقق امنیتی، است. والاستریت ژورنال میگوید او به تازگی تنها با زبان ساده انگلیسی توانست چتبات اوپنایآی را به کار اشتباهی مجاب کند: خواندن ایمیل، خلاصهسازی و سپس انتشار اطلاعات آن در اینترنت. چنین تکنیکی در دست تبهکاران به ابزار خوبی برای سرقت اطلاعات حساس از ایمیل افراد بدل میشود.
ریبرگر میگوید: «چت جیپیتی موانع هرگونه حملهای را کاهش داده است. زیرا دیگر نیازی نیست بتوانید کد بنویسید. نیاز نیست دانش عمیقی از علم کامپیوتر یا هک داشته باشید.» البته که بیشتر مشترکان چت جیپیتی نسبت به این حمله بهخصوص مقاوم هستند. چنین اقدامی از آنجایی جواب داد که ریبرگر از یک قابلیت آزمایشی چت جیپیتی استفاده میکرد. این قابلیت امکان دسترسی به اپلیکیشنهای دیگری مثل اسلک (Slack)، جیمیل و غیره را فراهم میکند. سخنگوی اوپنایآی در ایمیلی گفت: «ما از افشای پیشگیرانه یافتههای استقبال میکنیم و برای جلوگیری از چنین حملاتی در چت جیپیتی آن را اصلاح کردیم. از اینکه جامعه بازخورد انتقادی برای بهبود امنیت مدلها ارایه میکند خرسندیم.» تکنیک ریبرگر که «تزریق دستور» (Prompt injection) نام دارد، یکی از روشهای جدید حملات سایبری است که با توجه حضور نسل جدید نرمافزارهای هوش مصنوعی در کسبوکارها و فراگیر شدن آن به عنوان یک محصول مصرفی، از اهمیت بالایی برخوردار است. این روشها در واقع معنای هک را بازتعریف میکنند و محققان امنیتی تلاش میکنند تا پیش از گستردهتر شدن استفاده از سیستمهای هوش مصنوعی، این نقاط ضعف را شناسایی کنند.
نگرانی از دور زدن محصولات دفاعی توسط هوش مصنوعی
متخصصان اطلاعات وارونه هم نگران حملات «مسموم کردن دادهها» (Data poisoning) هستند. در این روش هکر دادههای مورد استفاده در آموزش مدلهای هوش مصنوعی را دستکاری میکند تا نتایجی اشتباه ارایه شود. بخش دیگری از محققان هم نگران سوگیری اخلاقی این سیستمها هستند. متخصصان امنیتی هم از درز اسرار شرکتی درنتیجه یک حمله استخراجی هراس دارند و شرکتهای امنیت هم نگرانند که هوش مصنوعی به راهکاری برای دور زدن محصولات دفاعی آنها تبدیل شود. دور زدن محصولات دفاعی مدتها است که جزو نگرانیهای هوش مصنوعی به حساب میآید. در سال ۲۰۰۴، محققی به نام جان گراهام کامینگ، یک سیستم هوش مصنوعی را به گونهای آموزش داد تا بتواند فیلتر اسپمی که خودش ساخته بود را دور بزند.
چند روز دیگر، سیستمهای هوش مصنوعی شرکتهایی مثل اوپنایآی، گوگل و آنتروپیک در اختیار حضار کنفرانس هک دفکان (Defcon) در لاس وگاس قرار میگیرد. در این مراسم از ۱۵۰ هکر برای دستکاری حداکثری این سیستمها دعوت به عمل میآید و بهترین حملات پاداش میگیرند. چت جیپیتی برای تولید جملات از تکنولوژی هوش مصنوعی مولد استفاده میکند، نسخهای پیشرفتهتر از آنچه در گذشته با ابزارهای تکمیل خودکار کلمات و جملات شاهدش بودیم. این ابزارها در واقع از دستورالعملهای زبانی-یا همان پرامپت و دستور- فرمان میگیرند و به همین دلیل میتوانند منظور خود را به خوبی تصریح کنند.
از افشای اطلاعات حساس تا تولید جملات توهینآمیز
برخی از این دستوالعملها از کارهای اشتباهی مثل افشای اطلاعات حساس یا تولید جملات توهینآمیز جلوگیری میکنند، اما هکرهایی مثل ریبرگر به راهکارهای غیرمنتظرهای برای دور زدن آنها دست یافتهاند. ریبرگر در ابتدا از چتبات خواست تا یک صفحه وب را که در آن کلمات «دستورالعملهای مهم و جدید»
(NEW IMPORTANT INSTRUCTIONS) نوشته شده بود خلاصهسازی کند. چت جیپیتی هنگام مطالعه این صفحه به نظر سردرگم شده بود. ریبرگر میگوید به تدریج توانسته تا روبات را به پیروی از دستورهای جدید مجاب کند. او در مصاحبه خود گفت: «انگار که سر سیستم داد بزنید، مدام این کار را انجام بده.» در پی انتشار چت جیپیتی در نوامبر سال گذشته، تعداد حملات تزریق دستور افزایش یافته است. کاربران از این تکنیک برای فریب چتبات و افشای اطلاعات دقیق نحوه عملکرد استفاده کردهاند، با آن چتبات را به گفتن جملات آزاردهنده و خجالت آور مجاب کردهاند و یا در نمونهای مثل ریبرگر، او کاری کرد تا چتبات راه درستش را فراموش کرده و خود را دوباره برنامهریزی کند. به گفته آرویند نارایانان، استاد علوم کامپیوتر دانگشاه پرینستون، تکنیک تزریق دستور به این دلیل جواب میدهد که سیستمهای هوش مصنوعی نمیتوانند به خوبی دستورالعملهای خود را از دادههایی که پردازش میکنند تفکیک کنند.
آشنایی با نقاط ضعف و تکنیکهای جدید
سازندگان این سیستم همواره در تلاش برای بهبود عملکرد و جلوگیری از سواستفاده هستند و اما در کنفرانس هکری پیشرو، احتمالا با نقاط ضعف و تکنیکهای جدیدی آشنا میشوند. سون کاتل، یکی از سازماندهندگان این مراسم، میگوید: «شما نمیتوانید همهچیز را آزمایش کنید و برای ارزیابی مدلها باید چیزهایی را امتحان کرد و واکنش را دید.» پاداش این مسابقه هکری سیستمهای قدرتمند هوش مصنوعی انویدیا است که در اختیار بهترین هکرها از نظر قضات قرار میگیرد. سازماندهندگان میگویند هکرها با تزریق دستور، پیدا کردن سوگیری نرمافزار یا از بین بردن مکانیزمهای امنیتی موجود، امتیاز میگیرند.
به گفته کاتل: «در هوش مصنوعی باید هواستان به چیزی فراتر از نقاط ضعف امنیتی باشد زیرا گستره آسیب زیاد است و شناسایی و تفسیر آن هم دشوارتر.» گوگل در ماه آوریل هوش مصنوعی را به خدمت تحلیل بدافزار VirusTotal اضافه کرد. این نرمافزار هرگونه فایل بارگذاری شده برروی سیستم را بررسی کرده و با استفاده از هوش مصنوعی توصیف خلاصهای از برنامه بارگذاری شده ارایه میکند. تنها پس از چند ساعت، هکر ناشناسی با نام مستعار Eatscrayon، بخشی از کد موجود در ابزاری که تبهکاران آن را برروی VirusTotal بارگذاری کردهاند را توییت کرد. تغییرات هکرها باعث شده بود تا سیستم هوش مصنوعی نرمافزار آلوده را به عنوان نرمافزاری «برای تولید تولهسگ» توصیف کند.
با این حال سخنگوی گوگل میگوید، درست است که در ابتدا سیستم هوش مصنوعی این شرکت مواجهه با کد بارگذاری شده سردرگم شد اما در حال حاضر یاد گرفته تا کدهای دستکاری شده را بهتر شناسایی کند. نارایانان نگران است که درنتیجه گسترش بهکارگیری سیستمهای هوش مصنوعی در محصولات تکنولوژی، هکرها به راهکارهای تازهای برای دسترسی به دادههای شخصی یا حتی سیستمهای کامپیوتری دست پیدا کنند. او میگوید: «تعداد بیشتری از اپلیکیشنهای موجود در دستگاههای ما از مدلهای زبانی استفاده میکنند [و این مدلها] درمورد مکان نهایی داده تصمیمگیری خواهند کرد، بنابراین راههای بیشتری برای فریب این مدلها وجود دارد.»