متا و لاما؛ ارتش امريكا به دنبال استفاده جديد از الگوريتم پلتفرم‌ها

۱۴۰۳/۱۰/۰۱ - ۰۰:۵۵:۳۶
|
کد خبر: ۳۲۸۴۰۸

چندي پيش شركت متا اعلام كرد كه مدل‌هاي هوش مصنوعي توليدي خود را در اختيار دولت امريكا قرار خواهد داد تا در مقاصد نظامي- امنيتي مورد استفاده قرار گيرد؛ اقدامي بحث‌برانگيز كه براي كاربران اين نرم‌افزار يك معضل اخلاقي به وجود آورده است.

چندي پيش شركت متا اعلام كرد كه مدل‌هاي هوش مصنوعي توليدي خود را در اختيار دولت امريكا قرار خواهد داد تا در مقاصد نظامي- امنيتي مورد استفاده قرار گيرد؛ اقدامي بحث‌برانگيز كه براي كاربران اين نرم‌افزار يك معضل اخلاقي به وجود آورده است. به گزارش ايسنا، متا اعلام كرد كه مدل‌هاي خود، با نام «لاما» را در دسترس سازمان‌هاي دولتي و شركاي بخش خصوصي آنها كه در زمينه دفاع و امنيت ملي فعاليت مي‌كنند، قرار مي‌دهد. درحالي كه اين تصميم با سياست‌هاي خود متا هم مغايرت دارد، چرا كه طبق قوانين اين شركت، استفاده از مدل هوش مصنوعي لاما در فعاليت‌هاي نظامي، جنگ، صنايع هسته‌اي، جاسوسي، تروريسم، قاچاق انسان و سوءاستفاده يا آسيب به كودكان ممنوع است. طبق گزارش‌ها، استثناهاي سياستي متا فقط محدود به امريكا نيست و شامل نهادهاي امنيت ملي در بريتانيا، كانادا، استراليا و نيوزيلند نيز مي‌شود. وضعيتي كه نشان‌دهنده شكنندگي روزافزون نرم‌افزارهاي هوش مصنوعي متن‌باز است. از طرفي قراردادن مدل هوش مصنوعي لاما در اختيار نهادهاي امنيتي و نظامي كشورها به اين معناست كه اطلاعات كاربران فيس‌بوك، اينستاگرام، واتس‌اپ و مسنجر كه برخي از نسخه‌هاي آنها از لاما استفاده مي‌كنند ممكن است به صورت ناخواسته در برنامه‌هاي نظامي كه در سراسر جهان مشاركت داشته باشد.

 

لاما چيست و چگونه عمل مي‌كند؟

لاما مجموعه‌اي از مدل‌هاي زباني بزرگ (مشابه چت جي‌پي‌تي) و مدل‌هاي چندحالتي بزرگ است كه با داده‌هاي غير متني، از جمله صدا و تصوير، كار مي‌كند. شركت متا، كه مالك فيس‌بوك است، لاما را در رقابت با چت جي‌پي‌تي شركت اپن‌اي‌آي ارايه كرده است. تفاوت اصلي لاما و چت جي‌پي‌تي اين است كه تمامي مدل‌هاي لاما به عنوان نرم‌افزار متن‌باز و رايگان معرفي مي‌شوند. اين يعني هر كسي مي‌تواند كد منبع مدل لاما را دانلود كرده، آن را اجرا و ويرايش كند (در صورتي كه سخت‌افزار مناسب را داشته باشد) . در مقابل، چت جي‌پي‌تي فقط از طريق اپن اي‌آي قابل دسترسي است. موسسه Open Source Initiative، كه مرجع تعريف نرم‌افزارهاي متن‌باز است، اخيراً استانداردي براي تعيين هوش مصنوعي متن‌باز منتشر كرده است. اين استاندارد «چهار آزادي» را براي طبقه‌بندي يك مدل به عنوان متن‌باز مشخص مي‌كند: استفاده از سيستم براي هر هدفي، بدون نياز به كسب مجوز؛ مطالعه نحوه كاركرد سيستم و بررسي اجزاي آن؛ ويرايش سيستم براي هر هدفي، از جمله تغيير در خروجي آن؛ به‌اشتراك‌گذاري سيستم با ديگران براي استفاده، با يا بدون تغييرات، براي هر هدفي. درحالي كه مدل هوش مصنوعي لاما اين شرايط را برآورده نمي‌كند؛ چراكه استفاده تجاري از آن محدوديت‌هايي دارد و فعاليت‌هايي كه ممكن است زيان‌بار يا غيرقانوني باشند، ممنوع شده‌اند. همچنين شفافيت لازم درباره داده‌هاي آموزشي لاما وجود ندارد. با اين حال، متا همچنان لاما را به عنوان يك نرم‌افزار متن‌باز معرفي مي‌كند.

 

پيوند خطرناك صنعت فناوري و نظامي

شركت متا تنها شركت فناوري تجاري نيست كه وارد حوزه كاربردهاي نظامي هوش مصنوعي شده است. هفته گذشته، شركت «آنتروپيك» نيز اعلام كرد كه با شركت پالانتير (فعال در تحليل داده) و خدمات وب آمازون همكاري مي‌كند تا دسترسي سازمان‌هاي اطلاعاتي و دفاعي امريكا به مدل‌هاي هوش مصنوعي خود را فراهم كند. متا از تصميم خود براي در اختيار قرار دادن مدل هوش مصنوعي لاما به سازمان‌هاي امنيت ملي امريكا و پيمانكاران دفاعي حمايت كرده و ادعا مي‌كند كه اين استفاده‌ها مسوولانه و اخلاقي هستند و به رفاه و امنيت امريكا كمك مي‌كنند. در حالي كه متا تاكنون شفافيت لازم را در مورد داده‌هايي كه براي آموزش مدل لاما استفاده مي‌كند، ارايه نداده است. اما شركت‌هايي كه مدل‌هاي هوش مصنوعي توليدي را توسعه مي‌دهند، اغلب از داده‌هاي ورودي كاربران براي بهبود بيشتر مدل‌هاي خود بهره مي‌گيرند و كاربران نيز هنگام استفاده از اين ابزارها اطلاعات شخصي زيادي را به اشتراك مي‌گذارند. چت جي‌پي‌تي و دال-اي امكان عدم جمع‌آوري داده‌هاي كاربران را فراهم مي‌كنند؛ اما مشخص نيست كه مدل لاما نيز چنين امكاني را ارايه مي‌دهد يا خير. اين گزينه براي عدم جمع‌آوري داده‌ها هنگام ثبت‌نام در اين خدمات به وضوح نمايش داده نمي‌شود و مسووليت آگاهي از آن بر عهده كاربران است. با اين حال، بيشتر كاربران ممكن است از محل و نحوه استفاده از مدل هوش مصنوعي لاما آگاه نباشند. به‌ عنوان مثال، آخرين نسخه لاما ابزارهاي هوش مصنوعي موجود در فيس‌بوك، اينستاگرام، واتس‌اپ و مسنجر را نيز پشتيباني مي‌كند. هنگامي كه كاربران از قابليت‌هاي هوش مصنوعي در اين پلتفرم‌ها استفاده مي‌كنند، در واقع در حال استفاده از لاما هستند.

 

چالش‌هاي استفاده از مدل‌هاي متن باز در حوزه نظامي

يكي از مزاياي نرم‌افزارهاي متن‌باز، امكان مشاركت و همكاري آزاد در توسعه آنهاست. اما اين امر مي‌تواند منجر به ايجاد سيستم‌هايي منجر شود كه به سادگي قابل دستكاري باشند. به عنوان مثال، پس از حمله روسيه به اوكراين در سال ۲۰۲۲، برخي كاربران تغييراتي در نرم‌افزارهاي متن‌باز ايجاد كردند تا حمايت خود را از اوكراين نشان دهند. اين تغييرات شامل درج پيام‌هاي ضد جنگ و حذف فايل‌هاي سيستمي در رايانه‌هاي روسي و بلاروسي بود. اين جنبش به نرم‌افزار اعتراضي يا «پروتست‌وار» معروف شد. پيوند نرم‌افزارهاي هوش مصنوعي متن‌باز با كاربردهاي نظامي احتمالاً اين شكنندگي را بيشتر مي‌كند، زيرا استحكام نرم‌افزارهاي متن‌باز به مشاركت جامعه كاربران عمومي بستگي دارد. در مورد مدل‌هاي زباني بزرگ مانند لاما، اين مدل‌ها به تعامل و استفاده عمومي نياز دارند زيرا طراحي آنها بر اساس يك چرخه بازخورد بين كاربران و سيستم هوش مصنوعي بهبود پيدا مي‌كند. استفاده مشترك از ابزارهاي هوش مصنوعي متن‌باز بين دو گروه يعني عموم مردم و نظاميان كه نيازها و اهداف متفاوتي دارند، صورت مي‌گيرد، تفاوتي كه چالش‌هاي جديدي را براي هر دو گروه ايجاد خواهد كرد. براي نظاميان، دسترسي آزاد به اين معناست كه جزييات عملكرد يك ابزار هوش مصنوعي به راحتي در دسترس است، كه اين موضوع مي‌تواند منجر به مشكلات امنيتي و آسيب‌پذيري شود. براي عموم مردم نيز، نبود شفافيت در مورد نحوه استفاده نظاميان از داده‌هاي كاربران مي‌تواند به يك معضل اخلاقي و انساني تبديل شود.