متا و لاما؛ ارتش امريكا به دنبال استفاده جديد از الگوريتم پلتفرمها
چندي پيش شركت متا اعلام كرد كه مدلهاي هوش مصنوعي توليدي خود را در اختيار دولت امريكا قرار خواهد داد تا در مقاصد نظامي- امنيتي مورد استفاده قرار گيرد؛ اقدامي بحثبرانگيز كه براي كاربران اين نرمافزار يك معضل اخلاقي به وجود آورده است.
چندي پيش شركت متا اعلام كرد كه مدلهاي هوش مصنوعي توليدي خود را در اختيار دولت امريكا قرار خواهد داد تا در مقاصد نظامي- امنيتي مورد استفاده قرار گيرد؛ اقدامي بحثبرانگيز كه براي كاربران اين نرمافزار يك معضل اخلاقي به وجود آورده است. به گزارش ايسنا، متا اعلام كرد كه مدلهاي خود، با نام «لاما» را در دسترس سازمانهاي دولتي و شركاي بخش خصوصي آنها كه در زمينه دفاع و امنيت ملي فعاليت ميكنند، قرار ميدهد. درحالي كه اين تصميم با سياستهاي خود متا هم مغايرت دارد، چرا كه طبق قوانين اين شركت، استفاده از مدل هوش مصنوعي لاما در فعاليتهاي نظامي، جنگ، صنايع هستهاي، جاسوسي، تروريسم، قاچاق انسان و سوءاستفاده يا آسيب به كودكان ممنوع است. طبق گزارشها، استثناهاي سياستي متا فقط محدود به امريكا نيست و شامل نهادهاي امنيت ملي در بريتانيا، كانادا، استراليا و نيوزيلند نيز ميشود. وضعيتي كه نشاندهنده شكنندگي روزافزون نرمافزارهاي هوش مصنوعي متنباز است. از طرفي قراردادن مدل هوش مصنوعي لاما در اختيار نهادهاي امنيتي و نظامي كشورها به اين معناست كه اطلاعات كاربران فيسبوك، اينستاگرام، واتساپ و مسنجر كه برخي از نسخههاي آنها از لاما استفاده ميكنند ممكن است به صورت ناخواسته در برنامههاي نظامي كه در سراسر جهان مشاركت داشته باشد.
لاما چيست و چگونه عمل ميكند؟
لاما مجموعهاي از مدلهاي زباني بزرگ (مشابه چت جيپيتي) و مدلهاي چندحالتي بزرگ است كه با دادههاي غير متني، از جمله صدا و تصوير، كار ميكند. شركت متا، كه مالك فيسبوك است، لاما را در رقابت با چت جيپيتي شركت اپنايآي ارايه كرده است. تفاوت اصلي لاما و چت جيپيتي اين است كه تمامي مدلهاي لاما به عنوان نرمافزار متنباز و رايگان معرفي ميشوند. اين يعني هر كسي ميتواند كد منبع مدل لاما را دانلود كرده، آن را اجرا و ويرايش كند (در صورتي كه سختافزار مناسب را داشته باشد) . در مقابل، چت جيپيتي فقط از طريق اپن ايآي قابل دسترسي است. موسسه Open Source Initiative، كه مرجع تعريف نرمافزارهاي متنباز است، اخيراً استانداردي براي تعيين هوش مصنوعي متنباز منتشر كرده است. اين استاندارد «چهار آزادي» را براي طبقهبندي يك مدل به عنوان متنباز مشخص ميكند: استفاده از سيستم براي هر هدفي، بدون نياز به كسب مجوز؛ مطالعه نحوه كاركرد سيستم و بررسي اجزاي آن؛ ويرايش سيستم براي هر هدفي، از جمله تغيير در خروجي آن؛ بهاشتراكگذاري سيستم با ديگران براي استفاده، با يا بدون تغييرات، براي هر هدفي. درحالي كه مدل هوش مصنوعي لاما اين شرايط را برآورده نميكند؛ چراكه استفاده تجاري از آن محدوديتهايي دارد و فعاليتهايي كه ممكن است زيانبار يا غيرقانوني باشند، ممنوع شدهاند. همچنين شفافيت لازم درباره دادههاي آموزشي لاما وجود ندارد. با اين حال، متا همچنان لاما را به عنوان يك نرمافزار متنباز معرفي ميكند.
پيوند خطرناك صنعت فناوري و نظامي
شركت متا تنها شركت فناوري تجاري نيست كه وارد حوزه كاربردهاي نظامي هوش مصنوعي شده است. هفته گذشته، شركت «آنتروپيك» نيز اعلام كرد كه با شركت پالانتير (فعال در تحليل داده) و خدمات وب آمازون همكاري ميكند تا دسترسي سازمانهاي اطلاعاتي و دفاعي امريكا به مدلهاي هوش مصنوعي خود را فراهم كند. متا از تصميم خود براي در اختيار قرار دادن مدل هوش مصنوعي لاما به سازمانهاي امنيت ملي امريكا و پيمانكاران دفاعي حمايت كرده و ادعا ميكند كه اين استفادهها مسوولانه و اخلاقي هستند و به رفاه و امنيت امريكا كمك ميكنند. در حالي كه متا تاكنون شفافيت لازم را در مورد دادههايي كه براي آموزش مدل لاما استفاده ميكند، ارايه نداده است. اما شركتهايي كه مدلهاي هوش مصنوعي توليدي را توسعه ميدهند، اغلب از دادههاي ورودي كاربران براي بهبود بيشتر مدلهاي خود بهره ميگيرند و كاربران نيز هنگام استفاده از اين ابزارها اطلاعات شخصي زيادي را به اشتراك ميگذارند. چت جيپيتي و دال-اي امكان عدم جمعآوري دادههاي كاربران را فراهم ميكنند؛ اما مشخص نيست كه مدل لاما نيز چنين امكاني را ارايه ميدهد يا خير. اين گزينه براي عدم جمعآوري دادهها هنگام ثبتنام در اين خدمات به وضوح نمايش داده نميشود و مسووليت آگاهي از آن بر عهده كاربران است. با اين حال، بيشتر كاربران ممكن است از محل و نحوه استفاده از مدل هوش مصنوعي لاما آگاه نباشند. به عنوان مثال، آخرين نسخه لاما ابزارهاي هوش مصنوعي موجود در فيسبوك، اينستاگرام، واتساپ و مسنجر را نيز پشتيباني ميكند. هنگامي كه كاربران از قابليتهاي هوش مصنوعي در اين پلتفرمها استفاده ميكنند، در واقع در حال استفاده از لاما هستند.
چالشهاي استفاده از مدلهاي متن باز در حوزه نظامي
يكي از مزاياي نرمافزارهاي متنباز، امكان مشاركت و همكاري آزاد در توسعه آنهاست. اما اين امر ميتواند منجر به ايجاد سيستمهايي منجر شود كه به سادگي قابل دستكاري باشند. به عنوان مثال، پس از حمله روسيه به اوكراين در سال ۲۰۲۲، برخي كاربران تغييراتي در نرمافزارهاي متنباز ايجاد كردند تا حمايت خود را از اوكراين نشان دهند. اين تغييرات شامل درج پيامهاي ضد جنگ و حذف فايلهاي سيستمي در رايانههاي روسي و بلاروسي بود. اين جنبش به نرمافزار اعتراضي يا «پروتستوار» معروف شد. پيوند نرمافزارهاي هوش مصنوعي متنباز با كاربردهاي نظامي احتمالاً اين شكنندگي را بيشتر ميكند، زيرا استحكام نرمافزارهاي متنباز به مشاركت جامعه كاربران عمومي بستگي دارد. در مورد مدلهاي زباني بزرگ مانند لاما، اين مدلها به تعامل و استفاده عمومي نياز دارند زيرا طراحي آنها بر اساس يك چرخه بازخورد بين كاربران و سيستم هوش مصنوعي بهبود پيدا ميكند. استفاده مشترك از ابزارهاي هوش مصنوعي متنباز بين دو گروه يعني عموم مردم و نظاميان كه نيازها و اهداف متفاوتي دارند، صورت ميگيرد، تفاوتي كه چالشهاي جديدي را براي هر دو گروه ايجاد خواهد كرد. براي نظاميان، دسترسي آزاد به اين معناست كه جزييات عملكرد يك ابزار هوش مصنوعي به راحتي در دسترس است، كه اين موضوع ميتواند منجر به مشكلات امنيتي و آسيبپذيري شود. براي عموم مردم نيز، نبود شفافيت در مورد نحوه استفاده نظاميان از دادههاي كاربران ميتواند به يك معضل اخلاقي و انساني تبديل شود.