لحظه «اوپنهايمر» هوش مصنوعي
يكي از بحثبرانگيزترين و در عين حال خطرناكترين زمينههاي كاربرد هوش مصنوعي، حوزه نظامي و استفاده از سلاحهاي خودكار و هوشمند به شمار ميرود. به گزارش مهر، انقلاب هوش مصنوعي به سرعت در حال تغيير چهره جهان است و تأثيرات عميق آن در همه جوانب زندگي انساني به وضوح مشاهده ميشود.
يكي از بحثبرانگيزترين و در عين حال خطرناكترين زمينههاي كاربرد هوش مصنوعي، حوزه نظامي و استفاده از سلاحهاي خودكار و هوشمند به شمار ميرود. به گزارش مهر، انقلاب هوش مصنوعي به سرعت در حال تغيير چهره جهان است و تأثيرات عميق آن در همه جوانب زندگي انساني به وضوح مشاهده ميشود. هوش مصنوعي از تحولات در صنعت و اقتصاد گرفته تا بهبود سيستمهاي بهداشتي و آموزشي، به يكي از عوامل كليدي در توسعه و پيشرفت جوامع مدرن تبديل شده است. اما يكي از بحثبرانگيزترين و در عين حال خطرناكترين زمينههاي كاربرد هوش مصنوعي، حوزه نظامي و استفاده از سلاحهاي خودكار و هوشمند به شمار ميرود. در حالي كه هوش مصنوعي ميتواند به شكلي قابل توجه كارايي و دقت عمليات نظامي را افزايش بدهد، استفاده از آن در سلاحها و سيستمهاي جنگي پرسشهاي جدي اخلاقي و انساني گوناگوني را در اين زمينه مطرح ميكند. با گسترش روزافزون استفاده از اين فناوري در ميدانهاي نبرد، نگرانيها درباره پيامدهاي آن نيز افزايش يافته است. اكنون بيش از هر زمان ديگري، سوالاتي پيرامون ماهيت و اخلاق استفاده از هوش مصنوعي در جنگها مطرح ميشود. آيا ماشينها بايد تصميمات حياتي وابسته به مرگ و زندگي را بدون دخالت انسانها اتخاذ كنند؟ بهكارگيري گسترده سلاحهاي هوش مصنوعي براي جامعه جهاني و امنيت بينالمللي چه تبعاتي در بر دارد؟
اين مسائل تنها گوشهاي از معضلاتي هستند كه جهان امروز با آنها روبرو شده است. از يك سو، قدرتهاي بزرگ جهاني و شركتهاي فناوري در حال رقابت براي توسعه و استفاده از هوش مصنوعي در سيستمهاي نظامي هستند و از سوي ديگر، جامعه بينالمللي با چالشي بزرگ براي تنظيم و كنترل اين فناوري روبهرو است. مهر در اين نوشتار كوتاه به بررسي ابعاد مختلف ادغام هوش مصنوعي در فعاليتهاي نظامي پرداخته و تلاش ميكند تا نگاهي جامع به پيامدهاي اجتماعي، اخلاقي، حقوقي و سياسي استفاده از هوش مصنوعي در جنگها ارائه بدهد.
وضعيت گسترش استفاده
از سلاحهاي مجهز به هوش مصنوعي
استفاده از هوش مصنوعي در سلاحهاي نظامي ديگر محدود به داستانها و آثار سينمايي علمي تخيلي نيست، بلكه به واقعيتي در ميدان نبرد تبديل شده است. به عنوان مثال، در طول سالهاي اخير، ارتش اوكراين با استفاده از پهپادهاي مجهز به فناوري هوش مصنوعي و مواد منفجره يك مجموعه عمليات نظامي را عليه تأسيسات نفتي روسيه ترتيب داده است. همچنين، سيستمهاي نظارتي مبتني بر هوش مصنوعي امريكا طيف گستردهاي از اهداف خود را در سوريه و يمن شناسايي كرده و رژيم اشغالگر قدس نيز از سامانههاي هدفگيري مبتني بر هوش مصنوعي براي شناسايي و به شهادت رساندن هزاران شهروند فلسطيني در نوار غزه استفاده كرده است. به عقيده كارشناسان و با گسترش استفاده از هوش مصنوعي در عمليات نظامي، تقاضا براي توسعه و استقرار اين فناوري نيز بهشدت افزايش يافته است. به عنوان مثال، پنتاگون قصد دارد براي شناسايي خودكار تهديدات تا سال ۲۰۲۵ يك ميليارد دلار براي توسعه پهپادهاي رزمي بدون سرنشين مبتني بر هوش مصنوعي هزينه كند. اين افزايش سرمايهگذاري باعث شده تا شركتهاي فناوري و دفاعي قراردادهاي بزرگتري براي توسعه پروژههاي تسليحاتي مختلف به دست آورند. به عنوان مثال، استارتاپ دفاعي «Anduril» طي روزهاي اخير موفق به جذب ۱.۵ ميليارد دلار سرمايه براي توسعه تسليحات خودكار مبتني بر هوش مصنوعي شده است. اين سرمايهگذاري به «Anduril» كمك ميكند تا از يك شركت نوپا در صنعت دفاعي به يك پيمانكار جدي براي وزارت دفاع ايالات متحده تبديل شود. اين شركت همچنين قصد دارد كارخانهاي با نام «Arsenal-1» بسازد كه به سبك كارخانههاي پيشرفته شركتهايي مانند تسلا و اپل طراحي شده و با استفاده از پلتفرم توليدي مبتني بر هوش مصنوعي، به توليد سريعتر پهپادها و تجهيزات نظامي كمك ميكند. متخصصان بر اين باورند كه اين حركت «Anduril» در پاسخ به نياز فزاينده ارتش امريكا به سيستمهاي خودكار ارزانقيمت و قابلتوليد در مقياس بالا، به ويژه در مواجهه با چالشهايي مانند جنگ اوكراين و تهديدات احتمالي از سوي چين صورت گرفته است. اين شركت اميدوار است با اين روش نوآورانه، توانايي توليد تسليحات مبتني بر هوش مصنوعي را در امريكا بهبود بخشد.
رقابت جهاني و افزايش نفوذ شركتهاي فناوري
برآوردهاي صورت گرفته حاكي از آن است كه ارزش بازار هوش مصنوعي در صنايع نظامي با نرخ رشد مركب سالانه ۳۳.۳ درصد از مبلغ ۹.۲ ميليارد دلار در سال ۲۰۲۳ به ۳۸.۸ ميليارد دلار در سال ۲۰۲۸ برسد. در اين ميان، ايالات متحده امريكا و منطقه آسيا و اقيانوسيه بيشترين سهم را از اين رشد بازار خواهند داشت. اين روند مبين افزايش روزافزون اقبال دولتهاي به استفاده از هوش مصنوعي در بخش نظامي خود است. طيف گستردهاي از شركتهاي فناوري نقش مهمي در توسعه سلاحهاي مجهز به هوش مصنوعي ايفا ميكنند. شركتهايي مانند «Anduril» و «Palantir» از جمله پيشتازان در اين زمينه هستند كه قراردادهاي بزرگي با دولتها و ارتشهاي اقصي نقاط جهان منعقد كردهاند. بر اساس گزارشهاي منتشر شده، اين شركتها با ارائه فناوريهاي پيشرفته، به تسليحاتيتر شدن ارتشها و دولتها كمك كرده و نقش كليدي در شكلدهي به آينده جنگهاي مدرن ايفا ميكنند. از سوي ديگر، با افزايش تقاضا براي سلاحهاي خطرناك مبتني بر هوش مصنوعي، غولهاي فناوري از جمله گوگل و آمازون نيز تمايل بيشتري به همكاري با صنايع دفاعي نشان ميدهند. به عنوان مثال، شركت فناوري گوگل اخيرا با امضاي قراردادي با دولت و ارتش رژيم صهيونيستي، خدمات محاسبات ابري و قابليتهاي هوش مصنوعي را در اختيار اشغالگران قرار داده است. اين همكاريها با وجود اعتصابات گسترده و اعتراضات داخلي در اين شركتها، نشاندهنده تغيير رويكرد اين شركتهاي بزرگ نسبت به استفاده نظامي از هوش مصنوعي است.
چالشهاي اخلاقي و حقوقي توسعه هوش مصنوعي نظامي
يكي از بزرگترين چالشهاي مرتبط با استفاده از هوش مصنوعي در سلاحهاي نظامي، مسائل اخلاقي است. مفهوم «وجود انسان در حلقه تصميمگيري» كه به معناي حفظ نظارت انساني بر تصميمات حياتي ناظر بر مرگ و زندگي در جنگ است، مورد توافق عمومي همه كشورها و كارشناسان قرار دارد، اما چگونگي اجراي آن بهصورت عملي همچنان محل بحث است. برخي از متخصصان معتقدند كه حفظ نظارت انساني ميتواند به حضور حداقلي و فشرده انساني در فرآيند منجر شود كه در آن افراد تنها براي پذيرش مسووليت اشتباهات سيستمهاي هوش مصنوعي در موقعيتهاي بحراني حضور دارند. از سوي ديگر، مساله عدم شفافيت و پاسخگويي چالش بزرگ ديگري است كه سيستمهاي نظامي مبتني بر هوش مصنوعي با آن مواجه هستند. استفاده از سيستمهاي هوش مصنوعي در حوزه نظامي به دليل طبيعت محرمانه و انحصاري اين فناوريها با مشكلاتي از جمله عدم شفافيت و پاسخگويي همراه است. اين مساله باعث شده تا نظارت عمومي و اطمينان از عملكرد صحيح و اخلاقي اين سيستمها از سوي ناظران و جامعه مدني بسيار دشوار شود. به عنوان مثال، گزارشي درباره عمليات نظامي اشغالگران صهيونيست نشان ميدهد كه نظاميان اين رژيم بهرغم آگاهي از ضريب خطاي ۱۰ درصدي سيستمهاي مبتني بر هوش مصنوعي در شناسايي اهداف، همچنان از آن براي كشتار شهروندان فلسطيني استفاده ميكنند.
چالشهاي حقوقي و بينالمللي توسعه هوش مصنوعي نظامي
همگام با گسترش استفاده از سلاحهاي مجهز به هوش مصنوعي، تلاشهاي بينالمللي براي تنظيم مقررات در اين زمينه نيز افزايش يافته است. به عنوان مثال، در جريان برگزاري كنفرانس سيستمهاي تسليحاتي خودكار وين (The Vienna Conference on Autonomous Weapons Systems) در آوريل سال ۲۰۲۳، سازمانهاي بينالمللي و ديپلماتهايي از ۱۴۳ كشور گرد هم آمدند تا درباره تنظيم استفاده از هوش مصنوعي و سلاحهاي خودكار در جنگ بحث و تبادل نظر كنند؛ روندي كه تا به امروز همچنان ادامه دارد. به عقيده كارشناسان، اين تلاشها نشاندهنده نگرانيهاي جهاني نسبت به تأثيرات بالقوه مخرب اين فناوريهاي نوين بر صلح و امنيت بينالمللي است. از سوي ديگر با وجود حمايت گسترده بينالمللي براي تنظيم مقررات بينالمللي مربوط به سلاحهاي خودكار، كشورهاي بزرگ توليدكننده و استفادهكننده از اين فناوريها مانند امريكا، رژيم صهيونيستي، روسيه، چين و كره جنوبي بهطور كلي مخالف وضع قوانين الزامآور جديد در اين زمينه هستند. اين مخالفتها نشاندهنده چالشهاي جدي در دستيابي به توافقات بينالمللي براي كنترل و نظارت بر استفاده از هوش مصنوعي در جنگ به شمار ميرود.
پيامدهاي اجتماعي
و داخلي توسعه هوش مصنوعي نظامي
تبعات توسعه تسليحات خودكار تنها به مسائل اخلاقي و حقوقي محدود نميشود. با گسترش استفاده از سلاحهاي مبتني بر هوش مصنوعي در جنگها، نگرانيهايي درباره تأثيرات اين فناوريها بر جامعه و نيروهاي پليس داخلي كشورها نيز مطرح شده است. بسياري از فعالان مدني جهان به اين امر معترض هستند. برخي متخصصان معتقدند كه استفاده از اين فناوريها در جنگها ميتواند به تدريج به حوزههاي ديگري مانند نظارتهاي داخلي و كنترل مرزها نيز سرايت كند؛ امري كه ميتواند تهديدي جدي براي آزاديهاي اجتماعي و حقوق مدني باشد. همچنين با گسترش استفاده از سلاحهاي خودكار مبتني بر هوش مصنوعي، مفهوم جنگ و صلح نيز در حال تغيير است. اگرچه استفاده از اين فناوريها ميتواند به تغيير استراتژيهاي نظامي و كاهش نياز به نيروي انساني در جنگها منجر شود؛ اما اين تغييرات همچنين ميتواند به تشديد تنشهاي بينالمللي و افزايش احتمال درگيريهاي نظامي منجر شود و خسارات به جاني و مالي به بخشهاي غيرنظامي را به شكل محسوسي افزايش بدهد.
سخن پاياني
شكي نيست كه استفاده از هوش مصنوعي در عمليات نظامي به سرعت در حال گسترش است و تأثيرات گسترده و عميقي بر جامعه، اقتصاد و سياست جهاني خواهد داشت. اين فناوري با تمام پتانسيلها و نوآوريهاي خود، مسائل جدي و پيچيدهاي را در زمينه اخلاق، حقوق بينالملل و امنيت به وجود آورده است. از يك سو، هوش مصنوعي ميتواند با افزايش دقت و كارايي عمليات نظامي، به بهبود استراتژيهاي دفاعي كشورها كمك كند. اما از سوي ديگر، به كارگيري اين فناوري در جنگها و عمليات نظامي بدون نظارت و كنترل مناسب، منجر به تشديد درگيريها، افزايش خشونت و نقض حقوق بشر ميشود. با توجه به اين تحولات، ضرورت دارد كه جامعه بينالمللي به جاي تأخير و واكنش پس از وقوع بحرانها، از هماكنون براي تنظيم مقررات و ايجاد چارچوبهاي مناسب براي مواجهه با اين چالش اقدام كند. تجربيات گذشته نشان ميدهد زماني كه يك فناوري بهطور گسترده مورد استفاده قرار بگيرد، كنترل و مهار آن بسيار دشوارتر از مراحل ابتدايي ميشود. بنابراين، پيشگيري و مديريت هوشمندانه اين تحولات، ميتواند از بروز بحرانهاي جدي در آينده جلوگيري كند. بنابراين ميتوان نتيجه گرفت كه استفاده از هوش مصنوعي در سلاحهاي نظامي همانند يك شمشير دو لبه عمل ميكند. اين فناوري ميتواند هم به بهبود امنيت و هم به افزايش خطرات منجر شود. از همين روي كاربردهاي نظامي هوش مصنوعي نيازمند نظارت گسترده، تنظيم مقررات دقيق و مسووليتپذيري از سوي تمامي بازيگران بينالمللي است.