لحظه «اوپنهايمر» هوش مصنوعي

۱۴۰۳/۰۵/۲۹ - ۰۱:۴۹:۲۰
کد خبر: ۳۱۹۱۳۱

يكي از بحث‌برانگيزترين و در عين حال خطرناك‌ترين زمينه‌هاي كاربرد هوش مصنوعي، حوزه نظامي و استفاده از سلاح‌هاي خودكار و هوشمند به شمار مي‌رود. به گزارش مهر، انقلاب هوش مصنوعي به سرعت در حال تغيير چهره جهان است و تأثيرات عميق آن در همه جوانب زندگي انساني به وضوح مشاهده مي‌شود.

يكي از بحث‌برانگيزترين و در عين حال خطرناك‌ترين زمينه‌هاي كاربرد هوش مصنوعي، حوزه نظامي و استفاده از سلاح‌هاي خودكار و هوشمند به شمار مي‌رود. به گزارش مهر، انقلاب هوش مصنوعي به سرعت در حال تغيير چهره جهان است و تأثيرات عميق آن در همه جوانب زندگي انساني به وضوح مشاهده مي‌شود. هوش مصنوعي از تحولات در صنعت و اقتصاد گرفته تا بهبود سيستم‌هاي بهداشتي و آموزشي، به يكي از عوامل كليدي در توسعه و پيشرفت جوامع مدرن تبديل شده است. اما يكي از بحث‌برانگيزترين و در عين حال خطرناك‌ترين زمينه‌هاي كاربرد هوش مصنوعي، حوزه نظامي و استفاده از سلاح‌هاي خودكار و هوشمند به شمار مي‌رود. در حالي كه هوش مصنوعي مي‌تواند به شكلي قابل توجه كارايي و دقت عمليات نظامي را افزايش بدهد، استفاده از آن در سلاح‌ها و سيستم‌هاي جنگي پرسش‌هاي جدي اخلاقي و انساني گوناگوني را در اين زمينه مطرح مي‌كند. با گسترش روزافزون استفاده از اين فناوري در ميدان‌هاي نبرد، نگراني‌ها درباره پيامدهاي آن نيز افزايش يافته است. اكنون بيش از هر زمان ديگري، سوالاتي پيرامون ماهيت و اخلاق استفاده از هوش مصنوعي در جنگ‌ها مطرح مي‌شود. آيا ماشين‌ها بايد تصميمات حياتي وابسته به مرگ و زندگي را بدون دخالت انسان‌ها اتخاذ كنند؟ به‌كارگيري گسترده سلاح‌هاي هوش مصنوعي براي جامعه جهاني و امنيت بين‌المللي چه تبعاتي در بر دارد؟

اين مسائل تنها گوشه‌اي از معضلاتي هستند كه جهان امروز با آنها روبرو شده است. از يك سو، قدرت‌هاي بزرگ جهاني و شركت‌هاي فناوري در حال رقابت براي توسعه و استفاده از هوش مصنوعي در سيستم‌هاي نظامي هستند و از سوي ديگر، جامعه بين‌المللي با چالشي بزرگ براي تنظيم و كنترل اين فناوري روبه‌رو است. مهر در اين نوشتار كوتاه به بررسي ابعاد مختلف ادغام هوش مصنوعي در فعاليت‌هاي نظامي پرداخته و تلاش مي‌كند تا نگاهي جامع به پيامدهاي اجتماعي، اخلاقي، حقوقي و سياسي استفاده از هوش مصنوعي در جنگ‌ها ارائه بدهد.

 

وضعيت گسترش استفاده

از سلاح‌هاي مجهز به هوش مصنوعي

استفاده از هوش مصنوعي در سلاح‌هاي نظامي ديگر محدود به داستان‌ها و آثار سينمايي علمي تخيلي نيست، بلكه به واقعيتي در ميدان نبرد تبديل شده است. به عنوان مثال، در طول سال‌هاي اخير، ارتش اوكراين با استفاده از پهپادهاي مجهز به فناوري هوش مصنوعي و مواد منفجره يك مجموعه عمليات نظامي را عليه تأسيسات نفتي روسيه ترتيب داده است. همچنين، سيستم‌هاي نظارتي مبتني بر هوش مصنوعي امريكا طيف گسترده‌اي از اهداف خود را در سوريه و يمن شناسايي كرده و رژيم اشغالگر قدس نيز از سامانه‌هاي هدف‌گيري مبتني بر هوش مصنوعي براي شناسايي و به شهادت رساندن هزاران شهروند فلسطيني در نوار غزه استفاده كرده است. به عقيده كارشناسان و با گسترش استفاده از هوش مصنوعي در عمليات نظامي، تقاضا براي توسعه و استقرار اين فناوري نيز به‌شدت افزايش يافته است. به عنوان مثال، پنتاگون قصد دارد براي شناسايي خودكار تهديدات تا سال ۲۰۲۵ يك ميليارد دلار براي توسعه پهپادهاي رزمي بدون سرنشين مبتني بر هوش مصنوعي هزينه كند. اين افزايش سرمايه‌گذاري باعث شده تا شركت‌هاي فناوري و دفاعي قراردادهاي بزرگ‌تري براي توسعه پروژه‌هاي تسليحاتي مختلف به دست آورند. به عنوان مثال، استارتاپ دفاعي «Anduril» طي روزهاي اخير موفق به جذب ۱.۵ ميليارد دلار سرمايه براي توسعه تسليحات خودكار مبتني بر هوش مصنوعي شده است. اين سرمايه‌گذاري به «Anduril» كمك مي‌كند تا از يك شركت نوپا در صنعت دفاعي به يك پيمانكار جدي براي وزارت دفاع ايالات متحده تبديل شود. اين شركت همچنين قصد دارد كارخانه‌اي با نام «Arsenal-1» بسازد كه به سبك كارخانه‌هاي پيشرفته شركت‌هايي مانند تسلا و اپل طراحي شده و با استفاده از پلتفرم توليدي مبتني بر هوش مصنوعي، به توليد سريع‌تر پهپادها و تجهيزات نظامي كمك مي‌كند. متخصصان بر اين باورند كه اين حركت «Anduril» در پاسخ به نياز فزاينده ارتش امريكا به سيستم‌هاي خودكار ارزان‌قيمت و قابل‌توليد در مقياس بالا، به ويژه در مواجهه با چالش‌هايي مانند جنگ اوكراين و تهديدات احتمالي از سوي چين صورت گرفته است. اين شركت اميدوار است با اين روش نوآورانه، توانايي توليد تسليحات مبتني بر هوش مصنوعي را در امريكا بهبود بخشد.

 

رقابت جهاني  و افزايش نفوذ شركت‌هاي فناوري

برآوردهاي صورت گرفته حاكي از آن است كه ارزش بازار هوش مصنوعي در صنايع نظامي با نرخ رشد مركب سالانه ۳۳.۳ درصد از مبلغ ۹.۲ ميليارد دلار در سال ۲۰۲۳ به ۳۸.۸ ميليارد دلار در سال ۲۰۲۸ برسد. در اين ميان، ايالات متحده امريكا و منطقه آسيا و اقيانوسيه بيشترين سهم را از اين رشد بازار خواهند داشت. اين روند مبين افزايش روزافزون اقبال دولت‌هاي به استفاده از هوش مصنوعي در بخش نظامي خود است. طيف گسترده‌اي از شركت‌هاي فناوري نقش مهمي در توسعه سلاح‌هاي مجهز به هوش مصنوعي ايفا مي‌كنند. شركت‌هايي مانند «Anduril» و «Palantir» از جمله پيشتازان در اين زمينه هستند كه قراردادهاي بزرگي با دولت‌ها و ارتش‌هاي اقصي نقاط جهان منعقد كرده‌اند. بر اساس گزارش‌هاي منتشر شده، اين شركت‌ها با ارائه فناوري‌هاي پيشرفته، به تسليحاتي‌تر شدن ارتش‌ها و دولت‌ها كمك كرده و نقش كليدي در شكل‌دهي به آينده جنگ‌هاي مدرن ايفا مي‌كنند. از سوي ديگر، با افزايش تقاضا براي سلاح‌هاي خطرناك مبتني بر هوش مصنوعي، غول‌هاي فناوري از جمله گوگل و آمازون نيز تمايل بيشتري به همكاري با صنايع دفاعي نشان مي‌دهند. به عنوان مثال، شركت فناوري گوگل اخيرا با امضاي قراردادي با دولت و ارتش رژيم صهيونيستي، خدمات محاسبات ابري و قابليت‌هاي هوش مصنوعي را در اختيار اشغالگران قرار داده است. اين همكاري‌ها با وجود اعتصابات گسترده و اعتراضات داخلي در اين شركت‌ها، نشان‌دهنده تغيير رويكرد اين شركت‌هاي بزرگ نسبت به استفاده نظامي از هوش مصنوعي است.

 

چالش‌هاي اخلاقي و حقوقي  توسعه هوش مصنوعي نظامي

يكي از بزرگ‌ترين چالش‌هاي مرتبط با استفاده از هوش مصنوعي در سلاح‌هاي نظامي، مسائل اخلاقي است. مفهوم «وجود انسان در حلقه تصميم‌گيري» كه به معناي حفظ نظارت انساني بر تصميمات حياتي ناظر بر مرگ و زندگي در جنگ است، مورد توافق عمومي همه كشورها و كارشناسان قرار دارد، اما چگونگي اجراي آن به‌صورت عملي همچنان محل بحث است. برخي از متخصصان معتقدند كه حفظ نظارت انساني مي‌تواند به حضور حداقلي و فشرده انساني در فرآيند منجر شود كه در آن افراد تنها براي پذيرش مسووليت اشتباهات سيستم‌هاي هوش مصنوعي در موقعيت‌هاي بحراني حضور دارند. از سوي ديگر، مساله عدم شفافيت و پاسخگويي چالش بزرگ ديگري است كه سيستم‌هاي نظامي مبتني بر هوش مصنوعي با آن مواجه هستند. استفاده از سيستم‌هاي هوش مصنوعي در حوزه نظامي به دليل طبيعت محرمانه و انحصاري اين فناوري‌ها با مشكلاتي از جمله عدم شفافيت و پاسخگويي همراه است. اين مساله باعث شده تا نظارت عمومي و اطمينان از عملكرد صحيح و اخلاقي اين سيستم‌ها از سوي ناظران و جامعه مدني بسيار دشوار شود. به عنوان مثال، گزارشي درباره عمليات نظامي اشغالگران صهيونيست نشان مي‌دهد كه نظاميان اين رژيم به‌رغم آگاهي از ضريب خطاي ۱۰ درصدي سيستم‌هاي مبتني بر هوش مصنوعي در شناسايي اهداف، همچنان از آن براي كشتار شهروندان فلسطيني استفاده مي‌كنند.

 

چالش‌هاي حقوقي و بين‌المللي  توسعه هوش مصنوعي نظامي

همگام با گسترش استفاده از سلاح‌هاي مجهز به هوش مصنوعي، تلاش‌هاي بين‌المللي براي تنظيم مقررات در اين زمينه نيز افزايش يافته است. به عنوان مثال، در جريان برگزاري كنفرانس سيستم‌هاي تسليحاتي خودكار وين (The Vienna Conference on Autonomous Weapons Systems) در آوريل سال ۲۰۲۳، سازمان‌هاي بين‌المللي و ديپلمات‌هايي از ۱۴۳ كشور گرد هم آمدند تا درباره تنظيم استفاده از هوش مصنوعي و سلاح‌هاي خودكار در جنگ بحث و تبادل نظر كنند؛ روندي كه تا به امروز همچنان ادامه دارد. به عقيده كارشناسان، اين تلاش‌ها نشان‌دهنده نگراني‌هاي جهاني نسبت به تأثيرات بالقوه مخرب اين فناوري‌هاي نوين بر صلح و امنيت بين‌المللي است. از سوي ديگر با وجود حمايت گسترده بين‌المللي براي تنظيم مقررات بين‌المللي مربوط به سلاح‌هاي خودكار، كشورهاي بزرگ توليدكننده و استفاده‌كننده از اين فناوري‌ها مانند امريكا، رژيم صهيونيستي، روسيه، چين و كره جنوبي به‌طور كلي مخالف وضع قوانين الزام‌آور جديد در اين زمينه هستند. اين مخالفت‌ها نشان‌دهنده چالش‌هاي جدي در دستيابي به توافقات بين‌المللي براي كنترل و نظارت بر استفاده از هوش مصنوعي در جنگ به شمار مي‌رود.

 

پيامدهاي اجتماعي

و داخلي توسعه هوش مصنوعي نظامي

تبعات توسعه تسليحات خودكار تنها به مسائل اخلاقي و حقوقي محدود نمي‌شود. با گسترش استفاده از سلاح‌هاي مبتني بر هوش مصنوعي در جنگ‌ها، نگراني‌هايي درباره تأثيرات اين فناوري‌ها بر جامعه و نيروهاي پليس داخلي كشورها نيز مطرح شده است. بسياري از فعالان مدني جهان به اين امر معترض هستند. برخي متخصصان معتقدند كه استفاده از اين فناوري‌ها در جنگ‌ها مي‌تواند به تدريج به حوزه‌هاي ديگري مانند نظارت‌هاي داخلي و كنترل مرزها نيز سرايت كند؛ امري كه مي‌تواند تهديدي جدي براي آزادي‌هاي اجتماعي و حقوق مدني باشد. همچنين با گسترش استفاده از سلاح‌هاي خودكار مبتني بر هوش مصنوعي، مفهوم جنگ و صلح نيز در حال تغيير است. اگرچه استفاده از اين فناوري‌ها مي‌تواند به تغيير استراتژي‌هاي نظامي و كاهش نياز به نيروي انساني در جنگ‌ها منجر شود؛ اما اين تغييرات همچنين مي‌تواند به تشديد تنش‌هاي بين‌المللي و افزايش احتمال درگيري‌هاي نظامي منجر شود و خسارات به جاني و مالي به بخش‌هاي غيرنظامي را به شكل محسوسي افزايش بدهد.

 

سخن پاياني

شكي نيست كه استفاده از هوش مصنوعي در عمليات نظامي به سرعت در حال گسترش است و تأثيرات گسترده و عميقي بر جامعه، اقتصاد و سياست جهاني خواهد داشت. اين فناوري با تمام پتانسيل‌ها و نوآوري‌هاي خود، مسائل جدي و پيچيده‌اي را در زمينه اخلاق، حقوق بين‌الملل و امنيت به وجود آورده است. از يك سو، هوش مصنوعي مي‌تواند با افزايش دقت و كارايي عمليات نظامي، به بهبود استراتژي‌هاي دفاعي كشورها كمك كند. اما از سوي ديگر، به كارگيري اين فناوري در جنگ‌ها و عمليات نظامي بدون نظارت و كنترل مناسب، منجر به تشديد درگيري‌ها، افزايش خشونت و نقض حقوق بشر مي‌شود. با توجه به اين تحولات، ضرورت دارد كه جامعه بين‌المللي به جاي تأخير و واكنش پس از وقوع بحران‌ها، از هم‌اكنون براي تنظيم مقررات و ايجاد چارچوب‌هاي مناسب براي مواجهه با اين چالش اقدام كند. تجربيات گذشته نشان مي‌دهد زماني كه يك فناوري به‌طور گسترده مورد استفاده قرار بگيرد، كنترل و مهار آن بسيار دشوارتر از مراحل ابتدايي مي‌شود. بنابراين، پيشگيري و مديريت هوشمندانه اين تحولات، مي‌تواند از بروز بحران‌هاي جدي در آينده جلوگيري كند. بنابراين مي‌توان نتيجه گرفت كه استفاده از هوش مصنوعي در سلاح‌هاي نظامي همانند يك شمشير دو لبه عمل مي‌كند. اين فناوري مي‌تواند هم به بهبود امنيت و هم به افزايش خطرات منجر شود. از همين روي كاربردهاي نظامي هوش مصنوعي نيازمند نظارت گسترده، تنظيم مقررات دقيق و مسووليت‌پذيري از سوي تمامي بازيگران بين‌المللي است.