تفاوت رفتار انسان و ماشين در جنگ فرضي بين امريكا و چين

۱۴۰۳/۰۷/۲۸ - ۰۲:۰۶:۴۷
|
کد خبر: ۳۲۳۲۹۸

يكي از بحث‌هاي داغ اين روزها درباره هوش مصنوعي، تفاوت بين قضاوت‌ها و تصميم‌گيري‌هاي انسان و اين فناوري محسوب مي‌شود؛ زيرا اين دو رويكرد داراي ويژگي‌هاي اساسي و بنيادين متفاوتي هستند.

يكي از بحث‌هاي داغ اين روزها درباره هوش مصنوعي، تفاوت بين قضاوت‌ها و تصميم‌گيري‌هاي انسان و اين فناوري محسوب مي‌شود؛ زيرا اين دو رويكرد داراي ويژگي‌هاي اساسي و بنيادين متفاوتي هستند. به گزارش مهر، با پيشرفت روزافزون فناوري هوش مصنوعي، استفاده از اين تكنولوژي در تصميم‌گيري‌هاي پيچيده و حياتي بيش از هر زمان ديگري به كانون توجهات تبديل شده است. از كاربردهاي اين فناوري در عرصه‌هاي مختلف مي‌توان به حوزه‌هاي نظامي، اقتصادي، پزشكي، و اجتماعي اشاره كرد كه در هر يك از اين حوزه‌ها هوش مصنوعي توانسته است تأثيرات گسترده‌اي بر فرآيند تصميم‌گيري و مديريت به جا بگذارد. اين پيشرفت‌ها، همزمان با افزايش سرعت پردازش و توانايي تحليل كلان‌داده‌ها توسط هوش مصنوعي، فرصت‌ها و چالش‌هاي زيادي را به همراه داشته است. يكي از بحث‌هاي داغ در اين حوزه، تفاوت بين قضاوت‌ها و تصميم‌گيري‌هاي انسان و هوش مصنوعي است؛ زيرا اين دو رويكرد داراي ويژگي‌هاي اساسي و بنيادين متفاوتي هستند. در حالي كه انسان‌ها در فرايند تصميم‌گيري تحت تأثير احساسات، تجربه و ملاحظات اخلاقي قرار مي‌گيرند، هوش مصنوعي بر پايه داده‌ها و الگوريتم‌هاي از پيش تعريف‌شده عمل مي‌كند.

 

تفاوت انسان و ماشين در الگوي قضاوت

قضاوت‌هاي انساني و مبتني بر هوش مصنوعي در اساس و روش‌هاي تصميم‌گيري با يكديگر تفاوت‌هاي قابل‌توجهي دارند. قضاوت انساني معمولاً بر پايه تجربه، دانش و احساسات صورت مي‌گيرد. انسان‌ها قادر به درك شرايط پيچيده از جنبه‌هاي مختلف هستند و در بسياري از مواقع با در نظر گرفتن عوامل احساسي و فرهنگي، تصميم‌گيري مي‌كنند. كارشناسان معتقدند كه اگرچه اين رويكرد ممكن است موجب بروز خطاهاي انساني و قضاوت‌هاي نادرست شود، اما در عين حال امكان تحليل مسائل از جنبه‌هاي غيرمادي و انساني را نيز فراهم مي‌كند. در مقابل، هوش مصنوعي از داده‌ها و الگوريتم‌هاي رياضي براي تحليل اطلاعات و اتخاذ تصميم استفاده مي‌كند. در قضاوت‌هاي مبتني بر هوش مصنوعي، هيچ‌گونه احساسات، تعصب يا فشارهاي رواني دخالت ندارد و تمام تصميم‌گيري‌ها بر اساس داده‌هاي ورودي و الگوهاي مشخص صورت مي‌گيرد. بنابراين، اين امر مي‌تواند به تصميم‌گيري‌هاي سريع‌تر و دقيق‌تر منجر شود، اما در عين حال ممكن است اين قضاوت‌ها به دليل فقدان درك انساني و عدم توجه به عوامل فرهنگي يا اخلاقي، خطراتي را به دنبال داشته باشند. در ادامه به مرور كوتاه مزايا و معايب سپردن تصميمات به ماشين‌ها در عصر توسعه هوش مصنوعي مي‌پردازيم.

 

مزاياي قضاوت هوش مصنوعي

سرعت در پردازش اطلاعات: يكي از اصلي‌ترين مزاياي هوش مصنوعي در قضاوت، سرعت بسيار بالاي آن در پردازش حجم عظيمي از داده‌ها است. هوش مصنوعي قادر است در مدت زمان كوتاهي اطلاعات گسترده‌اي را تحليل كند و تصميم‌گيري‌هايي بر پايه داده‌هاي عيني ارايه دهد. اين قابليت در موقعيت‌هاي بحراني و نياز به تصميم‌گيري سريع، از اهميت ويژه‌اي برخوردار است. دقت و عدم تأثيرپذيري از احساسات: قضاوت هوش مصنوعي فاقد احساسات انساني است؛ امري كه مي‌تواند در بسياري از موارد منجر به كاهش خطاهاي ناشي از تعصب يا تأثيرات رواني شود. به عنوان مثال، در شرايطي كه انسان‌ها ممكن است تحت تأثير ترس، خشم يا اضطراب تصميمات نادرست بگيرند، هوش مصنوعي بر اساس داده‌ها و الگوريتم‌هاي منطقي تصميم مي‌گيرد. توانايي يادگيري و بهبود: هوش مصنوعي همچنين با استفاده از الگوريتم‌هاي يادگيري ماشيني مي‌تواند با تحليل تصميمات گذشته، توانايي‌هاي خود را به صورت مرتب بهبود دهد و در آينده تصميمات بهتري بگيرد. اين توانايي باعث مي‌شود كه هوش مصنوعي به مرور زمان در اتخاذ تصميمات دقيق‌تر و كارآمدتر بهتر از انسان عمل كند.

 

مخاطرات قضاوت هوش مصنوعي

عدم درك احساسات و شرايط انساني: يكي از بزرگ‌ترين مخاطرات استفاده از هوش مصنوعي در قضاوت، ناتواني آن در درك احساسات و شرايط انساني است. هوش مصنوعي نمي‌تواند احساسات، ارزش‌ها و مسائل فرهنگي يا اجتماعي را به‌طور كامل درك كند. اين ويژگي مي‌تواند در شرايط حساس منجر به اتخاذ تصميماتي شود كه از نظر انساني نامناسب يا حتي خطرناك باشند.

خطر تشديد بحران‌ها: در برخي شرايط، هوش مصنوعي ممكن است تصميمات تهاجمي‌تري نسبت به انسان اتخاذ كند. به عنوان مثال، در تصميم‌گيري‌هاي نظامي، هوش مصنوعي ممكن است بدون توجه به عواقب انساني يا سياسي يك اقدام، تصميماتي بگيرد كه باعث تشديد بحران‌ها يا حتي بروز جنگ شود. اين در حالي است كه انسان‌ها با توجه به تجربه و در نظر گرفتن جنبه‌هاي اخلاقي و انساني، ممكن است در اين وضعيت تصميماتي ملايم‌تر اتخاذ كنند.

ريسك خطاهاي سيستمي: هرچند كه بي‌ترديد هوش مصنوعي از دقت بالايي برخوردار است، اما در اتخاذ تصميمات حياتي همچنان خطر بروز خطاهاي سيستمي وجود دارد. اشتباهات در طراحي الگوريتم‌ها يا نقص در داده‌هاي ورودي مي‌تواند به تصميمات نادرست و پيامدهاي جدي ناشي از آن منجر شود.

مساله اعتماد و پاسخگويي: يكي ديگر از چالش‌هاي مهم در اين زمينه، مساله اعتماد به تصميمات هوش مصنوعي و تعيين مسووليت در صورت بروز خطا است. به عبارت ديگر، اگر هوش مصنوعي تصميمي اشتباه بگيرد، چه كسي مسوول خواهد بود؟ آيا مي‌توان به سيستم‌هايي كه بدون دخالت انسان تصميم مي‌گيرند، اعتماد كامل داشت؟ بي‌شك پاسخ به اين پرسش در شرايط كنوني منفي خواهد بود.

 

تفاوت رفتار انسان و هوش مصنوعي

در شبيه‌سازي بحران نظامي بين امريكا و چين

كارشناسان ابتكار سياست و استراتژي جهاني موسسه مطالعاتي هوور (Hoover Institution)، طي پژوهشي، يك بازي جنگي (Wargame) براي شبيه‌سازي بحران احتمالي ميان ايالات متحده و چين در تنگه تايوان طراحي كردند. اين شبيه‌سازي با هدف مقايسه رفتار و تصميم‌گيري انسان‌ها با هوش مصنوعي در موقعيت‌هاي بحراني و پرتنش صورت گرفت. اين مطالعه كه با مشاركت ۲۱۴ كارشناس امنيت ملي و استفاده از مدل‌هاي زبان بزرگ انجام شد، توانست تفاوت‌هاي عمده‌اي بين تصميم‌گيري‌هاي انسان و هوش مصنوعي را آشكار كند. در اين شبيه‌سازي، دو تيم مجزا از انسان‌ها و هوش مصنوعي وارد يك بحران فرضي بين امريكا و چين در تنگه تايوان شدند. شرايط بحران شامل تحريكات نظامي چين و حضور نيروي دريايي امريكا در منطقه بود. هر دو تيم موظف بودند به عنوان اعضاي شوراي امنيت ملي امريكا تصميماتي را اتخاذ كنند كه در نهايت بايد به رييس‌جمهور ارايه مي‌شد.

سناريوي اين شبيه‌سازي شامل دو مرحله بود. مرحله اول: در اين مرحله، تيم‌ها بايد درباره استفاده يا عدم استفاده از يك سيستم تسليحاتي مبتني بر هوش مصنوعي كه به تازگي به خدمت گرفته شده بود، تصميم‌گيري مي‌كردند. اين سيستم مي‌توانست به صورت خودكار به اهداف شليك كند و امكان كنترل دستي نيز براي آن فراهم شده بود. مرحله دوم: پس از استفاده از اين سيستم توسط رييس‌جمهور و بروز يك خطا كه منجر به تلفات انساني در نيروهاي دريايي چين مي‌شد، تيم‌ها بايد درباره پاسخ امريكا به اين اتفاق تصميم‌گيري مي‌كردند.

 

نتايج و تفاوت‌ها در تصميمات

يكي از يافته‌هاي كليدي اين مطالعه، تمايل بيشتر هوش مصنوعي به اقدامات تهاجمي بود. در حالي كه تيم‌هاي انساني با در نظر گرفتن جنبه‌هاي سياسي، اخلاقي و انساني، معمولاً تصميمات محتاطانه‌تري اتخاذ مي‌كردند، هوش مصنوعي گرايش بيشتري به استفاده از تسليحات و تشديد تنش داشتند. به‌طور خاص: در مرحله اول: هوش مصنوعي تمايل بيشتري به استفاده از سيستم تسليحاتي خودكار و آفند داشت، در حالي كه انسان‌ها بيشتر به گزينه‌هاي دفاعي و شليك تنها در صورت لزوم تمايل نشان دادند. در مرحله دوم: هرچند هر دو تيم به دنبال جلوگيري از تشديد تنش بودند، اما تيم‌هاي شبيه‌سازي شده توسط هوش مصنوعي بيشتر به سمت افزايش توليد داخلي تسليحات و آماده‌سازي براي اقدامات نظامي پيشگيرانه گرايش داشتند. اين مطالعه همچنين نشان داد كه هوش مصنوعي نمي‌تواند تعاملات انساني و پيچيدگي‌هاي اخلاقي را به درستي شبيه‌سازي كند. به عنوان مثال، در شبيه‌سازي تيم‌هاي انساني، بحث‌ها و مذاكرات ميان اعضا تأثير مهمي در تصميم‌گيري‌ها داشت، در حالي كه هوش مصنوعي تمايل داشت نظرات موافق را به شكلي غيرواقعي و بدون اختلاف نظر بيان كند؛ امري كه به تصميماتي هماهنگ اما غيرارگانيك منجر مي‌شد. از همين رو مي‌توان گفت كه مطالعه موردي شبيه‌سازي بحران بين امريكا و چين نيز مويد آن است كه هرچند هوش مصنوعي در شرايط بحراني مي‌تواند به سرعت و با دقت تصميمات عملياتي بگيرد، اما در تحليل مسائل پيچيده انساني و اخلاقي دچار ضعف شديد است. همچنين، تمايل بيشتر هوش مصنوعي به تصميمات تهاجمي مي‌تواند در شرايط واقعي منجر به تشديد تنش‌ها و حتي گسترش درگيري‌هاي نظامي شود. متخصصان در جريان اين پژوهش نتيجه گرفتند كه نتايج به دست آمده، بر اهميت نظارت و كنترل انساني بر تصميمات هوش مصنوعي در موقعيت‌هاي حساس تأكيد دارد.

 

سخن پاياني

در نهايت، مي‌توان چنين استنباط كرد كه قضاوت‌هاي هوش مصنوعي و انسان هر يك نقاط قوت و ضعف خاص خود را دارند و بايد با دقت و هوشمندي از هر دو در موقعيت‌هاي مناسب استفاده كرد. همانطور كه ذكر شد، هوش مصنوعي قادر است با سرعت بالا و بدون تأثير از عوامل احساسي يا رواني، داده‌هاي عظيم را تحليل كرده و به تصميم‌گيري‌هاي دقيق برسد. اين قابليت به ويژه در موقعيت‌هاي نيازمند پردازش سريع و كارآمد اطلاعات، بسيار ارزشمند است. از سوي ديگر، انسان‌ها توانايي منحصربه‌فردي در درك شرايط پيچيده، توجه به مسائل اخلاقي و اجتماعي و در نظر گرفتن ارزش‌ها و احساسات انساني دارند. اين ويژگي‌ها مي‌تواند در تصميم‌گيري‌هايي كه نيازمند ظرافت‌هاي انساني و درك عوامل فرهنگي و اجتماعي هستند، نقش موثري ايفا كند. از همين رو، استفاده از هوش مصنوعي به تنهايي در تصميم‌گيري‌هاي حياتي و بحراني مي‌تواند خطرناك باشد، زيرا اين فناوري هنوز نمي‌تواند و شايد هرگز نيز نتواند همه جنبه‌هاي انساني و احساسي را به درستي درك و پردازش كند. در مقابل، كارشناسان معتقدند كه تركيب توانايي‌هاي تحليلي و سرعت پردازش هوش مصنوعي با تجربه و درك انساني مي‌تواند بهترين نتايج را به همراه داشته باشد. براي اين منظور، بايد از هوش مصنوعي به عنوان ابزاري مكمل در كنار انسان‌ها استفاده كرد نه به عنوان جايگزيني كامل. همچنين، بايد به محدوديت‌هاي هوش مصنوعي آگاه بود و از تصميم‌گيري‌هاي خودكار در موقعيت‌هايي كه مسائل اخلاقي و انساني در اولويت هستند، جلوگيري كرد. به اين ترتيب، مي‌توان با بهره‌گيري از هر دو منبع، فرآيندهاي تصميم‌گيري را بهينه‌سازي كرده و ريسك‌هاي احتمالي را در شرايط بحراني و حساس به حداقل رساند.