ممنوعيت‌هاي هوش مصنوعي در قانون اتحاديه اروپا

تنش با امريكا در حوزه فناوري بيشتر مي‌شود

۱۴۰۳/۱۱/۲۰ - ۰۲:۰۳:۵۷
|
کد خبر: ۳۳۳۴۵۹

قانون هوش مصنوعي اتحاديه اروپا وارد مرحله اجرايي شد. اين قانون از سوي بسياري از كارشناسان، به عنوان يك نقطه عطف راهبردي در مسير حكمراني فناوري‌هاي نوين و هوشمند تلقي مي‌شود. به گزارش مهر؛ قانون هوش مصنوعي اتحاديه اروپا (EU AI Act)، از تاريخ سوم فوريه ۲۰۲۵ وارد مرحله اجرايي شد.

قانون هوش مصنوعي اتحاديه اروپا وارد مرحله اجرايي شد. اين قانون از سوي بسياري از كارشناسان، به عنوان يك نقطه عطف راهبردي در مسير حكمراني فناوري‌هاي نوين و هوشمند تلقي مي‌شود. به گزارش مهر؛ قانون هوش مصنوعي اتحاديه اروپا (EU AI Act)، از تاريخ سوم فوريه ۲۰۲۵ وارد مرحله اجرايي شد. اين قانون از سوي بسياري از كارشناسان به عنوان يك نقطه عطف راهبردي در مسير حكمراني فناوري‌هاي نوين و هوشمند تلقي مي‌شود. متخصصان بر اين باورند كه اتحاديه اروپا در قانون جامع هوش مصنوعي خود با تكيه بر اصول بنيادين حكمراني داده‌محور، هدفي دوگانه را دنبال مي‌كند: نخست، تسريع روند نوآوري‌هاي فناورانه از طريق ايجاد شفافيت و الزامات عملياتي مشخص؛ دوم، ارتقاي ملاحظات اخلاقي و امنيتي در بستر فناوري. بررسي‌هاي صورت‌گرفته نشان مي‌دهد كه اين چارچوب نظارتي فراگير، زمينه‌اي براي كنترل و نظارت جامع بر استفاده از هوش مصنوعي در بخش‌هاي مختلف صنعتي، اجتماعي و دولتي فراهم كرده و به دنبال كاهش مخاطرات بالقوه در كنار حمايت از پيشرفت پايدار است. اين در حالي است كه به نظر مي‌رسد اجراي الزامات تعيين شده در اين سند حقوقي، تبعات و تأثيرات بنيادين بر آينده هوش مصنوعي خواهد داشت. مهر در اين نوشتار كوتاه به مرور برخي از ديدگاه‌هاي مطرح شده در اين زمينه مي‌پردازد. اين قانون با اتخاذ رويكردي مبتني بر ارزيابي مخاطرات، كاربردهاي هوش مصنوعي را به سه دسته كليدي تفكيك مي‌كند: كاربردهاي ممنوعه؛ كاربردهاي پرخطر؛ كاربردهاي كم‌خطر. دسته‌بندي مذكور به منظور مديريت ريسك‌هاي مرتبط با فناوري و حفاظت از منافع عمومي طراحي شده است. بر همين اساس، كاربردهاي ممنوعه شامل سيستم‌هايي هستند كه به دليل نقض آشكار حقوق اساسي انسان‌ها، مانند نظارت بي‌رويه يا دست‌كاري شناختي، به‌طور كامل ممنوع اعلام شده‌اند. بر همين اساس، تمامي سيستم‌هاي هوش مصنوعي كه تهديدي آشكار براي ايمني، معيشت و حقوق افراد محسوب مي‌شوند، ممنوع هستند. قانون هوش مصنوعي (AI Act) هشت رويه را به عنوان اقدامات ممنوعه تعريف كرده است كه عبارت‌اند از: دست‌كاري و فريب مبتني بر هوش مصنوعي؛ به‌كارگيري از هوش مصنوعي در راستاي سوءاستفاده از آسيب‌پذيري‌ها؛ سيستم‌هاي امتيازدهي اجتماعي (Social Scoring)؛ ارزيابي يا پيش‌بيني ريسك ارتكاب جرم توسط افراد؛ استخراج اطلاعات (Scraping) بدون هدف مشخص از اينترنت يا داده‌هاي دوربين‌هاي مدار بسته به منظور ايجاد يا گسترش پايگاه‌هاي داده تشخيص چهره؛ شناسايي احساسات در محيط‌هاي كاري و موسسات آموزشي؛ طبقه‌بندي زيست‌سنجي براي استنباط ويژگي‌هاي حساس (مانند جنسيت، نژاد يا مذهب)؛ سيستم‌هاي شناسايي زيستي از راه دور و آني. در مقابل، كاربردهاي پرخطر كه در حوزه‌هاي استراتژيكي چون زيرساخت‌هاي حياتي، نظام سلامت و فرآيندهاي حساس استخدامي قرار مي‌گيرند، تحت نظارت‌هاي شديد و الزامات سخت‌گيرانه‌تري نظير ارزيابي جامع تأثيرات، گزارش‌دهي شفاف و پايش مستمر فعاليت‌ها قرار دارند. اين الزامات شامل تهيه مستندات دقيق از داده‌هاي مورد استفاده، كنترل سوگيري‌هاي احتمالي و تضمين پايداري سيستم‌هاي هوش مصنوعي مي‌شوند. بر اساس ادعاي مطرح‌شده از سوي مسوولان اروپايي و مدافعان اجراي اين قانون، تدابير نظارتي در راستاي كاهش آسيب‌هاي اجتماعي، حقوقي و اقتصادي ناشي از عملكرد نادرست يا غيراخلاقي فناوري‌هاي هوشمند وضع شده‌اند و بر اهميت مسووليت‌پذيري سازمان‌ها در مواجهه با چالش‌هاي پيچيده حاكميتي تأكيد دارند. يكي از موضوعات مهم و شايد برجسته‌ترين نكته در اين قانون، معافيت صريح سيستم‌هاي هوش مصنوعي مورد استفاده در بخش‌هاي نظامي و امنيت ملي است. اين استثنا بيانگر رويكردي راهبردي در راستاي حفظ مزيت رقابتي و پيشگامي فناورانه در حوزه دفاعي است. در اين حوزه، فناوري‌هاي مبتني بر هوش مصنوعي در بخش‌هايي چون شناسايي تهديدات خودكار، امنيت سايبري پيشرفته، تحليل و پيش‌بيني‌هاي تاكتيكي و مديريت عمليات ميداني نقش كليدي دارند. مدافعان اين تصميم، مدعي هستند كه چنين كاربردهايي، به دليل ماهيت حساس و محرمانه خود، به سرعت عمل و انعطاف‌پذيري بالا در تصميم‌گيري‌هاي عملياتي نياز دارند؛ بنابراين، اعمال مقررات سخت‌گيرانه در اين زمينه مي‌تواند توسعه و پياده‌سازي به‌موقع اين فناوري‌ها را مختل كرده و بر كارآمدي ماموريت‌هاي امنيتي تأثير منفي بگذارد. معافيت مذكور تضمين مي‌كند كه نهادهاي نظامي بتوانند با تمركز بر نوآوري‌هاي فناورانه، بدون تأخيرهاي ناشي از فرايندهاي نظارتي، به ارتقای قابليت‌هاي دفاعي و امنيتي خود ادامه دهند.

اين در حالي است كه از سوي ديگر، بسياري از كارشناسان، معافيت سامانه‌هاي دفاعي را به عنوان يكي از حساس‌ترين حوزه‌هاي كاربرد هوش مصنوعي، بسيار خطرناك و مخرب ارزيابي مي‌كنند؛ زيرا در چنين شرايطي، بسياري از سامانه‌هاي هوش مصنوعي ناقض حقوق بشر در ميدان‌هاي نبرد، بدون هيچ محدوديتي امكان توسعه دارند. بر اساس قانون هوش مصنوعي اروپا، در مقابل، كاربردهاي مدني هوش مصنوعي ملزم به رعايت مجموعه‌اي از مقررات سخت‌گيرانه و چندلايه هستند. قانون‌گذاران اروپايي معتقدند كه اين مقررات به نحوي طراحي شده‌اند كه از بروز تخلفات اخلاقي، نقض حريم خصوصي و تصميم‌گيري‌هاي ناعادلانه جلوگيري كنند. علاوه بر اين، دفتر هوش مصنوعي كميسيون اروپا به عنوان نهاد نظارتي اصلي، وظيفه دارد تا از انطباق اين سيستم‌ها با اصول اساسي نظارت انساني، شفافيت در عملكرد و مسووليت‌پذيري اطمينان حاصل كند. به‌ويژه در بخش‌هايي نظير اعطاي وام، فرآيندهاي استخدامي و تشخيص‌هاي پزشكي كه تأثيرات تصميمات هوش مصنوعي مي‌تواند عميق و سرنوشت‌ساز باشد، اين نظارت‌ها اهميتي دوچندان مي‌يابند.