تنش با امريكا در حوزه فناوري بيشتر ميشود
قانون هوش مصنوعي اتحاديه اروپا وارد مرحله اجرايي شد. اين قانون از سوي بسياري از كارشناسان، به عنوان يك نقطه عطف راهبردي در مسير حكمراني فناوريهاي نوين و هوشمند تلقي ميشود. به گزارش مهر؛ قانون هوش مصنوعي اتحاديه اروپا (EU AI Act)، از تاريخ سوم فوريه ۲۰۲۵ وارد مرحله اجرايي شد.
قانون هوش مصنوعي اتحاديه اروپا وارد مرحله اجرايي شد. اين قانون از سوي بسياري از كارشناسان، به عنوان يك نقطه عطف راهبردي در مسير حكمراني فناوريهاي نوين و هوشمند تلقي ميشود. به گزارش مهر؛ قانون هوش مصنوعي اتحاديه اروپا (EU AI Act)، از تاريخ سوم فوريه ۲۰۲۵ وارد مرحله اجرايي شد. اين قانون از سوي بسياري از كارشناسان به عنوان يك نقطه عطف راهبردي در مسير حكمراني فناوريهاي نوين و هوشمند تلقي ميشود. متخصصان بر اين باورند كه اتحاديه اروپا در قانون جامع هوش مصنوعي خود با تكيه بر اصول بنيادين حكمراني دادهمحور، هدفي دوگانه را دنبال ميكند: نخست، تسريع روند نوآوريهاي فناورانه از طريق ايجاد شفافيت و الزامات عملياتي مشخص؛ دوم، ارتقاي ملاحظات اخلاقي و امنيتي در بستر فناوري. بررسيهاي صورتگرفته نشان ميدهد كه اين چارچوب نظارتي فراگير، زمينهاي براي كنترل و نظارت جامع بر استفاده از هوش مصنوعي در بخشهاي مختلف صنعتي، اجتماعي و دولتي فراهم كرده و به دنبال كاهش مخاطرات بالقوه در كنار حمايت از پيشرفت پايدار است. اين در حالي است كه به نظر ميرسد اجراي الزامات تعيين شده در اين سند حقوقي، تبعات و تأثيرات بنيادين بر آينده هوش مصنوعي خواهد داشت. مهر در اين نوشتار كوتاه به مرور برخي از ديدگاههاي مطرح شده در اين زمينه ميپردازد. اين قانون با اتخاذ رويكردي مبتني بر ارزيابي مخاطرات، كاربردهاي هوش مصنوعي را به سه دسته كليدي تفكيك ميكند: كاربردهاي ممنوعه؛ كاربردهاي پرخطر؛ كاربردهاي كمخطر. دستهبندي مذكور به منظور مديريت ريسكهاي مرتبط با فناوري و حفاظت از منافع عمومي طراحي شده است. بر همين اساس، كاربردهاي ممنوعه شامل سيستمهايي هستند كه به دليل نقض آشكار حقوق اساسي انسانها، مانند نظارت بيرويه يا دستكاري شناختي، بهطور كامل ممنوع اعلام شدهاند. بر همين اساس، تمامي سيستمهاي هوش مصنوعي كه تهديدي آشكار براي ايمني، معيشت و حقوق افراد محسوب ميشوند، ممنوع هستند. قانون هوش مصنوعي (AI Act) هشت رويه را به عنوان اقدامات ممنوعه تعريف كرده است كه عبارتاند از: دستكاري و فريب مبتني بر هوش مصنوعي؛ بهكارگيري از هوش مصنوعي در راستاي سوءاستفاده از آسيبپذيريها؛ سيستمهاي امتيازدهي اجتماعي (Social Scoring)؛ ارزيابي يا پيشبيني ريسك ارتكاب جرم توسط افراد؛ استخراج اطلاعات (Scraping) بدون هدف مشخص از اينترنت يا دادههاي دوربينهاي مدار بسته به منظور ايجاد يا گسترش پايگاههاي داده تشخيص چهره؛ شناسايي احساسات در محيطهاي كاري و موسسات آموزشي؛ طبقهبندي زيستسنجي براي استنباط ويژگيهاي حساس (مانند جنسيت، نژاد يا مذهب)؛ سيستمهاي شناسايي زيستي از راه دور و آني. در مقابل، كاربردهاي پرخطر كه در حوزههاي استراتژيكي چون زيرساختهاي حياتي، نظام سلامت و فرآيندهاي حساس استخدامي قرار ميگيرند، تحت نظارتهاي شديد و الزامات سختگيرانهتري نظير ارزيابي جامع تأثيرات، گزارشدهي شفاف و پايش مستمر فعاليتها قرار دارند. اين الزامات شامل تهيه مستندات دقيق از دادههاي مورد استفاده، كنترل سوگيريهاي احتمالي و تضمين پايداري سيستمهاي هوش مصنوعي ميشوند. بر اساس ادعاي مطرحشده از سوي مسوولان اروپايي و مدافعان اجراي اين قانون، تدابير نظارتي در راستاي كاهش آسيبهاي اجتماعي، حقوقي و اقتصادي ناشي از عملكرد نادرست يا غيراخلاقي فناوريهاي هوشمند وضع شدهاند و بر اهميت مسووليتپذيري سازمانها در مواجهه با چالشهاي پيچيده حاكميتي تأكيد دارند. يكي از موضوعات مهم و شايد برجستهترين نكته در اين قانون، معافيت صريح سيستمهاي هوش مصنوعي مورد استفاده در بخشهاي نظامي و امنيت ملي است. اين استثنا بيانگر رويكردي راهبردي در راستاي حفظ مزيت رقابتي و پيشگامي فناورانه در حوزه دفاعي است. در اين حوزه، فناوريهاي مبتني بر هوش مصنوعي در بخشهايي چون شناسايي تهديدات خودكار، امنيت سايبري پيشرفته، تحليل و پيشبينيهاي تاكتيكي و مديريت عمليات ميداني نقش كليدي دارند. مدافعان اين تصميم، مدعي هستند كه چنين كاربردهايي، به دليل ماهيت حساس و محرمانه خود، به سرعت عمل و انعطافپذيري بالا در تصميمگيريهاي عملياتي نياز دارند؛ بنابراين، اعمال مقررات سختگيرانه در اين زمينه ميتواند توسعه و پيادهسازي بهموقع اين فناوريها را مختل كرده و بر كارآمدي ماموريتهاي امنيتي تأثير منفي بگذارد. معافيت مذكور تضمين ميكند كه نهادهاي نظامي بتوانند با تمركز بر نوآوريهاي فناورانه، بدون تأخيرهاي ناشي از فرايندهاي نظارتي، به ارتقای قابليتهاي دفاعي و امنيتي خود ادامه دهند.
اين در حالي است كه از سوي ديگر، بسياري از كارشناسان، معافيت سامانههاي دفاعي را به عنوان يكي از حساسترين حوزههاي كاربرد هوش مصنوعي، بسيار خطرناك و مخرب ارزيابي ميكنند؛ زيرا در چنين شرايطي، بسياري از سامانههاي هوش مصنوعي ناقض حقوق بشر در ميدانهاي نبرد، بدون هيچ محدوديتي امكان توسعه دارند. بر اساس قانون هوش مصنوعي اروپا، در مقابل، كاربردهاي مدني هوش مصنوعي ملزم به رعايت مجموعهاي از مقررات سختگيرانه و چندلايه هستند. قانونگذاران اروپايي معتقدند كه اين مقررات به نحوي طراحي شدهاند كه از بروز تخلفات اخلاقي، نقض حريم خصوصي و تصميمگيريهاي ناعادلانه جلوگيري كنند. علاوه بر اين، دفتر هوش مصنوعي كميسيون اروپا به عنوان نهاد نظارتي اصلي، وظيفه دارد تا از انطباق اين سيستمها با اصول اساسي نظارت انساني، شفافيت در عملكرد و مسووليتپذيري اطمينان حاصل كند. بهويژه در بخشهايي نظير اعطاي وام، فرآيندهاي استخدامي و تشخيصهاي پزشكي كه تأثيرات تصميمات هوش مصنوعي ميتواند عميق و سرنوشتساز باشد، اين نظارتها اهميتي دوچندان مييابند.