درباره قوانين هوش مصنوعي اروپا چه ميدانيم؟
سياستگذاران و قانونگذاران اتحاديه اروپا جمعه گذشته، بر سر اولين مجموعه قوانين جامع جهان براي ساماندهي استفاده از هوش مصنوعي در ابزارهايي مانند چتجيپيتي و نظارت بيومتريك، به توافق رسيدند.
سياستگذاران و قانونگذاران اتحاديه اروپا جمعه گذشته، بر سر اولين مجموعه قوانين جامع جهان براي ساماندهي استفاده از هوش مصنوعي در ابزارهايي مانند چتجيپيتي و نظارت بيومتريك، به توافق رسيدند. به گزارش ايسنا، مقامات اروپايي در هفتههاي آينده، جزيياتي را بررسي خواهند كرد كه ممكن است در قانون نهايي تغييراتي دهند. انتظار ميرود اين قانون در اوايل سال ميلادي آينده، اجرايي شده و در سال ۲۰۲۶ بهكار برده شود. تا آن زمان، شركتها تشويق ميشوند تا براي اجراي تعهدات كليدي مقررات، در يك پيمان هوش مصنوعي داوطلبانه ثبت نام كنند. بر اساس گزارش رويترز، موضوعات اصلي توافق شده عبارتند از: سيستمهاي هوش مصنوعي به اصطلاح پرريسك يعني سيستمهايي كه پتانسيل قابل توجهي براي آسيب رساندن به سلامت، ايمني، حقوق اساسي، محيط زيست، دموكراسي، انتخابات و حاكميت قانون دارند، بايد از مجموعهاي از الزامات پيروي كنند به عنوان مثال، تاثير آنها بر حقوق اساسي و تعهدات براي دسترسي به بازار اتحاديه اروپا، ارزيابي شود. سيستمهاي هوش مصنوعي كه ريسكهاي آنها محدود در نظر گرفته ميشوند، مشمول تعهدات شفافيت بسيار سبكي خواهند بود، مانند برچسبهاي افشايي كه اعلام ميكنند محتوا توسط هوش مصنوعي توليد شده است تا به كاربران اجازه دهند درباره نحوه استفاده از آن، تصميم بگيرند.
استفاده از هوش مصنوعي در اجراي قانون
استفاده از سيستمهاي شناسايي بيومتريك از راه دور لحظهاي در فضاهاي عمومي توسط مجريان قانون، تنها براي كمك به شناسايي قربانيان آدمربايي، قاچاق انسان، بهرهكشي و جلوگيري از يك تهديد تروريستي خاص و فعلي، مجاز خواهد بود. همچنين استفاده از اين سيستمها، در تلاش براي رديابي مظنونان به جرايم تروريسم، قاچاق، بهرهكشي جنسي، قتل، آدم ربايي، تجاوز، سرقت مسلحانه، مشاركت در يك سازمان جنايي و جرايم محيط زيستي، مجاز خواهند بود.
سيستمهاي هوش مصنوعي همه منظوره
و مدلهاي بنيادي
سيستمهاي هوش مصنوعي همه منظوره و مدلهاي بنيادي مشمول الزامات شفافيت مانند تهيه مستندات فني، رعايت قانون كپي رايت اتحاديه اروپا و عرضه خلاصههاي دقيق درباره محتواي مورد استفاده براي آموزش الگوريتم قرار ميگيرند. مدلهاي بنيادي طبقهبنديشده به عنوان داراي ريسك سيستمي و سيستمهاي هوش مصنوعي همه منظوره با تاثير بالا، بايد ارزيابيهاي مدل و خنثيسازي ريسكها، انجام آزمايشهاي ارزيابي رفتار خصمانه، گزارش به كميسيون اروپا درباره حوادث جدي، اطمينان از امنيت سايبري و گزارش درباره كارايي انرژي خود را انجام دهند. تا زماني كه استانداردهاي هماهنگ اتحاديه اروپا منتشر نشود، سيستمهاي هوش مصنوعي همه منظوره با ريسك سيستماتيك، ممكن است براي مطابقت با مقررات، به شيوه نامههاي عملي، متكي باشد.
هوش مصنوعي ممنوع
مقررات اتحاديه اروپا، موارد زير را ممنوع ميكند: سيستمهاي طبقهبندي بيومتريك كه از ويژگيهاي حساسي مانند عقايد سياسي، مذهبي، فلسفي، گرايش جنسي و نژاد استفاده ميكنند. استخراج بدون هدف تصاوير صورت از اينترنت يا فيلمهاي دوربين مدار بسته براي ايجاد پايگاههاي اطلاعاتي تشخيص چهره. تشخيص احساسات در محيط كار و موسسات آموزشي. امتيازدهي اجتماعي بر اساس رفتار اجتماعي يا ويژگيهاي فردي. سيستمهاي هوش مصنوعي كه رفتار انسان را براي دور زدن اراده آزادش، دستكاري ميكنند. هوش مصنوعي مورد استفاده براي بهرهبرداري از آسيبپذيري افراد به دليل سن، ناتواني، موقعيت اجتماعي يا اقتصادي.
مجازات براي نقض مقررات
بر اساس تخلف و بزرگي شركت درگير، جريمهها از ۷.۵ ميليون يورو (۸ ميليون دلار) يا ۱.۵ درصد گردش مالي سالانه جهاني شروع ميشود و تا ۳۵ ميليون يورو يا هفت درصد گردش مالي جهاني، افزايش پيدا ميكند.