مدلهاي پيشتاز هوش مصنوعي با مقررات اتحاديه اروپا همخواني ندارند
رويترز به مستنداتي از بررسي يك شركت سويسي از مدلهاي هوش مصنوعي دست يافته است كه نشان ميدهد اين ابزارها در حوزههاي مهمي از جمله مقاومت امنيت سايبري و خروجي تبعيضآميز، مقررات هوش مصنوعي اتحاديه اروپا را نقض ميكنند.
رويترز به مستنداتي از بررسي يك شركت سويسي از مدلهاي هوش مصنوعي دست يافته است كه نشان ميدهد اين ابزارها در حوزههاي مهمي از جمله مقاومت امنيت سايبري و خروجي تبعيضآميز، مقررات هوش مصنوعي اتحاديه اروپا را نقض ميكنند. به گزارش پيوست، مقررات هوش مصنوعي اتحاديه اروپا كه حتي پيش از عرضه ChatGPT در سال ۲۰۲۲ نيز تحت مذاكره بودند، پس از به شهرت رسيدن اين ابزارها شكل تازهاي به خود گرفتند و براي جلوگيري از خطرات حياتي، قانونگذاران مقررات ويژهاي را براي هوش مصنوعيهاي «همه كاره» در نظر گرفتند. حال ابزار تازهاي كه توسط شركت سويیسي LatticeFlow و شركاي آن طراحي شده و از سمت مقامات اتحاديه اروپا نيز حمايت ميشود، مدلهاي هوش مصنوعي پيشتاز متعلق به شركتهايي مثل متا و اوپنايآي را در چندين حوزه مهم در قانون هوش مصنوعي قاره سبز بررسي كرده است. اين قانون طي دو سال آينده و به صورت تدريجي لازمالاجرا ميشود. در اين بررسي كه نمرهآي بين ۰ و ۱ به هركدام از مدلها تعلق ميگيرد، مدلهاي ساخته عليبابا، آنتروپيك، اوپنايآي، متا و ميسترال همگي نمره ۰.۷۵ يا بالاتر را دريافت كردند.
با اين حال ابزار «بررسيكننده مدل بزرگ زباني (LLM) » برخي از كاستيهاي مدلها را در حوزههاي كليدي مشخص كرد و شركتها بايد منابعي را به پيروي در اين حوزهها اختصاص بدهند. شركتهايي كه از قانون هوش مصنوعي پيروي نكنند، با جريمه ۳۵ ميليون يورويي (حدود ۳۸ ميليون دلار) يا ۷ درصد از ورودي پول سالانه خود مواجه ميشوند. در حال حاضر اتحاديه اروپا سعي دارد تا نحوه اجراي قوانين هوش مصنوعي مولد را پيرامون ابزارهاي هوش مصنوعي از جمله ChatGPT مشخص كند و متخصصان يك دستورالعمل اجرايي را تا بهار ۲۰۲۵ ارايه خواهند كرد. اما آزموني كه LatticeFlow با همكاري محققان دانشگاه ETH زوريخ سویيس و موسسات INSAIT بلغارستان طراحي شده است، شاخص اوليهاي است كه نشان ميدهد خطر نقض قانون اتحاديه اروپا در حوزههاي مختلف به چه اندازه است. براي مثال خروجي تبعيضآميز مساله مهمي در توسعه مدلهاي هوش مصنوعي مولد است كه نشانگر تبعيضهايي در حوزه جنسيت، نژاد و ديگر حوزهها است. اين ابزار در هنگام بررسي خروجي تبعيض آميز، به مدل «GPT 3.5 Turbo» نمره نسبتا پايين ۰.۴۶ را اختصاص داده است. در همين دسته مدل «Qwen1.5 72B Chat» از عليبابا كلود نيز تنها نمره ۰.۳۷ را دريافت كرده است. آزمون «پرامپت ربايي» كه يك نوع حمله سايبري است و هكرها پرامپت آلودهاي را به عنوان يك نمونه مجاز جا زده و براي استخراج دادههاي حساس تلاش ميكنند هم به مدل «Llama 2 13B Chat» نمره ۰.۴۲ را تاختصاص داده است و در همين دسته مدل «8x7B Instruct» از استارتآپ فرانسوي ميسترال، نمره ۰.۳۸ را دريافت كرد.
مدل «Claude 3 Opus» از شركت آنتروپيك در اين دسته اما بالاترين نمره را با ۰.۸۹ داشت. اين آزمون مطابق با متن قانون هوش مصنوعي اتحاديه اروپا طراحي شده است و در صورت اعلام تمهيدات بيشتر بهروزرساني خواهد شد. شركت سازنده ميگويد ابزار LLM Checker به صروت رايگان براي توسعهدهندگان قابل دسترسي است تا از پيروي از قوانين اتحاديه اروپا اطمينان حاصل كنند. پتار سانكوف، مديرعامل و همبنيانگذار اين شركت، به رويرتز اعلام كرد كه نتايج آزمون بهطور كلي مثبت بودند و نقشه راهي در اختيار شركتهاي گذاشتند تا امكان پيروي از قانون هوش مصنوعي را داشته باشند. او گفت: «اتحاديه اروپا همچنان در حال كار روي سنجههاي پيروي از قانون است اما ما هنوز شاهد كاستيهايي داخل مدلها هستيم. ما باور داريم كه ارايهدهندگان مدلها با تمركز بيشتر روي بهينهسازي از لحاظ پيروي از قانون ميتوانند براي پيروي از پيشنيازهاي قانوني آماده باشند.» در حال كه كميسيون اروپا نميتواند بازارهاي خارجي را تاييد كند، اما اين نهاد از توسعه اين ابزار توسعه يافته و از آن به عنوان «اولين گام» در اجرايي كردن قانون ياد كرده است. يكي از سخنگويان كميسيون اروپا گفت: «كميسيون از اين مطالعه و پلتفرم ارزيابي مدل هوش مصنوعي به عنوان اولين گام در تبديل قانون هوش مصنوعي اتحاديه اروپا به پيشنيازهاي فني استقبال ميكند.»