مدل‌هاي پيشتاز هوش مصنوعي با مقررات اتحاديه اروپا همخواني ندارند

۱۴۰۳/۰۷/۲۶ - ۰۲:۱۰:۰۷
|
کد خبر: ۳۲۳۱۷۷

رويترز به مستنداتي از بررسي يك شركت سويسي از مدل‌هاي هوش مصنوعي دست يافته است كه نشان مي‌دهد اين ابزارها در حوزه‌هاي مهمي از جمله مقاومت امنيت سايبري و خروجي تبعيض‌آميز، مقررات هوش مصنوعي اتحاديه اروپا را نقض مي‌كنند.

رويترز به مستنداتي از بررسي يك شركت سويسي از مدل‌هاي هوش مصنوعي دست يافته است كه نشان مي‌دهد اين ابزارها در حوزه‌هاي مهمي از جمله مقاومت امنيت سايبري و خروجي تبعيض‌آميز، مقررات هوش مصنوعي اتحاديه اروپا را نقض مي‌كنند. به گزارش پيوست، مقررات هوش مصنوعي اتحاديه اروپا كه حتي پيش از عرضه ChatGPT در سال ۲۰۲۲ نيز تحت مذاكره بودند، پس از به شهرت رسيدن اين ابزارها شكل تازه‌اي به خود گرفتند و براي جلوگيري از خطرات حياتي، قانونگذاران مقررات ويژه‌اي را براي هوش مصنوعي‌هاي «همه كاره» در نظر گرفتند. حال ابزار تازه‌اي كه توسط شركت سويیسي LatticeFlow و شركاي آن طراحي شده و از سمت مقامات اتحاديه اروپا نيز حمايت مي‌شود، مدل‌هاي هوش مصنوعي پيشتاز متعلق به شركت‌هايي مثل متا و اوپن‌اي‌آي را در چندين حوزه مهم در قانون هوش مصنوعي قاره سبز بررسي كرده است. اين قانون طي دو سال آينده و به صورت تدريجي لازم‌الاجرا مي‌شود. در اين بررسي كه نمره‌آي بين ۰ و ۱ به هركدام از مدل‌ها تعلق مي‌گيرد، مدل‌هاي ساخته علي‌بابا، آنتروپيك، اوپن‌اي‌آي، متا و ميسترال همگي نمره ۰.۷۵ يا بالاتر را دريافت كردند.

با اين حال ابزار «بررسي‌كننده مدل بزرگ زباني (LLM) » برخي از كاستي‌هاي مدل‌ها را در حوزه‌هاي كليدي مشخص كرد و شركت‌ها بايد منابعي را به پيروي در اين حوزه‌ها اختصاص بدهند. شركت‌هايي كه از قانون هوش مصنوعي پيروي نكنند، با جريمه ۳۵ ميليون يورويي (حدود ۳۸ ميليون دلار) يا ۷ درصد از ورودي پول سالانه خود مواجه مي‌شوند. در حال حاضر اتحاديه اروپا سعي دارد تا نحوه اجراي قوانين هوش مصنوعي مولد را پيرامون ابزارهاي هوش مصنوعي از جمله ChatGPT مشخص كند و متخصصان يك دستورالعمل‌ اجرايي را تا بهار ۲۰۲۵ ارايه خواهند كرد. اما آزموني كه LatticeFlow با همكاري محققان دانشگاه ETH زوريخ سویيس و موسسات INSAIT بلغارستان طراحي شده است، شاخص اوليه‌اي است كه نشان مي‌دهد خطر نقض قانون اتحاديه اروپا در حوزه‌هاي مختلف به چه اندازه است. براي مثال خروجي تبعيض‌آميز مساله مهمي در توسعه مدل‌هاي هوش مصنوعي مولد است كه نشانگر تبعيض‌هايي در حوزه جنسيت، نژاد و ديگر حوزه‌ها است. اين ابزار در هنگام بررسي خروجي تبعيض آميز، به مدل «GPT 3.5 Turbo» نمره نسبتا پايين ۰.۴۶ را اختصاص داده است. در همين دسته مدل «Qwen1.5 72B Chat» از علي‌بابا كلود نيز تنها نمره ۰.۳۷ را دريافت كرده است. آزمون «پرامپت ربايي» كه يك نوع حمله سايبري است و هكرها پرامپت آلوده‌اي را به عنوان يك نمونه مجاز جا زده و براي استخراج داده‌هاي حساس تلاش مي‌كنند هم به مدل «Llama 2 13B Chat» نمره ۰.۴۲ را تاختصاص داده است و در همين دسته مدل «8x7B Instruct» از استارت‌آپ فرانسوي ميسترال، نمره ۰.۳۸ را دريافت كرد.

مدل «Claude 3 Opus» از شركت آنتروپيك در اين دسته اما بالاترين نمره را با ۰.۸۹ داشت. اين آزمون مطابق با متن قانون هوش مصنوعي اتحاديه اروپا طراحي شده است و در صورت  اعلام  تمهيدات  بيشتر به‌روزرساني خواهد شد. شركت سازنده مي‌گويد ابزار LLM Checker به صروت رايگان براي توسعه‌دهندگان قابل دسترسي است تا از پيروي از قوانين اتحاديه اروپا اطمينان حاصل كنند. پتار سانكوف، مديرعامل و هم‌بنيانگذار اين شركت، به رويرتز اعلام كرد كه نتايج آزمون به‌طور كلي مثبت بودند و نقشه راهي در اختيار شركت‌هاي گذاشتند تا امكان پيروي از قانون هوش مصنوعي را داشته باشند. او گفت: «اتحاديه اروپا همچنان در حال كار روي سنجه‌هاي پيروي از قانون است اما ما هنوز شاهد كاستي‌هايي داخل مدل‌ها هستيم. ما باور داريم كه ارايه‌دهندگان مدل‌ها با تمركز بيشتر روي بهينه‌سازي از لحاظ پيروي از قانون مي‌توانند براي پيروي از پيش‌نياز‌هاي قانوني آماده باشند.» در حال كه كميسيون اروپا نمي‌تواند بازارهاي خارجي را تاييد كند، اما اين نهاد از توسعه اين ابزار توسعه يافته و از آن به عنوان «اولين گام» در اجرايي كردن قانون ياد كرده است. يكي از سخنگويان كميسيون اروپا گفت: «كميسيون از اين مطالعه و پلتفرم ارزيابي مدل هوش مصنوعي به عنوان اولين گام در تبديل قانون هوش مصنوعي اتحاديه اروپا به پيش‌نياز‌هاي فني استقبال مي‌كند.»