مدل‌هاي جديد هوش مصنوعي به كاربر دروغ مي‌گويند

۱۴۰۳/۰۸/۱۴ - ۰۱:۰۳:۲۹
|
کد خبر: ۳۲۴۷۷۵

معيار جديد شركت اوپن‌اي آي حاكي از آن است كه مدل‌هاي هوش مصنوعي اين شركت و همچنين ديگر همتايان آن از پاسخگويي درست به سوالات ناتوان هستند و همه آنها توهم دارند.

معيار جديد شركت اوپن‌اي آي حاكي از آن است كه مدل‌هاي هوش مصنوعي اين شركت و همچنين ديگر همتايان آن از پاسخگويي درست به سوالات ناتوان هستند و همه آنها توهم دارند. به گزارش مهر به نقل از فيوچريسم، شركت اوپن‌اي آي يك معيار جديد به نام «پرسش و پاسخ ساده» (SimpleQA) ارايه كرده كه هدف آن اندازه‌گيري دقت خروجي مدل‌هاي هوش مصنوعي خود و شركت‌هاي ديگر است. اين شركت هوش مصنوعي با انجام چنين اقدامي نشان داد مدل‌هاي جديد فناوري مذكور در فراهم كردن پاسخ درست به سوالات عملكرد بدي دارند. به بيان ديگر حتي برترين مدل‌هاي بزرگ زباني كه به تازگي معرفي شده‌اند احتمال زيادي دارد به جاي پاسخ درست، جوابي اشتباه به كاربر بدهند. با توجه به آنكه اين فناوري در بسياري از وجوه مختلف زندگي انسان‌ها نفوذ كرده، چنين امري نگران‌كننده است. با اين وجود مدل مذكور بيشتر تمايل داشت عدم قطعيت خود را نشان بدهد و از پاسخ دادن خودداري كند، كه اين امر با توجه به نتايج نااميد‌كننده احتمالا گزينه بهتري است. در اين ميان اوپن‌اي آي متوجه شد مدل‌هاي هوش مصنوعي خود اين شركت توانمندي‌هايشان را فراتر از حد معمول تخمين مي‌زنند. اين ويژگي احتمالا سبب مي‌شود تا مدل‌ها نسبت به پاسخ‌هاي اشتباهي كه مي‌سازند، اطمينان بيشتري داشته باشند. مدل‌هاي زباني بزرگ از مدت‌ها قبل با اشتباهات يا «توهمات» دست وپنجه نرم مي‌كنند. اين اصطلاحي است كه شركت‌هاي هوش مصنوعي براي تمايل محصولاتشان به توليد پاسخ‌هاي بي‌ربط به كار مي‌برند. جديدترين يافته‌هاي اوپن‌اي آي يك نشانه نگران‌كننده مهم در خود دارد و حاكي از آن است كه مدل‌هاي زباني بزرگ نمي‌توانند حقيقت را بيان كنند.