مدلهاي جديد هوش مصنوعي به كاربر دروغ ميگويند
معيار جديد شركت اوپناي آي حاكي از آن است كه مدلهاي هوش مصنوعي اين شركت و همچنين ديگر همتايان آن از پاسخگويي درست به سوالات ناتوان هستند و همه آنها توهم دارند.
معيار جديد شركت اوپناي آي حاكي از آن است كه مدلهاي هوش مصنوعي اين شركت و همچنين ديگر همتايان آن از پاسخگويي درست به سوالات ناتوان هستند و همه آنها توهم دارند. به گزارش مهر به نقل از فيوچريسم، شركت اوپناي آي يك معيار جديد به نام «پرسش و پاسخ ساده» (SimpleQA) ارايه كرده كه هدف آن اندازهگيري دقت خروجي مدلهاي هوش مصنوعي خود و شركتهاي ديگر است. اين شركت هوش مصنوعي با انجام چنين اقدامي نشان داد مدلهاي جديد فناوري مذكور در فراهم كردن پاسخ درست به سوالات عملكرد بدي دارند. به بيان ديگر حتي برترين مدلهاي بزرگ زباني كه به تازگي معرفي شدهاند احتمال زيادي دارد به جاي پاسخ درست، جوابي اشتباه به كاربر بدهند. با توجه به آنكه اين فناوري در بسياري از وجوه مختلف زندگي انسانها نفوذ كرده، چنين امري نگرانكننده است. با اين وجود مدل مذكور بيشتر تمايل داشت عدم قطعيت خود را نشان بدهد و از پاسخ دادن خودداري كند، كه اين امر با توجه به نتايج نااميدكننده احتمالا گزينه بهتري است. در اين ميان اوپناي آي متوجه شد مدلهاي هوش مصنوعي خود اين شركت توانمنديهايشان را فراتر از حد معمول تخمين ميزنند. اين ويژگي احتمالا سبب ميشود تا مدلها نسبت به پاسخهاي اشتباهي كه ميسازند، اطمينان بيشتري داشته باشند. مدلهاي زباني بزرگ از مدتها قبل با اشتباهات يا «توهمات» دست وپنجه نرم ميكنند. اين اصطلاحي است كه شركتهاي هوش مصنوعي براي تمايل محصولاتشان به توليد پاسخهاي بيربط به كار ميبرند. جديدترين يافتههاي اوپناي آي يك نشانه نگرانكننده مهم در خود دارد و حاكي از آن است كه مدلهاي زباني بزرگ نميتوانند حقيقت را بيان كنند.