هشدار گوگل به کارمندان خود
گوگل به کارمندان خود هشدار داده است که از چتباتهای هوش مصنوعی ازجمله بارد برای صحبت درباره اطلاعات محرمانه و حساس استفاده نکنند. غول ماونتین ویو همچنین درباره ریسکهای استفاده از این ابزارها حرف زده و بهدرستی درباره اشتباهاتی صحبت کرده است که میتواند از این مدلها سر بزند.
به گزارش رویترز و تأیید گوگل، این شرکت از کارمندان خود خواسته است تا اطلاعات حساس و محرمانه را به چتباتهای هوش مصنوعی و حتی بارد ندهند. این شرکت میگوید مهندسان آنها نباید بهطور مستقیم کدهایی را که این ابزارها ارایه میکنند، در برنامههای خود قرار دهند، چون همیشه این ریسک وجود دارد که این کدها اشتباه داشته باشند. این اولینباری نیست که شرکتهای فناوری استفاده از چتباتهای هوش مصنوعی را برای کارمندان خود ممنوع اعلام میکنند. پیشتر سامسونگ هم از کارمندان خود خواسته بود تا از ChatGPT یا سایر چتباتها استفاده نکنند. اما بیان این مساله از زبان یکی از بزرگترین شرکتهای فعال در این حوزه یعنی گوگل اهمیت بسیار بیشتری دارد.
گوگل هنوز باید به بهینهسازی چتباتهای هوش مصنوعی ادامه دهد
گوگل از زمان عرضه ChatGPT سخت مشغول توسعه چتباتهای هوش مصنوعی بوده است و چند ماه پیش از بارد رونمایی کرد تا پاسخی به رقبا بدهد. بااینحال، این ابزارها هنوز باید راه درازی را پشت سر بگذارند تا قابل اطمینان شوند و پاسخهای دقیقی ارایه کنند. علاوهبراین، بحث امنیت اطلاعات و حریم خصوصی نیز یکی از موضوعاتی است که در رابطه با این چتباتها نیاز به توجه دارد. پیشتر برخی کاربران توانسته بودند اطلاعات محرمانهای را از ChatGPT و بینگ چت استخراج کنند؛ درنتیجه بعید نیست که اطلاعات محرمانه این شرکتها هم در معرض خطر قرار بگیرد. گفتنی است که پیشتر اپل هم کارمندان خود را از استفاده از بارد منع کرده بود. بنابراین میتوان با اطمینان پذیرفت که نگرانی پیرامون استفاده از این چتباتها منطقی است و اگر شما هم از کاربران این ابزارهای قدرتمند هستید، بهتر است اطلاعات حساس و شخصی خود را با آنها در میان نگذارید.