هشدار گوگل به کارمندان خود

۱۴۰۲/۰۳/۲۸ - ۰۲:۴۹:۲۸
کد خبر: ۲۰۸۵۵۹

گوگل به کارمندان خود هشدار داده است که از چت‌بات‌های هوش مصنوعی ازجمله بارد برای صحبت درباره اطلاعات محرمانه و حساس استفاده نکنند. غول ماونتین ویو همچنین درباره ریسک‌های استفاده از این ابزارها حرف زده و به‌درستی درباره اشتباهاتی صحبت کرده است که می‌تواند از این مدل‌ها سر بزند.

به‌ گزارش رویترز و تأیید گوگل، این شرکت از کارمندان خود خواسته است تا اطلاعات حساس و محرمانه را به چت‌بات‌های هوش مصنوعی و حتی بارد ندهند. این شرکت می‌گوید مهندسان آنها نباید به‌طور مستقیم کدهایی را که این ابزارها ارایه می‌کنند، در برنامه‌های خود قرار دهند، چون همیشه این ریسک وجود دارد که این کدها اشتباه داشته باشند. این اولین‌باری نیست که شرکت‌های فناوری استفاده از چت‌بات‌های هوش مصنوعی را برای کارمندان خود ممنوع اعلام می‌کنند. پیش‌تر سامسونگ هم از کارمندان خود خواسته بود تا از ChatGPT یا سایر چت‌بات‌ها استفاده نکنند. اما بیان این مساله از زبان یکی از بزرگ‌ترین شرکت‌های فعال در این حوزه یعنی گوگل اهمیت بسیار بیشتری دارد. 

   گوگل هنوز باید به بهینه‌سازی  چت‌بات‌های هوش مصنوعی ادامه دهد

گوگل از زمان عرضه ChatGPT سخت مشغول توسعه چت‌بات‌های هوش مصنوعی بوده است و چند ماه پیش از بارد رونمایی کرد تا پاسخی به رقبا بدهد. بااین‌حال، این ابزارها هنوز باید راه درازی را پشت سر بگذارند تا قابل اطمینان شوند و پاسخ‌های دقیقی ارایه کنند. علاوه‌براین، بحث امنیت اطلاعات و حریم خصوصی نیز یکی از موضوعاتی است که در رابطه با این چت‌بات‌ها نیاز به توجه دارد. پیش‌تر برخی کاربران توانسته بودند اطلاعات محرمانه‌ای را از ChatGPT و بینگ چت استخراج کنند؛ درنتیجه بعید نیست که اطلاعات محرمانه این شرکت‌ها هم در معرض خطر قرار بگیرد. گفتنی است که پیش‌تر اپل هم کارمندان خود را از استفاده از بارد منع کرده بود. بنابراین می‌توان با اطمینان پذیرفت که نگرانی پیرامون استفاده از این چت‌بات‌ها منطقی است و اگر شما هم از کاربران این ابزارهای قدرتمند هستید، بهتر است اطلاعات حساس و شخصی خود را با آنها در میان نگذارید.