我們擅長商業(yè)策略與用戶體驗的完美結合。
歡迎瀏覽我們的案例。
據(jù)路透社報道,盡管谷歌是生成式 AI 最堅定的支持者之一,但該公司正在警告員工注意聊天機器人的使用。
知情人士稱,谷歌母公司 Alphabet 已建議員工不要將其機密材料輸入給 AI 聊天機器人,同時該公司還提醒 IT 工程師避免直接使用聊天機器人生成的計算機代碼。
谷歌對此回應稱,其聊天機器人 Bard 可以提出不受歡迎的代碼建議,但它仍然對 IT 工程師們會有所幫助。谷歌表示其目標是對生成式 AI 的技術局限性保持足夠的透明度。
分析人士指出,這些擔憂表明谷歌希望避免生成式 AI 對公司的商業(yè)化運作造成損害,這種謹慎的態(tài)度也體現(xiàn)出對生成式 AI 的使用限制正越發(fā)成為某種具有共性的企業(yè)安全標準。
IT 之家此前報道,包括三星、亞馬遜、蘋果等大型科技企業(yè)對員工使用生成式 AI 都設置了一定的限制,以確保不會對公司運營造成風險。
支持 OpenAI 的微軟則拒絕評論是否已全面禁止員工將機密信息輸入 ChatGPT 這樣的公共 AI 應用。但微軟消費者業(yè)務首席營銷官 Yusuf Mehdi 曾表示,公司不希望員工使用公共聊天機器人工作是“有道理的”。
根據(jù) Fishbowl 對包括美國頂級公司員工在內(nèi)的近 12000 名受訪者的調(diào)查,截至今年 1 月,約 43% 的專業(yè)人士在工作中使用了 ChatGPT 或其他生成式 AI 工具,而且通常都沒有告訴他們的老板。
(碼上科技)