據報道,知情人士表示,谷歌母公司Alphabet在全球范圍內推銷聊天機器人軟件的同時,正警告內部員工在使用Bard等聊天機器人時應該保持謹慎。
消息稱,基于長期以來的信息保密政策,Alphabet建議員工不要將機密信息輸入聊天機器人。
包括Bard和ChatGPT在內的聊天機器人可以用與人類類似的風格與用戶對話。它們基于生成式人工智能技術,能根據用戶輸入的提示做出回復。然而在使用聊天機器人的過程中,人工審核員可能會閱讀聊天記錄。研究人員也發現,人工智能模型可以復制在訓練過程中接收的數據,從而產生數據泄露風險。
一些知情人士還說,Alphabet已經提醒工程師,避免直接使用聊天機器人去生成軟件代碼。
對于這一消息,Alphabet回應稱,Bard可能會提出不合適的代碼建議,但仍可以給程序員帶來幫助。此外,該公司的目標是對技術局限性保持透明的態度。
這一消息表明,盡管谷歌推出了自己的軟件與ChatGPT競爭,但谷歌也極力避免這樣的軟件對公司業務造成損害。谷歌正在與ChatGPT的開發者OpenAI和微軟(348.1, 10.76, 3.19%)展開競爭,新的人工智能軟件將對廣告和云計算行業造成深遠影響。
這也表明,在面對生成式人工智能技術時,企業正在制定新的信息安全標準,包括要求員工不使用公開的聊天機器人軟件。
三星、亞馬遜(127.11, 0.69, 0.55%)和德意志銀行等公司都表示,全球越來越多的企業已經針對人工智能聊天機器人設置了“護欄”。有消息稱,蘋果(186.01, 2.06, 1.12%)也采取了類似做法。
社交網站FishBowl對近1.2萬名受訪者進行的一項調查顯示,截至今年1月,大約43%的專業人士正在使用ChatGPT或其他人工智能工具,并且通常不會告知他們的老板。受訪者中包括部分美國大公司的員工。
今年2月,谷歌曾對測試Bard聊天機器人的員工表示,在Bard推出之前不要向其輸入內部信息。目前,谷歌正在180多個國家推出40多個語言版本的Bard,輔助用戶的創意工作。但同時,谷歌對內部員工的警示已經拓展到了Bard提供的代碼建議。
谷歌表示,該公司已經與愛爾蘭數據保護委員會進行了具體的對話,正在回答監管機構的問題。本周二有報道稱,谷歌將推遲本周在歐盟推出Bard的計劃,等待有關聊天機器人隱私問題的更多信息。
生成式人工智能技術可以起草電子郵件、文檔,甚至開發軟件本身,從而極大地加快任務的執行速度。然而,人工智能生成的內容中可能包含錯誤信息、敏感數據,以及《哈利波特》等小說中受版權保護的段落。
谷歌在6月1日更新的隱私聲明中也寫道:“不要在與Bard的對話中包含機密或敏感信息。”
一些公司已經開發軟件來解決這方面擔憂。例如,信息安全公司Cloudflare正在推廣一項新服務,幫助企業標記和限制數據的對外流動。
谷歌和微軟同時也在向商業客戶提供非公開的人工智能對話工具。這些工具的價格更高,但不會將數據吸收到公開的人工智能模型中。Bard和ChatGPT的默認設置會保存用戶的對話歷史,用戶可以選擇刪除。
微軟消費者業務首席營銷官優素福·邁赫迪(Yusuf Mehdi)表示,公司不希望員工在工作時使用公開的聊天機器人,這是“有道理的”。他解釋了微軟免費的必應聊天機器人與企業版軟件的不同,并表示:“公司采取適當的保守立場,(企業軟件)的政策要嚴格得多。”
微軟拒絕回應,是否會全面禁止員工將機密信息輸入公開的人工智能軟件,包括微軟自己的軟件。不過微軟的另一名高管表示,他個人會限制對公開聊天機器人的使用。
Cloudflare首席執行官馬修·普林斯(Matthew Prince)說,在聊天機器人上輸入機密信息就像“讓一群博士生獲得你的所有私人記錄”。