谷歌也担心泄密风险 警告员工谨慎使用AI办公_今日热闻

凤凰网 2023-06-16 08:52:24

财联社6月16日讯(编辑 牛占林)行业领导者谷歌在全球推广人工智能(AI)聊天机器人的同时,该公司也在警告员工注意聊天机器人的使用,包括ChatGPT与谷歌自家产品Bard。

知情人士透露,谷歌已建议员工不要将其机密材料输入给人工智能聊天机器人,同时该公司还提醒IT工程师避免直接使用聊天机器人生成的代码。

人们在使用这些聊天机器人的时候,会与其进行对话。一方面,人类评审员可能会阅读这些聊天记录;另一方面,研究人员发现,人工智能可以吸收并复制相关对话数据给其他人,从而产生信息泄漏风险。


(资料图)

而谷歌对此回应称,其聊天机器人Bard可以生成一些不受欢迎的代码建议,但它仍然对IT工程师们会有所帮助。谷歌还表示,其目标是对人工智能技术保持足够的透明度。

这些担忧表明,谷歌希望避免人工智能对公司的商业化运作造成损害,这种谨慎的态度也体现出企业对人工智能的使用限制,正越发成为某种具有共性的企业安全标准。

在此之前,包括三星、亚马逊、德意志银行等大型企业都对员工使用人工智能设置了一定的“护栏”,以确保不会对公司运营造成风险。

根据社交网站Fishbowl对12000名受访者的调查,截至今年1月,约43%的专业人士在工作中使用了ChatGPT或其他人工智能工具,而且通常都没有告诉他们的老板。

谷歌告诉媒体,它已经与爱尔兰数据保护委员会进行了详细的对话,并正在解决监管机构的问题。谷歌在6月1日更新的隐私声明也指出:“不要在与Bard的对话中包含机密或敏感信息。”

一些公司已经开发了软件来解决这些问题。例如,保护网站免受网络攻击并提供云服务的Cloudflare正在推广一种功能,可以让企业对某些数据进行标记,并限制其向外部流动。

谷歌和微软也在向企业客户提供对话工具,这些工具的价格更高,但不会将数据吸收到公共人工智能模型中。Bard和ChatGPT的默认设置是保存用户的历史对话记录,用户也可以选择删除。

微软消费者业务首席营销官Yusuf Mehdi曾表示,公司不希望员工使用公共聊天机器人工作是“有道理的”。

Cloudflare首席执行官Matthew Prince指出,在聊天机器人中输入机密信息,就像“让一群博士生随意查看你所有的私人记录”。

x

热门推荐

谷歌也担心泄密风险 警告员工谨慎使用AI办公_今日热闻

2023-06

今日热搜:东风恶欢情薄啥意思-东风恶欢情薄一怀愁绪几年离索错错错

2023-06

由于投资者等待澳大利亚央行的利率决定亚洲股市大多上涨

2023-06

“品味山东•乐购齐鲁”618网购节:山东管理学院直播技能进校园“直播”比赛进行中|天天速读

2023-06

东航5月旅客周转量同比上升551.08%|世界今亮点

2023-06

驻斐济使馆提醒中国公民注意遵守斐济海关规定

2023-06

上海出台制造业高质量发展三年行动计划,重点任务明确

2023-06

漆黑的深夜,倾盆大雨中,年近9旬的老人山中失联18个小时!|全球短讯

2023-06

乌审旗:用科技服务治沙,将论文写在沙海 焦点滚动

2023-06

罗马诺:曼城希望在季前赛之前为坎塞洛找到下家,巴萨枪手有意 环球时快讯

2023-06

推荐阅读

深圳发布养老服务合同示范文本规范养老机构服务行为

2022-03

山东深耕文化资源 推动旅游业高质量发展

2021-12

安徽潜山两车相撞 已致8人死亡3人受伤

2021-12

56位残疾人士登上黄山 互利互勉共建生活希望

2021-12

山西忻州古城:一城风华延续千年历史文脉

2021-12

上海洋山海关首次在出口货运渠道查获夹带卷烟

2021-12

西藏林芝:多彩民俗活动迎接工布新年

2021-12

呼伦贝尔新巴尔虎右旗公布1例无症状感染者行动轨迹

2021-12

新增“53+1” 内蒙古累计本土确诊病例增至185例

2021-12

面对儿童不得不防的“杀手”,这把椅子很重要!

2021-12