·谷歌AI Overview“胡扯”引发科技圈热议,有专家分析认为,AI技术并未学会因果关系,AI不知对错。
·当前,谷歌正面临激烈的市场竞争,搜索引擎Bing、OpenAI等竞争对手在AI领域已先行一步。
曾以提供高质量而闻名的谷歌搜索引擎在有了AI加持后却因提供错误、荒谬的答案引发争论。
今年5月15日刚刚上线的谷歌AI Overview功能,旨在通过人工智能技术,在搜索结果顶部提供AI生成的答案,以增强搜索引擎的用户体验。
谷歌表示,它将为美国用户的在线查询提供人工智能生成的答案,这是其搜索引擎25年来最大的更新之一。
但该功能上线后近却出现了一系列错误和不当建议,引发网络热议。
比如,有网友在谷歌搜索中查询“芝士和披萨粘不到一块”的解决办法时,AI给出的建议是在酱料中加入1/8杯的无毒胶水以增加粘性。
另一位用户询问“兔子是否曾在NBA打过球”,AI说“是”,因为搞混了将球员的名字与“兔子”这一词汇。
被网友发现谷歌AI Overviews在“胡扯”。
AI搜索为何会出现这一现象,以及谷歌为何将这一看上去并没有完全准备好的产品着急推出?澎湃科技为此采访了相关人士。
业内专家分析:AI技术无法理解因果逻辑关系针对AI Overviews出现的胡扯,谷歌随后回应表示会继续改进相关算法进行修正,但也在官方声明内容中称,“基于我们的观测情况,网友分享的很多示例并非常见查询,且部分示例存在被篡改或无法重现的情况”,谷歌表示将根据内容政策迅速采取适当措施。
不过,谷歌首席执行官桑达尔・皮查伊日前在接受外媒采访时也承认,这些AI Overviews功能产生的“幻觉”是大语言模型(LLM)的固有缺陷,而大语言模型正是AI Overviews功能的核心技术。
所谓AI“幻觉”,是指AI在处理和生成信息时,会错误地创建不存在的事实或数据,从而误导用户。
皮查伊表示,这个问题目前尚无解决方案。
清华大学交叉信息研究院助理教授、斯坦福大学博士于洋向澎湃科技(www.thepaper.cn)分析认为,谷歌AI Overview出现“胡扯”,实际上恰恰体现了人工智能本身学会了语言结构、语法等,但并未学会因果关系(即逻辑依据)。
于洋称,通过他们小组研究表明,光靠投喂数据,AI很难学会因果关系——因为在高维关系中,能够预测准确的相关关系非常多,而因果关系只是其中之一。
毕竟,没有因果教育,人都会产生“正月剃头死舅舅”这样的错觉,更何况当前的AI技术。
于洋认为,目前AI的范式本身造成了AI不知对错,现有的架构从数据到模型架构再到训练、检验都在鼓励AI找用于预测准确的相关性,而不是理解因果。
人工智能无法理解因果、学会知识、懂得对错。
“现在不管哪个大模型都有这个问题。
”于洋说,出现“胡扯”内容也较为正常。
观安信息联合创始人兼CTO胡绍勇同样指出,当前大模型技术主要依靠海量的数据训练进行。
由于人类向AI的提问较为多样且发散,AI会提供基于统计概率相近的答案,而非准确的答案。
在这种情况下,AI给出的答复虽然看似合理,却可能与事实不符。
因此,做好数据清洗是避免误导信息传播的重要环节。
上海市人工智能标准化技术委员会副秘书长、上海人工智能行业协会标准研究部部长陈曦在接受澎湃科技采访时分析认为,谷歌AI系统使用Reddit数据训练,没有做好数据清洗,这正是导致其提供错误信息的关键原因之一。
陈曦推测,AI Overview很可能采用了检索增强生成(RAG),并将信息