【友财网讯】-随着Alphabet公司在聊天机器人上的失误导致其市值蒸发1000亿美元,该公司在为其流行的谷歌(Google)搜索添加生成式人工智能的努力中出现了另一个挑战:成本。
整个科技行业的高管们都在讨论如何像ChatGPT一样运营人工智能,同时考虑到高昂的费用。OpenAI公司的首席执行官萨姆·奥特曼(Sam Altman)在推特上说,这款广受欢迎的聊天机器人可以起草散文并回答搜索问题,每次对话的计算成本高达几美分或更多,“让人难以忍受”。
在一次采访中,Alphabet董事长约翰·汉尼斯(John Hennessy)告诉路透社,与被称为大型语言模型的人工智能进行交流的成本可能是标准关键词搜索的10倍,尽管微调将有助于快速降低成本。
分析师表示,即使有来自潜在聊天搜索广告的收入,这项技术也可能会给总部位于加州山景城的Alphabet带来数十亿美元的额外成本。2022年其净收入近600亿美元。
摩根士丹利(Morgan Stanley)估计,谷歌去年的3.3万亿次搜索查询,每次大约花费五分之一美分,这个数字将根据人工智能必须生成的文本量而增加。例如,分析师预测,如果类似ChatGPT的人工智能能够用50个单词的答案处理一半的查询,到2024年,谷歌可能面临60亿美元的费用上涨。谷歌不太可能需要聊天机器人来处理像维基百科这样的网站的导航搜索。
其他人以不同的方式达成了类似的法案。例如,专注于芯片技术的研究和咨询公司SemiAnalysis表示,将ChatGPT风格的人工智能添加到搜索中可能需要花费Alphabet 30亿美元,这一金额受到谷歌内部芯片张量处理单元(Tensor Processing Units,简称TPUs)以及其他优化的限制。
让这种人工智能形式比传统搜索更昂贵的是它所涉及的计算能力。分析师表示,这种人工智能依赖于数十亿美元的芯片,这一成本必须分摊到芯片数年的使用寿命中。同样,电力也给有碳足迹目标的公司增加了成本和压力。
处理人工智能搜索查询的过程被称为“推理”,在这个过程中,一个松散地模仿人脑生物学的“神经网络”从先前的训练中推断出问题的答案。
相比之下,在传统搜索中,谷歌的网络爬虫扫描互联网来编制信息索引。当用户输入一个查询时,谷歌会提供存储在索引中的最相关的答案。
Alphabet的汉尼斯告诉路透社,“你必须降低推理成本。”称这是“最坏的情况下几年的问题。”
尽管费用高昂,Alphabet仍面临着接受挑战的压力。本月早些时候,其竞争对手微软公司(Microsoft)在其华盛顿总部雷德蒙德举行了一场高调的活动,展示将人工智能聊天技术嵌入其必应(Bing)搜索引擎的计划,高管们将目标对准了Similarweb估计的谷歌91%的搜索市场份额。
一天后,Alphabet谈到了改善其搜索引擎的计划,但其人工智能聊天机器人Bard的宣传视频显示,该系统回答了一个不准确的问题,引发了股票下跌,市值蒸发了1000亿美元。
后来,据报道,微软的人工智能对用户进行威胁或示爱,促使该公司限制长时间聊天,称其“引发”了意想不到的回答,这引起了微软自己的审查。
微软首席财务官艾米·胡德(Amy Hood)告诉分析师,随着新必应向数百万消费者推出,用户和广告收入带来的好处超过了成本。“对我们来说,这是毛利率的增量,即使以我们正在讨论的服务成本计算。”她说。
谷歌的另一个竞争对手,搜索引擎公司You.com的首席执行官理查德·索切尔(Richard Socher)表示,添加人工智能聊天体验以及图表、视频和其他生成技术应用程序将增加30%到50%的费用。“随着时间的推移,技术会变得越来越便宜。”他说。
一位接近谷歌的消息人士警告说,现在确定聊天机器人的确切价格还为时过早,因为效率和使用情况因所涉及的技术而有很大差异,人工智能已经为搜索等产品提供了动力。
埃森哲咨询公司(Accenture)首席技术官保罗·多尔蒂(Paul Daugherty)表示,尽管如此,买单是拥有数十亿用户的搜索和社交媒体巨头没有在一夜之间推出人工智能聊天机器人的两个主要原因之一。
“一个是准确性,第二个是你必须以正确的方式衡量它。”他说。
*让数学发挥作用*
多年来,Alphabet和其他地方的研究人员一直在研究如何更廉价地训练和运行大型语言模型。
更大的模型需要更多的芯片进行推理,因此成本更高。人工智能因其类似人类的权威而令消费者眼花缭乱,其规模已经膨胀到1750亿个所谓的参数,即算法考虑的不同值,用于更新到ChatGPT的OpenAI模型。成本也随着用户查询的长度而变化,以“符号”或单词量来衡量。
一位高级技术高管告诉路透社,这种人工智能仍然成本高昂,难以让数百万消费者使用。
“这些模型非常昂贵,因此下一阶段的发明将是降低训练这些模型和推理的成本,以便我们可以在每个应用程序中使用它。”这位不愿透露姓名的高管说。
一位知情人士说,目前,OpenAI内部的计算机科学家已经找到了如何通过复杂的代码来优化推理成本,从而提高芯片的运行效率。OpenAI发言人没有立即置评。
一个更长期的问题是如何将人工智能模型中的参数数量缩小10倍甚至100倍,而又不损失准确性。
“如何最有效地筛选(参数),这仍然是一个悬而未决的问题。”纳文·拉奥(Naveen Rao)说,他以前负责英特尔公司的人工智能芯片工作,现在通过他的初创公司MosaicML致力于降低人工智能计算成本。
与此同时,一些人已经考虑对访问收费,比如OpenAI每月20美元的订阅,以获得更好的ChatGPT服务。技术专家还表示,一种变通方法是将更小的人工智能模型应用于更简单的任务,这是Alphabet正在探索的。
该公司本月表示,其庞大的LaMDA AI技术的“较小模型”版本将为其聊天机器人巴德(Bard)提供动力,需要“明显更少的计算能力,使我们能够扩展到更多用户。”
当被问及ChatGPT和Bard等聊天机器人时,汉尼斯上周在一个名为TechSurge的会议上表示,更专注的模型,而不是一个系统做所有事情,将有助于“降低成本”。