福建福州SEO推广 谷歌搜索 谷歌遭遇AIGC新难题:使用成本是传统搜索的10倍

谷歌遭遇AIGC新难题:使用成本是传统搜索的10倍

谷歌遭遇AIGC新难题:使用成本是传统搜索的10倍

新浪科技讯 北京时间2月23日上午,据报道,不久前,Alphabet在聊天机器人演示中的失误,恰恰导致其市值蒸发1000亿美元,而如今,生成式人工智能的整合 谷歌智能搜索计划不得不面对新的挑战:成本!

当整个科技行业的高管都在讨论如何运营ChatGPT等人工智能服务时,高昂的成本成为了他们不得不面对的问题。 OpenAI 开发的流行聊天机器人可以直接回答用户的问题,但该公司的首席执行官山姆奥特曼(Sam Altman)在推特上透露,这项服务的成本高得令人无法接受——每次对话的计算成本为 2 美分或更多。

Alphabet 主席 John Hennessy 表示,与大型语言模型等人工智能对话的成本是传统搜索的 10 倍,但一些调整可以帮助快速降低成本。

分析师认为,即使可以通过基于聊天的搜索广告产生收入,该技术也会带来数十亿美元的额外成本,这仍将对 Alphabet 的净利润产生不利影响。 公司2022年净收入接近600亿美元。

摩根士丹利估计去年每次谷歌搜索的平均成本约为 0.2 美分。 未来这个成本会上升,取决于AI贡献的内容比例。 例如,分析师计算出,如果类似 ChatGPT 的 AI 可以处理它收到的一半请求并提供 50 个单词的答案,那么到 2024 年,谷歌的账单可能会增加 60 亿美元。谷歌不太可能使用聊天机器人来处理诸如此类网站的导航搜索 维基百科。

其他分析师也得出了类似的结论。 例如,专注于芯片技术的搜索和咨询公司SemiAnalysis表示,将类似ChatGPT的人工智能技术集成到搜索中,Alphabet可能需要花费30亿美元。 降低这个成本。

AIGC成本高于传统搜索的主要原因是计算实例的消耗。 分析人士表示,人工智能技术依赖于数十亿美元的芯片,这一成本即使在几年的使用中摊销,仍会大大增加每次使用的成本。 电力消耗也推高了成本,同时给公司的碳足迹目标带来压力。

人工智能处理搜索请求的过程称为“推理”,它通过神经网络大致模拟人脑的生物结构,借助之前的训练数据推断出问题的答案。

在传统搜索中,Google 的网络爬虫扫描互联网并编制信息索引。 当用户输入搜索查询时,Google 会提供存储在其索引中的最相关的答案。

尽管面临成本压力,Alphabet旗下的轩尼诗仍不得不接受这一挑战。 本月早些时候,谷歌的长期竞争对手微软在其雷德蒙德总部举办了一场备受瞩目的活动,展示了其必应搜索引擎中嵌入的人工智能聊天技术。 据一项估计,微软高管的目标是谷歌 91% 的搜索市场份额。

一天后,Alphabet也在发布会上讨论了如何改进其搜索引擎,但一段关于人工智能聊天机器人巴德的宣传视频显示,系统给出了错误的答案。 受此影响,谷歌股价暴跌,市值蒸发1000亿美元。

随后的报道称,微软的人工智能威胁用户,甚至向测试人员示爱,让外界更加关注微软。 微软还开始限制用户聊天的次数,担心“导致”意外的答案。

微软首席财务官艾米·胡德(Amy Hood)曾告诉分析师,用户获取和广告收入带来的好处超过了将新必应带给数百万用户的成本。 “即使增加了成本,这对我们来说仍然是增量毛利,”她说。

作为谷歌的另一位竞争对手,搜索引擎You.com的CEO理查德·索切尔(Richard Socher)表示,引入人工智能聊天体验和应用将使成本增加30%至50% . “随着时间的推移,这项技术的成本将会降低,”他说。

接近谷歌的人士警告说,现在判断聊天机器人的具体成本还为时过早,因为效率和使用会因所涉及的技术而有很大差异,而且人工成本会更高。 Smart 也已经为搜索等产品提供支持。

不过,埃森哲首席技术官保罗·多尔蒂(Paul Daugherty)认为,拥有数十亿用户的搜索引擎和社交媒体巨头之所以没有在一夜之间推出人工智能聊天机器人,确实代价高昂。 两个主要原因之一。

“一个是准确性,另一个是必须以正确的方式进行扩展,”他说。

权衡成本

多年来,Alphabet 等公司的研究人员一直致力于研究如何以更低的成本训练和运行大型语言模型。

更大的模型需要更多的芯片来完成推理,这自然会推高成本。 人工智能在达到以假乱真的效果的同时,其规模也在迅速扩大。 例如,OpenAI 的 ChatGPT 新模型使用了 1750 亿个参数,或者算法需要考虑的不同值。 成本也因用户请求的长度而异,以“令牌”或单词来衡量。

一位资深技术高管透露,要让数百万用户使用这样的人工智能技术,仍然需要承担极高的成本。

这位不愿透露姓名的高管表示:“这些模型的成本很高,因此下一阶段的目标是降低模型的训练和推理成本,以便将它们应用到 每个申请。”

知情人士透露,OpenAI的计算机科学家已经找到了通过复杂代码优化成本的方法,从而提高芯片的效率。 OpenAI 的发言人尚未置评。

如果从更长远的角度来看,如何在不牺牲精度的情况下,将人工智能模型的参数数量减少到目前的十分之一甚至百分之一,也是一个重要的问题。 问题。

“如何以最有效的方式减少参数的问题仍有待回答,”Naveen Rao 说。 他曾负责英特尔的人工智能芯片业务,目前正在通过自己的创业公司MosaicML降低人工智能计算的成本。

同时,一些企业也开始尝试收费模式。 例如,OpenAI 为每月支付 20 美元的用户提供了更好的体验。 技术专家还表示,较小的人工智能模型可用于执行更简单的任务,这是谷歌目前正在探索的一种解决方法。

该公司本月表示,他们将使用 LaMDA 的大规模人工智能技术的小型版本为 Bard 聊天机器人提供支持,“显着降低计算需求,使我们能够为更多用户提供服务。 “

当上周在 TechSurge 会议上被问到这个问题时,Hennessy 表示开发一个更有针对性的模型,而不是一个无所不能的服务,将有助于“控制成本”。

本文来自网络,不代表福建福州SEO推广立场,转载请注明出处:https://www.fujianseo.com/ggss/3119.html

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注

返回顶部