北京时间2月13日消息,随着ChatGPT的爆红,微软、谷歌、百度相继宣布对他们的搜索引擎进行重大改革,试图将大型人工智能模型整合到搜索中,以便给用户提供更丰富、更准确的体验。但是兴奋之余,新工具背后可能隐藏着一个“肮脏的秘密”。
外媒指出,构建高性能人工智能搜索引擎的竞赛很可能需要计算能力的大幅提升,它所产生的后果将是科技公司所需能源和碳排放量的大幅增加。
英国萨里大学网络安全教授艾伦·伍德沃德(Alan Woodward)表示:“已经有大量资源被用于索引和搜索互联网内容,但人工智能的整合需要一种不同的火力。
它需要处理能力、存储和高效搜索。每当我们看到在线处理的步骤变化时,我们就会看到大型处理中心所需的电力和冷却资源的显著增加。我认为人工智能的整合可能是会走这一步。”
碳排放大增
训练大型语言模型(LLMs)意味着在大量数据中解析和计算链接,这就是为什么它们往往是由拥有大量资源的公司开发的原因,比如为微软必应搜索提供动力的ChatGPT,为谷歌聊天机器人“巴德”(Bard)提供支持的那些语言模型。
“训练这些模型需要大量的计算能力,”西班牙科鲁尼亚大学(University of Coruña)计算机科学家卡洛斯·戈麦兹·罗德里古兹(Carlos Gómez-Rodríguez)表示,“现在,只有大型科技公司才能训练他们。”
尽管OpenAI和谷歌都没有透露其产品的计算成本是多少,但研究人员发布的第三方分析预计,ChatGPT部分依赖的GPT-3模型的训练会消耗1287兆瓦时电力,产生550多吨的二氧化碳当量,相当于一个人在纽约和旧金山之间往返550次。
“这个数字看起来没有那么糟糕,但你必须考虑到这样一个事实:你不仅要训练它,还要执行它,为数百万用户服务。”罗德里古兹表示。
而且,把ChatGPT作为一个独立产品使用与把它整合到必应中还有很大不同。投行瑞银预计,ChatGPT日均独立访问用户为1300万。相比之下,必应每天要处理5亿次搜索。
加拿大数据中心公司QScale联合创始人马丁·布查德(Martin Bouchard)认为,根据他对微软和谷歌搜索计划的了解,在搜索过程中添加生成式人工智能,需要“每次搜索至少增加4到5倍的计算量”。
为了满足搜索引擎用户的需求,企业必须做出改变。“如果他们要经常重新训练模型,并添加更多参数之类的东西,这是一个完全不同的规模,”布查德表示,“这将需要在硬件上进行大量投资。我们现有的数据中心和基础设施将无法应对生成式人工智能的消耗。它们对性能的需求太高了。”
如何减少碳排放?
根据国际能源署发布的数据,数据中心的温室气体排放量已经占到全球温室气体排放量的1%左右。随着云计算需求的增长,这一数字预计还会上升,但运营搜索引擎的公司已承诺减少它们对全球变暖的净贡献。
微软已经承诺到2050年实现碳负排放,该公司计划今年购买150万吨碳信用额。碳信用又称碳权,是指排放1吨二氧化碳当量的温室气体的权利。谷歌承诺到2030年在其整个业务和价值链实现净零排放。
对于这些巨头来说,减少将人工智能整合到搜索中的环境足迹和能源成本的一个方式就是将数据中心转移到更清洁的能源上,并重新设计神经网络让让变得更高效,减少所谓的“推断时间”,也就是算法处理新数据所需的计算能力。
“我们必须研究如何减少这种大型模型所需要的推断时间,”谢菲尔德大学自然语言处理讲师纳菲斯·萨达特·莫萨维(Nafise Sadat Moosavi)表示,她致力于自然语言处理的可持续性研究,“现在是关注效率方面的好时机。”
谷歌发言人简·帕克(Jane Park)表示,谷歌最初发布的“巴德”版本是一个由轻量级大型语言模型支持的版本。“我们还发表了一项研究,详细介绍了最先进语言模型的能源成本,包括早期和更大版本的LaMDA,”
帕克称,“我们的研究结果表明,将高效的模型、处理器和数据中心与清洁能源相结合,可以将机器学习系统的碳足迹减少1000倍。”
责任编辑:万南