2024年回顾:AI脉动
邹大斌
责任编辑:邹大斌
电脑商情在线
时间:2024-12-30 11:22
AI 大模型 云计算
2024年整体经济并不是太好。根据国家统计局12月27日发布的数据,1—11月份,全国规模以上工业企业实现利润总额66674.8亿元,同比下降4.7%。计算机、通信和其他电子设备制造业增长2.9%,是为数不多保持整增长的行业之一。同比增长的行业还有:有色金属冶炼和压延加工业增长20.2%,电力、热力生产和供应业增长13.5%,纺织业增长4.6%,农副食品加工业增长0.5%,其他皆为负增长。由此可见IT行业的增长难能可贵,而这份增长可能在很大程度上要归功于AI。
实际上,过去的2024年AI技术在大语言模型和AI落地上取得了显著进展,从CPU和GPU的更新迭代,到云计算的变革,再到数据中心的转型,AI成为了推动科技进步、推动千行百业转型升级的核心力量。
大模型的崛起与落地
2024年,OpenAI、Meta、Anthropic和Google以及阿里云、腾讯云、百度云等科技巨头纷纷推出了新一代的大模型,在实际应用中展现了强大的能力。而且不只是在文本上还在视频以及多模上都取得了不小的进步。
在诸多大语音模型中,OpenAI仍然保持着行业领先。从年初的文生视频Sora,到其年中推出的GPT-4o系列模型,凭借其端到端的多模态处理能力、毫秒级的响应速度以及先进的视觉与音频理解能力,迅速成为市场焦点。
而LIama的崛起则代表了开源大模型继续扮演着重要角色。Meta于今年4月推出了Llama 3,为开源AI大模型的性能树立起新的标准;此后Meta又于7月迅速发布了拥有4050亿参数的Llama 3.1。12月Meta发布LIama 3.3在参数规模上员小于Llama 3.1(700亿参数),但其性能相比Llama 3.1毫不逊色。
相比OpenAI和Meta,老牌的Google也在奋起直追,其最新版的Gemini 2.0多少挽回了一些人气。另外,中国阿里云的通义千问、百度云的文心一言、字节的豆包大模型也都持续更新,表现出非常不错的能力。
大语言模型要落地,主要有两种方式,一种是RAG,另一种是AI Agent。目前来看,人们对AI Agent有着更多期待,不只是微软、AWS、Google和Salesforce等云厂商纷纷推出了自己的AI Agent产品,众多一些行业软件厂商也在向这个方向努力,如SAP的 Joule,这些Agent能够自主感知环境、规划决策并执行行动,展现出极高的互动性和自主性,表现出非常好的应用前景。
值得一提的是,AI Agent的广泛应用,不仅提升了用户体验,还为SaaS行业带来了新的冲击。微软CEO曾表示,AI Agent的出现将重塑SaaS行业的格局,推动其向更加智能化和个性化的方向发展。
大胆预测一下,AI Agent将会是未来一两年市场竞争的焦点。
CPU与GPU的加速迭代
大模型的兴起带动了对算力的需求。有人戏称,在AI时代,最硬的“资本”不再是资金,而是算力。有数据显示, 2023年全球AI算力需求同比增长超过300%,预计2024年将突破500%。
市场的需求加速了芯片产业的快速迭代。在CPU领域,这一年英特尔分别推出了至强6的能效核系列和性能核系列;AMD也推出了第五代EPYC Turin。一直以来,在芯片市场AMD都远远落后于英特尔,现在这个局面正在改变。由于AMD EPYC在技术上不断进步,AMD在数据中心市场进步明显。根据Mercury Research 的最新报告,今年第三季度,AMD 在全球服务器CPU市场按出货量计占比达到24.2%。如果按营收计,已经达到33%。按照这种发展势头,AMD很快实现在数据中心的翻盘并非不可能。
在GPU领域,英伟达继续领跑,其市场份额几乎超过90%。2024年,英伟达推出了最新一代的GPU Blackwell,和其上一代产品H100相比,性能提升达到4倍以上。而AMD也不甘示弱,其Instinct MI300系列在市场上取得了不错的市场反响,AMD对其销售预期是年营收实现45亿美元。2024年,AMD今年还发布了最新一代GPU Instinct MI350X,继续追赶英伟达。相比较而言,英特尔在GPU市场显得落了很多,其旗舰GPU Gaudi 3今年也上市,但其在市场几乎没有什么水花。
生成式AI带来的算力需求以及GPU和CPU的快速迭代,帮助服务器行业实现了高速增长。根据IDC发布的《中国智算服务市场(2024上半年)跟踪》报告显示, 2024上半年中国智算服务整体市场同比增长79.6%,市场规模达到146.1亿元人民币。其中,智算集成服务市场同比增长168.4%,市场规模达57.0亿元人民币;GenAI IaaS市场同比增长203.6%,市场规模达52.0亿元人民币;Other AI IaaS市场同比缩减13.7%,市场规模达37.1亿元人民币。
毫无疑问,服务器市场的增长最大动力来自于AI服务器,或者说来自英伟达。据Omdia预计,2024年服务器支出中,约有43%投向了英伟达。其中,主要来自超大规模云服务商和互联网厂商,占据了全球计算能力投资的60%。而全球科技公司在服务器上的支出,则将达到2290亿美元这一惊人数字。
不过,在中国情形稍有不同,服务器市场的增长份额有一部分要给到国产CPU、GPU厂商。在信创政策的扶持下,国产CPU和GPU在数据中心的市场份额不断增长,尤其是在政府、军工等关键领域。
智算中心:数据中心的转型与升级
AI的兴起对传统数据中心带来了巨大冲击。传统数据中心要么是面向通用计算设计的,要么是面向高性能计算的(也称超算中心),生成式AI的兴起带来了GPU服务器的大量应用,也带来高性能计算和通用计算的融合,也称超智融合,催生了异构计算的兴起。
为了应对异构计算的兴起,戴尔、联想等传统数据中心厂商纷纷推出了一体化的产品,如戴尔的AI工厂、训推一体机以及联想的万全异构智算等。这些产品不仅提高了数据中心的计算效率,助力各种云平台的一云多芯的落地,还降低了能耗和运维成本。
另一方面,随着AI应用的快速发展,GPU带来高功耗问题也日益凸显。传统服务器大多数为双路、或者4路为主,传统机柜的设计功率不超过10千瓦,而GPU服务器常常多达8卡,同时单GPU卡的TDP也已经突破1千瓦,出现了大量高密度服务器和高密度机柜,不仅供电出现了挑战,同时,制冷也出现了问题,液冷应运而生。
根据IDC的数据,2024年上半年,中国液冷服务器市场同比大幅增长98.3%,市场规模达到12.6亿美元,出货量同比增长81.8%。预计到2028年,中国液冷服务器市场规模有望达到102亿美元,年复合增长率(CAGR)将达到47.6%。
驱动云计算行业变革
AI的快速发展也深刻影响了云计算行业。AWS、微软、Google和阿里云等云计算巨头纷纷加大了在AI方面的投入,包括芯片研发、大模型训练等。这些投入不仅提升了云计算的性能和效率,还推动了AI应用的广泛落地。
比如,AWS在芯片自研上走得最早,先后自研了训练芯片Trainium和推理芯片Inferentia。Google有自己的TPU,微软有Maia,Meta也有自研的MTIA。这些自研芯片不仅缓解了英伟达GPU一卡难求的局面,还降低了自己的整体运行成本,增强了行业竞争力。
除了研发专用AI芯片外,亚马逊AWS、微软Azure和谷歌云都在新建数据中心,以抢夺AI市场的先发优势。预计到2025年,这些新增的数据中心将能提供超过2000万张GPU的算力能力。据报道,谷歌云计划在美国在赫特福德郡沃尔瑟姆十字架建造 10 亿美元数据中心;微软在 7月宣布计划在 AI 和云数据中心上投资 130 多亿美元,而 AWS 也计划在英国等地建设支持 AI 的数据中心,投资数十亿美元。
同时,为了应对GPU带来的能耗挑战,AWS、微软和谷歌等巨头甚至纷纷引入了核电等清洁能源,以降低数据中心的能耗。
毫无疑问,这些云服务商们高投入的背后是对AI浪潮的高期待。这几年由于经济下行,各大云服务商都把AI作为恢复高速增长的最大依仗了。当然,对AI充满期待的远不只是云服务商,还有更多的行业也都希望借助AI来为走弱的经济注入一剂强心针。
回到文章开头的国家统计局的数据,11月份,规模以上工业企业利润同比下降7.3%,这个数字比1-11月份的4.7%又下降了2.6%。如此来看,2025年经济形势并不容乐观。
2025,一起加油!