欢迎访问江南电竞入口安卓版
英伟达迎来最强对手,AI芯片的关键仅仅只是“快”吗?
2024-02-27 来源:贤集网
329

关键词:AI芯片英特尔AMD

在AI技术的浪潮中,一匹黑马突然杀出重围,它就是Groq——一家以“地表最强推理”自居的AI芯片初创公司。近日,Groq发布了一款全新的AI芯片LPU(Language Processing Unit),声称其推理速度比英伟达GPU快10倍,而成本仅为十分之一。这一消息震动了整个科技界,也引发了市场对AI芯片格局的重新思考。

Groq的LPU芯片究竟有何魔力?为何能在短时间内引起如此大的关注?

首先,让我们通过一组数据来直观感受Groq的速度。在回答“什么是中性粒细胞?”这一相同问题时,Groq仅需6秒就能给出完整答案,而GPT-4则需要25秒。同样,在数数的任务中,Groq也表现出了显著的速度优势。这样的性能优势,让Groq在AI推理领域崭露头角。



然而,Groq的优势并非仅止于此。根据ArtificialAnalysis.ai的数据显示,Groq推出的Mixtral 8x7B Instruct API以每秒处理约430个token的速度刷新了业界吞吐量记录。而且,其每百万个token的价格仅为0.27美元,远低于其他竞争对手。在最新的LLM基准测试中,Groq不仅在价格上优势明显,而且在延迟与吞吐量等关键性能指标上也击败了Microsoft Azure、Perplexity等竞争对手。

那么,Groq为何能在短时间内取得如此惊人的成绩呢?这主要得益于其独特的技术路径。Groq从头设计了一个张量流处理器(TSP)微架构设计,这一设计打破了传统CPU和GPU架构的局限,为AI推理提供了全新的解决方案。通过软件控制红绿灯的方式,Groq的TSP技术让同一方向的车辆快速前进,大大提高了效率和速度。

当然,我们也要看到,尽管Groq在速度上取得了显著优势,但它并没有研发新的AI模型,而只是一个模型启动器。这意味着,Groq的成功更多依赖于其硬件技术的突破,而非模型的创新。因此,未来Groq能否继续保持领先地位,还需时间来验证。


全球巨头挑战者不少

英伟达在2024财年第四季度公布了财报,结果可谓惊艳,让人瞠目结舌。股价一举飙升16%,市值增加2770亿美元,创下单日市值增长的最高纪录!这样的增长势头令人瞠目结舌,让业界对英伟达的未来信心倍增!

英伟达的全年业绩同样令人惊艳,总营收达到609亿美元,同比增长了126%,净利润更是高达298亿美元,同比增长了581%!这不仅是数字的背后,更是英伟达在AI领域卓越实力的有力印证。数据中心业务的爆发增长,使英伟达从游戏显卡制造商逐渐蜕变为AI芯片产业的领导者。

然而,在这场股市的盛宴中,英伟达并非没有对手。其面临着两大主要问题:

AI芯片赛道的宽度: 目前,AI芯片市场尚处于早期发展阶段,其最终规模和发展方向仍存在不确定性。英伟达虽然占据领先地位,但能否长期保持优势还有待观察。

竞争对手的追赶: 英特尔、AMD、苹果等科技巨头都在发力AI芯片领域,并取得了一定进展。随着竞争的加剧,英伟达的时间窗口可能会逐渐缩小。

微软、亚马逊、Meta、谷歌等科技巨头都在积极筹备自研AI芯片的计划。这也让人们开始思考,英伟达的霸主地位是否能够抵挡住这些巨头的联手反击?

随着云服务和人工智能的迅猛发展,这些科技巨头纷纷布局自研AI芯片的领域,不仅为自身节省巨额支出,更是为了在AI生态中占据更大的话语权。谷歌的Gemini AI芯片、亚马逊的自研芯片、Meta即将投产的第二代芯片Artemis,都是他们雄心勃勃的表现。

但是,自研AI芯片也不是一帆风顺的。高投入和低兼容性成为这些科技巨头自研AI芯片所面临的难题。不仅需要投入巨大的资金和人力,还需要解决与其他AI软硬件的兼容性问题。这或许是英伟达保持领先地位的关键所在。



2024年,人工智能芯片展望

2023年,随着以大语言模型为代表的人工智能市场持续火爆,我们看到了人工智能成为了半导体行业的最大推动力,也见证了Nvidia惊人的销售业绩以及其市值创下新高。随着新年的到来,我们也对2024年人工智能芯片做一个展望。


市场需求:人工智能仍将继续火热

从市场需求侧来看,我们认为人工智能在2024年仍然将继续火热,这也将继续推动相关的芯片行业保持良好的态势。然而,与2023年不同的是,我们认为在2024年,人工智能市场的需求会同时从云端慢慢扩展到终端,这也将驱动相应的芯片市场发展。

首先,从云端需求来看,大语言模型仍然将是主要的增长点。同时,图像生成类模型也会保持快速增长的势头。具体来说,大语言模型仍然是各大科技公司竞相研发的核心技术,包括OpenAI,微软,谷歌,华为,阿里巴巴,百度等中外科技公司都在大力研发下一代的大语言模型,而包括中国移动等传统行业的公司也在入局大语言模型领域,同时还有大量的初创公司在依靠风险投资的支持也在大力开发大语言模型。大语言模型的百家争鸣时代才刚刚开始并且远远没有落下帷幕,在这样的群雄逐鹿的时间节点,预计对于芯片的需求也会快速增长。大语言模型的特点是需要海量的数据和训练芯片资源,而且同时由于格局尚未尘埃落定有大量的公司在研发新的模型,因此总体来说训练芯片的需求会非常大。

而随着云端人工智能交互进入多模态时代,聊天机器人已经不仅仅可以用文字回答,而且还可以完成看图说话以及图像甚至视频生成等任务,因此我们认为,图像生成类的模型,以及图像和语言结合的多模态模型也将会成为云端人工智能的一个重要增长点。

除了云端之外,我们认为终端(包括手机和智能车)也将会成为人工智能的新增长点。手机上的人工智能虽然早已不再新鲜,但是随着生成模型的成熟,我们可望看到这类模型落地手机端并赋能新的用户体验。手机端生成类模型又分为两种,一种是图像生成类模型,即以扩散模型(diffusion model)为代表的模型,这类模型可以实现高质量超分辨以及高质量修图,从而可望给用户的拍照和照片编辑带来革命性的变化。另一类应用是语言模型——与运行在云端的大语言模型(LLM)相对地,过去几个月我们看到了小语言模型(SLM)的兴起。小语言模型和大语言模型一样,都是主要用于语言的理解和生成(或者说,与人对话);小语言模型在参数量变少之后,可以更灵活地应用在一些专用的场景中(而不是像大语言模型一样试图覆盖所有场景)并且提供很高的准确性,同时还有可能运行在终端设备中。

从智能车领域,一方面随着端到端多任务大模型带来的革命性性能提升(例如BEVFormer带来的俯瞰场景识别性能提升,以及商汤在2023发布的UniAD带来的多任务性能大幅提升)会推动这类模型进一步落地并且推动芯片的需求,另一方面则是来自于语言模型人机交互这类源自于云端的人工智能应用迁移到智能车场景。

因此,我们预测,2024年将会是人工智能持续火热的一年,与2023年不同的是除了云端人工智能保持热门之外,我们预计终端应用场景也会成为新的人工智能需求增长点。


云端市场格局分析

云端人工智能芯片市场,我们预计Nvidia仍然将保持领跑地位,但是AMD等竞争者预计也将获得更多市场份额。

首先,如前所述,云端市场目前主要的需求在于大语言模型和生成式图像的训练和推理。由于这些模型对于计算资源需求非常大,而且训练任务占的比例很大,因此给相应的芯片设了一个很高的门槛。这里的门槛包括了:

- 芯片算力:为了支持巨大的计算量,芯片需要有足够的计算单元,内存容量和带宽

- 分布式计算支持:对于大模型来说分布式计算是必须的

- 软件兼容性和生态:对于训练来说,对于模型进行反复快速迭代是一个很强的需求,因此必须有足够好的生态来支持不同的模型算符快速迭代

目前而言,Nvidia在这一个领域仍然是领先,无论是其芯片和分布式计算性能,还是软件生态兼容性来说,都是首选。这也是为什么2023年Nvidia的H100成为了人工智能相关公司最宝贵的资源,在市场上供不应求。在2024 H2,Nvidia将会开始出货H200,相对于H100来说,H200拥有40%和内存带宽提升以及80%的内存容量提升,因此可望会被人工智能公司争相购买。



在2024年,我们预计AMD在云端人工智能领域也将更加站稳脚跟,并由此开始慢慢走向更大的市场份额。2023下半年,AMD发布了最新的MI300X用于高性能计算的GPU模组,该芯片包含大芯片粒(12个处理器/IO芯片粒),并且相比于H200来说,拥有更高(1.6倍)的FP8算力,以及更大的内存容量和带宽(1.2倍)。从AMD公布的实测数据来看,MI300X的推理能力大约比H100强20%-40%,训练性能则和H100持平。我们认为,软件生态(包括编译器性能)将成为决定AMD在云端人工智能市场能否成功的决定性因素,而这一点预计在2024年将会有所改善:OpenAI将在最新发布的Triton框架中加入对于AMD MI300X的支持,而各大初创公司的人工智能加速软件框架也在加强对于AMD GPU的支持。随着芯片性能和软件生态的提升,以及各大科技公司对于Nvidia GPU一家独大地位的担忧态度,我们预计2024年对于AMD的GPU在人工智能市场将会是重要的一年,预计将会看到更多客户的应用。

从供应链角度,由于云端人工智能芯片对于HBM3等高带宽内存有着强力的需求,我们认为HBM内存以及高级封装(如CoWoS)的产能仍然将会火热,这也将推动相应半导体企业扩大产能,以及积极研发下一代内存和高级封装技术。从这个角度看,人工智能应用仍然将会是推动半导体新技术高速发展的核心动力。


终端市场格局分析

除了云端市场外,我们预计人工智能对于终端市场也有更强的需求,这也将推动人工智能成为终端计算芯片中越来越重要的差异化元素。

在手机端,人工智能的使用频率将会进一步增强,这也会推动芯片加入更多相应的算力,并且将人工智能支持作为SoC的核心亮点。例如高通发布的Snapdragon 8 Gen 3就以“低于一秒的延迟实现图像生成任务”作为一个重要卖点,估计这样的人工智能能力将会深度集成到手机厂商的操作系统中。除了高通这样的第三方芯片公司之外,自研手机芯片的系统厂商预计也会继续加码人工智能;苹果虽然在这方面保持低调,但是预计在未来会以各种方式(加大NPU算力,或者是加大软件支持)的方法来开始赋能更多人工智能在iPhone上的新拍摄用户体验。vivo在自研ISP芯片领域已经有了数年积累,而目前生成式人工智能对于拍摄体验的提升恰好和ISP有很强的协同作用,这也是2023年8月vivo发布的v3 ISP芯片强调了生成式人工智能作为一个核心亮点。未来,预计会看到越来越多这样的芯片强调人工智能对于用户体验上的赋能作用。

在智能汽车领域,Nvidia虽然不如在云端强势,但是其Orin系列芯片仍然是各大车厂考虑的标准芯片模组。我们认为,随着人工智能大模型对于智能驾驶的赋能作用逐渐加强,无论是第三方芯片还是车厂自研的芯片都将会进一步强化对于人工智能算力的投入,同时也推动芯片性能的快速提升——最近,无论是蔚来发布新自研芯片的算力规格,还是特斯拉传出将使用TSMC 3nm作为下一代芯片的生产工艺,都在提示着我们2024年人工智能将在智能车芯片领域扮演越来越重要的角色。



Baidu
map