欢迎访问江南电竞入口安卓版
真相残酷,ChatGPT的狂欢与中国无关,因为AI芯片差距二十年
2023-02-14 来源:互联网乱侃秀
610

关键词:AIChatGPT微软谷歌

近日,ChatGPT火爆异常,一度被认为即将替代脑力工作,因为ChatGPT可以重塑一切数据,完成信息编写、内容创建、客户聊天、法律文件等。



为此,各大专家也预测了未来会被ChatGPT替代的多种工作,包括:律师、投资顾问、报税师、会计师、医疗诊断专家、客服、营销顾问、编剧、新闻工作者、程序员等。


没想到,程序员们努力打造的人工智能居然能够代替自己,果然是“上岸第一剑,先斩意中人”。


二级市场上,各类上市公司开始疯狂蹭热点,沾上AI就大涨,股价就像坐上了火箭,短短几个交易日大涨超过50%甚至翻倍。


但实际上,ChatGPT真的没有想象中的那样,随随便便就颠覆。ChatGPT归根结底还是AI(人工智能),而AI的基础就是算力,算力依靠的是芯片。


如果造不出顶级的AI芯片,就没有足够的算力提供给ChatGPT,自然也就没有所谓的颠覆了。


那么问题来了,我国的AI芯片如何呢?与英伟达差距有多少呢?

ChatGPT基础是AI芯片


AI芯片是一种专门处理人工智能计算、应用等任务的一种芯片,也被称为AI加速器或计算卡。


在架构方面来看,AI芯片主要分为:GPU (图形处理器)、FPGA (现场可编程门阵列)、ASIC(专用集成电路)。


那么这些AI芯片如何使用呢?是不是一口气全都堆上呢?当然不是!


在实际应用中,AI芯片又分为云端、边缘、终端三种应用场景。不同的场景根据实际情况搭配不同的AI芯片。



在云端,AI不仅要处理大量的数据,同时还要进行各种各样的AI服务,包括大量的AI训练和推理工作,对AI芯片的算力要求最高;


边缘就是云端与终端之间的连接网络,在此设立一些节点,用AI芯片承担部分算力,可以有效降低云端的压力,同时提高整个AI网络的效率;


终端就是我们的手机、电脑、汽车、家电、监控等设备,这里的AI芯片要嵌入设备内部,在终端采集数据,并完成数据处理,主要负责推断。


根据以上的内容,我们可以看出云端服务器方面通常使用GPU,利用其高性能高功耗的特点,可以批量处理密集型任务;在边缘端,FPGA更适合信号处理系统,各类接口;而我们的手机、电脑、汽车则需要更专用的集成电路。


但无论何种类型的AI芯片,它们都需要一个共同的特性,那就是“强大的算力”。


根据Open AI测算:自2012年以来,全球头部AI模型训练算力需求3-4个月翻一番,每年头部训练模型所需算力增长幅度高达10倍。


对于AI算力的快速需求,我们也可以从各类事件中感受到。


1、阿尔法狗大战李世石


2016年3月9日,阿尔法狗经过三个多小时鏖战,击败了围棋九段高手李世石。这是AI第一次展现出它惊人的实力。


当时的阿尔法狗用了1202个CPU、176个GPU,约有800多万核并行计算,同时还花费电费3千美元。而李世石大概需要两个馒头,一碟泡菜,一瓶矿泉水就可以了吧!


可见彼时的AI因为算力不足,只等堆加数量,同时能耗也非常高。


2017年,升级版的阿尔法狗击败了国际围棋大师柯洁,再次引发人们的关注。


2、百度无人驾驶汽车



2017年7月6日,百度召开AI开发者大会,百度总裁陆奇在介绍“Apollo”计划时,大屏幕出现了百度创始人、董事长李彦宏坐在无人驾驶汽车行驶在北京五环的画面。


从画面中可以看到,李彦宏坐在副驾驶位置,全程不碰方向盘,全部由AI操控。


李彦宏表示:“汽车行驶很平稳,感觉非常不错。”


据悉百度的无人驾驶汽车Apollo,采用了英特尔和英伟达两家公司的AI芯片。


自动驾驶汽车上路前需要超过100亿公里的测试,如果不采用AI芯片,而拥纯人工的话,需要100辆汽车7*24小时测试100年。而搭载了AI芯片后的Apollo一天就可以跑上百万公里。


3、ChatGPT的狂欢



人工智能实验室OpenAI研发的ChatGPT聊天机器人,能够进行普通聊天、信息咨询、撰写诗词作文、修改代码等,号称能够替代脑力工作者。


不少网友通过ChatGPT,“撰写”了玄幻类、科普类的文章,甚至论文;五花八门的提问也让ChatGPT应接不暇。


那么ChatGPT需要多少算力呢?



ChatGPT的总算力消耗约为3640PF-days,至少要7-8个投资30亿规模的数据中心才能支撑ChatGPT的运行。


光从模型训练算力具体来看,至少需要上万颗英伟达 GPU A100,以参数规模为1750亿的GPT-3为例,一次模型训练成本超过 1200 万美元。


从这三个事件中我们可以看出,AI芯片的算力需求正在快速的增长,并且已经逼近现有芯片算力的极限,这就倒逼芯片厂商快速的迭代升级。


那么,在众多芯片厂商中,谁能承担的起未来算力需求呢?

GPU领导者英伟达

在AI芯片领域,英伟达跑在了前面。



英伟达(NVIDIA)由美籍华人黄仁勋创建,总部位于加州圣克拉拉市,是一家设计显示芯片和主板芯片组为主的人工智能计算公司,也是GPU的发明者。


可以说,英伟达定义了GPU,推动了图形计算的快速发展,也推动了AI的快速发展。


1999年时,图形显示需求规模急速增加,CPU已经无法满足,此时,英伟达顺势推出了世界第一款GPU GeForce 256,成为CPU外最重要的逻辑芯片。


英伟达高速发展的十几年中,平均每半年就推出一款新品,每两年就更新一次架构,在AI、自动驾驶领域,就连英特尔、AMD也只能望其项背。


2010年,谷歌的AI训练采用了16000台英特尔CPU进行训练,后来英伟达为其提供了GPU,仅仅需要12个GPU就完成了这项工作。


2021年,云计算、自动驾驶、大型网游等对算力的快速需求,极大的刺激了英伟达打造更为先进的GPU H100。



英伟达H100采用了台积电5nm工艺,比上一代A100在制造工艺方面更为先进;


在晶体管数量方面,H100集成了800亿个晶体管,比A100(540亿)提升了48%,整体性能提升了6倍,算力提升3.2倍。


H100还可以加速动态规划,优化路径,在这种条件下,H100的算法将进一步提升7倍。


H100的在数据吞吐量上提升了30倍,同时可实现3TB/s 的显存带宽,以及5TB/s的互联网速度。


H100还可以把单个GPU分拆为7个,同时进行不同的运算任务,而且还可以将部分能力扩展7倍。


H100还是全球首个加密计算GPU,在提高性能的同时,有效的保护用户数据和隐私,非常适合应用在医疗、金融和云计算领域。



除了H100,英伟达最新研发的自动驾驶芯片Thor,号称业内最强,融合了CPU、AI加速架构和GPU,算力高达2000TOPS,是目前高通最新车载芯片8295(30TOPS)的66倍。


同时,英伟达正在开发新一代人工智能计算机——Eos,搭载了4600个H100 GPU,比世界上最快的超算还快1.4倍。很快,全球最快的计算机将与人们见面。


如今,英伟达在GPU领域市场份额高达70%,独立显卡领域市场份额更是高达86%。


作为全球领先的AI芯片研发公司,英伟达将在AI快速发展的浪潮中,赚得盆满钵满。而收入重新投入研发中,形成良性循环,未来的英伟达真的无法想象。


那么国产AI芯片与英伟达差距有多大呢?

国产AI芯片性能如何

国产AI芯片公司大大小小十几家,包括:龙芯、景嘉微、华为海思、摩尔线程、璧仞科技、天数智芯等等,但与英伟达比起来还差很多。




景嘉微是国内领先的GPU厂商,成立于2006年,总部位于湖南长沙。经过十几年的发展,景嘉微GPU性能如何呢?


根据官方数据,景嘉微JM9231核心频率为1.8 GHz,浮点性能可达8TFLOPS,落后英伟达最先进的Thor(2000TFLOPS)250倍。



璧仞科技公司研发的壁仞100,采用了7nm工艺制程,晶体管数量达到了770亿颗晶体管,具有高算力、高通用性、高能效三大优势。


在算力方面,16位浮点算力达到1000T以上、8位定点算力达到2000T以上,号称领先国际大厂3倍。


从算力来看,壁仞100直接对标了英伟达H100,这着实令人惊叹,似乎不久之后,我们再也不需要依赖英伟达了,但事实真的如此吗?



英伟达的GPU之所以能制霸全球,强大的CUDA生态系统绝对是重要关键。


CUDA全称Compute Unified Device Architecture,翻译成汉语就是统一计算架构,这是由英伟达所推出的一种集成技术,是英特尔对GPU的正式名称。


目前GPU市场上,英特尔一家独大,70%以上的市场都被其掌控着。如果国产GPU厂商想要生存发展,就必须兼容CUDA。


但CUDA是英伟达的技术,并且英伟达发展迅速,芯片更新速度非常快,想要100%的兼容是根本做不到的。


怎么办呢?一方面魔改,一方面发展自己的生态,但是难度实在太大了,因此国内GPU厂商日子都很难过。


更为要命的是:一旦性能、算力领先,威胁到美企的地位,必然会遭受打压封锁。



那么国产GPU厂商就会陷入“华为式”的被动,最典型的就是无人代工。


内地芯片制造技术最强的是中芯国际,目前只能量产12nm工艺的芯片,而英伟达H100采用了5nm工艺,相差2代。


而中芯国际CEO梁孟松也表示,中芯国际目前攻克了7nm技术,但苦于没有EUV光刻机,因此只能止步于12nm工艺。


EUV光刻机是工业皇冠上的明珠,由10万个精密零部件组成,这些零部件由全球2000家公司提供。一个国家单独完成EUV光刻机的研发被称为“不可能的工作”。


加上EDA工具、半导体材料方面的落后,国产GPU之路还很长,距离英伟达还很远。

写到最后


ChatGPT火出了圈,但万丈高楼平地起,靠的是良好的基础,这个基础就是AI芯片。


先进的AI芯片代表着强大的算力,强大的算力才能支持人工智能继续更新迭代,最终为人类分担大量的脑力、体力劳动。


我国的AI芯片在设计和生态方面远落后于英伟达,制造、设备、材料方面也差距甚大,要想达到世界领先,支撑起AI需求的强大算力,至少还需要二十年,甚至更久。


所以说,目前的ChatGPT对于我们来说就是概念、炒作,我们距离真正的人工智能还很远。



Baidu
map