FPGA——英特尔的背水一战
最近市场最火的是什么?
人工智能!
那么人工智能里现在最火的是什么呢?
其实是应用,比如说ChatGPT,这只是OpenAI公司下面的一个应用。当然现在的OpenAI已经被微软的比尔盖茨,也就是那个美国最大的地主控制着。所以,你可以理解ChatGPT之所以能够火遍全球,其核心是让大家在这些年已经很无聊的互联网世界,看到了一点点新奇的希望!这无疑可能会形成一次变革,就好像乔大爷当年带来了iPhone,就好像移动互联网的普及……
那么为什么特斯拉的创始人会公开在自己捐款搞出来的未来生命研究所发倡议书要求暂停训练GPT4.0呢?因为马斯克当年不仅仅捐款搞了这个未来生命研究所,还捐了一个亿的美元给了当时还是公益研究的OpenAI,至于后来怎么被微软收编了成为了一个估值有100亿美元的商业化公司,这个我们都是看官,完全不懂!
但是,村口的王大爷一语中的,要是我出钱接济的李寡妇,偷偷和别人结了婚,并且现在生下来个孩子发了大财了要是敢不感恩我这个王大爷的话!那我绝对要在村口捅咕她的,这么不地道,必须戳他脊梁骨!欠教育这就是!
其实,在人工智能这个大的赛道当中,应用可以有很多,今天有chatGPT明天就有AI画图,后面就有AI吃饭之类的,这些所见即所得的都叫应用的!这就是生意,多生孩子好打架不丢人!
在应用的上游其实就是大模型的建立了,说白点就是应用,一个大模型可以支持一大串的应用,简直就是蚂蚁家族的蚁后和小工蚁的关系!模型很重要,但是这块本质上国内外差距不大,全球现在大约也就这么几个:
国内:百度的文心大模型,360的360AI大模型,华为的盘古大模型,这三个基本上都存在部分商业展示了,还有阿里的通义,腾讯的混元,商汤的书生!本质上从大模型的角度,国内并不比国外差多少!
美国:OpenAI的GPT4.0,谷歌的通才大模型等!
另外,日本,韩国,欧洲也都有自己的大模型,所以AI也有一定的马太效应的成分,大多数人误以为只有那个最出名的!这是灯下黑!
那么这些大模型其实就算是一堆的程序,需要做的就是不断的加大算力,喂数据去训练它们!所以,大模型的上游就是算力和数据!
数据这块,基本上和以前的搜索有很大的关系,这就是为什么很多人看到初代的应用,感觉好像就是一个变形的搜索,其实本质上搜索的本质就是从数据库快速获取信息列表,而人工智能就是从搜索的数据库快速的获取这些信息并给出一定的整合和判断。
所以,一个模型牛不牛就看数据量够不够大,所以这个会涉及到一定的所谓的AI存储,另外就是用的人多不多,用的越多,可以帮助模型快速成长!
那么,要想更多的人用,更大的训练量,更牛的模型,就必须要更强的算力!
比如说:GPT-3 (OpenAI)就包含1750亿个参数。北京智源人工智能研究院有个悟道2.0大模型就有1.75万亿个参数!
那么这意味着参数越多,需要的算力越大,于是对于AI芯片的需求就越大!
2018年的时候,英伟达的老黄,搞回来了人工智能专用的训练的主机,并送给了OpenAI,后来又搞出来了号称最强的训练用的芯片A100,还有专供中国的A800。
老黄这一手,不仅仅是在人工智能领域占到了先机,也成为了人工智能芯片第一的上市公司了!说白点,说起人工智能的芯片,那必须是老黄家的!
这就让老黄的一生之敌——英特尔,浑身不自在了!毕竟在没有老黄之前,英特尔算是老牌健将,消费芯片这块舍我其谁,这些年,不仅仅在矿机上被AMD的苏妈狙击,又被老黄侧面夹击了!
所以英特尔是一直想着要报复的,这个报复其实就是技术上的创新!
老黄走的模式其实就是专一——GPU大法好!
苏妈走的模式就是——chiplet,用小芯片先进封装成为大芯片,低成本大算力!
留给英特尔的路其实很少了!终于,憋了快半年之后的英特尔,终于在本周发出了最后的倔强——计划在今年推出15款新FPGA。
FPGA全称为现场可编程门阵列,是一种可以重构电路的芯片。通过编程,用户可以随时改变它的应用场景,它可以模拟CPU、GPU等硬件的各种并行运算。因此,在业内也被称为“万能芯片”。
当前,AI芯片主要分为GPU、FPGA以及ASIC。
浙商证券的相关研报指出,ChatGPT的“背后英雄”系GPU或CPU+FPGA等算力支撑。
所以,可以这么理解,FPGA成为了英特尔的背水一战,成则在人工智能中有一席之地,败了就准备去做历史的尘埃吧!
对于,这个事情,我反手就问了下ChatGPT,这货告诉我:目前,FPGA领域的本土化程度较低,中国市场主要由赛灵思Xilinx(现已被AMD收购)和英特尔主导,两家占据了超过70%的市场份额,安路科技、紫光国微、复旦微电等国内厂商的总份额约为15%。
风还在吹,这一波,会不会从软的吹到硬的呢?
本文作者可以追加内容哦 !