2、GPU芯片的市场格局或将发生变化,在
微软等巨头的强力支持下,AMD较为薄弱的软件生态有望取得长足进步,AMD将对N
VIDI A形成强有力的挑战。
3、芯片是中美竞争的最大鸿沟。两国达到一个数量级的算力储备既是目前亟待解决的瓶颈,也是未来确定的投资机遇。尤其是在边缘侧推理算力,既是被低估的远超训练算力的市场,也给了中国展现制造业优势的机会。
2 、关于AI行业应用
第一,大模型适用于需要一定容错率的行业,ChatGPT开始做商业化付费使用plus其实并不赚钱,核心是为了挡掉一些乱用而把成本变得过高的用户。大模型应用在要求100%准确的行业目前难度比较大,更多的是比如客服咨询、艺术创作、会议记录、写文章、数据分析等。大模型的商业化在B端已经看到成果了,比如:微软的全家桶office,减少制作时间、提升完成度、提升复购率;客服:给地产公司、医疗公司节省前端客服的成本。视频制作:一键生成visla.us只能生成demo视频等工具,就不需要找工作室了,节约人力成本。GPT4到现在只有一个半月,市场还在讨论如何应用,再过六个月能看到更多更清晰的落地。
第二,微软M365 产品主要在大规模交付、隐私和安全方面发力。微软现在主要的目标是怎样去大规模的交付,尤其是解决一些个性化的AI特征,另外就是安全与隐私方面的准备。M365是微软现在最核心的产品。对于企业整个工作流,整个的协作平台,整个工具、存储、安全都在M365的目录下面。Copilot是对于现有的产品线的生产能力做大幅度的提升。M365有两套不同的运算,依托Azure的
数据中心做全球的扩张,M365内部也有自己的数据中心;M365是把openAI嵌入产品,不是用公用的openAI。M365在中国落地技术上有难度:1)运算资源;2)法规:数据透明度、敏感信息的管理。
我们认为,在美国,AI技术的应用已经非常普遍,例如客服咨询、艺术创作、会议记录、写文章、数据分析等众多行业。但需要注意的是,目前大模型的应用应该定位在“副驾驶员”,需要一定的容错率而非确定性的决策工作。此外,以微软为代表的海外大模型应用目前进入中国仍存在较大难度,这些难度不仅仅是在
数据安全与合规政策的要求方面,大模型与算力资源的本地化部署方面也面临诸多挑战。
3 、大模型与垂直模型的发展趋势
第一,谷歌和微软的大模型大概率闭源,而Meta可能是最重要的开源“搅局者”。 Meta最重要的业务是社交,AI可以作为聊天助手,Meta的思路是做出大模型然后开源,成为大模型里面的“搅局者”。比较来看,Meta的大模型1750亿参数,估计GPT4参数5000亿左右,Meta开源了超过650亿个参数的大模型,估计精确度比ChatGPT低20%左右。很多公司和学使用Meta的开源模型做微调,在模型参数很小的基础下效果和GPT等差不多。开源的意义在于可以发动全世界上百万工程师一起参与微调。
第二,大模型走向移动端是个趋势。未来大模型开源生态中大公司做大模型,小公司做微调,大模型还会被简化到在各个移动终端上,比如原来的32位浮点运算改成INT8等,提升运算速度。大语言模型在开源中会有一个很好的生态圈,大语言模型就像水、电一样,在一些细分领域让开源生态做。开源社区有些聪明的人可以把模型蒸馏的很小,比如把36位浮点运算改成INT4,可以把体积缩小十倍,小到可以在电脑和手机端装,未来可能会有很多有创意的应用开发出来。未来iOS或者安卓可能会内置大模型,以后所有的移动端应用跑一次给
苹果一定费用。
第三,大模型继续发展中参数量的增加核心要考虑ROI。处于科研角度,当然参数越多越好,但是处于商业使用的角度,每多一个参数就会增加成本,包含收集成本、训练成本。ChatGPT 3.0用了1750B的参数量,而GitHub上有一个仿GBT的模型只用了70B的参数就达到了90%GPT的效果。从商业应用层面,需要找ROI最高的参数。
第四,大模型最终会通吃一些通过互联网即可获得数据的垂直行业,可能无法覆盖某些数据无法获得的垂直领域模型。现在谷歌正在做一件事让AI像人一样实时学互联网的内容,而数据在线下无法获得的领域,可能会出现线上的大模型和本地模型做交互的形式,但这个涉及难度比较大的耦合问题。
我们认为:
1、 中国可能是以Meta为代表的开源大模型的最大受益者。
2、我们对于国内大模型追赶全球领先水平的进度应该保持信心,在已经给定了技术路线方向与开源大模型基础上去追赶,实际上节省了从头开始的试错成本。尤其是对大模型通用性要求并不高的垂直行业龙头,借助开源大模型可以迅速搭建垂直大模型,加快垂直领域的应用落地。
3、大模型部署在边缘侧与移动端是一个必然的趋势,尤其在近期谷歌发布移动端大模型和ChatGPT在苹果手机上的App正式上线之后,这一趋势逐步被市场认知,大模型是非标准化的各类AIoT终端等待已久的统一操作系统。