下载
登录/ 注册
主页
论坛
视频
热股
可转债
下载
下载

AI轮动反弹,注意节奏

23-05-26 16:36 7144次浏览
亚热带季风
+关注
博主要求身份验证
登录用户ID:
AI整体下跌段结束,反弹确认,接下来一段时间AI会轮动反弹。按照先跌先企稳先反弹、事件催化、聚焦核心等原则做反弹。同时关注大盘成交量的变化,成交量一直维持低位,AI走一下波主升比较困难,更多是板块震荡走势。成交量恢复到万亿以上,AI当仁不让再起一波上升行情。让我们为AI窒息。风里雨里依然AI你!
打开淘股吧APP
7
评论(502)
收藏
展开
热门 最新
亚热带季风

23-05-28 23:38

12
小钱靠术,大钱靠道。大道无形,无外乎是时代成就了你。在时代滚滚洪流中,不妨做个傻子,随洪流而行即可。
亚热带季风

23-05-28 23:36

10
后面应该会说的越来越少。因为没太多东西可以说了。成长投资,就是认知,前瞻性,耐心以及承压能力。看得懂,拿的住才是真本身。看得懂,拿不住就会变成追涨杀跌,大把亏钱。做实业也好,做投资也罢,大的机会都是时代赋予的,来了必须要抓住。
亚热带季风

23-05-27 21:09

9
某F企光模块专家

简单总结:

1)部分二三线厂商有超预期的点

2)5月与各大厂商交流了2024的指引,Go­o­g­le、Me­ta、Nv­i­d­ia的指引量比较惊艳

3)薄膜铌酸锂受到认可

各家进度:

中继旭创-全面量产(G N) 两家一供 占据大部分的签单 目前大约80W个800G Me­ta在Q3可能会要求插单

Fi­n­i­s­ar-全面量产(G N)两家二供 产能不足 等设备 下半年或者明年放量(无锡+马兰西亚工厂)

新易盛-绑定的厂商A没有任何指引,M这边只差最后的兼容性测试 10月招标可能进M

天孚通信-英伟达要自己做光模块(量不会太大 没有旭创这种本事) 成为了自己的三供 找天孚一起合作,扶持状态,下半年营收大增-有订单

剑桥科技-送样了,优势在于美国和日本这两家公司是曾经的光模块头部前十,国外厂商关注他们已久,缺点在于海外加工成本太高(能解决会很好)跟ar­i­s­ta之类关系好,间接进了头部

联特科技-送样了,挖了XX的X总,公司产品阵列很好,主要是进入数通行业比较晚,技术积累不足

华工科技-送样了 但是应该没戏 背景问题

光迅科技-送样了 但是应该没戏 背景问题

$中际旭创(sz300308)$剑桥科技(sh603083)$新易盛(sz300502)$ 

光模块行业普遍展望主要来自于每年10月份的招投标

去年2022年是800G光模块的元年

当时的招投标量是10W个800G光模块

分别来自于 8W 谷歌 2W 英伟达

中标方:中继旭创-9W只 Fi­n­i­s­ar-将近1W(大几千)

目前技术方面旭创独家领先 Fi­n­i­s­ar算是国内第二 同行一般落后4~8个月左右

只有旭创800G量产出货并且早就通过验证了

800G的验证流程-送样-测试高低温 极限状况 丢包率 光误差之类 大概时间是5000小时 需要半年-过了这个验证以后-逐步提高合格率-最后的一个测试流程是-小批量兼容性 因为光模块互相的兼容性不太好 所以一般大厂只会找1~3家厂商供应 主要原因也是兼容性 找太多的厂会导致兼容性有明显问题

2023年订单:目前根据加单得展望是全年120~140W个800G光模块(但大概率不止)

2023年起初 大厂综合给的全年800G光模块的官方指引为60W只 70%谷歌 30%英伟达

然后自从3月份 10W只加单的开始 指引越来越往上提升

之后4月份 加单13W只

目前加单指引为 谷歌-45W加单15W 共60W 英伟达-50W只(7 8月放量)

还有LPO放量 大概为7~8W只 主要青睐LPO的厂商为Me­ta 其余皆在观望

LPO相对EML-800G 为廉价版本 优点是热功耗小 缺点是性能差 成本会下降30%

价格有优势 省了DSP

关于光模块到底用在哪里的实际测算:来自G N的交流指引

谷歌的自建光电系统中 TPU:800G光模块=1:3

英伟达的IB为 H100:800G光模块=1:3~3.5

(集群越多 光模块就越多 最少最小的一个su­p­er pod至少需要1:3)

A100:200G光模块=6~8个(目前A100在英伟达这边没有使用800G光模块)

所以可以理解为800G光模块的2024年需求等于=谷歌TPU的下单预期量x 3倍+英伟达H100的下单预期量x 3~3.5倍

关于光模块在服务器中的价值量测算:来自G N的交流指引

以G举例 曾经300亿美金的资本开支来说 光模块需要占比3~4%(云服务器时代)

如果换成 AI 300亿美金的资本开支 光模块需要占比5~6%(所有种类的光模块)

800G光模块只使用于训练服务器 推理服务器并不需要

关于800G光模块耗损和寿命-

认为短距离的寿命普遍在3~4年(旭创的口径为5~6年) 年耗损率20~30%(就是每年都需要更换20~30%比例的光模块)

统计过所有坏的光模块 90%的问题发生于激光器-光芯片 也就是损坏主要由光芯片引起 目前光芯片的厂商主要是美国公司

微软方面接了非常多的送样 各家厂商 因为和英伟达深度合作 目前没有动作 只是观望 但是按照云服务器当年的路径来说 将来一定会考虑自建机房和生态

而谷歌和英伟达这边都表现得比较着急 很担心明年产能不够 龙头厂商产能如果特别的不足 会考虑四供五供 否则目前不会找太多厂商

Fi­n­i­s­ar砍单问题-产能不够 2个月交货期的时候 因为没有及时出货给谷歌 被传闻砍单 其实不是 只是谷歌着急要 Fi­n­i­s­ar产能还不够 原因在于光模块的设备都是日本和德国的 设备的交货周期是8个月 所以Fi­n­i­s­ar的产能之后会上来

目前5月份专家与各个厂商交流的2024年指引:(G、N、M吹风比较厉害)
亚热带季风

23-05-31 22:43

7
英伟达今晚小幅调整的话,加上今天算力已经出现疲态,鸿博明天端板预期,算力这波拉升后要进入调整阶段了。但同时今天代表应用端的部分游戏和传媒新高预示着明天应用端大概率承接算力出来的短线资金。另外曾经机构重仓的绩优股最近批量放量破位走势,明显有机构割肉出局。踏空AI的机构后续会不断追高买入AI。其实这一幕在新能源当时也出现过,消费当时也出现过,芯片也出现。都是行情走了一段之后,机构不断追高买入。
亚热带季风

23-05-31 16:46

7
越来越多的其他板块的龙头闪崩。后期越来越多的公私募基金会加入AI。这是大趋势。
亚热带季风

23-05-27 18:00

7
回到市场,就干那些前排就行了。CPO还是要注意下风险。毕竟逻辑有瑕疵的。为什么中旭周四和周五表现一般,还是有基本面原因的。200、400G下滑,现在这些营收还是大头,800G上量需要时间。即使800G上量。全年业绩增速也超不过40%。估值已经来到了高位。市值接近700W。中际旭创最乐观估计未来最大市值也就是1400-1500亿。这应该要出现在明年年中,甚至明年下半年。今年年底的极限市值不会超过1000亿。空间已经非常有限。其他CPO中报业绩肯定是下降的。这是毫无疑问的事情。总结就是CPO接下来一段时间没太多机会。其他CPO随着中报临近还有下跌风险。
亚热带季风

23-05-27 13:53

7
民生证券:《硅谷AI考察报告》——来自AI前沿的第一手信息
为了近距离了解硅谷AI前沿发展最新动向和第一手信息,近期,我们专程前往硅谷学考察,先后参观了微软、Go­o­g­le、英伟达、Me­ta等公司总部,与众多业内人士进行了深入交流,收获多多,感触颇深。通过交流过所了解到的很多关于算力和大模型的前沿认知,与国内目前资本市场的理解不尽相同,甚至天差地别,这些差异也许蕴含着重要的投资机遇。为此,特将此次学考察收获第一时间与各位分享。

此行中我们最大的感受是,在美国AI已经不是刚开始引发好奇与争议的新鲜事物,而是像水和电一样融入到社会生产、公司经营和百姓生活的各个方面。同时,AI技术进步的速度处于一个“寒武纪”的时代,几乎每一周甚至每一天,都有让人兴奋的新技术或者新产品横空出世并且迅速应用到实际场景中,因而美国的VC、PE可以说是几乎无孔不入,深入到AI各个方面去寻找投资机会。

以谷歌为代表的全球科技巨头普遍认为,本次AI革命是人类未有之大变局,它是人类进步的一个空前的拐点。我们曾经指出,这一次,AI将计算机历史上最大想象空间的互联网最高流量入口、公有云最大的市场、统一万物的操作系统合三为一,即使这样我们可能仍然低估了它的意义:这或将是人类发展史上最伟大的科技革命!

我们从底层技术路径与算力、行业应用以及大模型与垂直模型的发展趋势三个方面来介绍硅谷AI学考察之行的收获:

1、大模型的底层技术与算力需求

第一,GPT大模型的底层技术是谷歌的Tr­a­n­s­F­o­r­m­er,其核心的意义在于给定前文后推理出下一个最有可能的字符来进行输出,一些巨头的基础大模型差别在于解码单向结构还是编解码双向结构。Ch­a­t­G­PT可以支持对前文32000个字符分析再推理出下一个字,这已经是一个非常庞大的数量级,且Ch­a­t­G­PT只允许根据前文分析推理不允许加入后文来分析推理(de­c­o­d­er on­ly)。谷歌最先推出的大模型Ba­rd是前后文都可以用来分析推理(编解码双向结构),但后来改成与Ch­a­t­G­PT类似只能用前文推理的Pa­LM大模型,可能最终还是这种模式更接近于我们人类语言的方式。

第二,大模型本质上更像依赖AI基础设施的“炼丹”,是推理并不是认知;目前视频生成受制于对基础设施的高要求仍存在一定局限性。虽Ch­a­t­G­PT在QA、总结等领域表现令人震惊,但实际上还是推理而不是认知,包括生成图片其实本质上也是生成文本,但是在生成视频上AI推理难度很大,因为视频的每帧都是大量图片,需要非常强大的AI基础设施去支撑。形象地说,大模型训练就像炼丹,AI基础设施越好火力越旺,但是一开始都不知道大模型到底有没有用,有一定的运气的成分在里面。

第三,大模型后来者的追赶难度并没有大家想象那么大,中国大模型追赶海外也会比较快。Op­e­n­AI本身并不是技术绝对领先于其他科技巨头,核心在于专注于Tr­a­n­s­F­o­r­e­m­er往通用人工智能方向发展,而微软、谷歌、Me­ta都有很多赚钱的业务不太重视大模型。Op­e­n­AI做出来之后大公司发现AI有前途,自己资源更好肯定会加紧追赶。硅谷专家预测6个月到1年以后,全球大厂大模型水平基本看齐。中国大模型追赶海外也会比较快,中国本身是一个很好的市场,现在大模型所有的技术大家都了解,无非就是资源的集中堆积。Op­e­n­AI做这么好都“委身”给微软,本身就是因为训练太花钱。

第四,海外AI巨头算力储备A100芯片基本在50万片以上的量级,英伟达在把算力资源向云服务方向发展,同时也在布局自身大模型。目前海外巨头平均A100量级估计在50万片以上,H100可能每家一两百张,六七月份才能大规模上线。英伟达的实际优势是软硬件结合,它的硬件上面有一层框架te­n­s­or RT,英伟达有几百人的工程设计团队做框架,比如py­t­o­r­ch必须有Te­n­s­or RT才能跑,这个中间层软件一般硬件公司写不了。英伟达不止做硬件,做Te­n­s­or RT还要做下层的基础设施,未来英伟达有望形成一个云品牌,同时自己也在布局大模型,可能会对整个AI生态造成极大影响。

第五,推理芯片的市场远大于训练芯片,甚至也远大于训练市场加上云端推理市场的总和,中国在边缘AI算力市场空间非常大。边缘计算应用于物联网等小设备对制程要求不高,现在市场的格局分散,而推理芯片的市场远大于训练芯片,甚至也远大于训练市场加上云端推理市场的总和,中国可以借助自己的制造业优势,把物联网这一块的制程降低,然后专用一点的这种小体量低算力的AI推理芯片推向市场,这是巨大机会。其实终端设备的体量是极大的,世界上能够提供云服务的提供商,数据中心的量跟海量的终端设备的数量比,芯片需求也还是很小的,大概就是2/8的比例。

在大模型的底层技术与算力需求方面,我们认为:

1、算力需求没有天花板。当前大模型的主要算力需求来自于文字训练,未来从文字到图像再到视频,从训练到推理,从云端到边缘端,算力需求的持续高增长是确定性非常强的。

2、GPU芯片的市场格局或将发生变化,在微软等巨头的强力支持下,AMD较为薄弱的软件生态有望取得长足进步,AMD将对NV­I­D­IA形成强有力的挑战。

3、芯片是中美竞争的最大鸿沟。两国达到一个数量级的算力储备既是目前亟待解决的瓶颈,也是未来确定的投资机遇。尤其是在边缘侧推理算力,既是被低估的远超训练算力的市场,也给了中国展现制造业优势的机会。

2 、关于AI行业应用

第一,大模型适用于需要一定容错率的行业,Ch­a­t­G­PT开始做商业化付费使用pl­us其实并不赚钱,核心是为了挡掉一些乱用而把成本变得过高的用户。大模型应用在要求100%准确的行业目前难度比较大,更多的是比如客服咨询、艺术创作、会议记录、写文章、数据分析等。大模型的商业化在B端已经看到成果了,比如:微软的全家桶of­f­i­ce,减少制作时间、提升完成度、提升复购率;客服:给地产公司、医疗公司节省前端客服的成本。视频制作:一键生成vi­s­la.us只能生成de­mo视频等工具,就不需要找工作室了,节约人力成本。GPT4到现在只有一个半月,市场还在讨论如何应用,再过六个月能看到更多更清晰的落地。

第二,微软M365 产品主要在大规模交付、隐私和安全方面发力。微软现在主要的目标是怎样去大规模的交付,尤其是解决一些个性化的AI特征,另外就是安全与隐私方面的准备。M365是微软现在最核心的产品。对于企业整个工作流,整个的协作平台,整个工具、存储、安全都在M365的目录下面。Co­p­i­l­ot是对于现有的产品线的生产能力做大幅度的提升。M365有两套不同的运算,依托Az­u­re的数据中心做全球的扩张,M365内部也有自己的数据中心;M365是把op­e­n­AI嵌入产品,不是用公用的op­e­n­AI。M365在中国落地技术上有难度:1)运算资源;2)法规:数据透明度、敏感信息的管理。

我们认为,在美国,AI技术的应用已经非常普遍,例如客服咨询、艺术创作、会议记录、写文章、数据分析等众多行业。但需要注意的是,目前大模型的应用应该定位在“副驾驶员”,需要一定的容错率而非确定性的决策工作。此外,以微软为代表的海外大模型应用目前进入中国仍存在较大难度,这些难度不仅仅是在数据安全与合规政策的要求方面,大模型与算力资源的本地化部署方面也面临诸多挑战。

3 、大模型与垂直模型的发展趋势

第一,谷歌和微软的大模型大概率闭源,而Me­ta可能是最重要的开源“搅局者”。谷歌因为搜索会被大模型颠覆是没有退路的,再开源大模型就没有优势了,而且AI未来会成为重要赚钱工具,所以大概率闭源。微软则是完全依靠Op­e­n­AI,希望GPT赋能MS365 Co­p­i­l­ot等效率办公工具和Bi­ng搜索引擎,微软大概率也不会把AI开源。而 Me­ta最重要的业务是社交,AI可以作为聊天助手,Me­ta的思路是做出大模型然后开源,成为大模型里面的“搅局者”。比较来看,Me­ta的大模型1750亿参数,估计GPT4参数5000亿左右,Me­ta开源了超过650亿个参数的大模型,估计精确度比Ch­a­t­G­PT低20%左右。很多公司和学使用Me­ta的开源模型做微调,在模型参数很小的基础下效果和GPT等差不多。开源的意义在于可以发动全世界上百万工程师一起参与微调。

第二,大模型走向移动端是个趋势。未来大模型开源生态中大公司做大模型,小公司做微调,大模型还会被简化到在各个移动终端上,比如原来的32位浮点运算改成INT8等,提升运算速度。大语言模型在开源中会有一个很好的生态圈,大语言模型就像水、电一样,在一些细分领域让开源生态做。开源社区有些聪明的人可以把模型蒸馏的很小,比如把36位浮点运算改成INT4,可以把体积缩小十倍,小到可以在电脑和手机端装,未来可能会有很多有创意的应用开发出来。未来iOS或者安卓可能会内置大模型,以后所有的移动端应用跑一次给苹果一定费用。

第三,大模型继续发展中参数量的增加核心要考虑ROI。处于科研角度,当然参数越多越好,但是处于商业使用的角度,每多一个参数就会增加成本,包含收集成本、训练成本。Ch­a­t­G­PT 3.0用了1750B的参数量,而Gi­t­H­ub上有一个仿GBT的模型只用了70B的参数就达到了90%GPT的效果。从商业应用层面,需要找ROI最高的参数。

第四,大模型最终会通吃一些通过互联网即可获得数据的垂直行业,可能无法覆盖某些数据无法获得的垂直领域模型。现在谷歌正在做一件事让AI像人一样实时学互联网的内容,而数据在线下无法获得的领域,可能会出现线上的大模型和本地模型做交互的形式,但这个涉及难度比较大的耦合问题。

我们认为:

1、 中国可能是以Me­ta为代表的开源大模型的最大受益者。

2、我们对于国内大模型追赶全球领先水平的进度应该保持信心,在已经给定了技术路线方向与开源大模型基础上去追赶,实际上节省了从头开始的试错成本。尤其是对大模型通用性要求并不高的垂直行业龙头,借助开源大模型可以迅速搭建垂直大模型,加快垂直领域的应用落地。
3、大模型部署在边缘侧与移动端是一个必然的趋势,尤其在近期谷歌发布移动端大模型和Ch­a­t­G­PT在苹果手机上的App正式上线之后,这一趋势逐步被市场认知,大模型是非标准化的各类AI­oT终端等待已久的统一操作系统。
亚热带季风

23-05-30 16:57

6
中国信通院:编制纸鸢开放人工智能模型许可证 促大模型落地
亚热带季风

23-05-26 18:39

6
玩大模型就三类公司能成功,第一类,优势最大的就是国内几大互联网巨头。比如阿里,腾讯,抖音。有钱、有人,可惜管理层没眼光。目前落后太多。百度和360还不错,跟的比较紧。第二类,专业的AI公司和中型体量的科技公司,比如科大,商汤,昆仑。这类公司有点钱,但专业技术积累多。成了就能变成巨头。不成吃老本活的也不错。第三类,初创AI公司。创始人不是专业大咖就是创业成功人士。如果是专业大咖,那么找人不难,但要拉融资难。如果是创业成功人士,融资不难,找专业大咖难。除此以外还有一种科研院所,带着成品或者半成品直接出来创业。
亚热带季风

23-05-27 12:11

5
成长股投资里面有很重要的一点,就是创始人。企业是人创造的。创始人是怎么样的人很重要。寒武纪的老板是少年天才,AI技术大牛,少年班后中科院博士,主攻AI,他哥哥现在还在中科院搞研究,弟弟出来搞了公司。昆仑老板,清华未毕业就创业了。经营之道师从陈一舟。眼光非常独到,前瞻性非常强,第一批出海的互联网公司。以前混的比美团王兴、快手宿华、抖音张一鸣好多了。移动互联网时代,国内的红利没吃到。这人的项目出手就赚钱。2020年看到GTP3马上上马奇点智源,研发中文GTP。
刷新 首页上一页 下一页 末页
提交