下载
登录/ 注册
主页
论坛
视频
热股
可转债
下载
下载

ChatGPT需要多少算力?

23-02-14 22:07 2183次浏览
研报直通车
+关注
博主要求身份验证
登录用户ID:
为什么说有搜索引擎技术的公司在这一波“ChatGPT”浪潮中更具优势?

周鸿祎:搜索引擎爬虫所有的网页,人类真正积累的知识库就存在着所有这些网页里边。搜索引擎里面有巨大的用户流量,有用户每天的搜索词,要拿这个词来对它进行修正和不断的持续的训练,这个飞轮才能不断的越转越快。做搜索引擎的公司,本身有很多的服务器集群,这个东西最终还是要拼算力。

ChatGPT:大模型下计算量高速扩张,算力需求陡增。

1)以前,人工智能大多是针对特定场景应用进行训练,难以迁移,属于小模型范畴;而ChatGPT背后的支撑为人工智能大模型,可大幅扩充适用场景、提升研发效率。OpenAI GPT3自发布以来,在翻译、问答、内容生成等领域均有不俗表现,也吸引了海内外科技巨头纷纷推出超大模型、并持续加大投入。

2)在大模型的框架下,每一代GPT模型的参数量均高速扩张,GPT-3参数量已达到1750亿个。我们认为,ChatGPT的快速渗透、落地应用,也将大幅提振算力需求。访问算力:初始投入近十亿美元,单日电费数万美元。

1)根据Similarweb的数据,2023年1月,平均每天约有1300万独立访客使用ChatGPT。访问阶段算力每天发生,其成本成为衡量ChatGPT最主要投入的关键指标。

2)我们以英伟达 A100芯片、DGX A100服务器、现阶段每日2500万访问量等假设为基础,估算得出:在初始算力投入上,为满足ChatGPT当前千万级用户的咨询量,投入成本约为8亿美元,对应约4000台服务器;在单日运行电费上,参考美国平均0.08美元/kwh工业电价,每日电费约为5万美元,成本相对高昂。前期训练:公有云下,单次训练约为百万至千万美元。

1)模型的前期训练成本也是讨论的重要议题。基于参数数量和token数量估算,GPT-3训练一次的成本约为140万美元;对于一些更大的LLM模型(如拥有2800亿参数的Gopher和拥有5400亿参数的PaLM),采用同样的计算公式,可得出,训练成本介于200万美元至1200万美元之间。

2)我们认为,在公有云上,对于全球科技大企业而言,百万至千万美元级别的训练成本并不便宜,但尚在可接受范围内。投资标的:1)服务器:浪潮信息紫光股份中科曙光 等;2)芯片:景嘉微寒武纪海光信息 等;

3)IDC:宝信软件万国数据数据港世纪华通 等;4)光模块等。风险提示:AI技术迭代不及预期风险、经济下行超预期风险、行业竞争加剧风险

随手分享给身边需要的朋友吧!最好的观点、最前沿的资讯值得分享!

风险提示/免责声明:以上信息来源于公开资料,仅在分享研报君的投资逻辑,非荐票,不构成买卖指导意见。股市有风险,入市需谨慎。
打开淘股吧APP
13
评论(2)
收藏
展开
热门 最新
091112镜子

23-02-14 22:24

0
没芯片你能够玩出毛线啊。
刷新 首页上一页 下一页末页
提交