随着chatgpt的火爆,提供AI算力支持的GPU也成为股市的焦点,生产GPU的公司
英伟达 一举突破万亿美元市值,那为什么
人工智能AI都是用GPU芯片,而不用我们以前熟悉的CPU芯片呢?
这是因为人工智能系统需要处理大量的数据和计算,就像我们人脑一样。我们的大脑有100亿个神经元,可以同时高速计算和处理信息。人工智能系统也需要强大的计算能力来模拟人脑。
以前,人工智能系统主要使用中央处理器(CPU)来运行程序和计算。CPU就像一个超级厨师,可以按顺序处理各种任务,但速度比较慢。随着人工智能技术的发展,CPU已经跟不上海量计算的需求了。
后来,人工智能研究者发现图形处理器(GPU)更适合用于人工智能。GPU的设计初衷是用于处理图像和视频,它有大量的小核心,可以同时运行多个程序,就像一个超级厨房里有许多厨师同时工作。这种架构让GPU可以进行海量的矩阵运算和数据处理,速度比CPU快几十倍,更适合人工智能。
人工智能系统运行时需要处理的数字数据可以看成是一个大矩阵。GPU擅长对矩阵进行运算,可以同时使用多核心来计算矩阵里的每个数字,速度非常快。相比之下,CPU只有几个核心,更适合顺序执行程序里的步骤,矩阵运算会比较慢。
所以,人工智能系统选择GPU而不是CPU,就像一个超级厨房选择大量的厨师(GPU)而不是一个厨师(CPU)。只有GPU才有足够的计算能力来满足人工智能复杂算法运行时所需的千亿次计算。人工智能时代,GPU已经成为机器大脑的重要组成部分。