AI时代的给力推手:GPU架构简介--《大模型时代的基础架构》第3章
[复制链接]
本帖最后由 superleon123 于 2024-9-19 10:39 编辑
:
英伟达的GPU新品发布得很快,观看老黄在发布会上手捧着的最新显卡时,俺心里可痒了。要是有财力,俺也要喊着:给我来十块八块显卡!然后,俺自己组装服务器:)。
英伟达显卡的型号有很多,如用于服务器的H100、A100等,还有个人用的40系列显卡。前些天,黑神话悟空的游戏在全世界火起来,促进了一波电脑硬件的升级潮,显卡更是炙手可热,一卡难求,价格也纷纷上涨。
GPU的组成架构其实不算复杂,由GPU芯片、内存、附属电路等构成。但是设计、生产芯片,这个需要有技术以及生产设备才能实现。目前的GPU主要采用PCI-E总线。英伟达显卡,还有个独门绝活(NVLink)--支持多显卡相连,这是英伟达领先竞争对手的优势之一(也就是说想要追上英伟达,得把显卡如何并联工作搞定)。
GPU包括通用计算单元(CUDA Core)和专用计算单元(Tensor Core)。英伟达的每一代的架构命名都来源于一位著名科学家的姓名,如Pascal, Turing, Volta,Ampere, Hopper。Hopper在排查计算机故障时,发现了故障是由于计算机内部的飞虫尸体导致的,于是以后计算机软硬件设计中的缺陷就称为“bug”了。新架构的GPU相比以前的架构,实质上是在增加计算单元的同时,优化计算单元并行工作的效率。要搭建人工智能/机器学习的计算系统,除了GPU,还需要CPU、内存、外置存储、通信网络等一系列周边部件。后续,我们再来研究GPU服务器及其集群网络的搭建。
|