还号称能将ChatGPT、DALL·E等大模型的训练时间,从几个月缩短到几周,节省百万美元电费。
此前,英特尔的服务器GPU Ponte Vecchio拥有的晶体管数量是1000亿+,而英伟达新核弹H100,则集成了800亿个晶体管。
不过,熟悉AMD的胖友们都知道,APU简单来说就是CPU和GPU封装在了一起。从这个角度上来说,远超竞争对手的晶体管数量似乎也是情理之中(手动狗头)。
基于3D堆迭技术,在4块6nm工艺小芯片之上,堆迭了9块5nm的计算芯片(CPU+GPU)。
根据AMD公开的信息,CPU方面采用的是Zen 4架构,包含24核。GPU则采用了AMD的CDNA 3架构。
由于Zen 4架构通常是8核设计,外界普遍猜测,9块计算芯片中有3块是CPU,6块是GPU。
苏妈表示,相比于MI250X,MI300每瓦AI性能提升了5倍,AI训练性能整体提高了8倍。
而据Tom‘s Hardwre消息,AMD还透露,MI300能将ChatGPT、DALL·E等大模型的训练时间,从几个月缩短到几周。
Instinct MI300预计将在2023年下半年交付。届时,这颗芯片还将被部署到两台新的百亿亿次级别(ExaFLOP)超级计算机上。
同样是在今年的CES上,AMD还直接对标苹果M系列芯片,推出了“世界最快的超薄处理器”——锐龙7040系列。
原标题:《「AMD史上最大芯片」炸场CES:1460亿晶体管,可大幅压缩ChatGPT训练时间》
编辑:admin 作者:admin