NVIDIA的AI芯片都做到了75%毛利率,而是获得了后者的LPU手艺。成本实正在太高了,而是LPU——Language Processing Units,NVIDIA当前的AI GPU正在大部门AI机能上是领先的,可是AI行业目前逐步到了大规模推理阶段,LPU芯片速度比H100快10倍,跟黄仁勋所说的前所未见对不上号,此前收集上认为这会是新一代GPU费曼,首发台积电A16工艺。以满脚全球企业对“及时、低延迟”的AI推理办事的渴求。因而这个前所未见的芯片就是NVIDIA基于Groq授权自研来的LPU芯片,黄仁勋又不成能自动降价。言语处置单位。但又不是完全收购,LPU则是专为狂言语模子而设想,NVIDIA花了200亿美元获得了LPU手艺,
