这是史上最快GPU!我们测了四张H100!价值120万元!

在常用的开源小大模型Bloom 7B或者Llama 7B,推理都可以直接吃满32GB显存的V100,40GB的A100都起码得四张才能训练(完整版80GB的A100,价格也几乎翻倍了),大模型是真的很吃资源

深度学习 2024-03-09 22:43 828