在pytorch0.3的时候,设备抽象还不具体,CPU设备要.cpu(), CUDA设备要.cuda(),切换起来就不太方便
到了pytorch 0.4和1.0版本以后,pytorch对所有的设备就都有了一个高层的抽象,不需要两个不同的函数,直接用一个to(device)就行了
不管是cuda0还是cuda1还是CPU,GPU,都抽象成一个设备
如果有8张显卡那你的cuda可以0-7编号
pytorch—GPU
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章
无需搭建环境,零门槛带你体验Open-Sora文生视频应用
原創
2024-06-06 10:56:52
什么是LLM大模型训练,详解Transformer结构模型
原創
2024-06-04 11:09:34
GLM国产大模型训练加速:高效性能与成本优化的实践
原創
2024-05-07 23:30:09
基于香橙派AIpro将开源框架模型转换为升腾模型
原創
2024-04-12 10:32:18
大模型分布式训练并行技术
原創
2024-04-10 23:29:41
Ascend C 自定义PRelu算子
原創
2024-04-08 10:33:15
TorchAcc:基于 TorchXLA 的分布式训练框架
原創
2024-04-01 23:39:48
百亿大规模图在广告场景的应用
原創
2024-03-29 21:16:38
YOLOX 训练自定义数据 - VOC2007数据集
原創
2024-03-22 22:22:28
挖掘M2 Pro 32G UMA内存潜力:在Mac上本地运行清华大模型ChatGLM2-6B
原創
2024-03-21 00:28:35
阿里云容器服务助力万兴科技 AIGC 应用加速
原創
2023-12-28 01:18:57
RK35XX NPU开发指南
原創
2023-10-28 13:42:10
便捷、快速、稳定、高性能!以 GPU 实例演示 Alibaba Cloud Linux 3 对 AI 生态的支持
原創
2023-09-09 00:19:13
云原生 AI 工程化实践之 FasterTransformer 加速 LLM 推理
原創
2023-08-15 00:37:15