返回顶部
首页 > 资讯 > 后端开发 > Python >【Python】pytorch,CUDA是否可用,查看显卡显存剩余容量
  • 116
分享到

【Python】pytorch,CUDA是否可用,查看显卡显存剩余容量

pythonpytorchCUDA显存 2023-09-30 11:09:10 116人浏览 独家记忆

Python 官方文档:入门教程 => 点击学习

摘要

CUDA可用,共有 1 个GPU设备可用。 当前使用的GPU设备索引:0 当前使用的GPU设备名称:NVIDIA T1000 GPU显存总量:4.00 GB 已使用的GPU显存:0.00 GB 剩余G

CUDA可用,共有 1 个GPU设备可用。
当前使用的GPU设备索引:0
当前使用的GPU设备名称:NVIDIA T1000
GPU显存总量:4.00 GB
已使用的GPU显存:0.00 GB
剩余GPU显存:4.00 GB
PyTorch版本:1.10.1+cu102

import torch# 检查CUDA是否可用cuda_available = torch.cuda.is_available()if cuda_available:    # 获取GPU设备数量    num_gpu = torch.cuda.device_count()    # 获取当前使用的GPU索引    current_gpu_index = torch.cuda.current_device()    # 获取当前GPU的名称    current_gpu_name = torch.cuda.get_device_name(current_gpu_index)    # 获取GPU显存的总量和已使用量    total_memory = torch.cuda.get_device_properties(current_gpu_index).total_memory / (1024 ** 3)  # 显存总量(GB)    used_memory = torch.cuda.memory_allocated(current_gpu_index) / (1024 ** 3)  # 已使用显存(GB)    free_memory = total_memory - used_memory  # 剩余显存(GB)    print(f"CUDA可用,共有 {num_gpu} 个GPU设备可用。")    print(f"当前使用的GPU设备索引:{current_gpu_index}")    print(f"当前使用的GPU设备名称:{current_gpu_name}")    print(f"GPU显存总量:{total_memory:.2f} GB")    print(f"已使用的GPU显存:{used_memory:.2f} GB")    print(f"剩余GPU显存:{free_memory:.2f} GB")else:    print("CUDA不可用。")# 检查PyTorch版本print(f"PyTorch版本:{torch.__version__}")

windows先装显卡驱动,再装CUDA10.2,最后装了pytorch。

pip install torch1.10.1+cu102 torchvision0.13.1+cu102 torchaudio==0.12.1 --extra-index-url https://download.pytorch.org/whl/cu102

在这里插入图片描述

来源地址:https://blog.csdn.net/x1131230123/article/details/132690376

--结束END--

本文标题: 【Python】pytorch,CUDA是否可用,查看显卡显存剩余容量

本文链接: https://lsjlt.com/news/421847.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

猜你喜欢
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作