返回顶部
首页 > 资讯 > 后端开发 > Python >【解决】pytorch单机多卡问题:ERROR: torch.distributed.elastic.multiprocessing.api:failed
  • 433
分享到

【解决】pytorch单机多卡问题:ERROR: torch.distributed.elastic.multiprocessing.api:failed

pytorch深度学习python 2023-09-09 22:09:18 433人浏览 薄情痞子

Python 官方文档:入门教程 => 点击学习

摘要

最近在使用单机多卡进行分布式(DDP)训练时遇到一个错误:ERROR: torch.distributed.elastic.multiprocessing.api:failed。 而实际报错的内容是:

最近在使用单机多卡进行分布式(DDP)训练时遇到一个错误:ERROR: torch.distributed.elastic.multiprocessing.api:failed。
而实际报错的内容是:ValueError: sampler option is mutually exclusive with shuffle.
报错的详细内容如下截图所士:
在这里插入图片描述
出现这种错误的原因是,在分布式训练时使用了sampler,并且dataloader时参数shuffle设置成True。由于sampler在分配数据给gpu时已经自动打乱了数据,所以dataloader无需重复打乱数据,二者是相冲的。
因此,使用分布式训练时,会使用sampler,在dataloader时参数shuffle默认False即可。

来源地址:https://blog.csdn.net/Caesar6666/article/details/126893353

--结束END--

本文标题: 【解决】pytorch单机多卡问题:ERROR: torch.distributed.elastic.multiprocessing.api:failed

本文链接: https://lsjlt.com/news/401934.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

猜你喜欢
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作