[Python] TensorFlow如何指定GPU训练模型

1834 0
Honkers 2022-11-6 09:20:32 | 显示全部楼层 |阅读模式
目录

    如何指定GPU训练模型举个例子如果要指定多块 GPU


如何指定GPU训练模型

Linux 查看当前服务器 GPU 的占用情况可以使用 nvidia-smi 命令,如下所示:
nvidia-smi


关于 nvidia-smi 命令输出的详细解释,可参考笔者的另外一篇文章:GPU状态监测 nvidia-smi 命令详解。
在此不再赘述,本文主要分享一下在用 TensorFlow 训练模型时如何指定 GPU。
在用 TensorFlow 训练深度学习模型的时候,若无手动指定,默认是选用第0块来训练,而且其他几块 GPU 也会被显示占用。
有时候,我们更希望可以自己指定一块或者多块 GPU 来训练模型,接下来介绍一种常用的也是比较有效的方法:

举个例子

如果要指定只用第0块 GPU 训练,可以在 python 代码中如下指定:
  1. import os
  2. os.environ['CUDA_VISIBLE_DEVICES']='0'
复制代码
运行 python 程序后,可发现就只有第0块 GPU 显示被占用,如上图所示。

如果要指定多块 GPU

可以如下:
  1. os.environ['CUDA_VISIBLE_DEVICES']='1,2'
复制代码
当然,上述这种方法不太方便,每次运行若换用 GPU 训练都需要改代码,可以在运行 python 程序的时候进行指定:
  1. CUDA_VISIBLE_DEVICES=0 python textCnn.py   
复制代码
以上为个人经验,希望能给大家一个参考,也希望大家多多支持中国红客联盟。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Honkers

荣誉红客

关注
  • 4008
    主题
  • 36
    粉丝
  • 0
    关注
这家伙很懒,什么都没留下!

中国红客联盟公众号

联系站长QQ:5520533

admin@chnhonker.com
Copyright © 2001-2025 Discuz Team. Powered by Discuz! X3.5 ( 粤ICP备13060014号 )|天天打卡 本站已运行