标签:ons lin gpu prot 进入 工具 手动 资料 服务
因为实验室工位上的电脑是Mac 只能重新熟悉一波了
virtualenv xxx_py
virtualenv -p python3 xxx_py
source xxx_py/bin/activate
deactivate
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple some-package
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple
gpustat
os.environ[‘CUDA_VISIBLE_DEVICES‘] = ‘0‘ os.environ[‘CUDA_VISIBLE_DEVICES‘] = ‘0,1‘
CUDA_VISIBLE_DEVICES=1 Only device 1 will be seen CUDA_VISIBLE_DEVICES=0,1 Devices 0 and 1 will be visible CUDA_VISIBLE_DEVICES=”0,1” Same as above, quotation marks are optional CUDA_VISIBLE_DEVICES=0,2,3 Devices 0, 2, 3 will be visible; device 1 is masked
CUDA_VISIBLE_DEVICES=0 python3 main.py
config = tf.ConfigProto()
config.gpu_options.allow_growth = True
session = tf.Session(config=config)
gpu_options=tf.GPUOptions(per_process_gpu_memory_fraction=0.4)
config=tf.ConfigProto(gpu_options=gpu_options)
session = tf.Session(config=config)
TensorFlow代码
目前没有考虑在代码各个部分手动分配时GPU还是CPU
所以用 with tf.device(self.device):
把所有网络结构包了起来
然后用 config = tf.ConfigProto(gpu_options=gpu_options,allow_soft_placement=True)
让TensorFlow自己去分配了
参考资料:
tensorflow设置gpu及gpu显存使用
TensorFlow 使用 GPU
tensorflow GPU小测试
关于使用实验室服务器的GPU以及跑上TensorFlow代码
标签:ons lin gpu prot 进入 工具 手动 资料 服务
原文地址:https://www.cnblogs.com/cookielbsc/p/9780682.html