本文概述
- 设备放置日志
- 手动设备放置
- 优化TensorFlow GPU内存
- 多GPU系统中的单个GPU
- 在TensorFlow中使用多个GPU
例如:
- 如果我们有一个CPU, 它的地址可能是” / cpu:0″ 。
- TensorFlow GPU字符串的索引从零开始。
- 同样, 第二个GPU是” / device:GPU:1″ 。
文章图片
设备放置日志 我们可以通过创建一个会话来查找哪些设备处理特定操作, 该会话中预先设置了log_device_placementconfiguration选项。
# Graph creation.x = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[2, 3], name='x')y = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[3, 2], name='y')z = tf.matmul(x, y)sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))# Running the operation.print(sess.run(z))
TensorFlow GPU设备放置日志的输出如下所示:
/log:localhost/replica:0/task:0/device:GPU:0 ->
device: 0, name: Tesla K40c, pci busid: 0000:05:00.0b: /job:localhost/replica:0/task:0/device:GPU:0a: /job:localhost/replica:0/task:0/device:GPU:0MatMul: /job:localhost/replica:0/task:0/device:GPU:0[[ 22.28.][ 49.64.]]
手动设备放置 有时, 我们可能想确定我们的操作应该在哪个设备上运行, 而我们可以通过使用tf.device创建一个上下文来实现这一点, 在该上下文中我们分配特定的设备, 例如。应该执行计算的CPU或GPU, 如下所示:
# Graph Creation.with tf.device('/cpu:0'):x = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[2, 3], name='x')y = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[3, 2], name='y')z = tf.matmul(x, y)sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))# Running the operation.print(sess.run(z))
上面的TensorFlow GPU代码将常量a和b分配给cpu:o。在代码的第二部分中, 由于没有明确声明要执行该任务的设备, 因此默认情况下会选择GPU(如果有), 并在设备之间复制多维数组。
Device mapping:/job:localhost/replica:0/task:0/device:GPU:0 ->
device: 0, name: Tesla K40c, pci busid: 0000:05:00.0y: /job:localhost/replica:0/task:0/cpu:0x: /job:localhost/replica:0/task:0/cpu:0MatMul: /job:localhost/replica:0/task:0/device:GPU:0[[ 22. 28.][ 49. 64.]]
优化TensorFlow GPU内存 通过映射几乎所有处理器可见的TensorFlow GPU内存来完成内存碎片, 以优化内存资源, 从而节省了大量潜在资源。 TensorFlow GPU提供了两个配置选项以在处理器需要和何时保存内存时控制内存的分配, 这些TensorFlow GPU优化如下所述:
ConfigProto用于此目的:
config = tf.ConfigProto()config.gpu_options.allow_growth = Truesession = tf.Session(config=config, ...)
per_process_gpu_memory_fraction是第二个选择, 它决定应为正在使用的每个GPU分配总内存的段。下面给出的示例将在tensorflow中用于分配40%的内存:
config = tf.ConfigProto()config.gpu_options.per_process_gpu_memory_fraction = 0.4session = tf.Session(config=config, ...)
仅在我们已经指定计算并确保在处理过程中不会更改的情况下才使用它。
多GPU系统中的单个GPU 在多TensorFlow GPU系统中, 默认情况下已选择身份最低的设备, 用户不需要它。
# Creates a graph.with tf.device('/device:GPU:2'):x = tf.constant([1, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[2, 3], name='x')y = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[3, 2], name='y')z= tf.matmul(x, y)# Creates a session with log_device_placement set to True.sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))# Runs the op.print(sess.run(c=z))
当用户指定的TensorFlow GPU不存在时, 将获得InvalidArgumentError, 如下所示:
InvalidArgumentError: Invalid argument: Cannot assign a device to node 'y':Could not satisfy explicit device specification '/device:GPU:2'[[Node: b = Const[dtype=DT_FLOAT, value=http://www.srcmini.com/Tensor<
type: float shape: [3, 2]values: 1 2 3...>
, _device="/device:GPU:2"]()]]
如果我们要指定默认值
在TensorFlow中使用多个GPU 我们已经知道TensorFlow中的塔架以及可以分配给GPU的每个塔架, 从而为使用TensorFlow多个GPU制作了多塔架结构模型。
z= []for d in ['/device:GPU:2', '/device:GPU:3']:with tf.device(d):x = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[2, 3])y = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[3, 2])z.append(tf.matmul(x, y))with tf.device('/cpu:0'):sum = tf.add_n(z)sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))# Running the operations.print(sess.run(sum))
TensorFlow GPU的输出如下:
/job:localhost/replica:0/task:0/device:GPU:0 ->
device: 0, name: Tesla K20m, pci busid: 0000:02:00.0/job:localhost/replica:0/task:0/device:GPU:1 ->
device: 1, name: Tesla K20m, pci busid: 0000:03:00.0/job:localhost/replica:0/task:0/device:GPU:2 ->
device: 2, name: Tesla K20m, pci busid: 0000:83:00.0/job:localhost/replica:0/task:0/device:GPU:3 ->
device: 3, name: Tesla K20m, pci busid: 0000:84:00.0Const_3: /job:localhost/replica:0/task:0/device:GPU:3Const_2: /job:localhost/replica:0/task:0/device:GPU:3MatMul_1: /job:localhost/replica:0/task:0/device:GPU:3Const_1: /job:localhost/replica:0/task:0/device:GPU:2Const: 2/job:localhost/replica:0/task:0/device:GPU:2MatMul: /job:localhost/replica:0/task:0/device:GPU:2AddN: /job:localhost/replica:0/task:0/cpu:0[[ 44. 56.][ 98.128.]]
【TensorFlow单GPU和多GPU实例对比分析】我们可以使用简单的数据集(例如CIFAR10)测试此多个GPU模型, 以进行实验并了解使用GPU的情况。
推荐阅读
- XML教程入门介绍
- TensorFlow安全性( TensorFlow中的5个主要漏洞)
- TensorFlow API组成和用法分析
- TensorFlow调试详细步骤实例解释
- TensorFlow生成图实例详解
- TensorFlow音频识别项目实例分析
- TensorFlow对象检测实例分析详解
- 样式转换的工作原理详细实例图解
- qq宠物怎样删除,本文教您电脑如何删除qq宠物