共计 2601 个字符,预计需要花费 7 分钟才能阅读完成。
GraphKeys
tf.GraphKeys
包含所有graph collection中的标准集合名,有点像Python里的build-in fuction。
首先要了解graph collection是什么。
graph collection
在官方教程——图和会话中,介绍什么是tf.Graph是这么说的:
tf.Graph
包含两类相关信息:
- 图结构。图的节点和边缘,指明了各个指令组合在一起的方式,但不规定它们的使用方式。图结构与汇编代码类似:检查图结构可以传达一些有用的信息,但它不包含源代码传达的的所有有用上下文。
- **图集合。**TensorFlow提供了一种通用机制,以便在
tf.Graph
中存储元数据集合。tf.add_to_collection
函数允许您将对象列表与一个键相关联(其中tf.GraphKeys
定义了部分标准键),tf.get_collection
则允许您查询与键关联的所有对象。TensorFlow库的许多组成部分会使用它:例如,当您创建tf.Variable
时,系统会默认将其添加到表示“全局变量(tf.global_variables
)”和“可训练变量tf.trainable_variables
)”的集合中。当您后续创建tf.train.Saver
或tf.train.Optimizer
时,这些集合中的变量将用作默认参数。
也就是说,在创建图的过程中,TensorFlow的Python底层会自动用一些collection对op进行归类,方便之后的调用。这部分collection的名字被称为tf.GraphKeys
,可以用来获取不同类型的op。当然,我们也可以自定义collection来收集op。
常见GraphKeys
- GLOBAL_VARIABLES: 该collection默认加入所有的
Variable
对象,并且在分布式环境中共享。一般来说,TRAINABLE_VARIABLES
包含在MODEL_VARIABLES
中,MODEL_VARIABLES
包含在GLOBAL_VARIABLES
中。 - LOCAL_VARIABLES: 与
GLOBAL_VARIABLES
不同的是,它只包含本机器上的Variable
,即不能在分布式环境中共享。 - MODEL_VARIABLES: 顾名思义,模型中的变量,在构建模型中,所有用于正向传递的
Variable
都将添加到这里。 - TRAINALBEL_VARIABLES: 所有用于反向传递的
Variable
,即可训练(可以被optimizer优化,进行参数更新)的变量。 - SUMMARIES: 跟Tensorboard相关,这里的
Variable
都由tf.summary
建立并将用于可视化。 - QUEUE_RUNNERS: 队列信息,在tf优化中会遇到,正常情况下io速度还是相较于gpu/cpu慢很多 ,所以为了提升效率异步的方式去处理数据读写和运算 the
QueueRunner
objects that are used to produce input for a computation. - MOVING_AVERAGE_VARIABLES: the subset of
Variable
objects that will also keep moving averages. - REGULARIZATION_LOSSES: 正则化loss regularization losses collected during graph construction.
下面通过一些例子来说明一下这个是如何使用的。
# -*- coding: utf-8 -*-
# @Time : 2019-04-21 17:59
# @Author : zhusimaji
# @File : adadfafaw.py
# @Software: PyCharm
import tensorflow as tf
sess=tf.Session()
a=tf.get_variable("a",[3,3,32,64],initializer=tf.random_normal_initializer())
b=tf.get_variable("b",[64],initializer=tf.random_normal_initializer())
#collections=None等价于 collection=[tf.GraphKeys.GLOBAL_VARIABLES]
print("I am a:", a)
print("I am b:", b)
print("I am gv:", tf.GraphKeys.GLOBAL_VARIABLES)
gv= tf.get_collection(tf.GraphKeys.GLOBAL_VARIABLES)
#tf.get_collection(collection_name)返回某个collection的列表
print("I am gv:", gv)
for var in gv:
print("Iam var:",var)
print(var is a)
print(var.get_shape())
print("----------------")
输出结果如下所示:
I am a: <tf.Variable 'a:0' shape=(3, 3, 32, 64) dtype=float32_ref>
I am b: <tf.Variable 'b:0' shape=(64,) dtype=float32_ref>
I am gv: variables
I am gv: [<tf.Variable 'a:0' shape=(3, 3, 32, 64) dtype=float32_ref>, <tf.Variable 'b:0' shape=(64,) dtype=float32_ref>]
Iam var: <tf.Variable 'a:0' shape=(3, 3, 32, 64) dtype=float32_ref>
True
(3, 3, 32, 64)
----------------
Iam var: <tf.Variable 'b:0' shape=(64,) dtype=float32_ref>
False
(64,)
----------------
由上面的定义可以看到这些变量的定义相当于一个集合,只要你在计算图中定义了相关的变量,这些集合默认就会记录你当前所有定义的变量,后续你也可以通过这种方式去获取当前所有变量,甚者你可以在summary的时候全部记录下来使用。
正文完
请博主喝杯咖啡吧!