扫二维码与项目经理沟通
我们在微信上24小时期待你的声音
解答本文疑问/技术咨询/运营咨询/技术建议/互联网交流
这篇文章给大家分享的是有关TensorFlow如何获取加载模型中的全部张量名的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。
成都创新互联专注于企业营销型网站建设、网站重做改版、松桃网站定制设计、自适应品牌网站建设、成都h5网站建设、购物商城网站建设、集团公司官网建设、成都外贸网站建设公司、高端网站制作、响应式网页设计等建站业务,价格优惠性价比高,为松桃等各大城市提供网站开发制作服务。核心代码如下:
[tensor.name for tensor in tf.get_default_graph().as_graph_def().node]
实例代码:(加载了Inceptino_v3的模型,并获取该模型所有节点的名称)
# -*- coding: utf-8 -*- import tensorflow as tf import os model_dir = 'C:/Inception_v3' model_name = 'output_graph.pb' # 读取并创建一个图graph来存放训练好的 Inception_v3模型(函数) def create_graph(): with tf.gfile.FastGFile(os.path.join( model_dir, model_name), 'rb') as f: # 使用tf.GraphDef()定义一个空的Graph graph_def = tf.GraphDef() graph_def.ParseFromString(f.read()) # Imports the graph from graph_def into the current default Graph. tf.import_graph_def(graph_def, name='') # 创建graph create_graph() tensor_name_list = [tensor.name for tensor in tf.get_default_graph().as_graph_def().node] for tensor_name in tensor_name_list: print(tensor_name,'\n')
输出结果:
mixed_8/tower/conv_1/batchnorm/moving_variance mixed_8/tower/conv_1/batchnorm r_1/mixed/conv_1/batchnorm . . . mixed_10/tower_1/mixed/conv_1/CheckNumerics mixed_10/tower_1/mixed/conv_1/control_dependency mixed_10/tower_1/mixed/conv_1 pool_3 pool_3/_reshape/shape pool_3/_reshape input/BottleneckInputPlaceholder . . . . final_training_ops/weights/final_weights final_training_ops/weights/final_weights/read final_training_ops/biases/final_biases final_training_ops/biases/final_biases/read final_training_ops/Wx_plus_b/MatMul final_training_ops/Wx_plus_b/add final_result
由于结果太长了,就省略了一些。
如果不想这样print输出也可以将其写入txt 查看。
写入txt代码如下:
tensor_name_list = [tensor.name for tensor in tf.get_default_graph().as_graph_def().node] txt_path = './txt/节点名称' full_path = txt_path+ '.txt' for tensor_name in tensor_name_list: name = tensor_name + '\n' file = open(full_path,'a+') file.write(name) file.close()
感谢各位的阅读!关于“TensorFlow如何获取加载模型中的全部张量名”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识,如果觉得文章不错,可以把它分享出去让更多的人看到吧!
我们在微信上24小时期待你的声音
解答本文疑问/技术咨询/运营咨询/技术建议/互联网交流