博客
关于我
Tensorboard使用入门,用于可视化loss,accuracy等数据
阅读量:237 次
发布时间:2019-03-01

本文共 2530 字,大约阅读时间需要 8 分钟。

import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_data# 载入数据集mnist = input_data.read_data_sets("MNIST_data", one_hot=True)# 批次的大小batch_size = 50# 计算一共有多少批次n_batch = mnist.train.num_examples // batch_size# 参数概要def variable_summary(var):    with tf.name_scope("summaries"):        mean = tf.reduce_mean(var)        tf.summary.scalar("mean", mean)   # 平均值    with tf.name_scope("stddev"):        stddev = tf.sqrt(tf.reduce_mean(var-mean))    tf.summary.scalar("stddev", stddev)   # 标准差    tf.summary.scalar("max", tf.reduce_max(var))  # 最大值    tf.summary.scalar("min", tf.reduce_min(var))  # 最小值    tf.summary.histogram("histogram", var)   # 直方图# 输入命名空间with tf.name_scope("input"):    # 定义两个placeholder    x = tf.placeholder(tf.float32, [None, 28 * 28])    y = tf.placeholder(tf.float32, [None, 10])with tf.name_scope("layer"):    # 创建一个简单的神经网络    with tf.name_scope("weight"):        W = tf.Variable(tf.zeros([784, 10]))        variable_summary(W)    with tf.name_scope("biases"):        b = tf.Variable(tf.zeros([10]))        variable_summary(b)    with tf.name_scope("wx_plus_b"):        wx_plus_b = tf.matmul(x, W) + b    with tf.name_scope("softmax"):        prediction = tf.nn.softmax(wx_plus_b)with tf.name_scope("loss"):    # 二次代价函数    loss = tf.reduce_mean(tf.square(y - prediction))    tf.summary.scalar("loss",loss)with tf.name_scope("train"):    # 使用梯度下降法    train_step = tf.train.GradientDescentOptimizer(0.2).minimize(loss)# 初始化变量init = tf.global_variables_initializer()with tf.name_scope("accuracy"):    with tf.name_scope("correct_prediction"):        # 计算正确率,下面是一个布尔型列表        correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(prediction, 1))    with tf.name_scope("accuracy"):        # 求准确率,首先把布尔类型转化为浮点类型        accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))        tf.summary.scalar("accuracy", accuracy)# 合并所有的summarymerged = tf.summary.merge_all()with tf.Session() as sess:    sess.run(init)    # 保存Tensorboard文件    writer = tf.summary.FileWriter("logs/", sess.graph)    for epoch in range(51):        for batch in range(n_batch):            # 使用函数获取一个批次图片            batch_xs, batch_ys = mnist.train.next_batch(batch_size)            summary,_ = sess.run([merged,train_step], feed_dict={x: batch_xs, y: batch_ys})        writer.add_summary(summary, epoch)        acc = sess.run(accuracy, feed_dict={x: mnist.test.images, y: mnist.test.labels})        print("Iter " + str(epoch) + ",Testing Accuracy " + str(acc))
通过在图中定义scalar的方法,保存标量数据,用通过tensorboard可视化出来

转载地址:http://pihv.baihongyu.com/

你可能感兴趣的文章
Nature和Science同时报道,新疆出土四千年前遗骸完成DNA测序,证实并非移民而是土著...
查看>>
Nature封面:只低一毫米,时间也会变慢!叶军团队首次在毫米尺度验证广义相对论...
查看>>
Nat、端口映射、内网穿透有什么区别?
查看>>
Nat、端口映射、内网穿透有什么区别?
查看>>
nat打洞原理和实现
查看>>
NAT技术
查看>>
NAT模式/路由模式/全路由模式 (转)
查看>>
NAT模式下虚拟机centOs和主机ping不通解决方法
查看>>
NAT的两种模式SNAT和DNAT,到底有啥区别?
查看>>
NAT的全然分析及其UDP穿透的全然解决方式
查看>>
NAT类型与NAT模型详解
查看>>
NAT网络地址转换配置实战
查看>>
NAT网络地址转换配置详解
查看>>
navbar navbar-inverse 导航条设置颜色
查看>>
Navicat for MySQL 命令列 执行SQL语句 历史日志
查看>>
Navicat for MySQL 查看BLOB字段内容
查看>>
Navicat for MySQL笔记1
查看>>
Navicat for MySQL(Ubuntu)过期解决方法
查看>>
Navicat Premium 12 卸载和注册表的删除
查看>>
Navicat 导入sql文件
查看>>