我有一个带形状(101000)、10个输入和1000行的输入数据集x,以及一个带(11000)、1个输出和1000行的输出数据集y。
我定义的成本函数是
cost = tf.square(Y - prediction, name="cost")
预测是单个预测的输出值,Y是输出值的占位符。我用下面的代码来计算成本的价值。
cost_value = sess.run(cost, feed_dict ={ X: x, Y : y })
然后输出成本函数值是(10001000)矩阵,因为Y的馈入是(11000)向量。
问题是,我如何能做一个成本函数,计算出一个矩阵的数瞬间的成本,而不必逐行循环所有的输入。
tf.reduce_sum(cost)
将对矩阵中的所有值求和。https://www.tensorflow.org/api_docs/python/tf/reduce_sum
而且} 。原因如下:
tf.reduce_sum(cost)
会做你想做的,我认为最好使用^{nan
的机会更少相关问题 更多 >
编程相关推荐