使用keras.backend.mean()后KerasTensor的shape变成()而不是

使用keras.backend.mean()后KerasTensor的shape变成()而不是,第1张

问题描述
  1. 在基于tensorflow和keras框架的网络建模中,通过编译工具的Debug功能我们会发现网络中数据流的shape为(None, d1, d2, d3, ...),即shape的第一个位置为None,它代表网络可以一次接收batch_size个数据,便于数据流动和网络计算;

  2. 但是,对张量使用keras.backend.mean()方法求均值(如计算两个张量的MSE过程中)后,计算结果的shape变成了(),而不是(None, 1)

"""
input_ : 编码前的输入张量, 假设其Debug中的shape为(None, 120, 10)
output_ : 解码后的输出张量, 假设其Debug中的shape为(None, 120, 10)
"""
# 计算二者的MSE损失值
from keras import backend as K

# step1 : 计算绝对差值的平方
a = K.square(input_  - output_)		# a的KerasTensor shape:(None, 120, 10)

# step2 : 求均值
b = K.mean(a)						# b的KerasTensor shape:()
  1. 这可能会导致:当输入数据的个数一定时,网络输出数据的个数会随着参数batch_size大小的改变而发生变化:

假设搭建了一个基于重构方法的模型,输入20个数据,我希望网络能够输出20个重构loss值(MSE)。但是,当batch_size=2时,网络输出10个loss值;当batch_size=4时,网络输出5个loss值。


原因分析:

当张量KerasTensor数据的shape为()时,表明该数据是一个标量,正是因为它的shape不对,导致无论batch_size大小被设为多少,该轮batch都只会产生一个结果。


解决方案:

解决思路很简单,就是将shape由()改成(None, 1)

*** 作方式:

# 计算二者的MSE损失值
import tensorflow as tf
from keras import backend as K

# step1 : 对张量进行reshape
input_ = tf.reshape(input_, [-1, 120 * 10])
output_ = tf.reshape(output_, [-1, 120 * 10])

# step2 : 计算绝对差值的平方
a = K.square(input_  - output_)			# a的KerasTensor shape:(None, 120, 10)

# step3 : 求均值
b = K.mean(a, axis=-1, keepdims=True)	# b的KerasTensor shape:(None, 1)

欢迎分享,转载请注明来源:内存溢出

原文地址:https://54852.com/langs/800704.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2022-05-07
下一篇2022-05-07

发表评论

登录后才能评论

评论列表(0条)

    保存