
##关于使用Tensorflow的call定义神经网络的结构的可视化说明
大家可以去找下tensorflow2.x,或者tensorflow1.x的指南,哪里有详细的说明,可以跟着例子跑一下程序,然后调一下,就知道怎么使特征可视化了
首先上代码例子,这是随意写的一个卷积结构,使self.sequential1_2的特征可视化。
class TICNN(Model):
def __init__(self):
super(TICNN,self).__init__()
self.Sequential1_1 = tf.keras.models.Sequential([
Conv1D(filters=64,kernel_size=10,strides=3,padding='same',kernel_regularizer=tf.keras.regularizers.l2(0.001)),
BatchNormalization(),
Activation('relu'),
MaxPool1D(pool_size=2,strides=2,padding='valid'),
])
self.Sequential1_2 = tf.keras.models.Sequential([
Conv1D(filters=32,kernel_size=100,strides=15,padding='same',kernel_regularizer=tf.keras.regularizers.l2(0.001)),
BatchNormalization(),
Activation('relu'),
MaxPool1D(pool_size=2,strides=2,padding='valid')
])
self.flatten = Flatten()
self.fc = Dense(10, activation='softmax')
def call(self,x):
x1_1 = self.Sequential1_1(x)
x1_2 = self.Sequential1_2(x)
xx = self.flatten(xx)
xx = self.fc1(xx)
return y
def vision(self,x):
x1_1 = self.Sequential1_1(x)
x1_2 = self.Sequential1_2(x)
return xx
#这是一个可视化,只要把相应的结构写上就可以可视化了
关于def vision(self,x),可以多写点,同时显示不同层的可视化。
欢迎分享,转载请注明来源:内存溢出
微信扫一扫
支付宝扫一扫
评论列表(0条)