
1.强制tensor转换为该数据类型
tf.cast(张量名,dtype=数据类型)
2.计算张量维度上元素的最小值/最大值
tf.reduce_min(张量名)
tf.reduce_max(张量名)
3.计算张量沿着指定维度的平均值/和
tf.reduce_mean(张量名,axis= *** 作轴)
tf.reduce_sum(张量名,axis= *** 作轴)
4.将变量标记为“可训练”,被标记的变量会在反向传播中记录梯度信息。神经网络训练中,常用该函数标记待训练参数
tf.Variable(初始值)
5.实现两个张量的对应元素相加/减/乘/除, 只有维度相同的张量才可以做四则运算
tf.add(张量1,张量2)
tf.subtract(张量1,张量2)
tf.multiply(张量1,张量2)
tf.divide(张量1,张量2)
6.计算某个张量的平方/n次方/开方
tf.square(张量名
tf.pow(张量名,n次方数)
tf.sqrt(张量名)
7.实现两个矩阵的相乘
tf.matmul(矩阵1,矩阵2)
8.切分传入张量的第一维度,生成输入特征/标签对,构建数据集
data = tf.data.Dataset.from_tensor_slices((输入特征, 标签))
9.with结构记录计算过程,gradient求出张量的梯度
with tf.GradientTape( ) as tape:
若干个计算过程
grad=tape.gradient(函数,对谁求导)
10.enumerate是python的内建函数,它可遍历每个元素(如列表、元组或字符串),组合为:索引元素,常在for循环中使用
enumerate(列表名)
11.将待转换数据转换为one-hot形式的数据输出
独热编码(one-hot encoding):在分类问题中,常用独热编码做标签
标记类别:1表示是,0表示非
tf.one_hot(待转换数据, depth=几分类)
12.当n分类的n个输出(y0,y1, …… yn-1)通过softmax( ) 函数,便符合概率分布了。
tf.nn.softmax(x) #使输出符合概率分布
13. 赋值 *** 作,更新参数的值并返回。( 调用assign_sub前,先用tf.Variable定义变量w为可训练(可自更新))
w.assign_sub(w要自减的内容)
14.返回张量沿指定维度最大值的索引
tf.argmax(张量名,axis= *** 作轴)
欢迎分享,转载请注明来源:内存溢出
微信扫一扫
支付宝扫一扫
评论列表(0条)