标签:com over 卷积层 没有 vgg 自己 增加 video filter
闲话
机器学习终于开坑了!!
机器学习当然要tensorflow+gpu啦(可我没有/(ㄒoㄒ)/~~)
学学基础tensorflow+cpu应该也可以吧
之前是直接看吴恩达的视频,那些算法原理懂了个大概,结果发现根本就无法实现...也无法理解 tf 里面那些函数的作用(后来发现是tensorflow的锅
所以这次准备再系统学习一遍
找基于tf 2 做机器学习的资源找了好半天
最后感觉还是这个视频讲的最详细 虽然还是tensorflow 1.x
https://www.bilibili.com/video/BV1ua4y1t7Ws?
他是先一步步手码实现实战实例,之后再用tf的函数来进行简化,更好让人理解原理和实现
tensorflow2.x的代码可以网上找
下面是正文
只列举一部分。 需要的时候谁会看这个?直接搜索引擎不好吗
其实tf和numpy基础功能也差不多,用tf 2 也是为了更好和numpy兼容|更方便
tf.zeros(shape,dtype=tf.float32) 全0
tf.zeros_like(x) 直接根据x的dim来创建 0 matrix <==> tf.zeros(x.shape)
tf.ones(shape,dtpye=tf.float32) 全1
tf.ones(x) 创建一个标量|dim=0
tf.ones([])\ 创建一个 1*1的向量,值为 x
tf.ones([x])** 创建向量 shape=x
tf.math.log :以e为底的对数函数
tf.exp :指数函数
tf.uniform(shape,minval,maxval,dtpye) 均匀变化的数组
tf.random.normal(shape,mean(均值默认0),stddev(方差默认1))
tf.fill(dim,value) 填充数字
tf.random.shuffle(x) 将 x数组 随机打乱
上面这些都和numpy没啥区别
a.shape=[4,2,3,1] idx=[1,0,0,2]
a.shape=[2,4,4,3]
tf.constant(value,shape) 填充常数数字
返回维度
x.ndim
类型转换
# numpy转化为tensor
xxx=tf.covert_to_tensor(name,dtype)
# 转换为numpy
x.numpy()
# 判断是否为tensor类型
tf.is_tensor(x)
# dataframe类型转换为 onehot
data=pd.get_dummies(data,prefix=data.colums)
# tf类型转onehot
# dep是data中最大的数字+1
data=tf.onehot(data,depth=)
shape|dim 操作
# 将x张量 变成shape形
tf.reshape(xx,shape)
# -1代表这个维度的所有
tf.reshape(xx,[-1,xxx])
# 将x转化为1*depth的one_hot向量
tf.one_hot(x,depth)
# xx张量增加第axis个维度(axis是从0开始)
tf.expand_dim(xx,axis)
# 感觉这后面的都不常用了
tf.transpose(a,vector(如[x1,x2,x3,x4]))
# 相当于将原来图像做变换
# 比如原来是[n,h,w,c] vector=[0,3,2,1]
# ==> [n,c,w,h] 这样可以使content不改变 ‘实质‘
# 将xx张量按axis和list分割成其他的张量
tf.split(xx,list,axis)
# xi是张量,axis 表示张量在哪个轴上拼接
tf.concat([x1,x2,xn],axis)
# 例如axis=0,则 [[x1],[x2]],axis=1,[[x1,x2]]
# 删去axis轴
tf.squeeze(x,axis)
# 例如 axis=0,xx=[[x1],[x2],[x3],[x4]],list=[1:2:1]
# output:[x1] [[x2],[x3]] [x4]
# 如果list是一个数代表平均分为list个张量
dim=3
句子:一共有几个句子,每个句子有几个单词,每个单词被看作多少维向量
[num,len,vector_dim]
dim=4
二维卷积必须是四维
照片:一共有多少张照片,每个照片的大小(h,w),有几个通道
[num,height,weight,channel]
dim=5 |不太懂...
就是把一个总任务分割成了多个任务同时处理,每次处理的个数就成了第一维
[batch,num,h,w,rgb]
俗称卷积核:要设定长宽,但这个具体数值是后面自己学习来的,类似于神经网络中的 w(权值)
卷积核的长宽除了第一次是自己设定,后面都会有求解的公式
一般卷积核和input的二维数组都是正方形所以K=W1=H1
**卷积核大小 F 步长 S 边界填充P 卷积核个数K **
W2 = (W1 -F +2*P)/S+1
H2=(H2-F+2*P)/S+1
厚度=K 这个是忽略输入本身厚度 比如输入的彩色图片厚度是3,但是 K=10 厚度不是30还是10
但是 padding=same的话宽高是可以不变的,因为是自动选取padding,少了会自动设置padding使w不变
tensroflow2.x 都自动帮你计算好了,‘‘随便‘‘ 配置都行,甚至都不要你自己变onehot编码
步长:就是卷积核在input的二维数组上移动的长度
因为卷积核在提取特征的时候边缘必然会比中心提取的‘更少’,边缘权值变相的减少了,所以需要加入padding这个参数
来维持边缘边缘被提取的次数与中心相同
padding=1可以视为在外面围一圈0,padding=2... 以此类推
池化:简单理解就是把特征的长宽进一步压缩
有max_pooling和 averge_pooling
一般分类问题max_pool会更好
input -> conv -> relu ->pool (这三步重复任意次) -> FC (全连接层) -> output
卷积层数是不包括pooling层的,并且conv和relu只算一层,一个FC单独算一层,最后output也算FC只不过不同人叫法不一样
目前通过 看这个视频了解到了alax net和vgg net 的优劣区别?
标签:com over 卷积层 没有 vgg 自己 增加 video filter
原文地址:https://www.cnblogs.com/cherrypill/p/13287755.html