1. LSTM要么可以没有c_state,和h_state,一旦有就一定要初始化, 大小为(num_layers * num_directions, batch, hidden_size) 2.RNN中只需要指定h_state,而且h_state可以指定为None 3.LSTM返回的c_state和 ...
分类:
其他好文 时间:
2020-02-29 20:09:28
阅读次数:
81
学习参考:https://connect.unity.com/p/srp-batcher-jia-su-xuan-ran SRP Batcher并没有减少DC,而是减轻了一次DC的负担,这些负担指的是设置渲染参数 为什么能达到这一点呢,是因为Bather对材质做了缓存,如果材质内容不变,则CPU就不 ...
分类:
其他好文 时间:
2020-02-28 22:53:52
阅读次数:
79
例: 数据库进行操作 1:sql语句 2:通过Dao接口继承BaseMapper<Xxx> 新增: User user = new User(); user.setId(null) .setName("张三") .setAge(23) .setSex("男"); int rows = userMap ...
分类:
其他好文 时间:
2020-02-28 18:49:33
阅读次数:
79
DStream 中 window 函数有两种,一种是普通 WindowedDStream,另外一种是针对 window聚合 优化的 ReducedWindowedDStream。 Demo 源码 DStream 前提知识 在每个DStream 中会把每个batch 产生的 Rdd 放入Map中,也就 ...
激活函数有什么用? 提到激活函数,最想问的一个问题肯定是它是干什么用的?激活函数的主要作用是提供网络的非线性表达建模能力,想象一下如果没有激活函数,那么神经网络只能表达线性映射,此刻即便是有再多的隐藏层,其整个网络和单层的神经网络都是等价的。因此正式由于激活函数的存在,深度神经网络才具有了强大的非线 ...
分类:
其他好文 时间:
2020-02-26 21:12:05
阅读次数:
114
nn.MSELoss()得到的是平均到像素的loss nn.MSELoss(size_average=False)得到整个batch所有像素loss和 MSELoss(size_average=False).div(batch_size)得到平均图像loss a=torch.Tensor([[1,1 ...
分类:
其他好文 时间:
2020-02-25 17:34:25
阅读次数:
96
ListenerBus Spark 很多地方需要对一些事件进行监听或处理,这就涉及到到了 Listener。 比如:当一个Batch完成的时候,需要做什么。当stream 启动时候时候需要做什么等。再具体的例子,就是我想看每个batch 里面的数据量是多少 对于不同场景有不同的 Listener 比 ...
分类:
其他好文 时间:
2020-02-25 00:10:45
阅读次数:
79
1、torch.nn.CrossEntropyLoss() loss_func=torch.nn.CrossEntropyLoss() loss=loss_func(input_data,input_target) 其中input_data的shape一般是(batch_size,output_fe ...
分类:
其他好文 时间:
2020-02-24 16:42:33
阅读次数:
89
目录 K-Means算法和Mini Batch K-Means算法比较 层次聚类(BIRCH)算法参数比较 DBSCAN算法 一、K-Means算法和Mini Batch K-Means算法比较 1 2 3 4 5 6 7 ... ...
分类:
编程语言 时间:
2020-02-24 00:51:18
阅读次数:
86
分3步进行 Mini_batch 为什么要Mini_batch 166s 放到size=10,其实相当于10 epoch(也就是说也会50000updates) batch_size大的时候,用了平行运算(算10个examples 时间和1 example时间差不多)所以更快但是不能设置的太大,会卡 ...
分类:
其他好文 时间:
2020-02-23 20:05:53
阅读次数:
90