##Task1 赛题理解 ####1.赛题理解 赛题名称:零基础入门NLP之新闻文本分类 赛题目标:入门自然语言处理,接触NLP的预处理、模型构建和模型训练等知识点 赛题任务:对新闻文本进行分类 ####2.学习目标 理解赛题背景与赛题数据 ####3.赛题数据 报名比赛后即可下载相应数据: 以匿名 ...
分类:
其他好文 时间:
2020-07-22 01:55:01
阅读次数:
81
[Lyndon分解] HDU 6761 Minimum Index (2020多校训练) 题解 待补。 Code #include <iostream> #include <algorithm> #include <cstring> #include <string> #include <cstdi ...
分类:
其他好文 时间:
2020-07-22 01:46:30
阅读次数:
178
题意: ? 给定三个数字 \(n,c,k\) ,求以下式子 ? \(\sum_{i=0}^nF(ic)^k\%(10^9+9)\) ? 其中$F(x)$为斐波那契数列第$x$项。 ? $1\leq n,c\leq10^{18},1\leq k \leq10^5$ 分析: ? 在比赛的时候我搜索了一波 ...
分类:
其他好文 时间:
2020-07-22 01:44:09
阅读次数:
110
转自:https://www.zhihu.com/question/269698662/answer/352279936 做了部分修改 1. 为什么类别不平衡会影响模型输出? 大部分模型的默认阈值为输出值的中位数。比如逻辑回归的输出范围为[0,1],当某个样本的输出大于0.5就会被划分为正例,反之为 ...
分类:
其他好文 时间:
2020-07-21 22:13:04
阅读次数:
162
字典写入json文件中: import json stu_mark={} stu_mark["Name"]=input("Name=") stu_mark["English"]=float(input("English=")) stu_mark["Music"]=float(input("Music ...
分类:
其他好文 时间:
2020-07-21 14:10:56
阅读次数:
83
一、基本术语 1.18泛化:学得模型是否适用于新样本的能力 注:假设样本空间的全体样本服从于一个未知的分布D,我们得到的样本都是独立从D上采样得到的,即“独立同分布”。训练样本越多,地道道关于D的信息越多,也就也可能通过学习得到强泛化能力的模型 1.19归纳:从特殊到一般的“泛化”过程 1.20演绎 ...
分类:
其他好文 时间:
2020-07-21 01:21:58
阅读次数:
82
sklearn的数据集 数据集划分 数据集接口介绍 数据集划分 前提:机器学习就是从数据中自动分析获得规律,并利用规律对未知数据进行预测。换句话说,我们的模型一定是要经过样本数据对其进行训练,才可以对未知数据进行预测的。 问题:我们得到数据后,是否将数据全部用来训练模型呢? 当然不是!因为我们如果模 ...
分类:
其他好文 时间:
2020-07-21 01:08:37
阅读次数:
86
1、ResNet是一种残差网络,咱们可以把它理解为一个子网络,这个子网络经过堆叠可以构成一个很深的网络。 2、但是根据实验表明,随着网络的加深,优化效果反而越差,测试数据和训练数据的准确率反而降低了。这是由于网络的加深会造成梯度爆炸和梯度消失的问题。 目前针对这种现象已经有了解决的方法:对输入数据和 ...
分类:
Web程序 时间:
2020-07-21 01:06:41
阅读次数:
91
梯度下降法主要分为三种, 梯度下降法 随机梯度下降 小批量梯度下降 下面分别来介绍一下,这样更加有助于理解它们之间的联系。 梯度下降法 梯度下降使用整个训练数据集来计算梯度,因此它有时也被称为批量梯度下降 下面就以均方误差讲解一下,假设损失函数如下: 其中 是预测值, 是真实值,那么要最小化上面损失 ...
分类:
其他好文 时间:
2020-07-20 22:40:33
阅读次数:
75
训练环境与步骤参考链接: https://www.cnblogs.com/hayley111/p/12918678.html 问题一:使用GTX2080的显卡,在batch_size只有8的情况下,训练速度只有2-3秒每步。 另开窗口使用如下指令查看GPU占用情况,指令如下: nvidia-smi ...
分类:
其他好文 时间:
2020-07-20 22:25:21
阅读次数:
94