参考:https://blog.csdn.net/foneone/article/details/103984895 argparse库是一个存储参数库,可以用来进行模型训练过程中的参数保存作为一个整体,以便于使用和更改。 1、创建 import argparse parser = argparse ...
分类:
编程语言 时间:
2021-01-12 10:52:42
阅读次数:
0
训练代码: import tensorflow as tf from tensorflow import keras import numpy as np from matplotlib import pyplot as plt np.random.seed(42) # 设置numpy随机数种子 t ...
分类:
其他好文 时间:
2021-01-06 12:16:12
阅读次数:
0
1、criterion: 特征选取标准。 默认:gini。 可选gini(基尼系数)或者entropy(信息增益)。 1.1 选择entropy,则是ID3或C4.5算法。 ID3算法原理: a 计算训练集所有样本的信息熵。 b 计算每一特征分类后的信息增益。 c 选择信息增益最大的特征进行分类,得 ...
分类:
其他好文 时间:
2021-01-06 12:02:48
阅读次数:
0
环境: pop_os(ubuntu18) cuda9 opencv3.2 GTX1070 darknet框架 官方网站:https://pjreddie.com/darknet/ 编译框架可能要根据自己的需要更改Makefile(我就根据我自己的情况更改了链接路径,因为我的opencv和cuda安装 ...
分类:
其他好文 时间:
2021-01-06 11:42:12
阅读次数:
0
k近邻(k-NearestNeighbor,简称kNN)学习是一种常用的监督学习方法,其工作机制非常简单:给定测试样本,基于某种距离度量找出训练集中与其最靠近的k个训练样本,然后基于k个“邻居”的信息来进行预测。1.最近邻检索(NearestNeighborSearch)最近邻检索就是根据数据的相似性,从数据库中寻找与目标数据最相似的项目。这种相似性通常会被量化到空间上数据之间的距离,可以认为数据
分类:
其他好文 时间:
2021-01-02 11:38:02
阅读次数:
0
https://blog.csdn.net/sinat_27318881/article/details/84668861 https://zhuanlan.zhihu.com/p/79355209 https://blog.csdn.net/hey_youngman/article/details ...
分类:
其他好文 时间:
2020-12-31 12:29:41
阅读次数:
0
又是一年一度的ACL,之前通过卖萌屋Arxiv服务已经零零碎碎看了一些,还是准备刷一下论文list,看看哪篇能让我的模型效果一飞冲天。中奖论文list:https://acl2020.org/program/accepted刷呀刷呀,不是XXBERT:XXX,就是AXX-basedXXforXX,果然NLP人的世界还是那么枯燥无味。突然,一个标题吸引了我:TwoBirds,OneStone:ASi
分类:
其他好文 时间:
2020-12-29 11:10:27
阅读次数:
0
在之前的高中毕业生填简历的时候,有很多人问计算机专业的事情。其实我从心底里觉得,高考后才来问这个,已经完了一大半了。当然另一小半十分有前途的人可以在大学四年赶上来,不过估计他们还是要读个研究生,才能把自己训练成能用的码农。编程是一件很难的事情。当然我的意思跟那篇著名的《编程是一件很难的事情》不一样。想把代码写好,本来就是一件非常困难的事情。我大三的时候训练一个大一的老乡,就光是C++,长达四年后她
分类:
其他好文 时间:
2020-12-29 11:07:15
阅读次数:
0
关注小夕并星标,解锁自然语言处理搜索、推荐与算法岗求职秘籍导读作为NLP近两年来的当红炸子鸡,以ELMo/BERT为代表的语言预训练技术相信大家已经很熟悉了。简单回顾下18年以来几个预训练的重要工作:ELMo,GPTandBERTELMo首先提出了基于语言模型的预训练技术,成功验证了在大规模语料上基于语言模型进行文本自监督学习的有效性。GPT提出了NLP预训练技术使用时应该像CV预训练技术一样,在
分类:
Web程序 时间:
2020-12-29 11:05:29
阅读次数:
0
前言今天要与大家分享的是AllenAI今年发表的最新工作,Longformer——一种可高效处理长文本的升级版Transformer。作者团队提供了开源代码,大家可快速复现,直接用于自己的任务。传统Tranformer-based模型在处理长文本时有着天然的劣势。因为传统模型采用的是“全连接”型的attention机制,即每一个token都要与其他所有token进行交互。其attention复杂度
分类:
其他好文 时间:
2020-12-29 11:04:31
阅读次数:
0