早早爬起来赶到北大光华听百度分会场的报告,把听到的简要记述一下。
首先梳理自然语言理解这个问题,提出基本问题是:
Tagging:例如命名实体识别
Generation:翻译,问答->多轮对话
然后是具体的例子:
Tagging问题的例子:语义角色标注
解决Who do what at where…等等句子逻辑成分划分的问题分词
命名实体识别
语义解析【没有展开,个人理解相当于根据语言学和命名实体标签作出特征】
语义角色标注:用分类器【SVM】Generation的例子:序列标注【翻译】
RNN,DRNN应用,效果不错,ACL15
自然语言理解目前还在做基本的tagging问题和一趟序列标注问题,RNN好用;未来多轮对话是主攻方向。
网上可搜到的历史。一个我觉着不错的观点:Deep learning 太好用了,是伤害deep learning的主要因素,因为大家不研究新的方法了。是居安思危的意思,deep learning想要保持活力,需要不断推陈出新。
多数的时间展示了百度的一些应用,包括检测分类识别跟踪等等。
CNN多用来分类,检测,语义分割
CNN和RNN结合用来做看图说话,图像问答,目标跟踪
个人感觉因为视觉统一的框架还没有建立起来,所以问题还非常零散,几个基本问题各自有解决方案,又互相有共通技术。
提到的一个框架非常有意思,是CNN用在检测时,原来都是基于画bounding box,返回置信度。新流程是通过潜在目标报告而后分类,比较像人脑进行视觉任务的流程。
主要论点,机器学习可以人工智能也可以结合特定问题变成有效工具。重点是要熟悉业务,即“找到龙”,“屠龙之技”才有用武之地。
他完成的模型包括消费预估 和价格歧视,在传统定价模型上结合前两个特点进行企业受益最大化的定价策略求解。
公式手滑,没有拍到,遗憾
她所在的部门不是凤巢,涉及到各种场合下广告展位的CTR预估,所以需要将数据很多模型很好的场合的经验transfer到数据很少模型没法训练的地方。采用的方法是部分参数共享,合一原场景和现有场景的模型的目标函数,求解非公共部分。
广告
原文地址:http://blog.csdn.net/tanhongguang1/article/details/46400493