标签:
之前自己一直想总结一下国内搞机器学习和数据挖掘的大牛,但是自己太懒了。所以没搞…
最近看到了下面转载的这篇博文,感觉总结的比较全面了。
个人认为,但从整体研究实力来说,机器学习和数据挖掘方向国内最强的地方还是在MSRA,
那边的相关研究小组太多,很多方向都能和数据挖掘扯上边。这里我再补充几个相关研究方向
的年轻老师和学者吧。
蔡登:http://www.cad.zju.edu.cn/home/dengcai/,Han Jiawei老师的学生,博士毕业后回浙大
任教,也算是国内年轻一代的牛人了。
万小军:https://sites.google.com/site/wanxiaojun1979/,得FQ才能看到主页。主要
研究方向是文本挖掘和语义计算。自然语言方向好会议发了很多文章。
张磊:http://research.microsoft.com/en-us/um/people/leizhang/
———————————————————————————————–
原文地址:http://blog.csdn.net/playoffs/article/details/7588597
李航:http://research.microsoft.com/en- us/people/hangli/,是MSRA Web Search and
Mining Group高级研究员和主管,主要研究领域是信息检索,自然语言处理和统计学习。
近年来,主要与人合作使用机器学习方法对信息检索中排序,相关性等问题的 研究。曾在
人大听过一场他的讲座,对实际应用的问题抽象,转化和解决能力值得学习。
周志华:http://cs.nju.edu.cn/zhouzh/,是南京大学的杰青,机器学习和数据挖掘方面
国内的领军人物,其好几个研究生都 进入了美国一流高校如uiuc,cmu等学习和深造。周教授
在半监督学习,multi-label学习和集成学习方面在国际上有一定的影响力。另外,他也
是ACML的创始人。人也很nice,曾经发邮件咨询过一个naive的问题,周老师还在百忙之中
回复了我,并对我如何发邮件给了些许建议。
杨强:http://www.cse.ust.hk/~qyang/,香港科技大学教 授,也是KDD 2012的会议主席,
可见功力非同一般。杨教授是迁移学习的国际领军人物,曾经的中国第一位acm全球冠军上
交的戴文渊硕士期间就是跟他合作发表了一系列 高水平的文章。还有,杨教授曾有一个关
于机器学习和数据挖掘有意思的比喻:比如你训练一只狗,若干年后,如果它忽然有一天能
帮你擦鞋洗衣服,那么这就是数 据挖掘;要是忽然有一天,你发现狗发装成一个老太婆
消失了,那么这就是机器学习。
李建中:http://db.hit.edu.cn/jianzhongli/,哈工大和黑大共有教授,是分布式数据库
的领军人物。近年来,其团队 在不确定性数据,sensor network方面也发表了一系列有名
文章。李教授为人师表,教书育人都做得了最好,在圈内是让人称道的好老师和好学者。
唐杰:http://keg.cs.tsinghua.edu.cn/jietang/,清华大学副教授,是图挖掘方面的专家。
他主持设计和实现的Arnetminer是国内领先的图挖掘系统,该系统也是多个会议的支持商。
张钹:http://www.csai.tsinghua.edu.cn/personal_homepage/zhang_bo/index.html 清华
大学教授,中科院院士,。现任清华大学信息技术研究院指导委员会主任,微软亚洲研究院
技术顾问等。主要从事人工智能、神经网络、遗传算法、智能机器 人、模式识别以及智能控
制等领域的研究工作。在过去二十多年中,张钹教授系统地提出了问题求解的商空间理
论。近年来,他建立了神经与认知计算研究中心以及多媒体信息处理研究组。该研究组已在
图像和视频的分析与检索方面取得一些重要研究成果。
刘铁岩:http://research.microsoft.com/en-us/people/tyliu/ MSRA研究主管,
是learning to rank的国际知名学者。近年逐步转向管理,研究兴趣则开始关注计算广告学方面。
王海峰:http://ir.hit.edu.cn/~wanghaifeng/ 信息检索,自然语言处理,机器翻译方面
的专家,ACL的副主席,百度高级科学家。近年,在百度主持研发了百度翻译产品。
何晓飞:http://people.cs.uchicago.edu/~xiaofei/ 浙江大学教授,多媒体处理,
图像检索以及流型学习的国际领先学者。
朱军:http://www.ml-thu.net/~jun/ 清华大学副教授,机器学习绝对重量级新星。
主要研究领域是latent variable models, large-margin learning, Bayesian nonparametrics,
and sparse learning in high dimensions. 他也是今年龙星计划的机器学习领域的主讲人之一。
———————————————————————————————-
吴军:http://www.cs.jhu.edu/~junwu/ 腾讯副总裁,前google研究员。
著名《数学之美》和《浪潮之巅》系列的作者。
张栋:http://weibo.com/machinelearning 前百度科学家和google研究员,机器学习工业界的代表人物之一。
戴文渊:http://apex.sjtu.edu.cn/apex_wiki/Wenyuan_Dai 现百度凤巢ctr预估组leader。
前ACM大赛冠军,硕士期间一系列transfer learning方面的高水平论文让人瞠目结舌。
Jordan身兼stat和cs两个系的教授,从他身上可以看出Stat和ML的融合。 Jordan最先专注于mixtures of experts,并迅速奠定了自己的地位,我们哈尔滨工业大学的校友徐雷跟他做博后期间,也在这个方向上沾光不少。Jordan和他的弟子在很多方面作出了开创性的成果,如spectral clustering, Graphical model和nonparametric Bayesian。现在后两者在ML领域是非常炙手可热的两个方向,可以说很大程度上是Jordan的lab一手推动的。
更难能可贵的是,Jordan不仅自己武艺高强,并且揽钱有法,教育有方,手下门徒众多且很多人成了大器,隐然成为江湖大帮派。他的弟子中有10多人任教授,个人认为他现在的弟子中最出色的是stanford的Andrew Ng,不过由于资历原因,现在还是assistant professor,不过成为大教授指日可待;另外Tommi Jaakkola和David Blei也非常厉害,其中Tommi Jaakkola在mit任教,David Blei之前在普林斯顿任副教授,最近刚刚(2014年4月初)被哥伦比亚大学花了三年时间挖走了,数次获得NIPS最佳论文奖,把SVM的最大间隔方法和Markov network的structure结构结合起来,赫赫有名。2012年获得科学家总统奖,2014年初获得2013 ACM-Infosys CS Award。还有一个博后是来自于toronto的Yee Whye Teh,非常不错,有幸跟他打过几次交道,人非常nice。另外还有一个博后居然在做生物信息方面的东西,看来jordan在这方面也捞了钱。这方面他有一个中国学生Eric P. Xing(清华大学校友),现在在cmu做assistant professor。
总的说来,我觉得Jordan现在做的主要还是graphical model和Bayesian learning,他去年写了一本关于graphical model的书,今年由mit press出版,应该是这个领域里程碑式的著作。3月份曾经有人答应给我一本打印本看看,因为Jordan不让他传播电子版,但后来好像没放在心上(可见美国人也不是很守信的),人不熟我也不好意思问着要,可以说是一大遗憾. 另外发现一个有趣的现象就是Jordan对hierarchical情有独钟,相当多的文章都是关于hierarchical的,所以能hierarchical大家赶快hierarchical,否则就让他给抢了。
用我朋友话说看jordan牛不牛,看他主页下面的Past students and postdocs就知道了。
Machine Learning大家(2):D. Koller (http://ai.stanford.edu/~koller/)
D. Koller是1999年美国青年科学家总统奖(PECASE)得主,IJCAI 2001 Computers and Thought Award(IJCAI计算机与思维奖,这是国际人工智能界35岁以下青年学者的最高奖)得主,2004 World Technology Award得主。
最先知道D koller是因为她得了一个大奖,2001年IJCAI计算机与思维奖。Koller因她在概率推理的理论和实践、机器学习、计算博弈论等领域的重要贡献,成为继Terry Winograd、David Marr、Tom Mitchell、Rodney Brooks等人之后的第18位获奖者。说起这个奖挺有意思的,IJCAI终身成就奖(IJCAI Award for Research Excellence),是国际人工智能界
的最高荣誉; IJCAI计算机与思维奖是国际人工智能界35岁以下青年学者的最高荣誉。早期AI研究将推理置于至高无上的地位; 但是1991年牛人Rodney Brooks对推理全面否定,指出机器只能独立学习而得到了IJCAI计算机与思维奖; 但是koller却因提出了Probabilistic Relational Models 而证明机器可以推理论知而又得到了这个奖,可见世事无绝对,科学有回。
D koller的Probabilistic Relational Models在nips和icml等各种牛会上活跃了相当长的一段时间,并且至少在实验室里证明了它在信息搜索上的价值,这也导致了她的很多学生进入了google。虽然进入google可能没有在牛校当faculty名声响亮,但要知道google的很多员工现在可都是百万富翁,在全美大肆买房买车的主。
Koller的研究主要都集中在probabilistic graphical model,如Bayesian网络,但这玩意我没有接触过,我只看过几篇他们的markov network的文章,但看了也就看了,一点想法都没有,这滩水有点深,不是我这种非科班出身的能趟的,并且感觉难以应用到我现在这个领域中。
Koller才从教10年,所以学生还没有涌现出太多的牛人,这也是她不能跟Jordan比拟的地方,并且由于在stanford的关系,很多学生直接去硅谷赚大钱去了,而没有在学术界开江湖大帮派的影响,但在stanford这可能太难以办到,因为金钱的诱惑实在太大了。不过Koller的一个学生我非常崇拜,叫Ben Taskar,就是我在(1)中所提到的Jordan的博后,是好几个牛会的最佳论文奖,他把SVM的最大间隔方法和Markov network结合起来,可以说是对structure data处理的一种标准工具,也把最大间隔方法带入了一个新的热潮,近几年很多牛会都有这样的workshop。 我最开始上Ben Taskar的在stanford的个人网页时,正赶上他刚毕业,他的顶上有这么一句话:流言变成了现实,我终于毕业了! 可见Koller是很变态的,把自己的学生关得这么郁闷,这恐怕也是大多数女faculty的通病吧,并且估计还非常的push!2013年去世的牛人UW的Ben Taskar就是Koller的学生。另外Koller和NG合办了Coursera。
Machine learning 大家(3): J. D. Lafferty
大家都知道NIPS和ICML向来都是由大大小小的山头所割据,而John Lafferty无疑是里面相当高的一座高山,这一点可从他的publication list里的NIPS和ICML数目得到明证。虽然江湖传说计算机重镇CMU现在在走向衰落,但这无碍Lafferty拥有越来越大的影响力,翻开AI兵器谱排名第一的journal of machine learning research的很多文章,我们都能发现author或者editor中赫然有Lafferty的名字。
Lafferty给人留下的最大的印象似乎是他2001年的conditional random fields,这篇文章后来被疯狂引用,广泛地应用在语言和图像处理,并随之出现了很多的变体,如Kumar的discriminative random fields等。虽然大家都知道discriminative learning好,但很久没有找到好的discriminative方法去处理这些具有丰富的contextual inxxxxation的数据,直到Lafferty的出现。
而现在Lafferty做的东西好像很杂,semi-supervised learning, kernel learning,graphical models甚至manifold learning都有涉及,可能就是像武侠里一样只要学会了九阳神功,那么其它的武功就可以一窥而知其精髓了。这里面我最喜欢的是semi-supervised learning,因为随着要处理的数据越来越多,进行全部label过于困难,而完全unsupervised的方法又让人不太放心,在这种情况下semi-supervised learning就成了最好的。这没有一个比较清晰的认识,不过这也给了江湖后辈成名的可乘之机。到现在为止,我觉得cmu的semi-supervised是做得最好的,以前是KAMAL NIGAM做了开创性的工作,而现在Lafferty和他的弟子作出了很多总结和创新。
Lafferty的弟子好像不是很多,并且好像都不是很有名。不过今年毕业了一个中国人,Xiaojin Zhu(上海交通大学校友),就是做semi-supervised的那个人,现在在wisconsin-madison做assistant professor。他做了迄今为止最全面的Semi-supervised learning literature survey, 大家可以从他的个人主页中找到。这人看着很憨厚,估计是很好的陶瓷
对象。另外我在(1)中所说的Jordan的牛弟子D Blei今年也投奔Lafferty做博后,就足见Lafferty的牛了。
Lafferty做NLP是很好的,著名的Link Grammar Parser还有很多别的应用。其中language model在IR中应用,这方面他的另一个中国学生ChengXiang Zhai(南京大学校友,2004年美国青年科学家总统奖(PECASE)得主),现在在uiuc做assistant professor。
Machine learning 大家(4): Peter L. Bartlett
鄙人浅薄之见,Jordan比起同在berkeley的Peter Bartlett还是要差一个层次。Bartlett主要的成就都是在learning theory方面,也就是ML最本质的东西。他的几篇开创性理论分析的论文,当然还有他的书Neural Network Learning: Theoretical Foundations。
UC Berkeley的统计系在强手如林的北美高校中一直是top3, 这就足以证明其肯定是群星荟萃,而其中,Peter L. Bartlett是相当亮的一颗星。关于他的研究,我想可以从他的一本书里得到答案:Neural Network Learning: Theoretical Foundations。也就是说,他主要做的是Theoretical Foundations。基础理论虽然没有一些直接可面向应用的算法那样
引人注目,但对科学的发展实际上起着更大的作用。试想vapnik要不是在VC维的理论上辛苦了这么多年,怎么可能有SVM的问世。不过阳春白雪固是高雅,但大多数人只能听懂下里巴人,所以Bartlett的文章大多只能在做理论的那个圈子里产生影响,而不能为大多数人所广泛引用。
Bartlett在最近两年做了大量的Large margin classifiers方面的工作,如其convergence rate和generalization bound等。并且很多是与jordan合作,足见两人的工作有很多相通之处。不过我发现Bartlett的大多数文章都是自己为第一作者,估计是在教育上存在问题吧,没带出特别牛的学生出来。
Bartlett的个人主页的talk里有很多值得一看的slides,如Large Margin Classifiers:Convexity and Classification;Large Margin Methods for Structured Classification: Exponentiated Gradient Algorithms。大家有兴趣的话可以去下来看看。
Machine learning 大家(5): Michael Collins
Michael Collins (http://people.csail.mit.edu/mcollins/
自然语言处理(NLP)江湖的第一高人。出身Upenn,靠一身叫做Collins Parser的武功在江湖上展露头脚。当然除了资质好之外,其出身也帮了不少忙。早年一个叫做Mitchell P. Marcus的师傅传授了他一本葵花宝典-Penn Treebank。从此,Collins整日沉迷于此,终于练成盖世神功。
学成之后,Collins告别师傅开始闯荡江湖,投入了一个叫AT&T Labs Research的帮会,并有幸结识了Robert Schapire、Yoram Singer等众多高手。大家不要小瞧这个叫AT&T Labs Research的帮会,如果谁没有听过它的大名总该知道它的同父异母的兄弟Bell Labs吧。 言归正传,话说Collins在这里度过了3年快乐的时光。其间也奠定了其NLP江湖老大的地位。并且练就了Discriminative Reranking, Convolution Kernels,Discriminative Training Methods for Hidden Markov Models等多种绝技。然而,世事难料,怎奈由于帮会经营不善,这帮大牛又不会为帮会拼杀,终于被一脚踢开,大家如鸟兽散了。Schapire去了Princeton, Singer 也回老家以色列了。Collins来到了MIT,成为了武林第一大帮的六袋
长老,并教授一门叫做Machine Learning Approaches for NLP (http://www.ai.mit.edu/courses/6.891-nlp/) 的功夫。虽然这一地位与其功力极不相符,但是这并没有打消Collins的积极性,通过其刻苦打拼,终于得到了一个叫Sloan Research Fellow的头衔,并于今年7月,光荣的升任7袋Associate Professor。
在其下山短短7年时间内,Collins共获得了4次世界级武道大会冠军(EMNLP2002, 2004,UAI2004, 2005)。相信年轻的他,总有一天会一统丐帮,甚至整个江湖。
看过Collins和别人合作的一篇文章,用conditional random fields 做object recogn
tion。还这么年轻,admire to death!
以前转过一个计算机视觉领域内的牛人简介,现在转一个更宽范围内的牛人简介:
http://people.cs.uchicago.edu/~niyogi/
http://www.cs.uchicago.edu/people/
http://pages.cs.wisc.edu/~jerryzhu/
http://www.kyb.tuebingen.mpg.de/~chapelle
http://people.cs.uchicago.edu/~xiaofei/
http://www.cs.uiuc.edu/homes/dengcai2/
http://research.microsoft.com/~denzho/
http://www-users.cs.umn.edu/~kumar/dmbook/index.php#item5
(resources for the book of the introduction of data mining by Pang-ning Tan et.al. )(国内已经有相应的中文版)
http://www.cs.toronto.edu/~roweis/lle/publications.html (lle算法源代码及其相关论文)
http://dataclustering.cse.msu.edu/index.html#software(data clustering)
http://www.cs.toronto.edu/~roweis/ (里面有好多资源)
http://www.cse.msu.edu/~lawhiu/ (manifold learning)
http://www.math.umn.edu/~wittman/mani/ (manifold learning demo in matlab)
http://www.iipl.fudan.edu.cn/~zhangjp/literatures/MLF/INDEX.HTM (manifold learning in matlab)
http://videolectures.net/mlss05us_belkin_sslmm/ (semi supervised learning with manifold method by Belkin)
http://isomap.stanford.edu/ (isomap主页)
http://web.mit.edu/cocosci/josh.html MIT TENENBAUM J B主页
http://web.engr.oregonstate.edu/~tgd/ (国际著名的人工智能专家 Thomas G. Dietterich)
http://www.cs.berkeley.edu/~jordan/ (MIchael I.Jordan)
http://www.cs.cmu.edu/~awm/ (Andrew W. Moore’s homepage)
http://learning.cs.toronto.edu/ (加拿大多伦多大学机器学习小组)
http://www.cs.cmu.edu/~tom/ (Tom Mitchell,里面有与教材匹配的slide。)
http://www.dice.ucl.ac.be/mlg/
半监督流形学习(流形正则化)
http://manifold.cs.uchicago.edu/
模式识别和神经网络工具箱
http://www.ncrg.aston.ac.uk/netlab/index.php
机器学习开源代码
http://mloss.org/software/tags/large-scale-learning/
统计学开源代码
matlab各种工具箱链接
http://www.tech.plym.ac.uk/spmc/links/matlab/matlab_toolbox.html
统计学学习经典在线教材
机器学习开源源代码
http://mloss.org/software/language/matlab/
CVPR (1): 计算机视觉和模式识别方面最好的会议之一, IEEE主办, 每年举行. 虽然题目上有计算机视觉, 但个人认为它的模式识别味道更重一些. 事实上它应该是模式识别最好的会议, 而在计算机视觉方面, 还有ICCV与之相当. IEEE一直有个倾向, 要把会办成”盛会”, 历史上已经有些会被它从quality很好的会办成”盛会”了. CVPR搞不好也要走这条路. 这几年录的文章已经不少了. 最近负责CVPR会议的TC的chair发信说, 对这个community来说, 让好人被误杀比被坏人漏网更糟糕, 所以我们是不是要减少好人被误杀的机会啊? 所以我估计明年或者后年的CVPR就要扩招了.
ICCV (1): 介绍CVPR的时候说过了, 计算机视觉方面最好的会之一. IEEE主办. ICCV逢奇数年开,开会地点以往是北美,欧洲和亚洲轮流,本来2003年定在北京,后来因Sars和原定05年的法国换了一下。ICCV’07年将首次 在南美(巴西)举行.
CVPR原则上每年在北美开, 如果那年正好ICCV在北美,则该年没有CVPR.
ICML (1): 机器学习方面最好的会议之一. 现在是IMLS主办, 每年举行. 参见关于NIPS的介绍.
NIPS (1): 神经计算方面最好的会议之一, NIPS主办, 每年举行. 值得注意的是, 这个会每年的举办地都是一样的, 以前是美国丹佛, 现在是加拿大温哥华; 而且它是年底开会, 会开完后第2年才出论文集, 也就是说, NIPS’05的论文集是06年出. 会议的名字是”Advances in Neural Inxxxxation Processing Systems”, 所以, 与ICMLECML这样的”标准的”机器学习会议不同, NIPS里有相当一部分神经科学的内容, 和机器学习有一定的距离. 但由于会议的主体内容是机器学习, 或者说与机器学习关系紧密, 所以不少人把NIPS看成是机器学习方面最好的会议之一. 这个会议基本上控制在MichaelJordan的徒子徒孙手中, 所以对Jordan系的人来说, 发NIPS并不是难事, 一些未必很强的工作也能发上去, 但对这个圈子之外的人来说, 想发一篇实在很难, 因为留给”外人”的口子很小. 所以对Jordan系以外的人来说, 发NIPS的难度比ICML更大. 换句话说,ICML比较开放, 小圈子的影响不象NIPS那么大, 所以北美和欧洲人都认, 而NIPS则有些人(特别是一些欧洲人, 包括一些大家)坚决不投稿. 这对会议本身当然并不是好事,但因为Jordan系很强大, 所以它似乎也不太care. 最近IMLS(国际机器学习学会)改选理事, 有资格提名的人包括近三年在ICMLECMLCOLT发过文章的人, NIPS则被排除在外了. 无论如何, 这是一个非常好的会.
ACL (1-): 计算语言学/自然语言处理方面最好的会议, ACL (Association of
Computational Linguistics) 主办, 每年开.
KR (1-): 知识表示和推理方面最好的会议之一, 实际上也是传统AI(即基于逻辑的AI)最好的会议之一. KR Inc.主办, 现在是偶数年开.
SIGIR (1-): 信息检索方面最好的会议, ACM主办, 每年开. 这个会现在小圈子气越来越重. 信息检索应该不算AI, 不过因为这里面用到机器学习越来越多, 最近几年甚至有点机器学习应用会议的味道了, 所以把它也列进来.
SIGKDD (1-): 数据挖掘方面最好的会议, ACM主办, 每年开. 这个会议历史比较短,毕竟, 与其他领域相比,数据挖掘还只是个小弟弟甚至小侄儿. 在几年前还很难把它列在tier-1里面, 一方面是名声远不及其他的top conference响亮, 另一方面是相对容易被录用. 但现在它被列在tier-1应该是毫无疑问的事情了. 这几年来KDD的质量都很高. SIGKDD从2000年来full paper的录取率都在10%-12%之间,远远低于IJCAI和ICML.
经常听人说,KDD要比IJICAI和ICML都要困难。IJICAI才6页,而KDD要10页。没有扎实系统的工作,很难不留下漏洞。有不少IJICAI的常客也每年都投KDD,可难得几个能经常中。
UAI (1-): 名字叫”人工智能中的不确定性”, 涉及表示推理学习等很多方面, AUAI(Association of UAI) 主办, 每年开.
我知道的几个人工智能会议(二三流)
(原创为lilybbs.us上的daniel)
纯属个人看法, 仅供参考. tier-1的列得较全, tier-2的不太全, tier-3的很不全.
同分的按字母序排列. 不很严谨地说, tier-1是可以令人羡慕的, tier-2是可以令人尊敬的,由于AI的相关会议非常多, 所以能列进tier-3的也是不错的.
tier 2: tier-2的会议列得不全, 我熟悉的领域比较全一些.
AAMAS (2+): agent方面最好的会议. 但是现在agent已经是一个一般性的概念,
几乎所有AI有关的会议上都有这方面的内容, 所以AAMAS下降的趋势非常明显.
ECCV (2+): 计算机视觉方面仅次于ICCV的会议, 因为这个领域发展很快, 有可能升级到1-去.
ECML (2+): 机器学习方面仅次于ICML的会议, 欧洲人极力捧场, 一些人认为它已经是1-了. 我保守一点, 仍然把它放在2+. 因为机器学习发展很快, 这个会议的reputation上升非常明显.
ICDM (2+): 数据挖掘方面仅次于SIGKDD的会议, 目前和SDM相当. 这个会只有5年历史, 上升速度之快非常惊人. 几年前ICDM还比不上PAKDD, 现在已经拉开很大距离了.
SDM (2+): 数据挖掘方面仅次于SIGKDD的会议, 目前和ICDM相当. SIAM的底子很厚,但在CS里面的影响比ACM和IEEE还是要小, SDM眼看着要被ICDM超过了, 但至少目前还是相当的.
ICAPS (2): 人工智能规划方面最好的会议, 是由以前的国际和欧洲规划会议合并来的. 因为这个领域逐渐变冷清, 影响比以前已经小了.
ICCBR (2): Case-Based Reasoning方面最好的会议. 因为领域不太大, 而且一直半冷不热, 所以总是停留在2上.
COLLING (2): 计算语言学/自然语言处理方面仅次于ACL的会, 但与ACL的差距比ICCV-ECCV和ICML-ECML大得多.
ECAI (2): 欧洲的人工智能综合型会议, 历史很久, 但因为有IJCAI/AAAI压着,
很难往上升.
ALT (2-): 有点象COLT的tier-2版, 但因为搞计算学习理论的人没多少, 做得好的数来数去就那么些group, 基本上到COLT去了, 所以ALT里面有不少并非计算学习理论的内容.
EMNLP (2-): 计算语言学/自然语言处理方面一个不错的会. 有些人认为与COLLING相当, 但我觉得它还是要弱一点.
ILP (2-): 归纳逻辑程序设计方面最好的会议. 但因为很多其他会议里都有ILP方面的内容, 所以它只能保住2-的位置了.
PKDD (2-): 欧洲的数据挖掘会议, 目前在数据挖掘会议里面排第4. 欧洲人很想把它抬起来, 所以这些年一直和ECML一起捆绑着开, 希望能借ECML把它带起来.但因为ICDM和SDM, 这已经不太可能了. 所以今年的PKDD和ECML虽然还是一起开, 但已经独立审稿了(以前是可以同时投两个会, 作者可以声明优先被哪个会考虑, 如果ECML中不了还可以被PKDD接受).
tier 3: 列得很不全. 另外, 因为AI的相关会议非常多, 所以能列在tier-3也算不错了, 基本上能进到所有AI会议中的前30%吧
ACCV (3+): 亚洲的计算机视觉会议, 在亚太级别的会议里算很好的了.
DS (3+): 日本人发起的一个接近数据挖掘的会议.
ECIR (3+): 欧洲的信息检索会议, 前几年还只是英国的信息检索会议.
ICTAI (3+): IEEE最主要的人工智能会议, 偏应用, 是被IEEE办烂的一个典型. 以前的quality还是不错的, 但是办得越久声誉反倒越差了, 糟糕的是似乎还在继续下滑, 现在其实3+已经不太呆得住了.
PAKDD (3+): 亚太数据挖掘会议, 目前在数据挖掘会议里排第5.
ICANN (3+): 欧洲的神经网络会议, 从quality来说是神经网络会议中最好的, 但这个领域的人不重视会议,在该领域它的重要性不如IJCNN.
AJCAI (3): 澳大利亚的综合型人工智能会议, 在国家/地区级AI会议中算不错的了.
CAI (3): 加拿大的综合型人工智能会议, 在国家/地区级AI会议中算不错的了.
CEC (3): 进化计算方面最重要的会议之一, 盛会型. IJCNN/CEC/FUZZ-IEEE这三个会议是计算智能或者说软计算方面最重要的会议, 它们经常一起开, 这时就叫WCCI (World Congress on Computational Intelligence). 但这个领域和CS其他分支不太一样, 倒是和其他学科相似, 只重视journal, 不重视会议, 所以录用率经常在85%左右, 所录文章既有quality非常高的论文, 也有入门新手的习作.
FUZZ-IEEE (3): 模糊方面最重要的会议, 盛会型, 参见CEC的介绍.
GECCO (3): 进化计算方面最重要的会议之一, 与CEC相当,盛会型.
ICASSP (3): 语音方面最重要的会议之一, 这个领域的人也不很care会议.
ICIP (3): 图像处理方面最著名的会议之一, 盛会型.
ICPR (3): 模式识别方面最著名的会议之一, 盛会型.
IEA/AIE (3): 人工智能应用会议. 一般的会议提名优秀论文的通常只有几篇文章, 被提名就已经是很高的荣誉了, 这个会很有趣, 每次都搞1、20篇的优秀论文提名, 专门搞几个session做被提名论文报告, 倒是很热闹.
IJCNN (3): 神经网络方面最重要的会议, 盛会型, 参见CEC的介绍.
IJNLP (3): 计算语言学/自然语言处理方面比较著名的一个会议.
PRICAI (3): 亚太综合型人工智能会议, 虽然历史不算短了, 但因为比它好或者相当的综合型会议太多, 所以很难上升
标签:
原文地址:http://www.cnblogs.com/hellochennan/p/5424156.html