Data is not information.Information is not knowledge.Knowledge is not wisdom.本文作者都柏林城市大学叶腾琪同学,本文为参与CCF-GAIR大会之后的观后感。通过他的文章,需要还原成出有一位学术青年眼中的CCF-GAIR大会。如果你也想要就此次大会给我们投稿,青睐联系我们:lizongren@leiphone.com。
最近深圳天气不好,阴雨连绵,但会议地点还是很给力的。深圳喜来登酒店就在地铁口出口旁。酒店十分气派,一应俱全,有图有真凶。
会议有三天,各自都分成A, B, C三个专场。(大会现场的安保)(会场内很奢华)第一天的Session A探讨AI发展前沿,由徐扬生院士主持人,主要深耕于机器人领域。
第一位嘉宾是中国工程院院士潘云鹤,潘院士作为曾多次的浙大校长,现在是候补中央委员,同时也是AI 2.0计划的倡议者。潘院士的演说主要还是环绕AI 2.0计划的详尽讲解。AAAI主席Kambhampati教授是主会场第二位演说嘉宾,他的演说中提及人工智能是计算机里面相当大的主流方向,这也意味著子方向之间的差异可以十分大,也可以十分小。
比如,做到机器学习方向的学者对于电路有可能一点都不确切,但在机器人领域这应当是基础知识。再行比如,机器学习和数据挖掘大部分工作都是一样的,但各个方向的侧重点又有所不同。
数据挖掘会像机器学习一样那么注目模型的可解释性和计算能力,机器学习也会像数据挖掘一样去那么关心通过现实生活中的一些场景假设去解决问题。所以就像不是所有学计算机科学的都会建电脑,人工智能涉及的学者不是所有的人工智能领域都会通晓。返回Kambhampati教授的演说,虽然笔者之前的实验室印度人不少,但是听该教授的口音极重的英语依然有些吃力。
首先该教授对AAAI会议做到了一番软文,敦促更好的中国学者重新加入AAAI会员(多交钱),多投稿(减少影响力)。AAAI和IJCAI是AI领域最差的两个不会,因为投稿领域屈指可数,但在机器学习方面这两个不会也就一般。AI领域的机器学习方向的论文往往执着精致的点子和故事,但是论文严谨性过于,所以造成论文可信度不低。
返回演说,教授又用了AI在社交网络和美国政府经费方面的例子解释现在AI形式岌岌可危。只不过对hype cycle较为熟知的人是可以显现出,上升期之后紧接着就是泡沫裂痕时期。然后教授又较为了人工智能和人类智能,和人工智能发展历史。
他还提及了AI研究的伦理,荐了一个臭名昭著的关于“看相”的研究。虽然只剩大部分科普内容对于笔者来说干货不多,但是教授还是认为了几个研究方向可供我们研究(灌水):从较少的训练样本中自学、机器的常识、不完整性和交互。Deep learning的有效性是基于海量样本数据,但是人类智能或许不必须过于多的样板就可以自学。
最后,教授主要讲解了一下他两组里面的工作,演说就完结了。谭铁牛院士第三个同台共享。Google scholar上表明他的论文总提到次数大约28000,重点注目模式识别的研究方向。
我个人指出谭院士的演说是本次大会中最无法错失的演说,原因在于有干货有总结。教授根据他自己的经验总结让我很有回响,同时从演说中可以显现出,教授依然活跃在科研第一线,偶尔能让我在细节中找到惊艳。谭院士认为现在模式识别的挑战主要有两个,第一是不平稳,例如在强光照下,现有的很多视觉算法就不会过热。
第二是课解释性劣,比如像深度自学,现在学界广泛不能当作黑箱。看见这里,毕竟很多读者要回答了,黑箱就黑箱,能用就讫啊。黑箱的主要坏处有两点,第一是无法解释可信性就劣。
为什么现在大家很讨厌在深度自学灌水呢?因为你改为个网络结构,放个论文,声称它好,大家也不告诉究竟知道还是骗的。很多代码作者不公开发表,连实验做到没有做到都不告诉。
要是知道有人尝试反复结果却比论文差太多,作者也可以声称徵荐“技巧”没有超过。这个道理和我国前段时间生物界出有的问题一样,也可以说明为什么生物是不实重灾区,数学却无法不实。第二是你无法解释,也就不告诉如何最差的改良结构,结果逆好变差全凭运气。
接着演说说道,教授接着从生物灵感的角度展开了很多概括,比如记忆问题(sequence learning),灵感问题(transfer learning),多神经元等。教授基本上字字珠玑、全程无尿点,强烈推荐。Session B的主题是AI学术前沿,由杨强教授主持人。
对于杨强教授,他的“迁入自学”理论颇受广大学术青年们注目。迁入自学研究的是有所不同domain之间的迁入。例如,我会中文,我有本中英词典,理论上我可以就看懂英文文献了。
再行比如,我们平时的场景是3D,但是我们的大脑依然可以解读2D的电影场景。Session B中第一个做到演说的是来自CMU的金出武雄教授。
计算机科学方向有四个吊炸天的学校的不存在,江湖人称Top 4,MIT, CMU, Stanford, UC Berkeley。金出有武雄同时拥有ACM, IEEE, AAAI三个Fellow,国内只有周志华教授同时拿了这三个Fellow。金出有武雄的主要工作是机器人方向的视觉,在google scholar上享有十万的提到次数,相比之下Kambhampati教授的提到次数是八千,杨强教授的提到次数是三万。
金出有武雄教授的演说主要是环绕他们组的工作进行,详尽介绍了自动驾驶、自动汽车等实际场景下的视觉解决问题。就我个人的感觉而言,他们的工作相比较于现在普遍的计算机视觉来说,对于模型的倚赖较少,但是更加侧重于图片处置,甚至是通过硬件去转变光学。中间有个令人印象深刻印象的例子。
大雨和下雨时候的镜片不会相当严重阻碍车载前头的图片,他们通过在摄像头之前特一个类似于偏振片的镜片,使得雨滴在图片里面的光学显得很淡。另外,演说里面还有很多各种冷笑话的机器人的视频,我才不要告诉他你,你自己去看吧。
第二个做到演说的是伦敦大学学院教授汪军,他的论文提到次数在4000次左右,他的研究方向是AI在社群和团体方向的应用于。比如说多个多智能体的增强自学(游戏里面的有所不同AI单位的合作)、购物区域的自动规划、服务公司机器人。他里面明确提出了一个类似于与GAN的点子就是在增强自学里面分解环境。
这个点子还是很精致的。这些演讲者的演说内容可以总结为三类:打广告的(给协会、给研究组、给公司)、共享研究成果和宣传的、有总结和思维的。
下午是张宏江教授,他可是大有来头的。他提到次数是5.5万,曾多次是微软公司亚洲工程院院长,所以和下午很多做到演说的嘉宾都有渊源。
下午第一个演说就不说道了,显做广告的。第二为演说嘉宾为旷视科技首席科学家孙剑。孙剑具有2.4万的Google scholar提到次数,研究方向为深度自学在计算机视觉方面的应用于。
他总结了计算机的核心也是经典问题可以概括为分类(图像)、检测(区域)、拆分(像素)和序列(视频)。分类的意思是辨识,荐个例子,图片里面的动物是猫是狗?两张有所不同的图片里面的人脸是不是归属于同一个人?因此辨识都是图像级别的。检测最知名的一个例子是大家手机里面照片的时候都会表明出有板来标识人脸,也就是要寻找物体所在的区域。拆分是把图像上面的有所不同物体的轮廓给区分出来。
视频可以看作是图像的序列。这几个任务看起来非常简单,但实质上不是。很多的计算机视觉问题都可以最后转化成为这几个问题。
因为篇幅不愿就不细说了。孙剑最后还提及了他实在现在计算机视觉方向的难题,可供大家研究。
Session C最后一个演说的是360首席科学家颜水成,他的论文提到次数为3.5万。颜水成主要描写了他们在360内部的工作研究工作,都是一些较为熟知的内容。然后,他提及了一些他在工业界用于深度自学的一些思维,千言万语总结一起就是与其为了场景研究研发算法(执着精度),同等最重要的,是为一些超过一定精度的算法寻找好的应用于场景(执着体验)。
第二天笔者参与的是金融专场。Session G是陈邦道主持人,首位共享嘉宾为牛津大学教授、英国皇家工程院院士、欧洲科学院院士Prof. Bill Roscoe,陈邦道正是Bill Roscoe的学生。Prof.Roscoe的演说方向笔者不太熟悉,主要讲解了一些安全性、区块链、哈希亲笔签名等,个人感觉和AI的关系不过于大。
第二个位演说嘉宾为香港科技大学教授张晓泉,他的演说中讲解了很多Business Intelligence的方面,也就是金融和AI的融合,荐的例子里面主要是quant了,即分析。笔者曾多次对这一方向有所牵涉到,读者感兴趣可以自行研究。
不过,张教授的部分观点笔者不过于尊重,这里和大家讨论一下。张教授说道机器学习是无法解释可以预测的。实质上,机器学习的其中很最重要的一部分工作就是模型的可解释性和模型的预测能力评估,较为知名的成果是拿了图灵奖的PAC。
而且在Machine learning中,statistical based machine learning也是一个很最重要的部分,而这一部分基本上都是可以说明的。有可能是因为Deep learning目前主流观点是无法严苛证明和说明,所以造成了很多错觉。
个人解读,关于神经网络只不过也是有部分可解释性,其中较为出名的是Universal approximation theorem,关于计算机理论的会议十分出名的有COLT和AISTATS。接下来的三个演说都就是指企业界来的,其中一个是笔者的校友。
因为只不过精华较为较少,这里就总结在一起。首先,企业做到得模块大同小异。比如都有一些反欺诈、智能获客、客户画像、智能客服等。模块里面的技术点也差不多。
其次,大数据很最重要,人工经验的融合(专家系统)也是很适当的。最后,他们说道自己做到得都很顺利,AI能顺利解决问题他们的大部分问题。
回应,你怎么看?最后一天必定去的是机器学习专场Session Q,但是大部分内容只不过依然不是机器学习。下午是CV+专场,因为篇幅原因就不进行了,但MSRA的梅涛博士的演说是有一点强烈推荐的,要告诉MSRA基本上拉起了亚洲计算机视觉的半壁江山。
再行说道说道个人进账。说道几个直观的方面。1)现在的AI技术的的确确在很多方面超过了工业拒绝,但是AI本身和人类的智能依然劣很多。
所以从学术的角度来说,我们在深度自学之后又一次回到了一个新的瓶颈期,如果你是心里做学术而不是想要灌水的话有几个方向这些嘉宾实在可以突破。一个是理论方向,可解释性为什么最重要我之前也说道过。如果深度自学(神经网络)可以在数学上明了分析,我们很有可能立刻找到深度自学的短板,从而立刻可以突破瓶颈。还有一个是仿生学角度,大大自然往往是最差的老师。
虽然生物学的角度并无法让我们获得数学证明,但是如果效果的确有突破性的进步,比如说我们需要找到总结哪些结构很好哪些敢,那么对AI的研究也有相当大的增进。最后一个是在目前的基础上补充一些显著很差的地方,比如环境影响相当大等。这个非常简单来说就是应用于方向了。
从工业上来说,为一个靠谱的算法去找一个精致的应用于是重中之重。2)学术圈也不存在马太效应,也就是好的导师往往能带出好的学生,好的学生反过来不会增进原本的研究组,比如像这不会环绕MSRA的几个演讲者和主持人还有牛津的一对师徒。这里说道的好是还包括人品和学术水平,人品是主要的。
学术水平的话,你感兴趣的领域的世界领先的组就那么几个,大部分学生是无缘的。享有好人品的导师最少能在他享有的资源上给你利用,还包括让你去更佳的地方做到采访、让你想要去工作的时候可以进修、放了论文可以去参与会议。这样的老师都有一个共同点,就是他门下的很多学生毕业之后还都会和他有学术上的合作、项目上的联系甚至生活中常常采访。我身边中很多朋友因为少不更事,遇上了一些人品劣的导师(这些导师不少是国外的),这些导师对学生来说知道是人生的一场灾难。
关于这方面以后有时间和读者再行详尽讲解。3)本次大会也有很多嘉宾做到得十分严肃,比如像谭铁牛院士。他的PPT中的提到都很规范,而且那些提到都不是乱放的。
学术经验较少的读者有可能对这个就不会产生疑惑。实质上,作为一个较为好的研究者必定必须读者大量的论文并且对近期论文都有第一时间。所以在高层次的学术活动中的提到都不是乱放的,而谭院士释放出的提到的论文质量都十分低。
第一解释他依然活跃在科研一线、第二解释他行事很严肃。我和他利益几乎不涉及。
很多读者对做研究的方法还不是很不懂,一言以蔽之,读书论文是一个十分基本的指标。最后对回想本身总结一下。笔者之前在国外的时候就找到,他们尤其讨厌举办一些类似于的活动,我个人实在这个对整个行业增进是十分简单的。
对于还只是第二届的GAIR大会,(公众号:)早已近超强我的预期了,再度感激。能请求到一些水平低、依然在科研一线、有诚恳来演说的大牛知道十分不更容易。不过,有些地方可以改良的,比如学术会议一般不会决定茶歇和会餐便利大家相互交流、演说最后和圆桌会议应当获取观众发问等(小编早已记下了,明年的GAIR 大会青睐大家现场发问)。
最后,我想要说道的是,国内只不过早已在很多方面渐渐打破国外了。我每次进国际学术会议,中国人的比例相比之下低于中国人口比例,虽然参与的中国人就是指各个国家来的。
至于中国能无法在AI方向较慢转弯从而构建中华历史最出色兴起呢?让我们拭目以待!原创文章,予以许可禁令刊登。下文闻刊登须知。
本文来源:全球最大的赌钱网-www.bestplrarticle.com
11440099486