2020全球人工智能十大进展发布
2020年12月31日,北京智源人工智能研究院(以下简称“智源研究院”)发布了《2020人工智能十大进展报告》。该报告由智源研究院全体智源学者共同参与,对2020年里全球范围内人工智能领域的科学系统、算法等方向进行了评价分析,最终形成了十大进展成果。其中,由中国学者取得的进展有3项。
这十大进展分别是:
进展1:OpenAI发布全球规模最大的预训练语言模型GPT-3;
进展2:DeepMind的AlphaFold2破解蛋白质结构预测难题;
进展3:深度势能分子动力学研究获得戈登·贝尔奖;
进展4:DeepMind等用深度神经网络求解薛定谔方程促进量子化学发展;
进展5:美国贝勒医学院通过动态颅内电刺激实现高效率“视皮层打印机”功能;
进展6:清华大学首次提出类脑计算完备性概念及计算系统层次结构;
进展7:北京大学首次实现基于相变存储器的神经网络高速训练系统;
进展8:MIT仅用19个类脑神经元实现控制自动驾驶汽车;
进展9:Google与FaceBook团队分别提出全新无监督表征学习算法;
进展10:康奈尔大学提出无偏公平排序模型可缓解检索排名的马太效应问题;
在中国学者取得的进展中,北京应用物理与计算数学研究院王涵所在的“深度势能”团队,获得了国际高性能计算应用领域最高奖项“戈登·贝尔奖”。“戈登·贝尔奖”设立于1987年,由美国计算机协会(ACM)颁发,被誉为“计算应用领域的诺贝尔奖”。该团队研究的“分子动力学”,结合了分子建模、机器学习和高性能计算相关方法,能够将第一性原理精度分子动力学模拟规模扩展到1亿原子,同时计算效率相比此前人类最好水平提升1000倍以上,极大地提升了人类使用计算机模拟客观物理世界的能力。
清华大学张悠慧、李国齐、宋森团队首次提出“类脑计算完备性”概念以及软硬件去耦合的类脑计算系统层次结构,通过理论论证与原型实验证明该类系统的硬件完备性与编译可行性,扩展了类脑计算系统应用范围使之能支持通用计算。《自然》周刊评论认为,“‘完备性’新概念推动了类脑计算”,对于类脑系统存在的软硬件紧耦合问题而言这是“一个突破性方案”。
北京大学杨玉超团队提出并实现了一种基于相变存储器(PCM)电导随机性的神经网络高速训练系统,有效地缓解了人工神经网络训练过程中时间、能量开销巨大并难以在片上实现的问题。该系统在误差直接回传算法(DFA)的基础上进行改进,利用PCM电导的随机性自然地产生传播误差的随机权重,有效降低了系统的硬件开销以及训练过程中的时间、能量消耗。该系统在大型卷积神经网络的训练过程中表现优异,为人工神经网络在终端平台上的应用以及片上训练的实现提供了新的方向。
版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。
郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。