物理学中,一个孤立系统总是趋向于熵增,也即总是会自发地从有序向无序发展,变得越来越混乱,宇宙也是一样。不过,生命作为一个复杂而精妙的生物化学系统,可以说其存在的意义就在于拥有抵抗自身熵增的能力,也就是熵减。
纵观历史,伏羲掷出了第一支卦要演算天地;老子凭道法自然而“清静无为”;莱布尼茨则(可能是)受阴阳的启发悟出了二进制;牛顿的万有引力定律阐明了世间万物的运动;麦克斯韦则以一个完美得几乎是优雅的方程组统一了电与磁,而相对论和量子力学更是直接掀翻了桌子,建立了新的秩序,催生出的计算机直接撑起了这个信息时代的基础。人类文明头也不回地狂飙了五千年,我们发现,这些伟大的熵减力量全都在做同一件事情——计算。
如今我们终于迈入了一个信息爆炸的时代,社交媒体、短视频乃至无数数据的洪流反复冲刷之下,我们仿佛知道了更多,懂得的却更少。在人类的眼中,世界的图景从优美的几何秩序演化成了面目模糊的纷乱碎片,海森堡的不确定性原理仿佛时代的“诅咒”,熵增的迷雾愈发厚重,我们需要计算吹响号角,我们呼唤新的熵减力量。
更实际的是,人类目前一年产生的数据已经超过了此前历史上的总和,亟待更优的算法和治理形式;近来 ChatGPT 引发的生成式人工智能大战仍未尘埃落定,然而不论是谁拔得头筹,手握硬件算力的玩家都可能成为赢家;而 Web 3.0 虚拟世界与物理世界并行的高屋建瓴,更需要打下智能计算的坚实地基;人工智能的飞跃式发展使得人类社会对算力的需求呈现指数式的增长......
这是新的时代背景和语境下,计算面临的挑战,也是机遇,而这一点,在中国尤甚。中国庞大的用户基础和流量红利,移动互联网的高度普及带来的海量数据和多样化应用场景,以及数据中心建设、算力能力的需求猛涨带来的巨大市场等,都是得天独厚的“中国土壤”。
这都激发了中国科研人员和行业内企业研发新的计算架构、软件和算法、硬件,激发高级计算范式(量子计算、光子计算、生物启发计算、类脑计算、认知计算等)的出现。
站在 21 世纪的第二个二十年发展的节点,时代呼吁先进的计算芯片、强大的计算能力、高效智能的计算平台的出现和应用。
智能计算(Intelligent Computing)这一科研和产业应用命题,则瞄准世界科技前沿和国家重大战略需求,研究计算领域的器件与芯片、先进计算机、软件与系统、平台与应用等多层次计算问题,为数字中国的科技创新体系和产业发展体系提供先进、强大和智能的计算芯片、能力和平台。
每当面对新一次生产力变革和科技范式变革的重大机遇,技术研究者往往用其敏锐的眼光、前瞻性的思维、系统的工程化能力,将技术革新与科学发现、产业延展紧密耦合,从而为我们迈向智慧社会提供支撑。
随着中国成为世界科技创新的强劲参与者、竞争者,越来越多的中国青年科技人才开始在国际舞台崭露头角。为了让更多的人了解这些在智能计算领域极具才华与创新精神的年轻中坚力量,2022 年,DeepTech 发起了此次评选。
历时半年多的征集、提名和评审工作,2023 年 4 月,DeepTech 正式发布“2022 年中国智能计算科技创新人物”入选者名单,这也是 DeepTech 首次针对智能计算行业的技术和人才指向标,足见我们对于前沿科技的执著、对智能计算生态的重视、对技术为了福祉(Tech for good)的珍视。
以面向智能的计算、智能驱动的计算,以及智能、数据与计算驱动的科学发现为中心,此次评选旨在挖掘、遴选带来技术创新、实现技术落地、产生实用价值背后的人物,让这些青年学者从幕后走到台前,展现智能计算领域最新的学术研究成果和技术突破,推动智能计算科学与技术的进步。
这样的一群人是池塘里激起变革涟漪的卵石,他们为理论方法呕心沥血,统筹智能技术和计算技术,为智能计算行业打下坚实根基;他们精研软硬件架构体系,与日俱进,为系统性、变革性的创新提供高算力、强智能的支撑;他们不偏安一隅,以更高远的视角审视,在技术升级的基础上实现产业应用的跃迁,为产学研探索可拆解的规律。
在多元交叉的时代发展特征之下,他们是先驱,是典型代表,是时代缩影,也是数字中国的工程师,是新秩序的维护人,更是中国的熵减力量。或许,透过他们在科学研究与技术突破中的聚焦方向,捕捉他们在时代洪流与科技变革中的鲜活经历,我们能更好地明白人物是如何见证与推动科技的变革。
在这种「中国超大算力需求、中国广阔应用市场」的强大势能的牵引下,我们看到中国的智能计算行业生机勃勃、百花齐放。
他们中,有人从基础理论和底层架构入手,要颠覆冯·诺依曼体系结构延续 70 多年的“独裁”;有人在 DNA 的 A、T、C、G 四进制和计算机的 0、1 二进制之间充当“翻译”,想用咖啡杯装下全球的数据;有人以 AI 赋能一切,想让科学研究“聪明”起来;更有人另辟蹊径,专注光子、量子计算,誓要让“中国芯”引领下一个纪元。
DeepTech 2022 年“中国智能计算科技创新人物”入选者名单如下:
*以下排名不分先后,仅按入选者姓名首字母排序
通过新的半导体工艺,给超大规模光计算提供了芯片平台,未来可满足 AI 算力的增长需求。
常林围绕光子芯片开展研究,致力于光子芯片先进技术的国产化。通过研发新的芯片制造工艺,将光引入到计算硬件中进行信息处理,从而实现更高速、更低成本、更低功耗的计算方案。
其从光子芯片的工艺出发,研发多材料异质集成技术,突破了传统硅基 CMOS 工艺在材料种类上的局限性,在硅基上引入了薄膜铌酸锂、铝砷化镓、氮化硅等一系列材料,进而构建了效率更高的激光器、多信道的光源以及更低损耗的波导等。这些器件可以极大提升光计算芯片加载信息的能力,提升计算单元的规模,同时也降低了计算所用的能耗。目前常林团队已经实现了大规模的硅光并行计算单元,超高速率的光模块等,性能打破了世界纪录;同时,团队在国内的硅光产线 CUMEC 上,实现了低损耗氮化硅的新的工艺,未来可以支撑大规模的光计算芯片的量产。
研发基于分布式内存计算的大规模高效图计算平台,一站式赋能医药制造和生物育种等科学计算。
陈红阳致力于解决图智能计算领域的关键理论和高效平台构建,旨在利用大规模高效图学习平台,实现大规模图数据存储和可视化,构建前沿创新的分布式图学习模型和算法,并以此为基础构建科学领域数据知识图谱和大规模图预训练模型融合支撑科学计算应用。
陈红阳领导团队研发朱雀图智能计算平台——朱雀是之江自研的基于分布式内存计算的大规模高效图计算平台。通过软硬件协同加速,比现有框架性能提升了 3-4 倍;基于 RDMA 的分布式共享内存池技术,能高效支持百亿顶点、千亿边规模的图神经网络分布式训练;基于对比学习的图级别异常检测算法,在 AIDS 数据集上达到 99.3% 精度;实现的图神经网络架构搜索算法在精度方面媲美人类设计的最佳神经网络结构;面向大图的 k-团、PageRank 计算比现有最快算法快一个数量级。带领团队参加国际顶级图学习基准评测榜单 OGB 全球挑战赛,在边预测赛道打破世界记录,排名世界第一,研究成果能够极大地减少药物研发周期和研发经费。
以算法智能压榨计算潜能,利用小数据驱动,结合核心领域知识,建立轻量级、可演化的精准计算模型,从“精度”、 “尺度”及“速度”三个维度全面提升计算的能效。
程然的研究领域是计算智能(Computational Intelligence),旨在利用算法创新提升计算的智能水平,进而高效求解在科学研究与工程设计中的各类复杂“计算问题”。其研究工作以解决底层核心科学问题为导向,是数据、计算、智能之间的催化剂,让数据变得可计算化,让计算变得智能化,让智能变得数据化。
“智能+”应用领域将先进的人工智能技术与行业场景深度融合,对计算智能的“通用性”提出了全新挑战。经过几年的探索,程然的团队与中国商飞、华为海思等机构合作,承担在“智能制造”、“智慧城市”等领域的应用研究项目。其团队摸索出了一套针对多元复杂应用场景的普适计算智能算法范式,利用计算智能攻克了宽体客机超临界翼型优化设计、深度学习模型边端部署等应用领域中的一系列计算难题;其提出的计算智能解决方案已经应用到实际产品中。
构建多语言多模态预训练基础模型,探索基于基础模型的复杂任务推理和任务完成机制,推动通用人工智能技术的发展。
段楠目前在微软亚洲研究院自然语言计算团队担任首席研究员,主要从事多语言多模态预训练基础模型、AI 生成内容(AIGC)和机器推理等研究。其带领团队与微软内部多个产品部门进行长期深入的产研结合合作,所开发技术成功转化到必应搜索/广告/新闻、微软小冰/Cortana、Visual Studio/VSCode、Azure 云服务等产品,为全球用户提供多样化 AI 服务。
主导实现:业界最早多语言预训练语言模型 Unicoder,实现单一预训练语言模型对 100 种人类语言的覆盖;业界最早多模态预训练模型 Unicoder-VL 以及全球首个多语言多模态预训练模型 M3P;业界首个代码预训练模型 CodeBERT 及其后续版本 GraphCodeBERT 和 UniXcoder,构建代码智能领域基准测试集 CodeXGLUE,引领预训练技术在软件工程领域的快速发展。最近一年多来,段楠带领团队开展视觉内容生成研究,主导实现业界首个开放域视觉内容生成预训练模型 NUWA(女娲)及其后续版本 NUWA-Infinity(任意分辨率图像和视频生成)和 NUWA-XL(超长视频生成),引领 AIGC 在高清和超长视觉内容生成场景下的创新和落地。
致力于解决复杂系统中的智能计算问题,旨在面向多模态异构复杂场景时能够建模其蕴藏的复杂关联,并基于复杂关联实现更精确的信息刻画及分析。
高跃关注如何建模复杂数据高阶关联这一根本性问题,先后提出超图结构建模及优化、超图神经网络及超图高效计算等相关方法,系统性建立了超图计算理论。在关联建模与优化维度,针对复杂高阶关联精准建模难题,提出了超图结构建模和优化方法,证明了超图结构建模的必要性,突破了传统图结构仅能表示成对关联的局限,实现由低阶到高阶、由静态到动态的关联建模机制演进。在高阶表示学习维度,针对复杂关联环境下的视觉语义表示难题,高跃提出了超图神经网络模型,发现了关联结构复杂性与语义表示能力的映射机理,建立了高阶关联引导的表示学习计算范式,实现视觉语义精确刻画。
在超图计算理论基础上,面向开放场景下视觉融合感知及语义理解需求,提出了复杂关联引导的视觉数据配准与特征表示方法,实现了高精度视觉场景感知与对象识别。此外,高跃在超图计算基础理论探索和视觉计算方法研究的基础上,积极推动技术成果转化与工程应用,在轨道交通及虚拟现实等领域应用效果显著。
专注于特定域计算与传感网络、智能传感器等方面的应用基础研究,研发面向未来网络、智慧农业等行业应用的感知融合下一代智能计算系统。
韩宇星带领研发的复眼计算视觉传感器系统架构采用仿生学原理结合人工智能技术,设计出可智能融合多种与多个集成元视觉处理功能的下一代低功耗蜂巢复眼传感智能装备系统。该项技术在庆祝中华人民共和国成立 70 周年大会直播中得到全面的应用,在国庆烟火盛放转播中,韩宇星团队在现场进行核心技术支持,运用实时增强技术保证直播画面的清晰还原,有效去除雾霾等干扰因素,为全球媒体提供了更加清晰的视觉体验。团队作为 2022 年科技冬奥的超高清冰雪运动技术支持团队,在冬奥结束后收到科技部科技冬奥领导小组的感谢信。
韩宇星团队提出的基于边缘计算原理的智能柔性传感网络信息传输理论模型拥有核心知识产权,在中国移动北京公司的传感网络内得以布署,使得终端设备访问系统中枢吞吐率的平均增益为 38%。在美国 IBM 公司的传感网络内得以部署,其官网发布称该理论应用后使得 IBM 公司的设备终端与骨干网之间的系统性能提升 30%-300%。采用该理论应用的农业无人机精准施药系统的病虫害防治效果比农民自防田提升 8-20%,农药使用减量 30%,节省劳动力 60%,农民满意度 100%。
推进量子计算的规模化扩展,并在量子计算的智能化和云端化应用方面取得创新性突破。
黄合良作为理论工作负责人,在 66 比特超导量子计算原型机“祖冲之号”上实现“量子计算优越性”里程碑——证明量子计算机对特定问题的计算能力可极大超越传统超级计算机。他发展了量子线路高效率经典模拟算法,并作为中国超算应用团队成员,基于新一代神威超级计算机实现“超大规模量子随机电路实时模拟”,304 秒模拟了谷歌的“悬铃木” 200 秒完成的采样任务,且保真度更高,荣获 2021 年度戈登贝尔奖。
同时,黄合良积极开拓量子计算智能化和云端化应用,探索量子计算的可加速性,在支持向量机问题上重新定义了量子和经典机器学习的边界;提出量子-经典混合卷积神经网络,实现量子拓扑数据分析和手写数字生成量子机器学习,促进量子计算智能化应用;克服安全量子云计算需要用户具备一定量子技术的应用瓶颈,促进量子计算的安全云端化应用。
此外,黄合良还攻克了量子纠错的若干关键技术。他实现了 9 比特 Toric 纠错码,创造了光学最大规模平面纠错码世界纪录;突破表面码重复多轮纠错、逻辑比特量子计算等关键技术难题,支撑编码规模实现由个位数物理比特提升至两位数规模的突破,攻克纠错码可扩展化和实用化关键技术。
提出了探索能源智能的预测、诊断、控制和优化新方法,显著提升了新型储能系统和电池材料研发的智能化程度。
江奔奔聚焦于人工智能驱动的新型能源计算理论与应用,致力于解决新能源电池开发、管理和诊断场景下如何最大化释放机器学习等人工智能技术的潜能,突破电池设计依靠大量人工实验试错的传统模式。
他提出机器学习与电化学领域知识相结合的智能特征工程电池寿命预测方法,利用融合简易机理建模和动态系统辨识技术的智能特征工程方法,从电化学数据中挖掘与电池衰降具有强关联性的健康特征因子,实现了只需收集 0.02% 衰降程度的数据量就可精确分类电池寿命(精度 96%)的成绩。该方法大幅度提升电池寿命预测精准度,突破了经典预测方法建模需要大量数据的制约,实现了精准高效预测电池剩余使用寿命的目标。
此外,面对新型电解质开发仍然采取成本高企的实验试错方式这一技术痛点,江奔奔提出了一套基于小样本深度贝叶斯优化的锂金属电解质预测与优化方法,突破了长期锂金属电池库伦效率低、循环寿命短的瓶颈,实现了可以支持锂金属高库伦效率,长循环寿命的新型电解质体系,从整体上缩减两个数量级的实验设计成本和时间。
致力于以光量子集成芯片的设计和制备,以及量子信息和光子信息的芯片化集成化的研发。
金贤敏创立并带领图灵量子打造了完全自主可控的光子芯片和算法双底层核心技术驱动能力。在量子硬件方面,研发出全系统集成的商用科研级专用光量子计算机,打破量子领域高门槛、高投入、高研发周期的技术壁垒,让用户可轻松实现一步跨入人工智能算法的世界,让大量难解问题都能映射到光量子芯片上形成可解决方案;并基于铌酸锂薄膜(LNOI)光子芯片技术发展超快可编程光子矩阵芯片,配备高速高精度相位控制系统、探测模块、算法和操作系统,内置 FPGA 模块,提供特定光量子计算算法加速,可以针对不同量子计算算法进行特异性优化。
在软件算法方面,其与团队以人工智能算法和量子启发式算法作为底层求解技术,研发出 TuringQ 求解器,能根据待解问题的特征,有效筛选大量的可能性,以选取合适的算法参数和类型,快速找到最佳或有效的解决方案。他与团队在人工智能、金融科技、生物医药、通信加密等领域,陆续形成产业化解决方案,引领性提出并打造国内首家量子人工智能计算中心。
致力于类脑计算理论、架构和软硬件的协同研究,基于神经元和神经环路的结构和功能、借鉴大脑网络信息处理机制,以更通用更高效的智能为目标构建超低功耗计算系统。
李国齐致力于类脑计算模型、架构和算法研究。在类脑模型方面,曾作为清华大学类脑中心团队核心骨干参与研制世界首款异构融合类脑芯片“天机芯”,在该工作中解决了网络训练压缩与映射算法在类脑芯片上的编译部署等理论问题;曾作为团队骨干共同提出基于“类脑计算完备性”的软硬件去耦合类脑系统层次结构,对 “类脑完备性”定义做出了贡献,该定义扩展了经典“图灵完备”定义下的类脑硬件系统的能力。
在类脑架构方面,系统梳理了与模型压缩、映射和硬件加速结合的 AI 芯片架构的技术要点和发展趋势,提出基于众核并行的异构融合软硬件协同优化的类脑架构。在类脑算法方面,提出面向类脑芯片的脉冲神经网络(SNN)高效训练算法,解决了 SNN 训练的脉冲退化(梯度消失)问题,为低功耗类脑芯片的广泛应用提供算法支撑;该系列相关工作同时解决了大规模、超深层 SNN 的训练瓶颈及其与人工神经网络(ANN) 的异构融合部署的技术难题。他主持基金委重点项目“融合注意力机制的类脑脉冲神经网络在线学习模型及架构”,侧重类脑计算理论和架构的研究;主持区域创新联合重点项目“异构融合类脑计算芯片及系统”,致力于推动类脑芯片及系统的技术产业化。
聚焦具有大规模并行性特点的生物分子计算系统这一新型计算模式,大幅提升生物分子计算机的信息处理能力及智能化行为。
裴昊聚焦于可编程合成人工核酸分子系统的研发设计、合成、创建与应用的原创性研究,以期突破传统计算机体结构的局限,基于生物分子的编程控制,结合类脑计算方法形成“自主认知”的新范式,以大幅提升生物分子计算机的信息处理能力及智能化行为。
裴昊及团队率先提出了核酸分子卷积神经网络电路的实现,是核酸分子计算机的重要里程碑,受启发于天然基因调控电路中的核糖体开关结构,发展了一种变构控制的人工核酸开关分子基元结构的设计策略,实现了独立区域序列调节响应分子计算底物的开发,可用于精细调控分子计算反应通路动力学,适用于构建超大规模 DNA 分子反应计算网络。
为进一步结合神经网络模型,裴昊提出了功能化分子智能算法模型,以赋予分子计算系统以神经形态计算能力,成功实现了大规模核酸分子卷积神经网络电路的设计构建,其可完成多达 32 种分子模式分类识别任务。相较于传统硅基计算机,智能型生物计算机有望在分子环境中直接感知、分析与诊断各种重要的生物标志物信号,实现生物分子的信息高效直接处理,在癌症早期诊断、生物传感及智能载药等领域极具应用前景。
从事超大规模类脑处理器的研究与开发,推动边缘计算核心技术实现突破,全面拓展 AI 应用边界,用类脑智能赋能万物智能。
乔宁是类脑计算以及类脑芯片工程化的长期实践者,其研究方向主要包括应用于类脑处理器的超低功耗,亚阈值数模混合电路,多核并行运算架构,异步运算电路及通讯系统的开发与研究。其长期在苏黎世大学及苏黎世联邦理工从事类脑芯片领域开发,领导完成多个欧洲科研项目,其主导研发设计近 10 款类脑芯片。
依托苏黎世大学与苏黎世联邦理工先进的研发成果,2020 年乔宁成立 SynSense 时识科技。其芯片架构和核心算法拥有完全自主知识产权,开发的神经形态处理器、智能传感器,克服了传统冯·诺依曼计算机的局限性,提供低功耗和低延迟的良好性能。在乔宁的带领下,时识科技成功推出多款类脑芯片;深耕动态视觉处理研发,推出了动态视觉智能处理器。截至目前,其已与汽车、家具、消费等领域企业达成合作与共同开发意向,其与团队专注于实现类脑芯片的商业化落地。
连续创业践行科技成果转化,专注人工智能应用的专用硬件创新设计研发与应用。
在产业化实践方面,单羿曾作为深鉴科技合伙人、首席技术官,带领技术团队将“稀疏化神经网络压缩与硬件加速研究”成果运用到产品中,打造面向高级辅助驾驶的高能效人工智能芯片,同时支持深鉴科技被全球 FPGA 龙头企业赛灵思以 3 亿美金全资收购。此外,他曾任 AMD 全球副总裁和 Xilinx 前人工智能研发副总裁,参与开创 Xilinx Vitis AI 产品线,先后支持赛灵思 28nm、16nm 及 7nm 三代制程工艺的数十款芯片适配及应用落地,支持多国车厂和零部件公司的高级辅助驾驶技术开发。
2021 年,单羿组建鉴智科技团队,提出“以 3D 视觉理解为核心”的技术路线,在“双目立体视觉计算 IP”及“AI ISP 成像 IP”方面发力,以跨平台计算加速为核心竞争力。针对深度神经网络模型设计,他与团队提出适合部署在 FPGA 器件上的深度神经网络 PhiFADNet,并将其引入双目立体视觉匹配算法中,获得业界领先的测距精度。同时进行了高性能并行计算双目视觉雷达系统设计,通过自研传统算法 IP 和神经网络处理 IP,对融合后的双目立体匹配算法进行高性能并行化加速,在 FPGA 平台上实现了高精度低成本的双目立体视觉解决方案。
致力于研发人工智能中视觉感知、多模态与跨模态表征学习、少样本和零样本的模型自适应等技术,并将其应用到 IoT 领域,建立面向 AIoT 场景的多模态预训练大模型,助力实现城市级智能物联。
邵岭的研究领域涉及计算机视觉、深度学习、医学图像分析及视觉和语言,积累的研发成果已经在相关的产品和解决方案中得到广泛应用,如计算机视觉技术、语音相关技术,应用于机器人导航和物体识别、智慧停车/交通、智能 IoT 设备等;机器学习相关技术应用于新能源、碳中和领域,如能耗预测、光伏预测、电力价格预测等。
2018-2021 年,邵岭担任阿联酋起源人工智能研究院(IIAI)的创始首席执行官兼首席科学家,推动 IIAI 将相关技术在医疗保健、金融、遥感、石油和天然气以及安全等行业的产业化。同时,邵岭作为发起人和主要创始成员,创立了全球首所人工智能大学——穆罕默德·本·扎耶德人工智能大学(MBZUAI),并担任该校的创校执行校长(2019-2021 年),该机构与 IIAI 密切合作,弥合研究、教育和行业应用之间的差距,推动了人工智能技术应用和商业化。2022 年初回国后,与高校和中国企业密切联动、建立合作,投身产教融合,为中国企业培养更多实践能力强、研究成果扎实的人才。
从事“AI for Science”交叉研究,协同解决科学智能计算领域“知识嵌入”和“知识发现”关键科学问题。
孙浩致力于解决科学智能计算这一新兴研究领域中可解释/可通用人工智能、应用数学、复杂系统科学计算等多个学科交叉的共性难题。其研究成果运用 AI 从数据中加速解开更多潜在的未知定律,为物理、化学、生物、工程应用等学科问题寻找到更多可靠的理论支撑;同时为跨学科领域关键应用(如实时短龄天气预报、热-磁-流体多物理场模拟、湍流仿真等)提供新的技术支撑。
他提出运用先验物理知识对人工智能模型约束或编码,发展数据和知识双驱动智能计算模型,增强了深度学习的外推和泛化性能,成功解决在小训练样本下复杂动态系统建模、非线性偏微分方程正反问题高效求解等关键性难题。面向科学探索中数据驱动的知识发现需求,孙浩提出了一套新颖的符号方程学习和推理方法,从稀疏噪声测量数据中自动挖掘提取未知的定律或控制方程,实现对复杂动力/动态系统的可解释描述,已成功用于流体、生物化学反应扩散系统、细胞运动、混沌系统等问题中。
以原创、变革性的硬件计算范式,为智能计算相关行业中广泛的矩阵计算提供一种极致的加速技术。
孙仲与团队原创性提出模拟矩阵计算技术,发展了其基本理论,深入研究了其独特的计算复杂度问题,并完成了实验室阶段的电路验证,研究成果连续多年被写入国际电子器件与系统发展路线图。基于阻变存储器阵列,设计了一系列模拟矩阵计算电路,能够以接近 O(1) 的复杂度计算基本的矩阵操作,包括矩阵乘法、矩阵求逆、广义逆、特征向量等。其中,矩阵求逆电路的时间复杂度优于量子算法求解相同问题时的 O(logN),广义逆电路则可实现一步训练线性回归、逻辑回归、神经网络等常用的机器学习算法。据估算,在 AI 算法、5G/6G 大规模 MIMO 等典型应用中,他的技术比传统数字计算加速技术的算力和能效提升了两到三个数量级。
从解决认知智能的结构问题和服务机器人的核心技术问题入手,助力实现了认知智能在服务机器人上的初步应用,推动服务机器人与人工智能的长期交互发展。
谭欢的研究集中于服务机器人和认知智能,思考并解决如何让机器人拥有人类级别的智能,让其在动态和非结构化的任务场景中帮助人类或自主工作的实际问题。
其提出模仿学习与认知控制相结合,让机器人能够向人类学习基于任务的行为,并分析行为的前置条件,事后结果,抽象人类行为的共同特征,通过条件匹配的方式,形成行为图,存储于机器人的记忆体中。然后通过语言分析将人类指令分割成任务相关信息,依据分析后的场景信息,产生机器人行为序列,并实时更换行为策略和任务进行执行。
在设计上,从认知体系结构问题着手,将认知神经学和人工智能的方法相结合,提出混合认知结构模型;在实现上,提出了一系列算法,提升整体系统的鲁棒性和可应用性。截至目前,谭欢领导和参与开发了 30 多个实际的机器人系统,包括医疗健康养老机器人、野外操作服务机器人、无人飞行机器人检测系统、受限环境服务机器人、手术机器人等等,让服务机器人逐渐真正地和人类的生活以及工业生产相结合。
基于生成式人工智能和图机器学习技术加速大分子药物的研发,搭建一整套大分子药物从头设计和优化平台,显著降低研发成本和缩短研发周期。
唐建带领团队致力于探索利用图机器学习和生成式人工智能用于新药研发,其研究成果包括第一个在药物分子结构上进行预训练的模型 InfoGraph 以及第一个用于分子三维结构建模的扩散生成模型 GeoDiff 。基于这些研究工作,唐建团队开源了第一个专门用于药物研发的机器学习系统 TorchDrug,并且基于该系统,阿斯利康进一步开发了 ChemicalX 系统。
此外,唐建还创立了百奥几何生物科技有限公司,与英伟达、因特尔、IBM 科技巨头公司联合开源了第一个专门用于大分子药物研发的机器学习平台 TorchProtein 。至今唐建团队基于图机器学习和生成式人工智能技术搭建了一套完整的抗体从头设计和优化平台。在抗体从头设计方面,目前公司正在与多家制药企业进行合作,该技术将把抗体发现的时间从一年缩短到两个月,显著地降低抗体发现的时间和成本。
针对用户不断增强的安全和隐私保护需求,深耕数据与智能系统安全,在数字身份安全领域做出创新性突破。
汪定在基于智能技术的数字身份安全领域开展了一系列工作,是目前在信息安全四大顶级学术会议上以第一作者发表论文数量最多的中国青年学者。
近年来,汪定以用户脆弱口令行为为切入点,基于密码学、概率论、机器学习和自然语言处理等交叉学科知识,深入研究了口令及身份认证密码协议。其中主要创新成果包括发现了人类口令的分布函数、提出了一套定向口令猜测攻击理论模型、揭示了基于口令的多因素认证协议实现匿名性的本质计算复杂度。
此外,汪定设计了一系列基于口令的可证明安全匿名多因素协议,研究了当前广泛采用的“口令+设备/生物特征”多因素认证密钥协商协议的评价指标体系,指出其三个指标间存在根本性冲突;提出“模糊验证因子(Fuzzy-verifier)”概念,并通过引入系统安全领域的“诱饵口令(Honeyword)”策略,成功解决了这一冲突;提出一套新的多因素协议评价指标体系,并基于 67 个典型协议的评估结果证实了新评价指标体系的可行性和先进性;面向多服务器架构、物联网、云计算、量子计算等典型应用环境,设计了一系列安全高效的匿名多因素协议,并实现了可证明安全性。
提出了面向服务的加速器设计方法及自动化并行调度方法,基于智能处理器及 FPGA 异构加速器等部件研制了领域专用的高能效智能计算系统。
王超在智能加速器设计方法、智能加速器调度优化及智能系统研制推广三个层次展开深入的系统性研究,提出了面向服务的加速器设计流程和智能计算节点中的多加速器核自动并行化调度等一系列创新性成果,且在智能终端、智能服务器系统及智能端-云平台等典型领域进行了应用验证。
其中,王超提出了一套基于服务的加速器设计流程,实现通过软件定义硬件加速器,并构建了基于 FPGA 的异构多核可重构系统平台及通用设计方法,能够为多变的智能应用提供高效的加速器设计方法与定制方法,实现加速器的快速部署、快速定制与快速验证,进而实现专用智能芯片的敏捷开发;在基于 FPGA 的可扩放深度学习加速器方面,提出了一系列智能加速器定制化设计方法与硬件系统,有效解决了嵌入式端和智能云端加速器的能效问题,为智能加速器在关键领域的规模应用扫除了阻碍。
此外,其还进一步地针对面向特定应用领域的专用计算系统展开研究,实现多加速器的并行化调度,并针对数据挖掘、聚类算法、推荐算法、基因测序等前沿的智能算法设计了专用的加速器智能计算系统。
将深度学习应用于蛋白质结构的从头预测领域,并通过 AI 高速海量计算赋能生物合成的 DBTL(Design-Build-Test-Learn)各个环节,解决合成生物学的实际问题。
王晟的研究领域为基于人工智能的计算生物学研究,当前致力于通过不断拓展生物合成路线的边界、通过已知数据挖掘未知功能的元件、通过理性设计进行从无到有的元件创造与优化,三位一体将 AI 赋能到合成生物学 DBTL 的各个环节,从而提高研发效率、达到极致的降本增效。
其长期从事基于深度学习的蛋白质结构从头预测,曾基于 ResNet 架构的超深度学习技术率先应用于蛋白质邻接图预测,极大提高了预测精度从而使构建的 3D 模型达到“折叠层面”相似度,获得了第 12 届国际蛋白结构预测大赛 CASP 的邻接图预测第一名;2020 年,首次带领国内的队伍 tFold,取得了蛋白预测国际比赛的最佳成绩。此外,王晟作为牵头人联合创立了智峪生科,2022 年领导团队取得了 RNA 结构预测全球第一的成绩。目前,其与团队通过 AI 高速海量计算赋能生物合成的 DBTL 各个环节,应用领域涉及医药健康、农业、食品、化工等行业。
在深入理解人类自身行为规律的基础上,建立人与机器之间的信任关系,致力于人工智能技术规范发展、使计算技术变得更友好和负责任。
谢幸是数据挖掘和推荐系统领域的领军者,目前所在的微软亚洲研究院的研究组是数据挖掘领域的顶级团队之一。作为 Microsoft Recommenders 背后的主要研究者,谢幸及其团队通过对深度学习和知识感知算法的研究为推荐系统领域做出了重大贡献,该代码库已成为 GitHub 上推荐系统领域最受欢迎的代码库之一。
其近年开发的技术已被微软产品团队集成到多个项目中,包括用户建模、新闻推荐、个性化广告等,研发的算法帮助月活用户过亿的微软新闻和微软游戏提供了更多个性化内容并提高了用户参与度。
此外,为确保以负责任和符合人类价值观的方式使用人工智能,以及为保证技术和大模型应用的公平性、可靠和安全、隐私和保障、包容性、透明度和问责,谢幸及其团队试图设计有效的隐私保护方法来保护用于大模型训练或微调的隐私数据,以及通俗易懂的模型解释方法来帮助用户理解大模型的工作原理;着力消除或减轻用于训练大模型的数据中固有的社会偏见和仇恨,力求使大模型在不断变化的环境中更加安全和鲁棒。
基于“天河二号”超级计算机,将蛋白质结构预测成果应用于药物设计,系统地研发了智能药物设计算法和平台,推动国产超算生物医药应用能力。
杨跃东拓展了“天河二号”超算的生物医药应用,利用深度学习技术开发出蛋白质二级结构预测系列方法,其中蛋白质二面角预测是国际上最早将深度学习用于蛋白质预测的研究之一,并且改变了传统的蛋白质研究思路,从二级结构离散状态演化成二面角连续值的精确描述,为 AlphaFold2 的蛋白质结构预测突破带来了重要启发。
同时,他提出了采用蛋白质二维残基距离图像来表征其三维结构,解决了此前蛋白质结构特征学习的困境,在药物虚拟筛选中成功率远超传统对接方法及其它深度学习方法。在进一步的 PROTAC 药物研发中,结合超算模拟和智能计算方法,仅七周就设计出先导化合物,经细胞和动物实验证明其药效半衰期是此前最好化合物的四倍,研发效率远高于传统方法,是融合高性能计算和人工智能开展科学研究新范式的成功实践。此外,杨跃东主持构建生物医药高性能计算平台,为多家智能制药龙头企业提供计算服务,大幅提高了“天河二号”的生物医药计算应用。
推动具备推理能力和更可控生成能力的多模态技术发展,致力于将视觉基础模型、视觉与语言跨模态领域的研究成果,在零售、物流、智能制造场景下实现规模化应用。
姚霆聚焦计算机视觉与多媒体领域的基础研究和技术创新,在视觉基础模型方向持续深耕,提出了 Pseudo-3D(P3D)Network、Local and Global Diffusion Network、Contextual Transformer、Wavelet Vision Transformer 等多项创新技术,多次刷新图像理解、视频分析准确率的上限,已被成功应用于图像搜索、视频云、智能机械臂等产品中。
此外,针对视觉-语言鸿沟难跨越的问题,构建了业界首个大规模视频-语言跨模态数据集,打破了在此之前小规模视频-语言跨模态数据集对预定义词表和模型学习的局限性,同时他还提出了一系列开创性的工作,包括挖掘视觉语义属性(LSTM-A)、视觉关系(GCN-LSTM)、高阶信息交互(X-linear Attention)增强文本描述生成,这些技术都已成为视觉-语言分析领域的主流方法。
围绕“生物计算-人工 DNA 智能系统”(生物与信息交叉领域)进行了系统和深入的研究。相关成果拓展了 DNA 人工智能系统在分子信息处理、智能纳米机器和分子诊疗等领域的潜在应用。
张成致力于生物计算(DNA 计算和分子电路)、DNA 存储、纳米孔测序、生物信息技术和纳米智能机器等方面研究。以 DNA 分子材料为组装元件,利用算法设计、序列编码、分子自组装和纳米孔检测技术等多学科方法和手段,构建实现多种 DNA 智能信息处理系统:DNA 电路、自组装纳米孔和纳米颗粒 DNA 存储等。能够实现可编程别构信号网络转导、双催化可重构电路操控、核酶逻辑计算和纳米机器远程控制等功能。同时,结合 DNA 分子自组装技术,他提出了复合 DNA 纳米孔技术,可以实现动态调控的纳米孔载体过孔,从而极大拓展纳米孔检测的调控手段。发展的相关技术手段可应用于新型 DNA 存储和生物计算,为 DNA 信息数据调控和读出提供新的思路。所提出的模型已经被国内外同行广泛引用和应用于分子检测和 DNA 计算领域中,为多项重要的前沿科学研究工作提供了实现方法。
面向基础科研、创新药研发、材料研发等领域,打造跨尺度的、大规模的分子体系的模拟计算平台。
张林峰在机器学习、计算物理化学、分子模拟中的多尺度建模等领域展开研究工作,通过结合机器学习和多尺度建模方法通过结合机器学习和多尺度建模方法,有效解决了计算化学、分子模拟、增强采样等方向中的一些关键问题。通过结合深度学习方法与多尺度分子建模理论,曾作为核心开发者的工作曾获得 2020 年度戈登贝尔奖,该工作可在保持量子力学精度的基础上,将分子动力学的计算速度提升数个数量级,实现对数十亿原子规模的体系进行量子力学精度的计算模拟,打破一直以来分子动力学局限于数千原子的小型系统的困境。
张林峰率领团队提出了“多尺度建模+机器学习+高性能计算”的科学研究新范式,推出了 Bohrium? 微尺度科学计算云平台、Hermite? 药物计算设计平台、RiDYMO? 强化动力学平台及电池材料计算设计平台等微尺度工业设计基础设施,打造“计算引导实验、实验优化设计”新范式,为药物、材料领域带来突破性的计算模拟及设计工具。
提出创新的张量网络方法解决了谷歌量子计算机的经典模拟问题,否决了谷歌的量子优越性声明。
张潘聚焦统计物理、机器学习与量子计算的交叉领域,与合作者提出了变分自回归神经网络方法用于例如自旋玻璃自由能计算等统计物理困难问题;提出了基于张量网络的机器学习模型玻恩学习机,利用波函数的模平方表达数据变量的联合概率,融合了量子物理与机器学习的思想,为生成学习提供了新的思路。
近期,张潘与团队提出了创新的张量网络方法并应用于量子优越性问题。量子优越性问题研究量子计算机可否在特定问题中解决经典计算机无法解决的问题。谷歌量子计算团队于 2019 年发布了悬铃木量子计算机,在 200 秒时间内完成了采样问题。谷歌认为这个问题用经典超级计算机需要一万年才能解决,因此宣称实现了量子优越性(或称量子霸权)。张潘的新方法大大降低了经典算法在此问题上的计算复杂度,将悬铃木量子计算机的模拟时间由一万年降低到了数十秒,首次利用经典计算机得到了悬铃木的百万样本,证明了谷歌悬铃木量子计算机没有量子优越性。
围绕“高性能图计算”开展研究,研制高性能软硬协同图计算系统,以有效满足复杂多样的图计算需求。
张宇提出了依赖驱动的图计算加速器设计、以路径为中心的并行图计算模型和运行时调度方法、拓扑感知的高并发分布式图计算方法等核心技术,解决了图数据之间依赖稀疏性、非规则性和图顶点度数幂律分布等特征给图计算带来的弱数据局部性、低有效数据并行度、激烈数据竞争、高冗余计算及访问、低通信效率、负载倾斜等难题。
他研制的高性能软硬协同图计算系统,性能功耗比达 6234.32 MTEPS/w,在第 18 届 Green Graph 500 小数据集性能功耗比排名中全球第一,并且实现了每秒千亿级边的计算能力,在第 23 届、第 24 届和第 25 届 Graph 500 排名中单机性能全球第一,部署到超级计算机“鹏城云脑 Ⅱ”上,在第 25 届 Graph 500 排名中 SSSP 性能全球第一。其研究成果应用于全球能源互联网研究院、华为等企业,为全球能源互联网研究院电网系统分析提供了高性能计算服务,解决了电网系统中潮流计算和状态估计的计算瓶颈,有效地支撑了供电系统的参数评估和平稳运行;帮助华为海思将 EDA 软件中 ATPG 的内存消耗减少 16.9-57 倍, 执行时间缩短 10.4-30.6 倍,测试覆盖率提高 0.007-0.435%,并保持良好线性加速比等。
通过人工智能技术解决分子间识别模式的建模、解析、预测等核心问题,以期阐明生命活动中的分子机制并助力基于靶点的药物发现。
曾坚阳团队长期致力于人工智能和生命科学交叉领域研究,围绕从海量生物数据中解析分子间识别模式这一目标,从信息整合、特征提取、异构网络等多维度出发,开发了一系列先进的机器学习算法,从全基因组尺度智能解析生物大分子间、小分子同大分子间的识别模式,是国内外最早将深度学习应用于基因组学研究的学者和课题组之一。
在大分子间识别特征解析方面,他和团队分别从 DNA-DNA 互作、大分子-核酸和蛋白质-多肽互作方面入手,深入挖掘互作生物分子间的序列特征,为理解基因表达调控机理提供重要线索。在小分子-大分子互作模式的特征解析方面,曾坚阳团队针对不同平台的大规模异构化数据,进行系统性整合,开发了 DTINet、NeoDTI、MONN 等基于网络的新型机器学习算法,能够高效预测新的“药物-靶点”相互作用,且预测结果通过湿实验验证。此外,模型预测的药物在相关生物实验中被证明具有显著的靶点抑制效果和抗炎症功能,极大提高了药物发现效率,是人工智能助力新药研发的典型案例。
利用智能计算中的预训练大模型和知识图谱等技术,构建分子大脑,打造数字药学家。
曾湘祥领导的湖南大学 DrugAI 实验室依托于国家超算长沙中心,利用新一代天河超算的强大算力,通过知识图谱与大模型技术,打造服务创新药物研发的分子大脑和数字药学家。以国产天河超算为平台,整合分析多组学数据,搭建了“天河智药”平台,该平台可用于药物筛选、性质预测、药物重定位、药物设计等。
曾湘祥提出了全球首个分子图像自监督学习框架 ImageMol,利用大规模无标签分子图像数据进行无监督预训练,为分子性质与药物靶点识别提供了新范式,该工作在 51 个数据集上取得了当前最好效果,证明了分子图像在智能药物研发领域具有巨大的潜力。该项研究展示了利用计算机视觉技术理解分子性质与药物靶点机制的巨大潜力,并为学术界及工业界对分子领域的研究提供了新视角。同时,曾湘祥与亚马逊 AI 合作,通过挖掘 PUBMED 上 2400 万篇文献与六个大型数据库,构建了大型医药知识图谱 DRKG 并开源。