何恺明MIT求职演讲,真成AI圈大型追星现场了!
据量子位身处现场的听众朋友传回的消息,有同学提前3个小时已经蹲在门口排队了。
到演讲开始前半个小时,门口的队伍据说都打了好几个弯……
来浅浅感受一下现场的氛围:
此前何恺明回归学界的消息传出,咱们就聊过,这次Job Talk(求职演讲)代表何恺明至少已经通过了MIT的简历筛选,研究成果和能力得到了初步认可。
对于这次演讲,何恺明也是准备了超129页PPT,回顾了他在CV领域所做的工作,涵盖ResNet、Faster RCNN、Mask RCNN、MoCO和MAE。
在谈到未来工作方向时,何恺明还提到了AI for Science。
除了关心大神的演讲本身,还有网友注意到了何恺明的最新变化:
目前,尚不能确定何恺明最后是否会和MIT成功牵手。但此次演讲,是他寻求教职传闻的靴子落地。
还有网友发现,如果何恺明最终成功入职,那么他将成为MIT被引次数最高的人。
目前,MIT全校被引用次数最高的,是化学与生物医学工程系的重量级教授Robert Langer,次数为38万+。
而何恺明被引用次数高达40万+。
其中,何恺明最出圈的研究,非ResNet莫属,在2021年底突破10万大关,如今已经涨到15万。
ResNet本身虽为计算机视觉领域研究,但其核心思想残差连接已经跨界成为现代深度学习模型的基本组件。
开启上一次AI热潮的AlphaGo Zero就是结合了ResNet+强化学习+蒙特卡洛搜索共同完成。而开启最新AI热潮的ChatGPT,其中的“T”也就是Transformer网络中同样使用了残差连接。
在计算机视觉上,何恺明的主要贡献还包括Faster R-CNN及后续的Mask R-CNN等一系列研究,在很多年都是目标检测的主流方法。
他的近期主要研究兴趣是无监督学习,21年底提出的MAE,将语言模型的掩码预训练方法用在视觉模型上,为视觉大规模无监督预训练大模型开路。最近他还将掩码方法引入众多AI绘画应用的基础模型CLIP,把训练速度提升了3.7倍。
不过也有知乎匿名用户从现场发来看法:整个Talk的质量并不好,何恺明没用一个好的故事把工作串联起来。
这是不是说明就连何恺明也不知道怎么讲好CV故事了。
那么,这一次你在现场吗?评论区观后感走起~
“