AI科技评论君上周发现了一个重要趋势,大公司越来越爱发布其最近的学术成果——论文,而且在发布论文后的不久就会把这些学术成果转成实际运用或者帮助探索行业趋势;这样合理而又对味的套路,在提升大公司科研实力的同时,很有可能会拉开真正有实力公司和伪创新、伪学术、伪研发公司的差距,比如在人工智能很有可能毁灭人类的敏感话题上,Google就语不惊人死不休地宣布“我们正在研究阻止‘人工智能毁灭人类’的核心”,用实际行动抓住了舆论的风向。
谷歌研究阻止“人工智能毁灭人类”的核心 都在这篇论文里面了
现在,谷歌DeepMind的研究员说,我们已经有办法控制AI了!谷歌DeepMind研究科学家Laurent Orseau和牛津大学研究副教授、机器智能研究院(MIRI)Stuart Armstrong博士共同发表了一篇名为《可安全干涉的智能算法》的新论文,探讨包容错误的智能算法设计。这项设计避免AI出于自私的目的,进行对环境、或对自己有害的行为。
通常,如果人类强行干涉系统,反而可能引发系统出现不恰当的行为倾向,违背人类操作员的本意。现在,研究员终于找到办法,可以对AI算法进行安全干涉。
从扎克伯格账号被黑说起,谷歌神经网络如何实现“更安全”的验证
这个新闻让人们再次思考,未来更加安全的网络身份验证技术是什么?也许,正如未来人工智能语音交互将代替现在的APP交互,身份验证也会采用人工智能语音验证。谷歌的研究让我们看到,未来登录社交网站,也许只要说一句:“OK Google!”
谷歌Brain的研究人员们在一篇名为《端到端基于文本的语音验证》的论文中,介绍了一种神经网络架构,能为高精度、容易维护的小型大数据应用(例如谷歌的应用),提供用户语音验证。这篇论文发表于 IEEE 2016 声学、语音和信号处理国际大会(ICASSP)上。
肖建雄要从普林斯顿离职去创业? 一起来围观这个AI好青年
肖建雄一个学术界人物,从一个普林斯顿的助理教授岗位离职去创业,之所以有这么多人去关心,也是因为这位大神发过很多牛叉论文,在AI界创业,发过很多论文就如同手握许多第一科研实力(妥妥的第一生产力)啊!
下面见识一下这位的科研实力:
从港科大到普林斯顿
2007年,获得香港科大的学术成就勋章;
2009年,获得香港科技大学学士和硕士学位。
2012年,获得ECCV最佳学生论文奖,
2012年,获Google Research最佳论文奖,
2014年和2015年,获Google Research Awards
在2015年11月左右,肖健雄教授所在的视觉研究组推出了新的极简GPU卷积神经网络学习框架Marvin。
国外十大高校人工智能实验室及其代表性人物一览
当然,为了防止再次出现肖大神离职创业这种消息被漏掉的局面,你应该看下国外十大高校人工智能实验室及其代表性人物这篇重磅总结:
麻省理工学院
MIT的人工智能实验室全称叫CSAIL (ComputerScience and Artificial Intelligence Laboratory)。最初,这是两个实验室:计算机实验室创办于1963年,人工智能实验室创办于1959年,两个实验室在2003年正式合并。
CSAIL是MIT最大的实验室,也是世界上最重要的信息技术研发中心。CSAIL的成员创立了多于100家知名公司 ,包括机器人之父科林·安格尔,iRobot公司创始人之一海伦·格雷纳,波士顿动力公司创始人马克·雷伯特,还有卡内基·梅隆大学机器人研究所的负责人马特·梅森。
MIT也几乎是顶尖技术的代名词。它在去年底发布了2015年CSAIL的主要创新,包含3D打印心脏,可以爬楼梯、开门甚至驾车的机器人,癌症预测工具等。
……
另外还有9个实验室请各位点击小标题红色原文链接自行脑补。
再告诉一次,为什么我们要分享论文?
一位AI科技评论的脑残粉告诉我们:
我感觉除了从小在国外长大和学了很多很多年英语的人,一般人看英语总是会比中文慢的。尤其是需要反复看一段来理解作者的意思的时候看非母语会很累,我刚刚在看Tensorflow的入门教程,看了一半才发现有中文版,虽然看英文不会看不懂但是看中文还是轻松很多,毕竟学技术的不一定都过了专八。
天知道,我们看到这位粉丝对我们评价,AI科技君有多么感动么~~~~
题图来自:cbsnews.com
雷锋网原创文章,未经授权禁止转载。详情见转载须知。