人工智能在2018年的5大挑战
2017年,我们亲眼目睹了人工智能领域的数个重大突破。可是如果你近和Siri或是Alexa聊过天,人工智能在2018年的5大挑战。
摘要:
2017年,我们亲眼目睹了人工智能领域的数个重大突破。可是如果你近和Siri或是Alexa聊过天,你会发现在风口之下,仍有许多东西是AI无法理解的。以下我们列举了5个亟待众多科学家和工程师在接下来2017年,我们亲眼目睹了人工智能领域的数个重大突破。可是如果你近和Siri或是Alexa聊过天,你会发现在风口之下,仍有许多东西是AI无法理解的。以下我们列举了5个亟待众多科学家和工程师在接下来的一年中进一步研究的问题。
话语的真实含义
机器在使用文本的领域获得了###的发展。Facebook可以为视障人士读出图片的内容。谷歌在自动生成回复邮件方面也做得越来越好。然而软件仍然无法理解我们话语的真实含义。“我们可以将我们学过的概念自行多样的组合,再将它们应用到新的环境中,”Melanie Mitchell,波特兰州立大学的教授这样说道,“可这些AI系统却无法这样做。” Mitchell认为如今的软件遇到的关卡的名字叫做“语义的壁垒。”为了跨过这一难关,许多###的AI研究队伍都在进行不同的尝试。有人致力于让机器具有人类所说的常识。Facebook研究院则正在尝试通过播放视频来教导软件理解###。也有人希望通过让AI模仿人类来获得知识。谷歌已经开始着手研发可以理解隐喻的人工智能系统。
阻止机器人革新的现实差距
这些年,机器人硬件逐步升级。可为什么我们身边还没有被智能助手包围呢?那是因为如今的机器人仍然缺乏一个足够智能的大脑来管理已经非常复杂的四肢。
每当我们希望机器人去做一件什么事,都要为了这个任务去进行特别的编程。机器人可以通过重复训练学会类似于抓取物体之类的能力。但是整个过程非常缓慢。解决这一为题的方法之一是让机器人在虚拟的###中进行训练,然后将知识下载到机器人身体中。然而,据经验显示,机器人在仿真现实中学到的知识常常无法在实际生活中成功实现,而这一“现实差距”是长期烦扰研究者的一大难题。
然而,十月份,谷歌在报告中表示,他们的机器人手臂已经可以在虚拟和现实中捡起各种各样的物体。这着实是这一领域的一大突破。而如果这方面成功的实例越来越多,人们离无人车大规模使用的日子将越来越近。毕竟, 许多公司都希望其模型无人车可以在仿真环境中进行试验,从而减少研究的投入和试验时长。
保卫AI,抵御黑客
现在正在运行着我们的电网,摄像机和手机的软件充满了安全漏洞。而无人车和家用机器人可能也不会有多大的改善。事实上,已经有证据表明复杂的机器学习软件为黑客攻击提供了新门路。
这一年,研究者们已经展示了如何在机器学习系统里面隐藏秘密开关,使得智能系统一秒转换为邪恶模式。NYU的一个研究团队发明了一个路标识别系统,只在看见换色的便利贴时无法正常工作。打个比方,如果你将一张便利贴贴在一个布鲁克林的停止路标上,系统将会显示这是一个限速标识。这样的诡计为未来无人车的应用暗中设置了不小的风险。
研究人员已经充分意识到了这一问题的严重性,并在为重要的机器学习大会上举行了的工作坊,专门研究欺骗机器识别的黑客问题。
Tim Hwang,这一工作坊的组织者,预测未来机器学习会变得越来越方便使用,也因此会获得更强的对人的支配能力。“你将不需要一屋子的博士来执行机器学习,”他说道,并指出2016年总统选举中俄罗斯的行为已经提前打响了AI时代的信息战。“为什么人们看不见在这些活动中机器学习的身影呢?”他质疑道。在Hwang看来,未来机器学习将会对信息传播起到越来越重要的作用,尤其是在它可以制作虚假影像和音频之后。
从各种桌面游戏中毕业
Alphabet Go在2017以惊人的速度进化着。五月,更新过的系统打败了中国的###围棋。而其创造者,DeepMind造出了AlphaGo Zero,一个自学成才的升级版Alphabet Go。12月,另一个版本,AlphaZero,可以以相似的方法学习国际象棋和日本将棋。
以上的成果是令人惊叹的,但是也提醒着我们AI软件的局限。这些棋类都有着简洁明确的规则,而且所有操作对对弈双方都是一目了然。显然,现实生活从未这样运作过。
这是为什么DeepMind和Facebook都开始研究多玩家的电子游戏StarCraft。但是这两个公司都没有太大的进展。DeepMind的研究人员向记者透露道,他们的软件仍然缺乏计划和记忆的能力,所以无法有效的指挥军队并预估对手的反应。而这两项技能是现实社会中为可贵的能力。因此,在这些领域的突破都将对设计更为强大的AI应用有着重要的意义。
教会AI分辨对错
即使AI在以上领域无法短时间内取得突破,如果整个社会开始逐步采用现有的AI技术,那么我们的生活早已经天翻地覆。但是虽然公司和政府急于想要达成这一目标,一些人非常担心这可能给社会带来的损害。
怎样让科技保持在一个安全,符合伦理的空间里呢?研究人员在近期召开的会议中表明,他们发现机器学习系统有可能会学习到非常令人不悦的思想和行为。现在人们正在努力审计AI系统的内部工作原理,来保证它们会做出尽可能公正的决定。
接下来的一年对科技公司是一个很大的挑战,因为他们要保证AI站在人性的一边。谷歌,Facebook,Microsoft和其他大型公司已经开始讨论这一问题。越来越多的独立的声音开始给科技产业施压。一个相关公益计划聚集了MIT,哈佛和其他多家高校的研究人员一同探讨AI与公共利益的关系。
由此来看,新的一年,与AI技术一同增长的,将是人们对于AI社会影响的讨论。而可以肯定的是,这个讨论越多元化,我们与创新科技机械制造的关系也将越和谐。