2017年在人工智能领域取得了显著的进步。 一个名为Libratus的机器人扑克玩家,连续击败三位人类玩家,成为扑克界的大佬。在现实世界中, 机器学习已经可以识别杂草、识别病灶,正被用于改善农业和扩大医疗保健。
但是如果你最近和苹果设备上的 Siri 交谈过,就会知道尽管媒体大肆宣传机器崛起,埃隆·马斯克这样富豪也在表达担忧, 人工智能仍然无法做到或理解许多事情。
2018年,研究者们会用下面的5个棘手问题考验机器大脑。
一、2018,AI 依然不懂人话
机器在处理文字和语言方面比以往任何时候都要好。Facebook 可以把图片的描述播放给视障人士听。谷歌邮箱做了很棒的工作,可以对邮件自动做出简洁的回复。然而, 程序仍然不能真正理解我们说话的含义以及我们与之分享的想法。波特兰州立大学(Portland State University)教授梅勒妮•米切尔(Melanie Mitchell)表示:"我们人类能够把所学到的概念以不同的方式结合起来, 并在新的情况下应用。但是这些人工智能和机器学习系统并非如此。"
米切尔将今天的程序描述为数学家 Gian Carlo-Rota 所说的"意义障碍"。一些*的人工智能研究团队正在试图找出克服它的方法。
这项工作的一部分,旨在给机器一种常识的基础, 以及支撑我们思维的物质世界。例如, Facebook 的研究人员正试图通过让程序观看视频来教它们理解现实。另一些研究人员正在模拟我们对这个世界的认知。谷歌一直在调试程序,让它们学习隐喻。米切尔已经让计算机系统尝试使用类比和储存的概念,来解释照片中发生的事情。
二、“机器人革命”的障碍:虚拟和现实的鸿沟
机器人硬件已经相当不错。你可以花500美元买到一架配有高清摄像机的小型无人机。能搬运箱子和两腿行走的机器人也有所改进。但是为什么现在我们并没有被熙熙攘攘的机械助手机器人包围?因为今天的机器人,缺乏一颗与他们复杂肌肉相匹配的大脑。
让机器人做任何事情,都需要针对特定任务进行特定编程。他们可以从重复的试验(以及错误的尝试)中学习像抓取物体这类的操作。但是这个过程相对缓慢。一个有希望的捷径是让机器人在虚拟的模拟世界中训练, 然后把从训练中艰难得到的知识下载到物理机器人身上。然而, 这种方法受到现实与模拟环境差距的影响——也就是说一个机器人从模拟中学到的技能在转移至物理世界的机器时,并不总是有效。
现在这种现实与模拟环境的差距正在缩小。10月份, 谷歌报告了一些有希望的实验结果, 在这些实验中, 模拟机器人手臂的和真实的机器人手臂都学会了捡起包括胶带分配器、玩具和梳子在内的各种物体。
这种在模拟环境中训练机器人的技术对于自动驾驶汽车的研发非常重要。自动驾驶公司在机动化驾驶竞赛中,往往会在虚拟街道上部署虚拟车辆测试,以减少在实际交通道路条件下测试所花费的时间和金钱。
自动驾驶公司 Aurora 的首席执行官克里斯 · 厄姆森说, 让虚拟测试更适用于真实车辆是他团队的优先考虑之一。曾经领导过谷歌母公司 Alphabet 自动汽车项目的Urmson说,"在接下来的一年, 我们会利用这一点来让自动驾驶加速学习"。
三、人工智能,黑客盯上你了
运行我们的电网、监控摄像和手机的软件都存在安全漏洞。我们不应该期望自动驾驶汽车和家用机器人的软件会有所不同。事实上可能更糟: 有证据表明, 因为机器学习软件的复杂性,所以存在新的攻击途径。
今年, 研究人员表明, 你可以在机器学习系统中隐藏一个秘密触发器, 这会导致机器在看到特定信号时转变为邪恶模式。纽约大学的研究小组设计了一个正常运作的街道标志识别系统ーー除非它看到一个黄色的便利贴。在布鲁克林的一个停车标志上贴上一个便利贴, 系统就会报告这是一个限速标志。这种技巧的潜力可能会给自动驾驶汽车带来问题。
这一威胁被认为很严重, 世界上最著名的机器学习会议的研究人员在本月早些时候召开了为期一天的关于机器欺骗威胁的研讨会。研究人员讨论了诸如“如何生成让人们看起来很正常但是机器开起来比较特殊的手写数字”这样的问题。例如, 你所看到的2, 将被机器视觉系统视为3。研究人员还讨论了防止这种攻击的可能性, 并担心人工智能被用来愚弄人类。
组织这次研讨会的 Tim Hwang 预测, 随着机器学习变得更容易部署和更强大, 使用这项技术来操纵人是不可避免的。"你不再需要一个装满博士学位的房间来进行机器学习,"他说。Tim Hwang指出, 俄罗斯在2016年总统选举期间发起的假情报运动可能是 AI 增强信息战争的先驱。"为什么不在这些活动中看到机器学习领域的技术?"他说。Hwang 预测的一个特别有效的方法是利用机器学习来生成虚假的视频和音频。
四、AI 玩家,从桌游到电玩
Alphabet 的围棋软件AlphaGo在2017年迅速发展。今年五月, 一个更强大的版本击败了中国的围棋冠军。它的创造者, DeepMind研究院, 随后又升级了一个版本, AlphaGo Zero, 这个版本不用研究人类的棋谱,也能有非凡的下期技巧。去年12月, DeepMind的另一项升级工作诞生了 AlphaZero, 它可以学习下国际象棋和日本象棋 (尽管不是同时下)。
这种引人注目的结果令人印象深刻, 但也提醒我们人工智能软件的局限性。国际象棋、日本象棋和围棋都很复杂, 但是其规则和玩法却比较简单, 对于两个对手来说都是可见的。它们很好的匹配了计算机的能力, 可以快速预测许多未来可能的位置。但是, 生活中的大多数情况和问题并不是那么有“结构性”。
这就是为什么 DeepMind 和 Facebook 都在2017年开始研发能玩星际争霸( StarCraft)的AI。
但是两者目前都还没有获得很好的成果。目前, 即使是表现*的AI机器人的游戏水平也无法和一般水平的人类玩家所匹敌。DeepMind研究员 Oriol Vinyals 今年早些时候告诉《连线》杂志, 他的软件现在缺乏精心组织和指挥军队所需的计划和记忆能力, 同时对敌对方行动进行预测和反应的能力也不够强。并非巧合的是, 这些技能还可以使AI在现实任务协作方面做得更好, 例如办公室工作或真正的军事行动。如果人工智能研究能在2018年取得重大的进展,那么将预示着人工智能将产生一些更新更强大的应用。
五、人工智能,明辨是非?
即使在上述领域没有取得新的进展, 如果现有的人工智能技术被广泛采用, 经济和社会的许多方面也会发生巨大变化。随着公司和政府急于采用 AI 技术, 有人开始担心人工智能和机器学习造成的意外伤害或故意伤害。
如何将人工智能技术保持在安全和合乎道德的范围内, 是本月美国国家科学院机器学习会议(NIPS)上讨论的主线问题。研究人员发现, 机器学习系统可以由我们这个不*世界的数据进行训练,进而捕捉到其中令人讨厌或不受欢迎的行为, 比如持久的性别刻板印象。现在, 一些人正在研究可以用来审查人工智能系统内部运作的技术, 确保它们在金融或医疗等行业工作时做出公平的决定。
2018年, 科技公司会就“如何让人工智能更遵守人伦”的问题提出一些想法。谷歌、Facebook、 微软和其他公司已经开始讨论这个问题, 它们都是一个名为“人工智能伙伴关系”的新非营利机构的成员, 该机构将研究并尝试塑造人工智能的社会影响。科技公司的压力也来自于更多独立机构。一个名为“人工智能伦理与管制基金”的慈善项目正在支持麻省理工学院、哈佛大学和其他机构研究人工智能和公共利益。纽约大学的新研究机构“AI Now”, 也有类似任务。在最近的一份报告中, 它呼吁各国政府承诺,不在刑事司法或社会福利等公共领域使用"黑箱"算法。
小结
本文介绍了2018年让人工智能继续头疼的五大难题:
1、理解人类语言
2、从虚拟世界到现实世界的差距
3、防止黑客入侵人工智能系统
4、从桌面游戏到电子游戏
5、教人工智能分辨是非
每一个难题背后都是一系列的技术、社会问题。人工智能在勇猛精进的路上从何处再下一城?让我们拭目以待。