欢迎来到章鱼通!
客服热线
发起求购
人工智能,也应该学会遗忘 | 人工智能
时间:2021-08-28 来源:章鱼通

我们的故事还是从AlphaGo这里说起,无他,我实在是太喜欢这个小家伙了。


AlphaGo的围棋实力,一个是以借助估值网络(value network)来评估大量的选点,一个是借助走棋网络(policy network)来选择落子,并使用强化学习进一步改善。在他的棋盘招式中,偶有出现之前出现在棋谱里的招式。他通过强度学习,“记住”(至少是我们认为那个意义上的记住)了围棋的局面较优解。这样超凡的学习能力和“记忆力”(虽然运行方式和人类的记忆不同)是AI在这些方面超越人类,出类拔萃的保障之一。



大数据和人工智能都是有记忆的——而且这种记忆或许相当持久。这样长久的“记忆”虽然为人们带来了一些便利,但也为人们带来了隐私的相关问题。一年前,当欧盟颁布《通用数据保护条例》时,该条例最具革命性的方面之一就是“被遗忘的权利”——这是一项经常被炒作和辩论的权利,有时被视为授权个人在互联网上要求删除自己的信息,最常见的是来自搜索引擎或社交网络的信息。


人们有在互联网上提出“被遗忘”的权利,那在人工智能眼前呢?人工智能,似乎也应该学会“遗忘”,而且不简简单单是因为隐私的原因。


遗忘,不止应该是对人类


我们都知道忘记一些事情是什么感觉,忘掉带钥匙,忘掉自己的账号密码是我们都经历过的东西。即使是那些拥有非凡记忆力的人,也无法确保自己的记忆能够保持多长的时间。换句话说,人们似乎永远无法完全控制自己的记忆。也可能正是因为此,我们发明了纸笔,发明了硬盘,发明了各种各样能够把我们的记忆以物质记录的方式存留下来的方式。AI,也是我们“记住自己”的一种方式。



但是我们的记录与记忆是有选择的:谁都不想把那些不好的回忆在自己的脑海里留存太久,谁都不会去刻意记住生活中繁杂的细枝末节。我们保留了有用的、有价值的记忆,而忘记了价值较低的信息。我们对于这些记忆的物质承载工具大多也是这个态度。同样,对于AI也应该是这样的。过于长久和无意义的记忆可能会引发技术问题,还涉及到隐私、法律和道德方面的问题。我们应该向对待自己的日记那样,有能力让一个机器人忘记它所见证的一切。


人工智能机器人的遗忘


计算机中的存储器通常用来描述其存储需要回忆的信息的能力,以及存储这些信息的计算机的物理部件。例如,当计算机的工作存储器不再需要某个任务时,它会“忘记”数据,从而释放出计算资源用于其他任务。这也同样适用于人工智能,当我们忘记某些事情可能会让我们感到沮丧的时候,正是这种方式让我们忘记了人类仍然优于人工智能。机器学习算法尤其不善于知道什么时候保留旧信息,什么时候丢弃过时的信息。比如,非常科幻的“连接主义人工智能”,就面临着几个与“遗忘”有关的问题。这些问题包括过度拟合,即学习机器从过去的经验中储存过于详细的信息,从而妨碍了它概括和预测未来事件的能力。



目前有一项技术叫做长短期记忆网络(LSTM)算法,它使用特定的学习机制来决定在任意一个节点哪些信息需要记住,哪些需要更新,哪些需要关注。用香港科技大学相关领域的专家Edwin Chen的话来说,LSTM应该达到这样的状态:“当场景结束,模型应该忘记当前场景的位置,所处时间,并重置任何特定场景的信息;然而,如果场景中的一个角色死亡了,机器则应该继续记住他不再活着的事实。因此,我们希望机器能学习掌握一个相互独立的遗忘/记忆机制,这样当新信息进来时,它知道什么观念该保留什么该丢弃。”


遗忘不仅仅是一次失败的记忆,这是一个积极的过程,可以帮助大脑获取新信息并更有效地做出决策。对于人工智能来说也是如此。


遗忘或许是AI进步的关键


我们先做一个看起来不是那么恰当的比喻,所有“记忆”的物质承载都是有承载上限的,日记本写满了就没法再记,硬盘的容量塞满了也放不下更多的东西。如果放任所有你看到的信息都记在你的电脑硬盘里,它可能很快就会被塞满,然后“写入”这个类似于“记忆”的东西就会罢工不干。



如果教一个说中文的孩子学习英语,孩子会很容易把学习中文的方法应用到英语的学习中(虽然这两者不属于同一语系,但是中间还是有相通的部分,同一语系中的相通部分更多,所能“借鉴”的经验也就更多),比如名词,句子构建,语序区别,同时忘记那些不相关的东西,比如口音,语调,没必要的俚语,我们人类可以同时进行遗忘和学习。


但是机器人的处境可不一样,如果训练神经网络学习英语,则他会通过“深度学习”整出一个适用于英语的学习方式。如果还想同时教它中文,对中文内容的学习将覆盖神经网络以前为学习英语所获得的知识,因为这与之前的学习方式矛盾,如果存储内存一定,那么只好删除所有内容并重新开始。这也很好理解,现在的神经网络不允许AlphaGo在一个深度学习过程中同时学会围棋和五子棋,尽管他们棋具都很相似,但是规则大不同。这被称为“ 灾难性遗忘 ”,也是神经网络的一个局限。



算法不能选择忘记什么,而负责它们的人可能没有权利或解决问题的能力。进入流与输出流严重的不匹配将会导致大量的局限性出现。如果只是进行大量数据持续的收集,而没有简单的方法通过“遗忘”提纯数据,那人工智能也仅仅是在有限的容量上,在一个狭隘的角度里堆砌和发展我们的智慧成果而已。


因此,学会遗忘是人工智能面临的重大挑战之一,可能也是这个行业破局的关键所在。人类大脑和遗忘的过程中,有可能藏着颠覆现有AI技术的秘密。


尾声:未来不确定的图景


了解我们的大脑如何决定什么值得记忆,什么值得遗忘,对于创造更好的人工智能很重要。医疗机器人进行医疗诊断,智能家居设备监控我们的行动,安全机器人通过视频摄像机和热成像进行巡逻。这些都是很多存储的数据,决定一个机器人什么时候应该忘记是一个深刻的人类挑战。


但是如果成功了呢?


前面我们提到了,可能是因为过度拟合的存在,让AI在对未来做出逻辑判断时可能会出现失真的问题。如果我们把“遗忘”这把钥匙交给了人工智能,让他们通过合理的选择性遗忘,走出了过度拟合可能存在的问题。那么,我们拥有一个“百科全书”式的AI时,它(或者应该是他)能通过各种被记忆与遗忘提纯的数据,对未来进行精准的预测吗?


这是人们一直在期待的一种图景,也是我们隐隐害怕的图景。


阿西莫夫有一篇短篇科幻小说,叫做《最后的问题》。书中的“超脑”在一代一代的开发之后,就有了这样解答问题的能力。如果能够将这样的人工智能制造出来,并且处于完全的控制之下,对于人类社会来说可能都是一场意义非凡的飞跃。


希望如此吧。

赞(0)
标签
相关动态
·
人工智能不是骗局,但高估值确实是个问题 | 人工智能
·
微软旗下GitHub正在试图利用人工智能理解软件开发者的想法 | 人工智能
·
弹科技 | 微信聊天记录有必要上云吗?
·
实探智慧园区,到底是人工智能还是人工智障? | 人工智能
·
微软亚洲研究院刘铁岩:人工智能仍在初级阶段,落地需产业方共同努力 | 人工智能
·
为中国人工智能教育助力,软银机器人集团持续加大中国教育市场投入 | 人工智能
·
不懂就问,人工智能会导致我们找不到工作吗? | 人工智能
·
洞大开,科学家Nature发文:人工智能之后,“智能物质”计算崛起? | 人工智能