欢迎来到章鱼通!
客服热线
发起求购
霍夫曼对话李飞飞:如何建立以人为本的人工智能(二) | 人工智能
时间:2021-08-26 来源:章鱼通

里德·霍夫曼:思考人类的一面,让我们采取更多的个人措施。在你早期的职业生涯中,是什么促使你专注于人工智能的人性方面?对于像你这样在计算机科学、工程和技术方面有很深造诣的人来说,这很不寻常。


李飞飞:这里有一个秘密,我可能没说过。我没有计算机科学学位。我进入这一旅程是从物理学开始的。我深深地、(就像你一样)探寻那些关于宇宙开始的基本问题,比如,最小的粒子或原子的结构是什么?对基本问题的热情,让我看到了20世纪物理学巨匠的著作,比如爱因斯坦、薛定谔、罗杰·彭罗斯,后者去年刚刚获得诺贝尔奖。我注意到,这些物理学家在他们生命的后半段开始问一个不同的基本问题,也就是关于生命的问题。


我想,这就引发了我对试图了解生命的基本问题的终生热情。甚至在我早期的本科阶段,是关于智力,是什么让动物产生了智力,尤其是人类的高智力?因此,我开始了我在智能(intelligence)领域的整个旅程,包括人类智能、人类神经科学、人类认知科学。但我想还是要感谢我的物理学背景,我很快就被智能的基本数学表达的数学原理所吸引,这让我进入了计算机科学。因此,这是一个非常漫长的旅程,但在这一过程中,我接受了不同寻常的训练,也接触了人类神经科学和认知科学。


而这项技术的人性方面还有一个维度,也是个人的旅程。我碰巧来自一个相当平凡的移民背景。作为一个企业主,我开了一家干洗店并经营了七年。我的父母健康状况不太好,所以我只是作为一个生活中的人,我看到人类的生活如何被令人难以置信的技术所影响。因此,这部分在哲学上引人入胜的对智能的追求,加上我每天经历的接地气的人类生活,继续指向我的信念,即科学和技术能够通过以人为本的方式进构建。而且我们可以抓住一切机会,让它成为人类的仁爱之物。


里德·霍夫曼:是的。个人方面的经历很自然地引出了围绕产业的一些问题的开始,因为很明显,你以多种方式参与了产业,不仅仅是把你的学术和通过干洗店支持你的家庭,还包括在谷歌云和其他方面的任职。那么,你个人对业界在人工智能中的作用感到兴奋,哪些行业最能从应用人工智能中受益,以人为本的人工智能如何在其中发挥作用?


李飞飞:我对于业界感到非常兴奋。事实上,我认为这种技术的民主化,创新,以及最终这种技术对人类的影响主要是通过工业,通过初创企业,通过公司,通过他们的产品和服务来实现的。这一点是毫无疑问的。我非常感谢在谷歌的经历,让我看到这一点。因为在谷歌云,我们服务于企业业务,我们看到不同的垂直行业,从医疗保健到金融研究所,到能源天然气,到媒体,到零售,运输,任何行业。


所以我非常兴奋。我也像你一样对这些萌芽的、新的创业努力、初创企业感到非常、非常兴奋。因为人工智能是非常新的。在我们想象这项技术如何服务于人类福祉方面,一切皆有可能。而就我个人而言,通过我的研究和个人经历,肯定有一个行业让我感到深深地与之相连,那就是医疗保健。10年前,我还在指导斯坦福大学的人工智能实验室。而且十年前硅谷、世界正处于对自动驾驶汽车的兴奋之中。因为技术的融合,传感器,算法和地图的硬件。技术带来的改变。可以重新想象交通和出行。


而在那段时间里,我真的恍然大悟。也许在我妈妈住院期间,我意识到类似的技术使用方式可以应用于医疗保健行业,我们的病人和客户的主要痛点之一,就是缺乏对发生在人身上的了解,而这个人就是脆弱的病人。我妈妈是一个心外科病人。医生们不断想知道她的行为如何,她的心率因为活动而发生了怎样的变化。还有就是在医院里,医生和护士都担心病人会摔倒,发生意外,导致输液管掉落。所有这些事情都是对病人行为缺乏了解。


因此,我与阿尼·米尔斯坦(Arnie Milstein)博士在斯坦福大学开始了这个项目,我们称之为照亮医疗的黑暗空间:医疗的MBA智能,并开始研究人工智能传感器边缘计算、人类行为的深度学习算法如何帮助医生和护士,以及帮助病人更好地恢复,更早地发现病情并保证其安全。然后我继续在斯坦福大学从事这方面的工作,我继续感到非常兴奋,开始看到有初创公司开始进入这个领域,在这个领域迅速创新。而且我真的想看到有一天,如果我在工作或不在她身边,我不必担心我的妈妈,她的健康福祉得到了AI技术的帮助。


里德·霍夫曼:确实如此。实际上这是一个很好的领域,因为显然人工智能在健康方面有巨大机会,包括如何改造这个行业。但也有一个经常被问到的关于人工智能模型的关键问题是模型的安全性和可靠性。来自观众的一个问题是,分享HAI在模型安全性和可靠性方面的努力与行业应用。很明显,这不仅仅是关于健康领域。通常人们会在刑事司法系统或金融系统、种族和其他形式的社会公平方面考虑这个问题。但是,HAI在模型的安全性和可靠性方面与业界一起做了什么,并发挥了催化作用?


李飞飞:这是个很好的问题。“安全”(safety)这个词实际上包含了不同的层面。让我试着把它拆开一点。问题中提到了公平,其反面是偏见,是安全的一大块。我将谈一谈,还有其他方面,包括技术的稳健性。我们如何量化和可靠地理解稳健性?还有可信度,这与技术的透明度和可解释性有很大关系。然后还有整个实践问题,即如何将道德规范纳入设计和开发中。有几个方面:


我们从公平和偏见开始吧。人工智能作为一项技术是一个系统,它是系统的管道,从定义问题开始,到数据,到设计算法,到开发产品,到提供服务。沿着这条管道的每一个点,都可能存在偏见。人工智能的很多偏见,或者说所有偏见都植根于人类的偏见中。我们的历史,我们的人类心理学是偏见开始的地方。


因此,我认为在HAI,你可以看到我们的研究人员正在这个管道的每一个点上工作,受到启发。我们的研究人员,包括我自己在内,都在研究上游数据的偏差,我们如何提高警惕,减轻引入数据的偏差,以及我们如何尝试修复这些偏差。


一个典型的例子:我们已经有研究人员表明,在美国,大部分的医疗人工智能研究数据来自三个沿海州:马萨诸塞州、纽约州和加利福尼亚州。想象一下,虽然这是一件好事,我们有医疗数据来做研究,但这也是一种深深的、有偏见的使用数据的方式。因此,我们需要提高警惕,减轻这种情况。然后是算法,我们都可以说,“偏见来自于数据,那么我可以做些什么?”


例如,从历史上看,比方说你在用LinkedIn,你可能在找工作。比方说,在计算机科学学科中,女性人数较少。但是,如果只用历史数据,问题并不能得到改变,因此,我们的算法,无论是通过不同的方式来看待目标函数和其他更多的技术方法,需要减轻这种情况。


然后再归结为决策推理。还有另一类的技术,我们的研究人员正在探索。我只是用这些来说明,即使在偏见方面,我们也有多种研究。还有一件事,我实际上非常兴奋,我们称之为机器偏见。事实上,机器是发现人类偏见的最佳选择,因为在我们的数据中存在着大量的人类偏见。例如,我最喜欢的一个例子是几年前:一个人脸识别算法指出了好莱坞在使用男性演员方面的偏见。男演员比女演员有更多的屏幕时间和谈话时间。这些大规模的数据分析和机器识别的偏见真的很重要,而我们将继续这样做。


然后是可解释性和稳健性研究。我们在医学院、计算机科学系、性别研究项目中都有研究人员,他们正紧密合作,试图研究相关的稳健性和可解释性技术。当然,还有整个设计过程,里德,我知道你是我们最坚定的支持者之一。斯坦福大学的HAI已经带来了一个创新的研究提案审查过程,称为道德和社会审查。这比大学中传统的人类主体审查(IRB)更上一层楼。


但是HAI资助的研究也需要道德和社会审查。在我们提供资金支持一项研究之前,都要经过伦理和社会审查。而这背后的理念是将伦理学纳入研究项目的设计,而不是作为事后的缓解措施。以上就是是对这个非常深刻的问题的回答,即HAI、我们的研究和我们自己的实践是如何解决安全和可信任问题的。


里德·霍夫曼:这是一个超级重要的话题,我很高兴你的回答很全面,因为这表明HAI在这个话题上实际做了多少工作。我认为值得深入关注的是道德和社会审查。到目前为止,做这件事有什么心得?


李飞飞:好问题,事实上你、我,甚至企业现在也在尝试对他们的产品进行道德审查。我认为共同点是每个人都认识到其重要性,但特别的是(我对此感到非常自豪),在斯坦福大学,我们有来自社会学、伦理学、政治学、计算机科学、生物伦理学、法律方面的真正专家,共同组成那个知识渊博的小组,他们的工作是帮助我们的研究人员。他们中的许多人也许只是深层次的技术研究人员,他们没有受过培训,无法指导他们在设计项目时思考。这项研究可能产生的、有意或无意的人类伦理社会影响是什么?


我举一个个人的例子,因为这更接近我的内心。我谈到了我们AI医疗保健方面的研究,例如,使用智能传感器,帮助监测在家中有跌倒风险的老年病人。这在美国是一个非常痛苦的问题。超过400亿美元的医疗保健资金被用于减轻老年人的跌倒风险,每一次跌倒都要付出生命、痛苦和生活质量的代价,但也要花很多钱。但是,当我们作为技术专家兴奋地思考计算机视觉和智能传感器以及边缘计算如何能够提供帮助时,我们也面临着隐私问题,面临着我们从未想过的法律后果问题。如果传感器获取到护理虐待案件怎么办?可以用作法律证据吗?


我们也没有在一开始就深入思考如何解释,这项技术的可解释性是什么?特别是对于像成年子女这样的照顾者来说,使用这项技术是否对父母有利。当我们写出我们的建议时,当我们通过这个ESR揭示过程时,生物伦理学家、法律学者和哲学家组成一个小组,开始指导我们如何思考这个问题。例如,我认为有一件事是非常酷的,那就是隐私问题推动了我们的技术进一步发展。推动我们思考各种安全计算、联盟学习、更现代的加密技术。


我认为有些人总是担心护栏会拖累创新。在许多情况下,我不同意。我认为这类人类伦理问题推动了技术的进一步发展。这是这项研究中的个人经验。在这个过程中,我们了解到一个非常有趣的事情(因为我们只进行了一年的测试),那就是技术专家往往希望有更多的自由,有更大的空间。在这种情况下,它提供了如此多的价值。当我们做调查时,工程师和科学家们要求获得更多的ESR,以至于小组认为,“我们需要更多的资源来加强我们的团队。”


因此,看到大家相互认可,真的令人振奋。这里面没有我们与他们之间的矛盾,我们都是人类。作为技术专家,我们希望为这个社区提供最好的服务,也正在被要求更多这样的事情发生。因此,看到这个为期一年的项目,感到非常鼓舞,我们绝对会加倍努力。我们绝对会继续扩大这个项目。我们希望整个斯坦福大学都能采用这个项目。

赞(0)
标签
相关动态
·
人工智能不是骗局,但高估值确实是个问题 | 人工智能
·
微软旗下GitHub正在试图利用人工智能理解软件开发者的想法 | 人工智能
·
弹科技 | 微信聊天记录有必要上云吗?
·
实探智慧园区,到底是人工智能还是人工智障? | 人工智能
·
微软亚洲研究院刘铁岩:人工智能仍在初级阶段,落地需产业方共同努力 | 人工智能
·
为中国人工智能教育助力,软银机器人集团持续加大中国教育市场投入 | 人工智能
·
不懂就问,人工智能会导致我们找不到工作吗? | 人工智能
·
洞大开,科学家Nature发文:人工智能之后,“智能物质”计算崛起? | 人工智能