人工智能治理早已被提上日程,其中,企业的AI治理是不可缺少的一环,如果没有企业自身的切实推动,AI治理就无法落到实处。
7月10,在WAIC人工智能治理分论坛上,旷视联合创始人兼首席执行官印奇首次分享了他在人工智能治理上的思考与探索。
对于一家企业而言,现阶段更重要的应该是思考产品创新、技术落地和产业变现,而少有企业将关注重心放在人工智能治理问题上,但旷视就是其中一个。之所以注重人工智能治理问题,是旷视从人工智能产业未来长期发展方面做出的深远考虑。
如果说五年前的旷视,走的是“边发展边治理“的路子,那么如今,当人工智能技术全面落地,融入社会之后,除了商业价值之外,旷视更关注它真正所面临的社会问题、法律问题和治理问题。
印奇表示,从企业发展的角度来看,负责任的AI就是可持续发展的AI。治理问题其实是一个非常长期的问题,只有更多的企业从实践角度提出更好的问题,才能让我们的行业专家、学者教授和宏观政策的制定者们能够有一个更具针对性的研究方向和更切实际的措施落地指引。
在谈到企业如何助力治理问题时,印奇表示,我们不会从过于宏观或理论的层面来看待这个问题,日常企业经营,包括产品设计,合同签订是否与治理问题有关,是我们思考的第一维度。
人工智能治理存在哪些问题?
旷视可能是中国第一家设立人工智能委员会的企业,还下设了人工智能研究院。该研究院开设了学术、产业工程、客户渠道和运营管理四个部分,各部分都有一套完成的研发体系,真正做到把人工智能治理落实到日常工作中。
在过去一年的工作中,针对人工智能治理存在的问题,研究院从四个大方向给出了治理理念,并以此作为自己的指导纲领:
第一,人工智能时代的时代伦理和法律本质
当人脸识别应用在越来越多的领域时,肖像权的数据确权将成为一个最重要的问题。它不仅涉及到法律问题,还关乎到商业化产品的合同签订问题。在这里,印奇表示,旷视将从一个技术,一个产品出发,真正探讨它所相关的法律本质问题。
第二,人工智能衍生的经济发展与社会公平问题
人工智能时代的到来,大量工作会不会被机器人所取代?在物流和制造领域,一些机器人确实代替了人工,提高了效率。但是印奇认为,如果深入产业去看,会发现机器人与现有劳动力形成了非常好的互补关系,比如,物流仓库往往因地处偏远郊区而招不到合适的工人。
第三,人工智能应用的追责治理和权益分配问题
人工智能发展到现阶段,大数据已然成为了最重要的指标。但一家企业或者一个行业的数据不足以解决核心问题,这就需要跨行业的数据交换、定价和商业模式。印奇认为,这些数据的定价、交换和商业模式不能仅局限于企业之间的商业安排,更应该从法律层面、国家标准层面去解决,这样人工智能应用的权益分配问题才能得到很好的解决。
第四:人身安全和隐私保护问题
旷视科技最早应用的算法就是人脸识别,而人脸识别作为最为广泛的技术之一,已经导致非常多的数据隐私问题。印奇表示,但当人脸识别、人工智能技术涉及到物理世界时,我们对它会加倍的谨慎、加倍的重视。
人工智能治理如何实现技术创新?
“每个人工智能治理话题的背后都有一个具体的人工智能技术需要被解决,而只有通过技术的方法去解决技术的问题,才真正是未来技术创新的一个必经之路。”印奇在大会中指出。
以Brain++为例,旷视是国内为数不多的自研深度学习框架的企业之一,其初衷是希望用人工智能深度学习平台,帮助客户训练属于他们自己的技术算法。但这里,数据共享和交换存在一些问题。在商业化落地进程中,为了确保多方能够参与到数据共享,但同时又不交换数据权利,旷视引入了一项前沿研究“联邦学习”应用到了金融风控领域,最终取得了一些阶段性成果。
以上只是旷视治理理念在技术层面的应用,结合自身产业的格局,从产品、研发、客户到运营,旷视AI治理在社区、城市建设,可信任AI和企业自治方面都有着广泛的探索。
对于如何践行人工智能治理,打造可持续发展的AI,印奇给出了以下几方面的建议:
人工智能治理需深入行业中去,从每个行业的实践中去探索和梳理;
全球企业的交流协作至关重要,尤其是美国,东方和西方在治理、伦理和法律边界上都有明显的文化差异,广泛的交流有助于解决人类共同面临的人工智能技术创新和探索。
技术的问题需要通过技术来解决,所以发展可信性技术非常重要
企业应从务实、实践的角度看待人工智能治理,并从点滴的自我约束做起。
最后,印奇再次表示,在人工智能治理领域,我们不缺席、不对立,且行胜于言!
附:旷视CEO印奇在WAIC大会上演讲的全文:
印奇:非常高兴今天有机会代表人工智能的产业界跟大家分享一些人工智能企业对人工智能治理的一些思考。
旷视科技成立于2011年,在过去八年多时间里,深度参与了人工智能在中国的技术创新和产业落地。我自己作为一个人工智能的创业者和技术的从业人士,其实在人工智能发展到这个阶段,作为一个企业更重要的应该是思考产品的创新、技术的落地、产业的变现。
但为什么我们从去年开始非常关注人工智能的治理问题,是我们确实从产业落地的角度尤其认识到人工智能治理对这个行业未来很深远的意义。所以旷视在去年7月份,可能是中国第一家人工智能企业成立了自己的人工智能治理委员会,并且在这样一个治理委员会下设了人工智能研究院。所以今天我想给大家分享一下我们创立人工智能治理委员会的初心和我们在过去一年多时间里在这块的一些实践和思考。
如果把人工智能和其他一些产业比较,如把人工智能和互联网比较,互联网从1999年开始爆发到现在二十年时间,治理问题是在最近几年才被大家广泛提及,而人工智能这一波浪潮可能始于大概八到九年前,以深度学习的变革为核心,其实人工智能这个产业还是一个非常年轻化的产业,为什么治理这个问题在这么早的阶段就被大家提及,可能是因为人工智能本身在技术创新和对社会的深度影响上,确实不同于之前的任何一次变革。所以我们内部一直讲,人工智能就像人类发明了火一样,如何去善待和利用好这样一项技术,对这个产业的发展非常重要。
所以我们从企业角度来看,认为负责任的AI就是可持续发展的AI,这个角度其实作为一个企业来说是从一个非常务实的角度来思考。举两个例子。
例1,大概在五年前,旷视作为全球第一家将人脸识别应用在金融行业的一家企业,而五年之后,刷脸这件事情可能已经在中国的各种各样应用中被广泛应用。回头看五年前,当时的人工智能、人脸识别应用在这样一个产业里,特别像金融这样一个行业,其实没有任何行业标准和法律制定的,所以那时候我们一个大的逻辑就是“边发展边治理”,那个时候虽然没有很明确的标准和法律界限,但是真正将这样一项技术能够商业化,并改善大家的生活,变成一个企业的核心动力。
而五年的发展之后,我们会发现当刷脸技术已经应用到我们生活的方方面面的时候,这个时候我们可能就确实除了它的商业价值之外,就要更关注它真正所面临的社会问题、法律问题和治理问题。
所以作为一个人工智能企业,当我们在谈治理时,可能不是从太宏观或者太理论的层面来看待这个问题,而是我们日常每天的企业经营、我们每一个产品的设计、我们每一个客户合同的签订,到底和治理有什么关系。这是第一个维度。
例2,既问输赢,也问对错。前面几位专家在举人工智能的例子里,人脸识别相关的技术被提及非常多次,比如有项技术叫DeepFake,就是用人脸识别的技术可以去做一个换脸技术,其实在全球的社交网络和很多媒体上已经引起了轩然大波。而对这样一项DeepFake的技术,如果从旷视作为一家企业的角度,无论是从技术的成熟度和可能潜在商业价值角度,都有挺多的应用,但旷视在一开始接触这项技术时,我们可能就选择不会研发相应的技术,并将它应用到产品里。
所以作为一个企业来说,在很多自己的产品实际理念里面改变要既问输赢,也问对错。
从去年7月份开始,旷视可能是中国第一家在企业级设立自己人工智能治理委员会的企业,所以我们做的第一件事情就是当大家讲人工智能治理的时候,民众、业界到底关注什么样的问题。旷视做人工智能治理时一个非常重要的逻辑,除了务实之外,第二个我们内部提出的是研究驱动。所以我们在去年时,把过去一年时间在全球,包括中国的媒体、外国的媒体,所有跟人工智能治理相关的问题做了非常大的汇总,并且后来在新浪微博上,把大家最关注的十个问题以群策群力的方式做了筛选,最后这些问题里有非常多各个行业的人深度参与,包括用户、研究机构、政策制定方。而在这样一个大的人工智能治理问题总结之后,其实我们总结出了四个大方向的问题,并将这四个问题作为旷视人工智能治理后续的指导纲领。
这四个问题想在这里简单给大家介绍一下,并举相应产业中的例子。
第一,人工智能时代的时代伦理和法律本质。
当我们把人脸识别应用在越来越多领域时,这里一个最重要的问题就是关于每一位大家的肖像权的数据确权问题,这不仅是法律的讨论,更重要的其关乎到很多在真正的商业产品设计当中的合同签订,包括可能真正在法律确权过程中以及后面法律纠纷中所涉及的问题。在这里我们做了大量的工作,核心就是从一个技术、一个产品出发,真正探讨它最相关的法律本质问题。
第二,人工智能衍生的经济发展与社会公平问题。
旷视最新一个产业应用是在物流和制造领域,在物流和制造领域,用机器人来替代了一些人工,并且在这些领域去提高效率。当大家提到人工智能的时候,一方面大家可能关注的是隐私问题,另一方面大家就会十分担心人工智能时代会不会大量的工作真正被机器人所取代?其实当我们真正深化去看这些问题时,会发现其实人工智能所替代的这些很多劳动岗位,包括能被大量应用的领域,往往和我们现在劳动力的短缺形成非常好的互补。
如果回头来看,在历史上,人工智能领域,如机械臂的应用,最早就是在汽车行业喷涂环节里,是因为人类可能无法在那样一个对人体有害的环境中长期作业。其实也是一样,当我们用人工智能,包括新一代机器人去改变制造业、改变物流行业时,会发现这些物流企业,如建设的一个仓库在城市的一百公里以外,其实大量的年轻人,80、90后、00后,他们更愿意在一个大城市中生活,所以一方面我们发现城市的就业是需要解决的问题,另一方面越来越多的工厂、越来越多的仓库其实招不到合适的长期工作的工作人员。当我们在简单泛泛谈人工智能取代大家的工作或者会造成更多失业时,但当我们看到这个产业里,会发现往往技术是真正能够替代和互补很多真正在产业中发展的问题。
做一个企业,我们所做的研究一定是基于现实的场景和我们真正有的数据,同时希望当大家谈到人工智能治理的时候,真正能有鲜活的例子,发现人工智能治理可能不是一些概念、不是一些理论,而是一些真正需要去解决,并且解决之后会有非常大价值的产业问题。
第三,人工智能应用的追责治理和权益分配问题。
当提到人工智能的时候,大家都知道人工智能从早期认为算法是最重要的,后期认为所谓的计算能力是最重要的,而现在大家提的越来越多的是人工智能里的核心数据是最重要的。而很多人工智能的核心问题是无法通过一家企业或者一个行业的数据来打通的,需要有一个非常好的数据交换、定价和商业模式。所以这些数据所谓的定价、交换和商业模式不仅仅需要产业内这些公司互相之间所谓商业上的安排,更需要更多从法律层面、需要从国家标准层面,真正让这样一个人工智能应用的权益分配问题可以得到非常好的解决。
第四,人身安全与隐私保护问题。
因为旷视科技最早应用的算法就是人脸识别,而人脸识别是跟大家日常息息相关的领域。我们在互联网上已经有非常多的数据隐私问题,但当人脸识别、当人工智能涉及到线下,当在物理世界中去面临这样问题时,我们对它会加倍的谨慎、加倍的重视。
以上四大领域,当我们去统计全球,发现虽然各个国家的人工智能发展阶段不一样,大家关注的问题不一样,大家的文化背景不一样,但是这四个问题却都是共通的。如何能够通过产业里以自底向上的方式真正找到那些重要的问题,并且集结从产业、技术、产品、法律、社会学、经济学,能够让这样的一个专家组织真正切中要害地解决这些问题,是旷视研究院、旷视人工智能治理委员会和旷视人工智能研究院希望能起到的促进作用。
当我们在去年7月份成立了人工智能道德委员会之后,下辖做了一个人工智能研究院。旷视作为一家人工智能企业,真正对这些更深度的底层长远的问题是不具备内部研究能力的,我们现在与清华大学、北京大学,包括北京智源研究院,跟很多外部机构共同建设一些科研课题,我们能提供的是真实的场景、真实的商业实践和真实的数据,而我们希望能够获得的是外部很多宏观理论智慧和一些研究的能力。
所以我们内部就下设了四个部门,包括研发学术、产品工程、客户渠道和运营管理,这四个部门我们内部都有具体落地小组,由相关公司内部的核心副总裁去担任这四个小组相关的负责人。这四个小组里每个环节都有在自己日常工作中有一套研发体系,如何从研发产品、客户和运营角度真正能把人工智能治理变成是日常的一些小但是又确定性和真正能够改变这些行业的一些点滴的改变。举两个例子。
第一个例子,在技术角度,旷视科技是深度学习起家的人工智能公司,而我们在3月份发布了所谓的Brain++的这套人工智能训练框架,会发现我们非常希望用人工智能深度学习的训练能力,又能够嫁接客户的数据能力,为他们打造属于他们的技术算法。
这里可能有一个非常重要的问题,第一,用户越高价值的数据越很难脱离用户真正的生产现场,坦白来说,作为一个能够未来可规模化的商业模式,旷视很难说派驻的研究员去现场、去每家公司帮助他们训练算法。这怎么办?就一定需要有一套基于人工智能远程的训练部署,包括基于区块链的一些技术,这里也是世界上最前沿的一个研究课题叫“联邦学习”,就是如何通过远程篮球训练和学习确保多方能够参与到这样的数据共享,但这个数据权利又不交换,同时各方能确保一个合理和合适的方式来分享最后研究的成果。所以我们就将这样一个“联邦学习”应用在我们金融风控等领域里面,也产生了一些阶段性的成果。
其实每一个人工智能治理的话题后面都有一个非常聚焦的、非常具体的人工智能技术需要被解决,而只有通过技术的方法去解决技术的问题,才真正是未来技术创新的一个必经之路。
第二个是更有体现度的一个点,如何可以让我们用到旷视的产品,包括我们的合作伙伴能够知道旷视所在的人工智能这样一项原则,其实行业内上游、下游之间都应该专注?所以我们内部讨论了很久,我们内部做了这样一张纸,叫做“正确使用人工智能产品的倡议书”,我们认为未来可能每一个人工智能产品除了说明书之外都应该有这样一张纸,当然可能每个公司这张纸不一样,并且我们还画了一张图,希望把这张纸做得又简单又易懂,当每一个用户或每一个合作伙伴打开我们人工智能产品时,他看到第一页纸是这样的,上面也是一个呼吁,让大家真正知道人工智能这样一个产业的良性发展,一定是要我们真正把人工智能用来创造美好,用来让我们的生活更好,让每个人更喜欢人工智能,而不是真正在科幻片里和电影里面那样一个让人害怕、让人恐惧的人工智能。
在很多企业里,很多人工智能治理是一个相对非常微观的、非常具体的,并且可能从影响上是一个非常细水长流的一项工作,但正因为有了这些工作,才真正能让人工治理从产业界有点滴的改变。
我们内部用四个方式,从产品、研发、客户到运营,同时结合旷视自身产业的格局,在AI治理+一些具体行业,包括AI治理+社区、AI治理+城市建设,+可信任AI和企业自治,这些领域我们都跟不同的研究机构,包括外部企业,达成一些战略性合作。
最后我们在人工智能治理里,需要深入到行业,需要深入到行业的实践当中,从每个行业的实践当中去梳理。举例,在城市建设里,会发现在北京、上海这样的超大城市,可能里面有一个很核心的问题,比如很多交通枢纽,地铁站、机场,每天有非常大的人流,他们需要非常好的人工智能技术能够帮助他们有非常高效的通行方式,同时在这里因为人流很密集,也有很多安全性问题,如何通过一个更好的技术、更加无感知的实现城市治理的关键问题。
反向来说,有没有思考过,如果未来在北京或上海机场通过人工智能人脸识别的通行方式,特别好地实现了高效,但如果真的有用户很在意自己的肖像权,他不愿意通过人脸识别来使用这样一套通道,那未来真正在城市建设中有没有为这样的所谓人工智能治理方面去构架它的基础设施?这些可能都是企业、政府建设者,包括相应行业人士都要一起去思考的问题,而这些是我们目前每天都在发生的。我每次来上海,包括在北京机场,会发现人脸识别的口岸和通关设备会越来越多,这可能就是我们当前需要去思考和解决的问题。
我们在企业践行倡议的同时,自己认为在未来AI可持续发展里面,以下四方面特别重要,在全球交流和协作过程中是特别重要的。现在全球范围内,人工智能的高速发展,除了中国之外,美国也有非常非常多优秀的企业,其实中国、美国,东方和西方很多在治理、在伦理、在法律的边界上都有文化的差异性,如何能够有更多的交流,才能真正让人工智能这样一项人类所面临共同的技术创新可以让大家共同去创造,包括协同探索、实践引导,我们特别强调实践,因为治理问题其实是一个非常长期的问题,而只有更多的企业从实践角度能提出更好的问题,才能让我们的行业专家、让我们的教授们、让真正这些宏观的研究学者们有一个更好的牵引和更实际问题的落地。
同时,技术的问题需要通过技术来解决,所以我们认为发展可信性技术非常非常重要。
人工智能治理确实需要由每个企业的点滴从自我的约束做起,这是为什么旷视虽然作为一家年轻的人工智能企业,我们非常愿意也非常敢于作为一个人工智能企业里面的带头的企业代表,我们确实希望企业都能够关注人工智能治理,从一个非常务实、从一个非常实践的角度来看这个问题。
对于一家人工智能企业,在人工智能治理里叫不缺席,我们确实要深度参与其中。不对立,我们并不会把人工智能技术的发展、商业的应用,本质的跟治理、跟法律的制定、标准的制定对立起来,相反,可能越多的交流,越能让这个产业的发展良性化、健康化、可持续化。最后,我们认为这也是旷视内部的文化,叫行胜于言,旷视特别强调技术信仰、价值务实,我们做每件事情都希望能反映到日常的工作当中。
旷视的使命是“用人工智能造福大众”,我们也希望通过人工智能治理的实践和人工智能治理的更多倡议,能够真正为这个行业带来一些新的变化。我也非常高兴的是,从去年7月份开始,看到越来越多的同行在做很类似的事情,包括他们可能甚至在很多方面在学习旷视的一些内部架构和实践,我想这就起到了旷视真正深度参与人工智能治理的初心,也非常期待各个行业的各位专家能够深度地以我们的人工智能的很多实践来一起研究人工智能治理问题,旷视也非常愿意、非常开放,希望有更多专家来找我们,帮助我们解决更深层次的问题。谢谢大家!(雷锋网雷锋网雷锋网(公众号:雷锋网))
雷锋网原创文章,未经授权禁止转载。详情见转载须知。