有责任的人工智能
2020-11-02 03:11      作者:廖显     来源:中国经营网

作者:廖 显



近几年来,我们在网络购物、订餐、咨询以及使用快递服务中想要与相关客服进行沟通时,越来越多的情况下是只有客服机器人为我们服务。我上次有这样的经历是在网上退货,对于退款少了10元钱有些争议,就想投诉,但却一直只能跟官网上的售后机器人对话,一阵完全冷漠、标准化,甚至答非所问的回复以后,被迫的“智能”升级了我的气愤、无助与失望,最后我选择向消费者协会投诉。


什么是好的智能?当我拨打中国国航的热线时,它会自动让我选择金卡通道,并且电话那边的女士可以完全基于我的诉求进行耐心的倾听,在我登机以后,美丽的空姐能直接叫出我的名字,并且递上我每次都会需要的毛毯。当我对电信的服务有任何异议时,拨通客服电话,那边直接称呼我廖先生,耐心地听取我一切的抱怨,并且提供满意的后续行动方案,甚至还会事后回访。这样的沟通感受,让我觉得中国国航与中国电信是非常好的企业,甚至有些时候我都可以忽略他们产品和服务的瑕疵。



客户服务,会被很多企业定义为一个巨大的成本中心,因为里面有大量的“垃圾”,充满了客户的抱怨、争端、投诉,甚至大量标准化、不断重复的服务流程考量着客服部门每一位员工的耐心。越是从没有利润的服务中,越能看出一家企业的社会责任心,因此,要辨别一家企业的优劣,不妨首先看看它的客户服务中心。



智能需要限制么?


我发现在智能热点讨论的时候,算法与模型这两个词语不断地被人们混淆使用,那么什么是算法?什么又是模型?二者的相同点在于都属于数据逻辑,或者规则,但不同的是,算法往往是一些伟大的数学家发现的一些数学规律的逻辑,没有明确的商业导向,或者业务导向,仅仅是用于数据的分类、聚类、预测使用的不同效果,比如,神经网络算法,决策树算法等。而模型的诞生一定是具有一个明确的业务目标,为了解决这个问题而建立的一套数据逻辑,而且在模型构建过程中可以引入不同的算法来增强模型的实用效果。


模型与算法的不同在于,它需要用大量的实际数据来训练,并且不断调整、修正、完善,从而形成更加有效解决问题的价值规则。比如字节跳动公司在运营中,早已经积累了大量的用户数据,并通过这些用户数据不断地形成个人喜好标签,从而能不断地提供个性化的、能迎合每个用户喜好的信息内容。而这个部分代表算法逻辑的领先性,是通过数据实践出来的应用价值,是需要时间积累的。


其实这种根据用户喜好而产生的模型推荐,一直存在大量的争议。当这一模型的核心运用到新闻资讯产品上时,你会发现你喜欢的新闻内容会不断地推送到你的面前,而使得你的新闻认知逐渐具有偏见,从而缺乏了新闻本身的传播客观性及新闻作为一个传播主体的独立性。最终这些产品会慢慢沦为个人喜好信息的收集装置,甚至很多个人喜好的低劣面也被这样的智能无限地扩大和加强了――“你喜欢什么,你就会看到什么。”而不是“不管你喜不喜欢,世界正在发生这些事情。”我们很多时候会把这样的“改善”称之为智能幻觉,虽然可以很大程度满足人类的需求,甚至让人类产生依赖,但是这可能并不是真实的全部。人毕竟有至少一半的动物性,对于“轻松的、喜欢的”东西还是有天生的亲切感,在潜意识里会更加容易接受,从而形成一种依赖性的忠诚。


诸如字节跳动之类的推荐模型,可以从数以万计的个人交互数据里汲取营养,并且可以形成实时的对于个人的喜好标签,完成一系列的对于你偏好的分析,以及加入“如何能让你下一次依赖增强”的策略,甚至还可以做类似性格的群体性分析,这些复杂的逻辑在大量的数据涌入以后,会基于强大的计算能力,迅速地在几毫秒内完成,最后推送到面前的就是一个很大程度会吸引你――只是你――的内容。


但是,这样的内容对你来说真的好么?你需要一个真正的新闻人,还是一个娱乐瘾君子?在新闻领域我非常喜欢看比尔·科瓦奇的著作,他在《新闻的十大基本原则》一书中提出了“新闻的十大基本原则”,其中一条就是“新闻工作者有责任按良心行事”。如果我们将新闻资讯产品背后的逻辑模型也视为新闻工作者,那么如何让他也能遵守这些原则?比如他理解什么是“按良心行事”么?他有“良心”么?还有,我们构建模型的时候,这些“良心”都放入了么?



如何给智能定义责任?


今天的智能已经逐步具有很大的能力,甚至无处不在。在你社交的时候,它在读懂你,并且以此揣测你的喜好;在你停车的时候,它会自动识别车牌,甚至帮助你找到合适的停车位;在你诊疗的时候,它会辅助医生进行快速的检查诊断和建议;天上的无人机,工厂里自动化的高效机械手臂,甚至刚开业的机器人餐厅,以及电影视觉的处理,都充满了智能。这些满满的智能汲取着能量,不断地、高效地运作,不知疲倦。


但当我们在大量开始应用智能的时候,也需要考虑这些承载智能的基础设施所带来的负面影响。其中就包括世界正面临着的碳排放超标问题,其恶劣的影响在于广泛被讨论的全球变暖问题。科学共识是明确的。如果不遏制碳排放、全球温度继续攀升,那么结果将是灾难性的,更极端的天气会导致更严重的干旱,影响农业产量并导致全球粮食短缺,逐步上升的海洋将取代很多国家的社区……越来越多的科技公司正在加入这场“责任行动”,微软承诺到2030年整个业务(包括供应链)的排放量将减少一半以上,到2050年,微软的目标是自1975年成立以来,从环境中消除其直接或通过电力消耗释放的所有碳。


另外,从最近一些研究中可以发现:在“负责任的人工智能”主题上,透明、隐私和控制的概念应是首要考虑因素,特别是基于用户在面部识别技术中遇到的数据泄露问题,而这个技术在中国已经大量在使用。国际上,也有大量的公益组织提到了对谷歌和脸书等品牌的不信任。特别是2018年3月,脸书公司卷入的数据滥用丑闻,一家名为“剑桥分析”的英国公司被曝以不正当方式获取8700万脸书用户数据,这是脸书创建以来遭遇的最大规模用户数据泄露事件。


但事实上,虽然智能广泛应用的速度在持续增长,但业界仍然没有在智能的规范上形成一种共识。欧盟《一般数据保护条例》(GDPR)于2018年5月25日起正式施行,该条例是近三十年来数据保护立法的最大变动,旨在加强对欧盟境内居民个人数据和隐私的保护。此外,它还将通过统一数据和隐私条例来简化对跨国企业的监管框架。但是这种约束也仅限于数据保护层面,在另一个智能的领域――计算原则,我们也需要加入更加符合人性的约束。《未来计算:人工智能及其社会角色》里共享了微软提出的6项原则(如图),可供未来智能的发展作为参考,人工智能离不开数据、算法、计算力,同时也关乎语言、艺术、历史、经济、伦理、哲学、心理学和人类学的深入研究与理解。如要实现真正的服务人类,它就应该是科学、技术、工程学、数学,以及社会科学、人文科学等跨学科跨领域的共同课题。


微信截图_20201102150030.png


那么我们该如何定义一个智能的责任?或者说当你创造出一个机器人时,它是不是真的可以替代我们人类来行使工作的权利。就如同现在热议的无人驾驶,假如车辆真正到达了L4的等级(高度自动驾驶)与成熟度时,你真的可以让它自己上路么?哪怕只有0.01%的可能会出事故,这个事故的责任主体是谁呢?是汽车公司,还是驾驶员?智能需要容错性。


这是一个看起来很难的话题,但并不是无解。我们很多时候在探讨一些行为之前,会先讨论一个词语叫动机,在心理学上一般被认为涉及行为的发端、方向、强度和持续性。所以,很多时候动机也会被延伸到激励。如果我们需要让智能具有责任,或者担负责任,那么首先是不是需要从这个智能的动机或激励机制上进行改革呢?假如,我们只是希望这个智能大量地帮助我们获取客户,获取流量,是不是这个智能就会利用“不择手段”的方式进行用户的群体性绑架呢?


最近网络上的一篇文章《骑手安危看“系统”?算法背后见“人性”》在热传,这是一个算法控制人的典型场景。通过智能,你可以用最“合理”的方式来批量管理人,而不幸的是,人在算法面前,却变成了机器。在中国,互联网发展速度是全球第一的,在这个竞争激烈的市场,带来智能应用领先的同时,也导致我们首先体验了这些智能背后的社会问题。由于智能,让更少的人可以控制更多的人,并且由于智能的“先进性”而让你无力反抗。


如何能在这些智能背后加入“人性”的逻辑?并且,这些逻辑也是应该被审计的。对一个“公司设计的智能”使用审计,在未来重要性或将大于对财务的审计。而这种审计的背后,是需要我们更加人性化地看待我们的科技,以及这些科技“独裁者”对社会的影响。假如,有一天,一个公司垄断了这个社会大部分的智能创造工程师,它又会做什么?在无限度的业绩增长目标前,我们还会渴望这个公司在利润面前展现出人性的一面么?而这种科技带来的贪婪,我们可以驾驭么?真正的智能应该是造福于你的员工、家人、同行,甚至社会,而不是破坏、分离与艰辛。


“能力越大,责任越大。”这是美国电影《蜘蛛侠》中,本(Ben)与自己的侄子彼特(Peter),也就是蜘蛛侠,最后一次对话时特别强调的一句话。这更适合送给正在快速成长的“智能”。“纯洁与良好的行为、可嘉与适当的操守,能够促进世界的改善。”但前提是要有底线,而今天的智能有底线么?


(作者是微软金融服务行业战略客户技术战略总监。本文详见于【《家族企业》杂志2020年10月刊】 未经本刊授权,不得转载;经本刊授权转载的,请注明来源。)