企业社会责任中国网

主页 > 焦点 > 评论 > >

李彦宏刚力挺完人工智能,优步无人车就撞死了行人|AI时代的责任思考

2018-03-21未知小黑

人工智能的话题,近期似乎一直很火。

先是著名学者史蒂芬•霍金的去世,其所持观点“人工智能可能毁灭人类”引发了人们新的讨论。

似乎是为了有意要消除人们的这种疑虑,3月15日,百度创始人、董事长兼首席执行官李彦宏现身两会“委员通道”,在接受媒体采访时表示:人工智能将成中国经济推动力。他同时表示,今年会有无人驾驶小巴车上路,而再过3-5年可实现无人车真正上路。

但颇让他尴尬的是:据《华尔街日报》报道,当地时间18日晚,优步的一辆自动驾驶汽车撞倒一名女子,后者于19日死亡,而这是首起由自动驾驶汽车造成的行人死亡事件。一名优步发言人表示,该事件发生后,公司已暂停坦佩、旧金山等地的自动驾驶汽车测试项目。

这不仅让人们重新审视无人汽车的可行性,同时也让今天这篇文章显得颇为及时和应景:人工智能的社会责任风险与应对……


人工智能时代的社会责任思考

今日话题

人类即将要进入的人工智能时代是一个什么样的生活场景呢?

简单地讲,人工智能将会像水、电、互联网一样成为我们日常生活不可或缺的一部分,渗透到生活和工作的每一方面,当然也会渗透到社会责任工作的每个方面。

据有关专家研究,人工智能将会使社会责任履行变得更加容易和高效进行,比如区块链技术跟供应链结合起来就会让供应链社会责任履行变得更加透明,并且履责的行为和绩效将被记录并不可更改。

当然人工智能在未来会渗透到我们生活和工作的每一个方面。在带来巨大好处的时候,也会存在潜在的风险和不利影响。而且这种潜在的风险和不利影响,如果不加以管理,可能完全超出我们的想象。

如刚刚离世的著名学者史蒂芬•霍金曾说:“人工智能的崛起可能是人类文明的终结” 。这说明人工智能的发展对我们人类的影响将会非同一般。人工智能的影响究竟几何?有的专家认为人工智能的发展要么让人类永生,要么让人类灭亡。

可以说,人类每一次技术的飞跃,都会带来人类的大发展,同时也给人类自身带来巨大的风险和问题。这也说明要重视人工智能的影响的管理,将成为摆在社会责任业界的新课题。

人工智能时代的三个阶段

从技术发展层面来讲,人工智能发展一般可分为弱人工智能、通用人工智能和超级人工智能三个阶段。

弱人工智能还无法达到人类的智力水平,即人工智能在人类的控制下在特定领域使用,解决特定问题。但弱人工智能同样影响巨大。比如人工智能在工业上大规模使用,将会导致工作岗位被机器人取代。如果像有的专家预测的那样,将来95%的工作岗位都会被人工智能取代。如果大部分人在大部分时间都没有工作,这个社会是一个怎样的状态,显然我们自己还没准备好。

再如,在军事化用途上,将人工智能用于生产更高效的无人机杀人武器,追求的是不再需要人来指出攻击目标即可自动判定目标并执行攻击。

在通用人工智能阶段,人工智能将从狭窄的、特定领域的智能迈向更通用的智能,这个时候这些机器能在没有编码特定领域知识的情况下解决不同种类的问题,甚至能像人一样做出判断和决策。比如谷歌Alphabet旗下的子公司DeepMind开发的Alphabet Zero作为围棋弈者从零开始,面对的只是一张空白棋盘和游戏规则,通过自学使自己的游戏技能得以提高,而不是通过输入人类的对弈棋谱来训练自己。

这代表着人类在建造真正智能化机器方面向前迈进了一步,因为即使在没有大量训练数据的情况下,机器也能根据规则和目的的需要找出解决困难问题的方法。这在某种程度上似乎具备了所谓“自觉意识”。

有的专家认为,即使没有像人一样的自觉意识,但人类计划将一切事情交由人工智能完成。人类面临将这个世界的管理权让渡给人工智能。随着人工智能的进化,他们终将认识到人类是这个世界的负担,最后理性的结果或许是清除行尸走肉的人类。

一份最近的专家调查显示,可能是2040-2050年左右,有50%的概率实现人类水平的通用智能。

从技术发展的终极层面来讲,如果人的思维也是从无思维的物质开始生成的,人的意识又是从思维开始的,那么从纯理论上来讲,人工智能零部件也是无思维的物质,而这些无思维的物质最终也可能会像人一样有思维,进而也可能会像人一样具有自我意识。从而最终可能成为像人一样的一个智能物种。

这就是所谓的超级人工智能时代。

这个时候人类面临的挑战就更加不可预测了。因为有的专家预计,这种超级的人工智能有可能反叛人类,而跟人类来竞争、来较劲,甚至发生超级智能和人类之间的战争。这种超级智能甚至能思考人类存在于地球的必要性和合理性。

人工智能开发的九大原则

如前所述,无论是弱人工智能还是通用智能以及超级人工智能,其潜在的风险巨大。作为发展这种人工智能主体的人来讲有责任管理好潜在风险和负面影响。在弱人工智能阶段,人工智能的各相关方是责任主体。

这样看来,涉及到人工智能的各个相关方的社会责任问题。人工智能研发者、相关产品和服务的生产者、销售和服务者,也包括使用者以及政府监管部门等各相关方都肩负着重要的社会责任,防范人工智能的风险和负面作用。

首先,要遵循有益于人类的原则。树立人工智能要服务于人们美好生活的理念和意识。也就是人工智能的研究与开发要着眼于有益的智能方向去做。

第二,研发人工智能要遵循透明度原则。特别是研究的目的、目标和功能要向相关方和社会公开公布,以便接受社会责任监督。防止人工智能的研发走偏方向。

第三,利益相关方原则。要加强相关方之间的交流和信任,尊重回应利益相关方的利益和所求。比如研发者与政策制定部门要加强交流,适时出台相关的政策和要求,对人工智能的研发加以引导和规范;在利用大数据时要尊重相关方的合法权益和隐私,还要做到责权利相匹配。

第四,担责原则。人工智能的研发和生产者是人工智能的权益人,更重要的是其责任人,对人工智能的滥用要承担责任。确保人工智能的质量。一是要避免明显的安全缺陷。二是发生人工智能故障时或者损害时,应当可以查明原因。这样一方面防止意外发生,另一方面,也能促进业界共享,防止类似的错误或者损害再发生。

第五,道德伦理原则。人工智能的开发者要赋予人工智能以与人类相同的价值观。这样人工智能的目的和行为是在可以控制的范围。

第六,审慎原则。对于在要开发的人工智能的潜在风险和负面影响不能有效评估的情况下,要采取谨慎的态度,不能冒昧地推进。

第七,尊重人权的原则。人工智能的设计和运作应尊重人权,要符合人类尊严,权利,自由和文化多样性的理念。

第八,共享的原则。人工智能技术应该尽可能地使更多人受益,要尽量让更多人更广泛的共享,造福全人类。

第九,双主体责任原则。在通用人工智能以及超级人工智能阶段,除了人工智能相关方承担相应的社会责任外,人工智能系统本身作为一个智能体也应作为责任主体加以规范。

(责任编辑:小黑)

《可持续发展经济导刊》
责扬天下(北京)管理顾问有限公司
中国质量新闻网
腾讯绿色
中国企业公民网
企业观察网
河南企业社会责任网
联合国儿童基金会
中瑞企业社会责任合作网

凡本网注明"来源:XXX(非本网)"的作品,均转载自其它媒体,转载本身并不代表本网赞同其观点

凡本网注明"来源:本网"的所有作品,均为企业社会责任中国网合法拥有版权或有权使用的作品,未经企业社会责任中国网授权,任何单位、任何人不得使用上述作品。

联系我们:

侯楚卿 市场部总监

邮箱:chuqing.hou@goldenbeechina.com

电话:010-62119201-8003

金蜜蜂官方微博

金蜜蜂官方微信

  • 扫一扫
  • 微信二维码

Copyright © Csr-china.net All Right Reserved.

京ICP备13041808号-3