人工智能的统一定义尚未形成,通常它被认为是指“具有人类思考、判断和意图的能力,受到外界刺激时能做出与人类一致的反应的机器”。所以,其进化过程就是无限接近于人类的过程,伦理风险也在这一过程中步步加深。
风险的根源主要来自AI的自主性,或者说不可控性。近10年,AI为公共部门和商业组织带来了层出不穷的新产品和新服务,它可以提高效率,辅助或取代人类,这得益于 “机器学习”的发展。
拥有强大运算能力的计算机程序能够对大量数据进行自动挖掘和分析,并学习各种行为模式。但输入和输出不再由人工赋予的几个变量掌控,而是机器在大量数据中自己分析特征,决定变量权重,错误和偏见因此产生。
比如通过使用机器学习算法可以为银行提供接受还是拒绝房贷的建议,但研究人员在审查其结果时,却发现黑种人申请的批准率大大低于白种人申请的批准率。背后的原因可能是计算机程序基于人类世界信息综合得出的结果,却没有考虑到这些信息本身是否带有偏见。
那么,人类可以像为机器设定程序一样,为AI预设道德标准吗?
2017年1月,美国未来生命研究院(FLI)就曾召开了一场主题为“有益的人工智能”的阿西洛马会议。来自商业、科学、法律、伦理、哲学等众多和领域的专家,共同达成了23条人工智能“阿西洛马原则”,为AI的伦理原则指明了大致的方向。
比如AI系统的设计和运作应符合人类尊严、权利、自由和文化多样性的理念;AI的目标和行为在整个运行过程中与人类价值观相一致;人们应该有权利存取、管理和控制他们产生的数据等。
但这些毕竟只是框架,落实到具体问题上,AI的伦理标准依然模糊不清。比如一个AI界的经典问题是,如果一辆自动驾驶汽车失控,两侧是悬崖,前方是行人,它应该被设定为牺牲驾驶员,还是牺牲行人呢?
如果当时开车的是人类驾驶员,那么无论他做出怎样的决定,都有一个具有自主行为能力的主体可以承担相应的后果。但如果做决定的是机器,谁又该为这个决定负责呢?
放在经济领域去考察,AI同样存在巨大伦理风险。尤瓦尔·赫拉利在其畅销书《人类简史》中预测,“(未来)不是什么人都是有用的”;吴军也在《智能时代》一书中写到“2%的人将控制未来,成为他们或者被淘汰”。
AI在代替绝大多数人的工作,甚至帮人类做绝大多数决策的同时,很有可能会强化商业世界“强者恒强,弱者更弱”的鸿沟,使中等收入群体萎缩,引发社会对立。而放眼更长远的未来,它还可能成为整个人类社会的威胁。
在近年来的AI界,机器人索菲亚是网红一般的存在。创造它的美国汉森机器人公司创始人戴维·汉森曾在一场现场直播节目中对她说:“你想毁灭人类吗?请说‘不’。”结果得到的回答却是:“好的,我会毁灭人类。”
尽管有许多人质疑索菲亚的回答是技术人员提前做好的设计。但它的这番“言论”还是引起了广泛的讨论。已故物理学家霍金便是“威胁论”的坚实拥趸。在他看来,AI凭借不断升级的智商和万物互联的网络,未来可能会成为新物种,并超越人类成为地球的统治力量。
任何技术都有异化的风险,但若论风险程度,AI绝对是最值得警惕的一种。
评论
全部评论(193)
-
最新最热
行业资讯 -
订阅栏目
效率阅读 -
音频新闻
通勤最爱