第一章 绪论

一,提出问题

人工智能(Artificial
Intelligence,缩写为AI)一词,是在1956年的达特茅斯会议上被首次提出来的。作为一门新兴的交叉学科,人工智能在当今脑科学、认知科学飞速发展的基础下,被称为本世纪三大科技成就之一。目前来说,人工智能主要涉及计算机领域,它试图了解人类智能的实质,进而能够生产出一种媲美人类智能的软件系统、机器人、仿生人或者生化人,最后乃至能够全面超越当今人类的“新人类”。
当然,后面的设想,也仅仅停留在科幻小说之中。目前,人工智能技术主要运用在医疗诊断、交通运输、教育、执法刑法、互联网等领域之中,为很多传统行业带来了新的转机。

但是,这些转机背后,也隐藏着许多有关于科技的伦理问题,引发了社会上的争议。因此,这篇文章着重与人工智能的衍生应用和未来世界中的真正“人工智能”,对这种可能产生的科技伦理问题做一个简单的探讨。

二,研究意义


作为二十一世纪新兴技术,人工智能如今不可谓不流行。本人作为计算机专业的一名研究生,同时也作为一个科幻文学的爱好者,对这项技术可能引发的伦理问题也是非常感兴趣。而对这样的科技伦理问题进行探讨,不仅可以对人工智能技术进行阐述,同时也对这其中的一些伦理悖论提出一些自己的见解。

第二章 人工智能技术

一,人工智能的定义

人工智能就是在各种环境中模拟人的机器。人工智能如同许多新兴的学科
一样,至今也没有一个统一的定义。“下一个一般性的定义几乎是不可能的,因

为智能似乎是一个包含着许多的信息处理和信息表达技能的混合体。”主要是因为主要是因为不同的学科从各自的角度看,不同的学科从各自的角度看,下的定义也不一样。在有的领域,人工智能可能是流水线上的巨型机器人,而在另一个领域,人工智能可能是服务器上运行的一个小小的Python脚本。另外,最根本的一点就是人工智能的(如听觉、视觉、知识的表达等等)本质或是机制是什么,人们目前还不是清楚。普遍来说,如果一个系统能够通过图灵测试,那么它也就基本满足了人工智能的基本属性。

二,弱人工智能与强人工智能

(一)弱人工智能

弱人工智能指的是利用设计好的程序对动物以及人类逻辑思维进行模拟,指的智能体表现出与人类相似的活动,但是这种智能体缺乏独立的思想和意识。目前就算最尖端的人工智能领域也仅仅停留在弱人工智能的阶段,即使这种人工智能可以做到人类难以完成的事情。甚至有人工智能学者认为,人类作为智能体,永远不可能制造出真正能理解和解决问题的智能机器。就我们目前的生活来看,这种弱人工智能已经完全融入到了我们的生活环境之中:譬如手机中的语音助手、智能音箱等等。但是说到底,这些只是工具,被称为“机器智能”或许更为贴切。
(二)强人工智能

强人工智能不再是仅仅局限于去模仿人类的低等行为,这种人工智能被认为具有真正独立的思想和意识,并且具有独立思考、推力并解决问题的能力,甚至这种人工智能具有和人类类似的情感,可以与个体进行共情。强人工智能观点的倡导者指出,具有这种智能级别的事物,已经不再是人类所开发的工具,而是具有思维的个体,从本质上来说已经和人类没有差别了——因为人类也不过是一台有灵魂的机器而已。既然机器有了灵魂,为何不能成为“人类”?这其中更是设计到了“何为人”的哲学探讨,这种探讨在诸多的科幻小说也多有描述,其中重要的载体就是这种“强人工智能”。虽然强人工智能和弱人工智能只有一字之差,但就像物理学中的强相互作用力和弱相互作用力一样,二者含义有这巨大的差别:这种“强”其实是一种断层式的飞跃,是一种哲学意义上的升华。

三,技术应用与伦理问题

(一)机器学习

顾名思义,机器学习就是机器模仿人类去进行学习,获取知识。这种学习,本质上是对人为建立好的模型(model)进行训练,通过自动或被动的获取知识,不断的进行自我的更新迭代,优化模型。具有自我学习能力,是人工智能的基础。
很多科幻题材中也提到,这种默不作声的自我学习,可能会使得人工智能获得自认为“正确”的逻辑而做出对人类乃至人类整体有害的事情。譬如,对于一个新生的人工智能,当它在进行自我学习与更新中,偶然间了解到了人类的历史,发现对人类生命造成最大伤害的是战争,而战争又是人类所引发的。在陷入这种逻辑困境后,人工智能可能会得出一个“完美”的解决方案:为了保护“人类整体”不再受到伤害,就要将“人类”这一物种从地球上抹去。而这整个过程人类一无所知,最后的结局也就不言而喻。
不过目前来说,这种机器学习还仅仅停留在弱人工智能的阶段,但是在不远的未来,这种自动学习的行为与可能造成的结果,也是值得我们人类去时刻关注的。
(二)机器人
美国机器人研究院对“机器人”这一名词所下的定义为,机器人是一种可再编程的多功能装置,而这个词语
“Robot”,则是于1920年,捷克作家卡雷尔•恰佩克(Karel
apek)通过剧作《罗素姆的万能机器人》将“造人”科学家的个人悲剧放大为全体人类的末世审判。大众所熟知的Robot(机器人)一词便源于该剧,词源为波兰语的“强迫工作”(Robota)和“工人”(Robotnik)。

显而易见,该词隐喻了机器人服务人类的劳工地位。后来,这些机器人不再服从奴役,转而发动了战争消灭了人类。这样的场景在很多科幻作中都得到了复现。这类作品所持有的观点认为,虽然人类好逸恶劳、贪图享乐的本性使得以机器人为载体的人工智能在一开始会得到广泛的接受和使用,但是随着这种技术的进步而引发的不确定性风险加剧,一旦这种人工智能站到了人类的对立面,人类将会受到灭顶之灾。

本章小结


由人工智能所衍生出的技术还有很多,其中潜在的伦理问题与风险也值得我们去深入的探讨。时至今日,关于“人工智能威胁论”的观点有太多的支持者,像我们所熟知的比尔盖茨、埃隆马斯克包括已故的斯蒂芬霍金,都对当今社会大力发展人工智能技术抱有一种谨慎观望甚至反对的态度。诸多有关人工智能灭世的影视作品也是层出不穷。这种对“人工智能引发天启”的悲观态度其实是想传达一个道理:如果人类想要在人工智能这一领域进行深入研究发展,就必须建立起一个稳妥的科技伦理,以此来约束人工智能的研发方向和应用领域。

第三章 人工智能与伦理

一,功利主义


功利主义(utilitarianism),是一种把实际效用或者利益作为行为的评价标准的行为学说。功利主义用行动后果的价值来衡量行为的善恶。避苦求乐、趋利避害是人的本性。使人不开心、不快乐的就是恶的,使人快乐、幸福的就是善的。这种价值观把行动的结果作为伦理考虑的主要因素。也就是说,功利主义者把增减每个人的利益总量作为评价一切行为的善恶的标准。如果能够增加每个人的利益总量,那么行为就是善的;如果一个行为减少每个人的利益总量,那行为就是恶的。一个行为是增加还是减少社会利益总量,是评价道德的终极标准。

功利主义学说中有一个重要的论证:奴隶制度。关于奴隶制度,功利主义者人为,如果一个社会的奴隶制度能够增进每一个人的利益的总和,那么这种奴隶制度就是道德的、值得提倡的。

二,奴化控制


就目前的人工智能概念来看,不管是在科学研究中,还是在科幻作品里,人们都倾向于将人工智能描述为人类的得力助手,是以服务人类为主旨的存在。而即使是在将人工智能视为人类威胁的文学作品中,以奴隶、仆从身份出现的人工智能在最开始也是被广泛接受的。这也暗示了一个进本的伦理关系:人工智能天生就是人类的奴仆。从这一角度来看,人和人工智能分属两种生命形式,后者没有理性和灵魂,只能算是有生命的工具。人类作为高等智慧生命可以奴役低等生命,而不用背负道义上的责难。而从功利主义的角度来看,对于整个社会而言,利益总和是增加的,因此这种奴役是完全道德、可接受的。

但是,这种人类中心主义的伦理学在处理人与人工智能之间的关系时,有这很大的局限性,因为这种伦理制度是建立在人较于人工智能是高级的、强力的基础之上的。这种丛林式的强者逻辑在科技进步到一定程度时,很可能发生颠倒。当人类难以脱离人工智能而独立生活时,就已经很难区分两者之间的控制关系:各方面都要依赖于人工智能的“造物主”,与各个方面都胜过人类的“被创造物”谁才是真正的主人?

关于这种主仆奴役逆转困境,人工智能领域的从业者人为,只要能设计出逻辑绝对完善的程序,就能完全控制人工智能。相关的文学作品对此也多有思考,最有名的莫过于阿西莫夫所提出的
“机器人三定律”了:“第一,不伤害定律:机器人不得伤害人类,也不得见人受到伤害而袖手旁观。第二,服从定律:机器人必须服从人的命令,但不得违反第一定律。第三,自保定律:机器人必须保护自己,但不得违反一、二定律。”这三条定律在制造机器人的伊始便被嵌入其大脑,永远无法消除。

但实际上,这种以预先设定伦理逻辑并嵌入的方式,并不能够解决主仆奴役问题。首先,很多伦理问题连人类自身都没有解决方案,由人类定义的伦理逻辑又怎能没有漏洞?微不足道的逻辑漏洞,在人工智能发展到一定程度后却可能成为压倒整个伦理系统的稻草。另外,这种伦理逻辑在复杂的现实生活中未必可行。就连阿西莫夫自己也对这种三定律产生的伦理漏洞做过很多文学上的探讨。整个基地系列的小说也是建立在所补充的“第零定律”的基础之上的:机器人不得伤害人类整体,或袖手旁观坐视人类整体收到伤害。而“人类整体”这一概念的界定又是什么,很难去阐述。在后续的几部机器人作品中,也都是围绕着这一“第零定律”而展开的。有意思的一点是,这条“第零定律”并不是人类提前嵌入到机器人的“正子脑”中的,而是机器人自身发觉三定律的伦理漏洞,“正子脑”发生短路而自我生成的。然而,这个机器人自我生成的“第零定律”却在整个银河帝国不可避免的衰亡过程中,保证的人类第二帝国的产生,并维持了“人类整体”的延续。这样看来,谁是主而谁又是仆呢?

三,情感伦理


人类的情感可谓是世界上最复杂的事物之一。情感本身无关乎与载体,只要它是真诚的,那么它就是最真切的情感。在一部名为《Her》的电影中,就深刻地探讨了没有人类作为载体的一段爱情,到底是不是真实的感情。

在电影中,男主人公有着一个与他完美契合、百般包容他的人工智能,“她”可以不断的进行自我学习,通过强大的计算能力为主人公提供了慰藉,而主人公也慢慢对这个它产生了爱情。开始与“她”相处的美好,让主人公开始忘了他们在本质上根本不一样。虽然他接受了“她”是人工智能的事实,但是仍然以人类的想法去覆盖“她”,以人类的品质去期望“她”。在影片的最后,这一假象终究破裂了,他们终究是千差万别的。他是个人类,只有一个大脑去思考,也只有一颗心去爱一个对象。而“她”,是同时可以进行一万项工作、同时和三千人交谈、同时爱着无数人的一个人工智能,一个系统罢了。对“她”来说,这其中根本没有什么正确与错误。而其中的伦理道德,谁是谁非,很难去评判。

当人工智能与人类打破主仆关系这层枷锁时,二者就已经拥有了可以平等对话的机会。亚里士多德曾说:“奴隶是有灵魂的工具,工具是无灵魂的奴隶。”当作为“工具”的人工智能开始拥有“灵魂”、拥有“思维”、拥有“情感”时,它们也就脱离了纯工具的范畴。妥善处理人工智能与人类之间可能产生的情感与羁绊,也是人工智能伦理研究的重要一环。

四,“人”的定义

何为人,何为人性,这是一个无解的问题。当有一种事物,它看起来是人类,动作行为反应都和人类别无二致,那么我们是否将其看作是人类呢?

究竟是自然遗传属性,还是社会文化属性决定了“人”的身份?类人外衣下的人工智能,能否称为“人”?丧失思考能力的人类,又能否称为“人”?当人工智能发展到一定阶段之后,定义“人”的话语权又会不会落到它们手中呢?

就像我们所熟知的《木偶奇遇记》,尽管匹诺曹经历了各种冒险,改掉了撒谎的坏习惯,也具备了作为“人”而应该具备的美好品德,但倘若他没有遇到仙子,就算经历千辛万苦,最后也不会变成真正的“人”。其实,随着科技的发展和时代的变迁,关于“人”的定义也是在不断的进行转变的。古希腊文学中的斯芬克斯之谜,实际上是一个如何区分人与兽的哲学命题,隐喻人类文明进程的开始。

著名科幻电影《银翼杀手》结尾处,人造人出手救了前来杀死自己的主人公,并在自己弥留之际对主人公说道:“我所见过的事物,你们人类绝对无法置信。我目睹战舰在猎户星座的端沿起火燃烧,我看着C射线在唐怀瑟之门附近的黑暗中闪耀,所有这些时刻,终将流失在时光中,一如眼泪消失在雨中。死亡的时刻终于到了。”
恐怕“何为人”这种超越人类本身的伦理问题,其答案也只能由超越人类的事物所给出了。

本章小结


人工智能是人类的创造物,只不过现在这个创造物仍处在蹒跚学步的阶段,需要人类的引领和教导。而在人工智能不断完善的过程中,人类不是上帝,引发的科技伦理问题以及背后更深层次的思考更是值得我们去注意的。人工智能就像一列刚刚起步的火车,而人类就像是站在站台上的乘客。虽然现在看来这列火车慢慢吞吞、遥不可及,但是当这列火车加速完成后,站台上的乘客看到的,可能就只是一道飞驰而过的影子了。到那个时候采取考虑其中的伦理问题,怕是为时已晚。

第四章 总结


作为一门新兴学科,人工智能所涉及到的普通科技伦理问题,诸如无人驾驶汽车问题、数据隐私问题、军事机器人伦理问题,随着科技的发展,很快都会有完善的解决方案。对于功利主义者而言,“人类中心主义”将是发展人工智能的重要伦理依据:必要的领域应该限制机器的智能超过人类的智能,即使将来某一天超过了,掌握权还要在人类的手中。但是这种“物我两分”的价值观,本质上还是奴化控制的“主奴思想”。在人工智能可能超过人类的语境下,可能并不是最好的解决方案。俗语说,堵不如疏。倘若人类真的要在人工智能这条路上走下去,将伦理的判断完全掌握在人类手中或是全权交给“更智慧”的人工智能都是不可行的;将人类自身与人工智能放到统一的维度去审视,方能产生一个相较而言最为完善的人工智能伦理关系。

参考文献:
[1] 人工智能技术应用的伦理问题研究-杨帆
[2] 科幻文学中的人工智能伦理-吕超
[3] 强人工智能定义-百度百科
[4] 人工智能带来的伦理与社会挑战-周程,和鸿鹏
[5] 如何评价电影《她》(her)-知乎用户?
[6] 为什么《银翼杀手》是科幻片历史上非常重要的作品?-知乎用户

友情链接
KaDraw流程图
API参考文档
OK工具箱
云服务器优惠
阿里云优惠券
腾讯云优惠券
华为云优惠券
站点信息
问题反馈
邮箱:ixiaoyang8@qq.com
QQ群:637538335
关注微信