“情感机器人”伦理风险及其应对之策

作为新一代技术人工物,“情感机器人”已经能够在一定程度上模拟、理解和表达人类情感,从而在人类社会生活中扮演越来越复杂的角色。

情感机器人与人进行情感交互,一定程度上能够满足人的某些情感需要。特别是对于一些特殊群体,更具有独特价值。有研究显示,社会化程度较低的情感机器人具有面部表情简化性及肢体动作趣味性等特点,这对于缓解自闭症儿童“社交恐惧”具有有益帮助。当然,必须指出的是,情感机器人存在着诸多潜在的伦理风险。

“情感认同”问题。情感机器人为人类提供情感陪伴和关怀的同时,也动摇了主体间情感认同体验的基础,导致人陷入情感机器人的“情感欺骗”中。比如,与情感机器人“组建”的“新型家庭”更加单一化、简单化,可能导致传统家庭观念淡化,消解了传统家庭的所谓“情感羁绊”。另一方面,情感机器人终究是“机器”,它与人交往中价值权重较少,人可以在付出较低交往成本的前提下获得情感满足,一旦形成惯性,人们便会弱化对社会现实生活中情感交流的需要,导致人际关系冷漠与社会关系淡化,进而影响现有的情感关系结构和社会协作模式。


(相关资料图)

数据隐私安全问题。情感机器人作为人工智能技术的新型延伸,既面临着人工智能技术普遍存在的数据隐私问题,也存在其所属领域的特殊性风险。如情感机器人将个人私密的情感“数据化”,不可避免地产生情感数据泄露的风险,产生了情感领域的隐私安全的不确定性。同时,情感机器人的出现导致数据隐私泄露的模式由以往的“点对面”转向更加隐蔽的“点对点”,使得人们更难做出相应的规避对策,且容易被不法分子利用。

行为主体责任归属问题。随着情感机器人的进一步发展,其情感属性将来是否“可能”也拥有与人类情感平等的权利?一旦如此,情感机器人与人的交互过程中便可能产生价值判断上的冲突。约束机器人行为的“三定律”并不能完美契合情感机器人的情感活动,当其行为与人类情感需求相悖时,情感机器人又能否为其行为承担责任?随着情感机器人技术的不断成熟与普及,其技术可靠性也不容忽视,一旦情感机器人触碰伦理底线或法律红线,应当如何归责?是情感机器人的研发主体、生产主体、使用主体还是机器人本身?这些是情感机器人责任伦理讨论中无法回避的问题。

针对上述伦理风险,为了让情感机器人更好地服务人类,笔者尝试着从以下三个方面提出应对之策。

第一,完善科研伦理规范,将伦理考量纳入情感机器人创新的评价指标中,为研发主体提供合理的伦理准则。从过程角度而言,应将伦理因素贯穿情感机器人研发全过程,即从技术研发伊始的价值预设、研发过程中的科研伦理约束到投入使用前的伦理风险预估,并构建技术制品使用过程中的伦理追踪反馈机制,从而发挥长效、持续、闭环的伦理约束作用。需要指出的是,伦理规范对研发过程保持“高压”态势,不能成为此类技术创新发展的桎梏,应当为情感机器人的研发和创新留有足够的弹性和空间。

第二,落实现有机器人伦理原则,并对情感机器人这一特殊领域制定出有针对性的伦理规范。早在2019年,欧盟委员会人工智能高级专家组便发布《人工智能伦理指南》和《人工智能政策与投资建议》,强调未来的AI系统应该具备:人类的作用和监督、技术的稳健性和安全性、隐私和数据管理、透明性等七项原则,这是情感机器人首先作为“机器人”应该遵从的普遍性伦理原则。在此基础上,情感机器人领域应该延展与情感技术有关的伦理原则,规范人与机器情感交互的情境、方式等。这种伦理原则,应突出强调技术的每个环节都必须坚持人的“主导”地位,实现技术的“可控性”。唯有如此,才能引导人类正确对待机器情感、与情感机器人之间形成更合乎伦理的关系。

第三,构建起更有利于情感机器人发展与使用的外部环境。应借助多样化的媒介渠道,发挥好媒体监督与舆论引导的积极价值,规范情感机器人发展与使用的舆论风向,使公众科学客观地正视情感机器人的社会影响。科技公共政策部门要紧跟新兴生物-信息科技发展步伐,积极出台配套科技伦理规范,明确情感机器人领域相关主体的伦理准则,从而保证情感机器人正向价值最大程度地实现。

对情感机器人进行严肃的伦理审视,不仅是一个学理问题,更是现实问题。我们应该用“伦理”来进一步规约好情感机器人的设计、创新与使用,构建出情感机器人与人更为和谐的交互图景。

【易显飞 赵一凡,作者分别系湖南师范大学科技与社会发展研究中心主任、教授、博士生导师,长沙理工大学哲学研究所硕士研究生。本文系国家社会科学基金《新兴生命科技的人文风险及其治理路径研究》(22VRC030)阶段性成果】

关键词:

推荐阅读

Copyright   2015-2022 起点印刷网 版权所有  备案号:皖ICP备2022009963号-12   联系邮箱: 39 60 29 14 2@qq.com