上图为2017年10月号《纽约客》杂志封面图。它描绘的是人类坐地行乞的场景,机器人则扮演了施予者的角色,折射出人们对未来的焦虑。
下图为美国1953年出版的一本科幻杂志的封面图,展现的则是人与机器怪物争斗的场面。(作者供图)
第一,机器人不得伤害人类,也不得坐视人类受到伤害而袖手旁观;
第二,在满足第一定律的情况下,机器人必须服从人类的命令;
第三,在满足第一定律和第二定律的情况下,机器人必须保护自己。
——阿西莫夫“机器人三定律”
第二十六届上海国际电影节“一带一路”电影周期间,套开了一个以“AIGC时代的科幻创意与技术变革”为主题的第六届上海科幻影视产业论坛,探讨的是人工智能生成内容(AIGC)如何改变科幻影视产业,其中又设立了“机器人伦理道德与公共安全”的分论坛。
这个分论坛实际上是五个人对谈。身为科幻作家的主持人竹君开场就提出了一个关于机器人的核心问题:长期以来被研究机器人和人工智能伦理的人奉为经典的阿西莫夫“机器人三定律”,是否仍适用于解决当今的机器人伦理与道德问题?
首先回答这个问题的豪微研究院院长孔华威指出,现在的人工智能和机器人技术已经超越了阿西莫夫科幻小说中的想象,需要新的伦理框架来约束和指导机器人行为。
我在回答问题前作了一些补充介绍:阿西莫夫“机器人三定律”的完整表述,最早出现在阿西莫夫1941年创作的科幻小说《环舞》(又译《转圈圈》)中。这三条定律构成了支配机器人行为的一套“道德标准”,从而给“机器人社会”赋予了新的伦理。阿西莫夫通过这三大定律的相互作用,构思出一系列情节紧张、妙趣横生的短篇科幻小说《我,机器人》。好莱坞曾根据阿西莫夫机器人科幻小说改编拍摄过两部著名的科幻电影《机器管家》和《机械公敌》。人们也尽可想象,现实科技中它们会作为准则被编成程序,输入到计算机化的机器人大脑中去,成为研制和使用机器人必须遵循的基本法则。
“机器人三定律”的制定,反映了人类对机器人的恐惧心理。出于保护人类自身安全的考虑,对这种“人造机器”,必须要有明确的程序和技术手段来限制其行为。不过,在今天复杂的技术环境中,“机器人三定律”显得过于理想化了。确保机器人行为的安全和可控,需要更复杂的伦理和法律框架来规范,自然也要有更先进的技术介入。
AI+海洋科创中心常务副主任赵辉提到,“机器人三定律”在实际应用中常常被忽视,例如在战场上,无人机执行的是人的指令,而不是遵循“机器人三定律”。科幻作家江波谈及,“机器人三定律”是一种美好的愿景,但在实际的技术实现中,存在许多难以克服的挑战。目前的技术和伦理讨论,应该更加关注如何在现实中实施有效的控制和监督机制,以规避不可控的风险。
讨论还涉及到机器人未来可能具备的自主意识。确实,现代科技术语“涌现”的提出、复杂性科学的发展,大大扩展了人类的认知边界,也启迪我们思考类似这样的问题:机器人或人工智能体是否能够拥有自由意志或自我意识?阿西莫夫1976年发表的机器人科幻名篇《活了两百岁的人》,对此做了非常精彩的想象和描述。
美国计算机专家和科幻作家弗诺·文奇、发明家和未来学家雷·库兹韦尔等学者则早在20多年前就关注到“奇点”话题,并把它当作一个“隐喻”:由超人类智能驱动的进步异常迅猛,并将达到一种临界聚集状态。当智能机器的能力跨越这一临界点后再加速喷发,有可能就会突破任何试图对它进行的管控。
也有这样一种可能:未来的机器人通过大数据与算法自行学习和进化,并给人类社会带来不可预见的伦理挑战。例如,机器人可能会在无人监管的情况下,进行自我优化和升级,从而发展出与原始设计意图完全不同的模式。这种能力很可能会超出人类的控制范围。未来技术的核心,或许是通过计算与大数据来管理和规范机器人行为。
要警惕陷入这样一种“技术困境”:当我们不期然跨越了某种技术的门槛、越过了社会限定的红线,才认识到我们不希望的后果终究出现的时候,技术已经深度融入我们的社会经济生活,我们除了无奈接受,对它的控制也变得尤其困难了。
下一篇4