机器人的“自主”不应违背人类伦理

去年 10 月,沙特阿拉伯成为世界上第一个授予机器人公民身份的国家。在登台接受新身份时,索菲亚说她“为这一独特的荣誉感到非常荣幸和自豪”,还说“成为世界上第一个获得公民身份的机器人是具有历史意义的”。

机器人被视为自主系统,但这不应该是人类伦理意义上。“自主”一词指的是为自己立法,以及制定、思考和选择规范、规则和法律的能力。它包含了自由地设定自己的标准并在生活中选择自己的目标和目的的权利。支持和促进这一认知的过程通常包括根源于理性和价值观的自我意识、自觉意识和自我创造的特征。因此,在伦理相关的意义上,自主性只能属于人类。

索菲亚获得公民身份,意味着她获得了一定的权利,并赢得了一定的尊重。道德责任涉及到人类行为的诸多方面,如因果性、责任性(提供一个账户的义务)、对诸如赞扬和责备的反应性态度(一系列道德情感的适当性),以及与社会角色相关的职责。人类应该能够确定哪些价值是由技术服务的,哪些是与道德相关的,以及哪些终极目标和善的观念是值得追求的。这不能给与机器,不管它们有多强大。

赋予索菲亚自决权,将使她享有免于奴役的权利,以及其他许多的权利。如果索菲亚犯了罪,想要结婚,或者向另一个国家申请庇护,我们该怎么办?考虑到她的数字性质,目前尚不清楚索菲亚是否能够真正满足有抱负的公民才能满足的居住要求。

关于道德责任的辩论,要求对高技术系统的伦理、法律和治理方面进行更系统的思考和研究,这些系统可以在不直接由人类用户控制、在对人类有利也可能对人类造成损害的情况下对世界采取行动。这是一个非常紧迫的问题。

人类尊严

人类尊严的原则,被理解为承认人类固有的值得尊重的状态,不能被“自主”技术所侵犯。

人类尊严的关系概念要求我们意识到我们是否以及何时与机器或另一个人进行互动,并且我们保留将某些任务交给人类或机器的权利。

自主

自主原则蕴含着人类的自由。这将转化为人类的责任,从而控制和了解“自主”系统,因为它们不能损害人类制定自己的标准和规范,并能够按照我们的生活方式生活的自由。

责任

责任原则必须是人工智能研究和应用的基础。”自主”制度只应以服务于全球社会和环境利益的方式发展和使用,这取决于民主协商的结果。

公正、公平和团结

人工智能应该有助于全球正义,人们能平等地获得 AI、机器人技术和“自主”系统所能带来的好处和优势。用于培训和运行人工智能系统的数据集的歧视性偏差应在尽可能早的阶段被预防或发现、报告和中和。

公众参与

关于规范人工智能开发和应用的关键决策应该是民主辩论和公众参与的结果。在这个问题上,全球合作和公众对话的精神将确保他们以一种包容的、知情的、有远见的方式接受。

法治和问责制

诉诸司法和获得补救的权利以及公平审判为确保遵守人类权利标准和潜在的人工智能特定条例提供了必要的框架。这包括防范“自主”系统侵犯人类权权的风险,比如安全和隐私。

安全性和健全性

“自主”系统的安全性有三种形式:(1)环境和用户的外部安全,(2)可靠性和内部的健全性,例如防范黑客攻击,(3)人机交互的情感安全。人工智能的开发人员都必须考虑安全所有维度。

数据保护和隐私

作为物联网一部分的 AI 硬机器人以及通过万维网运行的 AI 软机器人必须遵守数据保护法规,不得不应在未经知情和授权的情况下收集和传播数据、运行数据集。

鉴于“自主”系统对私人生活和隐私的影响,我们可以考虑引入有意义的人际接触的权利。

可持续性

人工智能技术必须符合人类的责任,以确保地球上生命的基本先决条件,为人类继续繁荣、为子孙后代,创造和保护良好的环境。

人工智能、机器人技术和“自主”系统可以带来繁荣,为人类福祉做出贡献,在设计和部署得当的情况下会有助于实现更高的道德理想和社会经济目标。伦理方面的考虑和共同的道德价值可以被用来塑造明天的世界,应该被解释为对创新的激励,而不是障碍。

索菲亚作为一个公民代表着更险恶的东西。如果我们能把我们的同情和想法转移到其他公民身上,我们可能会养成更好的习惯。

未来可能会有一段时间,技术进步非常之快,以至于我们需要考虑机器人和 AI 是否应该被授予公民身份——但现在还不是时候。如果我们坚持认为机器人拥有和人类一样的权利,这将使我们更容易证明我们对人类同胞的不人道行为。【数字叙事 原作:Ayse Kok;编译:Lighting】

有问题和想法?与数字诗人讨论、交流,以获得更多的信息、意见。

赞赏
lighting
lighting
笛卡尔的“思”正在进入明斯基的“情感机器”
本文系数字叙事原创(编译)内容,未经授权,不得用于商业目的,非商业转载须注明来源并加回链。

1条评论

订阅

受欢迎的

相关文章
Related