研究发现团队机器人像人类群体成员一样容易产生偏见

机器人在一起工作时也会产生偏见。这是卡迪夫大学和麻省理工学院的研究人员所进行的一项有趣的研究所得出的结论。研究显示,在一个团队模拟器内运行的 AI 机器人对不在这个团队中的机器人表示了偏见。研究人员写道:“一组自主机器人会在简单识别、模仿和学习等行为中表现出偏见。”

研究人员在模拟器中运行了一个简单的游戏。该游戏涉及根据声誉和捐赠策略向机器人团体内外的派对捐款。他们能够衡量对外界的偏见程度。随着模拟的进行,他们看到了对外界的偏见的增加。

研究人员发现,这种偏见在模拟器中很容易发展,这一事实应该会让我们慎重考虑给机器人更多的自主权。

“我们的模拟显示,偏见是一种强大的自然力量,通过进化,它很容易在虚拟人群中受到激励,从而损害与他人更广泛的联系。对偏见群体的保护可能会无意中导致形成更多的偏见群体,从而造成分裂。这种普遍存在的偏见很难逆转。“卡迪夫大学教授罗杰·惠特克(Roger Whitaker)说。“能够识别歧视和模仿他人的自主机器人,将来可能会受到我们在人类群体中看到的偏见现象的影响。”

有趣的是,当“人类群体中存在更多不同的子群体”时,偏见会下降,这也是人类偏见中一个重要的考虑因素。

“随着子群体数量的增加,可以通过非偏见群体的联盟进行合作。这可降低子群体作为群体的地位,减少对偏见的敏感性。然而,这也要求代理人有更高的倾向,与团队以外的人进行互动。“惠特克教授说。

此前的一些研究揭示,AI 机器人的偏见是由算法偏差造成的,而算法偏差根源在反映人类偏见的数据上。因此,人类要纠正机器人的偏见,得先修正自己。这不仅是技术问题,更是社会问题。因此,有研究者指出,人工智能研究需要人文学科的更多参与

【数字叙事 Lighting】

有问题和想法?与数字诗人讨论、交流,以获得更多的信息、意见。

赞赏
lighting
lighting
笛卡尔的“思”正在进入明斯基的“情感机器”
本文系数字叙事原创(编译)内容,未经授权,不得用于商业目的,非商业转载须注明来源并加回链。

订阅

受欢迎的

相关文章
Related