史蒂芬·霍金真的认为人工智能将带来危险吗?

每当斯蒂芬·霍金的名字出现在关于人工智能的讨论中,我们通常都会感到畏缩。如果这个世界被分成批评者和信徒,霍金肯定会被归入人工智能批评家的行列,但这将忽略掉他对人工智能研究的真实想法和态度。随着本周早些时候他的去世,我担心人们只会记住他怀疑的立场,并怀念他对未来可能面临的具体危险的思考。

需要澄清的是,霍金并不是人工智能的超级粉丝。他反复强调,超级人工智能的出现可能意味着人类的终结。他的论点相当简单:超级智能将能够非常胜任地追求它的目标,如果这些目标与人类的目标不一致,我们就会被碾压。

“你可能不是一个邪恶的人,但谁踩踏蚂蚁是出于恶意呢?但如果你负责一个水电绿色能源项目,而该地区的蚁丘被洪水淹没,对蚂蚁来说就太糟糕了。”他在 2015 年 Reddit 上的问答环节中说。“我们不要把人类放在那些蚂蚁的位置上。”

在公开讲话中,霍金还警告说,人工智能被会用作压迫的工具——让少数人反对许多人,并加深业已存在的不平等。是的,他的确警告过基于 AI 的武器系统的研制。

玛丽·雪莱

霍金的观点并非源于他坚信人工智能系统一定会带来危险。在 AI 中看到弗兰肯斯坦的身影并不奇怪,自玛丽·雪莱之后,人类被自己的创造物毁灭是人们一直“乐在其中”的梦幻。他有时也会像个科幻作家一样作一些有趣的推理和想象。

在另一些时刻,他乐观地认为,人工智能可能是人类的最佳选择,如果它能正确地为人类造福的话。他的这一主张来自于另一种推理,即有可能开发出一套最佳实践,从而创造出有益的 AI。

霍金的人工智能批评还有一个重要的组成部分:对那些预测超级智能在特定时间内到来的人持怀疑态度。他写道:“人工智能研究人员在创造人类级别的 AI 需要多长时间,目前还没有定论,所以请不要相信任何声称知道这将在你的有生之年发生或不会发生的人。”原作:Blair Hanley Frank;编译:Lighting】

有问题和想法?与数字诗人讨论、交流,以获得更多的信息、意见。

赞赏
lighting
lighting
笛卡尔的“思”正在进入明斯基的“情感机器”
本文系数字叙事原创(编译)内容,未经授权,不得用于商业目的,非商业转载须注明来源并加回链。

1条评论

  1. […] 斯蒂芬·霍金对人类的未来有一些悲观的想法,比如,自我设计的生物和人工智能机器人将超越并毁灭人类,外星人会像哥伦布一样给地球原住民带来灾难。玛丽·雪莱和阿历克斯·哈利的读者对他的担忧应该并不陌生——他的预测似乎只是对作家梦幻的概况。令人惊奇的是,今天,一个经过《弗兰肯斯坦》等作品训练的神经网络也可能会说出跟霍金差不多的话语。有人甚至说,作为公众人物的晚年的霍金很像是社交网络的 AI 化的化身。 […]

订阅

受欢迎的

相关文章
Related