首页 > 滚动 > 正文

霍金:AI恐成人类史上最糟事件 不懂控制后果堪忧
2017-11-08 10:52:04 来源:环球网


霍金

    【环球网综合报道】英国著名物理学家史蒂芬.霍金(Stephen Hawking)周一表示,人工智能(AI)的崛起可能是“人类文明史上最糟事件”,除非人类社会能够找到控制AI发展的方法,否则后果不堪设想。

    台湾“中时电子报”11月7日援引CNBC消息称,霍金是在葡萄牙里斯本举办的网络高峰会(Web Summit)演讲时做出这番评论。

    霍金在演讲中谈到AI未来发展的潜力,象是协助复原人类对自然世界的破坏、根除贫穷与疾病问题,并“改造”社会每一个层面,但他也承认未来充满不确定性。

    霍金表示:“除非我们事先做好准备并避免潜在风险,否则AI可能成为人类文明史上最糟的事件。因为它会带来危险,象是制造致命的自主武器(autonomous weapons),或是成为少数人压迫多数人的工具,亦可能对经济造成巨大破坏。”

相关热词搜索:霍金 人类史 后果

上一篇:宏伟的目标要从一件件事情做起
下一篇:教育部:对普通高校师范类专业实行三级监测认证



首页 | 华早团队 | 华早简介 | 记者专栏 | 联系华早 | 版权声明 | 加入华早 | 业务体系 | 人员核验 | 华早文化衍生品 | 管理制度 | 华早大事记 | 撤稿申请 | 发稿系统

本站所刊登的华夏早报各种新闻﹑信息和各种专题专栏资料,均为华夏早报版权所有,转载请尊重版权,注明来源。

© 华夏早报社 版权所有

新闻爆料huaxiazaobao@126.com
在线咨询
QQ:281111172
新闻爆料
huaxiazaobao@126.com
扫一扫

微信扫一扫

返回顶部