设为首页 | 加入收藏 | 新闻排行 海峡都市在线欢迎您!

实时·准确·聚焦

当前位置:海峡网 > 新闻 > 国际新闻 >

人工智能一旦失控 霍金警告难以阻止

2016-06-30 23:18 | 海峡网 |
我要分享

著名天体物理学家史蒂芬·霍金日前在接受美国记者拉里·金的专访时表示,人工智能一旦脱离控制,将极难被阻止。

据人民网报道,俄卫星新闻中文信息29日消息,霍金称,自己不认为发展人工智能“一定能让人类朝好的方向发展”,“当机器发展到能自己演化的重要阶段之时,它们的目标与人类愿望之间的相符程度就很难预料了。”他强调,人工智能应该在符合伦理道德和安全措施要求的情况下开发,因为脱离人类控制之下的机器将很难被阻止。

霍金指出,人工智能可以比人类的智慧发展得更快。“有益的人工智能可以与人类共存,并扩大人类的可能性……想象一下那些可以对科学家想法迅速作出评价、更早地查出癌症、并预测证券市场走势的人工智能!它们将影响到我们的经济,影响到我们的决策,并在整体上影响我们的生活。”

霍金被誉为是继阿尔伯特·爱因斯坦之后最杰出的理论物理学家。他提出宇宙大爆炸的理论,在统一二十世纪物理学的两大基础理论——爱因斯坦的相对论和普朗克的量子论方面走出了重要一步。遗憾的是,他患上肌肉萎缩性侧索硬化症(卢伽雷病),全身瘫痪,不能言语,唯一能动的地方只有一双眼睛和三根手指。

据俄卫星网介绍,1963年,时年二十二岁的霍金被诊断为患有肌萎缩性脊髓侧索硬化症(俗称“渐冻症”)。当时医生认为,他只能再活二至三年。然而医生的预言没有实现,霍金不仅继续从事科学工作,还有过两次婚姻,成为三个孩子的父亲。即使在彻底瘫痪情况下,霍金仍然积极对待生活:他从事科学工作、教学、发表报告,借助于电脑语音合成器同全球交流。英国电影《万物理论》讲述的即是他的人生故事。

据中通社

(声明:信息来自互联网,旨在传播!若侵权先联系hdnews@qq.com 否概不处理!)
网友评论
赞助链接
文艺专区