您好 ,欢迎您来到邯郸之窗! 
资讯 视频 文化 科技 体育 娱乐 旅游 原创 财经 美食 分类 人才招聘 汽车 建材家居 房产 返回首页

霍金:人工智能一旦失控 将很难被阻止!

来源:人民网编辑:大洋2016-06-29 15:47:14
分享:

  据俄卫星新闻中文信息专线,著名天体物理学家史蒂芬·霍金日前在接受美国记者拉里·金的专访时表示,人工智能一旦脱离控制,将极难被阻止。

  霍金称,自己不认为发展人工智能“一定能让人类朝好的方向发展”,“当机器发展到能自己演化的重要阶段之时,它们的目标与人类愿望之间的相符程度就很难预料了。”他强调,人工智能应该在符合伦理道德和安全措施要求的情况下开发,因为脱离人类控制之下的机器将很难被阻止。

  霍金指出,人工智能可以比人类的智慧发展得更快。“有益的人工智能可以与人类共存,并扩大人类的可能性...想象一下那些可以对科学家想法迅速作出评价、更早地查出癌症、并预测证券市场走势的人工智能!它们将影响到我们的经济,影响到我们的决策,并在整体上影响我们的生活。”

  霍金被誉为是继阿尔伯特·爱因斯坦之后最杰出的理论物理学家。他提出宇宙大爆炸的理论,在统一20世纪物理学的两大基础理论——爱因斯坦的相对论和普朗克的量子论方面走出了重要一步。遗憾的是,他21岁就患上肌肉萎缩性侧索硬化症(卢伽雷病),全身瘫痪,不能言语,唯一能动的地方只有一双眼睛和3根手指。

资讯 视频 文化 科技 体育 娱乐 旅游 原创 财经 美食 分类 人才招聘 汽车 建材家居 房产 返回首页 视频

地址:邯郸市水院北路甲23号 客服热线:400-707-4888 经营许可证:030030号
邯郸之窗  www.lagcwx.com  版权所有 未经同意不得复制或镜像 在线交流
文明办网文明上网举报电话:010-82615762 通信管理局ICP证:冀B2-20080045 冀ICP备12015509号-4