科学家称人工智能或比核武器更具威胁

2015年01月14日10:46  来源:燕赵晚报
 
原标题:科学家称人工智能或比核武器更具威胁

  数百名科学家敦促重视人工智能安全,确保研究对人类有益

  不少科幻电影中,一些人工智能机器拒绝服从人类指挥,甚至杀死或控制人类,最终统治世界。为避免这类情况出现,包括英国理论物理学家斯蒂芬·霍金在内,数百名科学家和企业家联合发表一封公开信,敦促人们重视人工智能安全,确保这类研究对人类有益。

  近年来,人工智能技术高速发展,在给人们生活带来便利的同时,可能存在危险性。一些科学家认为,人工智能可能比核武器更具威胁。

  益处巨大

  英、法等国媒体12日报道,这封信由非营利机构“未来生活研究所”发布。除霍金外,在信上签名的还有美国机器人和智能机械研究中心主任卢克·米尔豪泽、2004年诺贝尔物理学奖获得者弗兰克·维尔切克、美国网络通讯软件Skype创始人之一扬·塔利英、美国太空探索技术公司和美国特斯拉汽车公司首席执行官埃隆·马斯克,以及一些来自美国哈佛大学、斯坦福大学等知名高校的顶尖学者和一些来自谷歌公司、微软公司等高科技企业的工作人员。

  这封公开信说,人工智能技术稳定发展已获“广泛共识”,而且未来能够给人类带来巨大益处。信中说,人工智能已经为人类生活提供便利,包括语音识别技术、图像分析技术、无人驾驶汽车和翻译工具。

  公开信说:“由于人工智能的巨大潜力,有必要研究如何在从其获益的同时避免潜在的危险。”

  或有危险

  信中写道,人工智能技术发展良好,但给社会带来的冲击逐渐增加。如果没有针对人工智能的安全防护措施,可能导致人类的未来变得黯淡,甚至让人类灭亡。

  短期而言,人工智能可能导致数以百万计人失业;长期而言,可能出现一些科幻电影中的情况,人工智能的智力水平超过人类,开始“政变”。按人工智能的发展进度,在不久的将来,机器可能以不断加快的速度重新设计自己,超越受制于生物进化速度的人类,最终摆脱人类的控制。

  这封公开信说:“我们的人工智能系统必须按照我们的要求工作。”

  今年早些时候,霍金提醒,须警惕人工智能科技过度发展,防止人工智能科技失控并超越人类智慧,最终破坏整个星球。他说,成功创造人工智能科技“将是人类历史上最伟大的成就,但不幸的是,有可能也是最后一项(成就)”。

  去年10月,太空探索技术公司和特斯拉汽车公司首席执行官马斯克在美国麻省理工学院参加一场活动时说:“我认为对待人工智能我们必须非常谨慎。按照我的猜想,人工智能可能是我们面临的最大灭绝风险。”

  马斯克说,创造人工智能犹如“召唤一只恶魔”,“在一些故事中,有人拥有五星阵法和圣水……他确信自己可以控制这只恶魔,不过事实并非如此”。

  为确保人工智能不被误用,美国谷歌公司不久前成立了一个伦理委员会,监督这家企业的人工智能技术研发。

  据新华社

(来源:燕赵晚报)

推荐阅读

坚定文化自信 展现中国底气
“等闲识得东风面,万紫千红总是春”。这6年来,在文艺工作座谈会重要讲话精神的引领下,我国的文艺创作走向空前繁荣。展望“十四五”,新时代的文艺必将继续全面开花,结出累累硕果,迎来更美好的春天。 
【详细】坚定文化自信 展现中国底气 “等闲识得东风面,万紫千红总是春”。这6年来,在文艺工作座谈会重要讲话精神的引领下,我国的文艺创作走向空前繁荣。展望“十四五”,新时代的文艺必将继续全面开花,结出累累硕果,迎来更美好的春天。 【详细】

如何打造脱贫攻坚题材文学精品?
人民网文娱部邀请中国作协创研部主任、研究员何向阳,贵州省文联、作协主席欧阳黔森,河北省作协主席关仁山,为我们讲述“脱贫攻坚题材报告文学创作工程”的历程和收获,分享创作心得和感悟。
【详细】如何打造脱贫攻坚题材文学精品? 人民网文娱部邀请中国作协创研部主任、研究员何向阳,贵州省文联、作协主席欧阳黔森,河北省作协主席关仁山,为我们讲述“脱贫攻坚题材报告文学创作工程”的历程和收获,分享创作心得和感悟。 【详细】

精彩推荐

视频新闻

  1. 2020奔跑瞬间盘点,哪个触动了你?
  2. 8848.86米!致敬攀登高峰的中国人
  3. 旅客心脏不适 乘务员跪地40分钟守护

热点排行

  1. 为民族复兴创造良好人口环境(人民时评)
  2. 中共辽宁省委组织部公告
  3. 全国政协委员学习习近平总书记“七一”重…
  4. 喝牛奶有四个禁忌,一定要了解!
  5. 七冶建设集团有限责任公司党委委员、副总…