百科

美媒:科技行业领袖警告AI可能给人类带来“灭绝风险”

字号+作者:新闻大战来源:探索2023-06-05 14:48:42我要评论(0)

  中新网6月1日电 据美国《纽约时报》报道,5月30日,超过350名人工智能领域的行业高管、研究人员和工程师签署了一封公开信,他们在信中警告称,AI可能给人类带来“灭绝风险”。  这封公开信只有一句

  中新网6月1日电 据美国《纽约时报》报道,灭绝风险5月30日,美媒超过350名人工智能领域的科技行业高管、研究人员和工程师签署了一封公开信,行业他们在信中警告称,领袖类带AI可能给人类带来“灭绝风险”。警告

  这封公开信只有一句话的灭绝风险声明:“减轻人工智能带来的灭绝风险,应该成为全球的美媒优先事项,就像应对其他社会规模的科技风险——如大流行病和核战争一样。”

资料图:ChatGPT。行业

  该公开信由非营利组织人工智能安全中心(Center for AI Safety)发表,领袖类带350多名签署者中包括三家领先人工智能公司的警告高管:OpenAI首席执行官山姆·阿尔特曼,谷歌DeepMind首席执行官杰米斯·哈萨比斯,灭绝风险以及Anthropic首席执行官达里奥·阿莫代伊。美媒

  《纽约时报》称,科技最近,大型语言模型,即ChatGPT和其他聊天机器人使用的人工智能系统所取得的进展,引发了人们的担忧。人们担心,人工智能有可能很快就会被大规模用于传播错误信息和宣传,或者可能消除数百万白领的工作。

  5月,阿尔特曼、哈萨比斯和阿莫代伊曾与美国总统拜登和副总统哈里斯碰面,讨论人工智能的监管问题。在会后的参议院证词中,阿尔特曼警告,先进人工智能系统的风险已经严重到需要政府干预的程度,同时,他呼吁对人工智能的潜在危害进行监管。

当地时间2023年5月16日,OpenAI首席执行官山阿尔特曼 (Samuel Altman) 出席参议院司法委员会下属的隐私、技术和法律委员会举办的听证会。

  此前,阿尔特曼和OpenAI的另外两名高管提出了几种负责任地管理强大人工智能系统的方法。他们呼吁领先的人工智能制造商进行合作,对大型语言模型进行更多技术研究,并成立一个类似于国际原子能机构的国际人工智能安全组织。

  阿尔特曼还表示,支持制定规则,要求大型尖端人工智能模型的制造者,注册政府颁发的许可证。

  “我认为如果这项技术出了问题,它可能会大错特错。”阿尔特曼告诉参议院小组委员会。“我们希望与政府合作,防止这种情况发生。”

  据报道,今年3月,包括埃隆·马斯克在内的1000多名科技领袖、技术人员和研究人员签署了另一封公开信,呼吁暂停开发最大的人工智能模型六个月,理由是担心“开发和部署更强大数字思维的竞赛失控”。

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

相关文章
  • 山东企业走进马来西亚开展经贸对接

    山东企业走进马来西亚开展经贸对接

    2023-06-05 14:02

  • ??????̶?壺??????????Ĵ??С???????

    ??????̶?壺??????????Ĵ??С???????

    2023-06-05 13:53

  • 国泰乘务员被指歧视非英语乘客 各方回应

    国泰乘务员被指歧视非英语乘客 各方回应

    2023-06-05 12:47

  • 大运倒计时丨中国乒乓球项目选拔赛成绩公布 大运会特许商品新品发布

    大运倒计时丨中国乒乓球项目选拔赛成绩公布 大运会特许商品新品发布

    2023-06-05 12:47

网友点评