近日,在“人工智能(AI)首尔峰会”上,微软、谷歌、OpenAI等16家科技公司共同承诺,将安全开发人工智能模型。峰会期间,这些公司还讨论了如何应对最极端风险,并在无法控制的情况下关闭其尖端系统。
在峰会上,参会的科技公司还包括国内企业智谱AI(已有多家知名企业如腾讯、阿里、美团和小米对其进行了投资)、IBM、亚马逊、Meta和三星。这些公司共同讨论了如何确保人工智能模型的稳健性和安全性,以避免潜在的风险和危害。
为了实现这一承诺,这些公司计划发布一个框架,阐明公司将如何衡量其模型的风险。在风险严重且“无法接受”的极端情况下,如果无法减轻风险,人工智能公司将不得不按下紧急停止开关,停止开发或部署其模型和系统。这标志着这些公司正在采取积极的措施来确保人工智能技术的安全性和稳健性。
值得注意的是,这并不是人工智能公司第一次做出听起来很高尚但不具约束力的安全承诺。去年,亚马逊、谷歌、Meta和微软等公司签署了由美国政府促成的自愿保障措施,以确保他们的产品在发布时是安全的。这些承诺表明了这些公司在人工智能技术安全性和稳健性方面的重视程度。
这些科技公司的安全承诺表明了它们对人工智能技术安全性和稳健性的重视程度。然而,监管机构的作用也不可忽视。未来,我们期待看到更多的合作和监管措施,以确保人工智能技术的发展符合公共利益和道德标准。
合作机构
联系方式