在最近的 AI 首尔峰会上,微软、谷歌、OpenAI 以及其他 13 家重要的 人工智能 企业共同承诺确保在开发 AI 模型时的安全性与透明度,相关报道由 美联社 提供。
此次峰会上,所有公司均承诺将采取框架评估 AI 模型的潜在风险,并表示一旦发现其存在严重的“不可接受”的风险,将立即停止使用这些模型。Cohere 的 Aidan Gomez 表示:“我们必须持续考虑所有可能的风险,同时优先关注那些如果未妥善处理将会引发问题的风险。”
此外,来自全球的领导者们在峰会上达成共识,旨在对 AI 研究进行协调,并建立 AI 安全标准。联合国秘书长安东尼奥古特雷斯 (Antonio Guterres) 提到:“我们不能在无意识中走向一个反乌托邦的未来,让少数人控制 AI 的力量或者更糟,任由超出人类理解的算法来主宰。”