安全性在科技行业中常常被忽视,但它却是人工智能(AI)难题中绝对关键的一环。而昨天开始在韩国首尔举行的人工智能安全峰会上,再次强调了人工智能和安全必须以绝对不可避免的方式形成的(强制)二项式。在韩国和英国共同举办的峰会开始时,大型科技公司承诺保证新人工智能工具开发的安全。
在昨天承担起将安全性融入人工智能 DNA 的责任的公司中,谷歌、Meta和微软等大型跨国公司以及其他在本地规模运营的公司脱颖而出。
正如政府昨天宣布的那样,人工智能领域最领先的公司,以及总部位于中国和阿拉伯联合酋长国的公司,昨天在首尔同意“如果不能充分减轻其重叠风险,则不开发或实施人工智能模型”英国与韩国共同主办人工智能安全峰会。
该峰会的一份联合声明将安全、创新和包容性列为讨论人工智能机遇和挑战时的三大优先事项。例如,包容性必须确保人工智能孕育出来的好处为所有人所 巴拉圭电话号码库 共享 ,而不是被少数人垄断。
科技公司将密切审视人工智能发展所涉及的风险,以确保这项技术的安全
首尔人工智能安全峰会还促成十个国家与欧盟(EU)达成协议,共同启动国际网络,最终目标是推进“人工智能安全科学”。
来自欧洲、亚洲、北美和中东的16家科技公司昨天在首尔达成了确保人工智能安全发展的承诺,恰逢欧盟人工智能法最终批准,该法将在旧大陆逐步实施,直到2026 年。
本周二在首尔遵守这一承诺的公司将发布(如果他们还没有这样做的话)他们自己的有关人工智能开发的安全框架。目的是衡量先进人工智能模型的重叠风险,并分析滥用该技术可能造成的危险。
英国首相里希·苏纳克强调:“来自如此多国家的人工智能领域领先公司同意对该技术的安全性做出相同的承诺,这在世界上尚属首次。”
首尔峰会以所谓的《布莱奇宣言》为基础,去年11月,多个国家在该宣言中表示支持人工智能监管领域的合作。