您的位置:网站首页 > 头条关注 > 头条关注

Anthropic谷歌微软和OpenAI组成人工智能安全小组

摘要人工智能开发带来大量安全风险已不是什么秘密。虽然管理机构正在努力制定法规,但目前主要由公司自己采取预防措施。Anthropic、谷歌、微软

人工智能开发带来大量安全风险已不是什么秘密。虽然管理机构正在努力制定法规,但目前主要由公司自己采取预防措施。Anthropic、谷歌、微软和Open AI 联合创建了前沿模型论坛,这是一个行业领先的机构,专注于安全、谨慎的人工智能开发,最新的自我监督展示随之而来。它将前沿模型视为任何超越当前能力并具有广泛能力的“大规模机器学习模型”。

论坛计划设立一个咨询委员会、章程和资金。它制定了核心支柱,打算重点推进人工智能安全研究,确定最佳实践,与政策制定者、学者、民间社会和公司密切合作,并鼓励努力构建“有助于应对社会最大挑战”的人工智能。

据报道,成员们将在明年努力实现前三个目标。说到会员资格,该公告概述了加入的必要资格,例如生产前沿模型并明确承诺确保其安全。OpenAI 全球事务副总裁 Anna Makanju 表示:“至关重要的是,人工智能公司,尤其是那些致力于最强大模型的公司,必须在共同点上保持一致,推进深思熟虑且适应性强的安全实践,以确保强大的人工智能工具获得尽可能广泛的利益。”在一份声明中说。“这是一项紧迫的工作,这个论坛处于有利地位,可以迅速采取行动,以推进人工智能安全状况。”

该论坛的创建是在白宫与顶级人工智能公司(包括负责这一新项目的公司)最近达成安全协议之后成立的。致力于采取的安全措施包括由外部专家对不良行为进行测试,以及在人工智能创建的内容上添加水印。

免责声明:本文章由会员“李楠东”发布如果文章侵权,请联系我们处理,本站仅提供信息存储空间服务如因作品内容、版权和其他问题请于本站联系