英国政府人工智能(AI)安全研究所发布新的AI安全评估平台

人工智能安全研究发布了开源测试平台Inspect,旨在评估AI模型的安全性和性能。Inspect能检测AI模型的核心知识、推理能力和自主能力,促进全球AI社区的发展,Inspect成为AI安全研究的基石。

本周五,英国人工智能安全研究所发布了一个全新的测试平台——Inspect,旨在提升对先进AI模型的安全风险监测。

Inspect简介

Inspect是一个开源的测试工具,可用于评估多种AI模型的能力,包括核心知识、推理能力和自主能力。作为开源项目,Inspect可以免费供全球AI社区使用,促进广泛的协作与应用。

英国政府人工智能(AI)安全研究所发布新的AI安全评估平台

背景与发展

英国在去年10月宣布成立人工智能安全研究所,专注于研究和测试新型AI模型。今年2月,英国进一步承诺投入超过1亿英镑,启动9个新的研究中心,并对AI监管机构进行技术培训,以应对快速发展的AI技术带来的挑战。

Inspect功能

在新闻发布会上,英国人工智能安全研究所介绍了Inspect的具体功能。作为一个软件库,Inspect让测试人员能够评估单个AI模型的具体能力,并根据测试结果生成评分。该平台的设计目标是通过其可扩展性,适应并接纳新的测试技术,从而应对当前复杂AI模型的“黑箱”问题。

Inspect由三个基本部分组成:

  1. 数据集:用于提供评估测试的样本集合。
  2. 求解器:执行实际测试工作的组件。
  3. 计分器:评估求解器的工作成果,生成关于AI模型性能的综合评价。

这种模块化设计使Inspect能够灵活应对不同的测试需求和评估标准。通过使用Python编写的第三方软件包,Inspect的内置组件可以得到进一步增强和扩展。

重要性与未来发展

随着AI技术的迅猛发展,越来越多的AI模型将在今年上市,这使得推动AI安全比以往任何时候都更加迫切。目前,对AI模型进行基准测试仍然是一个挑战,因为大多数复杂的AI模型的基础架构、训练数据和其他关键细节通常被创造它们的公司保密。

英国科学部长米歇尔·多内兰表示,Inspect的开源发布展示了英国在创新和科技发展方面的独特才能,并巩固了英国在AI安全领域的领导地位。人工智能安全研究所主席Ian Hogarth补充道,成功的AI安全测试需要共享的、可访问的评估方法,他希望Inspect能成为AI安全研究所、研究组织和学术界的基石。

通过Inspect的推出,英国人工智能安全研究所展示了其在AI安全领域的领导力和创新能力,期待这一平台能够为全球AI安全研究提供强有力的支持。

Inspect开源工具

https://ukgovernmentbeis.github.io/inspect_ai/

https://github.com/UKGovernmentBEIS/inspect_ai

要开发 Inspect,请克隆存储库并使用标志-e和[dev]可选依赖项进行安装:

$ git clone https://github.com/UKGovernmentBEIS/inspect_ai.git
$ cd inspect_ai
$ pip install -e “.[dev]”

如果您使用 VS Code,则应确保已安装推荐的扩展(Python、Ruff 和 MyPy)。请注意,当您在 VS Code 中打开项目时,系统会提示您安装这些文件。

 

原创文章,作者:首席安全官,如若转载,请注明出处:https://cncso.com/tw/ai-safety-institute-releases-new-ai-safety-evaluations-platform-html

讚! (2)
以前的 2024年5月13日 上午7:09
下一個 2024年5月22日 上午8:30