지난 금요일, 영국의 인공지능 보안 연구소는 고급 AI 모델의 보안 위험 모니터링을 개선하기 위해 설계된 새로운 테스트 플랫폼인 Inspect를 출시했습니다.
프로필 검사
Inspect는 핵심 지식, 추론, 자율성 등 다양한 AI 모델의 기능을 평가하는 데 사용할 수 있는 오픈 소스 테스트 도구입니다. 오픈 소스 프로젝트인 Inspect는 전 세계에서 무료로 사용할 수 있습니다.AI 커뮤니티광범위한 공동 작업 및 애플리케이션을 촉진하는 데 사용합니다.
배경 및 개발
영국은 작년 10월 새로운 AI 모델을 연구하고 테스트하는 데 중점을 둔 AI 안전 연구소를 설립한다고 발표했습니다. 올해 2월, 영국은 빠르게 진화하는 AI 기술로 인해 제기되는 문제를 해결하기 위해 9개의 새로운 연구 센터를 설립하고 AI 규제 당국을 위한 기술 교육에 1억 파운드 이상을 추가로 투입했습니다.
검사 기능
영국 인공지능 안전 연구소는 보도 자료에서 Inspect의 구체적인 기능에 대해 설명했습니다. 소프트웨어 라이브러리인 Inspect를 통해 테스터는 개별 AI 모델의 특정 기능을 평가하고 그 결과에 따라 점수를 생성할 수 있습니다. 이 플랫폼은 새로운 테스트 기법을 적용하고 수용할 수 있는 확장성을 통해 복잡한 AI 모델의 현재 '블랙박스' 문제를 해결하도록 설계되었습니다.
검사는 세 가지 기본 부분으로 구성됩니다:
- 데이터 집합평가 테스트를 제공하는 데 사용되는 샘플 컬렉션입니다.
- 솔버실제 테스트 작업을 수행하는 구성 요소입니다.
- 채점 장치솔버의 작업 결과물을 평가하여 AI 모델의 성능에 대한 종합적인 평가를 생성합니다.
이러한 모듈식 설계는 다양한 테스트 요구 사항과 평가 기준에 유연하게 대응할 수 있는 Inspect를 제공합니다. Python으로 작성된 타사 패키지를 사용하여 Inspect의 기본 구성 요소를 더욱 개선하고 확장할 수 있습니다.
중요성 및 향후 발전 방향
AI 기술이 기하급수적으로 성장함에 따라 올해에는 점점 더 많은 AI 모델이 시장에 출시될 예정이며, 이에 따라 AI 보안에 대한 요구가 그 어느 때보다 절실해지고 있습니다. 현재 대부분의 복잡한 AI 모델의 인프라, 학습 데이터 및 기타 주요 세부 사항은 해당 모델을 만든 회사에서 비밀로 유지하는 경우가 많기 때문에 AI 모델을 벤치마킹하는 것은 여전히 어려운 과제입니다.
미셸 도넬란 영국 과학부 장관은 인스펙트의 오픈 소스 공개는 혁신과 기술 개발에 대한 영국의 독특한 재능을 보여주며 AI 안전 분야에서 영국의 리더십을 공고히 한다고 말했습니다. 인공지능 보안 연구소의 회장인 이안 호가스는 다음과 같이 덧붙였습니다.AI 보안 테스트그는 공유되고 접근 가능한 평가 방법이 필요하며, Inspect가 AI 보안 기관, 연구 기관 및 학계의 초석이 되기를 희망합니다.
영국 AI 안전 연구소는 인스펙트 출시를 통해 AI 안전 분야의 리더십과 혁신을 입증했으며, 이 플랫폼이 글로벌 AI 안전 연구에 강력한 지원을 제공할 것으로 기대하고 있습니다.
오픈 소스 도구 검사
https://ukgovernmentbeis.github.io/inspect_ai/
https://github.com/UKGovernmentBEIS/inspect_ai
Inspect를 개발하려면 플래그-e 및 [dev] 선택적 종속성을 사용하여 리포지토리를 복제하고 설치합니다:
$ git clone https://github.com/UKGovernmentBEIS/inspect_ai.git
$ cd inspect_ai
$ pip install -e ". [dev]"
VS Code를 사용하는 경우 권장 확장 프로그램(Python, Ruff 및 MyPy)이 설치되어 있는지 확인해야 합니다. VS Code에서 프로젝트를 열면 이러한 파일을 설치하라는 메시지가 표시됩니다.
최고 보안 책임자의 원본 기사, 복제할 경우 출처 표시: https://cncso.com/kr/ai-안전-연구소-새로운-ai-안전성-평가-플랫폼-출시-html