최근 Microsoft는 자동화를 통해 생성 AI의 위험을 식별하는 데 도움이 되는 PyRIT(Python 위험 식별 도구 키트) 레드 팀 테스트 도구를 출시했습니다. 이 도구는 보안 전문가와 머신 러닝 엔지니어가 생성 AI의 위험을 식별할 수 있도록 설계된 오픈 소스 레드팀 테스트 도구입니다. Microsoft는 PyRIT가 작업을 자동화하고 추가 조사를 위해 영역을 표시함으로써 감사 효율성을 개선하여 기본적으로 수동 레드팀 테스트를 보강한다고 말합니다. PyRIT는 현재 GitHub에서 사용할 수 있습니다.
Microsoft, AIGC를 위한 레드팀 테스트용 오픈 소스 도구 출시
Previous: 国家数据局明确组织及职责