Kürzlich hat Microsoft das Red-Team-Testing-Tool PyRIT (Python Risk Identification Toolkit for Generative Artificial Intelligence) veröffentlicht, um Risiken in der generativen KI durch Automatisierung zu identifizieren. Dabei handelt es sich um ein quelloffenes Red-Team-Testing-Tool, das Sicherheitsexperten und Ingenieuren für maschinelles Lernen helfen soll, Risiken in generativer KI zu erkennen. Laut Microsoft verbessert PyRIT die Effizienz von Audits, indem es Aufgaben automatisiert und Bereiche für weitere Untersuchungen kennzeichnet, was im Wesentlichen die manuellen Red-Team-Tests ergänzt. PyRIT ist derzeit auf GitHub verfügbar.
Microsoft veröffentlicht Open-Source-Tool für Red-Team-Tests für AIGC
Previous: 国家数据局明确组织及职责