Das Institut für die Sicherheit künstlicher Intelligenz (KI) der britischen Regierung startet eine neue Plattform zur Bewertung der KI-Sicherheit

Artificial Intelligence Security Research hat Inspect veröffentlicht, eine Open-Source-Testplattform zur Bewertung der Sicherheit und Leistung von KI-Modellen. Inspect erkennt das Kernwissen, die Argumentation und die Autonomie von KI-Modellen und fördert die Entwicklung der globalen KI-Gemeinschaft, wodurch Inspect zu einem Eckpfeiler der KI-Sicherheitsforschung wird.

Am Freitag veröffentlichte das britische Institute for Artificial Intelligence Security Inspect, eine neue Testplattform, die die Überwachung des Sicherheitsrisikos fortschrittlicher KI-Modelle verbessern soll.

Profil inspizieren

Inspect ist ein quelloffenes Testwerkzeug, mit dem die Fähigkeiten einer Vielzahl von KI-Modellen bewertet werden können, darunter Kernwissen, logisches Denken und Autonomie. Als Open-Source-Projekt ist Inspect für die ganze Welt frei verfügbarKI-GemeinschaftFörderung einer breiten Zusammenarbeit und Anwendung.

Das Institut für die Sicherheit künstlicher Intelligenz (KI) der britischen Regierung startet eine neue Plattform zur Bewertung der KI-Sicherheit

Hintergrund und Entwicklung

Das Vereinigte Königreich kündigte im Oktober letzten Jahres die Gründung des Instituts für KI-Sicherheit an, das sich auf die Erforschung und Erprobung neuer KI-Modelle konzentrieren soll. Im Februar dieses Jahres stellte das Vereinigte Königreich außerdem über 100 Millionen Pfund für die Einrichtung von neun neuen Forschungszentren und die technische Ausbildung von KI-Regulierungsbehörden bereit, um die Herausforderungen der sich rasch entwickelnden KI-Technologien zu bewältigen.

Funktion inspizieren

In einer Pressemitteilung beschreibt das UK Institute for Artificial Intelligence Safety die spezifischen Fähigkeiten von Inspect. Als Software-Bibliothek ermöglicht es Inspect den Testern, die spezifischen Fähigkeiten einzelner KI-Modelle zu bewerten und auf der Grundlage der Ergebnisse Bewertungen zu erstellen. Die Plattform wurde entwickelt, um das derzeitige "Blackbox"-Problem komplexer KI-Modelle durch ihre Skalierbarkeit zu lösen, um neue Testtechniken anzupassen und einzubeziehen.

Inspect besteht aus drei grundlegenden Teilen:

  1. DatensatzEine Probenentnahme, die für einen Bewertungstest verwendet wird.
  2. SolverKomponenten: Komponenten, die die eigentliche Testarbeit durchführen.
  3. RitzgerätBewertung des Arbeitsergebnisses des Solvers, um eine umfassende Bewertung der Leistung des KI-Modells zu erstellen.

Dieser modulare Aufbau gibt Inspect die Flexibilität, auf unterschiedliche Testanforderungen und Bewertungskriterien zu reagieren. Die integrierten Komponenten von Inspect können durch die Verwendung von in Python geschriebenen Paketen von Drittanbietern weiter verbessert und erweitert werden.

Bedeutung und künftige Entwicklung

Da die KI-Technologie exponentiell wächst, werden in diesem Jahr immer mehr KI-Modelle auf den Markt kommen, so dass die Forderung nach KI-Sicherheit dringender denn je ist. Derzeit ist das Benchmarking von KI-Modellen nach wie vor eine Herausforderung, da die Infrastruktur, die Trainingsdaten und andere wichtige Details der meisten komplexen KI-Modelle von den Unternehmen, die sie entwickeln, oft geheim gehalten werden.

Die Open-Source-Veröffentlichung von Inspect beweist das einzigartige Talent Großbritanniens für Innovation und technologische Entwicklung und festigt die Führungsrolle des Vereinigten Königreichs im Bereich der KI-Sicherheit, so die britische Wissenschaftsministerin Michelle Donelan. Ian Hogarth, Vorsitzender des Institute for Artificial Intelligence Security, fügte hinzu, dass der Erfolg desAI-SicherheitstestsEs besteht ein Bedarf an gemeinsamen, zugänglichen Bewertungsmethoden, und er hofft, dass Inspect zu einem Eckpfeiler für KI-Sicherheitsinstitute, Forschungsorganisationen und Hochschulen wird.

Mit dem Start von Inspect hat das britische Institut für KI-Sicherheit seine Führungsrolle und Innovation auf dem Gebiet der KI-Sicherheit unter Beweis gestellt und erwartet, dass diese Plattform die globale KI-Sicherheitsforschung stark unterstützen wird.

Open-Source-Tools inspizieren

https://ukgovernmentbeis.github.io/inspect_ai/

https://github.com/UKGovernmentBEIS/inspect_ai

Um Inspect zu entwickeln, klonen Sie das Repository und installieren es mit den optionalen Abhängigkeiten flag-e und [dev]:

$ git clone https://github.com/UKGovernmentBEIS/inspect_ai.git
$ cd inspect_ai
$ pip install -e ". [dev]"

Wenn Sie VS Code verwenden, sollten Sie sicherstellen, dass die empfohlenen Erweiterungen (Python, Ruff und MyPy) installiert sind. Beachten Sie, dass Sie aufgefordert werden, diese Dateien zu installieren, wenn Sie Ihr Projekt in VS Code öffnen.

 

Originalartikel von Chief Security Officer, bei Vervielfältigung bitte angeben: https://cncso.com/de/ai-safety-institute-releases-new-ai-safety-evaluations-platform.html

Wie (1)
Vorherige Freitag, 13. Mai 2024 um 7:09 Uhr
Weiter 22. Mai 2024 um 8:30 Uhr

Eine Antwort hinterlassen

Bitte Login zum Kommentieren