Das Vereinigte Königreich und die USA haben zusammen mit internationalen Partnern in 16 anderen Ländern die SicherheitsKünstliche Intelligenz (KI) (AI) Ein neuer Leitfaden für die Systementwicklung.
Vereinigte Staaten von AmerikaNetzwerksicherheitund der Agentur für Infrastruktursicherheit (CISA) sagte: "Der Ansatz stellt die Eigenverantwortung des Kunden für die Sicherheitsergebnisse in den Vordergrund, setzt auf umfassende Transparenz und Rechenschaftspflicht und schafft eine Organisationsstruktur, in der Sicherheit durch Design höchste Priorität hat."
Das Nationale Zentrum für Cybersicherheit (NCSC) fügte hinzu, dass sein Ziel darin bestehe, die Cybersicherheit von KI zu verbessern und dazu beizutragen, dass die Technologie auf sichere Weise konzipiert, entwickelt und eingesetzt wird.
Der Leitfaden baut auch auf den laufenden Bemühungen der US-Regierung auf, die von der KI ausgehenden Risiken in den Griff zu bekommen. So soll sichergestellt werden, dass neue Tools vor ihrer Veröffentlichung angemessen getestet werden, dass geeignete Schutzmaßnahmen entwickelt werden, um gesellschaftliche Schäden wie Voreingenommenheit und Diskriminierung sowie Bedenken hinsichtlich des Datenschutzes zu beseitigen, und dass verlässliche Möglichkeiten für die Verbraucher geschaffen werden, KI-generiertes Material zu identifizieren.
Außerdem müssen sich die Unternehmen verpflichten, die Entdeckung und Meldung von Schwachstellen in ihren KI-Systemen durch Dritte mittels eines Bug-Bounty-Systems zu erleichtern, damit diese Schwachstellen schnell gefunden und behoben werden können.
Der NCSC sagt, dass der neueste Leitfaden "den Entwicklern dabei hilft, sicherzustellen, dass Cybersicherheit sowohl eine wichtige Voraussetzung für die Sicherheit von KI-Systemen als auch ein integraler Bestandteil des so genannten 'Safety by Design'-Ansatzes von Anfang an und während des gesamten Entwicklungsprozesses ist".
Dazu gehört auch die sichere Gestaltung,SicherheitsentwicklungIn den Bereichen Sicherheitsimplementierung, Sicherheitsbetrieb und -wartung, die alle wichtigen Bereiche des Lebenszyklus der KI-Systementwicklung abdecken, müssen Unternehmen Bedrohungen für ihre Systeme modellieren und ihre Lieferketten und Infrastrukturen schützen.
Die Agenturen wiesen darauf hin, dass das Ziel auch darin besteht, Angriffe auf KI- und maschinelle Lernsysteme (ML) zu bekämpfen, die darauf abzielen, unbeabsichtigtes Verhalten auf verschiedene Weise zu bewirken, einschließlich der Beeinflussung der Klassifizierung von Modellen, der Durchführung unbefugter Operationen durch Benutzer und der Extraktion sensibler Informationen.
Es gibt viele Möglichkeiten, diese Effekte zu erzielen, wie z. B. Cue-Injection-Angriffe im Bereich Large Language Model (LLM) oder die absichtliche Zerstörung von Trainingsdaten oder Benutzerfeedback (bekannt als 'Data Poisoning')", stellt der NCSC fest.
Kurzfassung
Dieses Dokument enthält Leitlinien für alle Anbieter von Systemen, die künstliche Intelligenz (KI) nutzen, unabhängig davon, ob diese Systeme von Grund auf neu entwickelt oder auf von anderen bereitgestellten Tools und Diensten aufgebaut wurden. Die Umsetzung dieser Leitlinien wird Anbietern helfen, KI-Systeme zu entwickeln, die wie beabsichtigt funktionieren, bei Bedarf verfügbar sind und ohne Offenlegung sensibler Daten gegenüber Unbefugten funktionieren.
Dieses Dokument richtet sich an Anbieter von KI-Systemen, die von Organisationen gehostete Modelle verwenden oder externe Anwendungsprogrammierschnittstellen (APIs) nutzen. Wir empfehlen allen Beteiligten, einschließlich Datenwissenschaftlern, Entwicklern, Managern, politischen Entscheidungsträgern und Risikoeigentümern, diese Leitlinien zu lesen, damit sie fundierte Entscheidungen über die Gestaltung, Entwicklung, den Einsatz und den Betrieb von KI-Systemen treffen können.
Über den Leitfaden
Künstlich intelligente Systeme haben das Potenzial, der Gesellschaft viele Vorteile zu bringen. Um die Möglichkeiten der KI voll ausschöpfen zu können, müssen sie jedoch auf sichere und verantwortungsvolle Weise entwickelt, eingesetzt und betrieben werden.
Systeme der künstlichen Intelligenz weisen neue Sicherheitsschwachstellen auf, die neben den üblichen Bedrohungen der Cybersicherheit berücksichtigt werden müssen. Wenn die Entwicklung schnell voranschreitet (wie es bei der KI der Fall ist), ist die Sicherheit oft eine zweitrangige Überlegung. Sicherheit muss eine zentrale Anforderung sein, nicht nur während der Entwicklungsphase, sondern während des gesamten Lebenszyklus des Systems.
Zu diesem Zweck gliedert sich der Leitfaden in vier Schlüsselbereiche innerhalb des Lebenszyklus der KI-Systementwicklung: sicheres Design, sichere Entwicklung, sicherer Einsatz sowie sicherer Betrieb und Wartung. Für jedes dieser Segmente empfehlen wir Überlegungen und Maßnahmen, die dazu beitragen, das Gesamtrisiko des KI-Systementwicklungsprozesses einer Organisation zu verringern.
1. das Sicherheitsdesign
Dieser Abschnitt enthält Leitlinien für die Entwurfsphase des Lebenszyklus der KI-Systementwicklung. Er behandelt das Verständnis von Risiko- und Bedrohungsmodellen sowie spezifische Themen und Kompromisse, die beim Entwurf von Systemen und Modellen zu berücksichtigen sind.
2. die Entwicklung der Sicherheit
Dieser Abschnitt enthält Leitlinien für die Entwicklungsphase des Lebenszyklus von KI-Systemen, einschließlich der Sicherheit der Lieferkette, der Dokumentation und der Verwaltung von Vermögenswerten und technischer Haftung.
3. der Einsatz der Sicherheit
Dieser Abschnitt enthält Anleitungen für die Einführungsphase des Lebenszyklus der Entwicklung von KI-Systemen, einschließlich des Schutzes der Infrastruktur und der Modelle vor Beschädigung, Bedrohung oder Verlust, der Entwicklung von Prozessen für das Management von Zwischenfällen und der verantwortungsvollen Freigabe.
4. der Betrieb und die Wartung der Sicherheit
Dieser Abschnitt enthält Anleitungen, die sich auf die Phase des Sicherheitsbetriebs und der Wartung des KI-Systems während des Entwicklungszyklus beziehen. Er enthält Anleitungen zu Maßnahmen, die besonders wichtig sind, nachdem das System bereitgestellt wurde, einschließlich Protokollierung und Überwachung, Update-Management und Informationsaustausch.
Der Leitfaden folgt einem "Security by Default"-Ansatz und orientiert sich eng an den Praktiken, die in den Secure Development and Deployment Guidelines des NCSC, dem Secure Software Development Framework des NIST und den von CISA, NCSC und der International Networking Agency veröffentlichten Security by Design Principles definiert sind. Security by Design Principles", veröffentlicht von CISA, NCSC und der International Networking Agency.
Hervorhebungsfaktor:
- Annahme von Sicherheitsergebnissen für Kunden
- Umfassende Transparenz und Rechenschaftspflicht
- Aufbau einer Organisationsstruktur und Führung, um die Sicherheitsgestaltung zu einer der wichtigsten Prioritäten des Unternehmens zu machen
Ein Leitfaden für die Entwicklung sicherer Systeme der künstlichen Intelligenz download pdf:
Originalartikel von lyon, bei Vervielfältigung bitte angeben: https://cncso.com/de/veroffentlichungsrichtlinien-fur-die-entwicklung-sicherer-systeme-der-kunstlichen- intelligenz-html