skizziert.
Google hat vor kurzem die Freigabe eines Tools für künstliche Intelligenz (KI) namens Magika angekündigt, das dieDeep-Learning-Modelldas die Genauigkeit und Geschwindigkeit der Dateityperkennung verbessert. Dieses Tool ist in erster Linie für die Verwendung durch Sicherheitsbeauftragte gedacht, um binäre und Textdateien genauer zu erkennen.
Magika Eigenschaften
Magika verwendet ein benutzerdefiniertes, hochoptimiertes Deep-Learning-Modell, um Dateitypen innerhalb von Millisekunden genau zu identifizieren. Durch die Verwendung des Open Neural Network Exchange Format (ONNX) ermöglicht Magika schnelle Schlussfolgerungen.Google behauptet, dass im Gegensatz zu herkömmlichenErkennung von DokumentenIm Vergleich zur Methode verbessert Magika die Gesamtgenauigkeit um 301 TP3T und um bis zu 951 TP3T bei der Identifizierung von Inhalten, die normalerweise schwer zu erkennen sind (z. B. VBA, JavaScript und Powershell).
Die Software verwendet "maßgeschneiderte, hochoptimierte Deep-Learning-Modelle", um Dateitypen innerhalb von Millisekunden genau zu identifizieren. Magika verwendet den Open Neural Network Exchange (ONNX) für die Inferenz.
Magika in Google Apps
Google verwendet Magika nach eigenen Angaben intern in großem Umfang, um die Sicherheit der Nutzer zu verbessern, indem Gmail-, Drive- und Secure-Browsing-Dateien an die entsprechenden Sicherheits- und Inhaltsrichtlinien-Scanner weitergeleitet werden.
Im November 2023 brachte der Tech-Riese RETVec (kurz für Resilient and Efficient Text Vectorizer) auf den Markt, ein mehrsprachiges Textverarbeitungsmodell zur Erkennung potenziell schädlicher Inhalte wie Spam und bösartiger E-Mails in Google Mail.
Risiken im Zusammenhang mit der sich rasch entwickelnden Technologie und ihrem Missbrauch durch nationalstaatliche Akteure aus Russland, China, Iran und Nordkorea zur Verbesserung derHacker (Informatik) (Lehnwort)Während die Debatte über Angriffe weitergeht, sagt Google, dass der massenhafte Einsatz von KI die digitale Sicherheit stärken und "die Waage kippen" kann. Von Angreifern zu VerteidigernNetzwerksicherheitGleichgewicht."
Google Open Source Magika
Sie unterstreicht auch die Notwendigkeit eines ausgewogenen Regulierungsansatzes für die Nutzung und Einführung von KI, um eine Zukunft zu vermeiden, in der Angreifer innovativ sein können, aber Verteidiger durch KI-Governance-Optionen eingeschränkt werden.
Phil Venables und Royal Hansen vom Tech-Giganten stellten fest, dass "KI es Sicherheitsexperten und Verteidigern ermöglicht, ihre Arbeit bei der Erkennung von Bedrohungen, der Analyse von Malware, der Erkennung von Schwachstellen, der Beseitigung von Exploits und der Reaktion auf Vorfälle zu erweitern. "KI bietet die beste Gelegenheit, das Dilemma der Verteidiger zu durchbrechen und die Waage im Cyberspace zu kippen, um den Verteidigern einen entscheidenden Vorteil gegenüber den Angreifern zu verschaffen.
KI inNetzwerksicherheitDie Rolle der Vereinten Nationen bei der Umsetzung des Aktionsprogramms
Google unterstreicht die Notwendigkeit eines ausgewogenen regulatorischen Ansatzes für die Nutzung und Einführung von KI, um eine Zukunft zu vermeiden, in der Angreifer in der Lage sind, innovativ zu sein, und Verteidiger aufgrund von KI-Governance-Entscheidungen eingeschränkt werden.Phil Venables und Royal Hansen stellen fest: "KI ermöglicht es Sicherheitsexperten und Verteidigern, ihre Bemühungen in den Bereichen Bedrohungserkennung, Malware-Analyse, Schwachstellenerkennung, Schwachstellenbeseitigung und Reaktion auf Vorfälle zu erweitern. KI bietet die beste Gelegenheit, das Dilemma des Verteidigers zu ändern, indem sie die Waage im Cyberspace ausschlägt und dem Verteidiger einen entscheidenden Vorteil gegenüber dem Angreifer verschafft."
Es gibt auch Bedenken gegen generative KI-Modelle, die zu Trainingszwecken Daten aus dem Internet verwenden, die auch personenbezogene Daten enthalten können.
Die britische Datenschutzbehörde ICO (Information Commissioner's Office) erklärte letzten Monat: "Wenn Sie nicht wissen, wofür Ihr Modell verwendet wird, wie können Sie dann sicherstellen, dass bei der anschließenden Verwendung der Datenschutz und die Rechte und Freiheiten der Menschen gewahrt bleiben?"
Darüber hinaus deuten neue Forschungsergebnisse darauf hin, dass große Sprachmodelle als "Schläfer" fungieren können, die scheinbar harmlos sind, aber so programmiert sind, dass sie Spoofing oder bösartiges Verhalten an den Tag legen, wenn bestimmte Kriterien erfüllt sind oder spezielle Anweisungen gegeben werden.
"Dieses Backdoor-Verhalten kann bestehen bleiben, so dass es nicht durch Standard-Sicherheitstrainingstechniken entfernt werden kann, einschließlich überwachter Feinabstimmung, Verstärkungslernen und gegnerischem Training (das unsicheres Verhalten auslöst und dann trainiert, es zu entfernen)", so die Forscher des Startup-Unternehmens für künstliche Intelligenz Anthropic in ihrer Studie.
Beratung
1. https://opensource.googleblog.com/2024/02/magika-ai-powered-fast-and-efficient-file-type-identification.html
2. https://google.github.io/magika/
3. https://www.npmjs.com/package/magika
Originalartikel von Chief Security Officer, bei Vervielfältigung bitte angeben: https://cncso.com/de/google-open-sources-magika-ai-powered-html