AI
-
Bis zu 100 bösartige Modelle für künstliche Intelligenz (KI) und maschinelles Lernen (ML) wurden von Open-Source-Plattformen entdeckt
Bis zu 100 bösartige Modelle der künstlichen Intelligenz (KI) und des maschinellen Lernens (ML) wurden auf der Hugging Face-Plattform gefunden.
-
AIGC AI-Sicherheitsbericht 2024
Auf dem Gebiet der KI-generierten Inhalte (AIGC) wurden erhebliche Fortschritte erzielt. Allerdings bringen technologische Fortschritte auch immer neue Herausforderungen mit sich, und Sicherheitsfragen im Bereich AIGC sind in den Vordergrund getreten. Der Bericht wird die Sicherheitsrisiken von AIGC eingehend analysieren und Lösungen vorschlagen.
-
Burpsuite verbindet künstliche Intelligenz (AI) zur Automatisierung der Schwachstellenanalyse
BurpGPT ist ein auf künstlicher Intelligenz basierendes Tool zur Erkennung von Schwachstellen, das die Sicherheit von Webanwendungen neu definiert. Seine passiven Scan-Funktionen, anpassbaren Warnmeldungen und die nahtlose Integration in die Burp Suite ermöglichen es Sicherheitsexperten, Schwachstellen genau und effizient zu erkennen. Durch die Nutzung des GPT-Modells von OpenAI bietet BurpGPT eine umfassende Analyse des Datenverkehrs, die über herkömmliche Scan-Methoden hinausgeht. Machen Sie sich die Zukunft der Schwachstellenanalyse mit BurpGPT zu eigen und stärken Sie die Abwehrkräfte Ihres Netzwerks gegen sich entwickelnde Bedrohungen.
-
Gemini Gemini: Das große Modell, das die KI-Ära anführt und ChatGPT vollständig übertrifft, wurde veröffentlicht!
Google Gemini Artificial Intelligence Big Model wird eingeführt, um chatgpt, das bisher größte und leistungsfähigste KI-Modell, vollständig zu übertreffen, und das bisher flexibelste Modell
-
Sechzehn Länder auf der ganzen Welt haben gemeinsam Leitlinien für die Entwicklung von sicheren Systemen der künstlichen Intelligenz herausgegeben
Ein Leitfaden für jeden Systemanbieter, der künstliche Intelligenz (KI) einsetzt, unabhängig davon, ob diese Systeme von Grund auf neu entwickelt werden oder auf Tools und Dienstleistungen anderer Anbieter aufbauen.
-
AsyncRAT-Malware-Analyseverfahren mit Chatgpt
Erfahren Sie, wie ChatGPT bei der Analyse von Malware, insbesondere des Remote-Access-Trojaners (RAT) AsyncRAT, helfen kann, und erörtern Sie, wie ChatGPT bei der Identifizierung von Bedrohungsindikatoren helfen kann, indem es den Netzwerkverkehr analysiert und die Befehls- und Kontrollinfrastruktur (C2) aufdeckt.