ЧАТГПТ
-
Платформы с открытым исходным кодом обнаружили до 100 вредоносных моделей искусственного интеллекта (ИИ)/машинного обучения (МЛ)
В платформе Hugging Face было обнаружено до 100 вредоносных моделей искусственного интеллекта (AI)/машинного обучения (ML).
-
AIGC AI Safety Report 2024
В области AIGC (AI Generated Content) достигнут значительный прогресс. Однако технологический прогресс всегда сопровождается новыми проблемами, и вопросы безопасности в сфере AIGC выходят на первый план. В докладе будет проведен глубокий анализ рисков безопасности AIGC и предложены решения.
-
Burpsuite использует искусственный интеллект (ИИ) для автоматизации анализа уязвимостей
BurpGPT - это инструмент для обнаружения уязвимостей, основанный на искусственном интеллекте, который переосмысливает безопасность веб-приложений. Его возможности пассивного сканирования, настраиваемые оповещения и бесшовная интеграция с Burp Suite позволяют специалистам по безопасности точно и эффективно обнаруживать уязвимости. Используя модель OpenAI GPT, BurpGPT обеспечивает всесторонний анализ трафика, выходящий за рамки традиционных методов сканирования. Откройте для себя будущее оценки уязвимостей с помощью BurpGPT и укрепите защиту вашей сети от развивающихся угроз.
-
Прогнозы развития технологий искусственного интеллекта: перспективы на 2024 год
2024 год будет полон важных событий и разработок в мире искусственного интеллекта. Эксперт по фьючерсам Дэниел Буррус предлагает свой способ предсказать будущее ИИ, разделив тенденции на "жесткие" и "мягкие". И "мягкие". "Твердые" тенденции...
-
Безопасность данных: как генеративный ИИ справляется с рисками и проблемами безопасности?
Развитие и применение ИИ оказывают серьезное влияние на научную и технологическую сферу и могут спровоцировать новую революцию в производительности. Будучи мощной технологией, ИИ дает компьютерным системам возможность генерировать контент на человеческом языке.
-
Gemini: выпущена большая модель, которая возглавит эпоху искусственного интеллекта и превзойдет ChatGPT!
Запуск Google Gemini, крупной модели искусственного интеллекта, превосходит chatgpt во всех аспектах. На данный момент это самая крупная и мощная модель искусственного интеллекта, а также самая гибкая модель.
-
В темной сети продается вредоносный инструмент искусственного интеллекта FraudGPT, вызывающий проблемы с сетевой безопасностью
С появлением генеративных моделей ИИ ландшафт угроз резко изменился. Теперь другой хакер создал вредоносный инструмент искусственного интеллекта под названием FraudGPT, который специально используется для целей атак, таких как создание целевых фишинговых писем, создание инструментов взлома, кардинга и т. д. Инструмент в настоящее время продается на различных рынках даркнета и платформах Telegram. Говорят, что он «способен генерировать различные коды сетевых атак» и «более 3000 покупателей разместили заказы менее чем за неделю».
-
Новый подход к решению проблем корпоративного анализа киберугроз с использованием генеративного искусственного интеллекта
По мере роста угроз кибербезопасности растет и потребность предприятий в сборе данных об угрозах. Однако, согласно последнему опросу ESG, компании 98% планируют увеличить расходы на разведку угроз в 2024 году, но они также сталкиваются с рядом проблем. К числу этих вызовов относятся угрозы…
-
Практика анализа вредоносного ПО AsyncRAT с использованием Chatgpt
Узнайте, как ChatGPT может помочь в анализе вредоносного ПО, в частности трояна удаленного доступа (RAT) AsyncRAT, и подробно рассмотрите возможности ChatGPT, чтобы обсудить, как он может помочь в выявлении индикаторов угроз путем анализа сетевого трафика и обнаружения инфраструктуры командования и управления (C2).