Команда искусственного интеллекта Microsoft случайно слила 38 терабайт конфиденциальных данных

Согласно недавнему отчету компании Wiz, специализирующейся на облачной безопасности, исследовательский отдел искусственного интеллекта Microsoft непреднамеренно слил 38 терабайт конфиденциальных данных во время предоставления открытых моделей обучения искусственного интеллекта в публичный репозиторий GitHub.

Эта утечка данных подчеркивает сложность управления и защиты больших объемов данных в среде с открытым исходным кодом. Команда Microsoft Research способствовала утечке данных, не обеспечив надлежащую обработку конфиденциальной информации, содержащейся в наборе данных, при предоставлении своих моделей обучения ИИ с открытым исходным кодом.

В отчете Wiz говорится, что утечка 38 терабайт данных может содержать большой объем данных о внутренних проектах Microsoft, включая, но не ограничиваясь исходным кодом, системными учетными данными, конфиденциальными ключами API и другой информацией. Эта информация, если она попадет в руки злоумышленников, может представлять серьезную угрозу для внутренних систем Microsoft.

Компания Microsoft подтвердила факт утечки данных и заявила, что приняла меры по устранению утечки. В то же время Microsoft подчеркнула, что проведет всесторонний внутренний анализ инцидента и примет необходимые меры для предотвращения повторения подобных инцидентов.

Этот инцидент еще раз напоминает нам о том, что даже ведущие мировые технологические компании могут халатно относиться к управлению и защите данных. Как для отдельных людей, так и для организаций важно полностью осознавать важность безопасности данных и принимать соответствующие меры предосторожности, чтобы снизить риск потенциальной утечки информации.

Previous:

Next:

Добавить комментарий

Пожалуйста, войдите , чтоб прокомментировать