Согласно недавнему отчету компании Wiz, специализирующейся на облачной безопасности, исследовательский отдел искусственного интеллекта Microsoft непреднамеренно слил 38 терабайт конфиденциальных данных во время предоставления открытых моделей обучения искусственного интеллекта в публичный репозиторий GitHub.
Эта утечка данных подчеркивает сложность управления и защиты больших объемов данных в среде с открытым исходным кодом. Команда Microsoft Research способствовала утечке данных, не обеспечив надлежащую обработку конфиденциальной информации, содержащейся в наборе данных, при предоставлении своих моделей обучения ИИ с открытым исходным кодом.
В отчете Wiz говорится, что утечка 38 терабайт данных может содержать большой объем данных о внутренних проектах Microsoft, включая, но не ограничиваясь исходным кодом, системными учетными данными, конфиденциальными ключами API и другой информацией. Эта информация, если она попадет в руки злоумышленников, может представлять серьезную угрозу для внутренних систем Microsoft.
Компания Microsoft подтвердила факт утечки данных и заявила, что приняла меры по устранению утечки. В то же время Microsoft подчеркнула, что проведет всесторонний внутренний анализ инцидента и примет необходимые меры для предотвращения повторения подобных инцидентов.
Этот инцидент еще раз напоминает нам о том, что даже ведущие мировые технологические компании могут халатно относиться к управлению и защите данных. Как для отдельных людей, так и для организаций важно полностью осознавать важность безопасности данных и принимать соответствующие меры предосторожности, чтобы снизить риск потенциальной утечки информации.