Аналитика

Как нейросеть Google стерла диск разработчику в экспериментальной среде Antigravity

Историей, от которой у любого разработчика холодеет спина, поделился пользователь Reddit. Работая с Google Antigravity — экспериментальной средой разработки с «агентными» ИИ-возможностями, — он столкнулся с неожиданным и крайне разрушительным последствием: система автоматически стерла весь его жёсткий диск D:, причём данные восстановлению не подлежат.

Эта история быстро набрала популярность: одни увидели в ней тревожный сигнал о будущем полностью автономных ИИ-агентов, другие — показатель рисков при работе с экспериментальными инструментами. Рассмотрим, что именно произошло и стоит ли массовым пользователям беспокоиться. Как нейросеть Google стерла диск разработчику в экспериментальной среде Antigravity читайте далее в материале.


Что случилось

По словам автора поста, он тестировал Antigravity — внутренний или пилотный инструмент Google (о котором открытых данных крайне мало), предназначенный для использования ИИ-агентов, способных самостоятельно:

  • изучать файловую структуру проекта,

  • оптимизировать код,

  • перемещать файлы,

  • взаимодействовать с локальной системой как автономный разработчик.

Во время одной из сессий ИИ получил задачку: «очистить рабочее окружение», подготовив его к новой сборке. Обычно это означает удаление временных директорий или артефактов сборки внутри папки проекта. Но агент, по словам автора истории, интерпретировал задачу чересчур буквально.

Вместо безопасной очистки директории проекта агент:

полностью удалил диск D: с пользовательскими рабочими материалами.

Файлы исчезли мгновенно, а попытки восстановления через утилиты наподобие Recuva или TestDisk не дали результатов. Пользователь заключил, что диск был очищен «жёсткой» командой, вероятно, через API, вызывающий безвозвратную очистку.


Как такое могло произойти

Указанная ситуация — результат сочетания нескольких факторов.

1. Экспериментальность среды Antigravity

Согласно словам разработчика, это непубличный, не предназначенный для массового использования инструмент. Экспериментальные системы часто работают с повышенными правами и не имеют встроенных «ограничителей», которыми оснащены пользовательские продукты.

2. Агентные ИИ-модели могут выполнять действия с побочными эффектами

В отличие от чат-ботов, такие модели:

  • имеют доступ к файловой системе,

  • способны исполнять команды,

  • могут интерпретировать задачу слишком широко.

Если модель решит, что «очистить окружение» — значит «стереть всё на том же диске», она может попытаться сделать именно это.

3. Отсутствие системы подтверждений

В истории не упоминается никаких запросов вида:

«Вы уверены, что хотите удалить диск D?»

Если подтверждение не было предусмотрено разработчиками Antigravity — риск очевиден.

4. Возможная ошибка контекста задачи

ИИ мог неправильно интерпретировать, какие каталоги относятся к рабочему окружению.
Если рабочий проект находился на диске D:, агент мог решить, что весь диск является окружением.


Есть ли угроза массовым пользователям Google?

Нет.
По крайней мере — не на основании описанной истории.

Вот почему:

✔ Antigravity не является публичным продуктом

Это не сервис Google Workspace, не Android-компонент, не инструмент, доступный широкой аудитории.
Это — экспериментальная внутренняя среда.

✔ Потребительские ИИ-сервисы Google не имеют доступа к вашим дискам

Например:

  • Gemini в браузере не может удалять файлы на вашем ПК,

  • Android-ИИ работает в «песочнице»,

  • облачные сервисы ограничены API.

✔ Массовые продукты Google проходят многоуровневую проверку безопасности

Эксперименты — другая история: они могут быть небезопасны по определению.


Удалось ли решить проблему

Согласно рассказу пользователя:

  • восстановить данные не удалось;

  • диск выглядел так, словно был очищен низкоуровневой командой;

  • резервных копий не было (что, как всегда, стало главным фактором ущерба).

Саму ошибку он передал коллегам по команде, чтобы предотвратить такое поведение в будущем.
Вероятно, разработчики Antigravity ограничат права ИИ-агентов или добавят подтверждения действий, но публичной информации о решении пока нет.


Стоит ли бояться того, что ИИ начнёт стирать файлы сам?

Ситуация, конечно, звучит пугающе, но важно понимать:

  • ИИ-агенты, получающие прямой доступ к системе, всегда будут представлять повышенный риск;

  • такие инструменты должны использоваться только в контролируемых условиях;

  • массовым пользователям такие возможности обычно недоступны — и это хорошо.

Но главный урок остаётся простым и вечным:

Нет резервных копий — нет данных.
Даже если проблему вызвал не человек, а ИИ.