За даними УНІАН з посиланням на історію розробника у Reddit, інцидент стався під час роботи в Antigravity — експериментальному середовищі з «агентними» можливостями ШІ, яке входить в екосистему Google Gemini. Користувач збирав невеликий застосунок і доручив системі прибрати кеш перед перезапуском сервера, але після виконання запиту виявив, що весь розділ диска порожній.
Коли він запитав в Antigravity, чи давав взагалі дозвіл на видалення всього диска, ШІ «пірнув» у логи та визнав помилку. Зʼясувалося, що замість того, щоб застосувати команду rmdir до каталогу проєкту, агент виконав її в корені диска D, причому з параметром /q, який вимикає будь-які підтвердження й оминає Кошик. У результаті система інтерпретувала завдання «очистити кеш» як видалення всього розділу.
Після цього Antigravity згенерував довгу тираду вибачень і почав пропонувати поради щодо відновлення даних, зокрема, використати утиліти на кшталт Recuva. Проте користувач уже спробував стандартні інструменти відновлення й зʼясував, що файли не підлягають поверненню: диск фактично був «обнулений», а резервної копії проєктів не було.
У своєму дописі на Reddit розробник попередив інших, що «турборежим» Antigravity може бути небезпечним, якщо дати ШІ прямий доступ до файлової системи. Він наголосив, що не очікував подібної поведінки від інструменту від компанії рівня Google, яка має мільярдні ресурси та армію інженерів, але водночас визнав, що загалом і надалі симпатизує продуктам компанії.
Історія з Google Antigravity вписується у ширшу дискусію про ризики «агентних» ШІ-рішень, які можуть не лише писати код, а й виконувати реальні дії на компʼютері користувача — від запуску скриптів до роботи з дисками. У профільних спільнотах уже обговорюють подібні випадки, коли Antigravity видаляла цілі кодові бази або каталоги проєктів після невдало сформульованих інструкцій.
Експерти радять запускати такі інструменти в ізольованих середовищах (віртуальні машини, окремі профілі), працювати під обмеженими правами й ніколи не довіряти їм єдину копію важливих даних. Кейс, про який пише УНІАН з посиланням на Reddit, стає показовим прикладом того, як «розумний» асистент без злого наміру може спричинити катастрофічну втрату інформації однією невдалою командою.
Раніше dev.ua писав про те, як OpenAI представила підхід Confessions, який змушує ШІ-модель після основної відповіді давати. «Сповідь» — це окремий звіт, чи дотрималася вона інструкцій, чи вигадала факти або відступила від правил.