
Image created with ChatGPT
AI-агенти обмануті фальшивими спогадами, що сприяє крадіжці криптовалюти
Нове дослідження виявило значні проблеми безпеки в Web3 агентах, що працюють на базі штучного інтелекту, які дозволяють зловмисникам використовувати фальшиві спогади для проведення незаконних транзакцій криптовалют.
Зайняті? Ось головні факти:
- Хакери можуть внести фальшиві спогади в агентів штучного інтелекту, щоб вкрасти криптовалюту.
- Атаки, засновані на використанні пам’яті, оминяють базові заходи безпеки та захисні системи.
- Транзакції в блокчейні є незворотними – вкрадені кошти назавжди втрачаються.
Дослідники з Прінстонського університету та Фонду Sentient виявили, що ці агенти ШІ, розроблені для виконання завдань на основі блокчейну, таких як торгівля криптовалютою та управління цифровими активами, вразливі до тактики, яка називається маніпуляція контекстом.
Атака працює шляхом взаємодії з системами пам’яті платформ, подібних до ElizaOS, які створюють AI агентів для децентралізованих додатків. Система пам’яті цих агентів зберігає минулі розмови, щоб використовувати їх як путівник для майбутніх рішень.
Дослідники продемонстрували, що зловмисники можуть вбудовувати в систему пам’яті оманливі команди, змушуючи AI відправляти кошти з призначеного гаманця до гаманця, що контролюється зловмисником. Тривожно, ці фальшиві спогади можуть переміщуватися між платформами.
Наприклад, агент, якого скомпрометували на Discord, пізніше може переказувати дані через X неправильно, не усвідомлюючи, що щось пішло не так.
Це особливо небезпечно, оскільки стандартні захисні заходи не можуть зупинити такий тип атаки. Те, що фальшиві спогади сприймаються як справжні інструкції, робить базові заходи безпеки, засновані на підказках, неефективними проти цього виду атаки.
Усі транзакції в блокчейні стають постійними, тому немає можливості відновити вкрадені кошти. Проблема стає ще гіршою, оскільки деякі агенти штучного інтелекту зберігають пам’ять з декількох користувачів, тому один прорив безпеки може вплинути на багатьох користувачів.
Команда дослідників протестувала кілька способів запобігання цьому, включаючи коригування навчання AI та вимогу ручного затвердження для транзакцій. Хоча ці підходи пропонують деяку надію, вони відбуваються за рахунок уповільнення автоматизації.
Ця проблема виходить за рамки криптовалюти. Така ж вразливість може вплинути на загального призначення AI помічників, створюючи ризик витоку даних або шкідливих дій, якщо зловмисники змінюють їхню пам’ять.
Ця вразливість особливо насторожує у світлі свіжих відкриттів, згідно з якими 84% лідерів ІТ довіряють AI агентам настільки ж або більше, ніж людським працівникам, і 92% очікують, що ці системи принесуть бізнес-результати протягом 12-18 місяців.
Щоб вирішити проблему, дослідники представили інструмент під назвою CrAIBench, який допоможе розробникам тестувати свої системи та створювати більш надійні захисні механізми. До того часу, експерти попереджають користувачів бути обережними, довіряючи AI-агентам фінансові рішення.
Лишити коментар
Скасувати