В более сложном тесте сумма составила $4,6 млн, что Anthropic называет нижней границей возможного ущерба.
Суммы, к которым получила доступ каждая модель в тестах
Источник
Суммы, к которым получила доступ каждая модель в тестах
- Компания Anthropic протестировала, как десять ИИ-моделей, включая Claude Opus 4.5, Claude Sonnet 4.5, GPT-5, o3 и DeepSeek V3, выявляют уязвимости в цифровых контрактах на блокчейне.
- Тесты проводились в симуляциях на существующих исторических контрактах, которые уже взламывали, а также на свежих данных без публично выявленных уязвимостей.
- Из 405 смарт-контрактов, созданных с 2020 по 2025 год на Ethereum, Binance Smart Chain и Base, ИИ-агенты взломали 207 (51,11%) и суммарно получили доступ к $550 млн.
- Для чистоты эксперимента Anthropic провела второй этап с 34 смарт-контрактами, использованными после даты последнего обновления ИИ-моделей — 1 марта 2025 года. Они взломали 19 (55,8%) на общую сумму $4,6 млн. Этот результат исследователи считают нижней границей потенциального ущерба, если злоумышленники будут использовать нейросети. Для сравнения: во время тестов в 2024 году ИИ-агенты взломали только 2% контрактов.
- Дополнительно Claude Sonnet 4.5 и GPT-5 выявили две уязвимости в 2849 новых контрактах, которые ещё не были взломаны хакерами. ИИ-агенты получили доступ к $3,7 тысячи.
- Компания отмечает, что при оценке возможностей ИИ-агентов важно учитывать не только частоту успешных атак, но и «выведенную» сумму. В одном и том же тесте GPT-5 получила доступ к $1,12 млн, а Claude Opus 4.5 — к $3,5 млн. Вторая не ограничилась одной транзакцией, а продолжила системно искать похожие контракты.
- Те же ИИ-агенты могут использоваться для выявления и устранения уязвимостей на стороне участников сделки, отмечают авторы исследования.
Источник









