BTC 112307$
ETH 4328.49$
Tether (USDT) 1$
Toncoin (TON) 3.1$
telegram vk
telegram vk Х
Russian English

Могут ли боты с искусственным интеллектом украсть криптовалюту?

Дата публикации: 10.09.2025
193
Поделись с друзьями!
1

Что такое ИИ-боты?

Боты на основе ИИ — это самообучающееся программное обеспечение, которое автоматизирует и постоянно совершенствует криптокибератаки, делая их более опасными по сравнению с традиционными методами взлома.

В основе современной киберпреступности с использованием искусственного интеллекта лежат ИИ-боты — самообучающиеся программы, предназначенные для обработки огромных объёмов данных, принятия самостоятельных решений и выполнения сложных задач без участия человека. Хотя эти боты произвели революцию в таких отраслях, как финансы, здравоохранение и обслуживание клиентов, они также стали оружием киберпреступников, особенно в мире криптовалют.

В отличие от традиционных методов взлома, требующих ручного труда и технических знаний, боты на основе ИИ могут полностью автоматизировать атаки, адаптироваться к новым мерам безопасности криптовалют и даже совершенствовать свою тактику со временем. Это делает их гораздо более эффективными, чем хакеры-люди, которые ограничены во времени, ресурсах и подвержены ошибкам.

Почему боты с искусственным интеллектом так опасны?

Самая большая угроза, которую представляет киберпреступность с использованием искусственного интеллекта, — это масштаб. Один хакер, пытающийся взломать криптовалютную биржу или обманным путём заставить пользователей передать свои приватные ключи, может лишь ограниченно. Однако боты на базе искусственного интеллекта могут проводить тысячи атак одновременно, совершенствуя свои методы.

  • Скорость: боты на базе ИИ могут за считанные минуты сканировать миллионы транзакций в блокчейне, смарт-контрактах и веб-сайтах, выявляя уязвимости в кошельках (что приводит к взлому криптовалютных кошельков), протоколах децентрализованных финансов (DeFi) и биржах.
  • Масштабируемость: Мошенник-человек может отправлять фишинговые письма нескольким сотням человек. ИИ-бот может отправлять персонализированные, идеально составленные фишинговые письма миллионам адресатов за тот же период времени.
  • Адаптивность: машинное обучение позволяет этим ботам совершенствоваться с каждой неудачной атакой, что затрудняет их обнаружение и блокировку.

Эта способность к автоматизации, адаптации и масштабным атакам привела к резкому росту мошенничества с использованием ИИ в сфере криптовалют, в связи с чем предотвращение мошенничества с криптовалютами стало как никогда важным.

В октябре 2024 года хакеры взломали аккаунт X Энди Эйри, разработчика ИИ-бота Truth Terminal. Злоумышленники использовали аккаунт Эйри для продвижения мошеннического мемкоина Infinite Backrooms (IB). Вредоносная кампания привела к резкому росту рыночной капитализации IB, достигшей 25 миллионов долларов. В течение 45 минут злоумышленники ликвидировали свои активы, получив более 600 000 долларов.

2

Как боты на базе искусственного интеллекта могут воровать криптовалютные активы

Боты на базе искусственного интеллекта не просто автоматизируют мошенничество с криптовалютами — они становятся умнее, целенаправленнее и их все сложнее обнаружить.

Вот некоторые из наиболее опасных типов мошенничества с использованием искусственного интеллекта, которые в настоящее время используются для кражи криптовалютных активов:

1. Фишинговые боты на базе искусственного интеллекта

Фишинговые атаки — не новость в сфере криптовалют, но искусственный интеллект превратил их в гораздо более серьёзную угрозу. Вместо неряшливых электронных писем, полных ошибок, современные ИИ-боты создают персонализированные сообщения, которые выглядят точь-в-точь как настоящие сообщения с таких платформ, как Coinbase или MetaMask. Они собирают персональную информацию из украденных баз данных, социальных сетей и даже записей блокчейна, что делает их мошеннические схемы крайне убедительными.

Например, в начале 2024 года фишинговая атака с использованием искусственного интеллекта была направлена на пользователей Coinbase, отправляя электронные письма о поддельных предупреждениях о безопасности криптовалюты, в результате чего пользователи в конечном итоге похитили почти 65 миллионов долларов.

Кроме того, после запуска OpenAI GPT-4 мошенники создали поддельный сайт для раздачи токенов OpenAI, чтобы воспользоваться ажиотажем. Они рассылали электронные письма и посты в X-формате, заманивая пользователей «получить» фиктивный токен — фишинговая страница была очень похожа на реальный сайт OpenAI. У жертв, клюнувших на эту наживку и подключивших свои кошельки, автоматически списывались все криптовалютные активы.

В отличие от фишинга старой школы, эти мошеннические схемы с использованием искусственного интеллекта отточены и целенаправленны, часто без опечаток или неуклюжих формулировок, которые выдают фишинг. Некоторые даже используют чат-ботов на основе искусственного интеллекта, выдавая себя за представителей службы поддержки клиентов бирж или кошельков, обманным путём заставляя пользователей раскрывать закрытые ключи или коды двухфакторной аутентификации (2FA) под видом «верификации».

В 2022 году некоторые вредоносные программы были специально нацелены на браузерные кошельки, такие как MetaMask: штамм под названием Mars Stealer мог перехватывать закрытые ключи более чем для 40 различных браузерных расширений кошельков и приложений двухфакторной аутентификации (2FA), похищая все найденные средства. Такие вредоносные программы часто распространяются через фишинговые ссылки, поддельные загрузки программного обеспечения или пиратские криптоинструменты.

Попав в систему, он может отслеживать буфер обмена (чтобы подменить адрес злоумышленника, когда вы копируете и вставляете адрес кошелька), регистрировать нажатия клавиш или экспортировать файлы сид фразы — и все это без явных признаков.

2. Боты-исследователи взломов на базе искусственного интеллекта

Уязвимости смарт-контрактов — настоящая золотая жила для хакеров, и боты с искусственным интеллектом пользуются этим преимуществом быстрее, чем когда-либо. Эти боты непрерывно сканируют платформы  Ethereum или BNB Smart Chain, выискивая уязвимости в недавно запущенных DeFi-проектах. Как только они обнаруживают проблему, они автоматически эксплуатируют её, часто в течение нескольких минут.

Исследователи продемонстрировали, что чат-боты на основе искусственного интеллекта, например, работающие на базе GPT-3, могут анализировать код смарт-контрактов для выявления уязвимостей, которые можно эксплуатировать. Например, Стивен Тонг, соучредитель Zellic, продемонстрировал чат-бот на основе искусственного интеллекта, обнаруживший уязвимость в функции вывода средств смарт-контракта, аналогичную уязвимости, использованной при атаке на протокол Fei, которая привела к убыткам в размере 80 миллионов долларов.

3. Атаки методом подбора паролей с использованием искусственного интеллекта

Раньше атаки методом подбора паролей занимали целую вечность, но боты на основе искусственного интеллекта сделали их опасно эффективными. Анализируя предыдущие случаи взлома паролей, эти боты быстро выявляют закономерности для взлома паролей и фраз-семплов в рекордно короткие сроки. Исследование 2024 года, посвященное десктопным криптовалютным кошелькам, включая Sparrow, Etherwall и Bither, показало, что слабые пароли значительно снижают устойчивость к атакам методом подбора, что подчеркивает решающее значение надежных и сложных паролей для защиты цифровых активов.

4. Боты для имитации дипфейков

Представьте, что вы смотрите видео, где авторитетный криптоинфлюенсер или генеральный директор просит вас инвестировать, но это полностью фейк. Такова реальность мошенничества с использованием ИИ. Эти боты создают сверхреалистичные видео и голосовые записи, обманывая даже опытных держателей криптовалюты и заставляя их переводить средства.

5. Ботнеты в социальных сетях

На X и Telegram, рои ИИ-ботов способствуют масштабному криптомошенничеству. Такие ботнеты, как «Fox8», использовали ChatGPT для создания сотен убедительных постов, рекламирующих мошеннические токены, и отвечали пользователям в режиме реального времени.

В одном случае мошенники использовали имена Илона Маска и ChatGPT, чтобы продвигать фейковую раздачу криптовалюты, приложив к этому фейковое видео с Маском, — обманывая людей и заставляя их отправлять средства мошенникам.

В 2023 году исследователи Sophos обнаружили, что мошенники, занимающиеся крипто-романами, используют ChatGPT для общения с несколькими жертвами одновременно, что делает их нежные сообщения более убедительными и масштабируемыми.

Как мошенник использовал искусственный интеллект на основе большой языковой модели в ответах в чате

Аналогичным образом, компания Meta сообщила о резком росте количества вредоносных программ и фишинговых ссылок, замаскированных под ChatGPT или инструменты искусственного интеллекта, часто связанных с мошенническими схемами, связанными с криптовалютой. Что касается мошенничества с использованием искусственного интеллекта, то ИИ способствует развитию мошенничеств с разделкой свиней — схем, основанных на длительном использовании мошеннических схем, в рамках которых мошенники развивают отношения, а затем заманивают жертв в фиктивные криптовалютные инвестиции. В Гонконге в 2024 году произошёл резонансный случай: полиция раскрыла преступную группировку, которая обманом похитила у мужчин по всей Азии 46 миллионов долларов с помощью мошенничества с использованием искусственного интеллекта.

3

Мошенничество и взломы с использованием автоматизированных торговых ботов

Искусственный интеллект все чаще применяется в сфере криптовалютных торговых ботов — зачастую как модное словечко для обмана инвесторов, а иногда и как инструмент для технических махинаций.

Ярким примером является YieldTrust.ai, который в 2023 году вывел на рынок ИИ-бота, якобы приносящего 2,2% прибыли в день — астрономическую, невероятную прибыль. Регулирующие органы нескольких штатов провели расследование и не нашли никаких доказательств существования «ИИ-бота»; похоже, это была классическая финансовая пирамида, использующая ИИ как модное слово для заманивания жертв. В конечном итоге YieldTrust.ai был закрыт властями, но инвесторы успели поддаться уловкам маркетинга.

Даже если автоматизированный торговый бот действительно существует, он часто не соответствует тому, что утверждают мошенники, раздающие обещания баснословных прибылей. Например, компания Arkham Intelligence, занимающаяся блокчейн-анализом, описала случай, когда так называемый арбитражный торговый бот (вероятно, рекламируемый как управляемый искусственным интеллектом) провёл невероятно сложную серию сделок, включая срочный кредит на 200 миллионов долларов, и в итоге получил жалкие 3,24 доллара прибыли.

На самом деле, многие мошенники, использующие «торговлю ИИ», берут депозит и, в лучшем случае, проводят его через несколько случайных сделок (или вообще не совершают), а затем придумывают оправдания, когда вы пытаетесь вывести средства. Некоторые недобросовестные мошенники также используют ботов на базе ИИ в социальных сетях для фальсификации истории (например, поддельные отзывы или X-ботов, которые постоянно публикуют «выигрышные сделки»), чтобы создать иллюзию успеха. Всё это — часть уловки.

С технической точки зрения, преступники действительно используют автоматизированных ботов (не обязательно ИИ, но иногда их называют таковыми) для взлома криптовалютных рынков и инфраструктуры. Например, боты-лидеры в DeFi автоматически внедряются в ожидаемые транзакции, чтобы украсть часть стоимости (атака типа «сэндвич»), а боты для выдачи мгновенных займов совершают молниеносные сделки, используя разницу цен или уязвимость смарт-контрактов. Для этого требуются навыки программирования, и обычно они не предлагаются жертвам; вместо этого хакеры используют их как инструменты для прямого хищения.

ИИ мог бы улучшить эти возможности, оптимизируя стратегии быстрее человека. Однако, как уже упоминалось, даже самые продвинутые боты не гарантируют большой прибыли — рынки конкурентны и непредсказуемы, и даже самый продвинутый ИИ не может надёжно предвидеть ситуацию.

Между тем, риск для жертв реален: если торговый алгоритм даёт сбой или содержит вредоносный код, он может уничтожить ваши средства за считанные секунды. Были случаи, когда мошеннические боты на биржах вызывали мгновенные сбои или опустошали пулы ликвидности, что приводило к огромным убыткам пользователей из-за проскальзывания.

4

Как вредоносное ПО на базе ИИ стимулирует киберпреступность

Искусственный интеллект обучает киберпреступников взламывать криптовалютные платформы, что позволяет волне менее опытных злоумышленников проводить эффективные атаки. Это объясняет столь резкий рост масштабов фишинга и вредоносных кампаний в сфере криптовалют — инструменты искусственного интеллекта позволяют злоумышленникам автоматизировать свои мошеннические схемы и постоянно совершенствовать их, оттачивая эффективность.

ИИ также усиливает вредоносные угрозы и хакерские тактики, направленные на пользователей криптовалют. Одной из проблем является вредоносное ПО, создаваемое ИИ, то есть программы, использующие ИИ для адаптации и уклонения от обнаружения.

В 2023 году исследователи продемонстрировали прототип BlackMamba — полиморфный кейлоггер, использующий языковую модель искусственного интеллекта (аналогичную технологии ChatGPT) для переписывания кода при каждом запуске. Это означает, что при каждом запуске BlackMamba создаёт в памяти новый вариант себя, что позволяет ему обходить антивирусы и средства защиты конечных точек.

В ходе испытаний эта вредоносная программа, созданная на основе искусственного интеллекта, не была обнаружена ведущей в отрасли системой обнаружения и реагирования на атаки на конечные точки. Активировавшись, она могла незаметно перехватывать все, что вводит пользователь, включая пароли к криптовалютным биржам или сид-фразы кошельков, и отправлять эти данные злоумышленникам.

Хотя BlackMamba была всего лишь лабораторной демонстрацией, она выявила реальную угрозу: преступники могут использовать ИИ для создания вредоносного ПО с изменяемой формой, нацеленное на криптовалютные аккаунты и которое гораздо сложнее обнаружить, чем традиционные вирусы.

Даже без экзотических вредоносных программ на основе ИИ злоумышленники злоупотребляют популярностью ИИ для распространения классических троянов. Мошенники часто создают поддельные приложения «ChatGPT» или приложения на основе ИИ, содержащие вредоносное ПО, зная, что пользователи могут потерять бдительность из-за бренда ИИ. Например, аналитики безопасности наблюдали мошеннические веб-сайты, имитирующие сайт ChatGPT, с кнопкой «Загрузить для Windows»; при нажатии на неё на компьютер жертвы незаметно устанавливается троян, крадущий криптовалюту.

Помимо самого вредоносного ПО, ИИ снижает требования к навыкам для потенциальных хакеров. Раньше для создания фишинговых страниц или вирусов преступнику требовались определённые навыки программирования. Теперь же значительную часть работы выполняют подпольные инструменты формата «ИИ как услуга».

На форумах даркнета появились нелегальные чат-боты на основе искусственного интеллекта, такие как WormGPT и FraudGPT, предлагающие по запросу генерацию фишинговых писем, вредоносного кода и советов по взлому. За определённую плату даже неопытные преступники могут использовать этих ИИ-ботов для создания убедительных мошеннических сайтов, новых вариантов вредоносного ПО и сканирования программного обеспечения на наличие уязвимостей.

Как защитить свою криптовалюту от атак с использованием искусственного интеллекта

Угрозы, связанные с искусственным интеллектом, становятся все более сложными, поэтому для защиты цифровых активов от автоматизированных мошеннических действий и взломов необходимы надежные меры безопасности.

Ниже приведены наиболее эффективные способы защиты криптовалюты от хакеров и противодействия фишингу с использованием искусственного интеллекта, мошенничеству с использованием фейков и ботам-взломщикам:

  • Используйте аппаратный кошелёк: вредоносное ПО на базе ИИ и фишинговые атаки в первую очередь нацелены на онлайн-кошельки (горячие). Используя аппаратные кошельки, такие как Ledger или Trezor, вы полностью сохраняете закрытые ключи в офлайн-режиме, что делает удалённый доступ к ним для хакеров или вредоносных ботов на базе ИИ практически невозможным. Например, во время краха FTX в 2022 году пользователи аппаратных кошельков избежали огромных потерь, понесённых пользователями, чьи средства хранились на биржах.
  • Обеспечьте многофакторную аутентификацию (MFA) и надёжные пароли: ИИ-боты могут взламывать слабые пароли, используя глубокое обучение в киберпреступности, используя алгоритмы машинного обучения, обученные на утечках данных, чтобы предсказывать и использовать уязвимые учётные данные. Чтобы противостоять этому, всегда включайте MFA через приложения для аутентификации, такие как Google Authenticator или Authy, а не через SMS-коды — известно, что хакеры используют уязвимости подмены SIM-карт, что делает SMS-верификацию менее безопасной.
  • Остерегайтесь фишинговых атак с использованием искусственного интеллекта: фишинговые письма, сообщения и поддельные запросы в службу поддержки, сгенерированные искусственным интеллектом, стали практически неотличимы от настоящих. Избегайте переходов по ссылкам в электронных письмах или личных сообщениях, всегда проверяйте URL-адреса веб-сайтов вручную и никогда не делитесь закрытыми ключами или начальными фразами, независимо от того, насколько убедительным может показаться запрос.
  • Тщательно проверяйте личности, чтобы избежать мошенничества с дипфейками: фальшивые видео и голосовые записи, созданные с помощью искусственного интеллекта, могут убедительно выдавать себя за влиятельных лиц, руководителей компаний в сфере криптовалют или даже за людей, которых вы лично знаете. Если кто-то просит о финансировании или предлагает срочную инвестиционную возможность с помощью видео или аудио, проверьте личность этого человека по нескольким каналам, прежде чем предпринимать какие-либо действия.
  • Будьте в курсе последних угроз безопасности блокчейна: регулярно следите за надежными источниками информации о безопасности блокчейна, такими как CertiK, Chainalysis или SlowMist, чтобы быть в курсе последних угроз, связанных с искусственным интеллектом, и доступных инструментов для защиты пользователя.
5

Будущее применения ИИ в киберпреступности и криптобезопасности

Поскольку угрозы криптовалют, связанные с искусственным интеллектом, стремительно развиваются, проактивные решения безопасности на базе искусственного интеллекта становятся критически важными для защиты ваших цифровых активов.

В перспективе роль ИИ в киберпреступности, вероятно, будет возрастать, становясь всё более изощрённой и сложной для обнаружения. Передовые системы ИИ будут автоматизировать сложные кибератаки, среди которых имитация личности с использованием дипфейков, мгновенно эксплуатировать уязвимости смарт-контрактов после обнаружения и осуществлять точно направленные фишинговые атаки.

Для противодействия этим меняющимся угрозам безопасность блокчейна будет всё больше полагаться на обнаружение угроз с помощью искусственного интеллекта в режиме реального времени. Платформы формата CertiK, уже используют передовые модели машинного обучения для ежедневного сканирования миллионов транзакций в блокчейне, мгновенно выявляя аномалии.

По мере того, как киберугрозы становятся все более интеллектуальными, эти проактивные системы ИИ станут играть важнейшую роль в предотвращении крупных нарушений, сокращении финансовых потерь и борьбе с ИИ и финансовым мошенничеством для поддержания доверия к рынкам криптовалют.

В конечном счёте, будущее криптобезопасности будет во многом зависеть от общеотраслевого сотрудничества и общих систем защиты на базе ИИ. Биржи, блокчейн-платформы, поставщики услуг кибербезопасности и регулирующие органы должны тесно сотрудничать, используя ИИ для прогнозирования угроз до их реализации. Хотя кибератаки с использованием ИИ будут продолжать развиваться, лучшая защита криптосообщества — это быть в курсе событий, действовать на опережение и адаптироваться, превращая искусственный интеллект из угрозы в своего самого надёжного союзника.

193
12
12
Поделись с друзьями!
Другие вопросы