Говоря об интеграции искусственного интеллекта и криптовалютной индустрии, в основном фокусируясь на том, как ИИ может помочь криптоиндустрии бороться с мошенничеством, эксперты не обращают внимания на тот факт, что это может иметь совершенно противоположный эффект. Фактически, Meta* недавно предупредила, что хакеры, похоже, используют ChatGPT OpenAI в попытках получить доступ к учетным записям пользователей Facebook*.
Meta* сообщила, что только в марте и апреле заблокировала более 1000 вредоносных ссылок, замаскированных под расширения ChatGPT. Платформа дошла до того, что назвала ChatGPT «новой криптовалютой» в глазах мошенников. Кроме того, поиск по ключевым словам «ChatGPT» или «OpenAI» на DEXTools, интерактивной платформе для торговли произвольными криптотокенами, отслеживающей количество токенов, в совокупности показывает более 700 торговых пар токенов, в которых упоминается одно из этих двух ключевых слов – ChatGPT либо OpenAI. Это показывает, что мошенники используют ажиотаж вокруг инструмента ИИ для создания токенов, несмотря на то, что OpenAI никогда не объявляла об официальных планах по выходу в мир блокчейна.
Платформы социальных сетей стали популярными каналами для продвижения новых мошеннических монет в Интернете. Мошенники пользуются широким охватом и влиянием этих платформ, чтобы за короткий период времени привлечь значительное количество подписчиков. Используя инструменты на базе ИИ, они могут еще больше расширить свой охват и создать на первый взгляд активную и лояльную фанатскую базу, состоящую из тысяч человек. Но это будут поддельные учетные записи они могут быть использованы для создания иллюзии надежности и популярности их мошеннических проектов.
Большая часть криптоиндустрии фактически работает на социальном доказательстве работы, что предполагает, что, если криптовалюта или проект кажутся популярными и имеют большое количество последователей, они должны быть популярными по какой-то причине. Инвесторы и новые покупатели, как правило, доверяют проектам с большей и более лояльной аудиторией в Интернете, предполагая, что другие провели достаточно исследований, прежде чем инвестировать. Однако использование ИИ может поставить под сомнение это предположение и подорвать социальное доказательство работы.
Теперь, только потому, что страница какого-то проекта в социальных сетях имеет тысячи лайков и искренние комментарии, не обязательно означает, что это законный проект. Это всего лишь один вектор атаки, а ИИ породит множество других. Одним из таких примеров является мошенничество с «забоем свиней», когда экземпляр ИИ может потратить несколько дней на то, чтобы подружиться с кем-то, обычно с пожилым или уязвимым человеком, только для того, чтобы в конечном итоге обмануть его. Развитие технологий искусственного интеллекта позволило мошенникам автоматизировать и масштабировать мошеннические действия, потенциально нацеленные на уязвимых лиц в криптосфере.
Мошенники могут использовать чат-ботов или виртуальных помощников, управляемых искусственным интеллектом, для взаимодействия с отдельными лицами, предоставления советов по инвестициям, продвижения поддельных токенов и первоначальных предложений монет или предложения высокодоходных инвестиционных возможностей. Такие мошенничества с ИИ также могут быть очень опасными, потому что они способны имитировать человеческие разговоры с потенциальной жертвой. Кроме того, используя платформы социальных сетей и контент, созданный ИИ, мошенники могут организовывать сложные схемы накачки и сброса, искусственно раздувая стоимость токенов и распродажа их активов для получения значительной прибыли, в результате чего многочисленные инвесторы понесли убытки.
Инвесторов уже давно предупреждают, чтобы они обращали внимание на дипфейковые крипто-мошенничества, которые используют технологии искусственного интеллекта для создания очень реалистичного онлайн-контента, который меняет лица на видео и фотографиях или даже изменяет аудиоконтент, чтобы создать впечатление, будто влиятельные лица или другие известные личности поддерживают мошеннические проекты.
Одним из очень известных дипфейков, затронувших криптоиндустрию, было видео, в котором бывший генеральный директор FTX Сэм Бэнкман-Фрид направлял пользователей на вредоносный веб-сайт, обещая удвоить их криптовалюту.
Ранее в марте 2023 года, так называемый ИИ-проект Harvest Keeper обманул своих пользователей примерно на 1 миллион долларов.
Искусственный интеллект (ИИ) тогда был популярной темой из-за возможностей, демонстрируемых ChatGPT v4, и проект, претендующий на звание децентрализованного приложения «на основе ИИ», получил от своих пользователей почти 1 миллион долларов.
Платформа безопасности блокчейна CertiK подтвердила, что Harvest Keeper украла активы пользователей на сумму около 933 000 долларов. Кроме того, по данным CertiK, пользователи также потеряли около 219 000 долларов США из-за транзакций, называемых «ледяным фишингом», в сетях Ethereum, BNB Chain и Polygon. Охранная фирма призвала пользователей отозвать разрешения, которые они дали проекту, и предупредила людей, чтобы они прекратили взаимодействие с ее веб-сайтом.
«Мы можем подтвердить, что Harvest Keeper — это мошенничество. На момент написания мы можем подтвердить, что активы пользователей на сумму около 933 тысяч долларов были украдены. Отмените все разрешения на EOA: 0x250ce5a8d8a8f0345fb8708e0575c8ede7710c14. Не взаимодействуйте с URL-адресом проекта», – говорится в предупреждении CertiK (@CertiKAlert) от 19 марта 2023 г.
Harvest Keeper утверждал, что это проект искусственного интеллекта, который «оптимизирует процесс торговли для максимальной выплаты» и обещал доходность в размере 4,81% от депозитов пользователей. На своем веб-сайте платформа обещала возврат инвестиций в размере 101% в течение 21 дня и реферальное вознаграждение в размере 8%. У проекта было почти 30 000 подписчиков в Twitter и более 32 000 подписчиков в Telegram-канале.
И случай с Harvest Keeper не единичный, примерно в то же время в Твиттере появились десятки учетных записей, утверждающих, что они связаны с «CryptoGPT». 10 марта хэштег, связанный с проектом токенов под названием «CryptoGPT», был в тренде в Твиттере. Вместе с ним появилось несколько похожих аккаунтов с рекламой поддельных аирдропов. Десятки аккаунтов в Твиттере с похожими названиями также заполонили социальную платформу, причем некоторые из них предлагали раздачи и аирдропы, которые подозревались в откровенном скаме.
Итак, искусственный интеллект может использоваться для схем накачки и сброса, мошенничества с выходом, также известного как «вывыдергивание коврика», рекламы мошеннических аирдропов и многого другого. Дошло до того, что некоторые проекты, в том числе и упомянутый выше Harvest Keeper, использовали ИИ для подделки руководителей.
Однако в более позитивном плане ИИ также может автоматизировать скучные, монотонные аспекты разработки криптовалюты, выступая в качестве отличного инструмента для экспертов по блокчейну. Вещи, которые требуются для каждого проекта, такие как настройка сред Solidity или создание базового кода, упрощаются благодаря использованию технологии искусственного интеллекта. В конце концов, барьер для входа будет значительно снижен, и криптоиндустрия будет меньше зависеть от навыков разработки, а больше от того, действительно ли полезна идея.
В некоторых нишевых случаях у ИИ будет удивительный способ демократизации процессов, которые, как мы в настоящее время предполагаем, принадлежат только элитному классу — в данном случае технически подкованным старшим разработчикам. Но поскольку у всех есть доступ к передовым инструментам разработки и панелям запуска в криптовалюте, предела нет.
Поскольку искусственный интеллект упрощает мошенничество с людьми, пользователи должны проявлять осторожность и должную осмотрительность, прежде чем инвестировать в проект, например, следить за подозрительными URL-адресами и никогда не инвестировать в то, что возникло, казалось бы, из ниоткуда.
Отказ от ответственности
Эта статья предназначена для общих информационных целей и не предназначена и не должна восприниматься как юридическая или инвестиционная консультация. Взгляды, мысли и мнения, выраженные здесь, принадлежат только автору.
* Американская корпорация Meta и принадлежащие ей социальные сети Facebook и Instagram признаны экстремистскими и запрещены в РФ.