Я думал, что мошенничества не могут быть более страшными. Затем я прочитал отчет этой недели: мошенничества с использованием AI выросли более чем на 450% за последний год — дипфейки, фальшивые голоса CEO, фишинговые боты и даже романтические ловушки, настроенные генеративными моделями. ([TRM Labs])
Вот что запомнилось:
Мошенничества с дипфейками теперь распространены: мошенники используют AI-сгенерированные видео или голоса (иногда имитируя CEO, таких как Илон Маск), чтобы предложить фальшивые сделки "Удвоить вашу криптовалюту". Жертвы потеряли более $5M в одном прямом эфире с дипфейком. ([TRM Labs])
AI-агенты масштабируют атаки: боты собирают личные данные, автоматизируют outreach и создают высоко персонализированные обманы в больших масштабах. Это не случайные сообщения — они адаптированы, чтобы вы доверяли. ([TRM Labs])
Мошенничества с подрезкой свиней возросли на 40%: долгосрочные схемы манипуляции используют AI-сгенерированные сообщения для создания фальшивых отношений перед кражей криптовалюты. Эта тенденция теперь составляет огромную долю потерянных средств. ([Sumsub / Investopedia])
---
что я делаю сейчас:
1. Если кто-то обращается с предложением огромных доходов? Пауза.
2. Я не буду нажимать на ссылку из голосового сообщения или видео — особенно если это кажется срочным.
3. Я подключаю кошельки только на проверенных сайтах.
4. Каждое impersonation, скриншот или срочное сообщение теперь заставляют меня дважды проверять перед тем, как действовать.
Это не только риск криптовалюты. AI превратил нас всех в мишени.
Это не финансовый совет — это мои исследования и предупреждение. Я все еще учусь, но я больше не неподготовлен.
— Лена 🌱

