DeepSeek-R1, o modelo principal de raciocínio do laboratório chinês DeepSeek, apresenta uma taxa de alucinação de 14,3%, quase quatro vezes maior que seu antecessor DeepSeek-V3, de acordo com o benchmark HHEM 2.1 da Vectara. Essa discrepância levanta preocupações significativas para o setor cripto, onde os tokens de agentes de IA cada vez mais dependem de LLMs de estilo raciocínio para trading autônomo e execução on-chain. A análise da Vectara revelou que o R1 tende a 'ajudar demais', adicionando informações não suportadas, o que pode levar a contextos fabricados nas respostas. O mercado cripto, que abriga tokens como Virtuals Protocol (VIRTUAL) e ai16z (AI16Z), enfrenta riscos, já que esses modelos podem propagar erros por meio de ações autônomas. Yann LeCun, cientista-chefe de IA da Meta, argumenta que LLMs autoregressivos lutam inerentemente com alucinações, enquanto outros laboratórios se concentram em melhorar a precisão através de várias técnicas. Para os desenvolvedores cripto, uma gestão de risco eficaz e passos de verificação são cruciais para mitigar esses desafios.