Bittensor Subnet Completa o Maior Pré-Treinamento Descentralizado de LLM, Impulsionando a Narrativa DeAI
De acordo com um anúncio oficial, Templar (SN3) — uma subnet do Bittensor — completou o maior processo de pré-treinamento de modelo de linguagem grande (LLM) descentralizado da história, conhecido como Covenant-72B, em 10 de março.
Covenant-72B é um modelo de linguagem com 72 bilhões de parâmetros pré-treinado pela equipe Templar na Bittensor Subnet 3, dependendo inteiramente de recursos da internet pública sem centros de dados centralizados.
O modelo alcançou uma pontuação de 67,1 no benchmark MMLU (zero-shot), superando modelos base centralizados como LLaMA 2 70B e LLM360 K2 sob as mesmas condições de avaliação.
Isso representa o maior modelo de linguagem colaborativa já treinado de uma maneira totalmente permissiva. Durante o processo, mais de 70 nós independentes contribuíram com recursos computacionais. A equipe também lançou todos os pesos e pontos de verificação do modelo sob a licença Apache.
Após a notícia, os tokens de Bittensor e subnets relacionadas viram um forte momentum de preço:
$TAO subiu 70% nas últimas duas semanas.
