A primeira coisa que fiz quando comecei a ler sobre a Mira Network foi me deparar com outro enredo conhecido. Uma iniciativa de blockchain que tentou corrigir alucinações de IA, envolta em palavras da moda de consenso e incentivos de token. Observei essa tendência muitas vezes para ser naturalmente desconfiado.

Mas quanto mais eu estudava, mais incômodas minhas descobertas se tornavam. Isso porque a Mira não está apenas fazendo esforços para aprimorar a IA. Ela está suavemente duvidando de todo o caminho que a IA vinha seguindo.

E é aí que está a parte interessante

O paradoxo oculto da IA: avanços que se tornam um passivo de sua própria responsabilidade

O avanço da IA é tipicamente discutido em tamanho. Modelos maiores. Testes melhores. Mais poder de raciocínio. E ainda assim, o que comecei a ver é aquilo que a maioria de nós não quer ver:

Qualquer avanço na IA torna a verificação mais difícil.

Isso não é óbvio à primeira vista. Pense sobre isso. Os erros de uma IA eram aparentes quando era fraca. Os modelos agora estão altamente desenvolvidos, cujas imprecisões são tão sutis e dependem do contexto e geralmente são indistinguíveis da verdade real. A saída é de aparência profissional, disciplinada e segura, mesmo nos casos errados. Há uma estranha contradição nisso. Quanto mais avançada é a IA, mais requer trabalho humano para verificá-la. E isso não é apenas teoria. Essa mudança foi refletida nos dados. Com bilhões de tokens sendo processados pela própria Mira todos os dias, isso é uma indicação de que algo está fora do comum - o uso da IA está aumentando a uma taxa que a verificação humana não consegue acompanhar. Este é o verdadeiro gargalo. Não inteligência. Não computação. Verificação!

E quanto à alternativa: poderia a questão não ser alucinação, mas responsabilidade?

A maioria dos projetos apresenta o dilema como alucinação. A IA é uma fabricadora de coisas e devemos minimizar alucinações. Acredito que a estruturação não está completa após estudar o design de Mira. O verdadeiro problema não é o fato de que a IA está errada. Aqui o problema é que a IA nunca está errada.

A responsabilidade define o comportamento em sistemas humanos. Os cientistas submetem artigos com a esperança de que serão revisados por pares. Analistas financeiros fazem as chamadas porque têm certeza de que serão julgados pelos resultados. Mesmo os mercados funcionam com um senso de responsabilidade - apostas ruins custam. A IA, por sua vez, opera em um vácuo. Não há custo inerente a produzir resultados que estão errados. O sistema proposto por Mira apresenta o elemento que não é demais, mas muito forte: responsabilidade econômica em relação ao raciocínio. Nós, que verificam erroneamente, perdem participação. Os nós que concordam com o consenso recebem recompensas. Isso pode à primeira vista parecer um design normal de cripto. No entanto, quando você considera mais, é, na verdade, trazer um novo conceito: os resultados da IA não são mais produzidos. Eles foram provados economicamente sólidos. Isso é um paradigma completamente diferente.

Mira está comercializando a verdade.

Quanto mais eu examinava a arquitetura de Mira, mais eu começava a pensar que era algo que eu não esperava que fosse - não um protocolo, mas um mercado.

Um mercado em que a verdade prevalece. Cada declaração se torna um ativo de valor. Cada nó é um apostador sobre se está correto. O acordo é descoberta de preço. Isso não é o que estamos acostumados a pensar sobre conhecimento. A autoridade tradicionalmente é a fonte da verdade. O que é certo é determinado por instituições, especialistas ou estruturas centralizadas. Mira dá a essa noção uma inversão. Afirma que incentivos distribuídos e competição podem dar origem à verdade. Isso é reminiscente dos mercados financeiros, em vez de sistemas de IA.

Os mercados não estão cientes do preço certo de um ativo. Eles aprendem isso se envolvendo, discutindo e chegando a um compromisso. Isso é a mesma coisa que Mira está aplicando à informação. E essa é uma ideia radical.

A parte que ninguém fala: a verificação também tem modos de falha.

#Mira

$MIRA

MIRA
MIRA
0.0801
+1.13%

@Mira - Trust Layer of AI