As ferramentas de IA hoje são incrivelmente rápidas. Você faz uma pergunta e, em segundos, recebe uma resposta longa e confiante. Mas a velocidade não é realmente o principal problema anymore. A questão maior é se a resposta pode realmente ser confiável.
Muitos sistemas de IA parecem muito certos, mesmo quando a informação não é completamente precisa. Essa lacuna entre confiança e confiabilidade é algo com que a indústria ainda está lidando.
Quando conheci a Mira, a ideia por trás dela parecia diferente da maioria dos projetos de IA que venho acompanhando ultimamente.
Em vez de pedir às pessoas para confiarem em um único modelo, eles estão construindo um sistema que verifica a resposta antes de aceitá-la como confiável. Quando uma IA produz uma resposta, a Mira divide essa resposta em afirmações menores. Essas afirmações são então revisadas por vários modelos independentes na rede.
Cada modelo analisa a mesma declaração e a avalia separadamente. As respostas deles são então combinadas para chegar a uma conclusão compartilhada. Assim, o resultado final não depende de um único modelo, mas do acordo entre vários deles.
Gosto dessa direção porque se concentra em tornar a IA mais confiável. Eles não estão apenas tentando tornar a IA mais rápida ou maior. Eles estão tentando garantir que as respostas possam realmente se sustentar.
E honestamente, isso parece uma camada que a IA realmente precisa.