Uma coisa que notei ao seguir o espaço da Inteligência Artificial é quanta atenção vai para os modelos de Inteligência Artificial. A cada mês, um novo sistema de Inteligência Artificial aparece que pontua mais alto em testes ou produz saídas mais limpas e a conversa rapidamente se transforma em uma competição entre modelos de Inteligência Artificial.
Quanto mais estudo como esses sistemas de Inteligência Artificial são realmente usados, mais parece que a capacidade não é o maior desafio. A confiança na Inteligência Artificial é.
À medida que os modelos de Inteligência Artificial se tornam mais convincentes, seus erros também se tornam mais difíceis de notar. Um sistema pode produzir uma resposta que soa confiante e bem estruturada, enquanto ainda está errada. Quanto melhor a linguagem dos modelos de Inteligência Artificial se torna, mais fáceis aqueles erros se misturam em saídas que parecem confiáveis.
É por isso que comecei a pensar na Inteligência Artificial menos como uma ferramenta e mais como parte de um sistema maior de Inteligência Artificial. Em campos, as decisões raramente dependem de uma única fonte. A ciência tem revisão por pares, as finanças têm auditorias e a aviação tem camadas de verificações.
A confiança na Inteligência Artificial pode crescer dessa maneira. Através de sistemas que podem questionar, verificar e corrigir suas próprias saídas de Inteligência Artificial ao longo do tempo.
Modelos de Inteligência Artificial fortes sempre vão importar.. Os sistemas construídos em torno dos modelos de Inteligência Artificial podem, em última análise, determinar se esses modelos de Inteligência Artificial podem realmente ser confiáveis.