#mira $MIRA Проблема в искусственном интеллекте не в том, что он ошибается…
А в том, что он иногда представляет ошибку с полной уверенностью.
Ответ может показаться логичным, упорядоченным и очень убедительным…
Но истинный вопрос: кто это проверил?
Здесь возникает другая идея, которую предлагает
Вместо того чтобы полагаться только на одну модель,
результат рассматривается как утверждение, которое необходимо проверить.
Выходы разделяются, проверяются и сравниваются через независимую систему проверки,
пока система не достигнет уровня консенсуса.
Идея проста, но глубока:
Искусственному интеллекту нужны не только более мощные модели…
Но и механизм, который докажет, что то, что он говорит, можно доверять.
В будущем ценность может заключаться не в том, кто отвечает быстрее…
А в том, кто может доказать, что ответ правильный.