Ostatnia rozmowa z moim przyjacielem Omarem sprawiła, że zacząłem na nowo myśleć o czymś związanym z AI.
Zadał mi proste pytanie:
„Czy naprawdę ufasz wszystkim, co mówi AI?”
I szczerze mówiąc, nie mogłem powiedzieć tak.
AI dzisiaj jest niesamowicie potężne. Potrafi pisać, analizować i wyjaśniać skomplikowane pomysły w kilka sekund. Ale czasami może też produkować informacje, które brzmią poprawnie, podczas gdy są nieco nieprecyzyjne.
Wtedy uświadomiłem sobie, że prawdziwe wyzwanie związane z AI nie polega tylko na inteligencji.
Chodzi o weryfikację.
Podczas eksplorowania rozwiązań natknąłem się na pomysł stojący za @Mira - Trust Layer of AI . Zamiast polegać na jednym modelu, który dostarcza właściwą odpowiedź, sieć dzieli odpowiedzi na mniejsze twierdzenia i pozwala wielu modelom AI je przeglądać. Każdy model ocenia twierdzenie niezależnie. Gdy wystarczająca liczba modeli się zgadza, system osiąga konsensus.
W pewnym sensie działa to jak inteligencja zbiorowa, przekształcając wiele perspektyw w silniejszą formę zaufania. Dla mnie to zmienia rozmowę o AI. Przyszłość może nie należeć tylko do najinteligentniejszego modelu. Może należeć do systemów, które potrafią udowodnić, że ich odpowiedzi są poprawne
@Mira - Trust Layer of AI $MIRA
