Moment, w którym zdałem sobie sprawę, że AI potrzebuje dowodów, a nie tylko mocy
Kiedy po raz pierwszy zacząłem zgłębiać sztuczną inteligencję, byłem przekonany, że przyszłość będzie definiowana przez większe modele, lepsze szkolenie i więcej danych. Myślałem, że skala rozwiąże wszystko. Im mądrzejszy system, tym lepsze wyniki.
Z biegiem czasu to przekonanie zaczęło się kruszyć.
Gdy badałem projekty takie jak Mira Network, dostrzegłem coś znacznie ważniejszego. Kluczowym problemem nie jest zdolność. To wiarygodność.
Nowoczesne systemy AI opierają się na prawdopodobieństwie. Generują odpowiedzi, które brzmią pewnie, nawet gdy się mylą. To nie jest wada w kodowaniu. To sposób, w jaki te systemy są zaprojektowane. Przewidują, co jest prawdopodobne, a nie co jest gwarantowane. Ta różnica zmienia wszystko.