Przetestowałem prawie każdą AI, którą mogłem znaleźć.
ChatGPT, Gemini, Claude, DeepSeek, Perplexity, Grok i wielu innych.
Na początku odpowiedzi wyglądały świetnie. Czyste wyjaśnienia. Pewny ton.
Ale po 7–8 wiadomościach w tej samej rozmowie, wszystko zaczęło się psuć. Instrukcje były ignorowane. Poprzednie odpowiedzi były sprzeczne. Czasami AI zapominało, co powiedziało wcześniej.
Dziwna część jest taka: jeśli rozpoczniesz nową rozmowę z szczegółowym poleceniem, odpowiedź nagle staje się lepsza.
To sprawiło, że zdałem sobie sprawę z czegoś.
AI dzisiaj potrafi generować odpowiedzi. Ale wciąż ma problemy z konsekwencją i weryfikacją.
Dlatego pomysły takie jak @Mira - Trust Layer of AI są interesujące. Zamiast ślepo ufać jednemu modelowi, koncentruje się na weryfikacji wyników AI poprzez zdecentralizowane kontrole.
Ponieważ kiedy informacja wpływa na decyzje, „prawdopodobnie poprawna” nie wystarcza.
Czy doświadczyłeś, że AI daje gorsze odpowiedzi im dłużej trwa rozmowa?