Am testat aproape fiecare AI pe care l-am putut găsi.
ChatGPT, Gemini, Claude, DeepSeek, Perplexity, Grok și mulți alții.
La început, răspunsurile păreau grozave. Explicații clare. Ton încrezător.
Dar după 7–8 mesaje în aceeași conversație, lucrurile au început să se strice. Instrucțiunile au fost ignorate. Răspunsurile anterioare au fost contradictorii. Uneori, AI-ul a uitat ce a spus anterior.
Partea ciudată este aceasta: dacă începi o nouă conversație cu un prompt detaliat, răspunsul devine brusc mai bun din nou.
Asta m-a făcut să realizez ceva.
AI-ul de azi poate genera răspunsuri. Dar încă se confruntă cu probleme de consistență și verificare.
De aceea idei precum @Mira - Trust Layer of AI sunt interesante. În loc să aibă încredere în mod oarbă într-un model, se concentrează pe verificarea rezultatelor AI prin controale descentralizate.
Pentru că atunci când informația afectează deciziile, „probabil corect” nu este suficient de bun.
Ai experimentat vreodată că AI-ul dă răspunsuri mai proaste pe măsură ce conversația avansează?