Te souviens-tu de cette vieille question sur "l'utilisation abusive de l'IA" ?
Des gens ont open-sourcé des modèles pour que le monde entier puisse apprendre, mais ils ont été renommés, recouverts, et il est impossible de tenir quelqu'un responsable.
@SentientAGI a proposé une solution avec OML 1.0.
Cela ressemble à inscrire des empreintes digitales invisibles dans le "cerveau" de l'IA — des milliers de paires clé-réponse.
Le modèle peut être ajusté, compressé, distillé, mais rien ne peut l'effacer.
L'auteur original n'a qu'à entrer un mot de passe, et le modèle peut prouver son identité.
Cela rend non seulement l'IA open-source plus sûre, mais permet également aux développeurs de "suivre, revendiquer et monétiser" pour la première fois.
Avec l'ajout du système d'agents intelligents ROMA, Sentient n'est pas seulement un modèle, mais un "corps de sagesse collective" capable de collaborer de manière autonome, de générer du contenu et d'intégrer des informations.
L'IA devient organique et autonome, et SentientAGI accélère cette évolution. Le TGE arrive en novembre, es-tu prêt ?