Les médias sociaux sont maintenant remplis de vidéos, d'images et de nouvelles générées par l'IA.
Sur des plateformes comme TikTok et X, une vidéo qui semble très réelle peut en fait être une fausse image créée par l'IA ; une "alerte de dernière minute" peut aussi être du contenu généré par des machines. L'information devient de plus en plus abondante, mais sa crédibilité diminue.
À l'avenir, nous n'avons pas seulement besoin de "gérer l'IA", mais nous devons établir un tout nouveau système de confiance. En plus de la régulation des plateformes et des règles gouvernementales, nous pouvons également envisager des approches plus globales.
Tout d'abord, les entreprises technologiques devraient établir un mécanisme de "transparence par défaut". Tout contenu généré par l'IA devrait automatiquement comporter une identification claire, comme un filigrane numérique, des étiquettes de source, des enregistrements de génération, etc., afin que les utilisateurs sachent immédiatement si le contenu provient de l'IA, plutôt que de devoir deviner sa véracité.
Deuxièmement, l'algorithme de recommandation des plateformes doit changer. Les médias sociaux actuels privilégient le contenu "le plus accrocheur" plutôt que le contenu "le plus authentique". À l'avenir, les algorithmes devraient accorder plus d'importance aux sources fiables, à la vérification des faits et à la qualité de l'information, plutôt que de poursuivre uniquement le trafic et le taux de clics.
Troisièmement, les écoles et la société devraient renforcer l'éducation à l'information à l'ère de l'IA. La compétence la plus importante pour l'avenir n'est pas seulement de savoir utiliser l'IA, mais de savoir juger de la véracité de l'information. Le système éducatif peut apprendre aux gens comment identifier le contenu IA, comment vérifier les sources d'information, et comment éviter d'être influencé par de fausses informations.
Quatrièmement, les entreprises et les médias doivent également établir des mécanismes de responsabilité. Les plateformes et les médias qui publient des informations doivent être responsables de la véracité du contenu, et ne pas négliger la vérification des faits pour des raisons de rapidité ou de trafic. La confiance doit être établie sur le long terme, mais peut être détruite en un instant.
Cinquièmement, chacun doit établir sa propre "capacité de protection de l'information". Face à des nouvelles choquantes, il faut d'abord rester calme; face à des opinions extrêmes, il faut vérifier; il faut consulter des informations sous différents angles, sans suivre aveuglément la tendance de partage. La compétence la plus forte de l'avenir n'est pas l'acquisition d'informations, mais le jugement des informations.
L'IA ne disparaîtra pas, la technologie ne fera que devenir plus forte. Mais ce qui déterminera vraiment l'avenir de la société, ce n'est pas l'IA elle-même, mais comment l'humanité l'utilise, la gère, et comment elle rétablit la relation de confiance entre l'homme et l'information.
Dans le monde futur, la confiance deviendra l'atout le plus important.$BNB