Discussion à propos de ce post

Avatar de User
Avatar de MXTM (a.k.a.: vjtsu)

Plutot de ceux qui savent s'en servir, surtout quand on y connait rien.

Afficher le commentaire complet
Avatar de Emmanuel Lagrange Paquet

La question de la vérification des faits par les IA est effectivement cruciale, et soulèvent des enjeux importants.

Je suis d'accord qu'on ne devrait pas déléguer aveuglément la "vérité" aux IA. Mais je me demande si le problème n'est pas plus ancien que ChatGPT ou Grok. L'information biaisée n'a pas attendu l'IA pour exister.

Prenez le Guide alimentaire canadien: pendant des décennies, on recommandait 2 à 4 portions de produits laitiers par jour — en grande partie grâce au lobbying intense de l'industrie laitière. Santé Canada a fini par écarter ces groupes d'intérêt en 2019 et réduire drastiquement la place du lait dans le nouveau guide, ce qui a provoqué une levée de boucliers des Producteurs laitiers du Canada. Pendant toutes ces années, on nous disait que c'était "basé sur la science".

On a toujours dû se méfier. Des gouvernements, des corporations, des médias. L'information a toujours été filtrée, orientée, biaisée par des intérêts économiques ou politiques. Ce n'est pas l'IA qui a inventé ça — elle l'amplifie, elle l'accélère, mais le principe reste le même.

Peut-être même que le fait que l'IA soit ouvertement peu fiable va nous forcer à développer une meilleure hygiène critique. Comme Magritte avec Ceci n'est pas une pipe — toute représentation est déjà une médiation, jamais le réel lui-même. On devrait tous être sur nos gardes, IA ou pas.

Ce qui m'inquiète avec votre article (et c'est une vraie question, pas une critique), c'est: est-ce qu'on ne traite pas les humains comme des robots passifs? Comme si on allait simplement "gober" ce que l'IA nous dit sans y réfléchir? Les mêmes personnes qui savent qu'un article de journal peut être biaisé, qui vérifient sur plusieurs sources, qui doutent des politiciens — vont-elles soudainement perdre tout sens critique devant ChatGPT?

Je ne dis pas que les risques que vous soulevez n'existent pas. GPT-5 qui génère plus de contenu dangereux que GPT-4, c'est alarmant. Les chatbots qui distordent l'actualité, c'est un problème réel. Mais est-ce qu'on ne devrait pas miser sur le renforcement de l'esprit critique plutôt que sur l'idée qu'on est condamnés à croire aveuglément ces systèmes?

Afficher le commentaire complet
Un commentaire de plus...

Aucun post

Tout à fait prêt. Qu'avez-vous pour moi ?