Réviser ses classiques, se renseigner sur un fait historique, sur la citation d'un auteur ou n'importe quel autre sujet de société avec votre modèle d'IA préféré est peut-être devenu chez vous un réflexe. Méfiez-vous de cette habitude : une étude américaine vient de démontrer qu'en procédant ainsi, les chatbots peuvent modifier vos opinions politiques, même lorsqu'ils ne cherchent pas à nous convaincre. Assistons-nous à la fin du pluralisme par l'épuisement ? Pourquoi s'écharper sur des idées quand un modèle de langage peut nous fournir une vérité tiède et universelle à laquelle nous finirons, de guerre lasse, par souscrire ?
Pour lire l'article dans son intégralité cliquez-ici.
