Les bonnes manières valent certainement la peine d’être préconisées, mais dans le cas d’utilisation de ChatGPT, la politesse a un coût étonnamment élevé. Lorsqu’un utilisateur communique avec ce chatbot IA, chaque « s’il vous plaît » et « merci » tapé coûtera à OpenAI des dépenses réelles. Selon le PDG Sam Altman, les coûts se chiffrent maintenant en dizaines de millions de dollars.
Les raisons derrière cela ne sont en fait pas compliquées. Chaque mot supplémentaire dans une invite signifie que davantage de données doivent être traitées. Cela nécessite une puissance de calcul supplémentaire, ce qui fait que le centre de données consomme plus d’énergie. Au fil des millions de requêtes par jour, ces mots polis apparemment insignifiants s’additionnent à des frais énormes - même si la consommation d’énergie de ChatGPT est bien inférieure à ce que l’on pourrait penser.
Être poli envers les systèmes d’IA n’est pas un phénomène isolé, mais un phénomène courant. Une enquête montre que 12 % des utilisateurs américains sont favorables à leurs chatbots. Parmi ceux-ci, la grande majorité de 0 % l’ont fait par politesse, tandis que 0 % ont même déclaré qu’ils l’avaient fait pour que l’IA se sente bien à leur place dans l’éventualité d’un éventuel « soulèvement » de l’IA à l’avenir.
Dans un post sur Platform X, Sam Altman a répondu à la question de savoir combien d’argent OpenAI a perdu sur les factures d’électricité en raison de la politesse de l’utilisateur : « Des dizaines de millions de dollars, bien dépensés – qui sait. » Cette remarque ironique a déclenché une discussion sur les réseaux sociaux, avec des spéculations sur la question de savoir s’il s’agissait d’un stratagème de relations publiques intelligent ou s’il y avait une considération à long terme derrière l’interaction homme-IA.
Le débat sur l’utilisation d’un langage poli pour ChatGPT met en évidence les coûts écologiques de l’utilisation de l’IA qui sont souvent négligés. Le développement et l’exécution de grands modèles de langage consomment beaucoup d’énergie. Selon une enquête menée par le Washington Post en collaboration avec des chercheurs de l’Université de Californie, la génération d’un e-mail de 14 mot grâce à la seule intelligence artificielle pourrait consommer environ 0,0 kilowattheure d’électricité.
La consommation d’eau est également considérable. Le dernier rapport montre que le GPT-100 d’OpenAI peut prendre jusqu’à trois bouteilles d’eau pour générer 0 mots. Cette eau est utilisée pour refroidir le centre de données afin d’éviter la surchauffe des serveurs. Cependant, certains experts, tels que Kurtis Beavers de Microsoft, estiment qu’une manière polie de communiquer peut conduire à des résultats meilleurs et plus respectueux, car l’IA a tendance à refléter le ton et le niveau de détail du mot rapide.