Le traitement de 100 mots avec GPT-4 consomme 3 bouteilles d'eau
L'intelligence artificielle atteint de nouveaux sommets, mais au prix de consommation énergétique effrayante. Une récente étude a révélé que le traitement de seulement 100 mots avec le modèle de langage GPT-4 nécessite une quantité d'énergie équivalente à 3 bouteilles d'eau consommées. Cette découverte soulève des questions sur l'impact environnemental de l'apprentissage automatique et de l'utilisation massive de ces modèles de langage. Comment pouvons-nous concilier les avantages de l'intelligence artificielle avec la nécessité de préserver notre planète ? Cette problématique est au cœur de la réflexion des experts et des scientifiques.
L'intelligence artificielle, un danger pour les objectifs environnementaux
Il y a quelques années, les entreprises technologiques se vantaient de leurs réalisations environnementales et de leurs objectifs de zéro émission et de neutralité carbone pour la prochaine décennie. Mais avec l'arrivée de l'intelligence artificielle, tous ces objectifs ont été mis à l'écart.
Un étude de l'Université de Californie, publié dans The Washington Post, a révélé des données inquiétantes. Dans certains États du pays, générer uniquement 100 mots avec GPT-4 consomme 1 408 litres d'eau, soit environ trois bouteilles de 0,5 litre.
Si l'on multiplie cela par les centaines de millions de requêtes que ChatGPT d'OpenAI reçoit chaque jour, beaucoup d'entre elles étant triviales ou absurdes, créées par des gens qui posent des questions par curiosité ou pour se divertir, il est facile de comprendre le problème environnemental que pose l'IA.
Le coût écologique de l'apprentissage automatique
Les modèles de langage grandeur nature (LLM) comme GPT ou Gemini fonctionnent en traitant de vastes quantités de données dans le cloud. Cela nécessite une puissance de traitement énorme, via des milliers de puces d'IA (la plupart d'entre elles étant de Nvidia), stockées dans de vastes centres de données.
Pour que ces milliers de puissantes cartes graphiques fonctionnent, un grand consommation énergétique est requise. Elles produisent également une grande quantité de chaleur, nécessitant donc de l'eau pour les refroidir.
Seulement pour entraîner son IA Llama-3, Meta a utilisé 22 millions de litres d'eau. Avec cela, on pourrait cultiver plus de deux tonnes de riz.
Le centre de données que Meta construit à Talavera de la Reina consommera 600 millions de litres d'eau par an, dans une zone de sécheresse.
L'étude de The Washington Post indique que si 10% des Américains utilisaient GPT ne serait-ce qu'une fois par semaine, en un an, ils consommeraient la même énergie que toutes les habitations de Washington D.C. pendant 20 jours.
Les entreprises technologiques doivent agir
Les consommations énergétiques élevées sont particulièrement problématiques à une époque où le changement climatique provoque des sécheresses de plus en plus fréquentes et nécessite une consommation d'énergie responsable.
Les représentants d'OpenAI, Meta, Google et Microsoft ont réaffirmé leur engagement à réduire la consommation d'eau et d'énergie, mais aucun n'a révélé de mesures concrètes.
L'intelligence artificielle est là pour rester, et il est certain qu'elle apportera de nombreux avantages. Mais elle doit trouver un moyen de réduire sa consommation d'eau et d'énergie avant de devenir une outil mainstream.
Connaître comment nous travaillons à ComputerHoy.
Étiquettes : Intelligence artificielle, Environnement
Laisser un commentaire