L'Union Européenne et l'intelligence artificielle : une course perdue d'avance
Confrontée à des défis énergétiques et technologiques, l'Europe peut-elle tenir le rythme de l'IA ?
L'approche de l'Union Européenne (UE) face au développement rapide de l'intelligence artificielle (IA) est de plus en plus claire : réguler, mais ne pas innover. L'Acte sur l'IA, sur le point d'être adopté, en est la preuve éclatante. Alors que le monde s'oriente vers une ère numérique dominée par l'IA, l'UE doit se contenter d'un rôle de superviseur réglementaire, laissant les rênes de l'innovation à d'autres puissances telles que les États-Unis et la Chine.
Cette orientation est d'autant plus frappante à la lumière des statistiques. En 2022, le nombre de sociétés spécialisées en IA financées aux États-Unis était presque le double de celui de l'UE et du Royaume-Uni combinés. Les investissements privés dans l'IA aux États-Unis ont également surpassé quatre fois ceux de l'Europe au cours de la dernière décennie. Même la Chine, avec ses investissements massifs dans les semi-conducteurs liés à l'IA, surpasse largement l'Europe.
L'Acte sur l’IA ne fait que souligner cette réalité : l'UE brille par sa capacité à créer des cadres de régulation, mais pas à stimuler des avancées technologiques.
Même la France, qui se profile comme un leader de l'IA au sein de l'UE, n'échappe pas à cette dynamique. Malgré les affirmations du président Emmanuel Macron sur la position prééminente de la France dans l'IA en Europe continentale, et les investissements nationaux notables dans ce domaine, la stratégie globale reste enfermée dans les limites de la réglementation européenne.
Et pour cause, nous n’en avons tout simplement pas les moyens.
Energie
La révolution de l'intelligence artificielle, avec son appétit croissant en énergie, révèle un obstacle majeur pour l'Union Européenne : l'accès à l'énergie. Ce défi pourrait condamner l'UE à rester en marge du développement de l'IA, dominé par des régions plus riches en ressources énergétiques.
Le cœur de cette problématique réside dans les exigences énergétiques des centres de données, pivot central de l'écosystème informatique d'aujourd'hui. Bien que l'efficacité énergétique de ces centres se soit améliorée l'avènement des modèles de langage à grande échelle (LLM) comme ChatGPT change la donne. Les unités de traitement graphique (GPU), essentielles pour l'IA, consomment significativement plus d'énergie que les unités de traitement central (CPU), pilier des centres de données traditionnels.
Cette tendance n'est pas près de s'inverser. Les GPU, devenant de plus en plus sophistiqués, continuent d'augmenter leur consommation d'énergie. Chaque nouvelle génération de LLM plus grande nécessite des clusters toujours plus imposants de GPU haute performance, entraînant des besoins énergétiques exponentiels.
Pour l'UE, cette réalité pose un défi majeur. La localisation future des centres de données d'IA dépendra de la disponibilité et du coût de l'énergie. Les géographies dotées de ressources énergétiques abondantes, même éloignées, auront un avantage significatif. Contrairement aux centres de données basés sur CPU, qui privilégient la proximité avec les utilisateurs finaux, les centres d'IA mettront l'accent sur l'accès à l'énergie bon marché et fiable.
Dans ce contexte, l'UE, confrontée à des contraintes énergétiques et dépendante de sources d'énergie externes, pourrait se retrouver désavantagée. La capacité à s'adapter à cette nouvelle dynamique énergétique déterminera les acteurs du marché qui pourront tirer parti de la valeur ajoutée au niveau énergétique. Pour l'UE, cela signifie repenser non seulement sa stratégie en matière d'IA, mais aussi sa politique énergétique globale.
Puissance de calcul
Autre problème majeur : l’accès aux processeurs graphiques utilisés pour la calcul hautes performances et l’IA.
L'investissement dans les systèmes d'IA génératifs est phénoménal. Bloomberg Intelligence estime que les dépenses du secteur privé dans les systèmes centrés sur l'IA générative passeront de 14 milliards de dollars annuellement en 2020 à 137 milliards en 2024, totalisant 280 milliards en cinq ans. La majorité de ces investissements sont consacrés à la formation de nouveaux modèles d'IA, incluant la construction de nouveaux data centers, l'achat de GPU, et une vague de levées de fonds en capital-risque axées sur le calcul.
Actuellement, la demande pour des GPU de pointe dépasse largement l'offre disponible. Les principaux fournisseurs de GPU ont rapporté des gains annuels supérieurs à 250%, témoignant de l'importance géoéconomique de cette technologie et de l'incertitude de la chaîne d'approvisionnement mondiale.
Pour répondre à leurs besoins futurs en GPU, les entreprises et les pays adoptent diverses stratégies, allant de l'acquisition à la location préventive de puces IA, même sans cas d'utilisation évident. Ces actions, anticipant des contrôles à l'exportation ou partant du principe que la technologie sera si conséquente que le stockage devient un impératif économique, ont exacerbé la déconnexion entre l'offre et la demande de GPU.
Seul espoir : le passage des charges de travail IA du « training » à l’ « inférence ».
Training vs Inference
Les charges de travail en IA évoluent de la formation vers l'inférence. La formation est le processus de développement et d'enseignement des modèles d'IA, tandis que l'inférence met en action l'apprentissage d'un modèle.
Le passage de la formation à l'inférence a le potentiel de transformer radicalement les marchés, étant donné que ces deux processus nécessitent un matériel et un logiciel différents.
Contrairement à la formation, l'inférence est moins gourmande en calculs et techniquement moins complexe, permettant son exécution sur des plateformes moins avancées. Ainsi, même si le matériel plus sophistiqué peut accélérer l'inférence, l'accès à des équipements de pointe ne bloque pas le progrès de la même manière qu’aujourd'hui.
Ces réalités changeantes ont des implications géopolitiques importantes, notamment sur l'efficacité des contrôles à l'exportation existants (on pense aux politiques de contrôle mises en place par les Etats-Unis).
Dans un monde où l'inférence devient la charge de travail prédominante en IA, le paysage des gagnants et des perdants pourrait également se modifier. Les principaux fournisseurs de puces pourraient perdre leurs avantages dans les charges de travail d'inférence, ouvrant la voie à d'autres acteurs du marché des puces.
Un monde axé sur l'inférence pourrait favoriser une décentralisation des lieux de calcul, étant donné que l'inférence peut se produire plus loin des utilisateurs finaux par rapport aux charges de travail Internet actuelles, qui privilégient la latence et la bande passante. Cela pourrait amener les entreprises à planifier pour un avenir où de nouveaux centres de données deviennent économiquement viables, de nouveaux types de puces sont privilégiés, et de nouvelles opportunités de croissance apparaissent.
Les acteurs du marché devront s'adapter rapidement pour naviguer dans ce paysage en mutation et saisir les nouvelles opportunités qui se présentent.