Les « Sept Magnifiques » règnent sur Wall Street depuis quelques années. « Mais l’IA apporte plus de destruction créatrice que toute autre ère avant elle », alerte Tony Kim, responsable de l’équipe Fundamental Equity au sein du plus gros gestionnaire d’actifs mondial BlackRock. Un chamboulement qui pourrait conforter certains champions du numérique, mais en bousculer d’autres. A l’heure où toutes les entreprises se réclament de l’IA, celui qui supervise les investissements tech au sein du groupe dévoile comment naviguer rationnellement dans ce paysage mouvant.
L’Express : L’euphorie des marchés autour de l’IA est-elle justifiée, même dans ce contexte de guerre tarifaire ?
Tony Kim : Oui, je le pense. Depuis que l’IA a vraiment décollé en 2022, il y a eu des guerres, l’inflation, les tarifs douaniers, les tensions géopolitiques… La seule constante est la dynamique de l’IA. Elle ne s’est pas ralentie. Je ne pense donc pas que nous soyons dans une bulle — ces valorisations sont justifiées, et la tendance est là pour durer.
L’IA générative change la donne, mais les modèles économiques restent flous. Comment identifiez-vous les acteurs les mieux positionnés ?
Nous examinons trois couches dans la pile technologique de l’IA. La première couche est celle de l’infrastructure physique (les « usines de l’IA ») – on peut la comparer aux usines de la révolution industrielle, mais pour le calcul informatique. Elle nécessite du foncier, de l’énergie, et des bâtiments remplis de puces — exploités comme des centres de données en nuage. Le rythme de dépenses sur cette couche est inédit : 500 milliards de dollars rien que pour 2025. Seuls les plus grands acteurs — hyperscalers, gouvernements — peuvent se permettre de tels investissements intensifs en capital. Ces investissements seront financés par du capital, mais aussi par la dette, car une installation de 1 gigawatt peut coûter 50 milliards de dollars.
Il y a un autre domaine dans cette première couche : les fabricants de puces spécialisés comme Nvidia et Broadcom, avec des activités à forte marge sur le silicium. Fabriquer des puces est très différent de construire des centres de données — le premier relève de la technologie, le second s’apparente davantage à un actif immobilier à rendement. La deuxième couche est celle de l’intelligence – c’est là que les modèles et les données entrent en jeu. Des entreprises comme OpenAI, Anthropic ou xAI utilisent d’immenses ressources de calcul pour entraîner et exécuter de grands modèles (inférence). Les modèles s’améliorent rapidement — les tokens générés sont peut-être 10 fois meilleurs chaque année. Moins de 10 acteurs dans le monde développent ces modèles fondamentaux. Les besoins en capital sont immenses. La troisième couche est celle des applications – là, on voit une « explosion cambrienne » de services IA : dans la santé, la finance, l’assurance, le droit, les centres d’appels… Des milliers d’entreprises créent des outils à partir des résultats produits par les modèles. Les barrières à l’entrée sont plus faibles, donc la concurrence est plus rude, et les besoins en capital bien moindres. Les trois couches sont essentielles et l’IA va impacter toutes les industries. On peut investir horizontalement (à travers la pile) ou verticalement (dans une application spécifique). Mais plus on descend dans la pile, plus la dynamique du « winner takes most » s’accentue. Au niveau des applications, il y a de la place pour de nombreux acteurs, mais les positions sont moins faciles à défendre.
Sam Altman affirme que l’IA permettra l’émergence de licornes à une seule personne. Réaliste ?
Oui — ou au moins des équipes très réduites. L’une des deux killer app de l’IA est sa capacité à écrire du code — l’autre étant l’IA pour les centres de données. Jusqu’à présent, seuls les humains étaient capables d’écrire du code. Bientôt, l’IA pourrait dépasser complètement les programmeurs humains. Ce n’est pas encore le cas, mais on s’en approche — d’ici un an ou deux. Une fois que l’IA écrira ses propres applications, la frontière entre logiciel et service commencera à s’estomper.
Les agents d’IA commencent tout juste à émerger. Ils agiront de plus en plus comme des collègues numériques, accomplissant des tâches plus complexes et autonomes. La première phase de l’IA s’est concentrée sur le calcul et l’infrastructure, mais nous basculons désormais vers la transformation des services, aussi bien pour le consommateur que pour les entreprises.
Les « usines de l’IA » sont-elles fondamentalement différentes des anciens centres de données cloud ? Est-ce une opportunité pour des régions comme l’Europe qui ont raté la vague du cloud ?
Elles sont en effet très différentes. Le cloud traditionnel est dominé par quelques grands acteurs. Les centres de données classiques sont plus petits, moins énergivores, majoritairement à base de CPU. Avec l’IA, nous sommes passés aux GPU — des puces qui coûtent trente fois plus cher — et qui exigent beaucoup plus de puissance et de refroidissement. Les centres de données qui nécessitaient 50 MW ont désormais besoin de 1 000 MW (1 gigawatt). Le coût a explosé. Dans l’IA, les centres de données coûtent 50 fois plus cher – 50 milliards contre 1 milliard en moyenne auparavant.
L’Europe ne fabrique pas les puces — Nvidia et TSMC dominent toujours — mais elle peut marquer des points dans le reste de la pile : l’énergie, le foncier, l’infrastructure physique. Des pays comme la France, avec son énergie nucléaire abondante, ont un avantage dans l’énergie propre — un levier de coût crucial. C’est pourquoi les pays du Golfe entrent aussi dans le jeu : ils ont de l’énergie bon marché, même si elle est issue du gaz ou du pétrole.
Intégrée à un marché européen de l’énergie, notre carte nucléaire est-elle aussi séduisante que nous, Français, aimons à le penser ?
En théorie, oui. Les Etats-Unis ne construisent pas de nouvelles centrales nucléaires. La France a, à la fois, les centrales et les talents. La Chine de son côté construit jusqu’à 50 centrales. Elle pourrait donc l’emporter sur le coût de l’énergie. Mais elle n’a pas accès aux puces de pointe. La France et les Etats-Unis sont à égalité en termes d’accès aux puces, mais la France pourrait prendre l’avantage dans l’énergie. Le défi maintenant, c’est le capital — il faut des marchés de capitaux d’envergure et peut-être un soutien étatique pour lancer ces investissements massifs.
Dans les modèles de fondation la situation est moins bonne n’est-ce pas ? En dehors du français Mistral, l’Europe est peu présente.
Oui, la création de modèles d’avant-garde se situe encore principalement aux Etats-Unis et en Chine.
Plus de puissance de calcul mènera-t-il toujours à une IA plus intelligente ? Les derniers modèles n’ont pas toujours été à la hauteur des attentes.
En général, plus de puissance de calcul donne de meilleurs modèles. Mais il y a trois étapes dans l’entraînement de l’IA. La première est le pré-entraînement. C’est l’équivalent du lycée pour l’IA. Elle va mémoriser Internet. Les progrès ralentissent ici car on épuise les données disponibles. La deuxième étape est le post-entraînement, le niveau universitaire des IA, où les modèles sont affinés. Là, les améliorations algorithmiques comptent davantage que le calcul brut. C’est là que des labos comme DeepSeek innovent. La troisième étape est l’inférence, l’activation en temps réel du modèle qui va suivre un raisonnement. Les derniers produits d’OpenAI (comme GPT-4o) ont montré qu’on pouvait obtenir des améliorations spectaculaires en laissant simplement le modèle « réfléchir plus longtemps ». Mais cela nécessite un calcul massif à l’inférence — parfois 10 000 fois plus de tokens pour de meilleures réponses. Donc oui, le calcul reste crucial, surtout pour l’inférence.
Peut-on alimenter tout cela ? Aurons-nous assez d’énergie ?
Les projections optimistes sur les progrès futurs de l’IA disent qu’on manquera d’énergie. Les projections pessimistes disent qu’on sera dans les clous. La vérité est entre les deux. Dans tous les cas, il faudra mobiliser toutes les sources d’énergie.
Vous développez une IA en interne chez BlackRock. Quels en sont les points forts et les limites ?
Nous sommes encore au stade où les IA peuvent surpasser les humains sur des tâches spécifiques (échecs, jeu de Go, rédaction de résumés), mais qui n’ont pas d’intelligence générale. Notre projet, appelé Asimov, est conçu pour utiliser des agents travaillant aux côtés des analystes, en accomplissant des tâches comme l’analyse sectorielle, la rédaction de rapports — des activités qui consomment beaucoup de temps humain. Le principal défi est la précision. Nous devons entraîner l’agent IA à partir d’Internet et de données propriétaires — puis lui apprendre notre manière de travailler : comment nous valorisons les entreprises, construisons des modèles financiers, rédigeons des notes d’investissement. Avec le temps, nous espérons qu’Asimov gèrera des flux de travail plus complexes et agira de manière plus autonome, voire offrira des vues que les humains auraient manqués. Mais ce sera une progression graduelle.
BlackRock a lancé un ETF IA. Comment l’avez-vous conçu ?
Si vous regardez le MSCI ou le S & P, la technologie représente environ 45 % de la capitalisation boursière mondiale. Dans cet ensemble, l’IA ne pesait rien il y a trois ans. Désormais, elle est au centre du jeu. Tout le monde prétend faire de l’IA d’une manière ou d’une autre. Mais toutes les entreprises ne sont pas réellement à l’avant-garde de l’IA. Donc, premièrement, nous voulions une exposition pure aux entreprises qui construisent vraiment l’IA de pointe. Notre deuxième critère pour cet ETF IA était de créer une version concentrée, pas un indice large, de ces gagnants de l’IA. Le troisième élément qui nous a guidés, c’était de créer un outil dynamique. Parce que cette industrie de l’IA évolue si vite. Le PC, le smartphone, la voiture électrique, le cloud, le SaaS (Software as a Service), la FinTech, tous ont mûri. Leur rythme de transformation a ralenti ces dernières années. Les « Magnificent 7 » ont dominé ces 5 à 10 dernières années. Mais de nouvelles stars de l’IA pourraient les détrôner. Certains des Mag 7 se portent très bien, d’autres sont davantage questionnés. On revient aux fondamentaux de cette industrie : les nouveaux attaquent les anciens. L’IA apporte plus de destruction créatrice que toute autre ère jusqu’ici.
Pourquoi les grandes entreprises de l’IA ne construiraient-elles pas tout elles-mêmes, y compris des licornes à une seule personne ?
Elles pourraient essayer — et certaines le feront. Mais la vitesse et le coût donnent un avantage aux petites start-ups au niveau des applications. Elles peuvent aller vite et acquérir rapidement des utilisateurs. Aux niveaux infrastructure et modèle, c’est différent : il s’agit de construire de meilleures puces afin d’avoir des IA plus intelligentes. Les entreprises qui travaillent sur l’IAG (Intelligence Artificielle Générale) font le pari que celui qui y parviendra en premier raflera la mise et que les autres risquent de devenir obsolètes. Une incitation très forte car cela ne laisse pas d’option intermédiaire : soit la mort, soit une victoire spectaculaire.
Source link : https://www.lexpress.fr/economie/high-tech/tony-kim-blackrock-les-usines-de-lia-coutent-50-fois-plus-cher-JYN3VGBJVNELHAWE35JOJGHFKQ/
Author : Anne Cagan
Publish date : 2025-07-18 15:00:00
Copyright for syndicated content belongs to the linked Source.