Cette semaine, lors d’une audition devant un groupe parlementaire britannique sur l’intelligence artificielle, Yann LeCun, ancien scientifique en chef de l’IA chez Meta, a présenté une analyse technique des risques et des opportunités associés à l’IA. Diciamoci la vérité : son témoignage est crucial pour les gestionnaires d’investissements. Il aborde trois domaines souvent considérés isolément : les capacités de l’IA, le contrôle de l’IA et l’économie de l’IA.
Les principaux risques liés à l’IA ne se limitent plus à la taille des modèles ou à la puissance des accélérateurs. Ils concernent désormais le contrôle des interfaces des systèmes d’IA. À l’heure actuelle, la question essentielle est de savoir qui gère ces systèmes et comment les flux d’informations sont organisés. Cela soulève des interrogations sur le retour sur investissement des dépenses actuelles centrées sur les modèles de langage.
Index du contenu:
Les risques liés à la souveraineté de l’IA
Selon LeCun, l’un des plus grands défis futurs réside dans le contrôle de l’information exercé par un petit nombre d’entreprises via des systèmes propriétaires. Cela représente une préoccupation non seulement pour les États en matière de sécurité nationale, mais également un risque de dépendance pour les entreprises et les gestionnaires d’investissements. Si les flux de recherche et de prise de décision sont dominés par un nombre restreint de plateformes, la confiance, la résilience, la confidentialité des données et le pouvoir de négociation peuvent s’affaiblir avec le temps.
Approches pour atténuer les risques
Pour atténuer ces risques, LeCun a évoqué le concept de l’apprentissage fédéré. Ce système permet de former des modèles sans avoir accès aux données sous-jacentes, en se basant sur l’échange de paramètres de modèles. En théorie, cela permettrait à un modèle d’agir comme s’il avait été formé sur l’ensemble des données, tout en garantissant que celles-ci ne quittent jamais leur domaine d’origine. Cependant, cette solution n’est pas simple à mettre en œuvre, car elle nécessite une orchestration de confiance entre les parties et des infrastructures cloud sécurisées à une échelle nationale ou régionale.
Les assistants IA : une vulnérabilité stratégique
LeCun a également souligné que nous ne pouvons pas nous permettre de laisser les assistants IA sous le contrôle exclusif d’un nombre restreint d’entreprises, qu’elles soient américaines ou chinoises. Ces outils, loin de rester de simples instruments de productivité, joueront un rôle de plus en plus prépondérant dans le flux d’informations quotidien des utilisateurs. Ce risque de concentration peut renforcer les biais comportementaux et homogénéiser les analyses, ce qui est problématique pour les professionnels de l’investissement.
Dépendance au cloud malgré l’edge computing
Alors que certaines applications peuvent fonctionner sur des appareils locaux, la majorité des traitements devront encore être réalisés dans le cloud. Cela soulève des questions fondamentales de juridiction, de vie privée et de sécurité. Même avec le développement de l’edge computing, les problèmes de contrôle et de dépendance persistent.
Une compréhension erronée des capacités des LLM
LeCun met en garde contre une surestimation des capacités des modèles de langage (LLM). Bien qu’ils soient efficaces dans les tâches linguistiques, leur fluidité ne doit pas être confondue avec une véritable compréhension ou capacité de raisonnement. Loin d’être des systèmes intelligents, ces modèles excellent dans la prédiction de séquences textuelles, mais échouent à saisir la complexité du monde réel.
Modèles du monde et l’avenir après les LLM
Selon LeCun, malgré les succès des systèmes actuels, nous sommes encore loin d’atteindre le niveau d’intelligence observé chez les animaux ou les humains. Il propose le concept de modèles du monde, qui se concentre sur l’apprentissage des comportements du monde plutôt que sur la corrélation linguistique. Cette approche vise à prévoir les conséquences des actions, ce qui est essentiel pour un raisonnement plus profond et une compréhension causale.
Meta et la question des plateformes ouvertes
LeCun reconnaît que la position de Meta a évolué. L’entreprise, qui était autrefois pionnière dans la fourniture de systèmes open-source, a, selon lui, perdu du terrain au cours de l’année dernière. Cela reflète une dynamique sectorielle plus large où la pression concurrentielle et la diffusion rapide des architectures de modèles ont diminué l’avantage architectural pur. Il met en garde contre le fait que ni les États-Unis ni la Chine ne devraient dominer cet espace.
Les systèmes agentiques et la maturité de la gouvernance
Enfin, LeCun souligne que les systèmes agentiques actuels n’ont pas les moyens de prédire les conséquences de leurs actions avant d’agir, ce qui constitue une grave lacune dans la conception de ces systèmes. Pour les gestionnaires d’investissements, cela représente un avertissement : un déploiement prématuré de tels systèmes pourrait conduire à des erreurs dévastatrices. Il est essentiel que les cadres de gouvernance pour l’IA agentique se développent parallèlement aux avancées techniques.
Préserver la souveraineté et éviter la capture d’information
Les principaux risques liés à l’IA ne se limitent plus à la taille des modèles ou à la puissance des accélérateurs. Ils concernent désormais le contrôle des interfaces des systèmes d’IA. À l’heure actuelle, la question essentielle est de savoir qui gère ces systèmes et comment les flux d’informations sont organisés. Cela soulève des interrogations sur le retour sur investissement des dépenses actuelles centrées sur les modèles de langage.0
