Alors que l’intelligence artificielle (IA) s’impose dans divers secteurs, il est crucial de réévaluer notre interaction avec cette technologie. Lors d’une récente session de témoignage au Parlement britannique, Yann LeCun, figure emblématique de l’IA, a partagé son analyse des enjeux liés à cette discipline. Il a mis en avant les risques de dépendance et l’importance d’une approche diversifiée.
Les débats sur l’IA ne se limitent plus à la taille des modèles ou à la puissance des processeurs. Le véritable défi réside dans le contrôle des systèmes d’IA, la gestion des flux d’informations et la rentabilité des investissements dans les modèles de langage à grande échelle.
Index du contenu:
Les risques de souveraineté en matière d’IA
Un des points critiques soulevés par LeCun est le risque de capture d’informations par un nombre restreint d’entreprises. Cela engendre des préoccupations sur la sécurité nationale et la dépendance des gestionnaires d’investissements et des entreprises. Lorsque les processus de recherche et d’aide à la décision sont dominés par quelques plateformes, la confiance, la résilience et le pouvoir de négociation s’en trouvent affaiblis.
La solution de l’apprentissage fédéré
Pour atténuer ces risques, LeCun a proposé l’idée de l’apprentissage fédéré. Cette méthode permet de former des modèles sans accéder aux données sous-jacentes, en se basant uniquement sur l’échange de paramètres. Théoriquement, cela pourrait aboutir à des modèles aussi performants que s’ils avaient été formés sur l’ensemble des données, tout en préservant la confidentialité de ces dernières.
Cependant, cette approche exige une infrastructure sécurisée à l’échelle nationale ou régionale et une orchestration de confiance entre les parties impliquées. Bien que l’apprentissage fédéré puisse réduire les risques liés à la souveraineté des données, il n’élimine pas le besoin d’une capacité de cloud souveraine et d’un approvisionnement énergétique fiable.
Les assistants IA : une vulnérabilité stratégique
LeCun a également souligné les assistants IA comme une source de potentiel risque. Il a exprimé ses craintes quant à la possibilité que ces outils, influençant de plus en plus nos flux d’informations, soient contrôlés par quelques entreprises dominantes. Une telle concentration pourrait restreindre la diversité des informations et renforcer des biais comportementaux.
La dépendance au cloud et à l’edge computing
Bien que certaines applications d’IA puissent fonctionner localement grâce à l’edge computing, la majorité des traitements nécessiteront encore des ressources en cloud. Cela soulève des questions de juridiction et de sécurité. LeCun a observé que cette dépendance au cloud complique davantage la souveraineté des données.
Les limites des LLM
Une autre critique majeure formulée par LeCun concerne la perception des modèles de langage à grande échelle (LLM). Bien que ces systèmes génèrent un langage fluide, cela ne doit pas être confondu avec une véritable intelligence ou une compréhension du monde. Être compétent en langage ne signifie pas être capable de raisonner ou de saisir des situations complexes.
LeCun a noté que les LLM se concentrent sur la prédiction des mots suivants dans une séquence, sans réelle compréhension des relations causales. Cette distinction est cruciale, car elle sépare les systèmes imitant des modèles de surface de ceux capables d’établir des liens plus profonds.
Vers un modèle mondial d’IA
LeCun a proposé de construire des modèles mondiaux capables de prévoir les conséquences d’actions, ce qui est essentiel pour des systèmes d’IA plus autonomes. Cela nécessite une approche intégrant des données du monde réel, plutôt que de se limiter à des textes ou des LLM.
Les débats sur l’IA ne se limitent plus à la taille des modèles ou à la puissance des processeurs. Le véritable défi réside dans le contrôle des systèmes d’IA, la gestion des flux d’informations et la rentabilité des investissements dans les modèles de langage à grande échelle.0
