Cette semaine, lors d’une session de témoignage au sein du groupe parlementaire britannique sur l’intelligence artificielle, Yann LeCun, ancien responsable de l’IA chez Meta, a partagé ses réflexions sur les enjeux liés à l’IA. En tant que pionnier de ce domaine, ses commentaires sont essentiels pour les gestionnaires d’investissement, car ils touchent à des aspects souvent traités de manière isolée : la capacité de l’IA, le contrôle de l’IA et son impact économique.
Les préoccupations majeures concernant l’IA ne se concentrent plus uniquement sur la taille des modèles ou la puissance des accélérateurs. Elles se déplacent vers la question de savoir qui détient le contrôle sur les interfaces des systèmes d’IA, où se situent les flux d’informations et si les investissements récents centrés sur les modèles de langage (LLM) produiront des retours satisfaisants.
Index du contenu:
Les risques souverains liés à l’IA
Selon LeCun, l’un des principaux risques futurs de l’IA est la concentration d’informations entre les mains d’un petit nombre d’entreprises par le biais de systèmes propriétaires. Pour les États, cela pose un problème de sûreté nationale. Pour les gestionnaires d’investissement et les entreprises, cela représente un risque de dépendance. Si les processus de recherche et d’aide à la décision reposent sur une poignée de plateformes propriétaires, cela pourrait réduire la confiance, la résilience, la confidentialité des données et le pouvoir de négociation au fil du temps.
Apprentissage fédéré comme solution partielle
LeCun a mis en avant l’apprentissage fédéré comme une solution partielle à ce problème. Dans de tels systèmes, les modèles centralisés n’ont pas besoin d’accéder aux données sous-jacentes pour leur formation, se basant plutôt sur l’échange de paramètres de modèle. Cela permettrait à un modèle résultant de fonctionner comme s’il avait été formé sur l’ensemble des données, sans que ces données ne quittent leur domaine d’origine. Toutefois, cette approche n’est pas simple à mettre en œuvre, nécessitant une orchestration de confiance entre les parties et des infrastructures cloud sécurisées à une échelle nationale ou régionale.
Les assistants IA : une vulnérabilité stratégique
LeCun a également exprimé des préoccupations concernant les assistants IA, soulignant qu’il est crucial d’éviter qu’ils ne soient contrôlés par quelques entreprises dominantes. Ces assistants, loin de se limiter à des outils de productivité, interviendront de plus en plus dans les flux d’informations quotidiens, influençant les décisions des utilisateurs. Il a noté que la diversité des assistants IA est essentielle, tout comme la diversité des médias d’information.
Risques de biais comportementaux
Au-delà des scénarios d’utilisation abusive évidents, une réduction des perspectives d’information à travers un nombre restreint d’assistants pourrait renforcer les biais comportementaux et homogénéiser les analyses, ce qui est préoccupant pour les professionnels de l’investissement. LeCun a souligné que, bien que certaines tâches puissent s’exécuter sur des appareils locaux, une grande partie des opérations devra toujours se faire dans le cloud, posant des questions de souveraineté, de privacy et de sécurité.
Capacités des LLM souvent exagérées
Il a également fait remarquer que nous avons tendance à nous laisser tromper par la capacité des modèles de langage à manipuler le langage de manière fluide, ce qui peut être confondu avec une véritable intelligence. Pour les investisseurs, cela remet en question la valeur des dépenses actuelles en IA : combien d’entre elles construisent une intelligence durable, et combien se contentent d’optimiser l’expérience utilisateur autour de la reconnaissance de modèles statistiques ?
Les modèles du monde et l’avenir post-LLM
Le concept de modèles du monde proposé par LeCun se concentre sur l’apprentissage des comportements du monde plutôt que sur la corrélation des mots. Contrairement aux LLM qui prédisent le prochain mot, ces modèles cherchent à anticiper les conséquences des actions. Cette distinction met en lumière l’écart entre la simple reproduction de motifs et les modèles qui sont ancrés dans la causalité.
Les préoccupations de LeCun s’étendent également à la dynamique de l’industrie. Meta, autrefois pionnière dans la fourniture de systèmes open-source, a perdu du terrain face à une concurrence croissante. L’accent se déplace de l’avantage architectural pur vers la distribution de la valeur, soulignant l’importance d’une diversité de systèmes pour éviter une domination excessive par quelques acteurs.
Un appel à la régulation ciblée
Enfin, LeCun a préconisé des régulations qui se concentrent sur les résultats du déploiement plutôt que sur la recherche et le développement, argumentant que des régulations mal ciblées pourraient favoriser les entreprises déjà établies. Il est impératif que les politiques s’attachent à protéger les droits des individus lorsque l’IA a un impact significatif sur leur vie.
Les préoccupations majeures concernant l’IA ne se concentrent plus uniquement sur la taille des modèles ou la puissance des accélérateurs. Elles se déplacent vers la question de savoir qui détient le contrôle sur les interfaces des systèmes d’IA, où se situent les flux d’informations et si les investissements récents centrés sur les modèles de langage (LLM) produiront des retours satisfaisants.0
