Banner header_ad

Réévaluation de l’intelligence artificielle : enjeux, risques et opportunités à saisir

Une approche innovante des risques et des stratégies liés à l'intelligence artificielle pour les gestionnaires.

6 min di lettura
Réévaluation de l’intelligence artificielle : enjeux, risques et opportunités à saisir

Cette semaine, lors d’une audition au Parlement britannique,Yann LeCun, ancien chef scientifique de l’IA chez Meta, a partagé une analyse des risques et opportunités liés à l’intelligence artificielle. Son intervention, devant le groupe parlementaire All-Party sur l’Intelligence Artificielle, s’est révélée cruciale pour les gestionnaires d’investissement. Il a abordé trois dimensions essentielles que les marchés financiers doivent intégrer : la capacité de l’IA, le contrôle de l’IA et l’économie de l’IA.

Tag 1 (native)

Les principaux risques associés à l’IA ne se situent plus dans la taille des modèles ou la puissance des accélérateurs. Ils résident désormais dans le contrôle des interfaces des systèmes d’IA, la gestion des flux d’informations et la rentabilité des investissements liés aux modèles de langage.

Les risques souverains liés à l’IA

LeCun a mis en avant un risque fondamental : la concentration d’informations entre les mains d’un nombre restreint d’entreprises via des systèmes propriétaires. Pour les États, cela soulève des préoccupations desouveraineté nationale. Pour les gestionnaires d’investissement, ce phénomène représente un risque de dépendance. Si les flux de recherche et d’aide à la décision sont dominés par quelques plateformes, cela peut diminuer la confiance et la résilience, tout en compromettant la confidentialité des données et le pouvoir de négociation.

Tag 2 (300x250)

Apprentissage fédéré comme solution partielle

LeCun a proposé l’apprentissage fédérécomme une solution partielle pour atténuer ce risque. Ce système permet d’entraîner des modèles sans accéder aux données sous-jacentes, en s’appuyant sur l’échange de paramètres de modèles. En théorie, cela permettrait à un modèle de fonctionner comme s’il avait été formé sur l’ensemble des données, tout en conservant celles-ci dans leur domaine d’origine. Toutefois, cette approche requiert une nouvelle infrastructure, comprenant des orchestrations de confiance entre les parties et des modèles centraux,

Les assistants IA comme vulnérabilité stratégique

LeCun a également souligné que les assistants IA ne seront pas de simples outils de productivité. Ils joueront un rôle central dans les flux d’informations quotidiens, influençant les choix des utilisateurs. Il a insisté sur le fait que la concentration de contrôle à ce niveau est structurelle. La diversité des assistants IA est tout aussi essentielle que celle des médias d’information, car un rétrécissement des perspectives pourrait renforcer des biais comportementaux et uniformiser les analyses, posant

Tag 3 (300x250)

Dépendance au cloud malgré le calcul en périphérie

Bien que certains processus puissent s’exécuter localement, la majorité des opérations continuera d’exiger un traitement dans le cloud. Du point de vue de la souveraineté, le déploiement en périphérie peut alléger certaines charges, mais il ne résout pas les questions de juridiction ou de contrôle. Cela soulève des préoccupations cruciales concernant laconfidentialitéet lasûretédes données.

Surévaluation de la capacité des modèles de langage

LeCun a averti que nous avons tendance à surestimer l’intelligence des grands modèles de langage, souvent confondus avec la capacité de raisonnement. Bien qu’ils soient efficaces en matière de langage, il est primordial de saisir que lafluiditéne doit pas être assimilée à une véritable compréhension du monde. Cette distinction est essentielle pour les systèmes qui se basent sur ces modèles pour la planification et l’exécution, car le monde réel est complexe et chaotique, contrairement à la simplicité du langage.

Pour les investisseurs, cela soulève une question récurrente : combien de dépenses actuelles en IA contribuent réellement à créer une intelligence durable, et combien se limitent à optimiser l’expérience utilisateur autour de la correspondance statistique ?

Les modèles du monde et l’avenir post-LLM

Malgré les performances impressionnantes des systèmes actuels axés sur le langage, nous sommes encore loin de l’intelligence observée chez les animaux ou les humains. Le concept demodèles du monde, défendu par LeCun, vise à comprendre comment le monde fonctionne, plutôt qu’à établir des corrélations linguistiques. Les modèles de langage se concentrent sur la prédiction du mot suivant, tandis que les modèles du monde cherchent à anticiper les conséquences. Cette distinction est cruciale pour différencier la simple reproduction de motifs de modèles basés sur des fondements causaux solides.

Les préoccupations concernant Meta et les plateformes ouvertes

LeCun a reconnu que la position de Meta a évolué, signalant que l’entreprise a perdu du terrain au cours de l’année écoulée en matière de systèmes open-source. Ce changement reflète une dynamique plus large dans l’industrie, où la pression concurrentielle et la diffusion rapide des architectures de modèles ont réduit l’avantage architectural. Il a souligné que cela ne constitue pas uniquement une critique d’une entreprise, mais un risque systémique, affirmant que ni les États-Unis ni la Chine ne devraient dominer ce domaine.

Les principaux risques associés à l’IA ne se situent plus dans la taille des modèles ou la puissance des accélérateurs. Ils résident désormais dans le contrôle des interfaces des systèmes d’IA, la gestion des flux d’informations et la rentabilité des investissements liés aux modèles de langage.0

AI agentique et maturité de la gouvernance

Les principaux risques associés à l’IA ne se situent plus dans la taille des modèles ou la puissance des accélérateurs. Ils résident désormais dans le contrôle des interfaces des systèmes d’IA, la gestion des flux d’informations et la rentabilité des investissements liés aux modèles de langage.1

Régulation : privilégier les applications, pas la recherche

Les principaux risques associés à l’IA ne se situent plus dans la taille des modèles ou la puissance des accélérateurs. Ils résident désormais dans le contrôle des interfaces des systèmes d’IA, la gestion des flux d’informations et la rentabilité des investissements liés aux modèles de langage.2

Maintenir la souveraineté et éviter la capture

Les principaux risques associés à l’IA ne se situent plus dans la taille des modèles ou la puissance des accélérateurs. Ils résident désormais dans le contrôle des interfaces des systèmes d’IA, la gestion des flux d’informations et la rentabilité des investissements liés aux modèles de langage.3