Aller au contenu
Accueil » Meta freine le développement de certaines IA jugées trop dangereuses

Meta freine le développement de certaines IA jugées trop dangereuses

  • IA

Le PDG de Meta, Mark Zuckerberg, a réaffirmé son engagement à rendre un jour l’intelligence artificielle générale (AGI) accessible à tous. Cette forme avancée d’IA est conçue pour accomplir n’importe quelle tâche réalisable un humain. Cependant, dans un nouveau document de politique interne, Meta envisage des scénarios dans lesquels certains systèmes d’IA très performants ne seraient pas rendus publics.

Baptisé « Frontier AI Framework », ce document identifie deux catégories de systèmes IA jugés trop dangereux pour être déployés : ceux à « haut risque » et ceux à « risque critique ».

Selon Meta, ces systèmes peuvent potentiellement être utilisés dans des cyberattaques, des attaques chimiques ou biologiques. La différence entre les deux niveaux de risque réside dans leur impact : les systèmes à « risque critique » pourraient entraîner des conséquences catastrophiques impossibles à atténuer dans leur contexte d’utilisation, tandis que ceux à « haut risque » faciliteraient ces attaques sans les rendre aussi prévisibles ou inévitables.

Parmi les scénarios évoqués, Meta cite des attaques de cybersécurité automatisées visant des infrastructures protégées selon les meilleures pratiques, ou encore la propagation de bioarmes de grande ampleur. La liste des menaces potentielles n’est pas exhaustive, mais reflète celles que Meta juge les plus pressantes et plausibles en lien avec ses technologies.

Fait notable, Meta ne s’appuie pas sur un test empirique unique pour déterminer ces niveaux de risque. L’évaluation repose plutôt sur l’avis d’experts internes et externes, soumis à la validation de hauts responsables de l’entreprise. Meta estime que la science de l’évaluation des risques n’est pas encore assez avancée pour fournir des métriques quantitatives définitives.

Si un système est jugé à « haut risque », son accès sera restreint en interne jusqu’à ce que des mesures d’atténuation réduisent les dangers à un niveau acceptable. En revanche, pour les systèmes classés « à risque critique », Meta prévoit de mettre en place des protections de sécurité pour éviter toute fuite et d’interrompre leur développement jusqu’à ce qu’ils deviennent moins dangereux.

Le « Frontier AI Framework » s’inscrit dans une stratégie d’adaptation continue aux évolutions du secteur. Ce document, publié en amont du sommet AI Action Summit en France, semble être une réponse aux critiques sur la politique de transparence de Meta en matière d’IA. Contrairement à des entreprises comme OpenAI, qui limitent l’accès à leurs systèmes via une API, Meta mise sur une diffusion plus ouverte de ses technologies, bien que celle-ci ne soit pas totalement en open source.

Cette stratégie a apporté à Meta à la fois des avantages et des inconvénients. Sa famille de modèles d’IA, Llama, a enregistré des centaines de millions de téléchargements, mais a également été exploitée certains adversaires des États-Unis pour développer des outils défensifs automatisés.

Avec cette nouvelle démarche, Meta pourrait aussi vouloir se différencier d’acteurs comme la firme chinoise DeepSeek, qui propose des systèmes d’IA largement accessibles mais dotés de peu de garde-fous, pouvant générer des contenus dangereux.

Meta conclut son document en affirmant son engagement à équilibrer les avantages et les risques de l’IA : « Nous pensons qu’en prenant en compte à la fois les bénéfices et les dangers dans nos décisions de développement et de déploiement, il est possible de proposer cette technologie à la société tout en maintenant un niveau de risque approprié. »

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *