• Technologie
  • Équipement électrique
  • Industrie des matériaux
  • La vie numérique
  • politique de confidentialité
  • Ô nom
Emplacement: Accueil / Technologie / Comment les États-Unis prévoient de gérer l'intelligence artificielle

Comment les États-Unis prévoient de gérer l'intelligence artificielle

Plateforme de services à guichet unique |
738

Alors que l'acte d'intelligence artificielle (IA) de l'UE se fraye un chemin à travers plusieurs cycles de révisions aux mains des députés, aux États-Unis, une organisation peu connue travaille tranquillement ses propres directives pour aider à canaliser le développement d'un tel prometteur et pourtant périlleuxLa technologie.

En mars, le National Institute of Standards and Technology (NIST), basé au Maryland, a publié un premier projet de son cadre de gestion des risques d'IA, qui définit une vision très différente de l'UE.

Le travail est dirigé par Elham Tabassi, un chercheur en vision informatique qui a rejoint l'organisation il y a un peu plus de 20 ans.Ensuite, «nous avons construit des systèmes [IA] simplement parce que nous le pouvions», a-t-elle dit.«Maintenant, nous nous demandons: devrions-nous?»

Alors que la loi sur l'IA de l'UE est une législation, le cadre du NIST sera entièrement volontaire.NIST, comme le souligne Tabassi à plusieurs reprises, n'est pas un régulateur.Fondée au début du 20e siècle, le NIST crée plutôt des normes et des systèmes de mesure pour des technologies allant des horloges atomiques aux nanomatériaux, et le Congrès américain a demandé à l'élaboration des directives de l'IA en 2020.

Contrairement à la loi sur l'IA de l'UE, le NIST ne distingue aucune utilisation particulière de l'IA en tant que limites (la loi, en revanche, pourrait interdire la reconnaissance faciale dans les espaces publics par les autorités, bien qu'avec des exceptions pour des choses comme le terrorisme).

Et comme le notent sèches les directives du NIST, son cadre «ne prescrit pas les seuils de risque ou les valeurs [de risque]."En d'autres termes, il appartient aux développeurs de peser les risques et les avantages de libérer leurs systèmes d'IA sur le monde.

"En fin de compte, nous croyons vraiment qu'il n'y a pas de taille unique", a déclaré Tabassi.«C'est au propriétaire de l'application, un développeur […] quiconque est en charge, pour effectuer une analyse des avantages sociaux et décider.«La reconnaissance faciale de la police, par exemple, est une perspective beaucoup plus risquée que de l'utiliser pour déverrouiller un smartphone, soutient-elle.Compte tenu de cela, l'interdiction d'un cas d'utilisation particulier n'a aucun sens (bien que les textes de compromis récents sur la loi sur l'IA UE suggèrent qu'il peut y avoir des exceptions pour le déverrouillage des téléphones).

L'acte de l'IA de l'UE souligne à plusieurs reprises qu'il doit y avoir une «surveillance humaine» ultime de l'IA.Les directives du NIST ne le mentionnent pas, car s'il faut ou non que tout revient à la façon dont l'IA est utilisée."Nous croyons vraiment que l'IA est une question de contexte, et" AI sans humain "ne signifie pas grand-chose", a déclaré Tabassi.NIST n'essaie pas de réguler à ce niveau de détail, quand exactement un humain devrait être dans la boucle, elle souligne.

Révolution culturelle

Au lieu de lignes juridiques rouges dures dans le sable, NIST espère induire une révolution volontaire dans la culture du développement de l'IA.Il veut que les créateurs d'IA réfléchissent aux périls et aux pièges de leurs systèmes intelligents avant qu'ils ne soient lâchés sur le public."La gestion des risques ne devrait pas être une réflexion après coup", a déclaré Tabassi.

Dans la pratique, les directives de NIST pourraient impliquer les entreprises technologiques américaines se soumettant à beaucoup de surveillance extérieure lorsqu'ils créent leurs produits d'IA.Le NIST recommande qu'un «tiers indépendant» ou «des experts qui ne servaient pas de développeurs de première ligne» évaluent les avantages et les inconvénients d'un système d'IA, consultant les «parties prenantes» et les «communautés touchées."

Des idées similaires commencent déjà à décoller dans l'industrie. The practice of “red teaming", where a company opens up its system to a simulated attack to probe for vulnerabilities, has already been used by some major AI developers, said Sebastien Krier, an AI policy expert at Stanford University."Je ne dirais pas encore qu'il y a une norme, mais elle est de plus en plus utilisée."

NIST also wants AI developers to ensure they have “workforce diversity" to make sure AI works for everyone, not just a narrow subset of users.

“It shouldn't really be up to the people that are developing technology, or only to them, to think about the consequences and impact," Tabassi said.«C'est pourquoi vous avez besoin d'un groupe de personnes très diversifié."

Cela ne signifie pas seulement des équipes démographiquement et ethniquement diversifiées, a-t-elle souligné.Les personnes qui créent des systèmes d'IA doivent également avoir une diversité disciplinaire, notamment, disons, des sociologues, des scientifiques cognitifs et des psychologues.L'IA ne peut pas être laissée dans une salle pleine de diplômés en informatique.

Et si un développeur décide qu'un système d'IA a plus d'avantages que les risques, il doit documenter comment il est arrivé à cette décision, disent les directives du NIST.On ne sait pas encore si ces documents seront rendus publics.

Les conflits d'intérêts

How the US plans to manage artificial intelligence

Cela indique un conflit d'intérêts évident avec les développeurs d'IA décider si leurs systèmes sont trop risqués ou non.Un nouvel outil d'IA peut permettre à une entreprise technologique de réaliser d'énormes bénéfices tout en causant des dommages incalculables dans le monde réel, comme le font sans doute les plateformes de médias sociaux aujourd'hui.Ce désalignement des incitations n'est, pour l'instant, pas directement abordé dans le cadre du NIST, bien que les experts externes puissent fournir à la société plus large une voix dans la prise de décision.

“We don't think that it's our job to say what's the acceptable level of risks, what's the acceptable level of the benefits," said Tabassi.«Notre travail consiste à fournir suffisamment de conseils pour que cette décision puisse être prise de manière informée."

Il existe de nombreuses suggestions sur la façon de désamorcer ce conflit d'intérêts. One is to demand that AI systems are “loyal": that is, that they truly serve users, rather than the companies that build them, or some other outside interest.

“There's a lot of systems out there that are not transparent about whose incentives they're aligned with," said Carlos Ignacio Gutierrez, an AI policy researcher at the US-based Future of Life Institute, which campaigns to de-risk emerging technologies.

Par exemple, un outil de navigation peut avoir un accord avec une entreprise de restauration rapide, de sorte qu'il détourne votre itinéraire très légèrement pour vous approcher d'un hamburger.Plus sérieusement, une application de diagnostic médical pourrait en fait être programmée pour économiser de l'argent pour un assureur médical, plutôt que de faire ce qui est le mieux pour le patient.

“The whole idea behind loyalty is that there's transparency between where these incentives are aligned," said Gutierrez. But currently the concept is not entrenched in either NIST’s guidelines or the EU’s AI Act, he notes.

Intelligence générale artificielle

Les directives du NIST ne parviennent pas non plus directement à aborder les craintes autour de la création de l'intelligence générale artificielle (AGI): un agent capable de tout ce qu'un humain peut faire, qui, sinon intelligemment aligné sur les objectifs humains, pourrait sortir de notre contrôle et, du point de vue d'un certain nombre de luminaires d'IA et d'autres figures, dont Elon Musk, menacent l'existence de l'humanité elle-même.

“Even if the likelihood of catastrophic events is low, their potential impact warrants significant attention," warns the Oxford-based Centre for the Governance of AI in its recent submission to NIST about its guidelines. The UK, although taking a laissez faire attitude to AI in general, did acknowledge the “long term risk of non-aligned Artificial General Intelligence" in its AI strategy last year.

AGI is “not a problem for next five years, maybe a decade," said Tabassi.«Mais est-il temps de le planifier et de le comprendre maintenant?Avec certitude." In the US, instead of NIST, worries around AGI are being explored in the National Artificial Intelligence Advisory Committee, a presidential advisory body that last month appointed its first members.

Construire de la confiance

Tabassi admet que NIST ne sait pas quelles entreprises utiliseront son cadre et dans quelle mesure.“No, we don't have any leverage on that," she said.

Mais les cadres NIST précédents sur la vie privée et la cybersécurité ont été adoptés par les entreprises, bien qu'ils soient également volontaires.Les directives des cyber ont été codifiées au sein des agences fédérales américaines, puis se sont propagées au secteur privé. “The really good scientists that we have here allow us to build trust with the industry," Tabassi said.

Beaucoup des plus grandes entreprises technologiques des États-Unis, comme Google, IBM, Adobe et Microsoft, ont soumis des recommandations ou participé à des ateliers NIST pour aider à élaborer les directives.

Des cadres volontaires ou de la «loi douce» comme le NIST sont adoptés par l'industrie lorsque les entreprises savent que la loi haineuse qui le sauvegarde est en cours de route, ou sera si elles ne nettoient pas leur acte, a déclaré Gutierrez.

Mais au niveau fédéral aux États-Unis, il n'y a aucune perspective de droit hard dans un avenir proche, bien que certains États comme le Texas et l'Illinois aient créé une législation contrôlant la reconnaissance faciale.

“So NIST will have to hope that companies find it in their interest to adopt the framework," Gutierrez said.«C'est un signal pour le marché disant, hé, j'essaie d'être responsable."

De plus, a-t-il noté, si une entreprise technologique utilise le cadre, cela pourrait limiter les dommages-intérêts accordés par le tribunal, si et quand une entreprise est poursuivie pour une IA de dysfonctionnement.

Et l'avantage de la douce loi de NIST est son agitation.Le premier cadre officiel devrait être publié en janvier 2023, alors que l'UE aura probablement encore des années de dispute sur sa propre législation sur l'IA.“It's a first step to making this one way of managing risks not the law of land […] but the practice of the land," said Gutierrez.