• Technology
  • Equipo electrico
  • otro
  • industria de materiales
  • Política de privacidad
  • Sobre nosotras
  • Contacta con nosotras
Localización: Hogar / Technology / Cómo Estados Unidos planea administrar la inteligencia artificial

Cómo Estados Unidos planea administrar la inteligencia artificial

serv |
53

A medida que la Ley de Inteligencia Artificial (AI) de la UE se abre camino a través de múltiples rondas de revisiones a manos de eurodiputados, en los Estados Unidos una organización poco conocida está trabajando silenciosamente en sus propias pautas para ayudar a canalizar el desarrollo de una prometedora pero peligrosatecnología.

En marzo, el Instituto Nacional de Estándares y Tecnología de Maryland (NIST) lanzó un primer borrador de su Marco de Gestión de Riesgos de IA, que establece una visión muy diferente de la UE.

El trabajo está siendo dirigido por Elham Tabassi, un investigador de visión por computadora que se unió a la organización hace poco más de 20 años.Luego, "construimos [IA] sistemas solo porque podríamos", dijo."Ahora nos preguntamos: ¿deberíamos?"

Si bien la Ley de IA de la UE es la legislación, el marco de NIST será completamente voluntario.NIST, como se enfatiza repetidamente, no es un regulador.Fundada a principios del siglo XX, NIST crea estándares y sistemas de medición para tecnologías que van desde relojes atómicos hasta nanomateriales, y el Congreso de los Estados Unidos le pidió que elaborara pautas de IA en 2020.

A diferencia de la Ley de IA de la UE, NIST no destaca ningún uso particular de la IA como límites fuera de los límites (el acto, por el contrario, podría prohibir el reconocimiento facial en los espacios públicos de las autoridades, aunque con excepciones para cosas como el terrorismo).

Y como las pautas de NIST señalan secamente, su marco "no prescribe umbrales de riesgo o valores [de riesgo]."En otras palabras, depende de los desarrolladores sopesar los riesgos y las ventajas de desatar sus sistemas de IA en el mundo.

"Al final del día, realmente creemos que no hay talla única", dijo Tabassi."Depende del propietario de la aplicación, desarrollador [...] Quien esté a cargo, hacer un análisis de beneficios de costos y decidir."El reconocimiento facial de la policía, por ejemplo, es una perspectiva mucho más riesgosa que usarlo para desbloquear un teléfono inteligente, argumenta.Dado esto, prohibir un caso de uso particular no tiene sentido (aunque los textos de compromiso recientes sobre la Ley de AI de la UE sugieren que puede haber excepciones para los teléfonos de desbloqueo).

La Ley de AI de la UE enfatiza repetidamente que debe haber la última "supervisión humana" de AI.Las pautas de NIST no mencionan esto, porque si se necesita o no, todo se reduce a cómo se está utilizando AI."Realmente creemos que la IA tiene que ver con el contexto, y" AI sin humanos "no significa mucho", dijo Tabassi.NIST no está tratando de regular a ese nivel de detalle, de cuándo exactamente un humano debe estar al tanto, enfatiza.

Revolución cultural

En lugar de líneas legales rojas duras en la arena, NIST espera inducir una revolución voluntaria en la cultura del desarrollo de la IA.Quiere que los creadores de IA piensen en los peligros y las trampas de sus sistemas inteligentes antes de que se suelten al público."La gestión de riesgos no debería ser una idea de último momento", dijo Tabassi.

En la práctica, las pautas de NIST podrían implicar que las compañías tecnológicas estadounidenses se sometan a una gran cantidad de supervisión externa cuando crean sus productos de IA.NIST recomienda que un "tercero independiente" o "expertos que no sirvieron como desarrolladores de primera línea" sopesen los pros y los contras de un sistema de inteligencia artificial, consultando a las "partes interesadas" y las "comunidades impactadas."

Ideas similares ya están comenzando a despegar en la industria. The practice of “red teaming", where a company opens up its system to a simulated attack to probe for vulnerabilities, has already been used by some major AI developers, said Sebastien Krier, an AI policy expert at Stanford University."No diría que todavía hay una norma, pero se usa cada vez más."

NIST also wants AI developers to ensure they have “workforce diversity" to make sure AI works for everyone, not just a narrow subset of users.

“It shouldn't really be up to the people that are developing technology, or only to them, to think about the consequences and impact," Tabassi said."Por eso necesitas un grupo muy diverso de personas."

Esto no solo significa equipos demográficos y étnicamente diversos, enfatizó.Las personas que crean sistemas de IA también necesitan tener diversidad disciplinaria, incluidos, por ejemplo, sociólogos, científicos cognitivos y psicólogos..AI no puede simplemente dejarse a una habitación llena de graduados de informática.

Y si un desarrollador decide que un sistema de IA tiene más beneficios que riesgos, debe documentar cómo llegaron a esta decisión, dicen las pautas NIST..Todavía no está claro si estos documentos se harán públicos.

Conflictos de interés

How the US plans to manage artificial intelligence

Esto apunta a un conflicto de intereses obvio con permitir que los desarrolladores de IA decida si sus sistemas son demasiado arriesgados o no.Una nueva herramienta de IA puede permitir que una compañía de tecnología obtenga grandes ganancias al tiempo que causa daños incalculables en el mundo real, como lo hacen las plataformas de redes sociales hoy en día.Esta desalineación de los incentivos, por ahora, no se aborda directamente en el marco NIST, aunque los expertos externos podrían proporcionar una voz más amplia en la toma de decisiones..

“We don't think that it's our job to say what's the acceptable level of risks, what's the acceptable level of the benefits," said Tabassi.“Nuestro trabajo es proporcionar suficiente orientación para que esta decisión pueda hacerse de manera informada.."

Hay muchas sugerencias sobre cómo calmar este conflicto de intereses. One is to demand that AI systems are “loyal": that is, that they truly serve users, rather than the companies that build them, or some other outside interest.

“There's a lot of systems out there that are not transparent about whose incentives they're aligned with," said Carlos Ignacio Gutierrez, an AI policy researcher at the US-based Future of Life Institute, which campaigns to de-risk emerging technologies.

Por ejemplo, una herramienta de navegación podría tener un acuerdo con una compañía de comida rápida, para que desvíe su ruta muy ligeramente para dirigirlo más cerca de una hamburguesa..Más en serio, una aplicación de diagnóstico médico podría programarse para ahorrar dinero a una aseguradora médica, en lugar de hacer lo mejor para el paciente.

“The whole idea behind loyalty is that there's transparency between where these incentives are aligned," said Gutierrez. But currently the concept is not entrenched in either NIST’s guidelines or the EU’s AI Act, he notes.

Inteligencia general artificial

Las pautas de NIST tampoco logran abordar directamente los temores en torno a la creación de la llamada inteligencia general artificial (AGI): un agente capaz de cualquier cosa que un humano pueda hacer, que, si no se alinea inteligentemente con los objetivos humanos, podría salir de nuestro control y, en opinión de varias luminarias de IA y otras figuras, incluido Elon Musk, amenazan la existencia de la misma humanidad..

“Even if the likelihood of catastrophic events is low, their potential impact warrants significant attention," warns the Oxford-based Centre for the Governance of AI in its recent submission to NIST about its guidelines. The UK, although taking a laissez faire attitude to AI in general, did acknowledge the “long term risk of non-aligned Artificial General Intelligence" in its AI strategy last year.

AGI is “not a problem for next five years, maybe a decade," said Tabassi.“¿Pero es hora de planificarlo y entenderlo ahora?Con seguridad." In the US, instead of NIST, worries around AGI are being explored in the National Artificial Intelligence Advisory Committee, a presidential advisory body that last month appointed its first members.

Formando confianza

Tabassi admite que NIST no sabe qué empresas utilizarán su marco y en qué medida.“No, we don't have any leverage on that," she said.

Pero los marcos NIST anteriores sobre la privacidad y la seguridad cibernética han sido adoptados por las empresas, a pesar de ser voluntarios..Las directrices cibernéticas se codificaron dentro de las agencias federales de EE. UU. Y luego se extendieron al sector privado. “The really good scientists that we have here allow us to build trust with the industry," Tabassi said.

Muchas de las empresas tecnológicas más grandes de los Estados Unidos, como Google, IBM, Adobe y Microsoft han enviado recomendaciones o participaron en talleres NIST para ayudar a elaborar las pautas.

Los marcos voluntarios o de "ley blanda" como NIST son adoptadas por la industria cuando las empresas saben que la ley dura que lo respalda está llegando en el camino, o lo será si no limpian su acto, dijo Gutiérrez.

Pero a nivel federal en los EE. UU., No existe la posibilidad de derecho duro en el futuro cercano, aunque algunos estados como Texas e Illinois han creado una legislación que controla el reconocimiento facial.

“So NIST will have to hope that companies find it in their interest to adopt the framework," Gutierrez said."Es una señal para el mercado que dice: Oye, estoy tratando de ser responsable."

Además, señaló, si una empresa de tecnología usa el marco, esto podría limitar los daños otorgados en la corte, si una empresa es demandada por mal funcionamiento de la IA..

Y la ventaja de la ley suave de NIST es su agilidad.El primer marco oficial se lanzará en enero de 2023, cuando la UE probablemente todavía tenga años de disputa sobre su propia legislación de IA por delante.“It's a first step to making this one way of managing risks not the law of land […] but the practice of the land," said Gutierrez.