• Tecnología
  • Equipo eléctrico
  • Industria de materiales
  • vida digital
  • política de privacidad
  • oh nombre
Localización: Hogar / Tecnología / 2021 INTELIGENCIA ARTIFICAL Y SISTEMAS AUTOMADOS Revisión legal anual - Gibson Dunn

2021 INTELIGENCIA ARTIFICAL Y SISTEMAS AUTOMADOS Revisión legal anual - Gibson Dunn

techserving |
1604

20 de enero de 2022

Haga clic para PDF

2021 fue un año ajetreado para las propuestas de políticas y la legislación relacionadas con la inteligencia artificial ("IA") y las tecnologías automatizadas. La OCDE identificó 700 iniciativas de políticas de IA en 60 países, y muchos marcos legales nacionales están tomando forma. Intelligence Act, que se espera que finalice en 2022, es probable que los sistemas de IA de alto riesgo se regulen explícita y exhaustivamente en la UE. Si bien se han presentado varias propuestas legislativas de IA en el Congreso, Estados Unidos no ha adoptado una enfoque integral de la regulación de la IA propuesto por la Comisión Europea, centrándose en cambio en la inversión en defensa e infraestructura para aprovechar el crecimiento de la IA.

Sin embargo, reflejando los desarrollos recientes en las leyes de privacidad de datos, hay algunos signos tentativos de convergencia en la formulación de políticas de EE. UU. y Europa, que enfatizan un enfoque basado en el riesgo para la regulación y un enfoque creciente en la ética y la IA "confiable", así como la aplicación. avenidas para los consumidores. En los EE. UU., la administración del presidente Biden anunció el desarrollo de una "carta de derechos de la IA". Además, la Comisión Federal de Comercio ("FTC") de los EE. UU. grandes volúmenes de datos, y parece estar a punto de aumentar tanto la actividad de elaboración de normas como la de cumplimiento en el próximo año. Además, es probable que la nueva Agencia de Protección de la Privacidad de California se encargue de emitir regulaciones que rijan la IA para 2023, lo que se espera que tenga un impacto de gran alcance Finalmente, los principios de gobernanza y los estándares técnicos para garantizar una IA y un ML confiables están comenzando a surgir, aunque queda por ver hasta qué punto los reguladores globales llegarán a un consenso sobre los puntos de referencia clave a través de las fronteras nacionales.

A.U.S. Política nacional

1. Estrategia nacional de IA

Casi tres años después de que el presidente Trump emitiera una orden ejecutiva "Mantener el liderazgo estadounidense en inteligencia artificial" para lanzar la "Iniciativa estadounidense de IA" y buscar acelerar el desarrollo y la regulación de la IA con el objetivo de asegurar el lugar de Estados Unidos como líder mundial en tecnologías de IA, hemos visto un aumento significativo en las medidas legislativas y políticas relacionadas con la IA en los EE. UU., uniendo las administraciones anterior y nueva. cierto hace un año, el gobierno federal de los EE. UU. se ha mostrado activo en la coordinación del liderazgo interinstitucional y en el fomento de la investigación y el desarrollo continuos de tecnologías de inteligencia artificial para uso del gobierno. crecimiento y desarrollo de dichas tecnologías para agencias federales, seguridad nacional y aplicaciones militares. Los legisladores también continuaron el diálogo con sus homólogos de la UE y se comprometieron a trabajar juntos durante una audiencia parlamentaria de la UE el 1 de marzo.[1]Rep. Robin Kelly (D-Ill.) testificó en una audiencia ante el Comité Especial sobre IA de la Unión Europea y señaló que “[n]aciones que no comparten nuestro compromiso con los valores democráticos están compitiendo para ser los líderes en IA y establecer las reglas para la mundo”, [2] Instó a Europa a adoptar un enfoque “estrecho y flexible” hacia la regulación mientras trabaja con los EE. UU. [3]

a) Ley de Iniciativa Nacional de IA de 2020 (parte de la Ley de Autorización de Defensa Nacional de 2021 ("NDAA")) y Oficina Nacional de Iniciativa de IA

De conformidad con la Ley de Iniciativa Nacional de IA de 2020, que fue aprobada el 1 de enero de 2021 como parte de la Ley de Autorización de Defensa Nacional de 2021 (“NDAA”),[4] la OSTP estableció formalmente la Oficina Nacional de Iniciativas de IA (la “Oficina”) el 12 de enero. La Oficina, una de varias oficinas federales nuevas ordenadas por la NDAA—serán responsables de supervisar e implementar una estrategia nacional de IA y actuar como un centro central para la coordinación y colaboración de las agencias federales y las partes interesadas externas en el gobierno, la industria y la academia en la investigación y formulación de políticas de IA.[5 ]La Ley también estableció el Grupo de trabajo nacional de recursos de investigación de IA (el "Grupo de trabajo"), que convocó a un grupo de expertos técnicos de la academia, el gobierno y la industria para evaluar y proporcionar recomendaciones sobre la viabilidad y conveniencia de establecer un Recurso nacional de investigación de IA ( “NAIRR”).[6]El grupo de trabajo desarrollará una hoja de ruta coordinada y un plan de implementación para establecer y mantener una NAIRR, una nube de investigación nacional para proporcionar a los investigadores acceso a recursos computacionales, conjuntos de datos de alta calidad, herramientas educativas y apoyo al usuario. para facilitar oportunidades para la investigación y el desarrollo de IA. El grupo de trabajo presentará dos informes al Congreso para presentar sus hallazgos, conclusiones y recomendaciones: un informe provisional en mayo de 2022 y un informe final en noviembre de 2022.

El 27 de enero de 2021, el presidente Biden firmó un memorando titulado "Restaurar la confianza en el gobierno a través de la ciencia y la integridad y la formulación de políticas basadas en evidencia", poniendo en marcha una amplia revisión de las políticas federales de integridad científica y dirigiendo a las agencias para reforzar sus esfuerzos. para apoyar la toma de decisiones basada en evidencia[7] que se espera que “genere conocimientos importantes y mejores prácticas, incluidas la transparencia y la rendición de cuentas…”[8] El presidente también firmó una orden ejecutiva para reconstituir formalmente el Consejo de Asesores sobre Ciencia y Tecnología del Presidente ,[9] y anunció el establecimiento del Comité Asesor Nacional de IA, que tiene la tarea de brindar recomendaciones sobre varios temas relacionados con la IA, incluido el estado actual de la competitividad económica y el liderazgo, la investigación y el desarrollo, y la aplicación comercial de EE. UU.[10]

b)Ley de Innovación y Competencia (S. 1260)

El 8 de junio de 2021, el Senado de EE. UU. votó 68 a 32 para aprobar la Ley de Innovación y Competencia de EE. UU. (S. 1260), destinada a impulsar la capacidad del país para competir con la tecnología china al invertir más de $ 200 mil millones en innovación científica y tecnológica de EE. UU. durante los próximos cinco años, enumerando la inteligencia artificial, el aprendizaje automático y la autonomía como "áreas clave de enfoque tecnológico".[11] $ 80 mil millones es destinados a la investigación en IA, robótica y biotecnología. Entre varios otros programas y actividades, el proyecto de ley establece una Dirección de Tecnología e Innovación en la Fundación Nacional de Ciencias ("NSF") y refuerza la investigación científica, las líneas de desarrollo, crea subvenciones y tiene como objetivo fomentar acuerdos entre empresas privadas y universidades de investigación para fomentar los avances tecnológicos.

La ley también incluye disposiciones denominadas "Ley de avance de la IA estadounidense"[12] destinadas a "fomentar los programas e iniciativas relacionados con la inteligencia artificial de las agencias que mejoran la competitividad de los Estados Unidos" al tiempo que garantiza el despliegue de la IA "alinear[s ] con los valores de los Estados Unidos, incluida la protección de la privacidad, los derechos civiles y las libertades civiles.”[13]Las disposiciones específicas de AI exigen que el Director de la Oficina de Administración y Presupuesto (“OMB”) desarrolle principios y políticas para el uso de IA en el gobierno, teniendo en cuenta el informe de NSCAI, la Orden Ejecutiva del 3 de diciembre de 2020 "Promoción del uso de inteligencia artificial confiable en el gobierno federal" y los aportes de varios consejos y expertos interinstitucionales.[14 ]

c) Gobernanza algorítmica

También hemos visto nuevas iniciativas tomando forma a nivel federal centradas en la gobernanza algorítmica, que culminaron con el anuncio de la Oficina de Política Científica y Tecnológica de la Casa Blanca ("OSTP") en noviembre El 10 de octubre de 2021, que lanzaría una serie de sesiones de escucha y eventos la semana siguiente para involucrar al público estadounidense en el proceso de desarrollo de una Declaración de derechos para una sociedad automatizada. [15] Según el director de la OSTP, Eric, la ley necesitará “dientes” en forma de aplicación de la contratación. [16] En una acción paralela, la Directora de la Oficina Nacional de Iniciativas de IA, Lynne Parker, hizo comentarios indicando que Estados Unidos debería tener una visión para la regulación de IA similar a la General de la UE. Reglamento de Protección de Datos ("GDPR").[17] Además, en octubre de 2021, la Oficina de Política Científica y Tecnológica ("OSTP") de la Casa Blanca publicó una RFI solicitando comentarios sobre cómo se han desempeñado las tecnologías biométricas en las organizaciones y cómo afectan a las personas. emocional y mentalmente.[18]

En junio de 2021, la Oficina de Responsabilidad del Gobierno de EE. UU. ("GAO") publicó un informe que identifica prácticas clave para ayudar a garantizar la responsabilidad y el uso responsable de la IA por parte de las agencias federales y otras entidades involucradas en el diseño, desarrollo, implementación y monitoreo continuo de Sistemas de IA.[19]El informe identificó cuatro áreas de enfoque clave: (1) organización y gobernanza algorítmica; (2) rendimiento del sistema; (3) documentar y analizar los datos utilizados para desarrollar y operar un sistema de IA; y (4) monitoreo y evaluación continuos del sistema para asegurar la confiabilidad y pertinencia en el tiempo.[20]

Finalmente, el Instituto Nacional de Estándares y Tecnología ("NIST"), encargado por la administración Trump de desarrollar estándares y medidas para la IA, publicó su informe sobre cómo medir y mejorar la confianza del usuario e identificar y gestionar los sesgos, en Tecnología de IA.[21]NIST recibió sesenta y cinco comentarios sobre el documento, y los autores planean sintetizar y usar las respuestas del público para desarrollar la próxima versión del informe y ayudar a dar forma a la agenda de varios eventos virtuales colaborativos que NIST llevará a cabo en próximos meses.[22]

2.Seguridad nacional

a)Informe final de la NSCAI

La Ley de Autorización de la Defensa Nacional de 2019 creó una Comisión de Seguridad Nacional sobre Inteligencia Artificial ("NSCAI") de 15 miembros, y ordenó que el NSCAI “revise y asesore sobre la competitividad de los Estados Unidos en inteligencia artificial, aprendizaje automático y otras tecnologías asociadas, incluidos los asuntos relacionados con la seguridad nacional, la defensa, las asociaciones público-privadas y las inversiones”.[23]Más En los últimos dos años, NSCAI ha emitido múltiples informes, incluidos informes provisionales en noviembre de 2019 y octubre de 2020, dos memorandos trimestrales adicionales y una serie de informes especiales en respuesta a la pandemia de COVID-19.[24]

El 1 de marzo de 2021, la NSCAI presentó su informe final al Congreso y al presidente. Al principio, el informe hace un llamado urgente a la acción, advirtiendo que el gobierno de los EE. UU. actualmente no está lo suficientemente organizado ni tiene los recursos para competir con éxito con otras naciones con respecto a las tecnologías emergentes, ni preparados para defenderse contra las amenazas habilitadas por IA o para adoptar rápidamente aplicaciones de IA con fines de seguridad nacional. En ese contexto, el informe describe una estrategia para que Estados Unidos esté "listo para IA" para 2025 [25] e identifica pasos específicos para mejorar la transparencia pública y proteger la privacidad, las libertades civiles y los derechos civiles cuando el gobierno implementa sistemas de IA. NSCAI respalda específicamente el uso de herramientas para mejorar la transparencia y la explicabilidad: evaluaciones de riesgo e impacto de IA; auditorías y pruebas de sistemas de IA; y mecanismos para brindar el debido proceso y reparación a las personas afectadas negativamente por los sistemas de IA utilizados en el gobierno. El informe también recomienda establecer políticas de gobernanza y supervisión para el desarrollo de IA, que deben incluir "requisitos de auditoría y presentación de informes", un sistema de revisión para "requisitos de alto riesgo". ” sistemas de IA y un proceso de apelación para los afectados. Estas recomendaciones pueden tener implicaciones significativas para la posible supervisión y regulación de la IA en el sector privado. El informe también describe las acciones urgentes que el gobierno debe tomar para promover la innovación en IA para mejorar la competitividad nacional, garantizar talentos y proteger las ventajas críticas de los EE. UU., incluidos los derechos de propiedad intelectual.

b) La Unidad de Innovación de Defensa (DIU) del DOD publicó sus "Pautas de IA responsable"

El 14 de noviembre de 2021, la Unidad de Innovación de Defensa ("DIU") del Departamento de Defensa publicó las "Pautas de IA responsable" que brindan una guía paso a paso para que los desarrolladores externos la usen al construir IA para uso militar. Estas pautas incluyen procedimientos para identificar quién podría usar la tecnología, quién podría verse perjudicado por ella, cuáles podrían ser esos daños y cómo podrían evitarse, tanto antes de que se construya el sistema como una vez que esté en funcionamiento.[26]

c) Ley de Transparencia y Capacidades de Inteligencia Artificial ("AICT")

El 19 de mayo de 2021, los senadores Rob Portman (R-OH) y Martin Heinrich (D-NM), introdujeron la ley bipartidista Artificial Ley de Transparencia y Capacidades de Inteligencia (“AICT”).[27]AICT proporcionaría una mayor transparencia para los sistemas de IA del gobierno, y se basa principalmente en las recomendaciones promulgadas por la Comisión de Seguridad Nacional sobre IA (“NSCAI”) en abril de 2021.[28 ] AICT fue acompañado por la Ley de Inteligencia Artificial para las Fuerzas Armadas (AIM). [29] La Ley AICT establecería un fondo piloto de desarrollo y creación de prototipos de IA dentro del Departamento de Defensa con el objetivo de desarrollar tecnologías habilitadas para IA para las necesidades operativas de las fuerzas armadas, y desarrollaría un plan de recursos para el DOD a fin de permitir el desarrollo, la prueba, el despliegue y la actualización de aplicaciones impulsadas por IA.[30] Ambos proyectos de ley se aprobaron como parte de la Ley de Autorización de la Defensa Nacional para el año fiscal 2022.[31]

B.Protección al consumidor, privacidad y amp; Equidad algorítmica

1. La FTC se centra en la transparencia y la equidad algorítmicas

El 19 de abril de 2021, la FTC emitió una guía que destaca su intención de hacer cumplir los principios de transparencia y equidad con respecto a la decisión algorítmica. -haciendo impactar a los consumidores. La publicación del blog, "Apuntando a la verdad, la justicia y la equidad en el uso de la IA por parte de su empresa", anunció la intención de la FTC de iniciar acciones de cumplimiento relacionadas con los "algoritmos sesgados" en virtud de la sección 5 de la Ley de la FTC, la Fair Credit Reporting Act y la Ley de Igualdad de Oportunidades de Crédito.[32] En particular, la declaración señala expresamente que "la venta o el uso de, por ejemplo, algoritmos racialmente sesgados" cae dentro del alcance de la prohibición de prácticas comerciales desleales o engañosas. La publicación de blog brindó una guía concreta sobre "usar la IA de manera veraz, justa y equitativa", indicando que espera que las empresas "hagan más bien que mal" auditando sus datos de capacitación y, si es necesario, "limitando [ing] dónde o cómo [ellos ] usar el modelo;” probar sus algoritmos en busca de sesgos inadecuados antes y durante el despliegue; empleando marcos de transparencia y estándares independientes; y ser transparente con los consumidores y buscar el consentimiento apropiado para usar los datos del consumidor. La guía también advirtió a las empresas que no hagan declaraciones a los consumidores que "promete demasiado" o tergiversen las capacidades de un producto, y señaló que los resultados sesgados pueden considerarse engañosos y dar lugar a acciones de aplicación de la FTC. .

Esta declaración de intenciones se produjo inmediatamente después de los comentarios de la expresidenta interina de la FTC, Rebecca Kelly Slaughter, el 10 de febrero en el Foro sobre el Futuro de la Privacidad, en los que se presentó una vista previa de las prioridades de aplicación bajo la administración de Biden y se vinculó específicamente el papel de la FTC para abordar el racismo sistémico con el brecha digital, exacerbada por COVID-19, IA y toma de decisiones algorítmicas, tecnología de reconocimiento facial y uso de datos de ubicación de aplicaciones móviles.[33] También sigue la guía informal de la FTC del año pasado que describe los principios y las mejores prácticas en torno a la transparencia, la explicabilidad , sesgo y modelos de datos robustos.[34]

Estas prioridades regulatorias continúan acelerándose bajo la nueva presidenta de la FTC, Lina Khan, quien en noviembre de 2021 anunció varias nuevas incorporaciones a la Oficina de Planificación de Políticas de la FTC, incluidos tres "asesores en inteligencia artificial", Meredith Whittaker, Ambak Kak y Sarah. Meyers West, todos anteriormente en el AI Now Institute de NYU y expertos en varios temas de IA, incluida la responsabilidad algorítmica y la economía política de la IA.[35]

La FTC también tomó medidas para fortalecer sus poderes de ejecución, aprobando una serie de medidas para permitir investigaciones más rápidas sobre posibles violaciones, incluidos problemas relacionados con el sesgo en algoritmos y biometría.[36]Además, el 27 de julio de 2021, la El tecnólogo en jefe de la FTC, Erie Meyer, comentó que la agencia prevé exigir a las empresas que se involucran en usos ilegales de datos que “no solo devuelvan datos y dinero”, sino también “algoritmos que fueron aprovechados por datos obtenidos ilegalmente”.[37]Sen. Mike Lee, republicano de Utah, posteriormente presentó un proyecto de ley el 15 de diciembre de 2021 que le daría a la FTC la autoridad para buscar restitución en la corte de distrito federal, luego de que la Corte Suprema de los EE. UU. dictaminara en abril que el poder de la agencia para buscar órdenes judiciales de un juez federal no incluye la capacidad de solicitar la restitución o devolución de ganancias obtenidas ilícitamente.[38]La Ley de Protección al Consumidor y Debido Proceso propuesta enmendaría la Sección 13(b) de la Ley de la Comisión Federal de Comercio para dar a la FTC la autoridad explícita para solicitar una juez federal para permitirle recuperar dinero de estafadores e infractores antimonopolio.[39]

La FTC también identificó los "patrones oscuros" como una preocupación creciente y un punto focal de cumplimiento. Los patrones oscuros pueden definirse vagamente como técnicas para manipular a un consumidor para que tome un curso de acción no deseado utilizando usos novedosos de la tecnología (incluida la IA), en particular diseño de la experiencia del usuario (UX), por ejemplo, un bot de servicio al cliente, una garantía no deseada o una suscripción de prueba que se convierte en pago.[40]En un taller virtual de la FTC para examinar patrones oscuros, el director interino de la Oficina de Protección al Consumidor, Daniel Kaufman, sugirió que las empresas pueden esperar una aplicación agresiva de la FTC en esta área y que la FTC utilizará la Sección 5 de la Ley de la FTC y la Ley de Restauración de la Confianza de los Compradores en Línea para ejercer su autoridad mediante la promulgación de nuevas reglas, declaraciones de políticas o guías de aplicación. [41]

Recomendamos que las empresas que desarrollen o implementen la toma de decisiones automatizada adopten un enfoque de "ética por diseño" y revisen y fortalezcan las políticas internas de gobernanza, diligencia y cumplimiento. sanciones e imponer obligaciones de eliminación de algoritmos, modelos o datos.

2. Oficina de Protección Financiera del Consumidor

La CFPB, ahora encabezada por el excomisionado de la FTC, Rohit Chopra, sugirió que podría usar la Ley de informes crediticios justos (FCRA, por sus siglas en inglés) para ejercer jurisdicción sobre las grandes empresas de tecnología y sus prácticas comerciales.[42]La FCRA ha regulado tradicionalmente las actividades de las oficinas de crédito, las empresas de verificación de antecedentes y los servicios de selección de inquilinos, pero Chopra ha hecho varias declaraciones de que los datos subyacentes utilizados por los gigantes tecnológicos pueden desencadenar obligaciones en virtud de la FCRA. La FCRA define una agencia de informes del consumidor de manera bastante amplia para incluir empresas que ensamblan, evalúan y venden datos a terceros que usan los datos para tomar decisiones de elegibilidad sobre los consumidores. , de hecho, se vende a terceros y cómo se puede utilizar posteriormente.

En noviembre, la CFPB emitió una opinión consultiva en la que afirma que las empresas de informes de los consumidores, incluidas las empresas de selección de inquilinos y de empleo, están violando la ley si se involucran en procedimientos descuidados de coincidencia de nombres.[43]La CFPB está particularmente preocupada por los algoritmos. de empresas de verificación de antecedentes que asignan una identidad falsa a los solicitantes de empleo y vivienda debido a informes de verificación de antecedentes llenos de errores que pueden afectar desproporcionadamente a las comunidades de color. La opinión consultiva reafirma las obligaciones y los requisitos de las empresas de informes del consumidor de utilizar procedimientos razonables para precisión posible.

3.EE.UU. Comisión para la Igualdad de Oportunidades en el Empleo

La Comisión para la Igualdad de Oportunidades en el Empleo de EE. UU. planea revisar cómo se aplican las herramientas y la tecnología de IA a las decisiones laborales.[44]La iniciativa de la EEOC examinará más de cerca cómo la tecnología está cambiando fundamentalmente la forma en que el empleo se toman decisiones. Su objetivo es guiar a los solicitantes, empleados, empleadores y proveedores de tecnología para garantizar que estas tecnologías se utilicen de manera justa, de conformidad con las leyes federales de igualdad de oportunidades en el empleo.

4.Reconocimiento facial y tecnologías biométricas

a)Cumplimiento

En enero de 2021, la FTC anunció su acuerdo con Everalbum, Inc. en relación con su "aplicación Ever" una aplicación de almacenamiento de fotos y videos que usaba tecnología de reconocimiento facial para clasificar y "etiquetar" automáticamente las fotografías de los usuarios.[45] La FTC alegó que Everalbum tergiversó a los consumidores sobre el uso de la tecnología de reconocimiento facial y la retención de las fotos y videos de usuarios que desactivaron sus cuentas en violación de la Sección 5(a) de la Ley de la FTC. De conformidad con el acuerdo de conciliación, Everalbum debe eliminar los modelos y algoritmos que desarrolló utilizando las fotos y videos subidos por los usuarios y obtener el consentimiento expreso de sus usuarios antes de aplicar tecnología de reconocimiento facial, lo que subraya el surgimiento de la eliminación como una posible medida de cumplimiento. Un requisito para eliminar datos, modelos y algoritmos desarrollados mediante el uso de datos recopilados sin consentimiento expreso podría representar una obligación correctiva significativa con implicaciones más amplias para los desarrolladores de IA.

Señalando el potencial para aumentar la regulación y el cumplimiento en esta área, el comisionado de la FTC, Rohit Chopra, emitió una declaración adjunta que describía el acuerdo como una "corrección de rumbo", comentando que la tecnología de reconocimiento facial es "fundamentalmente defectuosa y refuerza los sesgos dañinos", al tiempo que destaca la importancia de los “esfuerzos para promulgar moratorias o restringir severamente su uso”. Sin embargo, el Comisionado también advirtió contra la “amplia preferencia federal” sobre la protección de datos y señaló que la autoridad para regular los derechos de datos debe permanecer a nivel estatal.[46]Nosotros monitoreará cuidadosamente cualquier otra acción de cumplimiento por parte de la FTC (y otros reguladores), así como la lista de juicios pendientes que alegan la recopilación ilícita de datos biométricos utilizados por tecnologías automatizadas de conformidad con un número creciente de leyes estatales de privacidad, como Biometric de Illinois. Ley de privacidad de la información (“BIPA”)[47], y recomendar que las empresas que desarrollan o utilizan tecnologías de reconocimiento facial busquen asesoramiento legal específico con respecto a los requisitos de consentimiento en torno a los datos biométricos, así como que desarrollen procesos sólidos de evaluación de riesgo y diligencia de inteligencia artificial para terceros. aplicaciones de IA.

b)Legislación

La tecnología de reconocimiento facial también atrajo una atención renovada de los legisladores federales y estatales en 2021. El 15 de junio de 2021, un grupo de senadores demócratas reintrodujo la Ley de moratoria de tecnología biométrica y reconocimiento facial, que prohibiría a las agencias el uso de tecnología de reconocimiento facial y otra tecnología biométrica, incluido el reconocimiento de voz, el reconocimiento de puertas y el reconocimiento de otras características físicas inmutables, por parte de las entidades federales, y bloquearía los fondos federales para los sistemas de vigilancia biométrica.[48] Se presentó un proyecto de ley similar en ambas cámaras en el Congreso anterior, pero no salió del comité.[49]La legislación, que cuenta con el respaldo de la ACLU y muchas otras organizaciones de derechos civiles, también proporciona un derecho privado de acción para las personas cuyos datos biométricos se utilizan en violación de la ley (aplicada por los fiscales generales del estado), y busca limitar el uso de tecnologías biométricas por parte de las entidades locales al vincular la recepción de fondos de subvenciones federales a prohibiciones localizadas de tecnología biométrica. Cualquier dato biométrico recopilado en violación de las disposiciones del proyecto de ley uso en procesos judiciales.

2021 Inteligencia artificial y sistemas automatizados Anual Legal Revisión - Gibson Dunn

A nivel estatal, Virginia aprobó una prohibición sobre el uso de la tecnología de reconocimiento facial por parte de las fuerzas del orden (H.B. 2031). La legislación, que ganó un amplio apoyo bipartidista, prohíbe que todas las agencias locales de aplicación de la ley y los departamentos de policía del campus compren o usen tecnología de reconocimiento facial, a menos que esté expresamente autorizada por la legislatura estatal.[50]La ley entró en vigencia el 1 de julio de 2021. Virginia se une a California, así como a numerosas ciudades de los EE. UU., para restringir el uso de la tecnología de reconocimiento facial por parte de las fuerzas del orden. .[51]

5. Responsabilidad Algorítmica

a) Ley de Transparencia de Plataformas en Línea y Justicia Algorítmica de 2021 (S. 1896)

El 27 de mayo de 2021, el Senador Edward J. Markey (D -Massachusetts) y la congresista Doris Matsui (CA-06) introdujeron la Ley de justicia algorítmica y transparencia de plataformas en línea de 2021 para prohibir los algoritmos dañinos, aumentar la transparencia en las prácticas de moderación y amplificación del contenido de los sitios web, y encargar una investigación intergubernamental sobre algoritmos algorítmicos discriminatorios. procesos en toda la economía nacional.[52]La Ley prohibiría los procesos algorítmicos en plataformas en línea que discriminen por motivos de raza, edad, género, capacidad y otras características protegidas. Además, establecería un estándar de seguridad y eficacia para los algoritmos y exigir que las plataformas en línea describan los procesos algorítmicos en un lenguaje sencillo para los usuarios y mantengan registros detallados de estos procesos para su revisión por parte de la FTC.

b) Ley de Tecnología de Seguridad del Consumidor, o AI para la Ley de Seguridad de Productos del Consumidor (H.R. 3723)

El 22 de junio de 2021, la Cámara votó 325-103 para aprobar la Ley de Tecnología de Seguridad del Consumidor, o AI para la Ley de Seguridad de Productos del Consumidor (H.R. 3723), que requiere que la Comisión de Seguridad de Productos del Consumidor cree un programa piloto que utilice IA para explorar cuestiones de seguridad del consumidor, como tendencias de lesiones, peligros de productos, productos retirados del mercado o productos que no deben importarse al EE. UU.[53]Esta es la segunda vez que la Ley de Tecnología para la Seguridad del Consumidor se aprueba en la Cámara. El año pasado, luego de ser aprobado por la Cámara, el proyecto de ley no progresó en el Senado luego de ser remitido al Comité de Comercio, Ciencia y Transporte.[54 ]

c) Ley de Protección de Datos de 2021 (S. 2134)

En junio de 2021, la Senadora Kirsten Gillibrand (D-NY) presentó la Ley de Protección de Datos de 2021, que crearía una agencia federal independiente para proteger los datos y la privacidad de los consumidores.[55]El enfoque principal de la agencia sería proteger la privacidad de las personas en relación con la recopilación, el uso y el procesamiento de datos personales.[56]El proyecto de ley define el "sistema de decisiones automatizado" como "un proceso, incluido uno derivado del aprendizaje automático, las estadísticas u otras técnicas de procesamiento de datos o de inteligencia artificial, que toma una decisión o facilita la toma de decisiones por parte de los humanos”. práctica de datos” que requiere una evaluación de impacto después de la implementación y una evaluación de riesgo en el desarrollo y diseño del sistema, incluida una descripción detallada de la práctica, incluido el diseño, la metodología, los datos de capacitación y el propósito, así como cualquier impacto dispar y daños a la privacidad.[58 ]

d)Ley de transparencia de la burbuja de filtros

El 9 de noviembre de 2021, un grupo bipartidista de legisladores de la Cámara de Representantes presentó una legislación que daría a las personas más control sobre los algoritmos que dan forma a su experiencia en línea.[59]Si se aprueba , la Ley de Transparencia de la Burbuja de Filtro requeriría que empresas como Meta ofrezcan una versión de sus plataformas que se ejecute en un algoritmo "transparente de entrada" que no extraiga los datos del usuario para generar recomendaciones; en otras palabras, brindar a los usuarios una opción para optar por no recibir fuentes de contenido algorítmico basadas en datos personales. Esta legislación de la Cámara es un proyecto de ley complementario a la legislación del Senado presentada en junio de 2021.

e)Deepfake Task Force Act

El 29 de julio, los senadores Gary Peters (D-Mich.) y Rob Portman (R-Ohio) introdujeron una legislación bipartidista que crearía un grupo de trabajo dentro del Departamento de El Departamento de Seguridad Nacional (DHS, por sus siglas en inglés) tiene la tarea de producir un plan para reducir la propagación y el impacto de las imágenes y videos manipulados digitalmente y casi indistinguibles de las imágenes auténticas.[60] realizar un estudio anual de deepfakes.

6.Regulaciones estatales y municipales

a)Los legisladores del estado de Washington presentan un proyecto de ley para regular AI, S.B. 5116

Inmediatamente después del histórico proyecto de ley de reconocimiento facial de Washington (S.B. 6280) promulgado el año pasado,[61] los legisladores estatales y los defensores de los derechos civiles propusieron nuevas reglas para prohibir la discriminación que surge de la toma de decisiones automatizada por parte de las agencias públicas. .[62]El proyecto de ley, patrocinado por el Senador Bob Hasegawa (D-Beacon Hill), establecería nuevas regulaciones para los departamentos gubernamentales que usan “sistemas de decisiones automatizados”, una categoría que incluye cualquier algoritmo que analiza datos para hacer o respaldar decisiones gubernamentales.[63]Si se promulga, las agencias públicas en el estado de Washington tendrían prohibido usar sistemas de decisiones automatizados que discriminen a diferentes grupos o tomen decisiones finales que afecten los derechos constitucionales o legales de un residente de Washington. El proyecto de ley también prohíbe a las agencias gubernamentales uso de perfiles habilitados para IA en espacios públicos. Se requerirían informes de rendición de cuentas disponibles públicamente que aseguren que la tecnología no es discriminatoria antes de que una agencia pueda usar un sistema de decisión automatizado.

b) Proyecto de ley del Ayuntamiento de Nueva York aprobado para prohibir a los empleadores el uso de herramientas de contratación automatizadas sin una auditoría anual para determinar el impacto discriminatorio

El 10 de noviembre de 2021, el Ayuntamiento de Nueva York aprobó un proyecto de ley que prohíbe la contratación de IA sistemas que no pasan auditorías anuales que verifican la discriminación por motivos de raza o género. proceso para revisar su solicitud. La legislación impondría multas a los empleadores o agencias de empleo de hasta $1,500 por infracción.

C. Propiedad intelectual

1. Thaler v. Hirshfeld

Históricamente, la propiedad intelectual ha ofrecido una protección incierta a las obras de IA. obras e invenciones. Por ejemplo, en los Estados Unidos, la ley de patentes ha rechazado la noción de un inventor no humano. [65] El Circuito Federal ha mantenido consistentemente este enfoque. [66] desafíos al paradigma. Primero, el equipo creó DABUS, el "Dispositivo para el arranque autónomo de la sensibilidad unificada", un sistema de inteligencia artificial que ha creado varios inventos. [67] El proyecto luego se asoció con abogados para presentar casos de prueba en los Estados Unidos. , Australia, la UE y el Reino Unido.[68] Estos casos ambiciosos cosecharon resultados mixtos, que probablemente divergirán aún más a medida que prolifere la inventiva de la IA.

En los Estados Unidos, DABUS figuraba como el "único inventor" en dos solicitudes de patentes.[69]En respuesta, la USPTO emitió un Aviso para presentar las partes faltantes de una solicitud no provisional porque la "hoja de datos de la solicitud o juramento o declaración no identificó a cada inventor o su nombre legal” y enfatizó que la ley requería que la invención “debe ser realizada por una persona física”. [70] Los solicitantes de patentes solicitaron una revisión en el Distrito Este de Virginia , que estuvo de acuerdo con la USPTO.[71]El Proyecto Inventor Artificial enfrentó reveses comparables en Europa. La Oficina Europea de Patentes ("EPO") rechazó solicitudes de patentes similares, sosteniendo que el marco legal del sistema europeo de patentes lleva a la conclusión de que el la ley requiere la inventiva humana.[72]La Junta Legal de Apelación sostuvo de manera similar que, según el Convenio de Patentes Europeas, las patentes requieren la inventiva humana.[73]A DABUS no le fue mejor en los tribunales de patentes del Reino Unido, que sostuvieron que la Ley de Patentes exige que un inventor una persona.[74] Por el contrario, la oficina de patentes de Sudáfrica otorgó la primera patente para un inventor de IA. [75] Un líder del equipo legal explicó el resultado diferencial: en el Reino Unido, la solicitud de patente se "consideró retirada" por no cumplir asociado con la presentación de los formularios de patentes; sin embargo, “Sudáfrica sí lleva a cabo un examen de las formalidades y lo emitió, según se requiere, sobre la base de la designación en la solicitud internacional (Tratado de Cooperación en materia de Patentes [PCT]), que fue previamente aceptada por la OMPI”.[76]Semanas después , el Tribunal Federal de Australia también sostuvo que la invención de la IA no era un obstáculo para la patentabilidad.[77]Pero vale la pena señalar que el sistema de patentes de Australia no emplea un sistema de examen sustantivo de patentes.

Si bien los desarrollos en Sudáfrica y Australia alientan a los inventores de IA, no hay ninguna promesa de armonización. En cambio, es más probable un enfoque de mosaico. Es probable que Estados Unidos y Europa mantengan la opinión de que la IA es una herramienta de inventor, pero no un inventor.

2.Google LLC v. Oracle America, Inc.

El 5 de abril de 2021, la Corte Suprema de EE. UU. falló a favor de Google en una demanda de derechos de autor multimillonaria presentada por Oracle, sosteniendo que Google no infringió los derechos de autor de Oracle conforme a la doctrina del uso justo cuando utilizó material de las API de Oracle para construir su plataforma de teléfono inteligente Android. En aras del argumento, el material tenía derechos de autor, "la copia aquí en cuestión, no obstante, constituía un uso justo". para trabajar en un programa nuevo y transformador, la copia de Google de la API Sun Java fue un uso justo de ese material como cuestión de derecho”. otros tipos de código informático al determinar que los cuatro factores rectores establecidos en la disposición de uso justo de la Ley de derechos de autor pesaban a favor del uso justo.[81]

Si bien el fallo parece girar en torno a este caso en particular, es probable que tenga repercusiones para la IA y los creadores de plataformas.[82]La aplicación de uso justo del Tribunal podría ofrecer una vía para que las empresas aboguen por la copia de etiquetas organizacionales sin una En particular, el Tribunal declaró que el uso comercial no inclina necesariamente la balanza en contra del uso justo, particularmente cuando el uso del material copiado es transformador. Esto podría ayudar a las empresas que buscan usar contenido para entrenar sus algoritmos a un costo menor, dejando de lado posibles consideraciones de privacidad (como bajo BIPA). Mientras tanto, a las empresas también les puede resultar más difícil gobernar y supervisar programas competitivos que usan su código API para la compatibilidad con sus plataformas.

D.Cuidado de la salud

1.Plan de acción de la FDA para dispositivos médicos de IA

En enero de 2021, la Administración de Alimentos y Medicamentos (FDA) de EE. UU. presentó su primer plan de acción de cinco partes se centró en el software como dispositivo médico (SaMD) basado en inteligencia artificial/aprendizaje automático (AI/ML). comentarios recibidos del documento de debate de abril de 2019, "Marco normativo propuesto para modificaciones del software basado en inteligencia artificial/aprendizaje automático como dispositivo médico".[83]La visión declarada de la FDA es que "con una supervisión normativa basada en el ciclo de vida El SaMD basado en IA/ML "ofrecerá una funcionalidad de software segura y eficaz que mejorará la calidad de la atención que reciben los pacientes".[84]

Como se propuso en el Plan de acción de enero de 2021 de la FDA, en octubre de 2021 la FDA realizó un taller público sobre cómo el intercambio de información sobre un dispositivo respalda la transparencia para todos los usuarios de dispositivos médicos habilitados para IA/ML.[85]El propósito declarado de el taller fue doble: (1) para “identificar consideraciones únicas para lograr la transparencia para los usuarios de dispositivos médicos habilitados para IA/ML y las formas en que la transparencia podría mejorar la seguridad y la eficacia de estos dispositivos”; y (2) “reunir aportes de varias partes interesadas sobre los tipos de información que sería útil para que un fabricante incluyera en el etiquetado y la información pública de los dispositivos médicos habilitados para IA/ML, así como otros posibles mecanismos para compartir información .”[86]

El taller tuvo tres módulos principales sobre (1) el significado y el papel de la transparencia; (2) cómo promover la transparencia; y (3) una sesión para comentarios públicos abiertos.[87] Los paneles específicos cubrieron temas como las impresiones de los pacientes y las perspectivas de los médicos sobre la transparencia de la IA, el papel de la FDA en la promoción de la transparencia y la promoción de la transparencia desde la perspectiva de un desarrollador.[88] Después del taller, la FDA solicitó comentarios públicos sobre el taller antes del 15 de noviembre de 2021, para que se tomen en cuenta en el futuro.[89]

2.FDA lanza una lista de dispositivos médicos habilitados para IA y aprendizaje automático

El 22 de septiembre de 2021, la FDA compartió su lista preliminar de SaMD basados ​​en IA/ML que se comercializan legalmente en los EE. UU. a través de la autorización 510(k), la autorización De Novo o la aprobación previa a la comercialización (PMA).[90]La agencia desarrolló esta lista para aumentar la transparencia y el acceso a la información sobre los SaMD basados ​​en AI/ML, y para actuar “como un recurso para el público con respecto a estos dispositivos y el trabajo de la FDA en el espacio”. [91] El esfuerzo viene junto con el creciente interés en desarrollar tales productos para contribuir a una amplia variedad de esferas clínicas, y el creciente número de empresas que buscan incorporar tecnología AI/ML en dispositivos médicos. La FDA señaló que uno de "los mayores beneficios potenciales de ML reside en su capacidad para crear nuevos e importantes conocimientos a partir de la gran cantidad de datos generados durante la prestación de atención médica todos los días".[92]

E.Vehículos autónomos ("AV")

1.U.S. Acontecimientos federales

En junio de 2021, el representante Bob Latta (R-OH-5) volvió a presentar la Ley de Investigación e Implementación Futura de Garantía de Vidas Seguras ("Ley SELF DRIVE") (H.R. 3711), que crear un marco federal para ayudar a las agencias e industrias a implementar AV en todo el país y establecer un Consejo Asesor de Vehículos Altamente Automatizados dentro de la Administración Nacional de Seguridad del Tráfico en las Carreteras ("NHTSA"). El representante Latta había presentado previamente el proyecto de ley el 23 de septiembre de 2020, y en sesiones anteriores[93].

También en junio de 2021, el Departamento de Transporte ("DOT") publicó su "Agenda reglamentaria de primavera" y propuso que la NHTSA estableciera estándares de prueba rigurosos para vehículos autónomos, así como una base de datos de incidentes nacionales para documentar choques que involucren vehículos autónomos.[94 ] El DOT indicó que habrá oportunidades para comentarios públicos sobre las propuestas.

El 29 de junio de 2021, la NHTSA emitió una orden general permanente que exige a los fabricantes y operadores de vehículos con sistemas avanzados de asistencia al conductor (ADAS) o sistemas de conducción automatizada (ADS) que informen los accidentes.[95]ADAS es una característica cada vez más común en vehículos nuevos en los que el vehículo puede controlar ciertos aspectos de la dirección y la velocidad. Los vehículos equipados con ADS son lo que se denomina coloquialmente "vehículos autónomos" y actualmente no están en el mercado. La Orden requiere que las empresas informen los accidentes dentro de un día después de enterarse del accidente si el accidente involucró una “lesión tratada en un hospital, una muerte, el remolque de un vehículo, el despliegue de una bolsa de aire o un usuario vulnerable de la vía, como un peatón o un ciclista”.[96] el informe actualizado también debe presentarse 10 días después de que la empresa se enteró del accidente.[97] La ​​orden también requiere que las empresas informen mensualmente todos los demás accidentes que involucren un vehículo equipado con ADS que involucren lesiones o daños a la propiedad.[98]Todos los informes presentados a la NHTSA deben actualizarse mensualmente con información nueva o adicional.[99]

NHTSA también solicitó comentarios públicos en respuesta a su Aviso anticipado de reglamentación propuesta ("ANPRM"), "Marco para la seguridad del sistema de conducción automatizada", hasta el primer trimestre de 2021.[100] El ANPRM reconoció que el anterior AV- los avisos reglamentarios relacionados “se han centrado más en el diseño de los vehículos que pueden estar equipados con un ADS, no necesariamente en el desempeño del ADS en sí mismo”. [101] ADS a través de un marco de seguridad, y específicamente si cualquier procedimiento de prueba para cualquier Estándar Federal de Seguridad de Vehículos Motorizados ("FMVSS") debe ser reemplazado, derogado o modificado, por razones distintas a las consideraciones relevantes solo para ADS. NHTSA señaló que "[a Aunque el establecimiento de un FMVSS para ADS puede ser prematuro, es apropiado comenzar a considerar cómo la NHTSA puede usar adecuadamente su autoridad reguladora para fomentar un enfoque en la seguridad a medida que la tecnología ADS continúa desarrollándose”, enfatizando que su enfoque se centrará en sistemas flexibles. “enfoques y métricas orientados al desempeño” sobre las características de diseño específicas de las reglas u otros requisitos técnicos.[102]

2.Legislación de vehículos automatizados de Iowa

En 2019, la legislatura de Iowa aprobó una ley que permite que los vehículos sin conductor operen en las carreteras públicas de Iowa sin conductor, si el vehículo cumple con ciertas condiciones que incluyen que el vehículo debe ser capaz de alcanzar un riesgo mínimo si el sistema de conducción automatizado no funciona correctamente. También requiere que el sistema del vehículo cumpla con las leyes de tránsito de Iowa, y el fabricante debe certificar que un fabricante cumple con todos los estándares federales de seguridad de vehículos motorizados aplicables.[ 103] En agosto de 2021, la Comisión de Transporte de Iowa aprobó reglas para vehículos automatizados. Estas regulaciones incluyen requisitos de que un "fabricante o entidad no probará vehículos sin conductor en Iowa sin un permiso válido", e impone restricciones sobre quién puede calificar para un permiso de vehículo sin conductor. el sistema de conducción automatizada está activado.”[105]

F.Servicios financieros

En medio de la creciente adopción de IA en el espacio de los servicios financieros, el año también trajo un impulso renovado para regular dichos avances tecnológicos. Las agencias federales lideraron la carga emitiendo numerosas regulaciones nuevas y anticipando más por venir en 2022.

La Corporación Federal de Seguros de Depósitos (FDIC), la Junta de Gobernadores del Sistema de la Reserva Federal y la Oficina del Contralor de la Moneda se unieron para emitir una nueva regla de informes de seguridad cibernética.[106]La regla se aplica a todas las actividades bancarias Organizaciones[107] regidas por la agencia y obliga a las Organizaciones bancarias a notificar a sus principales reguladores federales dentro de las 36 horas de cualquier “incidente de seguridad informática” lo suficientemente grave.[108]La regla entra en vigencia el 1 de abril de 2022 y todas las entidades reguladas deben cumplir antes del 1 de mayo de 2022.[109]

Además de las regulaciones recientemente emitidas, numerosas agencias señalaron su deseo de regular los avances tecnológicos en los servicios financieros tan pronto como a principios de 2022. Cinco agencias mantuvieron en forma conjunta un período abierto de comentarios sobre el "Uso de inteligencia artificial de las instituciones financieras" a partir del 31 de marzo de 2021, hasta el 1 de julio de 2021, para "comprender los puntos de vista de los encuestados sobre el uso de la IA por parte de las instituciones financieras en la prestación de servicios a los clientes". RFI arrojaría luz específicamente sobre el problema de la IA que potencialmente viola las leyes de protección al consumidor al impactar de manera dispar en una clase protegida, entre otros problemas. [111] tecnología avanzada por diversas formas de entidades de servicios financieros.

A. Unión Europea

1. Proyecto de ley de la CE para la regulación de la IA en toda la UE

El 21 de abril de 2021, la Comisión Europea ("CE") presentó su muy esperado borrador integral de un Reglamento de IA (también conocido como la "Ley de Inteligencia Artificial"). , el borrador llega inmediatamente después de una variedad de publicaciones y esfuerzos políticos en el campo de la IA con el objetivo de colocar a la UE a la vanguardia tanto de la regulación como de la innovación de la IA. La Ley de Inteligencia Artificial propuesta cumple la promesa del presidente de la CE de poner propondrá legislación para un enfoque europeo coordinado sobre las implicaciones humanas y éticas de la IA[113] y sería aplicable y vinculante en los 27 Estados miembros de la UE.

Para "lograr el doble objetivo de promover la adopción de la IA y abordar los riesgos asociados con ciertos usos de dicha tecnología"[114], la CE generalmente opta por un enfoque basado en el riesgo en lugar de una prohibición tecnológica general. .Sin embargo, la Ley de Inteligencia Artificial también contiene prohibiciones absolutas de ciertas "prácticas de IA" y algunas disposiciones de gran alcance dirigidas a "sistemas de IA de alto riesgo", que recuerdan un poco el enfoque regulatorio bajo el Reglamento General de Protección de Datos de la UE ( “RGPD”); es decir, un amplio alcance extraterritorial y fuertes sanciones, y probablemente dará lugar a controversias y debates en el próximo procedimiento legislativo.

Como escribe la CE en su memorando explicativo de la Ley de Inteligencia Artificial, el marco propuesto cubre los siguientes objetivos específicos:

Si bien es incierto cuándo y de qué forma entrará en vigor la Ley de Inteligencia Artificial, la CE ha marcado la pauta para los próximos debates políticos con esta nueva y ambiciosa propuesta. legislación, vale la pena señalar que el Parlamento de la UE ya ha instado a la CE a priorizar los principios éticos en su marco regulatorio. o el uso de sistemas de IA, ya sea en la UE o en el extranjero, debe estar atento a los desarrollos futuros con respecto a la Ley de Inteligencia Artificial, y en particular el alcance de los casos de uso prohibidos "inaceptables" y de "alto riesgo", que , tal como está redactado, podría aplicarse potencialmente a una amplia gama de productos y aplicaciones.

Estamos listos para ayudar a los clientes a navegar por los posibles problemas planteados por las regulaciones de la UE propuestas a medida que continuamos monitoreando de cerca los desarrollos en ese sentido, así como la reacción del público. Podemos y ayudaremos a asesorar a cualquier cliente que desee tener una voz en el proceso.

2. Borrador de informe sobre IA del Parlamento de la UE

El 2 de noviembre de 2021, el Comité Especial de la UE publicó su Borrador de informe sobre IA en la era digital para el Parlamento Europeo, que destaca los beneficios del uso de la IA como la lucha contra el cambio climático y las pandemias, y también varios desafíos éticos y legales.[116] Según el borrador del informe, la UE no debería regular la IA como tecnología; en cambio, el tipo, la intensidad y el momento de la intervención regulatoria deben depender únicamente del tipo de riesgo asociado con un uso particular de un sistema de IA. El borrador del informe también destaca el desafío de alcanzar un consenso dentro de la comunidad global sobre estándares mínimos para el responsable. uso de IA y preocupaciones sobre la investigación militar y los desarrollos tecnológicos en sistemas de armas sin supervisión humana.

3.El Consejo de la UE propone un reglamento de privacidad electrónica

El 10 de febrero de 2021, el Consejo de la Unión Europea (el "Consejo de la UE"), la institución que representa a los gobiernos de los Estados miembros de la UE, proporcionó un mandato de negociación con respecto a una revisión de la Directiva de privacidad electrónica y publicó una propuesta actualizada para un nuevo Reglamento de privacidad electrónica. A diferencia de la Directiva de privacidad electrónica actual, el nuevo Reglamento de privacidad electrónica no tendría que implementarse en la legislación nacional, sino que se aplicaría directamente en todos los Estados miembros de la UE sin transposición.

La Directiva de privacidad electrónica contiene reglas relacionadas con la privacidad y la confidencialidad en relación con el uso de los servicios de comunicaciones electrónicas. Sin embargo, una actualización de estas reglas se considera fundamental dado el rápido y amplio avance tecnológico que ha tenido lugar desde que se adoptó. en 2002. El nuevo Reglamento de privacidad electrónica, que derogaría y reemplazaría la Directiva de privacidad electrónica, ha estado en discusión durante varios años.

De acuerdo con la propuesta del Consejo de la UE, el Reglamento de privacidad electrónica también cubrirá los datos de máquina a máquina transmitidos a través de una red pública, lo que podría crear restricciones en el uso de datos por parte de las empresas que desarrollan productos basados ​​en IA y otras tecnologías basadas en datos. .Como regla general, todos los datos de las comunicaciones electrónicas se considerarán confidenciales, excepto cuando el procesamiento u otro uso esté expresamente permitido por el Reglamento de privacidad electrónica. procesamiento que tiene lugar fuera de la UE y/o a proveedores de servicios establecidos fuera de la UE, siempre que los usuarios finales de los servicios de comunicaciones electrónicas, cuyos datos están siendo procesados, estén ubicados en la UE.

Sin embargo, a diferencia del RGPD, el Reglamento de privacidad electrónica cubriría todo el contenido de las comunicaciones transmitidas mediante servicios y redes de comunicaciones electrónicas disponibles públicamente, y no solo los datos personales. Además, los metadatos (como la ubicación y la hora de recepción de la comunicación) también entran dentro el ámbito de aplicación del Reglamento de privacidad electrónica.

Se espera que el proyecto de propuesta experimente más cambios durante las negociaciones con el Parlamento Europeo. Por lo tanto, queda por ver si se tendrán en cuenta las necesidades particulares de las tecnologías basadas en datos altamente innovadoras, mediante la creación clara e inequívoca fundamentos jurídicos distintos del consentimiento del usuario para el procesamiento del contenido y los metadatos de las comunicaciones con el fin de desarrollar, mejorar y ofrecer productos y aplicaciones basados ​​en IA. Si las negociaciones entre el Consejo de la UE y el Parlamento de la UE proceden sin más demoras, el nuevo Reglamento de privacidad electrónica podría entrar en vigor en 2023, como muy pronto.

4.EDPB &erio; El SEPD pide la prohibición del uso de IA para el reconocimiento facial en espacios de acceso público

El 21 de junio de 2021, el Consejo Europeo de Protección de Datos ("EDPB") y el Supervisor Europeo de Protección de Datos ("EDPS") publicaron un Opinión conjunta que pide una prohibición general de “cualquier uso de la IA para el reconocimiento automatizado de rasgos humanos en espacios de acceso público, como el reconocimiento de rostros, formas de andar, huellas dactilares, ADN, voz, pulsaciones de teclas y otras señales biométricas o de comportamiento, en cualquier contexto. ”[117]

En su dictamen, el EDPB y el EDPS acogieron con beneplácito el enfoque basado en el riesgo que sustenta el Reglamento de IA propuesto por la CE y enfatizaron que tiene importantes implicaciones para la protección de datos. El dictamen también señala el papel del EDPS, designado por el Reglamento de IA de la CE como la autoridad competente y la autoridad de vigilancia del mercado para la supervisión de las instituciones de la UE, debe aclararse más. orientación política o sexual, u otros motivos por los que la discriminación esté prohibida en virtud del artículo 21 de la Carta de los Derechos Fundamentales”.

Además, el EDPB y el EDPS señalaron que "consideran que el uso de la IA para inferir las emociones de una persona física es altamente indeseable y debe prohibirse, excepto en casos muy específicos, como algunos fines de salud, en los que el paciente el reconocimiento de emociones es importante, y debería prohibirse el uso de IA para cualquier tipo de puntuación social”.

A.UK lanza estrategia nacional de IA

El 22 de septiembre de 2021, el gobierno del Reino Unido publicó su 'Estrategia nacional de IA' (la "Estrategia")[119]. Según el subsecretario parlamentario de En el Departamento de Digital, Cultura, Medios y Deporte, Chris Philip MP, el objetivo de la estrategia es esbozar "las bases para el crecimiento de los próximos diez años" para ayudar al Reino Unido a aprovechar "el potencial de la inteligencia artificial" y permítale dar forma a “la forma en que el mundo lo gobierna”[120]. La estrategia tiene tres pilares: (1) invertir en las necesidades a largo plazo de los ecosistemas de IA; (2) garantizar que la IA beneficie a todos los sectores y regiones; y (3) gobernar la IA de manera efectiva.

Con ese fin, el Reino Unido tiene como objetivo atraer talento global para desarrollar tecnologías de IA al continuar apoyando las intervenciones académicas existentes, así como al ampliar las rutas en las que los investigadores e individuos talentosos de IA pueden trabajar en el Reino Unido (por ejemplo, al introduciendo nuevas rutas VISA). El Reino Unido también busca adoptar un nuevo enfoque para la investigación, el desarrollo y la innovación en IA, por ejemplo, lanzando un Programa Nacional de Investigación e Innovación (I+i) de IA, y también colaborando internacionalmente en desafíos compartidos. en investigación y desarrollo (por ejemplo, mediante la implementación de la Declaración de EE. UU. y Reino Unido sobre cooperación en investigación y desarrollo de IA).

La estrategia también destaca que la gobernanza de la IA eficaz y favorable a la innovación significa que, entre otras cosas, el Reino Unido tiene un marco claro, proporcionado y eficaz para regular la IA que respalda la innovación al mismo tiempo que aborda los riesgos y daños reales. las regulaciones para la IA se organizan sector por sector, desde la competencia hasta la protección de datos. Sin embargo, la Estrategia reconoce que este enfoque puede generar problemas, incluidos enfoques inconsistentes entre sectores y superposiciones entre los mandatos regulatorios. Para abordar esto, el tercer pilar describe las próximas iniciativas clave para mejorar la gobernanza de la IA: la Oficina para la IA publicará un Libro Blanco a principios de 2022, que describirá la posición del Gobierno sobre los riesgos y daños potenciales que plantean los sistemas de IA. El Gobierno también tomará otras medidas, incluida la puesta a prueba de un Centro de Normas de IA para coordinar compromiso en el establecimiento de reglas de IA a nivel mundial, y colaboración con el Instituto Alan Turing para proporcionar orientación actualizada sobre los problemas éticos y de seguridad relacionados con la IA.

El gobierno de B.UK publica un marco de ética, transparencia y responsabilidad para la toma de decisiones automatizada

El 13 de mayo de 2021, el gobierno del Reino Unido publicó un marco que establece cómo los organismos del sector público pueden implementar tecnología de toma de decisiones automatizada de forma ética y sostenible (el “Marco”).[121] El Marco separa la toma de decisiones automatizada en dos categorías: (1) toma de decisiones únicamente automatizada: decisiones que están “totalmente automatizadas sin juicio humano”; y (2) toma de decisiones asistida automatizada: cuando "los sistemas automatizados o algorítmicos ayudan al juicio humano y la toma de decisiones". El Marco se aplica a ambos tipos y establece un proceso de siete pasos a seguir cuando se utiliza la toma de decisiones automatizada: (1) prueba para evitar resultados o consecuencias no deseados; (2) brindar servicios justos para todos los usuarios y ciudadanos; (3) ser claro quién es responsable; (4) manejar los datos de forma segura y proteger los intereses de los ciudadanos; (5) ayudar a los usuarios y ciudadanos a comprender cómo les afecta; (6) garantizar el cumplimiento de la ley, incluidas las leyes de protección de datos, la Ley de Igualdad de 2010 y el Deber de Igualdad del Sector Público; y (7) garantizar que los algoritmos o sistemas se controlen continuamente y mitiguen las consecuencias no deseadas.

El gobierno de C.UK publica un estándar para la transparencia algorítmica

La transparencia algorítmica se refiere a la apertura sobre cómo las herramientas algorítmicas respaldan las decisiones. La Oficina Central de Datos y Digitales de la Oficina del Gabinete (la “CDDO”) desarrolló un estándar de transparencia algorítmica para los departamentos gubernamentales y los organismos del sector público, que se publicó el 29 de noviembre de 2021[122] (el “Estándar”). de los primeros países del mundo en producir un estándar nacional para la transparencia algorítmica. El Estándar se encuentra en una fase piloto, luego de lo cual el CDDO revisará el Estándar en función de los comentarios recopilados y buscará el respaldo formal de la Autoridad de Estándares de Datos en 2022.

D.ICO ofrece información sobre su política en torno al uso del reconocimiento facial en vivo en el Reino Unido

El 18 de junio de 2021, la Oficina del Comisionado de Información ("ICO") publicó una Opinión del Comisionado sobre el uso de reconocimiento facial en vivo (“LFR”) en el Reino Unido (“la Opinión”).[123]El reconocimiento facial es el proceso mediante el cual se puede identificar o reconocer a una persona a partir de una imagen facial digital. LFR es un tipo de reconocimiento facial tecnología que a menudo implica la recopilación automática de datos biométricos. El Comisionado publicó previamente una opinión en 2019 sobre el uso de LFR en un contexto de aplicación de la ley, y concluyó que la ley de protección de datos establece "estándares altos" para que el uso de LFR sea legal cuando se usa en espacios públicos. La Opinión se basa en este trabajo centrándose en el uso de LFR en espacios públicos, definidos como cualquier espacio físico fuera de un entorno doméstico, ya sea de propiedad pública o privada, fuera de la aplicación de la ley. La Opinión deja en claro que, ante todo, , los controladores que buscan usar LFR deben cumplir con el Reglamento General de Protección de Datos del Reino Unido ("UK GDPR") y la Ley de Protección de Datos de 2018.

En términos de cumplimiento, el 29 de noviembre de 2021, la ICO anunció su intención de imponer una multa potencial de más de £ 17 millones a Clearview AI Inc por supuestamente recopilar imágenes de un número considerable de personas del Reino Unido sin su conocimiento, en incumplimiento de las leyes de protección de datos del Reino Unido. La ICO también emitió un aviso provisional a la empresa para que deje de procesar los datos personales de las personas en el Reino Unido y los elimine. La opinión preliminar de la ICO es que Clearview AI parece no haber cumplido con leyes de protección de datos del Reino Unido de varias maneras, incluso al no tener una razón legal para recopilar la información y al no cumplir con los estándares más altos de protección de datos requeridos para datos biométricos bajo el RGPD del Reino Unido. Clearview AI Inc ahora tendrá la oportunidad de hacer representaciones con respecto de las supuestas infracciones, luego de lo cual se espera que el ICO tome una decisión final. Esta acción tomada por el ICO destaca la importancia de garantizar que las empresas cumplan con las leyes de protección de datos del Reino Unido antes de procesar e implementar datos biométricos.

El regulador financiero del Reino Unido se compromete a impulsar el uso de la IA en la supervisión

La Autoridad de Regulación Prudencial ("PRA") del Reino Unido tiene la intención de hacer un mayor uso de la IA, de acuerdo con su Plan de Negocios para 2021/22.[124] El enfoque en la IA es parte del objetivo de la PRA de cumplir con los compromisos establecidos en su respuesta al informe Future of Finance (publicado en 2019) para desarrollar aún más su estrategia RegTech. El informe Future of Finance recomendó que los supervisores aprovechen los desarrollos en curso en la ciencia de datos y el poder de procesamiento, incluida la IA y el aprendizaje automático, que automatizan la recopilación y el procesamiento de datos.[125]

F.Consulta sobre la futura regulación de dispositivos médicos en el Reino Unido

El 16 de septiembre de 2021, la Medicines & La Agencia Reguladora de Productos para el Cuidado de la Salud ("MHRA") publicó una "Consulta sobre la futura regulación de dispositivos médicos en el Reino Unido", que duró hasta el 25 de noviembre de 2021 (la "Consulta").[126] La Consulta invitó a miembros del público a brindar sus puntos de vista sobre posibles cambios en el marco regulatorio para dispositivos médicos en el Reino Unido, con el objetivo de desarrollar un régimen futuro para dispositivos médicos que permita (i) mejorar la seguridad pública y del paciente; (ii) mayor transparencia en la toma de decisiones regulatorias e información sobre dispositivos médicos; (iii) una estrecha alineación con las mejores prácticas internacionales y (iv) una regulación más flexible, sensible y proporcionada de los dispositivos médicos.

La Consulta estableció los cambios propuestos para el software como dispositivo médico ("SaMD"), incluida la IA como dispositivo médico ("AIaMD"), y señaló que las reglamentaciones actuales sobre dispositivos médicos contienen pocas disposiciones destinadas específicamente a regular SaMD o AIaMD. Por lo tanto, las propuestas de la MHRA incluyen modificar las reglamentaciones sobre dispositivos médicos del Reino Unido para proteger a los pacientes y apoyar la innovación responsable en la salud digital. Algunos de los posibles cambios presentados por la MHRA en la Consulta incluyen (entre otros) definir 'software', aclarar o agregar a los requisitos para vender SaMD a través de medios electrónicos, cambiar la clasificación de SaMD para garantizar que el escrutinio aplicado a estos dispositivos médicos sea más acorde con su nivel de riesgo y esté más armonizado con la práctica internacional. El marco del dispositivo entrará en vigor en julio de 2023.

La MHRA también publicó por separado un amplio programa de trabajo sobre software e IA como dispositivo médico para generar un cambio audaz que proporcione un marco regulatorio que brinde un alto grado de protección para los pacientes y el público, pero también para garantizar que el Reino Unido sea el hogar de la innovación responsable para el software de dispositivos médicos.[127]Cualquier cambio legislativo propuesto por el programa de trabajo se basará en reformas más amplias a la regulación de dispositivos médicos provocadas por la Consulta.

________________________

[1]Steven Overly &erio; Melissa Heikkilä, “China quiere dominar la IA. Estados Unidos y Europa se necesitan mutuamente para domarlo”, Politico (2 de marzo de 2021), disponible en https://www.politico.com/news/2021/03/02/china-us-europe-ai- reglamento-472120.

[2]Id.

[3]Id.

[4]Para obtener más detalles, consulte nuestra Revisión anual de inteligencia artificial y sistemas automatizados del cuarto trimestre y de 2020.

[5]La Casa Blanca, Comunicado de prensa (archivado), La Casa Blanca lanza la Oficina de la Iniciativa Nacional de Inteligencia Artificial (12 de enero de 2021), disponible en https://trumpwhitehouse.archives.gov/briefings-statements/ la-casa-blanca-lanza-una-oficina-nacional-de-iniciativa-de-inteligencia-artificial/.

[6]Id.

[7]La Casa Blanca, Memorando sobre el restablecimiento de la confianza en el gobierno a través de la integridad científica y la formulación de políticas basadas en pruebas (27 de enero de 2021), disponible en https://www.whitehouse.gov/briefing-room/presidential- acciones/2021/01/27/memorando-sobre-restaurar-la-confianza-en-el-gobierno-a través-de-la-integridad-científica-y-la-formulación-de-políticas-basadas-en-evidencia/.

[8]Carta de la subdirectora Jane Lubchenco y la subdirectora Alondra Nelson, OSTP a todas las agencias federales (29 de marzo de 2021), disponible en https://int.nyt.com/data/documenttools/si-task- force-nomination-cover-letter-and-call-for-nominations-ostp/ecb33203eb5b175b/full.pdf.

[9]La Casa Blanca, Orden ejecutiva sobre el Consejo de asesores en ciencia y tecnología del presidente (27 de enero de 2021), disponible en https://www.whitehouse.gov/briefing-room/presidential-actions/ 2021/01/27/orden-ejecutiva-del-consejo-de-asesores-de-presidentes-en-ciencia-y-tecnologia/.

[10]Dan Reilly, “La IA de la Casa Blanca el director dice que EE. UU. debería modelar el enfoque de regulación de Europa”, Fortune (10 de noviembre de 2021), disponible en https://fortune.com/2021/11/10/white-house-a-i-director-regulation/.

[11]S. 1260, 117 Congreso. (2021).

[12]Id., §§4201-4207.

[13]Id., §4202.

[14]Id., §4204. Para obtener más detalles sobre el informe de NSCAI y la Orden Ejecutiva de 2020, consulte nuestra Revisión anual de inteligencia artificial y sistemas automatizados del cuarto trimestre y de 2020.

[15]Casa Blanca, "Únase al esfuerzo para crear una declaración de derechos para una sociedad automatizada" (10 de noviembre de 2021), disponible en https://www.whitehouse.gov/ostp/news-updates/ 2021/11/10/únete-al-esfuerzo-para-crear-una-declaración-de-derechos-para-una-sociedad-automatizada/.

[16]Dave Nyczepir, "Jefe de política tecnológica de la Casa Blanca dice que la declaración de derechos de la IA necesita 'dientes'", FedScoop (10 de noviembre de 2021), disponible en https://www.fedscoop.com/ai-bill -de-derechos-dientes/.

[17]Id.

[18]Oficina de Política Científica y Tecnológica, Aviso de solicitud de información (RFI) sobre usos de tecnologías biométricas en los sectores público y privado (8 de octubre de 2021), disponible en https://www.federalregister.gov/ documentos/2021/10/08/2021-21975/aviso-de-solicitud-de-información-rfi-sobre-el-sector-público-y-privado-usos-de-tecnologías-biométricas.

[19]EE. UU. Oficina de Responsabilidad del Gobierno, Inteligencia artificial: un marco de responsabilidad para agencias federales y otras entidades, Aspectos destacados de GAO-21-519SP, disponible en https://www.gao.gov/assets/gao-21-519sp-highlights.pdf.

[20]Las prácticas clave de monitoreo identificadas por la GAO son particularmente relevantes para las organizaciones y empresas que buscan implementar programas de gobierno y cumplimiento para sistemas basados ​​en IA y desarrollar métricas para evaluar el rendimiento del sistema. El informe de la GAO señala que el monitoreo es una herramienta crítica por varias razones: primero, es necesario analizar continuamente el rendimiento de un modelo de IA y documentar los hallazgos para determinar si los resultados son los esperados, y segundo, el monitoreo es clave donde se encuentra un sistema. ya sea que se esté escalando o expandiendo, o donde las leyes aplicables, los objetivos programáticos y el entorno operativo cambien con el tiempo.

[21]Borrador de publicación especial 1270 del NIST, una propuesta para identificar y gestionar el sesgo en la inteligencia artificial (junio de 2021), disponible en https://nvlpubs.nist.gov/nistpubs/SpecialPublications/NIST.SP.1270-draft .pdf?_sm_au_=iHVbf0FFbP1SMrKRFcVTvKQkcK8MG.

[22]Instituto Nacional de Ciencia y Tecnología, comentarios recibidos sobre una propuesta para identificar y gestionar el sesgo en la inteligencia artificial (SP 1270), disponible en https://www.nist.gov/artificial-intelligence/comments-received -propuesta-identificación-y-gestión-sesgo-artificial.

[23]H.R. 5515, 115º Congreso (2017-18).

[24]La Comisión de Seguridad Nacional sobre Inteligencia Artificial, Informes anteriores, disponible en https://www.nscai.gov/previous-reports/.

[25]NSCAI, The Final Report (1 de marzo de 2021), disponible en https://www.nscai.gov/wp-content/uploads/2021/03/Full-Report-Digital-1.pdf.

[26]Unidad de innovación de defensa, Directrices de IA responsable: Puesta en práctica de los principios éticos del Departamento de Defensa para la IA (14 de noviembre de 2021), disponible en https://www.diu.mil/responsible-ai-guidelines.

[27]Secureing the Information and Communications Technology and Services Supply Chain, Departamento de Comercio de EE. UU., 86 Fed. registro 4923 (19 de enero de 2021) (en adelante, “Regla Interina Final”).

[28]Para obtener más información, consulte nuestra Actualización legal sobre inteligencia artificial y sistemas automatizados (1T21).

[29]S. 1776, 117 Congreso. (2021).

[30]S. 1705, 117 Congreso. (2021).

[31]Portman y Heinrich anuncian proyectos de ley bipartidistas sobre inteligencia artificial incluidos en la Ley de Autorización de Defensa Nacional para el año fiscal 2022, Oficina del Senador Rob Portman (15 de diciembre de 2021), disponible en https://www.portman.senate.gov /newsroom/press-releases/portman-heinrich-announce-bipartisan-artificial-intelligence-bills-inclusive.

[32]FTC, Business Blog, Elisa Jillson, Apuntar a la verdad, la justicia y la equidad en el uso de la IA en su empresa (19 de abril de 2021), disponible en https://www.ftc.gov/news-events /blogs/business-blog/2021/04/apuntar-a-la-verdad-la-equidad-la-utilidad-de-su-empresa-ai.

[33]FTC, Protección de la privacidad del consumidor en tiempos de crisis, Comentarios de la presidenta interina Rebecca Kelly Slaughter, Foro sobre el futuro de la privacidad (10 de febrero de 2021), disponible en https://www.ftc.gov/system /files/documents/public_statements/1587283/fpf_opening_remarks_210_.pdf.

[34]FTC, Uso de inteligencia artificial y algoritmos (8 de abril de 2020), disponible en https://www.ftc.gov/news-events/blogs/business-blog/2020/04/using-artificial- inteligencia-algoritmos.

[35]FTC, la presidenta de la FTC, Lina M. Khan, anuncia nuevos nombramientos en puestos de liderazgo de agencias (19 de noviembre de 2021), disponible en https://www.ftc.gov/news-events/press-releases/2021 /11/ftc-presidente-lina-m-khan-anuncia-nueva-agencia-nombramientos.

[36]FTC, Resolución que ordena el uso del proceso obligatorio en relación con el abuso de la propiedad intelectual (2 de septiembre de 2021), disponible en https://www.law360.com/articles/1422050/attachments/0. Estas resoluciones fueron aprobada por los comisionados demócratas en una votación de línea partidaria de 3-2. Los comisionados republicanos emitieron una declaración disidente, argumentando que las autorizaciones generales eliminan la supervisión de la comisión sin hacer nada para que las investigaciones sean más efectivas.

[37]Ben Brody, funcionario de la FTC advierte sobre la incautación de algoritmos 'exprimidos por datos obtenidos ilegalmente' (27 de julio de 2021), disponible en https://www.protocol.com/bulletins/ftc-seize-algorithms- mal habido?_sm_au_=iHV5LNM5WjmJt5JpFcVTvKQkcK8MG.

[38]La FTC se había basado previamente en la Sección 13(b) para perseguir la devolución a través de medidas cautelares, principalmente en relación con violaciones de protección al consumidor. Sin embargo, la Corte Suprema encontró que la disposición de la medida cautelar autorizaba a la FTC solo a buscar una orden judicial que detuviera la actividad ilegal y no le otorgaba el poder de solicitar a un tribunal que imponga sanciones monetarias. Un proyecto de ley similar, que se presentó la semana de el fallo de la Corte Suprema y fue respaldado por 25 fiscales generales estatales y el presidente Joe Biden, fue aprobado por la Cámara durante el verano en una votación casi partidista, pero aún no ha sido aprobado por el Senado. Los republicanos se opusieron a esa iniciativa por preocupaciones sobre el debido proceso y el estatuto de limitaciones de 10 años del proyecto de ley. El nuevo proyecto de ley, por otro lado, incluye un estatuto de limitaciones de tres años y una redacción que requiere que la comisión demuestre que la empresa acusada de violar la ley lo hizo intencionalmente.

[39]S. _ Congreso 117. (2022-2023) https://www.law360.com/cybersecurity-privacy/articles/1449355/gop-sen-floats-bill-to-restore-ftc-s-restitution-powers?nl_pk=4e5e4fee-ca5f-4d2e -90db-5680f7e17547&utm_source=newsletter&utm_medium=email&utm_campaign=cybersecurity-privacy

[40]Harry Brignull, el PhD que acuñó el término "patrones oscuros" ha desarrollado una taxonomía, que puede incluir: preguntas capciosas; colarse en la cesta (en una compra online, se añaden artículos de última hora a la cesta, sin la intervención del usuario); motel de cucarachas (los servicios son fáciles de ingresar pero difíciles de cancelar); divulgación excesiva de privacidad (se engaña a los usuarios para que compartan o hagan pública más información de la prevista); prevención de comparación de precios (los sitios web dificultan la comparación de precios de otros proveedores); mala dirección; costos ocultos; cebo y cambio; confirmshaming (los usuarios se sienten culpables por algo o se formula una opción de rechazo para avergonzar a los usuarios, por ejemplo, "No, no quiero ahorrar dinero"); anuncios disfrazados; continuidad forzada (la prueba gratuita se convierte inesperadamente en una suscripción paga); y spam de amigos (la lista de contactos del usuario se utiliza para enviar mensajes no deseados del usuario). Consulte Harry Brignull, Types of Dark Pattern, Dark Patterns, disponible en https://www.darkpatterns.org/types-of-dark-pattern.

[41]Bringing Dark Patterns to Light: An FTC Workshop, Comisión Federal de Comercio, 29 de abril de 2021, disponible en https://www.ftc.gov/news-events/events-calendar/bringing-dark-patterns -light-ftc-taller.

[42]Jon Hill, CFPB's Newest Hook On Big Tech May Be 1970s Data Law, Law360 (16 de noviembre de 2021), disponible en https://www.law360.com/technology/articles/1439641/cfpb- s-newest-hook-on-big-tech-may-be-1970s-data-law?nl_pk=0d08c9f5-462a-4ad6-9d20-292663da6d5e&utm_source=newsletter&utm_medium=email&utm_campaign=technology.

[43]CFPB, CFPB Takes Action to Stop False Identification by Background Screeners (4 de noviembre de 2021), disponible en https://www.consumerfinance.gov/about-us/newsroom/cfpb-takes-action- para-detener-la-identificación-falsa-mediante-controles-de-fondo/?_sm_au_=iHVFR9tfrf49TNNMFcVTvKQkcK8MG.

[44]EEOC, EEOC lanza iniciativa sobre inteligencia artificial y equidad algorítmica (28 de octubre de 2021), disponible en https://www.eeoc.gov/newsroom/eeoc-launches-initiative-artificial-intelligence-and -equidad algorítmica?_sm_au_=iHV5LNM5WjmJt5JpFcVTvKQkcK8MG.

[45]FTC, In the Matter of Everalbum, Inc. and Paravision, Commission File No. 1923172 (11 de enero de 2021), disponible en https://www.ftc.gov/enforcement/cases-proceedings/ 1923172/everalbum-inc-asunto.

[46]FTC, Declaración del Comisionado Rohit Chopra, In the Matter of Everalbum and Paravision, Archivo de la Comisión No. 1923172 (8 de enero de 2021), disponible en https://www.ftc.gov/system/files /documents/public_statements/1585858/updated_final_chopra_statement_on_everalbum_for_circulation.pdf.

[47] Véase, por ejemplo, Vance v. Amazon, 2:20-cv-01084-JLR (W.D. Wash. 7 de octubre de 2021); Vernita Miracle-Pond et al. v. Shutterfly Inc., No. 2019-CH-07050, (Ill. Cir. Ct. del condado de Cook); Carpenter v. McDonald’s Corp., No. 2021-CH-02014 (Ill. Cir. Ct. 28 de mayo de 2021); Rivera v. Google, Inc., No. 1:16-cv-02714 (N.D. Ill. 30 de agosto de 2021); Pena v. Microsoft Corp., No. 2021-CH-02338 (Ill. Cir. Ct. 12 de mayo de 2021); BH v. Amazon.com Inc., No. 2021-CH-02330 (Ill. Cir. Ct. 12 de mayo de 2021), Pruden v. Lemonade, Inc., No. 1:21-cv-07070 (S.D.N.Y. 20 de agosto , 2021).

[48]S. _, 117 Congreso. (2021); ver también Comunicado de prensa, Senadores Markey, Merkley Lead Colleagues on Legislation to Ban Government Use of Facial Recognition, Other Biometric Technology (15 de junio de 2021), disponible en https://www.markey.senate.gov/news/press-releases /senators-markey-merkley-lead-colegas-on-legislation-to-ban-government-use-of-facial-recognition-other-biometric-technology.

[49]Para obtener más detalles, consulte nuestras alertas anteriores: Revisión anual del cuarto trimestre y de 2020 sobre inteligencia artificial y sistemas automatizados.

[50]H.B. 2031, Reg. Sesión (2020-2021).

[51]Para obtener más detalles, consulte nuestra Revisión anual de inteligencia artificial y sistemas automatizados del cuarto trimestre y de 2020.

[52]S. 1896, 117 Congreso. (2021); ver también Comunicado de prensa, Senador Markey, Rep. Matsui Introduce Legislation to Combat Harmful Algorithms and Create New Online Transparency Regime (27 de mayo de 2021), disponible en https://www.markey.senate.gov/news/press-releases/ senador-markey-rep-matsui-introduce-legislación-para-combatir-algoritmos-nocivos-y-crear-nuevo-régimen-de-transparencia-en-línea.

[53]H.R. 3723, Congreso 117. (2021).

[54]Elise Hansen, House Clears Bill To Study Crypto And Consumer Protection, Law360 (23 de junio de 2021), disponible en https://www.law360.com/articles/1396110/house-clears-bill-to -estudio-crypto-y-consumidor-protección.

[55]S. 2134, Congreso 117. (2021); véase también Comunicado de prensa, Oficina de la Senadora de EE. UU. Kirsten Gillibrand, Comunicado de prensa, Gillibrand presenta una nueva y mejorada agencia de vigilancia del consumidor para dar a los estadounidenses el control de sus datos (17 de junio de 2021), disponible en https://www.gillibrand.senate.gov /news/press/release/gillibrand-presenta-una-nueva-y-mejorada-agencia-de-vigilancia-del-consumidor-para-dar-control-sobre-sus-datos-a-los-estadounidenses.

[56]Según la legislación propuesta, los "datos personales" se definen como "datos electrónicos que, solos o en combinación con otros datos: (A) identifican, se relacionan, describen, se pueden asociar o podrían estar razonablemente vinculado, directa o indirectamente, con un individuo, hogar o dispositivo en particular; o (B) podría usarse para determinar que una persona o un hogar es parte de una clase protegida.” Ley de Protección de Datos de 2021, S. 2134, 117th Cong. § 2(16) (2021).

[57]Id., § 2(3) (2021).

[58]Id., § 2(11)-(13) (2021).

[59]H.R. 5921 (2021), disponible en https://www.congress.gov/bill/117th-congress/house-bill/5921/cosponsors?s=1&r=90&overview=closed; SB 2024 (2021), disponible en https://www.congress.gov/bill/117th-congress/senate-bill/2024/text.

[60]EE. UU. Comité Senatorial de Seguridad Nacional & Asuntos gubernamentales, líderes tecnológicos apoyan la Ley del grupo de trabajo bipartidista Deepfake de Portman para crear un grupo de trabajo en el DHS para combatir los deepfakes (30 de julio de 2021), disponible en https://www.hsgac.senate.gov/media/minority-media/tech- líderes-apoyan-portmans-bipartidista-deepfake-task-force-act-to-create-task-force-at-dhs-to-combat-deepfakes.

[61]Para obtener más detalles, consulte nuestra Revisión anual de inteligencia artificial y sistemas automatizados del cuarto trimestre y de 2020.

[62]S.B. 5116, Reg. Sesión (2021-22).

[63]Monica Nickelsburg, los legisladores del estado de Washington buscan prohibir que el gobierno use tecnología de IA discriminatoria, GeewWire (13 de febrero de 2021), disponible en https://www.geekwire.com/2021/washington-state-lawmakers -buscar-prohibición-gobierno-usando-ai-tech-discrimina/.

[64]N.Y.C., No. 1894-2020A (11 de noviembre de 2021), disponible en https://legistar.council.nyc.gov/LegislationDetail.aspx?ID=4344524&GUID=B051915D-A9AC-451E -81F8-6596032FA3F9.

[65]Ver Thaler v. Hirshfeld, No. 120CV903LMBTCB, 2021 WL 3934803, en *8 (E.D. Va. 2 de septiembre de 2021) (señalando "evidencia abrumadora de que el Congreso pretendía limitar la definición de 'inventor' a personas naturales.").

[66]Véase, por ejemplo, Univ. de Utah v. Max-Planck-Gesellschaft, 734 F.3d 1315, 1323 (Fed. Cir. 2013); Beech Aircraft Corp. contra EDO Corp., 990 F.2d 1237, 1248 (Fed. Cir. 1993).

[67]El Proyecto Inventor Artificial describe ambiciosamente a DABUS como un sistema avanzado de IA. DABUS es un "sistema neuronal creativo" que es "estimulado caóticamente para generar ideas potenciales, ya que una o más redes emiten una opinión sobre conceptos candidatos" y “puede considerarse 'consciente' en el sentido de que cualquier concepto basado en cadenas lanza una serie de recuerdos (es decir, cadenas de afecto) que a veces terminan en recuerdos críticos, lanzando así una marea de moléculas artificiales”. Ryan Abbott, el inventor artificial detrás de este proyecto , disponible en https://artificialinventor.com/dabus/.

[68]Ryan Abbott, The Artificial Inventor Project, disponible en https://artificialinventor.com/frequently-asked-questions/.

[69] Thaler v. Hirshfeld, 2021 WL 3934803, en *2.

[70]Id. a las 2.

[71]Id. a las 8.

[72]La Oficina Europea de Patentes, EPO, publica los motivos de su decisión de rechazar dos solicitudes de patente que nombraban a una máquina como inventora, 28 de enero de 2020, disponible en https://www.epo.org/news-events/ noticias/2020/20200128.html.

[73]Dani Kass, la Junta de Apelaciones de la EPO afirma que solo los humanos pueden ser inventores, Ley 360, 21 de diciembre de 2021.

[74]Thomas Kirby, tribunal del Reino Unido desestima DABUS: una máquina de IA no puede ser inventora, Lexology, 14 de diciembre de 2021.

[75]La primera patente del mundo otorgada por una invención realizada por una IA podría tener implicaciones sísmicas en la ley de propiedad intelectual, Universidad de Surrey, 28 de julio de 2021.

[76]Gene Quinn, DABUS obtiene su primera patente en Sudáfrica bajo examen de formalidades, IP Watchdog, 29 de julio de 2021, disponible en https://www.ipwatchdog.com/2021/07/29/dabus-gets -primera-patente-sudáfrica-formalidades-examen/id=136116/.

[77]Thaler contra el Comisionado de Patentes [2021] FCA 879.

[78]Google LLC contra Oracle Am., Inc., n.º 18-956, 2021 WL 1240906 (EE. UU., 5 de abril de 2021).

[79]Id., en *3.

[80]Id. en *20.

[81]Ver id.

[82]Bill Donahue, La Corte Suprema falla a favor de Google en Oracle Copyright Fight, Law360 (5 de abril de 2021), disponible en https://www.law360.com/ip/articles/1336521.

[83]Consulte U.S. Food & Drug Admin., Inteligencia artificial/aprendizaje automático (AI-ML)-Based Software as a Medical Device (SaMD) Action Plan 1-2 (2021), https://www.fda.gov/media/145022/download [en adelante Plan de acción de IA de la FDA]; Alimentos y amperios de EE. UU. Administración de Medicamentos, FDA publica plan de acción de inteligencia artificial/aprendizaje automático (12 de enero de 2021), https://www.fda.gov/news-events/press-announcements/fda-releases-artificial-intelligencemachine-learning-action -plan.Véase también U.S. Food & Drug Admin., Marco normativo propuesto para modificaciones del software basado en inteligencia artificial/aprendizaje automático (AI/ML) como dispositivo médico (SaMD), documento de debate y solicitud de comentarios (2019), https://www.fda.gov/ media/122535/descargar.

[84]Plan de acción de AI de la FDA, supra nota 1, en 1.

[85]Estados Unidos comida y Drug Admin., Taller público virtual: Transparencia de dispositivos médicos habilitados para inteligencia artificial/aprendizaje automático (última actualización: 26 de noviembre de 2021) https://www.fda.gov/medical-devices/workshops-conferences-medical-devices/ virtual-taller-público-transparencia-inteligencia-artificial-dispositivos-médicos-habilitados-para-aprendizaje-automático.

[86]Id.

[87]Id.

[88]Id.

[89]Id.

[90]EE. UU. comida y Administración de medicamentos, dispositivos médicos habilitados para inteligencia artificial y aprendizaje automático (IA/ML) (última actualización el 22 de septiembre de 2021), https://www.fda.gov/medical-devices/software-medical-device-samd/ Dispositivos médicos habilitados para AIML con inteligencia artificial y aprendizaje automático.

[91]Id.

[92]Id.

[93]Como mencionamos en actualizaciones legales anteriores, la Cámara aprobó previamente la Ley AUTOCONDUCCIÓN (H.R. 3388) por voto de voz en septiembre de 2017, pero su proyecto de ley complementario (la Visión estadounidense para un transporte más seguro a través del avance de tecnologías revolucionarias) La Ley “AV START”) (S. 1885)) se estancó en el Senado. Para obtener más detalles, consulte nuestra Revisión anual del cuarto trimestre y 2020 de inteligencia artificial y sistemas automatizados.

[94]Estados Unidos Departamento de transporte, Comunicado de prensa, Publicaciones del Departamento de Transporte de EE. UU. Agenda regulatoria de primavera (11 de junio de 2021), disponible en https://www.transportation.gov/briefing-room/us-department-transportation-releases-spring -agenda-regulatoria.

[95]EE. UU. Departamento de transporte, NHTSA ordena informes de accidentes para vehículos equipados con sistemas avanzados de asistencia al conductor y sistemas de conducción automatizados, disponible en https://www.nhtsa.gov/press-releases/nhtsa-orders-crash-reporting-vehicles- sistemas-avanzado-de-asistencia-al-conductor-equipados

[96]Id.

[97]Id.

[98]Id.

[99]Id.

[100]49 CFR 571, disponible en https://www.nhtsa.gov/sites/nhtsa.gov/files/documents/ads_safety_principles_anprm_website_version.pdf

[101]Id., en 6.

[102]Id., en 7-8.

[103]SF 302, reg. Sesión (2019-2020).

[104]ARC 5621C, Aviso de acción prevista, disponible en https://rules.iowa.gov/Notice/Details/5621C.

[105]Id.

[106]Carly Page, Los bancos de EE. UU. deben informar pronto los incidentes significativos de ciberseguridad en un plazo de 36 horas (19 de noviembre de 2021), disponible en https://techcrunch.com/2021/11/19/us-banks-report -incidentes-de-ciberseguridad/?guccounter=1.

[107]“Organizaciones bancarias” es un término definido en la regla y se aplica a una mezcla ligeramente diferente de entidades con respecto a cada agencia.

[108]86 Fed. registro 66424.

[109]Id. en 66438.

[110]86 Fed. registro 16837.

[111]Al Barbarino, Bank Regulators Eye Updated Guidance to Fight Bias in AI (21 de octubre de 2021), disponible en https://www.law360.com/cybersecurity-privacy/articles/1433299/.

[112]CE, Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas sobre inteligencia artificial y se modifican determinados actos legislativos de la Unión (Ley de inteligencia artificial), COM(2021) 206 (21 de abril de 2021) , disponible en https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-european-approach-artificial-intelligence.

[113]Ursula von der Leyen, Una Unión que lucha por más: Mi agenda para Europa, disponible en https://ec.europa.eu/commission/sites/beta- Political/files/ Political-guidelines-next -comision_en.pdf.

[114] Supra, nota 39, pág. 1.

[115] Parlamento Europeo, Resolución del 20 de octubre de 2020 con recomendaciones a la Comisión sobre un marco de aspectos éticos de la inteligencia artificial, la robótica y las tecnologías relacionadas (2020/2012 (INL)) (20 de octubre de 2020), disponible en https://www.europarl.europa.eu/doceo/document/TA-9-2020-0275_EN.pdf. Para obtener más detalles, consulte nuestra "Actualización legal sobre inteligencia artificial y sistemas automatizados del 3T20".

[116] Borrador de informe sobre la IA en la era digital para el Parlamento Europeo (2 de noviembre de 2021), disponible en https://www.europarl.europa.eu/meetdocs/2014_2019/plmrep/COMMITTEES/AIDA/ PR/2021/11-09/1224166SP.pdf

[117]Dictamen conjunto 5/2021 sobre la propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas sobre inteligencia artificial, disponible en https://edpb.europa.eu/system/files/2021 -06/edpb-edps_joint_opinion_ai_regulation_en.pdf.

[118]SEPD, comunicado de prensa, EDPB & Solicitud del SEPD para prohibir el uso de la IA para el reconocimiento automatizado de características humanas en espacios de acceso público y algunos otros usos de la IA que pueden conducir a una discriminación injusta (21 de junio de 2021), disponible en https://edps.europa.eu/ press-publications/press-news/press-releases/2021/edpb-edps-call-ban-use-ai-automated-recognition_en?_sm_au_=iHVWn7njFDrbjJK3FcVTvKQkcK8MG.

[119]Gobierno del Reino Unido, Estrategia Nacional de IA (22 de septiembre de 2021), disponible en https://www.gov.uk/government/publications/national-ai-strategy.

[120]Gobierno del Reino Unido, Nuevo plan decenal para convertir al Reino Unido en una superpotencia global de IA (22 de septiembre de 2021), disponible en https://www.gov.uk/government/news/new-ten-year- plan-para-hacer-de-gran-bretaña-una-superpotencia-inteligente-global.

[121] Marco de gobierno, ética, transparencia y responsabilidad del Reino Unido para la toma de decisiones automatizada (13 de mayo de 2021), disponible en https://www.gov.uk/government/publications/ethics-transparency-and-accountability- marco-para-la-toma-de-decisiones-automatizada.

[122] Gobierno del Reino Unido, el gobierno del Reino Unido publica un estándar pionero para la transparencia algorítmica (29 de noviembre de 2021), disponible en https://www.gov.uk/government/news/uk-government-publishes-pioneering-standard- para-algoritmo-transparencia–2.

[123]Gobierno del Reino Unido, Oficina del Comisionado de Información, El uso de tecnología de reconocimiento facial en vivo en lugares públicos (18 de junio de 2021), disponible en https://ico.org.uk/media/for-organisations/documents/ 2619985/ico-opinion-the-use-of-lfr-in-public-places-20210618.pdf.

[124]Gobierno del Reino Unido, Prudential Regulation Authority Business Plan 2021/22 (24 de mayo de 2021), disponible en https://www.bankofengland.co.uk/prudential-regulation/publication/2021/may/ pra-plan-de-negocios-2021-22.

[125]Gobierno del Reino Unido, Future of Finance, Banco de Inglaterra (junio de 2019), disponible en https://www.bankofengland.co.uk/-/media/boe/files/report/2019/future -informe-de-finanzas.pdf?la=es&hash=59CEFAEF01C71AA551E7182262E933A699E952FC.

[126]Gobierno del Reino Unido, Consulta sobre la futura regulación de dispositivos médicos en el Reino Unido (16 de septiembre de 2021), disponible en https://www.gov.uk/government/consultations/consultation-on -la-futura-regulación-de-los-dispositivos-médicos-en-el-reino-unido.

[127]Gobierno del Reino Unido, software e inteligencia artificial como programa de cambio de dispositivos médicos (16 de septiembre de 2021), disponible en https://www.gov.uk/government/publications/software-and-ai- como-un-programa-de-cambio-de-dispositivo-médico.


Los siguientes abogados de Gibson Dunn prepararon esta actualización del cliente: H. Mark Lyon, Frances Waldmann, Emily Lamm, Tony Bedel, Kevin Kim, Brendan Krimsky, Prachi Mistry, Samantha Abrams-Widdicombe, Leon Freyermuth, Iman Charania y Kanchana Harendran.

Los abogados de Gibson Dunn están disponibles para ayudarlo a responder cualquier pregunta que pueda tener con respecto a estos desarrollos. Comuníquese con el abogado de Gibson Dunn con el que trabaja habitualmente, cualquier miembro del Grupo de sistemas automatizados e inteligencia artificial de la firma, o los siguientes autores:

H. Mark Lyon – Palo Alto (+1 650-849-5307, mlyon@gibsondunn.com)Frances A. Waldmann – Los Ángeles (+1 213-229-7914,fwaldmann@gibsondunn.com)

No dude en ponerse en contacto con cualquiera de los siguientes miembros del grupo de práctica:

Grupo de Inteligencia Artificial y Sistemas Automatizados:H. Mark Lyon – Presidente, Palo Alto (+1 650-849-5307, mlyon@gibsondunn.com)J. Alan Bannister – Nueva York (+1 212-351-2310, abannister@gibsondunn.com)Patrick Doris – Londres (+44 (0)20 7071 4276, pdoris@gibsondunn.com)Kai Gesing – Múnich (+49 89 189 33 180, kgesing@gibsondunn.com)Ari Lanin – Los Ángeles (+1 310-552-8581, alanin@gibsondunn.com)Robson Lee – Singapur (+65 6507 3684, rlee@gibsondunn.com)Carrie M. LeRoy – Palo Alto (+1 650-849-5337, cleroy@gibsondunn.com)Alexander H. Southwell – Nueva York (+1 212-351-3981, asouthwell@gibsondunn.com)Christopher T. Timura – Washington, D.C. (+1 202 -887-3690, ctimura@gibsondunn.com)Eric D. Vandevelde – Los Ángeles (+1 213-229-7186, evandevelde@gibsondunn.com)Michael Walther – Múnich (+49 89 189 33 180, mwalther@gibsondunn.com) )

© 2022 Gibson, Dunn & muleta LLP

Publicidad de abogados: los materiales adjuntos se prepararon solo con fines informativos generales y no pretenden ser un consejo legal.