Nuestro sitio web utiliza cookies para mejorar y personalizar su experiencia, así como para mostrar anuncios (si los hubiera). Nuestro sitio web también puede incluir cookies de terceros, como Google Adsense, Google Analytics y YouTube. Al utilizar el sitio web, usted acepta el uso de cookies. Hemos actualizado nuestra Política de privacidad. Haga clic en el botón para consultar nuestra Política de privacidad.

¿Quién quiere regular el negocio de la Inteligencia Artificial?

¿Quién quiere regular el negocio de la Inteligencia Artificial?

En enero de 2016, el administrador de la casa (los sistemas que automatizan los edificios son inteligentes) Google Nest realizó una actualización del software de sus termostatos que provocó un daño en las baterías. Un gran número de usuarios quedó desconectado, aunque muchos pueden cambiar las baterías, comprar un nuevo termostato o esperar a que Google lo solucione. La empresa indica que la falla habría sido causada por el sistema de Inteligencia Artificial (IA) que gestionó esas actualizaciones.

¿Qué hubiera pasado si la mayor deja que la población usese uno de esos termostatos y el fallo dejase a medio país expuesto al frío colgante días? Un problema técnico se ha convertido en una emergencia social que ha requerido la intervención del estado. Todo por un sistema de inteligencia artificial defectuoso.

Ninguna jurisdicción en el mundo ha desarrollado una regulación comprensiva y específica para los problemas generados por la inteligencia artificial. Eso no quiere decir qu’exista un vacío legislativo completo: muchos de los daños que la inteligencia artificial puede causar tienen otras vías de respuesta.

Por ejemplo :

  • Para accidentes causados ​​por coches autónomos los seguros seguirán siendo el primer destinatario de las reclamaciones.
  • Las empresas que utilicen sistemas de inteligencia artificial para su proceso de selección laboral podrán ser requeridas en caso de incurrir en prácticas discriminatorias.
  • Las aseguradoras que incurran en prácticas contra el consumidor derivado de los análisis generados por sus modelos de inteligencia artificial para fijar precios y decidir a quién asegurarán seguirán teniendo que responder como empresas.

En general, otras normas que existen –como el derecho de contratos, transportes, daños, de consumo, incluidas normas de protección de derechos humanos– cubren de manera adecuada tanto las necesidades de regulación de la inteligencia artificial.

En general no parece suficiente. Existe cierto consenso en que el uso de estos sistemas va a generar problemas que no se resuelven fácilmente en nuestros ordenamientos jurídicos. Desde la difusión de responsabilidad entre desarrolladores y usuarios profesionales hata la escalabilidad de los daños, los sistemas de inteligencia artificial desafían nuestra lógica.

Por ejemplo, si una inteligencia artificial encuentra información ilegal en la web profunda y toma decisiones de inversión basadas en ella, ¿debe responder el banco que gestiona los fondos de pensiones o la empresa que crea el sistema automatizado de inversión por esas prácticas ilegales de inversión? ?

Si una comunidad autónoma decide incorporar un copago en recetas médicas gestionadas por un sistema de inteligencia artificial y ese sistema comete pequeños errores (por ejemplo, unos céntimos en cada receta), pero que tienen a casi toda la población, ¿quién es responsable por la falla de control inicial? ¿La gestión? ¿El contratista que instala el sistema?

Inteligencia Artificial 20230128
Inteligencia artificial. FOTOS: Unsplash | andy kelly

Hacia un sistema regulatorio europeo (y global)

Desde la presentación en abril de 2021 de la propuesta de reglamento de la Unión Europea para la regulación de la inteligencia artificial, la llamada AI Act, se ha puesto en marcha el lento proceso legislativo que debería llevar a la comunidad a un sistema de regulación para todo el Espacio Económico Europeo y, tal vez, Suiza, en 2025. Los primeros pasos ya se están haciendo notar con las agencias estatales, que ejercerán parte del control sur los sistemas.

¿Quién más quiere regular la Inteligencia Artificial además de la Unión Europea?

En estas cuestiones tendemos a mirar a Estados Unidos, China y Japón, ya menudo asumimos que la legislación es una cuestión de grados: más o menos protección ambiental, más o menos protección al consumidor. Sin embargo, en el contexto de la inteligencia artificial sorprende a las distintas personas que están cansadas de los legisladores.

Estados Unidos: la legislación fundamental bajo IA es una norma de contenido limitado, pero preocupada por la ciberseguridad que, por derecho propio, pospone a otras técnicas regulatorias indirectas, como la creación de normas. La idea subyacente es que los estándares desarrollados para controlar el riesgo de los sistemas de inteligencia artificial irán siendo voluntariamente por las empresas y devendrán sus normas de facto.

Estados Unidos está así inmerso en un proceso abierto a industria, consumidores y usuarios para crear estándares. Este va ahora acompañado por un borrador de la Casa Blanca para una Carta de Derechos para la IA, también de carácter voluntario. Al mismo tiempo, numerosos estados están intentando desarrollar una legislación específica para determinados contextos concretos, como el uso de la inteligencia artificial en los procesos de selección laboral.

China: allí se ha desarrollado un plan complejo para no solo liderar el desarrollo de la inteligencia artificial, sino también su regulación.

Para ello, combinado:

  1. Regulación de experimentación (ciertas provincias podrán desarrollar sus propias normas para, por ejemplo, facilitar el desarrollo de la conducción autónoma).
  2. Desarrollo de estándares (con un plan complejo que cubre más de treinta subsectores).
  3. Regulación dura (por ejemplo, de los mecanismos de recomendación en internet para evitar recomendaciones que puedan alterar el orden social).

Por todo ello, China está comprometida con un control regulatorio de la inteligencia artificial que no impide su desarrollo.

Japón: en la isla, en cambio, no parecen particularmente preocupados por la necesidad de una Inteligencia Artificial regular.

En su lugar confían en que su tradición de asociación entre estado, empresas, trabajadores y usuarios evita los peores problemas que la inteligencia artificial pueda causar. De momento centran sus políticas en el desarrollo de la sociedad 5.0.

Canadá: tal vez el país más avanzado desde un punto de vista de la regulación marítima de esta nación norteamericana. Allí, desde hace dos años, todo sistema de Inteligencia Artificial usado en el sector público debe someterse a un análisis de impacto que prevea sus riesgos.

Para el sector privado el legislativo canadienne está discutiendo ahora una norma similar (mucho más simplificada) a la europea. Un proceso similar se inició el año pasado en Brasil. Si bien parecía haber perdido impulso, puede ahora ser rescatado tras las elecciones.

De Australia a India: otros países, de México a Australia, pasando por Singapur e India, están en una situación de compás de espera.

Estos países parecen confiar en que sus normas actuales pueden adaptarse para prevenir los peores daños que la inteligencia artificial pueda causar y permitir que se espere ver que pasa con otras iniciativas.
Dos partidos con visiones diferentes

Dentro de esta diversidad legislativa se están jugando dos partidos. El primero, entre quienes afirman que es demasiado pronto para regular una tecnología disruptiva –-y no bien sensida-– como la Inteligencia Artificial; y aquellos que prfieren tener un marco regulatorio claro qu’attaque los principales problemas y que al mismo tiempo cree seguridad jurídica para los desarrolladores y usuarios.

El segundo partido, y tal vez el más interesante, es una competencia por el regulador de facto a nivel mundial de la inteligencia artificial.

La apuesta de la Unión Europea es clara: crear normas primero que vinculen a todo aquel que quiera vender sus productos en su territorio. El éxito del Reglamento General de Protección de Datos, que es hoy por hoy la referencia global para empresas tecnológicas, anima a las instituciones europeas a seguir dicho modelo.

Frente a ellos, China y Estados Unidos han optado por evitar las normas detalladas, con la esperanza de que sus empresas puedan desarrollarse sin excesivas cortapisas y que sus estándares, au voluntarios, se conviertan en la referencia para otros pays y empresas.

En esto, el tiempo juega en contra de Europa. Estados Unidos publicará la primera versión de sus estándares en los próximos meses. La Unión Europea no contará con una legislación aplicable hasta dentro de dos años. Tal vez el exceso de ambición europea vaya a tener un costo, dentro y fuera del continente, creando normas que cuando entren en vigor hayan sido ya superadas por otras regulaciones.

Publicado originalmente en La conversación

Tambien te puede interesar

Por Paula Larraín

Entradas relacionadas