Lunes, 25 Marzo 2024

La eventual responsabilidad civil que pudiera traer su causa en el uso de la inteligencia artificial. El caso de Air Canadá

Volver

Con este artículo se persigue dar a conocer las distintas problemáticas jurídicas que surgen de la utilización de sistemas dotados con inteligencia artificial, en especial la responsabilidad civil por los daños ocasionados principalmente por máquinas o artefactos que incorporen esta nueva tecnología. También estudiaremos algunas de las propuestas para afrontar la problemática jurídica con respecto a los daños causados por acciones u omisiones de máquinas con IA.

Nos referiremos al reciente caso publicitado en prensa el pasado 16 de febrero de responsabilidad civil empresarial que trae su causa en el mal funcionamiento de un sistema de inteligencia artificial. “Air Canada debe cumplir la política de reembolsos inventada por el chatbot de la aerolínea.

También estudiaremos algunas de las propuestas para afrontar la problemática jurídica con respecto a los daños causados por acciones u omisiones de máquinas con IA.

La problemática fundamental a la que nos enfrentamos es la repercusión en la sociedad y en el derecho de las acciones ejecutadas por máquinas que se manifiestan capaces de actuar y pensar por sí solas y las correspondientes consecuencias que ello puede implicar a la hora de establecer la cadena de responsabilidad cuando con ese actuar autónomo se ocasiona un resultado dañoso.

Si además le añadimos el componente de una “ausencia de regulación”, el resultado no puede ser más explosivo.

En la actualidad nos encontramos con vehículos sin conductor, que causan accidentes de tráfico, que “nadie conducía” o decisiones tomadas en el ámbito empresarial que han dado lugar a cuantiosas pérdidas económicas.

¿En estos casos donde un vehículo dotado de un sistema de conducción autónoma causa un accidente, quien tiene que responder de los daños? ¿Cómo determinamos el nexo casal entre la decisión tomada por la IA y el resultado dañoso?

¿Quien responde de los daños, el fabricante, el propietario del vehículo que decide utilizar la conducción autónoma, o el fabricante que la instaló y creó el riesgo?

Lo primero que nos preguntamos es ¿qué es la IA? La doctrina la ha definido como una disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico.

Fue, John McCarthy el que en 1956 definió la IA como “la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cómputo inteligente”.

La Comisión Europea en 2020, define la IA como “todo sistema basado en programas informáticos o incorporado en dispositivos físicos que muestra un comportamiento que simula la inteligencia, entre otras cosas, mediante la recopilación y el tratamiento de datos, el análisis y la interpretación de su entorno y la adopción de medidas, con cierto grado de autonomía, para lograr objetivos específicos”.

En definitiva, lo que nos interesa es identificar los sectores que aplican el uso de la IA, tales como la movilidad y el transporte, los robots sociales con inteligencia artificial, y la telefonía con sistemas como -Alexa o Siri de Apple.

Desde el punto de vista legal no tenemos una normativa especializada de IA o robótica de modo que lo que se está haciendo en la práctica es adaptar las normas vigentes a estos supuestos.

En la práctica se utilizan el Código Civil, y normas como la Ley de Propiedad Intelectual, Ley de Marcas, Ley General para la Defensa de los Consumidores y Usuarios, para solventar la problemática jurídica sobre la utilización de sistemas inteligentes en nuestra sociedad.

Pero ello no deja de ser un problema porque estas normas no se han creado para este fin y se requiere cada vez más una regulación específica.

La IA y la Robótica por sus características de capacidad de aprendizaje, capacidad de toma de decisiones y la imprevisibilidad, pueden afectar a su régimen de responsabilidad civil.

El principal problema que suscita es la dificultad que existe a la hora de determinar la persona o sujeto que pueda ser considerado responsable del daño, por lo que, se ve afectada en gran medida la reclamación de responsabilidad civil, originando problemas para la imputación.

Estos supuestos están caracterizados por la dificultad de predecir el comportamiento de un producto basado en la IA y entender cuáles han podido ser las causas de los daños causados.

Por otra parte, hay que tener en cuenta que no sirve la noción tradicional del concepto “producto terminado” según la Directiva de productos defectuosos, ya que estos productos están sujetos a constantes actualizaciones y mejoras posteriores tras la puesta en circulación. Por lo que, de establecer un régimen de responsabilidad se deberá tener en cuenta la mutabilidad de los sistemas inteligentes en cortos periodos de tiempo.

Responsabilidad civil derivada del uso de la IA

Resulta importante establecer la responsabilidad jurídica por los daños que pueda ocasionar la actuación de los robots. Cómo se establecerá el sistema de RC en estos casos en que el robot comete un fallo que es la causa de un daño a un tercero. ¿Quién responde?

Habrá que construir un nuevo sistema de responsabilidad civil que se ajuste a las peculiaridades de un sistema inteligente.

¿Nos plateamos que si la IA causa el daño, quien ha de responder del mismos?

En un supuesto de hecho, ¿cómo podemos imputar responsabilidad a una persona que no está conduciendo el vehículo en un accidente como consecuencia de un fallo de la IA? En nuestro ordenamiento, el que causa el daño es el obligado a repararlo…pero en este caso es la IA.

Este es uno de los problemas porque en estos casos la identidad ente el causante del daño y responsable del mismo se ve completamente quebrada a lo que hay que añadir que quien lo causa no es una persona ni un menor ni un animal, del cual su dueño ha de responder, sino una” cosa”.

En la practica el vehículo que esta siendo conducido por la IA que atropella a un peatón, el responsable es el conductor, aunque no esté siendo conducido por él en el momento del accidente. Lo que nos lleva al supuesto que es responsable de un hecho que no ha causado directamente, en los mismos términos que lo es el padre que ha de responder de los daños causados por un menor o un animal a su cargo, aunque no haya cometido directamente.

Se encuentran serias dificultades a la hora de identificar la acción/omisión el daño y el nexo causal cuando interviene la IA, ya que en la mayoría de los supuestos hay que hacer una abstracción de cada elemento que integra la responsabilidad civil, para concluir en la existencia de responsabilidad.

“Quien cause daño deberá repararlo y por tanto, la responsabilidad civil requiere una conducta humana, la producción de un daño y una relación de causalidad entre la conducta y el resultado producido”

Pero en los supuestos en los que interviene la IA, el causante del daño no es una persona física ni jurídica, sino una máquina diseñada para tomar decisiones por sí misma después de haber realizado el trabajo de “procesado o reflexión” que cualquier persona hubiera hecho.

Todos estos elementos, y la ausencia de una regulación específica dificultan la indemnización del perjudicado por un daño en el que esté implicada la IA

El ordenamiento español no dispone de una normativa específica relativa a IA, por lo que debemos acudir a la Unión Europea.

Nos referimos a la Resolución del Parlamento Europeo de 2017 que se centra en el estudio de la robótica y la IA, y alude a la responsabilidad civil por daños causados por robots autónomos y la de la condición jurídica de los robots.

Aquí se establecen recomendaciones que han de seguirse con el fin de regular la creación, uso y efectos de la robótica.

La resolución se refiere a la responsabilidad, por la acción perjudicial de un robot y propone la creación de una Directiva que establezca la legislación que regule estas acciones en un marco legal de obligaciones y derechos de los fabricantes de robots, las instituciones, los propietarios, usuarios y ciudadanos en general.

La futura regulación en materia de responsabilidad por actos u omisiones de robots tiene que determinar si una máquina puede considerarse responsable de su conducta y si la misma puede encuadrarse en la actual categoría Jurica, -es decir, si un robot puede considerarse a los efectos de responsabilidad, como persona física, jurídica u objeto.

La Resolución del Parlamento Europeo de 20 de octubre de 2020 establece de forma novedosa, el proceso de regulación de la robótica y la inteligencia artificial, con la proposición de un reglamento sobre IA que incluye una normativa especializada sobre la responsabilidad civil cuando sea ocasionado un daño por algún sistema inteligente.

La Resolución persigue contar con un marco jurídico y armonizado basado en principios comunes con el fin de garantizar la seguridad jurídica, establecer una igualdad de normas en toda la Unión y proteger nuestros valores europeos y los derechos de los ciudadanos.

El futuro reglamento establece dos regímenes de responsabilidad, en función del tipo de sistema de IA que haya causado el daño.

Uno tipo objetivo para daños causados con sistemas de IA de alto riesgo y de responsabilidad subjetiva para los daños causados con sistemas de IA que no supongan un alto riesgo. Todo ello en virtud de la potencialidad de causar daños al público. El usuario de estos sistemas será responsable objetivamente de los daños causados por la actividad física o virtual de los dispositivos o procesos gobernados por dicho sistema. Resultan daños indemnizables: los daños corporales, daños materiales y morales.

Todo lo que no sea sistema de alto riesgo será catalogado como “otros sistemas de IA”.

A estos sistemas se aplicará la responsabilidad por culpa. Se trata de una responsabilidad cuasi objetiva, o con inversión de la carga de la prueba de la culpa, en que el operador (inicial, final o ambos) estará sujeto a responsabilidad subjetiva respecto de todo daño o perjuicio causado por la actividad física o virtual del sistema.

Finamente nos referiremos al reciente caso de AIR CANADA publicado por la prensa internacional el día 16 de febrero, sobre responsabilidad civil empresarial derivada del mal funcionamiento de un sistema de inteligencia artificial.

La noticia informa que “Air Canada debe cumplir la política de reembolsos inventada por el chatbot de la aerolínea.

El Supuesto de hecho, es el funcionamiento defectuoso de un sistema de IA al emitir información confusa y contradictoria como política de la compañía que provoca una decisión del consumidor que incurre en un gasto que no le resulta parcialmente reembolsado.

El usuario, Jake Moffatt, en el día en el que murió su abuela, visitó el sitio web de Air Canada para reservar un vuelo de Vancouver a Toronto. Al no estar seguro de cómo funcionaban las tarifas por duelo de Air Canada, solicito al chatbot de Air Canada que se lo explicara.

El chatbot proporcionó información inexacta, animando a Moffatt a reservar un vuelo inmediatamente y solicitar el reembolso en un plazo de 90 días.

En realidad, la política de Air Canada establecía explícitamente que la aerolínea no reembolsaría los gastos de viaje por duelo una vez reservado el vuelo.

El Sr Moffatt, siguiendo el consejo del chatbot, solicitó un reembolso, pero Air Canada se negó y le prometió que actualizaría el chatbot y ofreció a Moffatt un cupón de 200 dólares para utilizar en un futuro vuelo. El Sr. Moffatt rechazó el cupón y presentó una reclamación de menor cuantía ante el Tribunal de Resolución Civil de Canadá.

El Tribunal, resolvió el caso a favor de Moffatt, y afirmó: «Air Canada argumenta que no puede ser considerada responsable por la información proporcionada por uno de sus agentes, servidores o representantes -incluido un chatbot» pero «no explica por qué cree que ese es el caso» o «por qué la página web titulada ‘Viaje de duelo’ era inherentemente más confiable que su chatbot». Tribunal dictaminó que Moffatt tenía derecho a un reembolso parcial de 650,88 dólares canadienses (CAD) de la tarifa original (unos 482 USD), que ascendía a 1.640,36 CAD (unos 1.216 USD), así como una indemnización adicional por daños y perjuicios para cubrir los intereses del billete de avión y los honorarios del tribunal. Air Canada afirmó que acataría la sentencia y consideraba el asunto cerrado; con el resultado práctico del cierre del chatbot de Air Canada.

La defensa de Air Canada es que el Sr Moffatt nunca debería haber confiado en el chatbot y la aerolínea no debería ser responsable de la información engañosa del chatbot porque “el chatbot es una entidad legal separada que es responsable de sus propias acciones».

Este argumento no fue admitido por el Tribual al considerar que «Air Canada no tuvo un cuidado razonable para garantizar que su chatbot fuera preciso y Air Canada que es responsable de toda la información en su sitio web (…) No hay diferencia si la información proviene de una página estática o de un chatbot».

Todo ello nos lleva a concluir que rige el principio de congruencia de la información proporcionada por los sistemas de IA, siendo responsabilidad del empresario su contenido mientras que el consumidor no es responsable de tener que comprobar su veracidad.

5. CONCLUSIONES

Hasta el momento actual los ordenamientos jurídicos disponen de herramientas para dar respuesta a esta problemática, pero lo cierto es que están apareciendo en el horizonte legal de la Unión Europea, lo que podríamos denominar como el “Derecho de los Robots” y la IA está en constante evolución anticipándose a las soluciones legales actuales y creando escenarios que quebrantan las estructuras vigentes para construir la responsabilidad civil de la que han de responder necesariamente los que crean el riesgo y generan el daño, para que el derecho del seguro cumpla con la función social que es la base de sus existencia.

 

 Jose Garzon Garcia - Departamento del SeguroJosé Garzón García 

Director del Departamento de Derecho del seguro | Madrid (España)

 

Belzuz Abogados SLP

La presente publicación contiene información de carácter general sin que constituya opinión profesional ni asesoría jurídica. © Belzuz Abogados, S.L.P., quedan reservados todos los derechos. Se prohíbe la explotación, reproducción, distribución, comunicación pública y transformación total o parcial, de esta obra, sin autorización escrita de Belzuz Abogados, S.L.P.

Madrid

Belzuz Abogados - Despacho de Madrid

Nuñez de Balboa 115 bis 1

  28006 Madrid

+34 91 562 50 76

+34 91 562 45 40

Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

Lisboa

Belzuz Abogados - Despacho de Lisboa

Av. Duque d´Ávila, 141 – 1º Dtº

  1050-081 Lisboa

+351 21 324 05 30

+351 21 347 84 52

Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

Oporto

Belzuz Abogados - Despacho de Oporto

Rua Julio Dinis 204, Off 314

  4050-318 Oporto

+351 22 938 94 52

+351 22 938 94 54

Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

Asociaciones

  • 1_insuralex
  • 3_chambers-2024
  • 4_cle
  • 5_chp
  • 6_aeafa