APLICACIONES DE LA AI Y SU CONTEXTO NORMATIVO

El término inteligencia artificial (AI, por sus siglas inglesas) se acuño en 1956, en la Conferencia de Dartmouth College (USA) y ya se consideró entonces que rozaba la ciencia-ficción. Pero, especialmente en los primeros años del nuevo milenio resurge en relación a un software cada vez más evolucionado. A día de hoy, la AI puede ser definida como toda técnica de aprendizaje de un sistema operativo, que confiere información no basada en la mente humana. Entraña, en efecto, una simulación de procesos de inteligencia humana por sistemas informáticos, ya se refiera al aprendizaje, al razonamiento o al tratamiento de la información. Sus aplicaciones son innumerables. AI ya aparece en todas las nuevas plataformas, aplicaciones o dispositivos. También en la interconexión de terminales y cosas en IoT (Internet de las cosas). Singularmente su utilización en la e-administración es cada vez más relevante: en las áreas de gestión de servicios, educación o sanidad facilitando la toma de decisiones automatizadas y basadas en algoritmos (por ejemplo, la concesión de becas o el área tributaria). Es permeable a cualquier área económica y se incorpora a una diversa gama de aplicaciones lo que hace muy plural su espectro a través de algoritmos de aprendizaje automático. Y entre ellas, contribuye sustancialmente al desarrollo de la robótica, de la que la AI constituye, gráficamente, su cerebro.

En efecto, una aplicación singular de la AI, es la robótica. Ésta se ocupa del diseño, manufactura y aplicaciones de los robots y combina diversas disciplinas tales como mecánica, electrónica, ingeniería e inteligencia artificial aplicada. Se dirige a establecer habilidades no humanas a través de contenidos digitales integrados. La industria robótica está en constante crecimiento. Del perfeccionamiento de la robótica, es claro ejemplo Sophia robot androide que posee la ciudadanía de Arabia saudita.

La generalización en el uso de robots, junto con el importante grado de autonomía alcanzado, ha generado un debate jurídico y ético sobre las posibles normas que regulan la responsabilidad asumida en su utilización. Es decir, quién es responsable por la actuación de un robot, y hasta qué punto los dispositivos inteligentes deben asumir la responsabilidad final de su comportamiento. En el ámbito europeo, como es sabido, el Parlamento aprobó a principios de 2017 un informe y recomendación dirigidos a una lograr una más alta cota de seguridad jurídica en la integración de la robótica en la vida de los ciudadanos europeos. Además, el Parlamento, consciente de la limitación de las leyes en esta materia, propuso un código de conducta ética voluntario en el campo de la robótica para investigadores, diseñadores y usuarios, con objeto de garantizar que el diseño y el uso de robots respete la dignidad humana en beneficio de empresas y consumidores. El siguiente paso fue la realización de una consulta pública, específicamente dirigida al futuro de la robótica y la inteligencia artificial, haciendo hincapié en las normas de Derecho civil. Abierta a nivel mundial la publicación de un nuevo informe debe estar disponible antes del fin de 2018. La dificultad de las materias abordadas, que inciden en los Derechos nacionales, augura una difícil concreción. Una futura actuación legislativa de la Unión europea, se moverá en tres ámbitos: la definición europea común de robot inteligente y los elementos que esta debería incluir; un sistema de registro para robots avanzados a nivel de la Unión y cómo debería ser éste, y finalmente un marco de la Unión para el desarrollo tecnológico basado en una conciencia social y ética. Dejando al margen los debates éticos y filosóficos sobre la personalidad del robot, -¿personas electrónicas?-posiblemente no sea descabellado un desdoblamiento del concepto personalidad jurídica en diversos estadios: persona física, jurídica, robótica, al igual que puede existir una cierta personalización de los animales. Pero, dicho desdoblamiento difícilmente puede ser abordado en el marco de los Tratados, más allá de la propiedad intelectual. Sobre ésta se debate si pueden ser titulares los robots. En el estadio actual, las normas civiles en las que podría subsumirse la robótica se basan en dos áreas fundamentales: la responsabilidad extracontractual y la protección de datos personales, ligadas a su vez a instrumentos europeos, posiblemente insuficientes. En primer lugar, la responsabilidad extracontractual, se limita al área conflictual, objeto del Reglamento (CE) n.º 864/2007 (Roma II) relativo a la ley aplicable a las obligaciones contractuales. Este Reglamento resuelve un problema de selección normativa, de carácter universal, sobre la base del daño cuyo concepto, autónomo, serán todas las consecuencias resultantes de un hecho dannoso, el enriquecimiento injusto, la gestión de negocios o la culpa in contrahendo. La misma insuficiencia se observa desde la perspectiva industrial, en la que está en marcha la actualización de la directiva 85/374/CEE, treinta y tres años después de su aprobación, abriéndose un debate sobre el concepto de producto, la responsabilidad que genera y la universalidad de la legislación europea. Finalmente, la globalización tecnológica obliga una acción concertada en Convenios internacionales, de la que es exponente la responsabilidad en automoción autónoma, clara aplicación de contenidos de inteligencia artificial en vehículos. En materia de accidentes de tráfico, no existen hoy por hoy singularidades para los vehículos autónomos. Es aplicable el Reglamento (CE) n.º 864/2007, citado, y en su ámbito, el Convenio de La Haya de 4 de mayo de 1971 sobre la ley aplicable en materia de accidentes de circulación por carretera. Es destacable la importancia del sector asegurador en la posible satisfacción del daño del vehículo autónomo, y por ende el contenido de los riesgos asegurados. La AI es esencial asimismo en el desarrollo de drones que presentan aspectos tecnológicos complejos. Su utilización puede estar sujeta a un especial régimen en ciberseguridad y aeronáutica. El Reglamento (UE) 2018/1139, sobre normas comunes en el ámbito de la aviación civil, establece pautas y límites a las aeronaves no tripuladas tengan o no la consideración de drones. Especialmente incide en la seguridad y en cumplimiento de derechos fundamentales por sus titulares. Para finalizar, debemos ser conscientes de que la AI aún es débil o primaria. Se basa en la actual utilización de big data. Cuando tecnológicamente se dé el salto a la creación de emociones o de sentido común, no se aludirá ya a las lagunas normativas ni a la neutralidad del legislador frente a la tecnología. Deberíamos tener claros, para entonces, unos principios éticos universales.

Utilizamos cookies propias y de terceros para mejorar nuestros servicios y mostrarle publicidad relacionada con sus preferencias mediante el análisis de sus hábitos de navegación. Si continua navegando, consideramos que acepta su uso. Puede cambiar la configuración u obtener    Más información
Privacidad