Cargando. Por favor, espere

Robotiuris 2017: crónica de un anális...

Robotiuris 2017: crónica de un análisis multidisciplinar de la robótica y la inteligencia artificial

  • 27-11-2017 | Wolters Kluwer
  • La segunda edición de este congreso permitió profundizar en el análisis de los aspectos jurídicos, éticos y sociológicos de los últimos avances tecnológicos.
Portada

Carlos B Fernández. No hay ninguna óptica única capaz de hacernos entender los cambios a los que estamos asistiendo. Por eso hace falta un enfoque multidisciplinar para conocer lo que está pasando, y acercarnos a su estudio con la conciencia de que no hay conclusiones definitivas, porque lo rápido del cambio cambia la sustancia de las cosas.

Así se manifestó Antonio Garrigues Walker, presidente de la Fundación Garrigues, en la apertura del II Congreso Robotiuris, añadiendo que ningún avance deja de plantear problemas éticos, filosóficios y legales. Y este enfoque multidisciplinar es precisamente el que sigue este foro de encuentro de juristas y científicos, organizado por la Fundación Fide y dirigido por Alejandro Sánchez del Campo.

Su objetivo, igual que en la edición anterior, es el análisis de los nuevos avances en robótica e inteligencia artificial (IA) y de la problemática que los mismos suscitan.

La inteligencia artificial. Situación y perspectivas

En un mundo dominado por la omnipresencia del concepto de “Inteligencia artificial”, se hace cada vez más necesario escuchar las voces de los auténticos conocedores de esa materia, uno de los cuales es Ramón López de Mántaras, Profesor de Investigación del Consejo Superior de Investigaciones Científicas (CSIC) y Fundador del Instituto de Investigación en Inteligencia Artificial del CSIC, que abrió el congreso.

López de Mántaras explicó que la IA, como ciencia que trata de estudiar el comportamiento inteligente a partir de modelos matemáticos, se está convirtiendo en un concepto cada vez más transversal.

Pero incluso prescindiendo del concepto preciso de inteligencia, que es una palabra en la que caben diferentes categorías, no conviene identificar la inteligencia de la máquina con la de los humanos.

Nosotros inferimos muchas cosas de la realidad que nos rodea que una máquina, como ejemplificó por medio de una fotografía en la que un sistema inteligente solo es capaz de identificar con cierta precisión objetos físicos concretos, pero no su contexto. Los humanos poseemos unos conocimientos genéricos y un sentido común de los que la máquina carece.

Por eso la inteligencia humana es más versátil y general, al menos por ahora, que la IA. Esta es muy específica y solo es capaz de trabajar en entornos muy controlados, como el ajedrez, la pintura o la medicina. Pero todavía presenta grandes problemas que la hacen frágil y falta de robustez (por ejemplo, no hace análisis semántico de expresiones ni es capaz de reconocer el significado de una imagen).

Los grandes riesgos que se achacan a la IA son la posibilidad de generar desempleo, el comportamiento de los sistemas autónomos como los coches autoconducidos y la privacidad.

En cuanto al primero, López de Mántaras indicó que por ahora no hay que preocuparse mucho por la llegada del momento de la singularidad al que se refieren científicos como Ray Kurzweil, pues no parece próximo el momento en que una máquina dotada de una superinteligencia general pueda superar a los humanos.

En cuanto a los vehículos autónomos, dado que se trata de mecanismos extremadamente complejos que recurren a múltiples tecnologías diferentes (de percepción, aprendizaje, razonamiento, planificación, comunicación o interacción con el entorno), su momento llegará con el desarrollo de sistemas integrados, que permitan integrarlos eficazmente entre sí. Y, por supuesto, evitando el riesgo de que sean hackeados.

Dado que en estos vehículos la seguridad es un aspecto extremadamente crítico y que todavía se están detectando múltiples fallos en sus sensores y en la interpretación de las señales de tráfico, se estima que el momento en que se disponga con vehículos de nivel 5 de autonomía (en el que la máquina posea el pleno poder sobre el vehículo), todavía va a tardar en llegar. Al 4, en el que la máquina posee el control, salvo determinados supuestos en que pasa al humano, se prevé que todavía le queden unos 10 años.

Finalmente destacó que en el sistema empresarial español la IA está muy introducida en las pequeñas y jóvenes empresas de base tecnológica, y también en alguna de las grandes, como Telefónica, que empiezan a adoptarla con fuerza.

El sesgo de los algoritmos

Uno de los problemas más recurrentes cuando se habla se IA es el del sesgo o condicionamiento que puede introducirse en la programación de los algoritmos que se aplican para la toma de decisiones de estos sistemas.

Según Antonio Muñoz, Senior Legal counsel en Telefónica Digital, que intervino en la mesa sobre IA y Big Data, el sesgo es básicamente un error sistemático relacionado con la estadística, que provoca un alejamiento entre el resultado obtenido o predicho y la realidad.

Como consecuencia de este comportamiento se suele producir una discriminación (aunque también puede producirse esa discriminación aunque no exista sesgo alguno).

El error puede provenir de la fuente de datos (y debe tenerse en cuenta que sin datos de calidad no cabe realizar predicciones o adoptar decisiones fiables); del algoritmo (es decir, del analista que lo codifica) o surgir en la interpretación de las conclusiones por el usuario. Igualmente hay sesgos sociales o culturales (por ejemplo el traductor de Google cambia el género de la persona según que en una cultura una profesión sea predominantemente masculina o femenina); lingüísticos o cognitivos (como la conocida falacia cognitiva). Y no debe olvidarse el conocido como sesgo de disponibilidad, que determina que se suela recuperar antes la información que está más disponible

Y luego está la lógica del algoritmo que se aplica a esos datos y que según se quiere establecer, debe ser fácilmente explicable, algo difícil de hacer, sobre todo si se tiene en cuenta que hay respuestas del algoritmo que resultan difíciles de entender incluso por los técnicos que lo programan.

Por otra parte, Marlon Molina, Director de ComputerWorld University destacó que la IA por sí no es ni racista ni clasista, sino que se orienta a los perfiles que económicamente interesan a las empresas. El problema es que la consecuencia es que muchas veces el consumidor que realiza una compra es porque está siendo guiado hacia ella.

Todo ello determina que los dominios con más impacto en el ámbito de la IA y eñ Big Data vayan a ser la tecnología (que va a permitir crear cualquier cosa con sentido económico); la sociedad (que es muy propensa al uso de la tecnología, pero que no suele adoptar precauciones al usarla, fiándose del proveedor; la política, cuyas decisiones suelen estar muy alejadas de la realidad y la economía, donde surge el problema de la responsabilidad y las consecuencias de su uso.

El futuro de la IA

James Whittaker, Distinguished Engineer and Technical Evangelist de Microsoft, aportó, en conexión via Skype, una mirada diferente y original sobre el tema del futuro de la IA.

Este vendrá marcado por la importancia del dato, que será el eje de toda actividad. “Data are in the heart of everything”, los datos están en el corazón de todo y la innovación se produce gracias a los datos, enfatizó, por lo que el mundo solo podrá entenderse a partir de la comprensión del dato.

Hasta hace muy poco era muy difícil extraer contexto de los datos y poder relacionarlos, algo que ahora, gracias al desarrollo de la capacidad de almacenamiento de información y de proceso de datos está alcanzando un alto nivel.

Por eso Whittaker recomienda a los abogados formarse también como científicos de datos (data scientist), porque el problema no es escribir código informático, sino entender los datos. Y por ello, dado que la tecnología es necesaria para solucionar los peores problemas de la humanidad, les aconsejó hacer lo posible por integrarse en los equipos que diseñen las nuevas máquinas. Acercándose a las máquinas, concluyó, estarás mucho más preparado para el futuro.

El derecho civil y penal en la era de la realidad virtual y la ciberrealidad

Probablemente uno de los problemas más mencionados cuando se trata de estas materias es el de la responsabilidad por las consecuencias del uso de las tecnologías.

En relación a tema, Andy Ramos, Abogado de Bardají & Honrado, comenzó planteando la duda sobre la ley aplicable a los entornos virtuales, si es la del operador o la del titular de la plataforma.

A continuación, en nombre de Noemí Brito, planteó las relativas a las consecuencias de la generalización del uso de los hologramas y los chatbots y los efectos sobre los mismos de los principios de privacidad por defecto y desde el diseño.

Según Susana González, Directora de Hiberus LegalTech, la realidad virtual y aumentada aporta importantes mejoras de la experiencia de usuario, pero también riesgos como los relacionados con la ingeniería de las emociones (con sus correlativos efectos en la toma de decisiones); el adoctrinamiento y la inducción a la realización de conductas violentas.

También se refirió a la novedosa figura del virtual commerce (modalidad de comercio electrónico ampliado con recursos visuales generados desde la plataforma que permiten, por ejemplo, a una persona visualizarse a si misma con la ropa que se plantea comprar) que plantea riesgos como la propiedad de esa imagen o avatar, la utilización de datos para fines distintos de los originales, su transferencia a terceros, la ciberseguridad o el neuromarketing.

Por ello destacó la importancia de la información a ofrecer al usuario, la anonimización de datos, los códigos de buenas prácticas y los estándares de normalización.

Ética y responsabilidad en el diseño de robots e IA

Sobre este interesantísimo y tan relevante tema Javier Torre de Silva, Socio del Departamento de Derecho Público y Sectores Regulados de CMS-Albiñana & Suárez de Lezo, comenzó señalando que la ética no es una opción, sino una necesidad, porque si estamos pensando en delegar decisiones en sistemas automáticos, estos deben compartir nuestros valores.

Por tanto, los sistemas destinados a asesorar en la toma de decisiones deben trabajar desde su diseño con un conjunto de reglas éticas mínimas.

Sin embargo, esta idea, ya incluida en la propuesta de resolución del Parlamento Europeo sobre el desarrollo de la IA y la robótica, es difícil de pasar a un código máquina, porque la ética no es un simple conjunto de normas socialmente admitidas.

Por otra parte, añadió, la ética que debe seguir la máquina no tiene porqué ser exactamente la misma que la de los seres humanos, ya que su actividad no es la misma. En otras palabras, la máquina debe permitir a los hombres ser éticos, no ser ética ella misma.

Además, en opinión de Torre, resulta indiferente que una IA sea o parezca ética. Lo importante es que siga unos patrones que parezcan éticos, porque la máquina no tiene una intención consciente.

Por todo ello, concluyó, para enseñar ética a un robot habría que combinar un método deductivo (extrayendo consecuencias), con el inductivo de la validación de las conclusiones. Es decir, un método ensayo-error basado en la experiencia.

Por su parte, Amparo Grau, Profesora del Departamento de Derecho Financiero y Tributario de la Facultad de Derecho de la UCM y miembro del proyecto INBOTS (Inclusive robots for better society), recordó que una de las bases de la roboética es fijar los criterios para dar respuesta a los problemas éticos derivados de la creación y uso de los robots, a partir de su dimensión social.

En particular, se refirió al debate en torno a la posibilidad de reconocimiento de una personalidad jurídica robótica impulsado por el Parlamento Europeo y analizado por el reciente informe de nuestro CES sobre “Digitalización de la economía” .

Recordó igualmente que esa transición normativa debería basarse en el interés de la comunicad, preguntándose hasta dónde hay que regular. Algo que según su opinión debería basarse en una tutela de las instituciones públicas del modo de incorporación de los robots a la economía en una regulación basada en la responsabilidad social de las empresas basada en los principios de transparencia y rendición de cuentas y en una consideración detallada de los costes y beneficios que se pueda obtener por la misma.

Finalmente Eduard Fosch, Investigador Postdoctoral en la Queen Mary University of London y miembro del Grupo de Estandardización de la SPARC y de la Foundation for Responsible Robotics, destacó, citando el trabajo de Peter Asaro, que los principales factores que van a condicionar el desarrollo de una ética robótica que marque el paso de una robótica industrial a otra de servicio, debe venir de la consideración de factores como la interacción entre el hombre y la máquina, la ética del diseño y la ética aplicada a los robots. La regulación resultante de esta reflexión deberá dar lugar al marco de exigencia de responsabilidades por los eventos dañosos que se puedan producir.

Los sistemas de armas autónomos. Implicaciones, desafíos y riesgos.

El desarrollo de sistemas de armas capaces de adoptar de forma autónoma la decisión de abrir fuego contra seres humanos, es una de las expectativas más inquietantes cuando se trata de robótica y una de las que mayores implicaciones éticas ofrece.

Las características de autonomía de estos sistemas y la dificultad de asegurar que el blanco perseguido es el alcanzado, evitando otras víctimas colaterales, son los principales interrogantes que se plantean.

Para exponer las principales consideraciones sobre este tema asistieron Milton Meza Rivas, Investigador en derecho internacional público y relaciones internacionales de la Universidad de Barcelona y asesor del Grupo de Trabajo sobre sistemas de armas autónomas letales de la ONU, y Carlos Esposito, Catedrático de Derecho Internacional Público en la Facultad de Derecho de la Universidad Autónoma de Madrid.

En el marco de la ONU esta cuestión se comenzó a tratar en 2010, con un informe del relator de la ONU en el marco de una investigación de máquinas autónomas y la eliminación física de personas sin juicio previo.

A este informe siguió otro de 2013 que puso de manifiesto que ya se está usando tecnología que pone en riesgo los principios de la ONU de legalidad, autonomía y responsabilidad en el uso de armas convencionales.

En concreto, el Convenio sobre prohibición o restricción del empleo de ciertas armas convencionales que pueden considerarse excesivamente nocivas o de efectos indiscriminados (CCAC o CCW en inglés, por Convention on Certain Conventional Weapons), pretende restringir los daños excesivos, desproporcionados o indiscriminados causados por armas de guerra.

En este contexto, si bien no existen armas completamente autónomas, si se cuenta ya con las denominadas SAAL que una vez activadas no requieren intervención humana para seleccionar y atacar un objetivo.

Este tipo de armas plantean problemas del tipo: definición del objetivo (teniendo en cuenta la dificultad para distinguirlo de otros); la legalidad del arma empleada (en el sentido de que no cause daños innecesarios o excesivos); el concepto de autonomía del arma (¿hasta qué punto la máquina es llibre?); el riesgo de daños colaterales y la responsabilidad derivada del ataque (incluido el riesgo por la pérdida de control del sistema).

Impacto de los robots y la inteligencia artificial en el mercado laboral. ¿Cómo afecta al mundo de los abogados?

Esta última mesa planteó los problemas más inmediatos que la tecnología ofrece en el trabajo de los abogados.

Para empezar Eva Bruch, consultora y socia de AlterWork, sostuvo que la sociedad sufre problemas que solo los abogados pueden resolver, pero que a su vez ello plantea el problema del acceso a la justicia de muchos ciudadanos que no pueden permitirse pagar los honorarios de un abogado.

Y la tecnología ya está aportando soluciones a este problema, en particular en aquellos ordenamientos como los anglosajones en los que el coste de un proceso puede resultar desorbitado.

Por otra parte, añadió, la tecnología también está aportando soluciones para agilizar el trabajo del día a día de los abogados, mejorando la gestión interna, la calidad de los servicios prestados y también desarrollando nuevos productos y servicios.

Carlos de la Torre, Of Counsel del Departamento Laboral de Baker & Mckenzie, añadió por su parte que consiguiendo más eficiencia a menor coste revalorizará el trabajo de los abogados, que cada vez más debe ser un asesor estratégico de los clientes. Sin embargo, muchas de estas tecnologías están todavía en un estado embrionario, por lo que falta aun un tiempo para su implantación efectiva.

Ricardo Oliva, abogado socio de Lexmotive y autor del blog Algoritmo Legal, destacó que la causa de la resistencia al cambio que se aprecia en la abogacía proviene de la formación recibida en las universidades, que tienden a una acumulación pasiva de conocimientos que aísla al estudiante.

El abogado, añadió, debe gestionar la incertidumbre y resolver problemas legales complejos a los que la IA no puede dar respuesta. Por tanto, requieren de una educación orientada a la práctica, en la que se deberían reemplazar las aulas clásicas por laboratorios de aprendizaje.

También debe de tenerse en cuenta que la tecnología, al reducir la carga de trabajo en áreas como la gestión del conocimiento o la atención al cliente, afecta al concepto de hora facturable.

Pero como hemos dicho al principio, en Robotiuris no solo se abordan aspectos puramente jurídicos de la robótica. Otros aparentemente poco relacionados con ella, pero igualmente importantes, tienen su cabida en este foro.

Tecnología y salud. El reto de las prótesis biónicas, los exoesqueletos y los nanobots.

Sin duda uno de los sectores en los que la robótica, en sus distintos tamaños y formas, más está avanzando, es el de la medicina. En este sector son cada vez más frecuentes las prótesis biónicas cada vez más avanzadas que sustituyen con gran precisión a miembros amputados o dañados o los exoesqueletos que permiten el movimiento a personas que lo han perdido.

Para hablar de la situación de este sector se contó con la participación de los doctores García Barreno, catedrático emérito de la Universidad Complutense de Madrid, y José Luis Pons, Director del grupo de neurorrehabilitación del departamento de neurobiología funcional y de sistemas, CSIC.

El papel de la educación en la sociedad digital. La formación en la inteligencia

Y finalmente, sobre el apasionante tema de cómo la educación puede contribuir al desarrollo de una mayor inteligencia de las personas, José Antonio Marina, Filósofo y pedagogo, expuso que es necesario un cambio en la idea de inteligencia.

La inteligencia es una combinación de biología y capacidad de aprendizaje que determina dos niveles: la inteligencia consciente o ejecutiva (que requiere un alto nivel de concentración que consume energía y por tanto genera cansancio cuando es sostenida) y la inteligencia generadora o computacional que, aunque permite aprender o realizar cálculos o tareas muy complejas, funciona de forma inconsciente o automatizada, con un bajo consumo de energía.

La clave de esa mejora de la inteligencia, según Marina, puede basarse en un entrenamiento que favorezca la automatización de los procesos mentales.

Lo difícil en la vida, señaló, es decidir porqué una alternativa es mejor que otra. Por ello se planteó si es posible establecer un sistema educativo capaz de organizar la memoria informática de cada sujeto y entrenarle además en la toma de decisiones correctas. Esto sería especialmente posible no solo entre los cero y los siete años, que tradicionalmente se consideraban la edad de oro del aprendizaje, sino también entre los 13 y los 18, que es otra fase fundamental en la formación de las personas.

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioWolters Kluwer no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar

Últimos tweets

NÚMEROS DISPONIBLES

Scroll