OPINIÓN. ROBÓTICA, INTELIGENCIA ARTIFICIAL Y DERECHO CIVIL: LAS RELACIONES PELIGROSAS. Por Teresa Da Cunha Lopes

 

Resumen: Mexico no puede, ni debe, aislarse de las fuerzas- motoras de la modernidad. Tampoco quedarse en el margen de los países que, el próximo año, en la reunión de Paris establecerán los lineamientos de un nuevo protocolo (que, seguramente, servirá de punto de partida para un tratado internacional) sobre la producción y uso de robots y Sistemas con Inteligencia Artificial . Sin embargo, al revés de la primacía que tienen en el diseño de políticas públicas en otras latitudes, estos temas están ausentes de la iniciativa de “Agenda digital” y de las propuestas de programa de gobierno de las diversas coaliciones.

Palabras-clave : Biojurídica, robots, inteligencia artificial , derecho civil, personalidad jurídica

Morelia, 31 de Mayo 2018.-Los robots y la inteligencia artificial (AI) están de moda, pero no en México, donde son los “grandes ausentes” de las propuestas de los candidatos y, los “olvidados “de la iniciativa de “Agenda Digital “para México.

No así en otras regiones, por ejemplo, en el bloque de países – miembros de la Unión Europea, se ha promulgado, recientemente una Resolución relativa a las Normas de Derecho Civil para el uso de Robots y sistemas con Inteligencia Artificial. Llegar a un entendimiento internacional sobre el desarrollo de estos campos y las vías para juridificar su producción y uso (de paso, anticiparse a sus impactos económicos y sociales) son uno de los ejes fundamentales del gobierno de Macron.

De los robots y de la Inteligencia Artificial (I.A.) se ha discutido en todos los campos: economía, ciencia e incluso política. Queda por saber qué oculta el término I.A.

Por supuesto, existen estos descubrimientos fantásticos que muestran que las máquinas ahora superan a los humanos en tareas específicas. En el sector de la salud, encuentran mejor que los médicos, el melanoma o los tumores de mama en las imágenes médicas. En el transporte, causan menos accidentes que los conductores. En la producción de bienes mayor flexibilidad, precisión y output. Sin mencionar otros avances: reconocimiento de voz, el arte del juego, la escritura, la pintura o la música.

Sin embargo, los cambios tecnológicos distintivos de las sociedades y de la economía del conocimiento,” no sólo inciden en las formas de producir los bienes de consumo masivo y en la redefinición de los modelos organizacionales empresariales para la competitividad en el mercado; también transforman el comportamiento de los individuos, de sus relaciones de trabajo, del papel del Estado como regulador y del mundo laboral en su conjunto” (Da Cunha Lopes et Alli:2013).

Como sería de esperar, estos desarrollos plantean preguntas. Las consecuencias en el empleo son preocupantes, las de responsabilidad legal en caso de error parecen no tener respuesta. Por no hablar de la protección de la privacidad frente a estos robots capaces de ver todo, escuchar todo, predecir todo (o casi) y enviar los datos recopilados en los servidores de las empresas que no siempre sabemos lo que va a hacer.

Frente a esta masificación de robots y algoritmos inteligentes entre nosotros, el individuo se coloca preguntas ¿El ser humano está amenazado por la tecnología? ¿Puede la máquina dominarlo? ¿Dónde termina el cíborg e inicia el transhumano? (Harari:2017).

Es por esto por lo que necesitamos ejercitar robots para identificar y evaluar con precisión los aspectos éticos de una situación dada (como la existencia de beneficios potenciales o daños para un ser humano). En consecuencia, necesitamos inculcar en las máquinas el deber de actuar de manera apropiada (es decir, maximizar esos beneficios y minimizar esos daños). Que es urgente colocar cuestiones éticas que tendrán que estar inscritas en el código de las máquinas, sino que también es urgente diseñar una arquitectura jurídica que encuadre los complejos problemas de la responsabilidad. Esto pasa por una reflexión sobre la cuestión general de la “personalidad jurídica” de los robots con Inteligencia artificial y por propuestas concretas de jurisdificación (Sagan y Singer:2009) o de ampliación del concepto de “persona” (Maia: 2017).

Ahora bien, si la tarea que tenemos delante es urgente y clara en su objetivo – la definición de un estatuto jurídico para los robots con Inteligencia artificial- lo mismo no podemos decir de los “caminos y los medios” para llegar a ello. Tal como Joanna Caytas lo observó, la persistencia del “mito” de una adaptación (ampliación o extensión) de conceptos e institutos legales a los nuevos contextos tecnológicos dominados por la presencia masiva de robots (máquinas) con I.A. en todos los ámbitos del cotidiano, es extraordinariamente contraproducente: “many assume that, because machines have been around since centuries, laws applicable to robots will just require some well-adjusted analogies. But they would be wrong, and the need for a Law of Robotics becomes increasingly more evident. “(Caytas: 2017).

Esta necesidad de producción de un “Derecho de la Robótica” (“Law of Robotics”) como campo autónomo (tal como a finales del siglo XIX, frente a otro avanzo tecnológico, se autonomizó el derecho a la intimidad y a la privacidad) es una opinión que comparto con Caytas, siguiendo el camino doctrinal abierto por Ryan Calo (Calo: 2015) y por Anders Sandberg (Sandberg:2015). Estamos ante un momento de transición a la 4ª globalización, con procesos de convergencia de la producción y, bajo fuerzas globalizadoras y globalizantes entre diversas culturas jurídicas.

Pero, para allá de estas fuerzas motoras, tenemos un potencial eje de ruptura de la arquitectura jurídica de una sociedad que ya no estará compuesta solamente por humanos, en que la frontera entre el humano y la máquina será difusa y, en que hasta en las propias estructuras de producción (redacción ) de los corporii iura, de impartición de justicia , de seguridad pública y de prevención del delito veremos, cada vez con más frecuencia, la presencia de máquinas inteligentes y el uso de algoritmos inteligentes. Así que, o atacamos de frente las cuestiones ético-jurídicas colocadas por los robots con I.A. y los algoritmos inteligentes o entraremos en una espiral de crisis que nos rebasará.

Sin embargo, hay que tener presente, que es de especial relevancia desarrollar dos subcampos al interior del “Derecho de la Robótica”. Un subcampo dedicado a la cuestión de la Responsabilidad en Derecho Civil (que proteja a los humanos, pero enfatice las ventajas de las aplicaciones civiles de los robots autónomos) y, un otro subcampo que se debe ocupar del uso militar y en actividades de seguridad de máquinas autónomas. Este último, mucho más restrictivo, a partir de la producción de tratados internacionales sobre su producción y uso o, en su caso previendo una total prohibición de los “robot killers”, con protocolos rígidos y jerarquías de cadena de mando perfectamente identificada (Da Cunha Lopes: 2013).

En consecuencia, ante la urgencia de la definición de una “ley-modelo” o, en su caso de estándares mínimos de regulación común de este nuevo campo, en febrero del 2017, el Parlamento europeo adoptó una Resolución , bajo propuestas del informe elaborado por

Maddy Delvaux (Resolución 2015/2103 INL del Parlamento Europeo) sobre “Normas de Derecho Civil sobre Robótica”, en virtud, tal como lo refiere dicha resolución , de la existencia de una laguna legislativa que urge subsanar ya que : “en el actual marco jurídico, los robots no pueden ser considerados responsables de los actos u omisiones que causan daños a terceros; que las normas vigentes en materia de responsabilidad contemplan los casos en los que es posible atribuir la acción u omisión del robot a un agente humano concreto —como el fabricante, el operador, el propietario o el usuario—, y en los que dicho agente podía haber previsto y evitado el comportamiento del robot que ocasionó los daños; que, además, los fabricantes, los operadores, los propietarios o los usuarios podrían ser considerados objetivamente responsables de los actos u omisiones de un robot”.

La Resolución fue votada a partir, como ya lo referí , del trabajo final de Delvaux, mismo que integra las aportaciones y estudio “sobre los aspectos éticos de los sistemas ciberfísicos realizado en nombre del Grupo de expertos de STOA (Evaluación de las Opciones Científicas y Tecnológicas) y dirigido por la Unidad de Prospectiva Científica (STOA) de la DG EPRS” y las recomendaciones de diversos organismos de la Unión , tales como la Comisión de Asuntos Jurídicos y las opiniones de la Comisión de Transportes y Turismo, de la Comisión de Libertades Civiles, Justicia y Asuntos de Interior, de la Comisión de Empleo y Asuntos Sociales, de la Comisión de Medio Ambiente, Salud Pública y Seguridad Alimentaria, de la Comisión de Industria, Investigación y Energía, y de la Comisión de Mercado Interior y Protección del Consumidor . En particular, resalto las propuestas elaboradas por Georg Mayer, de la Comisión de Transportes y Turismo y por Michał Boni de la Comisión de Libertades Civiles, Justicia y Asuntos de Interior.

Uno de los puntos más importantes del texto final de la resolución es el énfasis colocado sobre la cuestión de autonomía (ver considerando AA, sección Responsabilidad de la Resolución supra citada) y, como a partir de esta definición se coloca el punto de partida para establecer, vis-a-vis de los robots con I.A.: “la cuestión de su naturaleza y de si pertenecen a una de las categorías jurídicas existentes o si debe crearse una nueva categoría con sus propias características jurídicas”.

Es precisamente, a partir del reconocimiento de la naturaleza específica de la Robótica (y de la I.A.) que el texto de la Resolución propondrá establecer definiciones comunes que serán tomadas en cuenta para la determinación de los “Principios Generales “de la robótica y de la

I.A. para uso civil. Estas definiciones comunes dicen respeto al:” de sistema ciberfísico, sistema autónomo, robot autónomo inteligente y sus distintas subcategorías “. (Resolución, op. Cit. 2017).

Es evidente que el texto de la “Resolución” , por su propia naturaleza normativa y estructura rígida, deja en abierto la discusión sobre la cuestión de la “autonomía” y, en particular el difícil problema filosófico ( ontológico y político) de la distinción entre la “autonomía” del humano y la “autonomía” de la máquina inteligente, cuestión que es abordada por documentos de referencia, tales como el publicado por la IEEE : “the critical difference between human autonomy and autonomous systems involves questions of free will, predetermination, and being (ontology). The questions of critical ontology currently being applied to machines are not new questions to ethical discourse and philosophy and have been thoroughly applied to the nature of human being as well. John Stuart Mill, for example, is a determinist and claims that human actions are predicated on predetermined laws. He does, however, argue for a reconciliation of human free will with determinism through a theory of compatibility” (IEEE: 2016).

Estas “normas civiles” deben poner de relieve y, esta es una de las preocupaciones de la Resolución 2015/2103 : “que el desarrollo de la tecnología robótica debe orientarse a complementar las capacidades humanas y no a sustituirlas; considera fundamental garantizar que, en el desarrollo de la robótica y los sistemas de inteligencia artificial, los seres humanos tengan en todo momento el control sobre las máquinas inteligentes; estima que debe prestarse especial atención al posible desarrollo de un vínculo emocional entre seres humanos y robots —especialmente en el caso de grupos vulnerables, como niños, personas mayores y personas con discapacidad—, y destaca los problemas que pueden plantear las graves consecuencias físicas y emocionales que este vínculo emocional podría causar a los seres humanos” .

Estos últimos puntos son esenciales, tal como diversos autores lo resaltan para el debate sobre el diseño de los diversos “niveles” de “arquitectura jurídica” ya que: “Considering an artificially intelligent agent as a separate legal entity would enable legal frameworks to consider it as a legal agent in cases such as John and Jane’s, that we described above, which will only become more and more frequent as time goes by. It would also give legal systems the chance to tailor an adequate legal status for these artificially intelligent agents, with rights and duties appropriate to their traits, rather than simply trying to frame these entities under

an existing legal framework drafted for a different reality, such as persons, animals or objects, which would not necessarily suit them adequately” (Maia: 2017).

No niego, que tal como lo defiende el experto en robótica Murray Shanahan, (asesor de la película de ciencia ficción Ex Machina, sobre una máquina que piensa y siente como un humano) que las ventajas que la robótica avanzada aportará a nuestra civilización son inmensas, sin embargo, también no puedo esconder mi preocupación ante la posibilidad de avanzar para la producción de un mundo “distópico”, escenario real si no encuadramos jurídicamente los problemas concretos de la robotización de nuestras sociedades (Scherer: 2016).

Mapear el futuro de la I.A pasa por la promesa de “robots éticos” y, por una geometría jurídica que posibilite la construcción de fundamentos legales de las aplicaciones civiles y de los límites de los usos militares.

Mexico no puede, ni debe, aislarse de estas fuerzas- motoras de la modernidad. Tampoco quedarse en el margen de los países que, el próximo año, en la reunión de Paris establecerán los lineamientos de un nuevo protocolo (que, seguramente, servirá de punto de partida para un tratado internacional) sobre estas materias.

*NOTA: Esta columna de opinión es una versión reducida y de difusión basada en el texto de una ponencia que la autora presentó en el Congreso Academia Journals Morelia 2018, bajo el tema “CUESTIONES ÉTICAS Y JURÍDICAS SOBRE LA PERSONALIDAD DE LOS ROBOTS CON INTELIGENCIA ARTIFICIAL

Referencias bibliográficas para el lector(a) con curiosidad intelectual:

Allgrove B, (2004).’Legal Personality For Artificial Intellects: Pragmatic Solution Or Science Fiction?’ (Master, University of Oxford 2004)

Baldwin, Richard E., The great convergence: information Technology and the new Globalization /Kindle

Cassini, S., Piquard, A. , Larousserie D. (2017). Les 5 familles de la Intelligence Artificielle. In Le Monde , éd. 31 /12/2017, consultado el 8 de abril 2018 en la URL http://abonnes.lemonde.fr/pixels/article/2017/12/31/les-5-familles-de-l-intelligence-artificielle_5236310_4408996.html

Caytas J. (2017). ‘European Perspectives On An Emergent Law Of Robotics’ Columbia Journal of European Law 2017 https://ssrn.com/abstract=2956958 Consultado 23 mayo 2017

Geraldes Da Cunha Lopes, Teresa Maria. (2013) . Seguridad internacional y Derechos humanos en el siglo XXI: problemas ético-jurídicos del uso de los drones. Revista Letras Jurídicas, CEDEGS/UV

Geraldes Da Cunha Lopes, Teresa Maria (2016). Drones, Robot Killers y Derechos Humanos. Available from: https://www.researchgate.net/publication/301347073_Drones_Robot_Killers_y_Derechos_Humanos [Consultado en 03/05 /2018].

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *