Este artículo ha sido publicado en el número 109 de la Revista Telos, de la Fundación Telefónica, que se presenta este jueves.

La nueva era tiene ya muchos nombres: la era de la perplejidad, la era de la incertidumbre, la era de la complejidad, y otros varios. Todos ellos son ciertos e incompletos. Todos ellos nos tienen que obligar a tomar más en serio los riesgos que se están generando para los derechos de la ciudadanía y en conjunto para la condición humana.

Al mundo del derecho se le están acumulando muchas y nuevas obligaciones a las que tendrá que responder con ingenio, talento, agilidad y flexibilidad si no quiere perder el protagonismo que le corresponde en una sociedad insegura y desconcertada ante los profundos cambios que están generando una auténtica nueva realidad. Y no va a ser tarea fácil.

El profesor José Esteve Pardo es en estos momentos el que viene analizando con mayor rigor este tema que resume así: “La ciencia, la filosofía, la sociología, que antes operaban con certezas, las están abandonando, dejando al derecho y a los poderes públicos ante su irrenunciable función de decidir. El problema es que ellas pueden permitirse la incertidumbre, el derecho no”.

Inteligencia artificial

La inteligencia artificial –que engloba temas como la robótica, la manipulación genética, la nanotecnología y otros muchos que a su vez se relacionan con el posthumanismo y el transhumanismo– se ha convertido en un eje clave de la vida actual que merece la pena conocer con más seriedad y profundidad de la que se está aplicando hasta el momento.

Habrá que partir de las siguientes ideas básicas:

  • Todos los avances tecnológicos y científicos tienen implicaciones jurídicas. Nuestro estamento no puede dar la espalda a esta realidad.
  • La ciudadanía en su conjunto no es consciente de cómo esos avances pueden afectar a sus derechos concretos y a la estructura y vertebración actual de la sociedad. El derecho a la intimidad y a la privacidad, –y no es el único ejemplo– se está diluyendo sin ninguna reacción eficaz. Temas aún más sensibles pueden estar en cuestión y en riesgo.
  • El mundo científico, con el decidido apoyo del mundo jurídico, tiene que hacerse más cercano al ciudadano y promover una divulgación mediática más constante y más comprometida sobre los efectos de sus investigaciones y descubrimientos.
  • El mundo político tiene así mismo el deber de ser consciente de estas nuevas realidades y abrir un debate tanto sobre el impacto en el sistema de pensiones como sobre los cambios y los riesgos que podrían generarse en otros muchos campos. No pueden seguir aislados en un gueto operando siempre a corto plazo por la presión electoral.
  • En todas estas tareas y deberes será vital organizar encuentros multidisciplinares en donde participen científicos y tecnólogos que nos eduquen y nos orienten en los nuevos procesos y en las implicaciones previsibles. Desde una mente fija y unidimensional es imposible entender problemas tan complejos y por lo tanto buscar las soluciones adecuadas.
  • El mundo jurídico no es el factor único ni el factor clave de este proceso, pero no puede renunciar a tener un protagonismo especial como estamento a quien corresponde regular, por medio de la ley, la convivencia ciudadana dando a cada uno lo suyo.
  • El mundo jurídico debe aprestarse, no a controlar ni a limitar los avances científicos y tecnológicos, –una tarea por demás imposible– pero sí a conocerlos con profundidad y prever –tarea no imposible pero sí extremadamente difícil– sus consecuencias en cuanto a derechos básicos y el orden legal en su conjunto.

Algunas de estas ideas figuran en el trabajo del 9 de marzo de 2018 del Grupo Europeo sobre Ética en la Ciencia y en las Nuevas Tecnologías, titulado Declaración sobre inteligencia artificial, robótica y sistemas autónomos. De hecho, este tema aparece en el orden del día de todos los encuentros sean jurídicos, empresariales, sociológicos o políticos.

La inteligencia artificial, como dice el documento de la Comisión Europea, no es ciencia ficción. Forma ya parte de nuestra vida cotidiana y nos afectará crecientemente, aceleradamente y de forma impredecible en los próximos tiempos.

Sobre ella, el desaparecido Stephen Hawking planteó la situación con términos dramáticos: “La inteligencia artificial puede suponer el fin de la humanidad”. Según este científico los sistemas avanzados de inteligencia artificial tendrán la capacidad de “tomar el control de los mismos, rediseñándose a un ritmo que aumentará cada vez más”, un ritmo que “los humanos, limitados por su evolución biológica, no podrán seguir y serán superados”.

Otros científicos –entre ellos Ray Kurzweil (La Singularidad está cerca. Editorial Lola Books, 2012)– dan por seguro que la inteligencia artificial superará a la humana antes del 2030 pero que no habrá conflicto sino cooperación entre ambas y algunos afirman que no es imposible que los robots puedan generar sentimientos y emociones como los humanos.

Longevidad

Al tema de la inteligencia artificial se une ahora la lucha por extender al máximo la longevidad. La gran mayoría de los niños europeos que nazcan estos días alcanzarán fácilmente los cien años y cada año la esperanza de vida –como consecuencia de la generalización de las dietas sanas, el ejercicio físico y los avances científicos en el tratamiento y prevención de enfermedades– irá aumentando entre dos y tres meses, con lo cual en pocas décadas podríamos estar hablando de edades medias de 120 o 130 años, una cifra que no debe sorprendernos porque también se duplicó la edad entre el siglo XIX y el XX.

Hay incluso autores que defienden la idea de la inmortalidad biológica y otros que propugnan la criopreservación en espera de nuevos descubrimientos científicos que pudieran permitir un renacimiento.

Nuevas actitudes

Esta es la síntesis de una situación que va, en efecto, a imponer a los abogados, los académicos y los jueces nuevas tareas, nuevas actitudes y nuevos modos de convivir, incluso con agrado intelectual, con la incertidumbre y la complejidad.

Es una situación similar a la que vivieron otras generaciones ante cambios (entre ellos la imprenta, la luz eléctrica, el tren y el avión) tan esenciales, en términos de situación cultural, como los que estamos viviendo en la actualidad. Sabremos hacerlo. Hasta ahora no hemos fallado en adaptarnos a todas las realidades. Será una experiencia rica y fascinante.

La conclusión final es la de que el estamento jurídico español no debe estar al margen –y en gran medida lo está– de una imparable revolución tecno-científica que ya está afectando y lo seguirá haciendo a derechos básicos de la ciudadanía y así mismo a la práctica judicial y profesional.

Ejemplo anglosajón

En los Estados Unidos se creó en 2014 una fundación (One Hundred Year Study On Artificial Intelligence ) que tiene entre sus objetivos para los próximos cien años vigilar las cuestiones éticas y legales que puedan generar la inteligencia artificial y sus aplicaciones concretas.

Hay varias asociaciones dedicadas al estudio del cerebro en donde los aspectos legales tienen un protagonismo continuo. La Universidad de Stanford ha creado un centro interdisciplinario (Codex) entre su facultad de derecho y la de ingeniería para intercambiar sus conocimientos y estudiar la integración del mundo tecnológico en su sistema legal.

Se publican desde hace tiempo revistas legales sobre todos los temas antes mencionados (Robotic Law Journal, Biology and Law, y otras) y son incontables los ensayos y los artículos sobre el impacto que puede tener la inteligencia artificial sobre la actividad legal en su conjunto y en concreto sobre los peligros que pueden generarse.

Una reciente noticia en este sentido: “La Universidad Carnegie Mellon y la firma de abogados K&L Gates han creado un fondo de diez millones de dólares para estudiar las implicaciones éticas y legales de la inteligencia artificial y otras tecnologías relacionadas”.

El mundo anglosajón ha sabido reaccionar y sigue avanzando en el proceso día a día. Habrá que seguir su ejemplo.

Shutterstock / Alexander Supertramp

The Conversation

Antonio Garrigues Walker, Presidente de la Fundación Garrigues, Fundación Garrigues

Este artículo fue publicado originalmente en The Conversation. Lea el original.

DEJA UNA RESPUESTA

Please enter your comment!
Please enter your name here