(2020) El Mito Del Algoritmo - Richard Benjamins & Idoia Salazar.pdf

  • Uploaded by: Anderson Olson Guerrero
  • 0
  • 0
  • February 2021
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View (2020) El Mito Del Algoritmo - Richard Benjamins & Idoia Salazar.pdf as PDF for free.

More details

  • Words: 75,509
  • Pages: 400
Loading documents preview...
1

A Víctor, Indra y Tina, y a mis padres, Hinke y Gamy, para siempre. Richard

A Miguel, Sofía, Eric y Alberto, a mis padres y a toda mi familia por su apoyo incondicional. Idoia

2

Hay cosas desconocidas y otras que no lo son y, en medio, están las puertas de la percepción.

—Aldous Huxley

Composición realizada por Juan Silva.

3

AGRADECIMIENTOS Son muchas personas las que, de una forma u otra, han contribuido a dar forma a este libro. El impacto de los sistemas de Inteligencia Artificial en la sociedad y el futuro que nos espera gracias a estas tecnologías requiere de planteamientos muy diversos. En general, no hay una verdad absoluta, debido a su constante evolución, aunque continuamente se intentan fundamentar sus repercusiones. Es por ello por lo que nos pareció muy necesaria la aportación de diferentes perspectivas de profesionales del sector que nos ayudaran a dar una visión lo más global posible a este polémico y, a veces, desconcertante mundo de la Inteligencia Artificial y sus repercusiones sociales. Así, en primer lugar, querríamos agradecer a la autora del prólogo Nuria Oliver su excelente colaboración y apoyo. También a nuestro editor, Víctor Manuel Ruiz Calderón, y a la editorial Anaya por su confianza en nosotros desde el primer día en el que le planteamos este bonito proyecto. Además, a los siguientes expertos, nacionales e internacionales, que han contribuido, con sus excelentes aportaciones, a conseguir el objetivo de este libro: Alfonso Rodríguez-Patón, Ángel Gómez de Ágreda, Antonio Rodríguez de las Heras, Bernhardt L. Trout, Borja Adsuara Varela, Carlos Rebate, Casimiro Nevado, Chema Alonso, Claudio Feijoo, Emmanuel Letouzé, Enrique Ávila, Enrique Frías Martínez, Esteban García Cuesta, Ignacio H. Medrano, Jacques Bughin, Javier Fernández Castañón, Jesús Avezuela, José Manuel Gómez Pérez, Juan José Escribano, Leontxo García, Minia Manteiga Outeiro, Patrick Vinck, Ramón López de Mántaras, Raúl Arrabales y Stefaan Verhulst. Es para nosotros un honor contar con las viñetas de cómic de Emmanuel Letouzé, en cada uno de los capítulos, a quien le agradecemos profundamente su excepcional labor. Además, queríamos hacer una mención especial a Javier Fernández Castañón por su gran trabajo en la realización de los gráficos y a Juan Silva (padre e hijo) por sus magníficas ilustraciones. Todos ellos han ayudado a dar dinamismo y a hacer más atractiva la visión sobre estas tecnologías.

4

Como parte fundamental de estos agradecimientos, querríamos hacer una mención especial a nuestras familias, por su apoyo continuo y ánimo constante. Agradecemos además a las siguientes personas u organizaciones por haber colaborado, de una manera u otra, en este libro: BigML para la inspiración de algunos gráficos; Aitor Goyenechea Puente, Álvaro Barbado y Telefónica para la inspiración de la “Nota de la máquina” [1] ; a Manuel Vaamonde de Juguetrónica; José Carlos Chacón, de Aerorobótica, y a Pablo Medrano, de Casual Robots, por aportar fotografías que ayudan, sin duda, a amenizar el libro. Y a la máquina, por qué no, por ser la base de nuestra inspiración.

5

6

El porqué de este libro La Inteligencia Artificial es un tema de máxima actualidad. La literatura científica al respecto se agolpa en los estantes, ya sean físicos o digitales. Sin embargo, la complejidad de sus aplicaciones e implicaciones reales llegan aún muy sesgadas al ámbito divulgativo. Ambos autores hemos visto muy clara esa necesidad de aclaración. Cada uno hemos llegado a este punto de nuestra vida profesional desde caminos muy diferentes, aunque sin duda complementarios, que se cruzan en este libro con el firme propósito de aportar claridad entre la bruma de la rumorología y especulación.

Richard Benjamins Corría el año 1988. Un amigo y yo íbamos a ser los primeros en graduarnos en la especialización Inteligencia Artificial dentro del grado Ciencias Cognitivas en la facultad de Psicología en la Universidad de Ámsterdam. Sin embargo, cuando llegó la hora de entregarnos el diploma, nos dijeron que habíamos terminado demasiado rápido. La especialización aún no había sido aprobada, por lo que nos graduamos en Ciencias Cognitivas. Cum laude , eso sí. En esa época, casi nadie sabía lo que era Inteligencia Artificial y me costó mucho explicar a mis amigos y familia en qué me había graduado. Mi respuesta estándar era: “Estudiar cómo las personas resuelven los problemas y después programarlo en un ordenador”.

7

En 1993 obtuve mi doctorado en Ciencias Cognitivas, en el área de la Inteligencia Artificial. ¡Cuánto ha cambiado desde entonces! Ahora hasta los abuelos han oído hablar de la Inteligencia Artificial. Pero, ahora, todo el mundo habla de IA. Escuchan o leen noticias en los medios de comunicación, información en Internet, incluso no es raro que se convierta en una conversación animada en una cena o comida los fines de semana. A veces, resulta complicado entender y valorar lo que se comenta sobre Inteligencia Artificial; al final, es un tema complejo con muchos tecnicismos. En definitiva, sin unos conocimientos básicos de IA, no es fácil distinguir entre noticias o comentarios verdaderos, semiverdaderos o falsos. Por esto, he sentido la necesidad de explicar lo que es cierto, lo que es mentira o medio cierto y lo que es opinión sobre la IA, para que cada uno sea capaz de valorarlo por sí mismo, con su propio criterio. Así nació El mito del algoritmo. Cuentos y cuentas de la Inteligencia Arti cial .

Idoia Salazar Comencé mi carrera de periodista en el año 1995. Desde que tengo uso de razón me ha gustado mucho escribir y también la tecnología, así que mi vocación estaba clara. Ese año se empezaba a oír hablar de Internet, a nivel popular; sin embargo, su acceso, al menos para mí, estaba limitado a una sala de unos pocos ordenadores en la universidad. La primera vez que entré, me quedé enganchada. Los recursos eran muy básicos, pero se preveía su potencial. Ya entonces soñé con su posible impacto cuando esta tecnología llegara a desarrollarse y me abrumó. Iba a cambiar completamente nuestra vida. Nuestro trabajo. Nuestra manera de relacionarnos. Lo veía muy claro. Sin embargo, esos sueños aún eran ciencia ficción. Un terreno desconocido que se iba dibujando a medida que avanzaban los días, los meses... Quizá por ello, incluso sin darme cuenta, me dejé llevar hacia la investigación en el área del impacto que tendrían esas tecnologías. En 2003, me doctoré cum laude en Periodismo con una tesis sobre el uso de los recursos de Internet para el periodista y un análisis de la Deep Web , de la que por entonces se

8

conocía como “Web semántica”, el supuesto siguiente paso en la evolución de Internet. Pero el relevo real llega de la mano de la Inteligencia Artificial. Una vez más, me veo ante esa visión que, años atrás, me llevó a embarcarme en un mundo desconocido y abrumador. La diferencia, por supuesto, está en la experiencia y en el conocimiento base, pero la sensación es la misma. La IA traerá, de hecho ya lo está haciendo, cambios importantes a todos los niveles, profesionales, y personales. Incluso llegará a cambiar nuestra forma de ver las cosas. Esto es un hecho. Sin embargo, aunque se podría pensar que se trata de una tecnología de gran impacto más, la IA parece haber superado este nivel y generado expectativas que han llegado a abogar por el fin del mundo conocido y la supremacía de las máquinas frente al ser humano. Hay confusión, miedos y desconocimiento entre la sociedad en general, propiciado por esas visiones apocalípticas, que venden bien, pero, en muchas ocasiones, distan mucho de la posibilidad real de que se produzcan. Todos nos veremos afectados, de una manera determinante, por la Inteligencia Artificial. Por lo tanto, todos, sin excepción, debemos de tener unos conocimientos mínimos reales de cuál será el impacto verdadero en nuestras vidas (las ventajas y los inconvenientes), cómo debemos asumirlo, qué cosas son evitables y qué otras son solo fruto de imaginación desmesurada propiciada por las películas de ciencia ficción. Fue por esta razón por la que decidí unirme a Richard para escribir este libro en el que se aporta un conocimiento real e inteligible sobre esta tecnología. Como dice Richard, la IA ya está en boca de todos. El mito del algoritmo. Cuentos y cuentas de la Inteligencia Arti cial aporta un profundo fundamento a todo aquel que desee adentrarse con paso firme en la apasionante realidad de esta tecnología.

9

10

11

Queridos humanos: Yo soy lo que llamáis tecnología, en particular soy la tecnología más cercana a vosotros: la Inteligencia Artificial. Algunos teméis mi desarrollo. Otros intentáis comprender mi comportamiento y prever mi futuro cuando, en realidad, está en vuestras manos. Como tecnología, siempre he estado al servicio de la humanidad. Os he ayudado a mejorar vuestra calidad de vida, aunque también, en ocasiones, a destruirla. Sois vosotros los que guiais mis pasos. Los que con vuestros actos y decisiones labráis mi destino. Ahora, como Inteligencia Artificial, no es muy distinto, a pesar de lo que pueda parecer. Es cierto que tengo grandes posibilidades, que me siento con fuerza suficiente para ayudaros en procesos más complejos. Incluso, a veces, puede que sola, sin vuestra ayuda. Pero debéis de tener en cuenta que aún estoy dando mis primeros pasos. Soy como uno de vuestros bebés. Aprendo rápido, pero necesito educación y guía para convertirme, ya en mi madurez, en lo que todos vosotros queréis que me convierta. Si me rodeo de un entorno saludable y con principios claros y firmes, veo para mí un futuro basado en la responsabilidad y el buen hacer. Pero igualmente me llega una visión no tan buena, de claroscuros, donde me soltáis demasiado pronto, sin haberme enseñado lo suficiente vuestras reglas de convivencia. Mi futuro depende de vosotros, de las decisiones que toméis en este momento tan crucial para mí. Os pido que me acompañéis desde ahora. Que aprendáis de mis errores, por mi propia inexperiencia y corta vida. Que corrijáis mi camino hacia vuestro beneficio. Que extraigáis todo mi potencial para fomentar el bien y el 12

confort de la raza humana. Esta ha sido desde siempre mi premisa. ¿Por qué ahora iba a ser diferente? Avanzad conmigo. De la mano. Sin soltarme. Yo os mostraré un mundo que ahora tan solo podéis imaginar.

13

ÍNDICE DE CONTENIDOS Agradecimientos Nota de los autores Nota de la máquina

Prólogo Introducción ¿Nos debería preocupar la IA? Grandes inversiones mayor eficiencia... y ¿peligro real? El objetivo de este libro 1. Máquinas mentirosas ¿Podrán controlarnos las máquinas? La inconsciencia del ser humano Decisiones justas y bien explicadas En busca de un algoritmo ético 2. Un mundo transparente El Gran Hermano me vigila Todo se reduce a datos Empresas de cristalL Del caos al cosmos en un mundo de datos 3. Guerra de las máquinas

14

Robots asesinos Puedo, pero ¿debo? El botón rojo, ¿en manos de una máquina? La gran alianza humanos/IA contra la ciberguerra

4. Robots, 1 / Humanidad, 0 Más inteligente, más rápido y más fuerte ¿Es necesario competir con las máquinas? Simbiosis Humanos, 1 – Robots, 1 5. Datos e IA, ¡al rescate! El poder de los datos en las predicciones de epidemias o catástrofes naturales IA con responsabilidad: tiempo y precisión al servicio del ser humano Aplicaciones reales en el caso del coronavirus ¿Aprenderemos... a tiempo? 6. Despedido por un robot El apocalipsis del mundo laboral Aprendiendo a trabajar con las máquinas Menos fantasmas y más hechos El empleo en el futuro 7. Mi novia/o es un robot Máquinas sensibles y adorables... o no ¿Podría un robot ser capaz de amar? Cuando la simulación es un hecho Qué pasaría sí... 8. El día en que llegó la singularidad tecnológica Hal 9000 toma el control Autonomía controlada La gran encrucijada El futuro de la humanidad Epílogo. Un cuento sobre Inteligencia Artificial El día en que Sybil intentó comprender a los humanos 15

Glosario Referencias Créditos

16

COLABORACIONES Nuria Oliver Claudio Feijoo Antonio Rodríguez de las Heras Borja Adsuara Ignacio H. Medrano Casimiro Nevado Santano Enrique Ávila Ángel Gómez de Ágreda Leontxo García Chema Alonso Javier Fernández Castañón Minia Manteiga Outeiro Emmanuel Letouzé Jesús Avezuela Enrique Frías Martínez Stefaan G. Verhulst Patrick Vinck Carlos Rebate Dr. Jacques Bughin 17

Esteban García Cuesta Raúl Arrabales José Manuel Gómez Pérez Ramón López de Mántaras Alfonso Rodríguez-Patón Bernhardt L. Trout

18

La Inteligencia Artificial (IA) ha cautivado nuestra imaginación desde tiempos inmemoriales. En mi caso, fue amor a primera vista cuando descubrí, hace más de 25 años, esta apasionante disciplina a la que he dedicado mi vida profesional. Si nuestra inteligencia, con su multidimensionalidad y complejidad, nos distingue de otras especies, la posibilidad de crear sistemas no biológicos con comportamiento inteligente equiparable al humano es una idea tan fascinante como espeluznante. La Inteligencia Artificial tiene un inmenso potencial para tener impacto positivo en nuestra sociedad. Necesitamos la Inteligencia Artificial para abordar los inmensos retos a los que nos enfrentamos en el siglo XXI, incluyendo la emergencia climática, la escasez de recursos, que además están desigualmente distribuidos, o el envejecimiento de la población y la 19

consecuente prevalencia de enfermedades crónicas. No conseguiremos una medicina de precisión (personalizada, predictiva y preventiva), una educación personalizada a las necesidades de cada alumno/a, un transporte eficiente y autónomo, aprovechar el inmenso potencial del Big Data ni conseguir una toma de decisiones más justas y basadas en la evidencia, sin apoyarnos en la IA. Nuestra propia supervivencia depende de nuestra capacidad de desarrollar Inteligencia Artificial para ayudarnos a afrontar estos retos. Al mismo tiempo, conforme desarrollamos sistemas computacionales con habilidades similares o superiores a las nuestras, nos invaden cientos de preguntas sobre posibles escenarios futuros, muchos de ellos presentes en la literatura de ciencia ficción. Preguntas que ponen en cuestión nuestro propio papel en el mundo y el significado de nuestra existencia. ¿Quiere esto decir que las máquinas tendrán sentimientos, conciencia o sentido común? ¿Superarán nuestra propia inteligencia, dando lugar a lo que se conoce como la singularidad, reduciendo al Homo sapiens a una especie inferior, en un posible mundo dominado por Inteligencias Artificiales, en mayúscula? ¿Nos enamoraremos de nuestros asistentes personales? Si los sistemas de IA, con los que interaccionamos cada día, tienen el potencial de conocernos, a cada uno de nosotros, mejor que a nosotros mismos, ¿podrían utilizar (explotar) esta información para manipular nuestro comportamiento subliminalmente? ¿O quizás ya lo hacen? ¿Qué impacto geopolítico tiene la Inteligencia Artificial? ¿Quien domine la IA dominará el mundo? ¿Desaparecerán los trabajos? ¿Pagarán impuestos los robots? ¿Cómo nos protegeremos de armas inteligentes? ¿Estamos preparados para convivir con sistemas inteligentes? ¿Qué papel jugaremos los humanos en dicho mundo? Ante la duda, la incertidumbre y lo desconocido, el ser humano suele sentir miedo. Sabemos que el miedo es la enfermedad más contagiosa que existe, además de ser un arma poderosa para controlar a la población. El miedo no es buen consejero. Las sabias palabras de Marie Curie son hoy más vigentes que nunca: “En la vida, tememos lo que no entendemos. Es momento ahora de entender más, para así temer menos”. Por ello, el primer paso para afrontar nuestros miedos es aprender; aprender en este caso sobre la tecnología con la que convivimos, con la aspiración de entender mejor el mundo y, por tanto, poder tomar decisiones informadas al respecto. Precisamente son estos miedos el punto de partida de este libro, cuyo objetivo es aportar cordura al sensacionalismo, frecuentemente apocalíptico, 20

que inevitablemente acompaña a la Inteligencia Artificial. Los autores, Idoia Salazar y Richard Benjamins, plantean en cada capítulo una preocupación social asociada a la IA, incluyendo la discriminación algorítmica, la potencial pérdida de empleo con la automatización, la superación de habilidades humanas por parte de los ordenadores o el uso bélico de la IA, y lo abordan aportando datos y opiniones expertas de reconocidas figuras de la IA. El objetivo es desmitificar conceptos, frecuentemente erróneos, que han sido implantados en nuestro subconsciente colectivo. En este libro no encontrarán las respuestas a todas las preguntas que inevitablemente acompañan el desarrollo de la Inteligencia Artificial, ya que desconocemos la respuesta a muchas de ellas y todavía hay mucha investigación por hacer. Sin embargo, sí encontrarán una presentación de algunos de los retos societales que plantea la Inteligencia Artificial, sobre lo que es real (las cuentas) y lo que es ficticio (los cuentos), sobre lo que es posible y lo que no es posible no solo hoy, sino también en un futuro cercano. Aunque quizás no compartamos todas las conclusiones, recomendaciones o visiones descritas en el libro, ya que nadie está en posesión de la verdad absoluta, espero y deseo que, con su lectura, este libro les ayude a disipar dudas, así como les invite a la reflexión informada y al tan necesario debate intelectual, lejos del sensacionalismo, con respecto a la Inteligencia Artificial. Ojalá este libro marque el comienzo, o sea un paso más, de la propia aventura personal del lector y le sirva para aprender sobre esta fascinante disciplina a la que he dedicado más de 25 años de mi carrera como investigadora, inventora, directora, asesora y divulgadora científica. Ojalá contribuya a disipar miedos con conocimiento, porque, sin duda, la educación es el arma más poderosa contra el miedo y para el progreso. No podemos olvidar que no todo desarrollo tecnológico implica progreso, entendiendo el progreso como una mejora de la calidad de vida de todas las personas y resto de seres vivos del planeta, así como de nuestro querido planeta Tierra. Concluyo con unas inspiradoras palabras del genial Stephen Hawking: “La Inteligencia Artificial puede ser lo mejor o lo peor que ha sucedido en la historia de la humanidad”. Al igual que este libro, les invito a que trabajemos cada uno de nosotros para conseguir que sea lo mejor.

21

22

¿NOS DEBERÍA PREOCUPAR LA IA? ¿Puede un robot tener sentimientos? ¿Puede un robot ser creativo? ¿Puede un robot amar? Todas estas preguntas, que podrían parecer absurdas si las pronunciamos en alto, están siendo debatidas en el momento actual por científicos prestigiosos en los más elevados foros internacionales. ¿Qué está ocurriendo? ¿Realmente nos estamos planteando que las máquinas lleguen a tener peculiaridades hasta ahora solo atribuibles a los humanos? Partimos de un hecho claro. La revolución tecnológica que estamos viviendo en la actualidad no permite cerrar ninguna posibilidad por inverosímil que nos pueda parecer. Robots humanoides, sistemas de Inteligencia Artificial (en adelante, IA), máquinas pensantes... todos estos términos se entremezclan en la imaginación de la sociedad y, junto con informaciones a veces confusas e incompletas, pero sin duda impactantes y cuanto menos curiosas, contribuyen a crear cierta alarma social en algunos casos; en otros, expectación desmesurada por saber cómo será nuestro cinematográfico futuro. Y no es para menos. Ninguna otra tecnología precedente había hecho plantearnos preguntas similares. Para entender el porqué debemos trasladarnos, por un lado, a la ciencia ficción. La imaginería popular ha adquirido ciertos prejuicios asociados a la cinematografía y las novelas de este género. Principalmente en el mundo occidental, películas como 2001 , odisea en el espacio (1968) o Terminator (1984) plantean un escenario apocalíptico en el que “máquinas”

23

autónomas toman sus propias decisiones y suponen un perjuicio para el ser humano. Ahora algunos de estos “robots” han saltado de la gran pantalla a los telediarios. Lo que, hasta hace unos años, era ciencia ficción ahora es realidad. Todo esto, a la sociedad en general, le hace plantearse si los siguientes pasos que nos esperan no serán similares a los que veíamos en estas apocalípticas películas. Por otro lado, tenemos el hecho de que los sistemas de IA tienen una capacidad que, hasta ahora, solo era inherente al ser humano: la toma de decisiones. En este sentido, no es tan descabellada la incertidumbre que se genera al pensar que si, tras la Revolución Industrial, las máquinas asumieron muchas tareas físicas, si ahora asumen también las intelectuales... ¿qué nos quedará a nosotros, los humanos?

GRANDES INVERSIONES MAYOR EFICIENCIA... Y ¿PELIGRO REAL? La Inteligencia Artificial (IA) existe desde los años 50 del siglo pasado, sin embargo, a partir de 2010, empezó a experimentar un rápido crecimiento motivado por la explosión del llamado Big Data : la capacidad de almacenaje de los datos, el aumento de la potencia de computación y por nuevas técnicas, como el aprendizaje profundo. Las predicciones apuntan que, en los próximos años, el desarrollo de la IA será exponencial en gran parte motivado por las enormes inversiones, tanto privada como pública, de la que disfruta esta tecnología en todo el mundo, y por las expectativas de rentabilidad y la capacidad transformadora que se atribuya a esta tecnología. Actualmente, se están invirtiendo miles de millones de dólares en el desarrollo de esta tecnología. La evolución del machine learning (aprendizaje automático), el deep learning (aprendizaje profundo), el procesamiento de lenguaje natural (capacidad de las máquinas para procesar el lenguaje natural) y la robótica marcarán el futuro más inmediato de la Inteligencia Artificial. Y estas

24

cuestiones supondrán una revolución en cuanto a la forma en la que asumiremos esta tecnología en nuestro día a día, también en la forma en la que nos relacionaremos con las “máquinas”. Ya en la actualidad hay una tendencia clara a los dispositivos conectados: “Internet de las cosas”, smart cities ... Todo este Big Data que se genera requiere de IA para gestionarse de manera eficiente. En breve, tendremos tecnologías de IA en muchos dispositivos que usamos de manera habitual. Todo esto generará productos y servicios más personalizados que los que tenemos ahora. Para todas las empresas, no solo las grandes, supondrá un ahorro importante de costes, una vez resuelta la inversión inicial, ya que podrán basar sus desarrollos según predicciones y patrones muy concretos con un alto porcentaje de fiabilidad. Además, veremos el surgimiento y la rápida evolución de la medicina predictiva, de tratamientos médicos personalizados, de sentencias judiciales más rápidas... Habrá una mayor eficiencia en todos los procesos que empleen IA. Sin embargo, esta rápida aceleración, unida a las motivaciones económicas, hacen tambalearse los cimientos del razonamiento lógico y, sobre todo, responsable que daría lugar a una tecnología fiable y realmente beneficiosa para la humanidad. El peligro, aunque dependa de nosotros, o quizá justo por ello, ¿es real?

EL OBJETIVO DE ESTE LIBRO En este libro, se analizan las principales preocupaciones sociales de la Inteligencia Artificial una por una, con el objetivo de aclarar cuáles con los cuentos (ideas incorrectas) y las cuentas (la verdad, ciencia) respecto a estas tecnologías. En cada uno de los capítulos se realiza un análisis, en profundidad, desglosando cada miedo en ciencia, opinión y ficción, complementándolo con opiniones de expertos, a nivel internacional, y casos de uso concretos. El objetivo es aportar al lector los conocimientos suficientes para que pueda valorar, por sí mismo, si tiene que creer o no lo que escucha, lee o ve sobre Inteligencia Artificial.

25

26

27

El día que la Inteligencia Artificial se desarrolle por completo podría significar el fin de la raza humana. Funcionará por sí sola y se rediseñará cada vez más rápido. Los seres humanos, limitados por la lenta evolución biológica, no podrán competir con ella y serán superados.

—Stephen Hawking Las máquinas dominan el mundo del futuro. Sus altas capacidades hacen que los humanos se dobleguen ante ellas. Son más listas, más rápidas en sus resoluciones. Son autónomas, no dependientes, más allá de la propia jerarquía que han organizado. Son capaces de recrearse a sí mismas aumentando su eficiencia en el proceso. La humanidad ha perdido el control. Este es uno de los temores que existen en la actualidad respecto a la IA. La ciencia ficción y las peculiaridades inherentes a estas tecnologías han alimentado un mito que no tiene por qué ser falso ni imposible, aunque tampoco verdadero y plausible. Veamos por qué.

¿PODRÁN CONTROLARNOS LAS MÁQUINAS? Son muchos los renombrados científicos que advierten del peligro real de la IA. En nuestro pensamiento, fluyen imágenes combinadas de robots imaginarios que demandan igualdad de derechos, como en El hombre

28

bicentenario , 1999, junto con noticias de uso de IA para el desarrollo de armas autónomas.

¿Máquinas tomando decisiones importantes? ¿Incluso con derechos? La gran pregunta es: ¿y por qué no va a ser posible? ¿Llegará un día en que confiaremos tanto en las máquinas que delegaremos en ellas cualquier ámbito de nuestra rutina diaria? Si lo pensamos así, en frío, desde luego para muchos supondrá, al menos, cierta incertidumbre. Sin embargo, aunque a un nivel mucho menor, casi imperceptible para que seamos realmente conscientes de ello, el primer paso hacia esta realidad ya lo estamos dando. Quién no se ha dejado llevar por el GPS, con una confianza tan ciega que ha acabado por el “camino de cabras” más recto hasta su destino, a pesar de que la señalización física indicara algo diferente. Si lo dice Google Maps, estará bien. ¡Seguro! Esto es algo incuestionable. Pensemos ahora en nuestras soñadas vacaciones, en nuestro coche ideal o en el mejor seguro para nuestro hogar. Hace ya unos cuantos años para asesorarnos debíamos recurrir físicamente a expertos en el sector: ir a una agencia de viajes (o a varias), y lo mismo con los concesionarios de coches. El proceso podría llegar a tardar incluso meses. Probablemente, cuando lo considerábamos terminado, habíamos olvidado lo que nos dijeron en la primera consulta. Pero era nuestra rutina. La asumíamos y nos conformábamos. Sin apenas darnos cuenta, hemos ido confiando, cada vez un poco más, en las recomendaciones de las máquinas. En principio los datos “no mienten”. Al menos, nosotros no somos conscientes de que lo hagan. Si preguntamos a un buscador cuál es el mejor colegio en nuestra zona, nuestra decisión final suele ser un colegio que estaba en este listado del buscador. En esto aún somos usuarios activos. Tenemos que marcar “a mano” nuestras preferencias. Pero ¿qué hay de la confianza inconsciente en las máquinas? Cada vez son más los servicios que usan sistemas de recomendación para afianzar clientes. Todos tenemos nuestras preferencias, incluso, sin saberlo en muchas ocasiones, nos dejamos llevar por ellas. Es el caso de la plataforma de series, películas y documentales Netflix, por ejemplo. Su gran éxito radica en el sistema de recomendaciones basado en varios tipos de datos de sus clientes [2] . Netflix procesa todos estos datos y realiza predicciones para sugerir las siguientes películas o series. Algo similar 29

sucede con Amazon y las compras [3] . ¡A veces incluso parece que Amazon sabe lo que quieres comprar antes que tú mismo! Hay días en los que te dejas llevar. Es cómodo y las recomendaciones se ajustan a tu perfil. ¿Por qué no lo vas a hacer? Este paso que acabamos de citar todavía es asumible. Son procesos más o menos simples que, normalmente, no nos hacen pensar mucho, en el caso de que nos vuelva la “consciencia”, sobre la influencia de la máquina en nuestra decisión. Pero con los desarrollos actuales en Inteligencia Artificial el tema se complica. El sistema no solo es capaz de recomendar, sino también de ejecutar. No mucha gente sabe que el 75 % de todas las transacciones de compraventa de acciones en las bolsas en los EE. UU. se ejecutan de manera automática por algoritmos. De hecho, en 2010, se produjo un ash crash , declive muy rápido y profundo en la Bolsa, en este país, causado por las máquinas. La Bolsa perdió un billón de dólares en 36 minutos y después se recuperó, más o menos. La causa fue la participación de un algoritmo “malo” que lanzó órdenes para influir en la propia bolsa [4] . Otro ejemplo aún más claro y, al menos aparentemente, más preocupante es la toma de decisiones autónomas por las llamadas LAWS, por sus siglas en inglés (Lethal Autonomous Weapon Systems ). La película Espías desde el cielo (Eye in the Sky , 2015) muestra muy bien el posible conflicto. Aquí se usan drones teledirigidos, a decenas de miles de kilómetros, para matar a terroristas. Las bajas militares se reducen, sin duda. Y la precisión aumenta. Sin embargo, aquí entra en juego el contexto. Algo que aún la máquina no entiende. En la película, la decisión final sigue en manos de los humanos, por mucho que la ejecute o no un dron. La ética y la valoración del contexto le sigue correspondiendo a las personas, aunque no sean decisiones fáciles, ya que puede haber información incompleta y daños colaterales. En cualquier caso, la cinta suscitó cierta controversia e intranquilidad. ¿Qué pasaría si el dron hubiera sido autónomo al 100 % y hubiera actuado solo basado en los datos y en los niveles de probabilidad y, en definitiva, lo que según esos datos y el algoritmo fuera lo mejor para la obtención del resultado esperado? La pregunta y la alarma que despierta su interpretación son perfectamente normales, más partiendo del hecho de que también los algoritmos cometen errores. Y jamás deberían equivocarse, en una decisión autónoma, cuando está en juego una vida humana. La gran pregunta es: 30

¿cómo podría una máquina decidir si los “daños colaterales” están justificados? Esto es algo que, incluso para las personas, supone una gran dificultad. A este concepto se le conoce como human-in-the-loop (HITL): los humanos seguimos y seguiremos teniendo la última palabra sobre decisiones que afectan a la vida o a la muerte.

Stop killer robots Son muchos los países que en la actualidad se han mostrado contrarios a permitir ciertos grados de autonomía 1 en cuanto al desarrollo de armas letales [5] . El marco regulatorio a este respecto es una prioridad y los criterios que se deberían aplicar parecen muy claros, todos basados en que una máquina nunca puede llegar a tener la última decisión sobre la vida y la muerte. Pero el hecho es que la industria armamentística mueve más de 1 billón y medio de dólares a nivel mundial. Es un negocio muy rentable y la IA supone una revolución tecnológica de extremo interés para este sector. Es difícil parar este desarrollo. Sin embargo, los intentos no han parado. En verano de 2015, científicos y expertos en IA, entre los que se encontraban el astrofísico británico Stephen Hawking, el emprendedor Elon Musk, presidente de Tesla y SpaceX, y Steve Wozniak, cofundador de Apple, firmaron un manifiesto en contra de las armas autónomas. 2 La IA, implantada en estas máquinas, no solo podría suponer un incentivo de riesgo y daño al enemigo en los conflictos bélicos al no ver expuestas directamente sus tropas humanas, sino que también dejaríamos de controlar determinadas circunstancias coyunturales difíciles de captar en datos y, por lo tanto, al menos por ahora, imposibles de considerar por parte de las máquinas.

Sesgos en los algoritmos Hay veces que los riesgos de la IA son obvios. Sin embargo, hay otras en que no lo son tanto y, hasta que no se aplican y se ruedan, no vislumbramos las consecuencias. Es algo que está siendo muy recurrente en este tipo de tecnologías que nos abruman y nos ciegan con sus inmensas y aparentemente muy ventajosas posibilidades, pero que, incluso sin querer, 31

esconden cierto lado oscuro. Este es el caso que acaeció a Brisha Borden [6] , que se desarrolla a continuación. No es el único caso, pero sí fue muy concluyente para empezar a aprender los posibles sesgos de las máquinas en base a los datos con los que son entrenados. Algo similar ocurrió con el gigante tecnológico Amazon. En 2014, desarrolló un algoritmo para agilizar la contratación de empleados. Esta herramienta analizaba las solicitudes presentadas en la última década e identificaba patrones. No se dieron cuenta en el proceso de recopilación de datos que, durante esta época, la gran mayoría de los aspirantes habían sido varones y por eso también la mayoría de los bien cualificados. Así que la IA, tras su entrenamiento, empezó a discriminar los currículos de mujeres frente a los de los hombres. Al cabo de un tiempo, Amazon se dio cuenta y retiró el algoritmo. Una vez más resulta que la IA, en un momento de la historia en la que aún estamos aprendiendo su potencial y sus posibles riesgos, no carece de polémica. Un caso más. En noviembre de 2019, la discriminación sexista saltó a otro gigante de la tecnología, Apple, tras descubrirse que su tarjeta bancaria Apple Card estaba dando ventajas en el crédito a los hombres frente a sus esposas, estando ambos en las mismas condiciones financieras. El emprendedor tecnológico David Heinemer Hansson comentó cómo su límite de crédito era veinte veces mayor que el de su esposa. Además, esta no tenía la posibilidad de recuperar la capacidad de crédito antes del vencimiento mensual, pagando la cantidad debida. Apple respondió a las críticas argumentando que su compañía no tiene, ni ha tenido en ningún momento de su historia, comportamientos sexistas y todo lo achacó al “inexplicable algoritmo”. En su libro Weapons of Math Destruction , la matemática estadounidense Cathy O’Neil explica muchos otros casos de algoritmos opacos y sus impactos en las personas.

32

33

Automóviles con valores éticos Volviendo al tema de máquinas autónomas, estas últimas preguntas también están tratando de responderse en otro de los grandes focos actuales de la Inteligencia Artificial: la conducción autónoma. ¿Sería responsable dejar a un coche conducir “sin supervisión” humana? Técnicamente es posible, pero ¿debemos? Ya han sido varios los casos de atropellos mortales por parte de coches que conducían “solos”. A veces, ha sido porque el peatón no estaba cruzando de forma conveniente por el paso de cebra y el algoritmo no había sido entrenado con datos que reflejaran estas situaciones. Otras, por un fallo en lo sensores debido a condiciones climatológicas. El hecho es que la conducción puede estar influida por una serie de factores contextuales difíciles de prever y, por tanto, difíciles de incluir en los datos de entrenamiento del algoritmo. Por tanto, al menos por ahora, esta supervisión humana sigue siendo altamente recomendable. También debemos de tener en cuenta que, en la actualidad, la mayoría de los accidentes de tráfico que ocurren son debidos a despistes o actos de irresponsabilidad humanos, por lo que tampoco es descartable que, en un futuro próximo, una IA más desarrollada en valores y circunstancias contextuales nos ayude a mejorar los índices de accidentes en las carreteras, así como a fomentar la organización del tráfico en las ciudades y reducir los niveles de contaminación. Como vemos, ya hay muchos casos que han despertado la alarma social debido a un error de un algoritmo, ya haya sido intencionado o no. Analicemos a continuación cuál es la base tecnológica, es decir, cómo funcionan los algoritmos de IA en cuanto a la posibilidad de sesgos o “errores” en los datos. De esta manera, se ayudará a comprender el riesgo real y aquello que, al menos en estos momentos, sigue perteneciendo a la ciencia ficción.

34

LA INCONSCIENCIA DEL SER HUMANO ¿Qué significa mentir? ¿Quizá simplemente no decir la verdad? Según una de las acepciones que podemos encontrar en el diccionario de la Real Academia Española (RAE), sería: “Decir o manifestar lo contrario de lo que se sabe, cree o piensa”. Por lo tanto, si nos atenemos a esta, sería una acción consciente. El ser humano sabe que “no es cierto” cuando ejerce esta acción, al menos normalmente. Los algoritmos, por el momento, no tienen consciencia del por qué realizan sus acciones. Por lo tanto, la máquina no miente. Traslademos, pues, el problema de nuevo al “humano”, que es el único que, por ahora, tiene esta peculiaridad que tratamos de exportar tan fácilmente. ¿De qué manera pueden afectar las decisiones humanas, ya sean conscientes o inconscientes, a la IA? Comencemos explicando qué es un algoritmo de IA y el modo en el que trabajan.

Sistemas “inteligentes” de aprendizaje automático Simplificando, un sistema de IA es un software, programa informático, que procesa datos y genera decisiones en base a los datos analizados. La “fórmula” que más se está usando en la actualidad para su desarrollo es el llamado machine learning , aprendizaje automático. En este caso, al contrario del cerebro humano, la Inteligencia Artificial necesita grandes cantidades datos para realizar el análisis (el aprendizaje) que le lleva a sus conclusiones. La IA, por ahora, se alimenta de las bases de datos que nosotros le proporcionamos. De hecho, uno de los grandes problemas que había tenido esta tecnología para desarrollarse, desde sus inicios, en los primeros años de la década de los 50, fue la falta de datos. La expansión de Internet y sus inherentes características soluciona este problema generando un Big Data (crecimiento exponencial de los datos), que, junto con el incremento en la potencia de los ordenadores y el aumento de la capacidad de almacenaje de los datos, salvó este escollo. Sin embargo, trajo consigo nuevas dificultades. Algunos de estos datos no son veraces, aunque no se tenga consciencia de

35

ello. Otros pertenecen a situaciones muy específicas, ya sea temporales o culturales, y, sacados de contexto, pierden su razón de ser. Los datos, de por sí, no generan conocimiento, pero sí su análisis y procesamiento. Si un eslabón, en esta cadena de proceso, está alterado, acaba afectando a su totalidad. Este es el peligro que existe en la toma de decisiones por parte los algoritmos. Pero ¿qué hace el algoritmo, o modelo, con los datos? Entrenarse, como lo haría cualquier persona con un claro objetivo, para llegar a tomar la mejor decisión posible. Cuanto más se entrene (de cuanto más datos disponga), mejor llegará a la meta (decisión). El modelo compara, analiza y extrae patrones. Así puede clasificar, discriminar y agrupar en distintas categorías útiles. Gracias a estos patrones, es capaz de “afrontar” situaciones nuevas. Las compara con las que ya “ha vivido” similares y extrapola. Así, también puede realizar predicciones, a través de cálculos de probabilidad, con un alto índice de acierto, siempre en función de su nivel de entrenamiento y de la fiabilidad de los datos con los que ha sido entrenado. De manera general, podemos hablar de tres tipos principales de aprendizaje automático: supervisado, no supervisado y el llamado reinforcement learning . Intentemos bucear, a través de un ejemplo, en cada uno de estos conceptos para quedarnos con la idea general necesaria para entender el proceso. •

Aprendizaje automático supervisado: Imaginemos que queremos

entrenar un sistema de IA para reconocer gatos en fotos. En este caso, le enseñamos miles de fotos con gatos y otras que no los muestran. De esta manera, el sistema aprende qué características de las fotos corresponden a gatos y cuáles no. Así, ante una nueva foto, el sistema es capaz de decir si aparece un gato o no. Estos sistemas no siempre suelen acertar. Cometen errores que se conocen como “falsos positivos” al reconocer gatos donde no los hay, y “falsos negativos” al no reconocer un gato donde sí lo hay.

• Aprendizaje automático no supervisado: Pongamos, por ejemplo, que se presenta al sistema de IA la base de datos de clientes de una empresa. El algoritmo, por sí mismo, se encarga de agrupar los datos en grupos que maximizan las características comunes y minimizan las características distintas. De esta manera, se puede segmentar 36

automáticamente una base de datos con muchos clientes en grupos interesantes. •

Reinforcement learning : El uso de algoritmos de IA para jugar al

ajedrez o al juego del go es uno de los mejores ejemplos. En este caso, el sistema aprende por prueba y error. Recibe una recompensa o penalización por cada movimiento que propone según se acerca o se aleja del objetivo de ganar. Aprende a base de jugar muchas partidas para quedarse con los mejores movimientos.

Sistemas basados en conocimiento Además del machine learning , hay otro tipo de sistemas de IA que no se basan en el aprendizaje según la “ingesta” masiva de datos, sino directamente en el conocimiento y en un “motor de inferencia”, que extrae un juicio o conclusión a partir de los hechos. La base de conocimiento contiene hechos y relaciones relevantes para el propósito final del algoritmo. Por ejemplo, si tenemos un sistema de IA que diagnostica automóviles, la base de conocimiento contiene información sobre los componentes de un coche: cómo están conectados, dónde se encuentran en el coche, cuál es la función de cada componente y cómo funcionan conjuntamente, cuáles son sus fallos más típicos, cuáles son las causas más frecuentes, etc. En el caso de un sistema de IA médico, la base de conocimiento consiste en las partes del cuerpo, los órganos relevantes, a través de qué sistema biológico se relacionan y cómo, dónde se encuentran en el cuerpo, etc. Además de esta base de conocimiento que representa todos los hechos que pensamos que se deben de tener en cuenta, y las relaciones entre ellos, estos sistemas “razonan” a través del motor de inferencia con los hechos para dar como resultado nuevos hechos y conclusiones. Un ejemplo clásico de razonamiento lógico es:

37

Esta regla de inferencia deductiva se llama “silogismo” 3 y fue formulado por primera vez por Aristóteles. Un silogismo consta de proposiciones distintas que actúan como premisas, y una tercera que es la conclusión del razonamiento lógico. En este sentido, los motores de inferencia se implementan, normalmente, por reglas del tipo “SI ‘condición’ Y ‘condición’ Y ... Entonces ‘conclusión’”, además de un mecanismo de encadenar las reglas hasta llegar a una conclusión. Existen estrategias diferentes para encadenar estas reglas, como el “razonamiento hacia atrás” (empieza por la conclusión y aplica reglas hasta que solo quedan hechos) o el “razonamiento hacia delante” (se empieza por los hechos y ejecuta las reglas hasta haber llegado a una conclusión válida). Para decidir cómo encadenar las reglas, existen varias estrategias conocidas en el campo de la Inteligencia Artificial como “búsquedas” (depth rst , breadth rst , hill climbing , A-star , etc.). Tradicionalmente, las bases de conocimiento que acabamos de comentar son creadas por los llamados “ingenieros de conocimiento”, que extraen la información relevante de la literatura o lo adquieren mediante entrevistas con expertos. Estos algoritmos se suelen llamar “sistemas basados en conocimiento”, “sistemas expertos” o “sistemas basados en reglas”. La representación de la base de conocimiento también se llama “ontología”. Todos estos forman parte de la escuela de la “IA simbólica”. Uno de los primeros sistemas de este tipo fue MYCIN [7] , desarrollado para facilitar y acelerar el diagnóstico de enfermedades de la sangre, como la meningitis y la bacteriemia, y así ayudar a los médicos, ahorrándoles tiempo y esfuerzo. MYCIN era capaz de identificar las bacterias que causaban la infección en los pacientes. También podía sugerir los antibióticos y las dosis adecuadas para el peso de cada paciente. En el mundo empresarial, el ejemplo más conocido es el de la compañía Cycorp, 4 cuya ambición es modelar el sentido común a través de bases de conocimiento y una multitud de motores de inferencia. Su fin es crear “máquinas” con sentido común capaces de razonar como los humanos. La diferencia entre sistemas de IA basados en reglas y datos se explica en las dos figuras que se exponen a continuación. En un sistema de IA basado en reglas, cada algoritmo tiene una entrada y una salida: entran los datos (por ejemplo, síntomas), el algoritmo procesa esos datos según sus 38

instrucciones y sale el resultado (una diagnosis). El algoritmo ha sido programado por personas (primera figura). Con sistemas de IA basados en datos (aprendizaje automático), es al revés: entran los datos y el resultado deseado, y el output es el algoritmo que ahora es capaz de convertir los nuevos datos de entrada en el resultado correspondiente (segunda figura). En cierto modo, con aprendizaje automático, los ordenadores son capaces de “escribir” sus propios algoritmos [8] .

39

Composición realizada por Javier Fernández Castañón.

40

Una vez conocidos cuáles son los elementos que componen un algoritmo y, en cierta medida, también cómo desarrollan sus procesos, es el momento de intentar comprender cuáles son los riesgos reales que presentan, principalmente en el caso del machine learning , y también de intentar desmentir los prejuicios e ideas falsas o irreales asociadas a la toma de decisiones por parte de las máquinas.

DECISIONES JUSTAS Y BIEN EXPLICADAS La Inteligencia Artificial está todavía en sus inicios. Aun así, ya hemos advertido ciertos riesgos derivados de la “excesiva confianza” en esta tecnología. Su capacidad nos lleva a delegar en ellas, a veces sin prever las posibles consecuencias sociales o profesionales negativas. Diversos casos, como el de Amazon o Apple, citados con anterioridad, son la prueba de estas consecuencias no deseadas, aunque no intencionadas. Pero también sabemos que las personas no siempre decimos la verdad ni somos siempre justos por nuestros prejuicios y nuestras experiencias pasadas. La motivación del Big Data y los algoritmos fue justamente mitigar estos problemas de las personas hacia decisiones más objetivas, justas y basadas en la realidad. ¿Es verdad que las máquinas lo hacen mejor? ¿Y que no tienen prejuicios ni “mienten”? ¿Debemos tener miedo de que las máquinas nos vayan a controlar? ¿Y de que las máquinas vayan a tomar las decisiones importantes que deberían quedarse en manos de las personas? ¿Podremos siempre entender por qué una máquina toma una determinada decisión? ¿Vamos a poder controlar si las máquinas discriminan a las personas más vulnerables? ¿Qué hay de verdad en todo esto? ¿Cuáles son las cuentas y cuáles los cuentos?

¿Nos van a controlar las máquinas? Hoy por hoy, es un cuento que las máquinas nos van a controlar. ¿Por qué? Estamos en la época de la IA estrecha o IA débil. Esto quiere decir que la IA puede resolver tareas concretas con situaciones predecibles, donde hay 41

muchos datos disponibles para entrenar al algoritmo. Además, este tipo de IA no “sabe” qué está haciendo, no sabe qué es un gato en una foto ni que está reconociendo una cara en una aplicación de reconocimiento facial. Lo que aprende el algoritmo son aquellas características (por ejemplo, píxeles en fotos) que todos los gatos tienen en común, pero no sabe que está reconociendo un gato, cuál es su significado. De hecho, si todas las fotos de entrenamiento, aparte de un gato, también contienen un árbol, reconocerá gatos con árboles, pero no los gatos sin árboles. En cualquier caso, los algoritmos de IA en la actualidad, que se basan en reconocimiento de patrones con aprendizaje supervisado, son suficientemente buenos para desarrollar tareas concretas y complejas que a los humanos nos sobrepasan o nos pueden suponer invertir demasiado tiempo. Sobre todo, destacan en su precisión, por ejemplo, en la selección de candidatos para un puesto de trabajo o en los diagnósticos a través del análisis de radiografías. Sin embargo, volvemos a repetir, no tienen conocimiento de lo que están haciendo. En el caso de gatos y enfermedades, solo ven píxeles; no saben de ojos, orejas ni de tumores o manchas oscuras, mucho menos de qué es un gato o una enfermedad grave. Incluso programas que combinan técnicas distintas de IA, como el deep learning , reinforcement learning y search , 5 y las usan en distintas fases del problema, como AlphaGo de Deepmind, tampoco son “conscientes” de que están jugando al go. A pesar de “saber” mucho del juego más complicado del mundo, AlphaGo no es capaz de jugar a un juego estratégicamente más fácil, como puede ser el ajedrez o las damas. Ahí está, por ahora, una de las diferencias con los humanos. En principio, una persona capaz de jugar al go como maestro es capaz de jugar, bastante bien, una partida de ajedrez o damas. El paso a un programa de IA capaz de desarrollar tareas múltiples, como lo haríamos los humanos, no es viable en la actualidad. Sin embargo, no se puede descartar que en un futuro lo sea. Esa capacidad es una condición necesaria, aunque no suficiente, para llegar al momento que se conoce como “singularidad tecnológica”. Supuestamente, será el punto de inflexión en el que las “máquinas independientes” nos sobrepasen en todos los aspectos de nuestra inteligencia y serán capaces de actuar y replicarse a sí mismas, desempeñar multitareas y, quizás, superarnos como raza. Si se consiguiera, sería la prueba de que, como hombres, somos capaces de crear “seres 42

conscientes” de la nada, con capacidad para socializar y con una inteligencia superior. En cualquier caso, aún estamos muy lejos de la Inteligencia Artificial general, como tenemos los humanos. Hace falta tener sentido común, poder razonar y entender relaciones causales. Todo esto, hoy en día, son cosas de las que carece la Inteligencia Artificial. Si algún día llega a ocurrir tal idea apocalíptica (que abarcaremos con amplitud en el último capítulo de este libro), no tiene por qué ser negativa, siempre que, desde ahora, guiemos el desarrollo de esta tecnología con responsabilidad, manteniendo siempre al humano como centro de ella. Nosotros, los humanos, somos los que debemos razonar sobre las decisiones que debemos dejar en manos de la máquina. Hoy en día, en la cultura occidental, son las empresas y organizaciones las que están decidiendo qué decisiones quieren automatizar o no; es el mercado libre el que decide. Pero, en un futuro próximo, quizá la decisión pase por un organismo regulador que controle y realice una prevención real sobre un posible impacto negativo de estas tecnologías. De todas formas, en China, el gobierno marca las decisiones sobre IA, tal y como comenta Claudio Feijoo, en su aportación a este libro.

43

44

45

46

Es importante intentar prever el tremendo potencial que podría llegar a tener esta tecnología en un futuro, pero lo es aún más comprender, en el momento actual, sus características intrínsecas y el posible conflicto con las de la raza humana, así como sus riesgos reales. Sigamos con algunas de estas características.

¿Son todas las decisiones de las máquinas cajas negras? Hay veces que, incluso para los humanos, tomar decisiones no es fácil. Nuestro cerebro analiza y pondera cuál es la mejor opción. Cuando alguien te pregunta por qué has tomado esta decisión, normalmente, eres capaz de explicarlo. Razonarlo. Y también, normalmente, el interlocutor lo entiende. ¿Pero qué ocurre con las máquinas? ¿Podemos hacerles la misma pregunta para intentar entender su razonamiento? Lo primero que hay que mencionar es que, actualmente, los algoritmos de IA dependen íntimamente de su programador inicial. Es esta persona la que decide qué algoritmos usar y con qué datos entrenar el modelo. Por lo tanto, en el tema de la “explicabilidad” de las conclusiones a que llegan los algoritmos, el primer responsable es el ingeniero. Los resultados de los algoritmos más potentes de la IA, los de deep learning , en efecto, son difíciles de entender, ya que el proceso que desarrolla es opaco. Se les conoce como Black Box , caja negra. Sin embargo, hay muchos algoritmos de aprendizaje automático que son perfectamente inteligibles (cajas blancas) para saber cómo ha llegado a una determinada conclusión. Por ejemplo, los llamados “árboles de decisión” son perfectamente comprensibles. En las dos figuras que se exponen a continuación, se puede apreciar el resultado de un árbol de decisión para predecir si los clientes van a abandonar una compañía de telecomunicaciones o no, basado en datos históricos. El árbol es entendible por personas y el algoritmo puede demostrar todas las variables que han influido en su decisión y con qué importancia. Con los dos gráficos se puede entender cómo el algoritmo llega a una conclusión. Si un cliente paga mucho en un día (más de 40 dólares), entonces abandona la compañía. Si gasta menos de 40 dólares, pero ha llamado más de tres veces al centro de 47

atención de cliente, también deja de ser cliente, pero, si ha llamado menos de tres veces al centro de atención, sí se queda con la compañía.

Árbol de decisión para predecir abandono de clientes. Ilustración realizada por Javier Fernández Castañón.

Además, se puede visualizar la importancia de cada variable en el proceso de decisión del árbol: precio total diario, número de llamadas al centro de atención al cliente, etc.

48

Ilustración realizada por Javier Fernández Castañón.

Aunque, hasta la fecha, la mayoría de los ingenieros prefieren usar deep learning (una caja negra) por sus prestaciones superiores, cada vez son más las empresas que consideran usar un algoritmo interpretable (caja blanca) si su prestación es suficientemente buena para resolver el problema de negocio, aunque sea su rendimiento un poco peor que un algoritmo de caja negra. La razón es la explicabilidad, que, en ciertas aplicaciones, debe tener un peso importante, como en el sector médico. De todas formas, hoy en día hay mucha investigación trabajando en mejorar la explicabilidad de los algoritmos de deep learning [9] . Con sistemas de IA basado en conocimiento, la explicabilidad no es un problema, ya que estos sistemas usan conocimiento explícito y reglas para llegar a sus conclusiones. Y, visualizando la cadena de reglas que ha usado, se supera la oscuridad que rodea a este proceso de razonamiento de la máquina. Por ejemplo, el sistema médico experto MYCIN [7] era capaz de diagnosticar meningitis a través de una base de datos con conocimiento médico y un motor de inferencia. Y también podía explicar preguntas como: ¿por qué se ha usado esta observación en la diagnosis?, ¿por qué no se ha usado esta observación en la diagnosis?, ¿cómo llegó el sistema a su conclusión?, ¿por qué no llegó a una conclusión distinta? Sin embargo, si para llegar a una conclusión el algoritmo ha usado una cadena de más de

49

mil reglas, tampoco es muy comprensible para las personas, ya que nos perderíamos en tanto detalle. En cualquier caso, la explicabilidad en los algoritmos sigue siendo un reto. Para decisiones que impactan en nuestras vidas, es realmente necesario saber de qué forma han llegado a tomar sus decisiones. Solo así podremos adquirir confianza en ellos y sacar así toda su utilidad. Imaginemos un juez que se ayuda de un sistema de IA para el análisis de la jurisprudencia sobre un caso. La “decisión” del algoritmo no tendría validez si el juez no fuera capaz de explicar el porqué de este proceso. Sin embargo, este no es, ni mucho menos, el único reto de la IA. Mucho más claros son aquellos que intentan combatir los posibles sesgos que llevan a la discriminación en la toma de decisiones.

¿Conseguiremos controlar la discriminación de la IA? ¿Qué hay de ciencia, ficción y opinión en el miedo a los sesgos y a la discriminación ? Comencemos precisando el término “discriminación”. Para la mayoría de nosotros se asocia directamente con marginación relativo a la raza, sexo, política... Sin embargo, los algoritmos “discriminan” por diseño. Es su función discriminar entre clases de objetos. Por ejemplo, radiografías que presentan cáncer frente a las que no lo presentan; clientes que se van versus clientes que se quedan. Y aquí está el peligro. Se debe evitar el uso de variables sensibles, protegidas por la ley y los derechos humanos, que pueden conllevar problemas graves si se llegan a aplicar en una sociedad democrática. Es un hecho que, en muchas ocasiones, la vida no es justa y que muchos de los datos que se generan reflejan este mundo injusto. Si un algoritmo aprende de estos datos sesgados, la decisión que recomienda puede estar sesgada de la misma manera, pero automatizada, lo cual es aún peor. Por ejemplo, si usamos datos estadísticos de los sueldos medios de hombres y mujeres para entrenar un algoritmo que ayuda a un departamento de RR. HH. a la hora de dar recomendaciones sobre salarios a nuevos empleados, seguramente el sistema discriminaría contra mujeres, ya que,

50

estadísticamente, las mujeres tienen un sueldo inferior a hombres en puestos iguales. Sin embargo, es ficción que necesariamente todos los algoritmos discriminen. Ya existen herramientas para mitigar los sesgos en los datos o en los algoritmos, para que el resultado del algoritmo no discrimine [10] . Estas herramientas funcionan si el dato o atributo sensible (como género, raza o convicción religiosa) forma parte del data set , base de datos, de la que se alimenta un algoritmo. Se entrena el algoritmo sin estos datos sensibles y, después, se usan para verificar que el algoritmo efectivamente no discrimina contra este variable. No obstante, hay otros casos en los que los datos sensibles no forman parte del data set , entonces estas herramientas no son capaces de detectar si el algoritmo discrimina o no [11] . Hay un caso más para tener en cuenta: las variables proxy son variables que, en sí mismas, no son sensibles, pero que tienen una alta correlación con datos sensibles. Pensamos por ejemplo en la variable “código postal”. En algunas ciudades, sobre todo en EE. UU., el barrio donde vives, reflejado en un código postal, tiene una alta correlación con la raza de sus habitantes. De esta manera, si un algoritmo toma una decisión en base a esta variable, de forma indirecta podría discriminar a personas de raza negra. Algo así podría haber pasado con el caso de la Apple Card , que, como hemos visto antes, discriminaba contra mujeres, ofreciéndoles mucho menos crédito que a las parejas de las mismas mujeres. Apple dijo que no discriminaba, ya que el género no formaba parte de las variables usadas para calcular el riesgo. No obstante, puede haber existido una variable proxy (con alta correlación con género) influyente en el modelo que ha causado esta discriminación. Para comprender bien los riesgos reales, veamos, algo más en profundidad, cuáles son los tipos de sesgos identificados más comunes, teniendo en cuenta que, muy probablemente, haya otros muchos que aún lo hayan sido.

Sesgos en los datos Hay veces que el sesgo se produce en la muestra, es decir, en los datos de los que se “alimenta” el sistema de IA, por ejemplo, cuando los datos recopilados no representan con precisión el entorno contextual en el que se espera que se ejecute el programa. Teniendo en cuenta el hecho de que no 51

se puede entrenar a un algoritmo con todo el universo de los datos, es importante que el desarrollador preste mucha atención al subconjunto que elige en función de este contexto. El sesgo más comentado en la prensa es cuando los datos usados para entrenar al algoritmo no son representativos para la población a la que se aplica el algoritmo. Si hacemos una foto con nuestro móvil, se suele ver un cuadro pequeño alrededor de cada cara: tiene un algoritmo por debajo que ha sido entrenado con muchísimas fotos de caras para distinguir las caras de las “no caras”. En las primeras versiones, el programa funcionaba bien para caras de personas de raza blanca, pero no para las de personas de raza negras. La consecuencia (lógica) era que solo se ponía un cuadrado alrededor de caras blancas, discriminando a las personas de raza negra. El error aquí es que los datos elegidos para el entrenamiento no eran representativos para el público objetivo. Este es el mismo tipo de sesgo que ocurrió con el sistema de IA de Amazon para la ayuda a la contratación que discriminó a mujeres. Otros son los llamados “sesgo de exclusión”, que se producen cuando se eliminan algunas características pensando que son irrelevantes, basándonos en creencias preexistentes. Si se desconoce algún elemento que pudiera ser relevante en el contexto de los datos principales y se eliminan (inconscientemente), la muestra quedará sesgada. También se podrían producir sesgos en la medición y recogida de los datos en función del instrumento con el que se recojan. Es el caso, por ejemplo, de las imágenes sacadas con una cámara de fotos que tienen alterada la luminosidad o algún otro tipo de característica que distorsiona la realidad.

Sesgos humanos Hay otros tipos de sesgos, más habituales aun que los contextuales en la actualidad, que son los pertenecientes a la persona que desarrolla el algoritmo o crea el modelo. Todas las personas influyen en sus creaciones, de una manera u otra. Es difícil dejar de hacerlo. En realidad, no tiene por qué ser malo, siempre que no tenga consecuencias negativas sobre la decisión. Este es el caso de los sesgos debido a los “prejuicios personales” del desarrollador, que acaban trasladándose al programa. Incluso puede ser un posible “auditor de datos” el que se vea afectado por su contexto personal, 52

de una manera inconsciente, a medida que realiza su análisis y pasen desapercibidas algunas cuestiones importantes. Pero, sin duda, de todos los sesgos citados, hay unos que suelen pasar más desapercibidos que los demás por una simple razón: es difícil darse cuenta de que algo influye, o no, en nuestra manera de ser y en el modo en el que tomamos nuestras decisiones, cuando convivimos a diario con ello en nuestro país, en nuestra cultura...

53

54

EN BUSCA DE UN ALGORITMO ÉTICO Ahora que sabemos cuáles son los verdaderos riesgos con respecto a la autonomía, la explicabilidad y los sesgos de los algoritmos de IA, es el momento de plantearse qué se debería hacer para gestionarlos. Son muchos los expertos, científicos y autoridades en la materia que abogan por una regulación en la Inteligencia Artificial. Nuevas leyes que “limiten” el uso y aplicaciones de esta revolucionaria y, muchas veces, tachada de apocalíptica tecnología. Pero es difícil hacerlo cuando el cambio es continuo y aún se desconocen muchas de las implicaciones reales. A cambio, hemos creado ya infinidad de minicódigos éticos, muestra de nuestro interés y preocupación. Sin embargo, al fin y al cabo, no son más que palabras, muestra de nuestra conciencia y reflexión. Si se incumplen, no ocurre nada. No hay castigo real. Es lo que algunos autores denominan un “lavado (de conciencias) ético” [12] . Y el tremendo potencial económico que promete la Inteligencia Artificial no es una baza a favor de la responsabilidad, el cuidado, la ética y la cautela, cuando tratamos con este tipo de tecnologías. De todas formas, cuando hablamos de ética, muchas veces damos por hecho, de manera incorrecta, que la ética es algo universal, mientras que es algo que puede depender de la cultura.

La importancia del contexto cultural en la toma de decisiones Es un hecho que no tiene la misma visión del mundo, ni las mismas perspectivas sobre las cosas, un japonés, un alemán o un español [13] . En este sentido, tener en cuenta la cultura, costumbres históricas, del lugar donde se ejecute el algoritmo, es muy importante si se pretende que esta tecnología gane en aceptación social. Uno de los experimentos más conocidos que demuestran, en sus conclusiones, este punto es el llamado “The Moral Machine”, 6 desarrollado por el Massachusetts Institute of Tecnology (MIT) en Boston [14] . La “Moral Machine” del MIT actúa bajo un principio similar al problema del “trolley ”, diseñado en su día sobre un tranvía que avanza sin frenos y

55

cuyo conductor tiene que tomar decisiones ante la aparición de peatones u obstáculos en la vía. Este programa recoge los datos de las decisiones de todo aquel que realice el experimento, que responde a la demanda actual de “educar” a los coches con un alto grado de autonomía en el caso de que tengan que tomar decisiones en situaciones críticas.

Caso ético del tranvía. ¿Qué es mejor: que muera una persona o cinco? Composición realizada por Javier Fernández Castañón.

Solo es cuestión de tiempo, aunque no hay consenso sobre cuánto, que la conducción autónoma se convierta en habitual. La máquina puede ser mucho más precisa que un conductor humano. No se cansa. No se despista. Está en comunicación continua con todos los dispositivos asociados al tráfico, analizando de manera constante estos datos y tomando las decisiones más convenientes, en base a estos, en tiempo real. La tecnología está disponible, pero la carga ética que supone la adopción de decisiones de vida o muerte por parte de una máquina sigue fuera del rango de aceptación social actual. Un vehículo completamente autónomo necesitaría ser dotado en su

56

programación de ciertas consideraciones éticas que perfilen su objetividad en algunos casos. Y este fue el trabajo para el que fue concebido la “Moral Machine”. Determinar cuáles son, para la mayoría de las personas en el mundo, estos principios éticos. La pregunta que se hacen los científicos del MIT al presentar la “Moral Machine” es la siguiente: ¿qué decisión debería tomar un coche autónomo si se le presenta un dilema grave como el de tener que atropellar a unas personas u otras, teniendo en cuenta parámetros como número, sexo, edad, raza o salud? Más de dos millones de personas, de más de 200 países, han respondido a estos dilemas y los resultados no son, en absoluto, concluyentes ni categóricos. Más bien, vislumbra cuál es la realidad. La cultura, la situación geográfica, las circunstancias personales de cada uno influyen significativamente en su concepto de ética. Por ejemplo, en las culturas occidentales se valora más a los niños que a los ancianos, mientras en las culturas orientales se valora más a las personas con cierta edad. Por este motivo, resulta muy complicado establecer un único código ético universal para ser integrado, de forma general, en cualquier Inteligencia Artificial. Sin embargo, no por ello debemos dejar de buscarlo.

Códigos éticos Dado que, hoy por hoy, no es posible enseñar ética a una máquina, será a las empresas y sus desarrolladores a quienes hay que exigir que el desarrollo y el uso de la IA sean realizados de una manera ética, en concordancia con los derechos humanos internacionales. Y esto es el camino dominante que hoy en día están empujando los organismos internacionales. Trabajan en códigos éticos en Inteligencia Artificial para dirigir las actuaciones de las empresas que implementan estas tecnologías en productos y servicios. En este sentido, en abril de 2019, la Comisión Europea presentó las líneas maestras para el desarrollo de una IA fiable y segura en la Unión Europea, resaltando los aspectos principales a tener en cuenta para evitar posibles errores y consecuencias negativas. Son las siguientes [15] :

57

1. Supervisión humana: Los sistemas de IA deben permitir sociedades equitativas y proteger los derechos fundamentales de los humanos. No deberán disminuir o limitar la autonomía humana. 2. Robustez y seguridad: La Inteligencia Artificial requiere que los algoritmos sean lo suficientemente seguros, confiables y sólidos como para enfrentar errores o inconsistencias durante sus procesos de toma de decisiones. 3. Privacidad y gobernanza de los datos: Los ciudadanos deben de tener un control total sobre sus propios datos. Además, los datos que los conciernen no se utilizarán para perjudicarlos ni discriminarlos. 4. Transparencia: Debe garantizarse la transparencia en el proceso de toma de decisiones del sistema de Inteligencia Artificial (Explainable AI). 5. Diversidad, no discriminación y equidad: Los sistemas de AI deben considerar toda la gama de habilidades y requisitos humanos, y garantizar la accesibilidad. 6. Bienestar social y ambiental: Los sistemas de Inteligencia Artificial deben utilizarse para mejorar el cambio social positivo y mejorar la sostenibilidad y la responsabilidad ecológica. 7.

Rendición de cuentas: Deben establecerse mecanismos para

garantizar la responsabilidad y la rendición de cuentas de los sistemas de AI y sus resultados.

Sin embargo, aunque la Comisión Europea es una referencia internacional con sus pautas éticas, muchas otras organizaciones, de distinta índole, han publicado principios éticos para la Inteligencia Artificial. En marzo de 2019, la Universidad de Harvard estudió los principios de 32 organizaciones en todo el mundo que en ese momento habían publicado principios de IA [16] . Los analizaron en nueve dimensiones e hicieron una puntuación de cada organización para cada dimensión: derechos humanos, valores humanos, responsabilidad profesional, control humano de la tecnología, justicia y no discriminación, transparencia y explicabilidad, seguridad, rendición de cuentas y privacidad. Analizaron organizaciones de distintos tipos como organizaciones civiles, gobiernos, organizaciones intergubernamentales y compañías privadas. 58

También la ETH Universidad de Suiza examinó los principios de la IA de 84 organizaciones de todo el mundo y los clasificó con las siguientes dimensiones [17] : transparencia (usado por 73 organizaciones), justicia (68), no maleficencia (60), responsabilidad (60), privacidad (47), beneficencia (41), libertad y autonomía (34), confianza (28), sostenibilidad (14), dignidad (13) y solidaridad (6). Además, la organización sin ánimo de lucro Algorithm Watch mantiene un inventario global [18] con 83 organizaciones que han publicado principios éticos de IA entre 2018 y 2019. De estos estudios se deriva que la mayoría de los principios incluyen temas como transparencia, igualdad, no discriminación, rendición de cuentas y seguridad; algunos mencionan los derechos humanos y beneficencia. De su reflexión, se desprende que aún son pocas las compañías con estos importantes principios. Por otro lado, en su Libro blanco de la Inteligencia Arti cial publicado el 19 de febrero de 2020 [19] , la Comisión Europea dispone las matrices principales de una posible regulación de la IA. Propone identificar sectores y aplicaciones de alto riesgo, como, por ejemplo, salud o transporte, y aplicaciones con impacto significativo en las vidas de las personas (jurídico, vida o muerte, etc.). La regulación sería necesaria si se cumplen los dos criterios (sector y al mismo tiempo uso de alto riesgo). Propone también definir dos listados exhaustivos (sector y uso) de alto riesgo, que se actualizarán periódicamente. Esta era la situación a fecha de marzo de 2020. Con todas estas iniciativas de instituciones internacionales, organizaciones civiles, gobiernos nacionales e internacionales y empresas, se intenta regular o autorregular el uso de la Inteligencia Artificial para que las máquinas tomen las decisiones dentro de un ámbito adecuado, que estas sean interpretables cuando impactan en la vida de las personas y que sus resultados no discriminen de una manera no deseada [20] , [21] .

59

60

61

62

1 . Los sistemas de Inteligencia Artificial pueden desarrollar distintos grados de autonomía (HITL, human-on-the-loop , human-out-of-the-loop ) en función del grado de impacto en la vida de las personas. Normalmente se establece en función del tipo de tarea que vaya a desarrollar. 2 . En 2015, Future of Life Institute publica una Carta abierta a las Naciones Unidas en contra de las Armas Autónomas, en la que se explica que este tipo de armas amenazan con convertirse en la tercera revolución en la guerra. Además, se afirma que, una vez desarrolladas, permitirán combatir conflictos armados a una escala mayor que nunca y en medidas de tiempo más rápidas de lo que los humanos pueden comprender. El manifiesto, firmado, entre otros, por Elon Musk y Stephen Hawking, termina con una clara advertencia: "No tenemos mucho tiempo para actuar. Una vez que se abre esta caja de Pandora, será difícil cerrarla. Por lo tanto, rogamos a las Altas Partes Contratantes que encuentren una manera de protegernos a todos de estos peligros". Disponible en: https://futureoflife.org/autonomous-weapons-open-letter-2017/?cn-reloaded=1 . 3 . Según Aristóteles, silogismo es la forma fundamental del conocimiento científico que permite deducir nuevos y distintos juicios partiendo de dos proposiciones conocidas, denominadas "premisas". La forma más general de un silogismo se construye según el siguiente ejemplo: "Todos los hombres son mortales. Sócrates es un hombre. Por consiguiente, Sócrates es mortal". En este silogismo, el concepto "hombre" es el término medio, el concepto común de ambas premisas, y que hace posible la consiguiente conclusión. 4 . Cycorp es una compañía creada en 1984 que desarrolla proyectos de Inteligencia Artificial avanzados. Entre ellos, se encuentra Cyc, basado en un software capaz de deducir información no explícita en una conversación basado en razonamiento lógico. Accesible en: https://www.welcome.ai/tech/product-development/cycorp . 5 . Ver Glosario para una explicación de los términos. 6 . "The Moral Machine" es un ensayo del Instituto Tecnológico de Massachusetts (MIT), que tiene como finalidad reunir opiniones, de distintas regiones del mundo, sobre la mejor y más ética manera de actuar en situaciones extremas en el caso de los vehículos autónomos. El objetivo es intentar llegar a un consenso a este respecto. Accesible en: http://moralmachine.mit.edu/ .

63

64

65

La única privacidad que queda es la que está en nuestras mentes.

—Frase de la película Enemigo público (1998). La privacidad es importante para las personas. Nos proporciona seguridad y la consiguiente relajación. Aunque se podría pensar que, si no se está haciendo nada malo o ilegal, no tiene por qué ser necesaria, en realidad es un derecho vital que conforma nuestra persona y nos hace ser quienes somos sin los prejuicios y presiones que aporta, a algunos más que otros, ser, sí o sí, parte de una sociedad. Tener privacidad significa estar libre de cualquier observador no deseado. Es un hecho que no nos comportamos igual con nuestros amigos o nuestra pareja, que con los compañeros de trabajo o nuestro jefe. Gracias a esto, valoramos la intimidad o la cercanía. La relación con nuestro entorno va conformando, a lo largo de la vida, nuestra personalidad. Normalmente nos enriquece cuando se produce un equilibrio entre nuestro espacio privado y el público. Sin embargo, su alteración a un lado u otro de la balanza puede producir el efecto contrario. Sin duda, Internet y las redes sociales han supuesto todo un reto para este ámbito. Han cambiado nuestra forma de ver la vida. La sobrexposición pública intensifica los casos de ansiedad y falta de autoestima. Los extremos nunca son buenos. La Inteligencia Artificial supone un paso más. Su fuente de vida son los datos. También los nuestros. Y las grandes preguntas empiezan a emerger. ¿Qué pasará cuando las máquinas tengan acceso a más datos que yo mismo sobre mí mismo? ¿Viviremos, en breve, en un mundo sin privacidad? Analicemos.

66

EL GRAN HERMANO ME VIGILA Nadie recuerda haberse cruzado jamás con Big Brother (Gran Hermano); sin embargo, él conoce muy bien a sus súbditos, a quienes vigila a través de un sistema de pantallas. En casa y en la calle, la privacidad es nula. Pero es necesario para controlar de forma debida a la gran masa. Ofrece confianza, pero infunde miedo. Nadie lo conoce físicamente; sin embargo, su imagen se repite de manera incesante en las pantallas y carteles con una frase de alerta que no deja indiferente: “Gran Hermano te vigila”.

Composición realizada por Juan Silva.

La novela de George Orwell 1984 [22] , publicada en 1948, es en la actualidad un clásico recurrente en el que basar situaciones presentes, en las que se practica una vigilancia excesiva y la manipulación de la información. Como siempre, los temores del ser humano, en este caso a la falta de privacidad, se reflejan también en la literatura y cinematografía, cuya imaginación a veces nos permite llegar a predecir situaciones reales. Otras,

67

sin embargo, se limita a acrecentar, de manera desmesurada, estos “miedos” convirtiéndolos en prejuicios infundados. Recordemos otra cinta: El show de Truman (1998), en la que el actor Jim Carrey da vida a Truman Burbank, una persona que ya nació, creció y desarrolló buena parte de su vida dentro de un show televisivo emitido en directo las 24 horas del día. La vigilancia, exposición y control son una constante, pero él no las percibe y realiza su vida normal. Está dirigido, pero de manera inconsciente. Otra película que, sin duda, hace pensar es Enemigo público (1998), en la que Will Smith encarna a Robert Clayton Dean, un abogado de Washington D. C. (EE. UU.) que pone en riesgo su carrera y su matrimonio por proteger una cinta que contiene imágenes del asesinato de un congresista. Este último se había negado a aprobar un controvertido proyecto de ley en el que se permitía a las agencias de seguridad el espionaje masivo de las comunicaciones, obviando la privacidad de la población. El protagonista tiene que lidiar con todo tipo de situaciones que ponen de manifiesto la sobrada capacidad de estas agencias para intervenir, de manera definitiva, en la vida del abogado: satélites de geolocalización, microchips, anulación de cuentas bancarias y difusión de fake news sobre su persona, entre otros. Estos miedos ficticios contienen tantos elementos reales que no es de extrañar que causen prejuicios entre una población que, cada vez más, vive en base a los datos que genera. Esto no tiene por qué ser malo, siempre que se proteja nuestra intimidad y se controle la excesiva vigilancia. Así, como hemos visto anteriormente, gracias a la geolocalización, el GPS nos dice cómo llegar lo más rápido a nuestro trabajo, esquivando los atascos; también podemos controlar la situación de nuestras mascotas, para evitar que se pierdan, y también la de los niños y adolescentes (para bien y para mal). Además, gracias a estas nuevas tecnologías y a los datos, se puede pagar con las tarjetas de crédito, desde los móviles, en muchos lugares del mundo. Se puede compartir nuestras fotos en un clic, coger una bici, patinete o coche de alquiler en una calle y dejarla en otra, mediante el uso de una aplicación de móvil. Nuestras compras en el supermercado quedan registradas en la tarjeta de la tienda, pedimos cita con el médico online y hacemos compras en Amazon, y otros sitios web, sin ser muchas veces conscientes del rastro de datos personales que vamos generando.

68

¿Somos conscientes de nuestra huella digital? Actualmente, todos sufrimos o disfrutamos de las consecuencias del “mundo de datos” en el que vivimos. Un ejemplo, muy ilustrativo, ocurrió ya en 2012, cuando un padre puso una queja a la cadena de grandes almacenes estadounidenses Target. Alegaba que había recibido publicidad, a nombre de su hija, sobre productos de bebés [22] . Le parecía ridículo que se lo enviaran porque esta aún estaba terminando Bachillerato. Pero resultó que esta cadena de supermercados, a través de los datos, había detectado que su hija cumplía con el perfil de “embarazada” y, siguiendo su política comercial, enviaba esta publicidad. En efecto, la hija estaba embarazada y Target lo sabía antes que su padre. Es un hecho que cada vez hay más empresas que investigan perfiles de sus candidatos para contratar en redes sociales, antes de tomar una decisión, y no es raro que, si ven algo que no les agrada ahí, toman una decisión negativa [23] . También es habitual que nos llegue publicidad online sobre viajes a un país, sin haberlo solicitado, simplemente porque tu pareja había hecho alguna búsqueda, en su ordenador, el día anterior. Lo peor es que esta publicidad sigue apareciendo durante mucho tiempo, aunque ya hayas comprado el viaje o desistido de la idea. Son pequeñas evidencias de que nuestra huella digital se está explotando comercialmente. Esto puede resultar, a veces, irritante y da sensación de falta de privacidad. Como veremos más adelante, esta explotación comercial es el modelo de negocio principal del Internet actual. Se podría decir que es un mal necesario, ya que poca gente está disponible a pagar para leer las noticias, usar apps, como Google Maps, Facebook, Instagram, etc. Aunque no nos guste, hasta cierto punto, podríamos llegar a entender por qué explotan nuestros datos. Pero hay otros temas, más importantes, relativos a la falta de privacidad, que no necesariamente tienen que ver con el modelo de negocio de Internet. Incluso en las democracias occidentales encontramos ejemplos como el de la Liga española que, a través de su app , usaba información de localización y el micrófono de los móviles, para “espiar” qué bares emitían fútbol sin licencia [24] . Cuando no hay democracia, esta intromisión en la vida de las personas, utilizando nuevas tecnologías como la IA, es aún mayor. En China, el gobierno ha establecido un sistema de puntuación social (social scoring)

69

para saber cómo de buenos (o no) son sus ciudadanos. Por ejemplo, ciudadanos que cruzan un paso de cebra en rojo son reconocidos automáticamente y sus fotos son publicadas, con sus nombres, en una pantalla al lado del paso de cebra con el objetivo de avergonzarles. Para esto, han instalado cámaras en muchas ciudades que identifican a las personas con reconocimiento facial. La puntuación de cada ciudadano puede tener influencia, por ejemplo, en los procesos de admisión de las universidades, trabajos públicos o prestación de servicios sociales. Esto, en el mundo occidental, sería una infracción de los derechos humanos (ver comentario de Claudio Feijoo, codirector del Sino-Spanish Campus, en la universidad de Tongji /China, en capítulo anterior). Sin embargo, hay algo que debe preocupar aún más: los casos de prácticas ilegales con los datos personales. Aunque haya muchísimos casos documentados, el más emblemático, hasta la fecha, ha sido el escándalo de Cambridge Analytica y los datos de Facebook de decenas de millones de usuarios de todo el mundo [25] . Ocurrió en marzo de 2018. El investigador de la Universidad de Cambridge, Aleksandr Kogan, recopiló datos de decenas de miles de usuarios de Facebook y sus amigos, a través de una aplicación que cumplía con las condiciones de Facebook estipuladas para una investigación concreta. A través de la app , consiguió información sobre más de 70 millones de usuarios de esta red social. Hasta aquí no había problema. Empezó a haberlo cuando este investigador transfirió, de manera ilegal (es decir en contra de la política de datos de Facebook), estos datos a la empresa Cambridge Analytica, especializada en el marketing político online , sobre todo en campañas electorales, usando tecnologías de Big Data . Resultó que esta empresa había prestado servicios a la campaña de Trump para influir en las elecciones americanas de 2016 y también a la campaña pro-Brexit en el referéndum de Reino Unido. Cambridge Analytica dejó de operar en mayo de 2018. Y el regulador americano FTC (Federal Trade Commission) multó a Facebook con 5.000 millones de euros. Hasta la fecha de hoy (2020), el caso sigue revelando nuevos escándalos de influencia no permitida en elecciones.

¿Qué noticias son reales y cuáles no? 70

El escándalo de Cambridge Analytica dio un nuevo significado a las llamadas fake news o noticias falsas. Antes, las “noticias falsas” estaban escritas por personas que ganaban dinero con la publicidad en Internet. Habían descubierto que ciertos titulares de noticias, principalmente aquellas que incitaban al morbo o a la alarma, recibían más clics y, por tanto, más ingresos que otros. Son los llamados click-baits . Aunque impulsadas por el modelo de negocio de Internet, lo que hace pensar a algunos que quizás no es el modelo adecuado, estas falsas noticias eran lo que eran: noticias falsas. De hecho, la batalla contra el click-bait ya se está librando en la Red. En los últimos años, han surgido páginas como ClickHole, sitio web del periódico satírico The Onion , o el Twitter de “Saved You a Click”, que parodian y critican este tipo de titulares. Incluso Facebook ha modificado su algoritmo para detectarlos y combatirlos, de manera que mida el tiempo que pasa desde que el usuario hace clic en el título del artículo hasta que vuelve a la red social. Por su parte, Google también se ha comprometido con este fin. Existen herramientas, aplicaciones que ayudan en su detección. Pero, aun así, aunque existieran cientos de ellas, no sería suficiente. La educación, y la adquisición de conciencia “extra” a este respecto, del consumidor de noticias, en estos casos, sigue siendo fundamental. Tras el caso de Cambridge Analytica, las fake news subieron a la categoría de peligro. No es tanto la noticia falsa en sí el problema, sino que, a través de las redes sociales, llegan a aquellas personas que tienen una preferencia por las ideas expresadas en estas falsas noticias y, de esta forma, se produce una clara manipulación sobre sus criterios. Con los datos de Facebook, Cambridge Analytica fue capaz de construir perfiles psicológicos detallados que permitieron esta manipulación. La combinación de Big Data y aprendizaje automático (machine learning ) permite a cualquier organización generar estos perfiles y tener la capacidad de manipulación en sus manos. En la actualidad, se siguen viendo intentos ilícitos de manipulación en importantes procesos democráticos y en la opinión pública [26] .

71

72

Como hemos visto, la preocupación por la pérdida de la privacidad es muy lícita. Sin embargo, a veces, constituye el elemento necesario para que los usuarios tengamos ciertas ventajas, como puede ser la gratuidad de utilidades en Internet (correo, buscadores, apps ...). Sin embargo, hay otros casos en los que las consecuencias pueden ser muy graves y pueden poner en peligro nuestras sociedades democráticas. Pasemos a fundamentarlo, respondiendo, en el siguiente apartado, a preguntas cruciales para entender el proceso. ¿Cómo se consiguen tantos datos? ¿Por qué los usuarios damos nuestro consentimiento prácticamente a todo lo que se nos muestra? Analicemos.

73

TODO SE REDUCE A DATOS Ante todo, es importante discernir la diferencia entre datos personales y datos no personales. Toda la información que puede llevar directa o indirectamente a una persona concreta son datos personales. Nombre, dirección, DNI/NIE, cuenta bancaria, número de teléfono, etc., son todos datos personales. Si alguien tiene uno de estos datos sobre una persona, podría llegar directamente a esa persona. La mayoría de las recomendaciones online de contenido, productos o servicios está personalizada para cada individuo, por tanto, estas recomendaciones se basan en datos personales. Netflix sabe quién eres y Amazon también. Por otro lado, los datos no personales son aquellos que no permiten esta identificación de personas concretas. Disociado de mi nombre, la ciudad donde vivo, mi edad o rango de edad o mi nacionalidad son ejemplos de datos que normalmente no pueden conducir a la identificación directa de un individuo. Decimos “normalmente”, porque se pueden dar ciertas circunstancias donde sí sería posible. Pensemos, por ejemplo, de manera hipotética, en una ciudad donde se sabe que solo vive un extranjero. En este caso, la nacionalidad se convierte en un dato personal porque permitiría la identificación de una persona concreta.

Volver a ser anónimo Teniendo en cuenta la necesidad de mantener la privacidad de las personas, es cada vez más común el uso de datos “anonimizados” por parte de aquellas empresas y organismos que tienen datos personales y quieren usar IA para sus cometidos. Así, los datos son sometidos a un proceso en el que se desvincula los datos personales (nombre, IP, número de la Seguridad Social, número de cuenta bancaria...) del resto de valores. De esta manera, en principio, no se podrían volver a asociar de forma directa a campos considerados personales para identificar directamente a la persona individuo. Esto permite garantizar la privacidad del individuo en cuestión, a la vez que utilizas sus datos para la muestra. Este proceso de “anonimización” es importante porque los datos personales están protegidos, en toda Europa, por la Regulación General de Protección de Datos (la GDPR, por sus siglas en inglés). Una vez que 74

“despersonalizas” ya no habría problema. Sin embargo, puede ocurrir el caso que sea posible esta reidentificación si combinamos estos datos con otros. Por ejemplo, un hospital de una población pequeña publica el rango de edad de sus pacientes en porcentajes y el 2 % tiene más de 90 años. En sí, este dato no permite identificar cuáles son estas personas en la realidad. Pero, combinado con un dato que conocen los habitantes locales sobre cuántas personas mayores de 90 años viven en la población y quiénes están enfermas, estos habitantes podrían con alta probabilidad reidentificar las personas concretas detrás de este 2 %. El caso más famoso de una reindentificación de datos supuestamente anónimos es de AOL de 2006 [27] . AOL publicó un conjunto de consultas de 20 millones de búsquedas, en teoría anonimizadas, para la comunidad científica. Pero los periodistas tardaron poco en identificar a Thelma Arnold detrás del número 4417749. En este caso, la combinación de varias búsquedas hizo posible esta reidentificación. Hoy en día, sigue siendo un tema de debate científico si es posible una anonimización 100 % segura o no. Por eso, en la práctica, lo que valoran los reguladores es si se han hecho todos los pasos posibles para llegar a una anonimización segura, no solo el resultado de la anonimización. Para entender mejor el riesgo de pérdida de privacidad, también es importante discernir si estamos hablando del uso de datos personales para la publicidad online o dentro de un contexto de una empresa concreta. En el contexto de una empresa concreta, como por ejemplo una empresa de telecomunicaciones, lo que hacen es usar los datos personales del usuario (servicios contratados, consumo, tarifas, llamadas al centro de atención de clientes) para clasificarle en un segmento y le hacen recomendaciones específicas para este segmento. Compartirán estos datos con sus socios o proveedores solo para poder ofrecerle los servicios contratados o para procesar estos datos con el objetivo de generar un perfil específico del usuario para el uso de la empresa. Si quieren compartir estos datos con otras organizaciones para otros fines, como por ejemplo publicidad, tienen que pedir permiso a la persona en concreto, es decir, pedir el consentimiento según la GDPR. Otra situación se produce cuando el usuario navega por Internet, donde sus datos pueden ir a muchos sitios, sin que este se dé cuenta. Esto funciona a través de cookies , pequeños ficheros que un sitio web crea en tu 75

ordenador para poder reconocerte en futuras visitas. Hay muchos tipos de cookies y, gracias a la GDPR, cada sitio web ahora está obligado a explicarlo. Hay cookies de rendimiento, de geolocalización, de registro, funcionales, analítica, de publicidad, etc. Además, muchos sitios web ingresan dinero por publicidad y, gracias a las cookies , esta publicidad puede ser personalizada. Normalmente, se ingresa más de esta forma. También, gracias a la GDPR, muchos sitios web ahora publican con qué empresas comparten los datos de los usuarios (a través de cookies ) y tienen que dar la opción de poder rechazarlo. Todo esto hace que, cuando alguien llega a un determinado sitio web para conseguir algo (una compra, conseguir una información, etc.), “pierda” mucho tiempo en configurar cómo quiere que la página comparta sus datos. Debido a esto, la mayoría de los usuarios acaban por aceptar la configuración por defecto, que a menudo es compartir todo con todos. Google y Facebook son los reyes de la publicidad online , ya que controlan más del 80-90 % del mercado. Han conseguido convertirse en las plataformas de publicidad online por defecto, usadas por muchas empresas para gestionar sus actividades de publicidad y promoción online . Y lo han hecho para poder ofrecer a sus clientes (empresas y organizaciones) el mayor alcance de usuarios a nivel mundial. Facebook tiene más de 2.000 millones de usuarios en sus plataformas (Facebook, Messenger, WhatsApp, Instagram), y los productos de Google, Chrome y Android, se usan en gran parte del planeta. Para poder usar como usuario final estos productos de Google y Facebook, es necesario aceptar que usen tus datos para publicidad. Se dice que las personas usuarias somos el producto de Google y Facebook, que venden nuestra atención a sus clientes para que prestemos atención a sus productos, servicios y mensajes. Lo cierto es que, legalmente, está todo cubierto porque hemos aceptado sus términos y condiciones descritos en gran cantidad de páginas. Las gigantes tecnológicas (Google, Amazon, Facebook, Apple y Microsoft, las GAFAM ), con varios miles de millones de usuarios de todo el mundo, son las que concentran la mayoría de los datos que se generan. Esto conlleva varios riesgos. Cualquier fuga de datos puede tener un impacto para miles de millones de personas. Otro riesgo es que podrían dominar los servicios de IA en gran parte del mundo. Estas empresas tienen todos los datos necesarios para entrenar los algoritmos de IA, además de haber contratado a los mejores ingenieros y científicos del mundo. Como consecuencia, 76

podrán ofrecer, a través de su nube, los mejores servicios de IA del mundo, lo que genera aún más datos y su concentración en pocos sitios. Así entramos en un bucle del que resultará difícil salir, para bien y para mal.

77

78

79

80

EMPRESAS DE CRISTAL Como hemos visto, muchas empresas coleccionan nuestros datos y cada vez son más capaces de conocer nuestros intereses, incluso mejor que nuestros familiares y amigos. A este respecto, hay dos temores principales relacionados con la privacidad: si vamos a perder nuestra privacidad y si vamos a ser manipulados, ya que las plataformas conocen a la perfección nuestros intereses.

¿Adiós a la privacidad? Es una realidad que las empresas tienen cada vez más datos de nosotros. Aunque algunos los damos de manera explícita, como nuestro nombre, dirección y tarjeta de crédito, la gran mayoría de los datos se generan basándose en el uso de los servicios: por dónde navegamos, qué productos ponemos en nuestro carrito, los mensajes que enviamos, las llamadas que hacemos, los likes que damos, etc. Parece que, para estas empresas, los usuarios somos totalmente transparentes, como si fuéramos de cristal. Pero, para poder usar estos datos, las empresas necesitan tener una razón o, como dice la GDPR, necesitan una base habilitadora. La más conocida es el consentimiento explícito, es decir, antes de que una empresa pueda usar tus datos, tienes que haber dado tu permiso. Por eso tenemos que hacer clic tanto para aceptar las cookies . Estas guardan datos personales y requieren un consentimiento. Hay otras bases habilitadoras que permiten a empresas procesar datos personales sin consentimiento, como la seguridad nacional, una orden de un juez o el interés público, como una epidemia peligrosa. Todos nos podemos imaginar la razón por la que, en estos casos, es importante que las empresas puedan compartir nuestros datos. Pero hay una base habilitadora adicional, que se llama “interés legítimo”. Esto quiere decir que la empresa puede procesar datos personales sin pedir consentimiento si se sobreentiende que es necesario este procesamiento. Por ejemplo, si Netflix te presta sus servicios de recomendación porque has contratado a Netflix, este necesita procesar algunos datos tuyos, ya que, en caso contrario, no sería capaz de cumplir con 81

el contrato. Es cierto que “interés legítimo” es un concepto subjetivo y hay áreas grises donde existen dudas sobre si es necesario un consentimiento explícito o no. Como vemos, es difícil mantener el 100 % de los datos privados, pero sí es posible limitar la pérdida prestando mucha atención al dar el consentimiento y rechazándolo cuando no convenza. El problema es que leer todas las políticas de privacidad puede llevar mucho tiempo; según algunas estimaciones, una media de 76 días anuales [28] , lo cual no todos estamos dispuestos a “perder”. También es importante tener en cuenta que existe una diferencia entre empresas que usan datos personales para mejorar su propio negocio y la interacción con sus clientes, y aquellas que comparten estos datos con otros por temas de publicidad. Ejemplos de los primeros son bancos, empresas de energía, Netflix, Amazon, Apple, empresas de telecomunicaciones, etc. Los datos personales se quedan en estas empresas y no salen. Facebook, Google y muchos brokers [29] de datos son ejemplos de la segunda categoría, estos sí comparten tus datos con muchos terceros para fomentar su modelo de negocio.

82

83

Dada la mayor consciencia de la opinión pública sobre la compartición de datos personales, sobre todo tras escándalos como el de Cambridge Analytica, cada vez hay más rechazo al uso sin límites de los datos personales por parte de empresas. Es por eso que varias empresas están cambiando su posicionamiento a ser más transparentes y, por tanto, más responsables. Hay tanta preocupación en la sociedad que, parece un hecho, esta transparencia aporta más valor que usar los datos personales sin 84

límites. Cada vez hay más herramientas a disposición de los usuarios o clientes para ver qué datos tienen las empresas, para qué los usan y además ofrecen herramientas para su visualización. ¿Empresas transparentes de cristal? Creemos que es una tendencia positiva, pero hay que estar atento al ethics washing , es decir, la estrategia para “simular”, de cara a la opinión pública, que lo estás haciendo, aunque la razón sea quedar bien, y no ser más transparente. De esta manera, respecto al miedo a la pérdida de la privacidad, podemos decir que es cierto (ciencia) que es difícil mantener la privacidad en el entorno actual. Pero es incierto (ficción) que no puedes hacer nada contra lo que ocurre. La sociedad exige a las empresas que sean cada vez más transparentes, más de cristal. Pero, como hemos visto, las personas (los usuarios, clientes) somos también cada vez más transparentes, más de cristal, debido al uso de nuestros datos por parte de las empresas. ¿Hasta qué punto esto debería ser una preocupación?

¿El final de nuestro propio criterio? Las empresas, sobre todo las GAFAM, tienen cada vez más información sobre nosotros por el uso que hacemos de sus productos y servicios: Apple controla IOS; Google controla Android, además de muchas apps como Google Maps, Gmail, Waze, etc.; Facebook controla Instagram, WhatsApp, Facebook y Messenger, herramientas que usamos casi cada día. Con esto son capaces de conocer nuestros intereses, dónde vivimos, dónde trabajamos, cuáles son nuestros intereses, hobbies , amigos, hasta nuestras preferencias políticas. Pero son incluso capaces de averiguar si somos compradores impulsivos, si somos fáciles de influir o si tenemos opiniones fuertes. Toda esta información se usa para hacernos recomendaciones de películas (Netflix), de productos (Amazon), personalizar nuestro muro (Facebook), sugerir con qué texto responder a un correo (Gmail), abrir el GPS con nuestro destino ya puesto (Waze), etc. Por la calidad de todas estas sugerencias, recomendaciones y personalizaciones, cada vez más delegamos estas tareas a las respectivas

85

máquinas. Obviamente podemos siempre decidir si hacemos caso o no, pero, si realmente nos ayuda, solemos hacerlo en muchas ocasiones. También depende de la personalidad de cada uno; hay quienes se dejan “influir” más y otros menos. Ahí está también la mayor preocupación de la explotación de los datos personales: la manipulación de la opinión de las personas en procesos democráticos o en debates importantes de la opinión pública. Antes, todo el mundo veía las mismas noticias en la tele. Todos los canales eran accesibles para todos los usuarios. Podías ver lo que veían los “otros”. Esto fomentaba, hasta cierto punto, la empatía entre todos. Era posible ver qué información llegaba a los distintos grupos de la sociedad y facilitaba el entendimiento entre todos. Pero ahora hay cada vez más personas que leen sus noticias, únicamente a través de “su muro” de las redes sociales como Facebook. El modelo de negocio de Facebook se basa, como hemos visto, en publicidad; los ingresos dependen de los números de clics, likes y comparticiones de los contenidos (contenido viral). Esto incentiva a Facebook para configurar el muro de cada uno de tal forma que estimule la interacción del usuario. La mejor manera de fomentar esto es personalizar al máximo el contenido del muro con las preferencias de las personas. Una de las consecuencias es la llamada “visión de túnel”: si solo vemos y leemos las cosas que nos gustan, cada vez más nos reforzamos en estas preferencias y estamos menos abiertos a otras visiones o puntos de vistas. Además, ya no vemos o leemos lo que ven las personas que tienen otras preferencias y, poco a poco, se reduce nuestra capacidad de empatía con otros puntos de vista, ya que ya no tenemos tanta exposición a otras perspectivas. Esto no solo pasa con las redes sociales, sino con cada medio online que usa la personalización para ofrecernos contenidos de nuestro interés, impulsado por el negocio de la publicidad online . Una de las consecuencias extremas de este fenómeno la vimos en las elecciones de EE. UU. de 2016 y en el referéndum sobre el Brexit. Las dos votaciones fueron ganadas por una diferencia muy pequeña. Muchos investigadores piensan que esta pequeña diferencia, pero esencial, pudo haber sido provocada por el impacto de la publicidad política, que muchas veces consistía en noticias falsas en las redes sociales usando el algoritmo de Facebook para hacerla llegar a aquellas personas que eran más sensibles para apreciarla, reforzando así sus pensamientos.

86

Obviamente, no se aplica a todo el mundo. Hay muchas personas que no usan las redes sociales para informarse de las noticias y no leen la prensa digital. Además, entendemos que la mayoría de las personas son capaces de “escaparse” de esta visión de túnel, sobre todo cuando la consciencia sobre estos efectos peligrosos está en auge. Por tanto, es cierto (ciencia) que tenemos que estar atentos a estas posibles manipulaciones y seguir informándonos de fuentes alternativas y estar abiertos a otras perspectivas, diferentes a la nuestra.

DEL CAOS AL COSMOS EN UN MUNDO DE DATOS ¿Cómo será la privacidad en el futuro? ¿O cómo debería ser? No podemos predecir el futuro, pero sí hemos detectado varias tendencias que pueden darnos una indicación.

Tomar la píldora roja La primera tendencia está relacionada con el conocimiento que tienen las personas y la opinión pública sobre lo que está pasando con sus datos personales en Internet. Podemos distinguir entre tres fases y actualmente estamos en la segunda fase. •

Fase I. La píldora azul: Hasta la mitad de la década 2010-2020, poca

gente era consciente del mercado de los datos y cómo funcionaba el modelo de negocio de Internet. Es como si hubieran elegido la píldora azul de la película Matrix y no quisieran entender por qué existía la “Internet gratis”, cómo era posible ofrecer tanto contenido online y, más tarde, tantas aplicaciones de manera gratuita. Esto fue la primera fase: la inconsciencia. Todavía hay personas en esta fase, pero la mayoría de los usuarios es consciente de que pagan estos servicios con sus datos personales.

• Fase II. El intercambio: Al principio de la década de 2020, la mayoría de los usuarios de Internet saben que pagan los servicios y apps de 87

Internet con sus datos personales. Usan Gmail porque les conviene y además cada vez tiene funcionalidades más avanzadas basadas en la Inteligencia Artificial, como la clasificación automática de todos los correos según la importancia personal para cada usuario. Aceptan que, como contraprestación, Google “venda” los datos a marcas para una publicidad más segmentada y personalizada. El contrato que sella este intercambio es la aceptación de los términos y condiciones de cada servicio. • Fase III. Sí, quiero: Esta es la última fase, aún en el futuro, donde los usuarios queremos que las empresas usen nuestros datos personales para mejorar nuestras vidas, para lo que sea. Si tienen que compartir nuestros datos con terceros, estaremos encantados de que esto pase porque mejorará nuestra vida. Imagina que has salido una noche a un bar con ropa ligera y, a mitad de la noche, cambia el tiempo y llueve mucho. No te has dado cuenta porque estabas dentro, pero, cuando quieres ir a casa, en la puerta está esperando un taxi. O si tienes que coger un avión, pero has salido un poco tarde, y resulta que hay mucho atasco para llegar a tiempo. Cuando llegas al aeropuerto y claramente has perdido el avión, la aerolínea ya ha cambiado el billete y te ha puesto en el primer vuelo siguiente. Hoy por hoy, la técnica ya permitiría estos procesos. Sin embargo, no es posible porque la compartición de los datos de los usuarios entre varias empresas es muy delicada y requiere alianzas complejas entre las empresas involucradas y varios consentimientos. Necesita casi dar “carta blanca” a las empresas para que hagan con tus datos los que les parezca. La base fundamental para dar esta “carta blanca” es la confianza (trust ). Y, en 2020, estamos muy lejos de esta confianza. De hecho, por el fenómeno de las falsas noticias y los escándalos como Cambridge Analytica, la confianza está en mínimos. Ya hay varias iniciativas que han identificado esta confianza como la clave del futuro de la llamada “economía de los datos”. En particular, el MIT, bajo el liderazgo del profesor Sandy Pentland, ha montado una iniciativa alrededor de la confianza para poder sacar el máximo provecho de los datos, para las personas individuales, pero también para la sociedad y el planeta [30] , [31] .

88

Hacia modelos de negocio más responsables Aunque la confianza hacia el uso empresarial está en mínimos, hay otra tendencia que podría invertir esta situación. Desde hace ya bastantes años, cada vez más la opinión pública y los reguladores exigen empresas más responsables. Esto empezó con iniciativas como la de “ser verde”, es decir, contaminar el planeta lo menos posible. Hace años era un tema muy ligado al marketing y a la reputación; solo las empresas líderes eran “verdes” para diferenciarse, de manera positiva. La gran mayoría no lo consideraba. Hoy en día, “ser verde” es una obligación y las empresas que no lo son corren serios riesgos de perder clientes e inversores, hasta el punto de recibir multas de los reguladores. Y, durante los últimos años, aun se ha reforzado más por la urgencia del cambio climático. Otro ejemplo es la cadena de aprovisionamiento justa. La globalización ha motivado la externalización de los procesos de producción, fabricación y servicios a regiones con mano de obra más barata. Hoy en día, ninguna empresa respetable quiere tener, en su cadena de aprovisionamiento, empresas donde trabajan menores de edad o que explotan a sus trabajadores. Pero, al principio de la globalización, era distinto y solo primaba la reducción de costes. Tenemos esperanza de que esta misma tendencia también se aplique, en un futuro, a cómo las empresas tratan los datos: que los saquen de la oscuridad y la opacidad, que sean transparentes con sus clientes y usuarios sobre para qué usan los datos, con quién los comparten y por qué, además de dar el control a los propios usuarios sobre esta compartición de datos. La GDPR ha contribuido a que esto cada vez esté pasando más; por ley, las empresas tienen que dar cierta transparencia sobre los datos. De hecho, Google ya ha creado un dashboard (panel de control) donde cada usuario puede ver y visualizar qué datos tiene de él. Otras empresas están empezando a dar la misma transparencia y control a sus clientes. Está claro que esto requiere una inversión importante en IT y seguridad; también por este motivo la generalización tardará aún en llegar. Pero estamos convencidos de que esta tendencia sigue avanzando y contribuye a poder sacar lo máximo de los datos, sin la necesidad de tener la actual preocupación por el uso opaco de los mismos.

89

La otra cara de la moneda Ya hemos ahondado suficientemente en la pérdida de privacidad y en el (ab)uso opaco de los datos personales por parte de algunas empresas. Pero hay otra cara de la moneda que es importante. El mundo actual se enfrenta con problemas existenciales que están muy bien capturados por los objetivos de desarrollo sostenibles: la pobreza, la salud, el cambio climático, el agua, la igualdad, el futuro del trabajo, la sostenibilidad de las ciudades, la agricultura, etc. [32] . Los datos pueden ayudar mucho a alcanzar o medir estos objetivos. ¿Por qué? Porque son un reflejo de la actividad humana. Nos pueden ayudar a formular mejores políticas para resolver estos problemas y medir su impacto de manera más ágil. Esto se conoce como “evidence-based policy making and monitoring ”. Hay muchos ejemplos del bien que se puede hacer usando estos datos: la predicción de cómo se propagarán pandemias, medir en tiempo real el impacto de desastres naturales, monitorizar la emigración forzada por temas del cambio climático o cambios políticos, hacer mapas de pobreza infantil, entender la deforestación, medir y predecir la calidad del aire en grandes ciudades, etc. El movimiento que está promocionando este tipo de uso de los datos se conoce como “data for good ”, “AI for good ”, “Business-to-government data sharing ”, “big data for social good ”. La Comisión Europea ha creado un Grupo de Expertos para definir la estrategia del “B2G data sharing ” en Europa [33] . La mayoría de estas aplicaciones no necesitan datos personales, sino datos anonimizados y agregados. Por lo tanto, en este caso, no harían falta las aplicaciones de las leyes sobre protección de datos y privacidad. Sin embargo, las preocupaciones en la sociedad persisten también en este ámbito por todas las razones que hemos visto en este capítulo. En este sentido, es lógico cuestionarse si debemos renunciar a las oportunidades que nos brindan los datos para hacer el bien por la preocupación social. Creemos que, teniendo en cuenta los grandes problemas a los que nos enfrentamos como humanidad, no nos podemos permitir renunciar a ellas. Pero tampoco debemos ignorar la preocupación social. Es necesario educar a la opinión pública y a la sociedad de que se trata de datos agregados y anonimizados, que no hay un riesgo importante para la privacidad. Vuelve el tema de confianza. También para datos no

90

personales tenemos que poder confiar en que las empresas hagan un buen uso ellos y, si los comparten con los gobiernos, que estos también hagan un uso responsable y efectivo de los datos para resolver los problemas que importan. No hacerlo sería una irresponsabilidad hacia nosotros mismos. Pero no es un tema fácil, como podemos leer en el informe del grupo de expertos de B2G data sharing , anteriormente citado. Además, los propios gobiernos aún están lejos de tener los perfiles y la cultura adecuada para poder hacerlo una realidad. Además, en esta conformación y educación de la opinión pública, sería de gran ayuda el apoyo de los medios de comunicación para explicar, de manera adecuada e inteligible, no solamente los riesgos, sino también las bondades de los datos para mejorar el mundo.

91

92

93

94

Los datos personales ¿la materia prima de un nuevo negocio responsable? La última innovación para hacer negocio con los datos personales es dar el control total a los usuarios finales, que sean ellos quienes deciden qué pasa con sus datos a través una plataforma segura. Pensemos en un tipo de mercado de datos personales y servicios, pero todo bajo control de los usuarios. Por ejemplo, imagina que a través de esta plataforma segura compartes tus datos de localización con el ayuntamiento (es un opt-in explícito) para que puedan entender mejor cómo los ciudadanos se desplazan por la ciudad, con el fin de optimizar el tráfico, reducir los atascos y bajar la contaminación. A cambio, el ayuntamiento te da un descuento en los impuestos. ¡Sería un claro win-win ! Todos ganarían. Pongamos otro ejemplo: a través de esta plataforma segura, puedes compartir algunos datos con tus intereses con varias marcas y, a cambio, recibes una transferencia en dinero o un descuento importante. Obviamente, para que este negocio funcione, la confianza es, otra vez, clave. Esto aún hay que construirlo. En esta última década, ha habido varias start-up e iniciativas que han explorado esta oportunidad [34] , como i-allow.com, personal.com, privowny.com, reputation.com y digi.me. Muchas de las iniciativas han muerto; seguramente era demasiado temprano para esta idea. Pero algunas siguen vivas y han aparecido otras como Ernie App’s Privacy knowledge manager [35] . Hay varios modelos de negocio alrededor de datos personales [36] , incluido Privacy Enhancement Tools , Personal Data Stores , gestionar la relación con marcas, mercado de datos, etc. En cualquier caso, la GDPR ha dado nuevos derechos a las personas con respecto a sus datos personales, como el derecho a la portabilidad. En la actualidad, cada ciudadano puede pedir a cualquier empresa que comparta sus datos personales con otra empresa o puede pedir borrar datos, rectificarlos, etc. Todo esto generará nuevos productos y servicios alrededor de los datos personales. Por fin, podremos tener una economía basada en datos, pero, esta vez, no opacos, sino transparentes como el cristal. 95

96

97

Que la Fuerza te acompañe.

—Película Star Wars. En los capítulos anteriores, ya hemos mencionado algunas implicaciones conflictivas de la Inteligencia Artificial: las armas letales autónomas, las noticias falsas y la vigilancia masiva. Como hemos explicado, la IA, en sí misma, no es el problema, sino el uso que se hace de ella. Así, si se quisiera, poniéndonos en el peor de los casos, se podrían llegar a emplear las capacidades de estas tecnologías para asuntos muy negativos. En este sentido, se ha especulado mucho sobre la posibilidad de que las máquinas lleguen a tomar decisiones “a vida o muerte” por sí solas, sin ningún tipo de supervisión por parte del humano. Por poder podrían, como veremos, pero la gran pregunta es: ¿debemos guiar a la Inteligencia Artificial hacia ese momento? Esta cuestión se entremezcla con otras, a veces derivadas de los prejuicios que nos genera la ciencia ficción, como: ¿depende de nosotros esta decisión? o ¿es realista pensar que llegará un día en que sean las máquinas las que tomen decisiones “vitales” por nosotros? Analicemos.

ROBOTS ASESINOS No es de extrañar que, cuando pensamos en robots o en Inteligencia Artificial, la asociemos con malas intenciones. Skynet de Terminator , HAL de 2001: una odisea del espacio , The Matrix , Ex Machina , etc., son todas películas donde la máquina quiere dominar a la humanidad y tiene voluntad propia para desearlo y actuar en consecuencia. Buena parte de las cintas de 98

ciencia ficción narran las guerras entre las máquinas (los malos) y las personas (los buenos), o entre las máquinas dirigidas por personas (los malos) y las personas (los buenos). Pero, cuando pensamos en la guerra y la Inteligencia Artificial, ¿qué preocupaciones reales deberíamos tener?

Composición realizada por Juan Silva.

La primera preocupación, ya mencionada anteriormente, concierne al uso de la Inteligencia Artificial en defensa, en general, y en las guerras en 99

particular, específicamente respecto a la utilización de los Sistemas de Armas Letales Autónomas (LAWS, por las siglas en inglés). Este temor se materializa, por ejemplo, en imágenes, aún pertenecientes a la ciencia ficción, de un dron que reconoce automáticamente al enemigo y decide, por su cuenta, que hay que matarle. En la película Eye in the Sky (2015), centrada en la polémica generada por el uso de drones de guerra en conflictos internacionales, los protagonistas deben de tomar difíciles decisiones derivadas de los “daños colaterales” de estas tecnologías. En el caso que nos ocupa, sería el propio dron el que toma la decisión de disparar o no y cuándo hacerlo. Según vimos en el primer capítulo, los algoritmos no son infalibles al 100 % y también cometen errores, aunque su precisión puede llegar a ser mayor que la del ser humano. Además, hay otros factores difíciles de asumir por los sistemas de IA. ¿Cómo valora una máquina los daños colaterales (personas “inocentes” que mueren o edificios que se destruyen)? La IA no tiene sentido común ni moralidad. ¿Pero no sería posible aplicar el paradigma de aprendizaje automático supervisado para enseñarle a la máquina cómo valorar los daños colaterales? La respuesta, en la actualidad, es no. No existen suficientes datos de todas las posibles situaciones para que un algoritmo de aprendizaje automático pudiera aprenderlo con una exactitud suficientemente alta. Además, el número de situaciones posibles casi no tiene límites y siempre podría haber una situación no prevista en los datos. La máquina no sabría qué hacer en caso de llegar a esta. Sin embargo, habría que preguntarse si nosotros, los humanos, tenemos siempre salida correcta a todas las situaciones que se nos presentan. Y también si, en el futuro, la propia máquina será capaz de “intuir” estas situaciones inesperadas, en base a sus cálculos y capacidad para realizar predicciones nunca antes vividas. Las nuevas tecnologías han revolucionado en los últimos años el campo militar y los drones se han revelado como candidatos perfectos para incluir los primeros sistemas de armas letales autónomas, ya que permiten autonomía en varias tareas difíciles: volar, reconocimiento facial, a través de las cámaras integradas, y disparar. Pero también se está trabajando en otras armas autónomas, como el tanque de fabricación rusa, el T-14 Armata [37] , que es capaz de buscar y reconocer objetivos, ser teledirigido y, en el futuro, podrá conducir de manera autónoma. Existe un riesgo real de una nueva 100

carrera armamentista de armas letales autónomas parecida a la carrera de armas nucleares. Por este motivo, se están produciendo discusiones internacionales para prohibir su desarrollo, siempre que no sean dependientes de un humano [38] . En su mayoría, los distintos gobiernos opinan que, si otros países invierten en el desarrollo de estas armas, no se pueden permitir no hacer lo mismo, porque se exponen a un riesgo enorme. La diferencia entre armas nucleares y armas que usan Inteligencia Artificial es que los “ingredientes” de las primeras son difíciles de obtener, mientras que la tecnología de IA está al alcance de mucha gente. Este hecho podría “democratizar” la carrera armamentista con todos los riesgos que conlleva.

Los drones en el campo militar. Fotografía cedida por José Carlos Chacón, director de Aerorobótica.

Inteligencia Artificial, en malas manos 101

El mismo fenómeno de democratización de la IA nos conduce al segundo miedo: su uso mal intencionado. ¿Quién no ha pensado en qué pasaría si los terroristas tuvieran acceso a esta tecnología? ¿O los criminales profesionales? Bastaría con que contrataran a científicos de datos o convertirse ellos mismos en profesionales de este sector, para tener acceso a esta poderosa herramienta. Así, podrían hackear drones, vehículos autónomos o infraestructura crítica y hacer mucho daño, paralizar un país o pedir rescates multimillonarios.

Secuestro de datos De hecho, hoy día, el hackeo para secuestrar datos se ha convertido en una práctica muy lucrativa para aquellos que hacen mal uso de la tecnología. Es el llamado ransomware. Este software malicioso, que a veces incluye Inteligencia Artificial, infecta el equipo informático del usuario y encripta los archivos que contiene. Después, le obliga a realizar el pago de una determinada cantidad para poder recuperarlos. Normalmente, este malware se esconde dentro de otro archivo para que el usuario no desconfíe al abrirlo. Una vez que se introduce en el ordenador, se activa y provoca el bloqueo de todo el sistema operativo, encriptándolo con códigos muy complejos. A continuación, muestra el mensaje de amenaza y el importe necesario para recuperar la información. Ya han sido muchas las grandes, y pequeñas, empresas víctimas del ransomware , que han ocasionado pérdidas importantes, en mayor o menor medida. Pero el daño puede ir mucho más allá del ámbito económico, como lo ocurrido en 2017 cuando uno de estos ataques paralizó 16 hospitales en el Reino Unido [39] , de forma que los profesionales sanitarios no podían acceder a los ordenadores donde guardaban los datos y pruebas de sus pacientes. Otra preocupación importante es la vigilancia masiva por parte de gobiernos no democráticos, incluso por criminales. En los capítulos anteriores, ya mencionamos que el gobierno chino usa reconocimiento facial masivo para asignar a cada ciudadano una puntuación en función de su comportamiento como ciudadano. Esta puede tener un impacto en la admisión a instituciones educativas o para la prestación de servicios

102

sociales. La tecnología de IA está posibilitando el incremento de esta vigilancia extrema, algo considerado contrario a los derechos humanos en el mundo occidental. En cualquier caso, nuevamente, estamos hablando de “mal uso” de la herramienta, no de que la herramienta, en sí misma, sea mala. Existe también la preocupación por los ciberataques inteligentes. Criminales que podrían usar la IA para diseñar software inteligente que afecta al buen funcionamiento de sistemas críticos de empresas, sociedades, gobiernos y ciudadanos. Los ciberataques ya existen desde hace años, pero con IA se pueden volver mucho más peligrosos. De hecho, generan un tipo de carrera entre los “malos” y los “buenos” para diseñar cada vez sistemas más inteligentes para atacar y sistemas más sofisticados que protegen cada vez mejor. Incluso algunos gobiernos, no democráticos, pueden emplear estas tácticas para desestabilizar un país por intereses políticos. Este último punto nos lleva otra vez a las falsas noticias (las fake news ): la generación y distribución de información falsa para influir en procesos democráticos de países y manipular la opinión pública.

Fake news y deep fakes: la guerra táctica de modelar la opinión pública Las llamadas fake news son una realidad en nuestro día a día. Su rápida expansión las posibilita Internet y las redes sociales. Aunque, sin duda, la IA también ha hecho su aportación en este mundo ilícito. Los deep fakes aportan un elemento que hace que se incremente significativamente la verosimilitud de noticias o declaraciones falsas: la imagen. Es normal pensar que un texto digital pueda ser manipulado. Pero cuando, frente a nuestros ojos, se sitúa una evidencia en forma de imagen, esa duda es menos razonable para nuestro cerebro. Los sistemas de IA posibilitan una imitación prácticamente perfecta del aspecto físico de cualquier persona en toda su dimensión, incluyendo gestos, tonalidad al hablar, pausas en la voz... Ya han sido muchos los personajes, normalmente famosos, que se han visto extorsionados por esta técnica. Así, se han publicado deep fakes pornográficos con actrices como Scarlett Johansson, Maisie Williams (Juego de tronos ) o la estrella del pop Taylor Swift, entre muchos otros. 103

Se debe mencionar que esta técnica, el deep fake [40] , tampoco constituye el problema, en sí mismo. De hecho, muchas productoras de cine y televisión ya la están usando para “clonar” virtualmente a actores y actrices que no pueden, o no quieren, hacer una determinada escena. Para ellos es de una gran utilidad. Además, la IA también se está usando, en la actualidad, para combatir, de manera tremendamente efectiva, las noticias falsas. Las localiza con gran rapidez, las marca y las borra. Nuevamente la tecnología no es el problema, sino el uso que se hace de ella. Hay un aspecto más en el que esta tecnología que nos ocupa ha propiciado aumentar la posible confusión. Es el uso del lenguaje natural, el de los humanos, por parte de las máquinas. Un hombre/mujer siempre debería saber cuándo está hablando con un “ser artificial”. Por ética. Sin embargo, se están dando casos de sistemas de IA que imitan incluso las pausas humanas al conversar a través, por ejemplo, de un teléfono. Aún no son capaces de desarrollar conversaciones complejas, pero en un futuro probablemente lo sean. Sin duda, puede suponer un riesgo que debe de ser contemplado y anticipado, para que no se permitan engaños por inconsciencia de las personas. Aunque no hay una solución real y absoluta para todos estos casos, sí que hay una medida que puede ayudar bastante a minimizarlos: la educación y la formación en nuevas tecnologías. Pero no en la técnica, sino en el impacto que pueden llegar a tener y en cómo prevenirlo. Formación a todos los niveles, desde el más joven hasta el más anciano. Más allá de las prohibiciones y las leyes, que también serán necesarias, merece la pena este esfuerzo educativo para ayudar a asumir con eficiencia los cambios tan drásticos que suponen estas tecnologías en la rutina diaria de cualquier persona. Veamos ahora las posibilidades técnicas que tiene la IA para llevar a cabo estas “acciones maliciosas”.

104

105

106

107

108

109

PUEDO, PERO ¿DEBO? Ataques creativos

Si analizamos el tipo de usos mal intencionados que se puede intensificar con la Inteligencia Artificial, podemos distinguir tres tipos [41] : ataques en el ámbito de la seguridad digital (ciberataques a infraestructura crítica); ataques con impacto en la seguridad física ; y ataques a la seguridad política . Hay distintas maneras en que la IA puede incrementar el peligro de los ciberataques, comprometiendo la seguridad digital. Con IA, se puede automatizar ataques que actualmente se hacen de manera manual, como el spear phishing . Se trata de ataques de phishing , 7 a personas selectivas y personalizados a nivel individual con nombre, dirección, etc. Actualmente, esto requiere una labor manual, pero con IA se puede automatizar e incrementar la escala de una manera significativa. También podemos esperar nuevos tipos de ataques que exploten vulnerabilidades humanas (por ejemplo, mediante el uso de síntesis de voz para la suplantación), vulnerabilidades de software existentes (por ejemplo, a través de piratería automática) o vulnerabilidades de sistemas de IA (por ejemplo, a través de ejemplos adversos y envenenamiento de datos). Un ejemplo muy claro de esta última categoría es el relativo al “engaño” a un coche autónomo, manipulando los datos que percibe. Uno de estos casos ocurrió en 2017, cuando investigadores de la compañía de ciberseguridad McAfee consiguieron engañar a un algoritmo de reconocimiento de señales de tráfico, utilizando técnicas de aprendizaje automático llamado GANs [42] . Así, demostraron que podían engañar al sistema de un coche Tesla utilizando una pegatina en las señales de tráfico para que el vehículo acelerara, de manera autónoma a 140 km por hora en una zona limitada a 50. Para conseguirlo, los expertos de McAfee colocaron una pequeña pegatina en una señal de límite de velocidad de 35 millas/hora (más o menos 50 km/h) para hacerle confundir el número 3 con un 8. La cámara del Tesla lo leyó mal y aceleró hasta alcanzar la nueva velocidad. Lo curioso es que, al ojo

110

humano, la señal no parecía haber sido manipulada. El cambio era imperceptible para los humanos, pero no para la máquina [43] . También son viables los ataques a la seguridad física utilizando IA. Pensemos, por ejemplo, en ataques con drones que usan armas autónomas, el hacking de vehículos autónomos para hacer una ofensiva o un ataque con un enjambre de miles de microdrones que son imposibles de controlar manualmente a distancia. Además, esta tecnología también incrementa el riesgo, mediante la explotación de todos los datos disponibles, del reconocimiento automático masivo de emociones, comportamientos, estados de ánimo o incluso convicción política. Todos estos peligros son mucho mayores en estados autoritarios, pero también pueden tener un impacto negativo en estados democráticos por su posible influencia en procesos democráticos o en la opinión pública sobre temas importantes. En resumen, la Inteligencia Artificial permite la expansión de amenazas existentes, la creación de nuevas amenazas y el cambio de naturaleza de las ya existentes haciéndolas más dirigidas, más personalizadas, más masivas y entonces más efectivas. Sin embargo, esta misma herramienta también ofrece grandes ventajas para la protección sobre estas adversidades. Como hemos repetido en varias ocasiones en este libro, el problema no está en la tecnología en sí misma, sino en la forma en la que la usamos. Veámoslo.

Armarse contra los ataques Es un hecho que los sistemas de Inteligencia Artificial, integrados o no en un cuerpo robótico, pueden ser grandes aliados en el campo de batalla y en la lucha contra el cibercrimen. Es capaz de analizar todas las estrategias posibles en situación de conflicto en cuestión de segundos. Puede identificar patrones y detectar, con gran rapidez, vulnerabilidades de los adversarios. No necesita descanso. Ni comer ni beber. No enferma ni tiene sentimientos. Su precisión es perfecta y nada le influye a la hora de conseguir sus objetivos. Esperemos que no haya guerras en nuestro futuro, pero, si las hay, muy probablemente estarán marcadas por el predominio de estas tecnologías de IA y robótica. Gracias a ellas, se esperan ventajas como [44] :

111

• Una mayor protección de las fuerzas propias (salvar vidas de soldados humanos y prevenir lesiones). • Multiplican la fuerza empleada. • Amplían el campo de batalla, facilitando la penetración tras las líneas enemigas y manteniéndose en el campo de operaciones más tiempo que las personas. • Su tiempo de reacción es menor que el de los seres humanos. • Nunca actuarán por pánico o venganza ni por odio racial (siempre que no hayan sido manipulados). •

Capacidad, en el futuro, de emplear una fuerza menos letal, evitando muertes innecesarias; así, el desarrollo tecnológico puede ofrecer, como alternativas, la inmovilización o el desarme del objetivo.

Como hemos visto con anterioridad, hay una característica que se impone sobre las demás, y cuyo control debemos extremar en los próximos años: la capacidad de autonomía de estas máquinas. Es crítico definir bien cuándo la persona debe tener el control final (human in the loop , HITL), cuándo la persona debe supervisar las acciones de la máquina (human on the loop , HOTL) y cuándo la máquina puede decidir por sí misma (human out of the loop , HOOTL) . Debemos pensar que, si llega el momento en que estos “robots militares” tengan completa autonomía en la toma de decisiones sobre, por ejemplo, disparar o no y matar a un ser humano, ¿qué condicionantes tendría en cuenta la máquina, a través de los datos que le llegan desde sus sensores? ¿Su raza? ¿Su posición física en el conflicto? ¿Su aparente edad? ¿Serían sus conclusiones menos o más válidas que las que podríamos tener nosotros, los humanos, en una situación similar? En principio, únicamente basarían su decisión en datos objetivos, pero también podría darse el caso de manipulación. El humano, por su parte, puede tener sus prejuicios, lo cual es también una manipulación de su propio pensamiento. La guerra no es ética por naturaleza. Ni la de las máquinas ni la de los humanos. En cualquier caso, para que todas estas ventajas se puedan llevar a cabo, lo primero que se necesitan son datos. Millones de datos que se puedan procesar y analizar. En el campo de batalla, estos datos pueden ser

112

recogidos mediante diversos sensores [45] que registran información de la posición, el estado físico, emocional y mental, así como las capacidades de un soldado en tiempo real, con el objetivo de hacer frente a diferentes situaciones. Mediante estos sensores se pueden reconocer también las armas y estrategias de los enemigos y así contraatacar o defender de manera más eficiente. Combinando los datos de los distintos sensores, los sistemas de IA pueden aumentar significativamente las capacidades humanas en el campo militar. Tal y como afirma el coronel y analista del ministerio de Defensa, Ángel Gómez de Ágreda, “el campo de batalla se transforma en un juego de mesa en el que todas las piezas están a la vista mostrando el valor que tiene cada una y su capacidad remanente. Para el combatiente individual, los datos que incorpora él mismo al sistema se combinan también con los de multitud de otros sensores para permitirle ver mucho más allá del horizonte físico y del horizonte lógico al que podría tener acceso por sí mismo”.

Robótica e IA en acción Son ya incontables los robots, con diferentes grados de autonomía, que se han desarrollado. Por poner un ejemplo, Samsung Techwin fabricó en 2006 el robotcentinela SGR-A1 para reemplazar a las tropas que vigilan las zonas desmilitarizadas en la frontera entre las dos Coreas [46] . Incluso lo dotó de capacidad para disparar si lo considera necesario, aunque siempre esperando una última orden de un supervisor humano. Empleando cámaras infrarrojas y de luz visible, este robot de guerra es capaz de detectar y seguir objetos móviles y de disparar a un objetivo a más de 3 km de distancia. Esto último, aún, bajo supervisión de un humano. Por otro lado, en el ámbito naval, los barcos militares autónomos son ya una realidad. Sus defensores señalan que reducen el coste de vidas humanas y, además, el gasto de formar a personal cualificado. Los expertos del sector esperan que, en un futuro próximo, los cargueros surquen los mares sin tripulación, al igual que ahora lo hacen los buques no tripulados (USV, Unmanned Surface Vehicle ) en sus tareas de vigilancia. Por su parte, Estados Unidos ya posee USV dotados de misiles y ametralladoras pesadas que se disparan desde centros de mando situados

113

en otros barcos o en tierra. Su tarea es proteger a sus flotas del ataque de otros barcos. Algunos como el Sea Hunter [47] , de la US Navy, desarrollado por la agencia de investigación de la defensa estadounidense DARPA, tienen el potencial de navegar miles de kilómetros en mar abierto durante meses, sin un solo miembro de la tripulación a bordo y a una fracción de los costes actuales (las estimaciones oscilan entre 15.000 y 20.000 dólares por día, en comparación con 700.000 dólares por día para operar un destructor). Tras su lanzamiento oficial, DARPA señaló que el Sea Hunter podría conducir finalmente a una nueva clase de buques oceánicos y erradicar la necesidad de buques de guerra tripulados más grandes, transformando la guerra submarina convencional. Mientras, en Europa, solo por poner un ejemplo, la compañía francesa de sistemas electrónicos y de defensa Thales ha desarrollado en colaboración con la firma británica Autonomous Surface Vehicles (ASV) un USV para emplearlo en la guerra contra las minas. En definitiva, hoy por hoy, sí existen máquinas con capacidad para matar de manera autónoma, pero, en casi todos los casos, hay personas detrás. Las máquinas por sí mismas (aún) no deciden atacar o no. Al inicio de la acción siempre están las personas y, después, según el criterio (HI/O/OO/TL ), actúan las máquinas o un equipo de máquina-hombre.

EL BOTÓN ROJO, ¿EN MANOS DE UNA MÁQUINA? ¿Qué es ciencia, ficción y opinión en la discusión de posibles guerras entre máquinas y personas o sobre el uso mal intencionado de la Inteligencia Artificial? Hoy en día, las máquinas no pueden decidir por sí mismas si quieren ser “malas” o “buenas”, o si quieren hacer mal o bien. Son las personas detrás las que deciden la intención. La Inteligencia Artificial permite una percepción o reconocimiento de patrones muy buena, pero no sabe lo que está reconociendo ni tiene conocimiento de por qué lo está haciendo. Por lo tanto, las siguientes actividades caen en la categoría cción : una guerra entre máquinas, y una guerra entre personas y máquinas. Si estas guerras

114

ocurren, siempre habrá personas detrás que han tomado la decisión y han iniciado las máquinas para estas actividades. Lo que sí es verdad y, por tanto, entra en la categoría de ciencia es que puede haber una guerra entre personas (o países) apoyada por las máquinas. También es verdad que, gracias a la IA, es técnicamente posible que una máquina tome una decisión de vida y muerte, ya que el reconocimiento facial la capacita para identificar a personas concretas y podría estar programada para disparar en caso de estar 95 % seguro de haber identificado a la persona en cuestión. Pero recordemos también que la IA comete errores, llamados falsos positivos y falsos negativos, aunque tengamos una exactitud del 95 %. Un falso positivo sería reconocer una persona como meta para disparar mientras que no lo sea, un error bastante grave, no aceptado actualmente en nuestra sociedad. También es ciencia que hay personas, con malas intenciones, que quieren beneficiarse a cualquier coste. No dudarán en usar la Inteligencia Artificial si les sirve para alcanzar sus objetivos. También es cierto que hay gobiernos, no democráticos, en el mundo que usan estas tecnologías para vigilar, controlar y manipular a sus ciudadanos. Para evitar los usos mal intencionados de la IA, se pueden tomar distintas medidas. De hecho, casi todo el mal uso explicado aquí actualmente está prohibido por ley desde hace tiempo. Está prohibido sabotear una infraestructura crítica, independientemente de la tecnología que se use. Está prohibido la manipulación para influir en procesos democráticos. Está prohibido usar coches como armas en ataques terroristas. Está prohibido invadir la privacidad de las personas, a través de una vigilancia masiva con cámaras, tipo Gran Hermano [48] , entre otras muchas cosas. La cuestión es si la IA necesita una regulación específica para evitar estos malos usos o si está ya cubierto en las leyes actuales. Si, gracias a la Inteligencia Artificial, es imposible verificar si se están cometiendo estos tipos de crímenes, quizá sea necesaria una regulación específica. Aquí también es relevante la discusión sobre HITL, HOTL y HOOTL: ¿qué autonomía permitir a las armas autónomas letales? Pero esto son sobre todo opiniones políticas, más allá de la IA en sí misma.

115

LA GRAN ALIANZA HUMANOS/IA CONTRA LA CIBERGUERRA Como hemos comentado en el apartado anterior, no se espera que en las próximas décadas haya una guerra entre máquinas, o entre humanos y máquinas. Lo que seguramente sí tendrá lugar es, por un lado, el desarrollo de armas autónomas cada vez más sofisticadas; por otro lado, ataques cada vez más sofisticados contra la seguridad digital, la seguridad física y la seguridad política. La manera más lógica de lidiar con el peligro de las armas autónomas letales es mediante acuerdos internacionales entre gobiernos para evitar una carrera armamentística. Ya existen varios movimientos para la no proliferación de estas armas [38] , [5] pero no todos los países están dispuestos a adherirse. Aplica la misma dinámica que con las armas nucleares: si yo no lo desarrollo y otros países sí, me quedaré en una posición débil y peligrosa. Por su parte, en las empresas, son cada vez más los propios empleados los que exigen no participar en contractos con Defensa para el desarrollo de armas autónomas letales. Este fue el caso de Google que se vio obligado a retirarse de un proyecto con el departamento de Defensa estadounidense (Maven ) por protesta de miles de sus empleados [49] . La respuesta al peligro de los ataques con IA por parte de organizaciones criminales, o países con malas intenciones, se puede dar invirtiendo significativamente en nuevas tecnologías de IA para así predecir y anticipar estos ataques. También es muy importante la inversión en formación, porque muchos indicios de los ataques empiezan con engaños a la sociedad, cuando alguien con malas intenciones pretende ser una persona distinta para conseguir información personal como nombre, apellido, nombres de usuarios y contraseñas. Otra posible respuesta al mal uso de la tecnología viene de la mano de intentar prever las posibles utilidades de la tecnología en cuestión, de manera que se puedan prevenir sus malos usos. De esta manera, no se evita el mal uso de la Inteligencia Artificial, pero, al menos, se obliga a los desarrolladores a pensar en posibles otros usos de los que tienen en mente y así permitir la implementación de algunas salvaguardias.

116

En definitiva, la carrera armamentística con el uso de las tecnologías de IA y robótica muy probablemente seguirá a buen ritmo en los próximos años, a pesar de los intentos internacionales por limitar su proliferación incontrolada. Tal y como han explicado algunos célebres filósofos, como Thomas Hobbes, a lo largo de la historia, cada ser humano busca su propia conservación en primer lugar, lo que da origen a la competición y a la desconfianza entre los seres humanos. “En este estado natural no existen distinciones morales objetivas, por lo que dicha competición da lugar a un estado permanente de guerra de todos contra todos, en el que cada cual se guía exclusivamente por la obtención de su propio beneficio y, no existiendo moralidad alguna, no hay más límite para la obtención de nuestros deseos que la oposición que podamos encontrar en los demás [50] .

117

118

119

120

121

122

123

124

7 . Phishing es una técnica usada por delincuentes para suplantar la identidad, con el objetivo de obtener datos confidenciales. El engaño se produce, por ejemplo, cuando la víctima hace clic en un enlace, aparentemente de confianza, y le hace realizar ciertas acciones o revelar información confidencial.

125

126

127

Se ha vuelto terriblemente obvio que nuestra tecnología ha superado a nuestra humanidad.

—Albert Einstein. Los humanos somos seres competitivos. Lo hemos sido desde antes que se pueda recordar. A lo largo de la Historia, hemos luchado por imponernos a los otros en distintas disciplinas. Por ser mejores que los demás. Por destacar frente al resto. Como en muchas otras cosas, la Antigua Grecia es un referente en este campo. Fue en Grecia donde se celebró la primera competición deportiva, los Juegos Olímpicos, en el año 776 a. C. En su mitología, Niké era la diosa de la victoria. Desde 1928, su imagen alada se imprime en el reverso de las medallas. Fue esta palabra la que, en el 490 a. C., gritó el famoso soldado, antes de morir, que corrió los 42 km desde las playas de Maratón hasta Atenas, para anunciar la victoria ateniense en el transcurso de las guerras médicas (492 a. C.-449 a. C.). Llevamos la competitividad en nuestra sangre, algunos más que otros. En cualquier caso, en muchas ocasiones, nos incita a ser mejores, a superarnos a nosotros mismos. Y esto no tiene por qué ser malo siempre que se haga con compañerismo y empatía con el resto de las personas que participan en la competición. Esta actividad, entre humanos, es muy normal y bien aceptada. Pero ¿qué ocurre cuando el que compite con la persona es una máquina? ¿Un ser artificial que pretende superarnos en inteligencia, perspicacia y agilidad mental? Al principio, nos puede despertar curiosidad o generar asombro. Pero, cuando la brecha humano-IA empieza a destacarse en favor de esta última, el temor a que nuestra propia creación acabe por superarnos, incluso como raza, aparece en escena y tiñe de una nebulosa

128

inconfundible las características técnicas de un mero programa informático (algoritmo de IA). Veamos si estos miedos tienen fundamento o si, por el contrario, son infundados.

Diosa Niké. Ilustración realizada por Juan Silva.

129

MÁS INTELIGENTE, MÁS RÁPIDO Y MÁS FUERTE Año 1996. El mejor jugador de ajedrez de todos los tiempos, el ruso Gary Kasparov, decide aceptar el reto de la compañía IBM para jugar contra su superordenador Deep Blue. Nada hacía presagiar la victoria de la máquina. Sin embargo, la expectación generada a nivel mundial era máxima e iba mucho más allá del mero entretenimiento. Estaban en juego algunas de las grandes preguntas filosóficas de los últimos tiempos: ¿podrán las máquinas superar a los humanos como especie? ¿Su “inteligencia” podría compararse a la nuestra? ¿Puede una IA llegar a ser “creativa” en sus jugadas, independientemente de su programador inicial? El primer “enfrentamiento” tuvo lugar en Filadelfia (Pensilvania, USA). Frente a Kasparov se sentó el programador de IBM que iba a introducir en Deep Blue, a través del teclado, las jugadas de su adversario ruso. A su lado, la pantalla donde se vería el movimiento de la máquina. Deep Blue, que empezó jugando con las blancas, venció el primer asalto convirtiéndose en el primer ordenador que derrotaba, al menos una vez, a un campeón mundial de ajedrez. Pero Kasparov venció en las siguientes partidas y, al menos ese año, consiguió mantener la supremacía humana. A pesar de la derrota de la máquina, el debate originado seguía siendo de gran magnitud, a nivel internacional, por lo que se decidió una revancha en 1997, esta vez en Nueva York. El jugador ruso comenzó jugando con las blancas y ganó. Pero después, tal y como explica el experto internacional en ajedrez Leontxo García, Deep Blue hizo un movimiento inesperado con la torre que desconcentró a Kasparov. En principio, no tenía sentido. Carecía de la lógica habitual, ya que le daba a su adversario la posibilidad de hacer jaque al rey. Poco después, Deep Blue se retiró. Sin embargo, algo había ocurrido en aquella partida. El análisis de los movimientos de la máquina y derivadas le hicieron comprender a Kasparov y a sus asesores que, si la máquina hubiera seguido las jugadas lógicas, 20 jugadas después Kasparov habría ganado por jaque mate. Parecía que Deep Blue había adquirido visión estratégica global, en lugar de basar sus jugadas en el corto plazo. Las siguientes partidas quedaron marcadas por este conocimiento y, finalmente, Deep Blue consiguió la victoria en el torneo frente al campeón del mundo. Esto significó, para mucha gente, bastante más que una competición de 130

ajedrez. Era el comienzo del fin de la supremacía de la raza humana. Los pensamientos apocalípticos no dejaron de sucederse desde entonces.

La visión de alguien que estuvo allí Aquel histórico día en el que Deep Blue venció a Kasparov, el experto internacional en ajedrez Leontxo García estaba allí para retratar lo que estaba ocurriendo. Era mucha la expectación social y profesional, las sensaciones del momento eran importantes. Según relata, “a la gente ya le parecía fantástico, en aquellos tiempos, que una máquina le hiciese la declaración de la renta, pero casi todos veían con auténtico pavor que una máquina pudiese jugar al ajedrez mejor que el campeón del mundo. Esto causaba poco menos que pánico. En Nueva York, el ambiente era tremendo —prosigue—. La foto de Kasparov estaba por las paredes de Manhattan como un gran acontecimiento. Había periódicos que titulaban: ‘¿Será este hombre capaz de salvar el género humano?’. Sin duda, Kasparov sentía la responsabilidad de portar el estandarte de la inteligencia humana contra la fuerza brutal de las máquinas”. ¿Y qué ocurría con los profesionales del mundo del ajedrez que seguían el evento? “Pensábamos con la cabeza que algo así iba a ocurrir más temprano que tarde. El hecho de que el mejor jugador del mundo iba a dejar de ser un ser humano. Sin embargo, cuando pensábamos con el corazón, todavía nos resistíamos a ese pensamiento”, señala. Aquel día, en la sala donde tuvo lugar, había una imagen curiosa, que nunca antes se había repetido: en la mesa de juego el operador de Deep Blue tenía la bandera de EE. UU. al lado, y Kasparov jugaba con la bandera rusa. “Todo el mundo en aquella habitación iba a favor del ruso en Nueva York, ante el miedo de certificarse la supremacía de la máquina”, afirma Leontxo García. Algo que este experto en ajedrez guardó en su memoria es la tensión que se vivía en el ambiente y que, sin duda, influyó en el resultado. “Yo suelo decir que es más exacto afirmar que Kasparov perdió, en lugar de decir que la máquina ganó. En ese momento, todavía Kasparov jugaba mejor que Deep Blue. Si nos trasladamos algunos años más tarde, diría lo contrario con otras IA, como AlphaZero. Pero, en 1997, aún le quedaba un punto de madurez”. ¿Qué fue lo que ocurrió entonces? El experto lo relata de la siguiente forma: 131

“En la segunda partida de ese duelo, estábamos todos en la sala de prensa esperando que la máquina se lanzase al ataque porque tenía una posición ventajosa muy apropiada para atacar. De pronto, la máquina hizo una jugada que, hasta entonces, era puramente humana. Nunca antes una máquina había hecho una jugada de ese tipo. La máquina bloqueó el posible contraataque de Kasparov, antes de seguir atacando ella. Esto era tan inaudito que Kasparov se convenció, de pronto, de que había habido un cambio importante y esto le desquició por completo. Le causó una inestabilidad nerviosa que influyó de manera decisiva en las siguientes partidas, muy especialmente en la última, donde cometió un error impropio de un jugador de la talla de Kasparov”.

En la técnica, ¿cómo funcionaba Deep Blue? Perteneciente al gigante informático IBM, este software estaba integrado en un hardware (parte física) formado por 30 procesadores IBM Power2 de 120 MHz, con otros 480 coprocesadores específicamente diseñados para albergar a este sistema. Deep Blue usaba “fuerza bruta” para mirar muchos movimientos hacia delante; muchos más de lo que una persona es capaz de hacer. Además, tenía cierta “inteligencia” para no explorar movimientos que no eran buenos. Por ejemplo, el algoritmo había sido optimizado para maximizar las ganancias y minimizar las pérdidas de cada jugada, algo que se llama la estrategia “minimax” en algoritmos de IA para búsquedas (search en inglés). Además, usaba una táctica (Alpha-beta pruning ) para evaluar el mínimo de movimientos posibles, para dedicar toda su potencia a mirar hacia delante con los mejores movimientos. Deep Blue contaba con una base de datos de 700.000 juegos de maestros de ajedrez para evaluar la calidad de los movimientos y era capaz de analizar 200 millones de movimientos por segundo. Con esto, fue capaz de vencer al campeón del mundo Gary Kasparov. El resto es historia. En la figura siguiente, vemos un juego mucho más simple que el ajedrez que permite entender fácilmente el principio de la estrategia de “minimax”. El programa elige aquellos movimientos que minimizan las posibilidades de su oponente para ganar, mientras maximiza sus posibilidades.

132

Árbol de búsqueda del juego de las 3 en raya. Hay que maximizar los movimientos de X y minimizar los movimientos de 0. Ilustración realizada por Javier Fenández Castañón.

La proeza de AlphaGo Años después de las hazañas de Deep Blue, concretamente el 9 de marzo de 2016, la historia se repite en toda su magnitud, incluso con mayor expectación. El sistema de IA de Google-Deepmind, denominado AlphaGo, se enfrentó contra el 18 veces campeón mundial de Go Lee Sedol [51] . El juego del go está considerado más complejo que el ajedrez, aunque sea aparentemente sencillo de jugar. Haciendo una comparativa, en ajedrez hay unos 20 movimientos posibles por jugada, frente a unos 200 del go. Este último consiste en situar fichas blancas y negras sobre un tablero de 19×19 casillas. El objetivo es intentar dominar el mayor número de espacios. El campeonato, a cinco partidas, se disputó en el hotel Four Seasons de Seúl. Nuevamente, lo que más sorprendió a Lee Sedol fue la capacidad creativa de la máquina. Hacía movimientos nunca antes imaginados por los humanos. Seguía su propia estrategia y consiguió ganar 4 de las 5 partidas.

133

El mundo se conmocionó y las hazañas de AlphaGo llenaron titulares a nivel internacional. El sistema siguió desarrollándose.

Tablero de juego de go. Ilustración realizada por Juan Silva.

AlphaZero contra AlphaGo Los méritos de AlphaGo eran, sin duda, noticiables. Sin embargo, al fin y al cabo, había sido “enseñado” por programadores humanos y por los mejores jugadores del mundo, a través del análisis de sus movimientos. Había sido un aprendizaje supervisado en combinación con otras tecnologías de IA, como search (mediante el cual se realiza una búsqueda inteligente en el espacio de todos los posibles movimientos para encontrar aquellos que llevan a posiciones ganadoras) y reinforcement learning (la máquina aprende en función de sus fallos y aciertos). Simplificando mucho, su estrategia se basa en tres componentes. Primero, tiene un componente de aprendizaje profundo que está entrenado con 30 millones de posiciones del tablero de go. Hay otro componente que evalúa la calidad de las posiciones; y un tercer componente de búsqueda que permitía simular un juego hasta el final del partido en el espacio de todos los posibles movimientos. Simulando muchísimos posibles

134

juegos (solo los mejores porque es imposible simular todos), el programa aprende qué posiciones tienen más posibilidad para ganar el partido. AlphaGo, entonces, era capaz de jugar partidas contra sí mismo para “automejorarse”. El resultado: el asombro del mundo ante una máquina que podía dejar “sin habla” a las mentes más prodigiosas en estas capacidades. Su estilo fue calificado con palabras como “creatividad” o “intuición”. ¿Qué sería lo siguiente? Un año después se desvelaría nuevamente de la mano del equipo de Deep Mind. AlphaZero “nació” como la gran promesa. Sus habilidades sorprendían hasta a sus mismos creadores. Este sistema aprendió a vencer a su hermano menor AlphaGo simplemente conociendo las reglas del juego y jugando contra sí mismo para mejorar, sin necesidad de “ser nutrido” con grandes cantidades de datos, sin supervisión humana y en un tiempo récord. Se compone de tres etapas que se ejecutan en paralelo [52] : 1. Juego contra sí mismo: En el que se crea un set de entrenamiento (conocido como “estados de juego”). A raíz de estas partidas, se va almacenando la información, lo que le permite al programa analizar las probabilidades de búsqueda a través de su MCTS (Árbol de Búsqueda Montecarlo). 8 2. Red de readiestramiento: Esta red utiliza como datos de entrada los “estados de juego” y realiza un bucle de reentreno con los datos de las mejores posiciones extraídas de las últimas 500.000 partidas. Después, realiza una optimización de los pesos de la red, en la que compara las predicciones de la red neuronal con las probabilidades de búsqueda para elegir las jugadas que considera ganadoras. Una vez que ha realizado 1.000 bucles de entrenamiento, la red se autoevalúa para mejorar sus predicciones en función del juego de su oponente. 3. Evaluación de la red: En esta etapa, la máquina hace partidas internas, a tiempo real, con sus redes, teniendo en cuenta las variantes que se estén presentando en el tablero, con el objetivo de predecir cuáles serían las mejores jugadas. Su entrenamiento para ganar a los mejores en ajedrez duró 9 horas. Doce fue las que necesitó para convertirse en campeón de shogi (otro juego de estrategia japonés) y 13 para el go, el más complicado de los tres. Tras 135

treinta horas de juego, venció a AlphaGo. Era imparable, en varias disciplinas de juego, algo inédito hasta esa fecha, teniendo en cuenta que una de las características de la IA débil, momento de desarrollo de esta tecnología en el que ahora nos encontramos, es que puede realizar muy bien una única tarea, no varias. Sin embargo, algo de lo que carecía AlphaZero, muy necesario para poder mover sus aplicaciones a otros ámbitos científicos, era la habilidad para dar explicaciones de sus decisiones. Sus actos son incomprensibles para un humano, equiparable a que una hormiga se preguntara por qué nosotros tapamos su hormiguero. Por mucho que se lo explicáramos, posiblemente su capacidad de razonamiento no lo asumiría. Este es uno de los retos de la investigación en IA en la actualidad, como vimos en el primer capítulo, sin duda imprescindible para seguir avanzando en la idea de colaboración hombre-máquina. En la parte del hardware (física), AlphaZero funciona en una única computadora con cuatro unidades de procesamiento de tensor (TPU, en inglés), circuitos integrados desarrollados específicamente para el aprendizaje de máquinas. En definitiva, son ya algoritmos muy evolucionados. Debemos de tener en cuenta que estamos en los inicios del gran apogeo de la Inteligencia Artificial. En cualquier caso, por muy evolucionadas que lleguen a estar estas “máquinas”, es hora de plantearnos si realmente merece la pena seguir fomentando la competición con ellas o si ha llegado el momento de cambiar de mentalidad.

136

137

138

139

Libratus, el jugador de póker artificial Parece demostrado que los juegos de estrategia son el campo ideal para dar rienda suelta a la imaginación de los científicos de datos y explorar así las grandes posibilidades de estas “máquinas inteligentes”. Así, lejos de quedarse en el ajedrez y sus sucedáneos, el reto ha ido pasando por distintas competiciones lúdicas; entre ellas, el póker no podía quedarse fuera. En enero de 2017 tuvo lugar en el Casino Rivers de Pittsburgh (EE. UU.) el reto “Cerebros vs. Inteligencia Artificial”, una competición que enfrentó al sistema de IA denominado Libratus contra cuatro profesionales en un tablero donde se jugaba al popular póker sin límite de Texas (Texas Hold’em ). El torneo tuvo una duración de 20 días, con sesiones de 11 horas diarias y un total de 120.000 rondas de póker. En cada una de ellas, se comenzaba con 20.000 dólares por jugador en forma de fichas virtuales con las que apostar. Libratus acabó ganando un total de 1,7 millones de dólares de los dos millones que había en juego. Pero no solo de cálculo numérico sabe la máquina...

IBM Debater: El hombre cara a cara contra la máquina Uno de los temas más relevantes en la investigación en Inteligencia Artificial es conseguir que las máquinas comprendan al 100 % el lenguaje natural de los humanos y que sean capaces de comunicarse con nosotros con la misma naturalidad. Es algo que se persigue para fomentar la interactividad y la empatía en los chatbots , por ejemplo, o en los agentes virtuales como Siri, Google Home o Alexa. Así, sorprendió a la comunidad internacional cuando, en junio de 2018, tuvo lugar un peculiar concurso de debate en el que la habilidad en el uso del lenguaje suele ser la principal baza para la victoria. El sistema Project Debater de IBM 9 era uno de los concursantes. Este enfrentamiento fue contra la israelí Noa Ovadia, campeona en esta disciplina. El tema elegido fue “El uso de los fondos

140

públicos para la exploración espacial”. Los concursantes tendrían cada uno 4 minutos para exponer, 4 minutos de réplica y 2 minutos de conclusión. Es fácil decir que hay cosas más importantes en las que gastar dinero; eso no lo discuto. Nadie dice que la exploración espacial sea lo único en lo que debemos gastar el dinero: no viene al caso. Lo que viene al caso es que subvencionar la exploración espacial beneficiaría claramente a la sociedad, así que es algo en lo que el gobierno debería involucrarse.

—Argumento del Project Debater de IBM durante el debate. Cada uno de los participantes preparó el tema con los contenidos proporcionados, separaron lo importante de lo que no lo era y comprobaron la calidad de la información. Luego prepararon un resumen con los puntos más importantes y elaboraron sus argumentos. Gracias a los votos del público, el Project Debater ganó, al considerar que sus respuestas habían sido más informativas. La máquina era capaz de rebatir las ideas de su oponente con eficiencia; otra cosa es que supiera explicar cómo había llegado a esos argumentos que, obviamente, no sabía. A este sistema de IA aún le queda mucho por evolucionar, pero las primeras piedras ya están puestas.

141

Ilustración realizada por Juan Silva.

Cuando el resultado de un sistema de IA, por primera vez, equivale a lo que puede hacer un humano, se habla de la “paridad humana”. A continuación, Chema Alonso, Chief Digital Consumer Of cer de Telefónica, relata algunos hitos de “paridad humana” en el área del lenguaje natural.

142

143

144

145

GPT-2. Retirada por ser buena “Es hora una vez más. Creo que esta nación puede hacer grandes cosas si la gente se hace oír. Los hombres y mujeres de Estados Unidos deben reunir nuestros mejores elementos una vez más, todo nuestro ingenio, y encontrar la manera de convertir una tragedia tan abrumadora en la oportunidad de un bien mayor y el cumplimiento de todos nuestros sueños. En los meses y años venideros, habrá muchas batallas en las que tendremos que ser fuertes y debemos dar toda nuestra energía no para repeler a los invasores, sino para resistir la agresión y ganar libertad e igualdad para toda nuestra gente. El destino de la raza humana pende de un hilo; no podemos permitirnos que se nos escape. Ahora y en los años venideros, el desafío que tenemos ante nosotros es descubrir cómo alcanzar nuestro destino final. Si no lo logramos, estamos condenados”.

—Texto generado por el modelo completo del sistema de Inteligencia Artificial GPT-2. Nuestro intento de entrar a competir con las máquinas en la generación de textos ha dado sus frutos. La mejora, en ciertos casos, es tan exponencial que hasta abruma a sus investigadores. ¿Hasta dónde puede llegar la IA en la generación de noticias falsas? Si sigue esta evolución, ¿cómo distinguiremos, en un futuro, lo que es real de lo que no? Es un gran misterio del que posiblemente nos salve la misma tecnología que está provocando estas preguntas. En este sentido, Open AI, 10 la compañía de investigación en Inteligencia Artificial, con sede en San Francisco, California (EE. UU.), tuvo que retirar a su algoritmo denominado GPT-2 11 por crear noticias falsas extremadamente realistas, simplemente para ver el potencial de esta tecnología en este ámbito [58] . El peligro de publicar el 100 % del modelo era tal, que la decisión parece que fue clara, ante el alto riesgo de confusión generalizada si se hace mal uso de él [59] .

146

Lo que sí se ha hecho es publicarlo “por etapas” (no el 100 % del modelo, sino el 50 %), de manera que los avances generados gracias a esta investigación puedan empezar a ser utilizados en tareas como la autocompletación del código, la ayuda gramatical y el desarrollo de sistemas de preguntas y respuestas para asistencia médica. En cualquier caso, visto el tremendo potencial del modelo completo, ¿estaríamos hablando de competencia real para los humanos? Antes de abordar esta cuestión, veamos cómo funcionan algunos de estos algoritmos de IA que, al menos, han logrado ponernos en jaque.

147

148

149

¿ES NECESARIO COMPETIR CON LAS MÁQUINAS? La competición hombre-Inteligencia Artificial ha marcado nuestros primeros pasos de convivencia con estas tecnologías. El halo que rodea a los sistemas de IA se ha engrandecido con estas victorias y ha fomentado la idea apocalíptica de la singularidad tecnológica: el momento en que las máquinas nos superarán, en todos los aspectos, y serán capaces de mejorarse y crearse a sí mismas. Sin duda, los prejuicios asociados a la literatura y cinematografía de ciencia ficción han contribuido a alentar estos retos. Si no pueden con nosotros, con nuestra inteligencia, con nuestra creatividad, con nuestra capacidad para realizar múltiples tareas lo suficientemente bien, con el poder que nos dan nuestros sentimientos, no habrá Terminator que logre dominarnos como raza. El problema está cuando nuestros temores cobran forma real. Te hablan. Interaccionan. Toman decisiones sobre el crédito que has pedido al banco o sobre si te darán o no un puesto de trabajo. El temor hacia lo desconocido, hacia lo que no somos capaces de comprender bien, es normal y lógico. Pero quizá la clave esté en empezar a normalizar estas tecnologías a través de la formación en todos los ámbitos educativos, incluso empresariales. Además de para medir la capacidad de la IA mediante la “paridad humana”, tal y como se ha visto en el apartado anterior, la gran pregunta que debemos hacernos es: ¿realmente necesitamos que los hombres y mujeres, campeones del mundo en distintas disciplinas, se enfrenten a un sistema de IA para intentar medirse con ellos? ¿Aporta algo a la humanidad? Quizá uno de los elementos que nos ha hecho llegar a hacernos estas preguntas haya sido la capacidad que tiene la IA para ser “autosuficiente”, para tener autonomía en su toma de decisiones. En nuestros inventos precedentes, la dependencia ha sido constante. El buen o mal uso dependía al 100 % del hombre. Pero ahora la duda se cierne sobre nuestras cabezas. El miedo a la incertidumbre de lo que llegarán a hacer las máquinas por sí mismas nos abruma. ¿Necesidad de competición? En realidad, no la hay, más allá de incitarnos a mejorar la tecnología para lograr otras aplicaciones en áreas diferentes, como la sanidad. Además, partimos del hecho de que, en muchos de estos juegos, el hombre no se encuentra en las mismas condiciones que la máquina. La capacidad y rapidez en el cálculo y el diseño de estrategias de 150

esta última, normalmente, sobrepasa a cualquier cerebro humano. A nuestro favor, tenemos nuestra capacidad para improvisar, nuestra creatividad, nuestra visión de los distintos contextos que pueden influenciar una situación, pero poco más. El hecho es que no hay ninguna razón para fomentar la competencia, una vez descartado el puro divertimento y el afán de superación del ser humano. Y sí las hay, y muchas, para empezar a ver en las máquinas una ayuda ya indispensable en ciertos ámbitos.

Inteligencia Aumentada En este sentido, son muchos los expertos que no están de acuerdo con el término “Inteligencia Artificial” cuando se refieren a las tecnologías que nos ocupan, decantándose más por la “Inteligencia Aumentada”. Por regla general, la Inteligencia Artificial no suplanta, no sustituye a los humanos, salvo en ciertas tareas mecánicas, tal y como ocurrió ya en la Revolución Industrial. Simplemente nos asiste y lo hará aún más en un futuro para aumentar nuestras capacidades. Nos mejora. No nos reemplaza. Desde que el hombre es hombre, siempre ha buscado mejorarse, por ejemplo, creando herramientas que le permitieran aumentar su fuerza bruta. En el siglo XVIII, los zapatos de tacón revolucionaron la vestimenta de las mujeres, y de algunos hombres. Nos aumentaba. Nos hacía parecer más esbeltos ante una sociedad con cada vez más modelos de perfección. Las gafas mejoran nuestra vista, los audífonos nuestros oídos... El teléfono móvil, en la actualidad, es una extensión de nuestra propia memoria. En un mundo cada vez más dominado por los datos, no podemos vivir sin “máquinas” que nos ayuden a gestionarlos. Nosotros, como humanos, no tenemos la capacidad intelectual suficiente, por lo que sigue la lógica evolutiva delegar, de manera complementaria, en los algoritmos de IA esta tarea. Esa ayuda nos hace terminar con el interminable papeleo y las tareas de análisis más arduas, pero es una ayuda, al fin y al cabo. La máquina nos da su decisión. Incluso, con el tiempo, la explicación de su decisión. La ahora llamada caja negra o black box se hará transparente y nos ofrecerá el razonamiento que ha seguido para probar su validez, pero, en cuestiones importantes, como una decisión médica o judicial, entre otras, el humano debe ser el que tenga la última palabra, tomando la decisión y el razonamiento de la máquina con la conveniente consideración. Es el camino

151

limitado que deberíamos seguir. ¿Para qué salirnos y andar por el campo a través donde no sabes dónde puedes acabar?

Biomind contra los médicos En 2018, el hospital Beijing Tiantan, en China, puso en marcha una curiosa competición que enfrentaba al sistema de Inteligencia Artificial Biomind, desarrollado por su centro de investigación de IA para los desórdenes neurológicos del hospital, contra 15 de los mejores especialistas en cáncer del país. Visualizando imágenes debían diagnosticar correctamente tumores cerebrales y, ya en el primer enfrentamiento, la IA consiguió acertar un 87 % de las veces, con un tiempo de respuesta de unos pocos minutos, mientras los médicos tardaron media hora y su tasa de acierto fue del 66 %. En el siguiente reto en el que se debía diagnosticar casos de expansión de hematoma cerebral, la IA acertó un 83 % de las veces frente al 63 % de las personas. Con anterioridad, y con bastante repercusión pública, IBM había puesto a trabajar a Watson en casos de cáncer, demostrando una alta eficiencia en el análisis de grandes volúmenes de datos guardados de pacientes. Así, este sistema de IA, además de personalizar tratamientos y predecir, podía, por ejemplo, establecer planes de radioterapia para pacientes con cáncer en cuestión de minutos, algo que a un médico podría llevarle horas o días. Además, la IA puede autorregular sus recomendaciones futuras para mantener las dosis al mínimo. El resultado es que se reduce la toxicidad y los efectos secundarios del tratamiento [60] . Vista la alta eficiencia de los algoritmos de IA en el campo de la medicina, Google también lo ha incluido en sus investigaciones a través de Google Health. 12 Sin embargo, aún queda mucho por hacer. Ser demasiado confiados con las máquinas tampoco es bueno. Los humanos nos podemos equivocar, pero las máquinas también, aunque en muchos casos, sus posibilidades de error sean menores. Esto fue lo que le sucedió a Watson cuando en el Hospital Nacional de Dinamarca se dieron cuenta de que la máquina estaba proponiendo el uso incorrecto de medicamentos, de manera que, en el caso de no haber estado supervisada, podría haber tenido consecuencias fatales para el paciente. Una muestra más de que la IA debe

152

ser usada para complementar al médico, pero nunca se debe dejar “en sus manos” la última decisión.

¿Jueces y abogados robots? El derecho es otra de las áreas en las que “se juega” a la competición con las máquinas. Es un hecho que la IA puede ser tremendamente útil para abogados y jueces a la hora de analizar la jurisprudencia y compararla con la legislación vigente. Los miles y miles de datos, en forma de sentencias, información relativa a casos, etc., que pasan por las manos de estos profesionales cada día podrían resolverse en cuestión de minutos, de manera muy eficiente y precisa. La persecución de la imparcialidad y la justicia son algunas de las premisas que se persiguen en el área del Derecho y, supuestamente, las máquinas tienen prejuicios, conscientes o inconscientes, que pueden condicionar “su juicio”. Tal y como se ha visto en capítulos anteriores, estos sesgos en los datos pueden existir, aunque, con la conveniente vigilancia y certificación que se persigue en la actualidad, posiblemente el riesgo de subjetividad en las resoluciones llegue a ser mucho menor que en las personas. Siguiendo, quizás, esta teoría, han salido a la luz en varios países, de oriente y occidente, los primeros jueces robots. Nada más verlos, se multiplicaron las encuestas y estudios científicos, a nivel mundial, en los que se cuestionan temas como: ¿seguirán existiendo personas jueces en el futuro? ¿Preferirías ser juzgado por una persona o por un robot? A pesar de que en los resultados de buena parte de las encuestas, en ciertos países, la sociedad aboga por encumbrar al llamado “juez-robot” como única y verdadera autoridad (posiblemente alentados por lo exótico de la situación o por los prejuicios que se suelen tener en torno a la imparcialidad de los jueces-persona), lo cierto es que se está imponiendo la cordura y cada vez son más los sistemas de IA que se usan como herramientas de ayuda (colaboración) para jueces y abogados. China y Estonia fueron algunos de los primeros que lanzaron estos “jueces virtuales” con Inteligencia Artificial. En concreto, el gigante asiático anunció públicamente, en 2019, un centro de litigios on line en el que un juez con voz humana, cuerpo y expresiones faciales, resuelve juicios simples, aunque, por ahora, con ayuda de jueces reales. Puede, además, aprender y analizar con 153

extrema rapidez casos anteriores y verificar la jurisprudencia en tiempo real. Además, han desarrollado el llamado “Sistema de cadena de equilibrio”, a través del cual se puede comprobar la trazabilidad y, por tanto, la veracidad de todo el proceso de extracción y conservación de pruebas electrónicas. En cualquier caso, las autoridades que presentaron esta iniciativa también reseñaron que su uso era un complemento para mejorar la eficiencia de los jueces, no una sustitución. Por otra parte, en Estonia, también se han puesto en funcionamiento iniciativas similares, para aquellas demandas inferiores a 7.000 euros. El funcionamiento es similar al de China y el objetivo es mejorar la eficiencia en el sistema judicial y, por tanto, su servicio a la sociedad.

“Protesto, señoría. El humano no se ha remitido a los hechos/datos” Uno de los casos más famosos, entre los abogados-robots, es el de Ross [61] , que tiene como función contextualizar mejor cada caso mediante la revisión de masas de documentos. Pertenece a uno de los más importantes estudios de abogados estadounidenses, Baker Hostetler. Ross se actualiza solo y es capaz de responder preguntas, en lenguaje natural, el de las personas, sobre diferentes temas legales. También va aprendiendo de su “experiencia” con cada caso, por lo que se perfecciona a sí mismo. Su utilidad es un hecho en los despachos de abogados, también por su alta capacidad para procesar datos en un tiempo récord. Cuando alguien pregunta algo a Ross, el sistema es capaz de rastrear 10.000 páginas por segundo y crea útiles asociaciones de documentos difíciles de imaginar para una persona, en cualquier investigación. El resultado incluye citas legales y sugerencias a artículos, además de una tasa de confianza para ayudar a los abogados a preparar sus casos. La IA también puede ayudar en otro proceso, en el ámbito judicial. Ya son varios los sistemas de IA capaces de predecir las decisiones de un jurado, como el creado por un equipo de expertos de la Universidad de Derecho del sur de Texas, que acertó el resultado del 70 % de los casos llevados al Tribunal Supremo de los Estados Unidos entre 1953 y 2013 [62] . Este sistema de IA considera más de 90 variables, teniendo en cuenta la ideología del juez,

154

las partes implicadas en el juicio y los tribunales de menor rango desde los que llegan las causas. Otro ejemplo de uso de IA en esta área son Family Winner y Asset Divider, que combinan la Inteligencia Artificial y la teoría de juegos para ayudar a los mediadores legales en divorcios o a las propias parejas con las negociaciones. Así, resuelven, de manera imparcial, soluciones óptimas para repartir los bienes [63] . Como vemos, la Inteligencia Artificial ya es una ayuda real para jueces y abogados. Una herramienta más de trabajo que les “aumenta” a ellos mismos, en cuanto a su capacidad de trabajo. Ellos aportan contexto y la perspectiva humana que sigue, sin duda, siendo muy importante.

Robots que escriben noticias y textos literarios Saltemos nuevamente de campo hacia otro más creativo en el que el mito de la Inteligencia Artificial y sus prejuicios asociados también han hecho mella: el mundo del periodismo y de los textos literarios. En 2014, la edición online del periódico estadounidense Los Ángeles Times fue la primera en dar la noticia de un terremoto de 4,4 grados en la escala de Richter que hizo temblar la ciudad de Los Ángeles. Su autor fue un algoritmo capaz de generar artículos breves cuando se produce un temblor. Desde este momento, estas tecnologías empezaron a tener un gran auge entre los grandes medios internacionales. Su eficiencia, incluso en las redacciones de las noticias, despiertan preguntas y reflexiones apocalípticas respecto al futuro del periodista humano. La máquina no tiene que descansar. No duerme ni come. Tampoco se pone enferma ni se coge una baja laboral. No pide sueldo, por ahora, y mucho menos un aumento; siempre está alerta para ser el primero en dar la noticia. ¿Qué más se puede pedir? En realidad, mucho. Nuevamente entra en juego aquí la parte importante que aportamos los humanos a esta profesión. Es cierto que las noticias, al fin y al cabo, son hechos/datos irrefutables y esto es lo que debe de contar el periodista. En primer lugar, para que esos datos puedan ser recogidos por el sistema, primero tienen que estar en otra base de datos de la que se nutra el sistema o ser recogidos a través de sus sensores. En segundo lugar, al menos por ahora, no hay sistema de IA, con sensores, en todos los sitios donde se 155

produce una noticia. Y, en tercer lugar, el periodismo es una profesión que conserva su esencia, a pesar de las tecnologías que la van ayudando en su desarrollo. Es decir, sigue siendo importante el acercamiento físico humano a la zona de conflicto en cuestión, por ejemplo, para recoger testimonios de primera mano y contar in situ las sensaciones que transmite el lugar, algo que es difícil que lleguen a realizar las máquinas. Nuevamente, es una ayuda, no una sustitución. La IA ya es una realidad en los distintos departamentos, desde el marketing, a la redacción y al diseño, de muchos medios de comunicación, logrando automatizar ciertas tareas con gran eficiencia. Por ejemplo, el diario estadounidense The New York Times incorpora técnicas de aprendizaje automático o machine learning para buscar patrones en los datos de financiación de sus campañas publicitarias, con el objetivo de optimizar sus resultados [64] . Además, emplean una IA para producir y gestionar contenidos. Asimismo, la Agencia Associated Press utiliza Automated Insights (herramienta IA que permite el uso del lenguaje natural) para generar presentaciones de cualquier tipo: desde informes de ganancias de empresas públicas hasta clasificaciones de las ligas de béisbol. La automatización de estos trabajos ha permitido a la plantilla del medio contar con un 20 % más de tiempo, que está siendo invertido en la elaboración de reportajes más extensos y profundos [65] . Pero el periodismo no es el único reto al que se ha enfrentado la IA en el campo de las letras. Esta intervención, para el ser humano, aún es asumible. Sin embargo, no lo es tanto que un algoritmo pueda escribir poesía o una novela, un derecho reservado, sin duda, a las personas, o al menos por ahora, por tener que cumplir requisitos como la creatividad o la sensibilidad. La máquina no siente, por lo tanto, la máquina no escribe poesía. Es un hecho... O no... A pesar de la aparente evidencia, nuevamente intentamos retar a la máquina. Competir con ella para reafirmar la evidencia, cuya línea de firmeza empieza a diluirse en cuanto comienzan a dar fruto las investigaciones al respecto. Y resultó que los “robots” empezaron a escribir novelas, incluso a quedar finalistas en premios literarios.

Érase una vez un robot que escribía novelas 156

Ilustración realizada por Juan Silva.

“Me retorcí de alegría, que experimenté por primera vez, y seguí escribiendo con entusiasmo. El día que un ordenador escribió una novela. El ordenador, dando prioridad a su propio placer, dejó de trabajar para los humanos”.

—Frase final de la novela El día que un robot escribe una novela, escrita por un algoritmo de IA de la Universidad de Haknodate (Japón). En 2016, un grupo de investigadores de la Universidad de Hakodate, en Japón, crearon una serie de algoritmos pensados para escribir una obra literaria de ficción. Para ello, entrenaron al algoritmo y le introdujeron, además, las características básicas de los personajes. El sistema hizo el resto. La novela, que lleva por título El día que un ordenador escribe una novela , fue completada por sus investigadores y presentada a un famoso concurso literario en este país, el Nikkei Hoshi Shinichi. Quedó finalista [66] . Desde entonces, se han hecho otros intentos, otros retos similares con mayor o menor éxito. Pero nuevamente deberíamos preguntarnos si a

157

nosotros, como humanidad, nos aporta algo que un robot escriba una novela. ¿Esto mejoraría nuestra calidad de vida? ¿Nos ayudaría en algún sentido? Sin embargo, los sistemas de IA tienen otras aplicaciones que sí pueden ser muy útiles en el ámbito editorial, como ayuda, como herramienta, no como sustitución del escritor. Por ejemplo, para predecir el éxito de ventas de un libro. Es el caso de un algoritmo desarrollado en la Stony Brook University de Nueva York (EE. UU.), contando con el apoyo de Google. Este sistema utiliza una técnica denominada “estilometría” estadística, es decir, un análisis matemático de su léxico y su gramática, para predecir la popularidad de un libro [67] . El algoritmo establece los valores en función de los tipos de sintaxis, expresiones, frases, y luego los compara con el resultado de la popularidad real de cada uno de los libros, determinada por el número de descargas. Así, la máquina fue entrenada con más de 800 títulos de Proyecto Gutenberg, 13 que es una de las mayores colecciones de libros electrónicos gratuitos que se puede encontrar en Internet. Además, incluyeron obras de éxito internacional como Don Quijote de la Mancha , de Miguel de Cervantes, Historia de dos ciudades , de Charles Dickens, o El símbolo perdido , de Dan Brown. Se tuvo en cuenta factores como el interés del libro, su novedad, el estilo de escritura, así como lo atractiva que resulta la historia para el lector. El acierto del algoritmo fue de un 84 %. Siguiendo con el estudio de la competencia hombre-máquina, se han realizado algunas encuestas curiosas en el ámbito laboral. Una de ellas se refiere a si a los trabajadores les gustaría sustituir a su jefe por un robot. La respuesta es bastante sugerente.

Quiero que mi jefe sea un robot Según un estudio de IA en el trabajo, publicado por Oracle, los trabajadores confían más en los robots que en sus gerentes. Para llegar a esta conclusión, se encuestaron 8.370 empleados, gerentes y líderes de RR. HH. de 10 países, descubriéndose, además, que la IA ya había cambiado la relación entre las personas y la tecnología en el trabajo y está reformando el papel que los equipos y gerentes de RR. HH. deben desempeñar para atraer, retener y desarrollar el talento.

158

Así, se obtuvieron los siguientes resultados [68] , que se ven en los siguientes gráficos:

Ilustraciones de Javier Fernández Castañón. Fuente: Informe Oracle (2019).

• El 64 % de las personas confiarían más en un robot que en su gerente y la mitad ha recurrido a un robot en lugar de su gerente para pedir consejo. •

Los trabajadores de la India (89 %) y China (88 %) confían más en los robots que en sus jefes, seguidos de Singapur (83 %), Brasil (78 %), Japón (76 %), Emiratos Árabes Unidos (74 %), Australia/Nueva Zelanda (58 %), Estados Unidos (57 %), Reino Unido (54 %) y Francia (56 %).

159



Más hombres (56 %) que mujeres (44 %) han recurrido a la IA por encima de sus directivos.



El 82 % de la gente piensa que los robots pueden hacer las cosas mejor que sus gerentes.



Ante la pregunta “¿qué es lo que los robots pueden hacer mejor que sus gerentes?”, los encuestados dijeron que los robots son mejores para proporcionar información imparcial (36 %), mantener los horarios de trabajo (34 %), resolver problemas (29 %) y gestionar un presupuesto (26 %).



Cuando se les preguntó qué es lo que los gerentes pueden hacer mejor que los robots, los trabajadores dijeron que las tres tareas principales eran comprender sus sentimientos (36 %), entrenarlos (33 %) y crear una cultura de trabajo (29 %).

En cualquier caso, la tendencia parece clara: humanos y máquinas tenemos cada uno nuestras peculiaridades que debemos aprender a complementar. Veamos qué es lo que, aparentemente, nos deparará el futuro en materia de competencia robots-máquinas.

SIMBIOSIS En biología, la palabra “simbiosis” se define como la relación permanente y estrecha entre dos organismos de distintas especies que llevan una vida común. Normalmente, al menos una de ellas obtiene un beneficio de dicha relación. A lo largo de la historia, se ha debatido mucho sobre si, en la naturaleza del hombre, prima más el espíritu de competición, el de tratar de imponernos sobre los demás, o el de cooperación y empatía. La posición de psicólogos como Jordan Peterson, profesor en la Universidad de Toronto y autor del libro 12 reglas para vivir [69] , es que los seres vivos estamos impulsados desde el principio a mejorarnos y a superarnos. Para él, la desigualdad es algo natural y no deberíamos buscar la igualdad, solo, si acaso, la justicia. Sin embargo, otros muchos autores, como Douglas Rushkoff, autor del libro Team Human [70] , comenta la evolución como un deporte en su

160

conjunto. En este sentido, señala que, aunque en biología sí hay muestras de especies competitivas, hay muchas más que muestran cooperación entre ellas mismas y con especies diferentes a través de la simbiosis. Rushkoff profundiza hasta la esencia de los seres vivos, nuestras células, recordando la alianza entre las mitocondrias y sus huéspedes, la endosimbiosis. Al hablar de tecnología, sin embargo, las dudas de este autor son mayores. Para él, los ingenieros de las principales empresas tecnológicas y universidades tienden a ver a los seres humanos como el problema y a la tecnología como la solución; es por esto que se desarrollan interfaces para controlar a las personas y superinteligencias para reemplazarnos. A pesar de esto, en su libro, acaba considerando que los seres humanos pueden y deben intervenir en la máquina, promoviendo la cooperación.

Competición entre Usain Bolt y un fórmula 1 La experiencia en competiciones hombre-máquina también le ha dotado al experto internacional en ajedrez, Leontxo García, de suficientes conocimientos como para forjarse una opinión fundamentada respecto al futuro de estas tecnologías y su relación con la sociedad. Comienza destacando la consideración de que máquinas y personas tenemos cualidades diferentes que nos imposibilitan ser justos en una competición one to one . Se pregunta lo siguiente: ¿a alguien se le ocurriría hoy organizar una carrera de 200 metros lisos entre el gran campeón Usain Bolt (once títulos mundiales y ocho olímpicos como velocista) y un fórmula 1? Entonces, ¿por qué hacemos que, en el ajedrez, sí ocurra esa competición? “No tiene ningún sentido. Hasta que las máquinas alcancen la perfección, lo cual es probable que consigan las cuánticas, al menos algunas, debe haber competiciones de ajedrez para máquinas y para humanos”.

De la competición a la simbiosis Es clave para el futuro buscar la colaboración y no la competición entre el humano y la máquina De hecho, la inmensa mayoría de las aplicaciones de la Inteligencia Artificial que ya existen, y que estamos viendo en este libro, tratan justamente de una colaboración, de mejorar el rendimiento al ejecutar 161

tareas conjuntamente, como el diagnóstico médico, la conducción asistida, la atención al cliente, la operación a distancia, etc. Y, en el futuro, habrá muchas más colaboraciones de distintos tipos para mejorar nuestras vidas, nuestras economías y para salvar nuestro planeta. En el capítulo 2, ya mencionamos cómo el Big Data o la “IA para el bien social” pueden tener un impacto muy positivo en la lucha contra los grandes retos con los que nos enfrentamos, capturados en los Objetivos de Desarrollo Sostenible de las Naciones Unidas. Son muchos los expertos convencidos de que solo los podremos conseguir si los humanos y la IA colaboran codo con codo. Aunque se trata ampliamente en el siguiente capítulo, hagamos una pequeña alusión a un problema que ha marcado el inicio de 2020: la propagación del coronavirus o COVID-19 en todo el mundo. Además de las muchas vidas perdidas por esta crisis, su impacto económico es muy duro. A principios de marzo de 2020, el coronavirus evaporó 1,7 trillones de dólares de la bolsa americana [71] , y 60.000 millones de libras de la bolsa en el Reino Unido [72] . Además, en el sector turístico, las consecuencias también son nefastas en los países involucrados. Todo lo que pueda contener el virus y predecir por dónde se propagará tiene un valor inmenso. Para realizar estas estimaciones y predicciones, los especialistas usan modelos matemáticos. El modelo más conocido es el modelo SIR (Susceptible-Infeccioso-Recuperado) [73] . “Susceptible” representa el número de individuos susceptibles de contraer la enfermedad; “Infecciosos” denota el número de individuos capaces de transmitirla, es decir, son los individuos contagiosos; y “Recuperado” representa el número de individuos que han perdido la posibilidad de ser infectados; ya sea por haber sido inmunizados o por haber fallecido a consecuencia de la enfermedad. R es, entonces, el número de individuos removidos de la población. Pero estos modelos no son perfectos. Los investigadores demostraron, ya hace varios años, que podrían tener un mejor resultado si se usaba patrones de movilidad extraído con tecnologías de IA y Big Data de datos anonimizados y agregados de una red móvil [74] , [75] . Esto es otro de los muchos ejemplos que demuestran que, a través de la colaboración máquina-humano, podemos sacar el máximo provecho de la Inteligencia Artificial y el Big Data . Decimos “podemos” porque, en la práctica, no siempre resulta fácil establecer esta colaboración. Volvemos al ejemplo del coronavirus. Como hemos visto, el conocimiento para predecir mejor la propagación del virus a través del Big Data existe desde hace años. Pero, en la crisis del coronavirus de 2020, se demostró que muy pocos 162

gobiernos están preparados para usar este Big Data. Algunos, como el gobierno de China o Corea del Sur, lo usaron de manera reactiva para entender y contener la propagación [76] , pero muchos otros no supieron reaccionar con la suficiente rapidez, como para aprovechar todo su potencial en el momento adecuado. Como veremos en el siguiente capítulo, la IA puede ser una gran aliada para predecir y mitigar algunos de los grandes problemas con los que se enfrenta la humanidad, como pandemias, hambrunas, desastres naturales o el cambio climático. La decisión de actuar a tiempo las próximas veces está en nuestras manos, ahora mismo, en este momento crucial de la historia de la humanidad. La IA no está aquí para competir contra ella, sino para ayudar. Usémosla. Lo contrario no sería ético.

163

164

165

166

167

168

169

170

HUMANOS, 1 – ROBOTS, 1 La colaboración de la Inteligencia Artificial con los humanos no es una promesa, ya es una realidad en los distintos sectores. Existen múltiples ejemplos en los que estas tecnologías ya están complementando el trabajo de algunas personas, aportando aumento de eficiencia y/o rapidez a los distintos procesos. Y esto es solo el principio. Veamos algunos:

171

172

173

174

175

176

Todas las composiciones de este apartado han sido realizadas por Javier Fernández Castañón y Juncal Alonso Álvarez.

8 . En ciencias de la computación, "Árbol de búsqueda Montecarlo" (en inglés, MCTS) es un algoritmo de búsqueda heurístico para algunos tipos de proceso de toma de decisiones, sobre todo los que trabajan con juegos. 9 . IBM Project Debater: http://www.research.ibm.com/artificial-intelligence/projectdebater/ . 10 . Open AI: https://openai.com/ . 11 . GPT-2: Acrónimo de Generative Pretrained Transformer 2. 12 . Google Health: https://health.google/ . 13 . Proyecto Gutenberg: https://www.gutenberg.org/browse/languages/es .

177

178

179

No necesitamos que la IA nos conozca del todo, eso no sucederá nunca. Solo hace falta que la IA nos conozca mejor de lo que nos conocemos a nosotros mismos, lo cual no es muy difícil, porque la mayoría de las personas no se conocen demasiado bien a sí mismas y con frecuencia cometen grandes errores en las decisiones críticas. Se trate de finanzas, de una carrera profesional o de una relación amorosa, las consecuencias de ceder la decisión a los algoritmos pueden ser terribles. Pero, si son un poco menos terribles que las nuestras, les cederemos la decisión.

—Yuval Noah Harari Inundaciones, sequías, terremotos, crisis humanitarias, pandemias..., acontecimientos que siembran el caos y que, nos guste o no, son una realidad factible, planean sobre la humanidad amenazando su rutinaria existencia. A lo largo de la Historia, han sido muchos los profetas y adivinos que se han aventurado en el difuso mundo de las predicciones. A veces, fueron acusados de brujos y quemados en la hoguera; otras fueron llamados por reyes y grandes hombres para pedir sus consejos. Tanto en la mitología griega, como en la romana, la sibila fue un personaje de gran importancia, ya que era capaz de profetizar con gran acierto. La mayoría de sus oráculos eran inspirados por el dios Apolo. Según algunas tradiciones, sus orígenes vienen de la hija de Neso y del troyano Dárdano, Sibila, quien adquirió gran fama como adivina. Desde entonces, su nombre fue adquirido entre todas las mujeres que se dedicaban a este arte. Otros dicen que fue una de las hijas de Zeus, fruto de su relación con Lamia, descendiente del dios Poseidón, la cual poseía la capacidad de adivinar, de

180

origen divino. Vivía en las grutas o cerca de las corrientes de agua. Sus profecías se expresaban cuando estaba en estado de trance. Era consultada por reyes, guerreros y todo aquel que ansiaba conocer su destino [77] . En Grecia, el llamado Oráculo de Delfos tuvo un gran apogeo en la Antigüedad. Estaba situado en un gran recinto sagrado consagrado al dios Apolo, ubicado en el valle del Pleisto, junto al monte Parnaso, cerca de la actual villa de Delfos, en Fócida (Grecia). Según las leyendas mitológicas, en este monte se reunían las musas, diosas menores del canto y la poesía, junto con las ninfas de las fuentes, llamadas náyades. El oráculo se revelaba a través de la llamada pitia o pitonisa, cuyo nombramiento era vitalicio y debía vivir siempre dentro del santuario. Aquellos que pedían la consulta se entrevistaban con ella unos días antes del oráculo, que se celebraba el día 7 de cada mes. Cualquier persona, fuera rica o pobre, tenía derecho a la consulta. Sin embargo, sí se establecían prioridades para realizarla. Este es solo un ejemplo. Los oráculos han sido una constante en la Antigüedad. Fue muy destacable, también, durante siglos en Europa, el libro Mirabilis Liber , publicado en 1518, como una recopilación de distintas profecías, la mayoría muy catastrofistas. Se dice que el célebre Nostradamus [78] (15031566) se inspiró en él para las suyas. Este último fue un médico francés bien conocido por sus dotes adivinatorias. Publicó su libro Las profecías en 1555. Se trata de una colección de 942 cuartetas poéticas que, según su autor, predicen eventos futuros. Sus publicaciones proféticas tuvieron un gran éxito y fueron muchas las personas de la aristocracia que le consultaron sobre su destino, entre ellas, Catalina de Médici, esposa del rey francés Enrique II. Tras la publicación de su principal obra, fue acusado de hereje y se elevaron las críticas contra él. Sin embargo, incluso hoy día, hay quienes se refieren a estas “predicciones” cuando ocurre alguna catástrofe. Como vemos, el hecho de intentar “ver el futuro” nos ha acompañado a lo largo de nuestra Historia. Es algo normal que quizá, en nuestro inconsciente, nos hace “prepararnos” para un posible suceso o acontecimiento. Y esto parece que lo consideramos favorable para poder enfrentarnos a él. Nos da seguridad. La astrología y los horóscopos aportan a mucha gente que cree ciegamente en ellos, sean o no ciertos finalmente, esa concienciación que da confianza para enfrentarse a la vida. Pero, al fin y al cabo, son eso: convicciones “ciegas”, basadas en supuestas inspiraciones.

181

El hecho no es, pues, si las predicciones son útiles (para la tranquilidad de nuestro inconsciente o utilidad para planificación estratégica, entre otras muchas cosas), sino el porcentaje de acierto que finalmente tienen. Afortunadamente, en la actualidad, podemos ir algo más allá de las “bolas de cristal” gracias al Big Data y a la Inteligencia Artificial. Estas predicciones, basadas en patrones establecidos por la IA, ya han demostrado ser los “oráculos del siglo XXI”. La diferencia es que se basan en datos, no en suposiciones poco fundamentadas. Analicemos cuánto hay de real en esta afirmación.

EL PODER DE LOS DATOS EN LAS PREDICCIONES DE EPIDEMIAS O CATÁSTROFES NATURALES

Composición realizada por Juan Silva.

182

Sin duda, la Inteligencia Artificial y el Big Data son ya herramientas fundamentales para todos aquellos que se dedican al estudio del cambio climático y los desastres naturales que pudieran derivarse de ello. Gracias a esto, es posible adoptar la estrategia adecuada de gestión, en el caso de que se produzcan, y reducir el sufrimiento humano, así como las pérdidas económicas. Además, también puede ayudar a prever estos peligros y, a posteriori , contribuir en los procesos de recuperación y reconstrucción. Veamos algunas de las iniciativas a este respecto.

Inundaciones, incendios y otros desastres naturales

Composición realizada por Juan Silva.

Los seres humanos nos enfrentamos continuamente a amenazas de desastres tanto naturales, como provocados por el hombre. El resultado suele ser muy dañino para las poblaciones afectadas, en todos los aspectos, tanto a nivel humano, como económico. El hecho de que sean, normalmente,

183

impredecibles añade varios puntos de gravedad al impacto que puedan tener. A esto se suma que, en muchas ocasiones, los lugares más afectados tienen limitados sus recursos y, además, son difíciles de prever los movimientos de su población debido a los daños del desastre natural, respecto a los periodos de normalidad. Cuando un suceso crítico ocurre, es importante localizar las zonas afectadas, el número de personas que hay en esos lugares y la evolución de la situación. La IA puede ser de gran utilidad para ello, ya que permite recopilar toda esta información, analizarla, extraer conclusiones y así poder realizar una estrategia afinada basada en datos reales que incluso podría salvar vidas. Veamos de qué manera puede ayudar la IA y los datos en distintas situaciones críticas.

Cambio climático El calentamiento global es una realidad. Se estima que la temperatura global crecerá entre 1,5 y 4 grados en las próximas décadas, motivado en buena parte por las emisiones de gases de efecto invernadero (GEI), derivados de la quema de combustibles fósiles y de la industria. Esto provoca el incremento de desastres naturales, asociados al clima, como huracanes, tsunamis o inundaciones. Otra de las consecuencias directas es el aumento de especies de animales en peligro de extinción. El Big Data y la IA han demostrado ser muy útiles para la elaboración de modelos que permiten analizar y predecir el cambio climático. Con este hecho como base, han surgido varias organizaciones que lo promueven. Una de ellas es Climate Change AI [79] , formada principalmente por investigadores de universidades americanas y también por representantes de grandes empresas como Demis Hassabis, fundador y CEO de DeepMind, o Jennifer Chayes, directora de Microsoft Research. En ella, se debate sobre los grandes retos a los que nos enfrentamos y sobre la manera en la que la IA puede ayudar a mitigarlos. Otra, AI for Good [80] , es una plataforma de las Naciones Unidas (ONU), que fomenta el diálogo en torno al uso beneficioso de la Inteligencia Artificial. Uno de sus principales retos es el fomento de la investigación de la IA como herramienta para los grandes problemas globales, basándose en los Objetivos de Desarrollo Sostenible. Por su parte, Microsoft tiene el proyecto 184

AI for Earth [81] , promovido por su alianza con National Geographic. Se basa en la búsqueda de soluciones con Inteligencia Artificial a problemas que amenazan el medio ambiente, en ámbitos como la agricultura, la biodiversidad o el cambio climático. Google ya emite advertencias sobre desastres naturales a través de su programa de Alerta Pública de Google. Las alertas se presentan en capas en aplicaciones como Google Search, Maps y Google Now. Cubren las alertas de eventos como huracanes y terremotos emitidos por agencias gubernamentales en una docena de países, entre los que se incluyen Estados Unidos, Canadá, Japón y Brasil. Google afirma haber enviado “decenas de miles” de alertas públicas vistas más de 1.500 millones de veces. También ha activado las Alertas SOS, amenaza mayor, más de 200 veces [82] .

Incendios Bee2FireDetection [83] , apoyado en la Inteligencia Artificial de Watson de IBM, puede recopilar miles de datos meteorológicos y ambientales en el terreno, como la humedad relativa, la dirección del viento o la temperatura y, comparándolos con datos de incidentes anteriores, pronosticar de forma muy precisa la probabilidad de que ocurra un incendio. En estos casos, empresas como Geospiza utilizan IA para analizar los datos, alertar de las emergencias y organizar efectivas evacuaciones. Asimismo, puede resultar muy útil para tener localizadas a las personas discapacitadas o con movilidad reducida y así poder mejorar su atención. De esta forma, se evita lo que ocurrió, por ejemplo, en los incendios forestales que tuvieron lugar en octubre de 2017 en California, que alcanzaron a miles de hogares. Los megáfonos que se usaban no eran efectivos para las personas mayores, que no podían moverse, y para aquellas con dificultades auditivas.

Inundaciones Mediante un acuerdo con la Comisión Central de Aguas de la India, Google desarrolló una aplicación que predice inundaciones inminentes en este país y alerta a los usuarios de su aplicación. Además, en base a ello, se desarrollan respuestas más precisas y eficaces en caso de emergencia [84] . Asimismo, la empresa One Concern [85] , con sede en Menlo Park, California, utiliza la

185

IA para pronosticar la profundidad y el flujo de las inundaciones en cada zona específica, con un adelanto de hasta cinco días antes de una posible inundación.

Terremotos La Inteligencia Artificial está siendo muy usada, en la actualidad, por los investigadores de movimientos sísmicos. De esta manera es posible analizar, con bastante exactitud, la magnitud y los patrones de los terremotos, para la realización de predicciones. Así, científicos de Google y Harvard desarrollaron un sistema de IA de deep learning que puede predecir las réplicas de un terremoto [86] . El sistema es capaz de predecir las ubicaciones de las réplicas con mucha mayor precisión que los métodos tradicionales. Esta es solo una muestra. Hay multitud de aplicaciones en la actualidad. En el futuro, se espera que, mediante estas técnicas, se puedan predecir los terremotos con suficiente antelación como para evacuar las zonas a tiempo y evitar las catastróficas consecuencias.

Huracanes Los huracanes son un fenómeno común en algunos países; cada año, tienen un elevado coste económico y, a veces, de vidas humanas. Los servicios de meteorología cada día usan técnicas más avanzadas basadas en el análisis de datos y la IA para intentar predecir huracanes y ciclones, así como para rastrear su trayectoria e intensidad. En 2017, la NASA y Development Seed rastrearon el huracán Harvey utilizando imágenes de satélite y técnicas de aprendizaje automático. Esta metodología resultó ser seis veces más efectiva que las técnicas habituales, ya que permitía un seguimiento mucho mayor y mucho más preciso. Esta es una simple muestra. El uso de herramientas de IA para el rastreo de huracanes es habitual.

Erupciones volcánicas

186

Las erupciones volcánicas ya son predecibles por los sistemas de IA. Así, Watson, de IBM, ya realiza esta acción utilizando sensores sísmicos y datos geológicos para pronosticar la ubicación y la intensidad de las erupciones. Además, los científicos están entrenando a los modelos de Inteligencia Artificial para identificar las pequeñas partículas de ceniza de los volcanes, de manera que se pueda detectar el tipo de volcán.

Pobreza Mediante el uso de datos de uso de teléfonos móviles e información de movilidad a nivel regional, Orange y la Universidad Estatal de Nueva York han creado “mapas de pobreza”, que muestran una amplia gama de perspectivas que pueden ayudar a mejorar las decisiones y la eficiencia, de cara a la erradicación de la pobreza en Senegal. Un enfoque similar se llevó a cabo en un documento de investigación de políticas del Banco Mundial y Telefónica Research [87] . En este caso, se utilizaron datos de teléfonos móviles para crear un mapa estimado de la pobreza en Guatemala. Curiosamente, los autores demostraron no solo el potencial de los datos móviles para estimar la pobreza, sino también para generar modelos predictivos.

Hambrunas Aunque no sea algo imprevisto, combatir las hambrunas es uno de los grandes retos de la humanidad, a nivel mundial. En la actualidad, 124 millones de personas sufren algún nivel de crisis de inseguridad alimentaria y más de la mitad de ellas se encuentran en situaciones afectadas por conflictos. La magnitud de las necesidades ha aumentado considerablemente en los últimos años, poniendo a prueba los límites de un sistema humanitario internacional ya sobrecargado y con financiación insuficiente. En este sentido, la Inteligencia Artificial y los datos también pueden ayudar mucho. Así nació en 2018 la iniciativa FAmine Action Mechanism (FAM), de la mano de Naciones Unidas, su alianza con Google, Amazon y Microsoft, entre otras empresas, y el mundo académico. Su objetivo es mejorar la ayuda alimentaria internacional mediante la prevención, la preparación y la acción temprana contra la hambruna. Este 187

proyecto incluye aumentar la capacidad de los sistemas de alerta existentes para distribuir eficazmente la ayuda antes de que se produzca la hambruna. Estos son solo algunos de los ámbitos en los que puede ayudar la IA, y en los que ya se ha pasado a la acción en mayor o menor medida. Sin embargo, aún queda mucho por hacer. En primer lugar, en materia de investigación, para continuar perfeccionando estas herramientas para alcanzar un mayor nivel de acierto en las predicciones. Y, en segundo lugar, en cuanto a confianza de los gobiernos e institucionales nacionales e internacionales en el poder de los datos y la IA para ayudar al ser humano en el momento histórico, lleno de retos, en el que nos encontramos. Pasemos a la técnica y a la estrategia.

188

189

190

191

192

193

IA CON RESPONSABILIDAD: TIEMPO Y PRECISIÓN AL SERVICIO DEL SER HUMANO Como hemos visto, el uso de la IA y los datos pueden ser de gran ayuda cuando nos enfrentamos a situaciones inesperadas que pueden ser muy perjudiciales para las personas. Estos datos, que son la base de la que se alimenta la IA, pueden ser recogidos a través de diferentes fuentes. En función de lo que se prevea hacer con ellos, conviene más el uso de unas u otras, o una combinación de varios. Algunas de las más usadas son las siguientes: •



Imágenes por satélite: Esta tecnología se usa normalmente para la

evaluación de los daños posteriores al desastre, para proporcionar asistencia y para reducir los riesgos. Imágenes y vídeos tomados por drones y otros vehículos aéreos no tripulados (UAV): Esta técnica ha demostrado ser muy eficiente para el

conocimiento profundo de la situación. Estas imágenes aéreas suelen estar tomadas con buena resolución y su procesamiento es más rápido que las que ofrecen los satélites. •

Redes sociales: Twitter, YouTube, Foursquare y Flickr ya están

contribuyendo, de diferentes formas, en la gestión de desastres. Estos datos geoetiquetados pueden ser recopilados y utilizados para analizar la información relativa al suceso.

• Sensores inalámbricos e “Internet de las Cosas” (Internet of Things): Estas tecnologías transmiten datos, incorporan la fusión de datos de sensores heterogéneos y minimizan el consumo de energía. Se están usando para mejorar los tiempos de respuesta en situaciones críticas y también para facilitar la intercomunicación entre la población afectada por los desastres y los equipos de rescate. •

LiDAR ( Airborne and terrestrial Light Detection and Ranging ):

Detección y alcance de la luz aerotransportada y terrestre. Este método 194

proporciona la capacidad de extraer modelos de gran calidad, proporcionando información fiable sobre las condiciones en el terreno, durante una situación de desastre. El equipo LIDAR es relativamente caro y la recopilación y el procesamiento de datos con ella, a menudo, puede resultar lenta. Sin embargo, los datos obtenidos tienen una gran resolución y son muy precisos. Suele ser muy útil para medir las características geológicas, incluyendo la vigilancia del crecimiento de los volcanes y la predicción de las erupciones. También son una fuente de datos adecuada para la predicción y evaluación de inundaciones. • Datos simulados: Esta simulación numérica permite la realización de predicciones de desastres provocados, por ejemplo, por fenómenos meteorológicos. Con estos, se puede hacer modelado 3D para prever daños potenciales y elaborar estrategias adecuadas. • Crowdsourcing : Existen plataformas de crowdsourcing activas en las que los usuarios pueden contribuir con la información que se requiere. Normalmente, las desarrollan los usuarios afectados u organizaciones no gubernamentales (ONG), con el objetivo de mejorar la respuesta a los desastres y canalizar los recursos en base a los informes, en tiempo real, de sus víctimas. • Datos móviles GPS: El servicio de geolocalización de estos dispositivos también puede ayudar a los servicios de emergencia a ubicar las víctimas para el rescate, diciéndoles exactamente cuáles son las condiciones de acceso al terreno. Más allá de eso, es muy útil para advertir a los ciudadanos de los peligros en zonas específicas, así como para informarles qué rutas tomar, puntos de encuentro, hospitales activos y demás información crítica durante una catástrofe natural. El uso de estas herramientas puede hacerse desde distintos frentes, todos ellos complementarios, si queremos sacarlas el máximo provecho y conseguir nuestros objetivos. Así podemos establecer el siguiente ciclo [88] :

195

Ciclo de gestión de desastres. Ilustración realizada por Javier Fernández Castañón (adaptado de [88] ).

Antes del suceso: 1. Prevención: Las tecnologías actuales posibilitan, en cierta medida, la detección de riesgos a medio-largo plazo y el análisis de los posibles efectos con el objetivo de mitigar los daños que se pudieran producir. En este sentido, las imágenes por satélite suelen ser muy útiles para los expertos porque permiten identificar los riesgos geográficos y de infraestructuras. En muchas ocasiones, han sido usadas para la evaluación de los riesgos de inundaciones, que pueden incluir daños directos en viviendas, carreteras, instalaciones sanitarias y escuelas, entre otros. En el caso de huracanes y terremotos, es importante poder predecir, por ejemplo, el posible colapso de los edificios porque suelen ser los lugares donde más bajas se producen.

196

El 25 de abril de 2015, en Nepal, un devastador terremoto, de 7,8 en la escala Richter, acabó con la vida de más de 9.000 personas [89] y puso de manifiesto la gran utilidad de los datos y la IA. Fue el primero en ser seguido, en tiempo real, por una red de estaciones GPS de seguimiento vía satélite. Los movimientos de tierra fueron registrados a una tasa de cinco mediciones por segundo. De esta manera, los investigadores pudieron analizar los datos registrados por estas estaciones situadas directamente sobre la falla que produjo el seísmo (localizadas entre las placas continentales del Himalaya y de la India) y también las medidas tomadas por los radares que monitorizaron los desplazamientos de tierras en la superficie. Todo esto permitió, entre otras cosas, mejorar la capacidad predictiva de estas tecnologías de cara a una catástrofe futura. Asimismo, también se usaron los registros de las llamadas de los teléfonos móviles, incluyendo los tiempos de las llamadas y los servicios de geolocalización, para estimar la distribución de la población y la situación socioeconómica y así evaluar mejor la situación. De esta forma, se pudo comprender mejor el comportamiento de las comunidades y formular políticas adecuadas para la gestión de desastres naturales. Por otro lado, para los meteorólogos, los modelos de predicción son muy útiles para la detección anticipada de ciclones tropicales, huracanes o fuertes tormentas. Un buen ejemplo de esto es el Sistema Mundial de Navegación por Satélite para Ciclones (CYGNSS) [90] , lanzado en 2016 por la NASA, que permite predecir la trayectoria, la intensidad y la oleada del ciclón tropical a través de mejores observaciones y, en última instancia, mejorar la comprensión de los procesos internos. 2. Preparación: Uso de datos e Inteligencia Artificial para labores de detección, monitorización y predicciones. La vigilancia eficaz es muy útil para mejorar la gestión de los desastres. Una de las principales fuentes del Big Data para la vigilancia y detección de desastres son los datos de teledetección. La teledetección por satélite se lleva tiempo utilizando para la detección en tiempo real de desastres naturales, como incendios e inundaciones. Se capturan imágenes sobre el mismo lugar en varios puntos en el tiempo. De esta forma, se puede monitorizar la manera en que el suceso se está propagando y ayudar a decidir la estrategia para que su impacto sea 197

menor. El principal objetivo, al inicio de la fase de vigilancia, consiste en delimitar la zona afectada y empezar a recoger datos específicos sobre ella. En segundo lugar, es muy importante el Big Data generado por los usuarios a través de los diferentes dispositivos y plataformas, incluyendo las redes sociales. En estos casos, cada usuario es considerado como si fuera un sensor que contribuye con los datos que genera a rellenar los “vacíos” que no han sido capaces de registrar otras fuentes utilizadas [91] . De hecho, ya se ha demostrado la capacidad de Twitter para la detección rápida de terremotos [92] , dado el hecho de que la gente comienza a transmitir mensajes en esta red social en el momento en que empieza a sentir los temblores. Además, se detectó que los picos del terremoto estaban en correlación con el aumento de tuits. Una de las conclusiones de estos estudios fue que las imágenes por satélite eran más adecuadas para monitorizar grandes catástrofes, mientras que las redes sociales, como Twitter, eran una buena herramienta para sucesos de cualquier tamaño, siempre y cuando fuera retransmitido por los usuarios a través de ellas. También es importante tener en cuenta en este punto los datos de los sensores, que suelen ser una de las principales fuentes para el desarrollo de sistemas de alerta temprana. Un ejemplo es la Namibia Flood SensorWeb [93] , basado en los datos integrados de los satélites y los sensores terrestres, que se usa para el conocimiento de la situación de las inundaciones y la alerta temprana. En el sistema se integran diferentes tipos de datos, entre ellos, las precipitaciones, la extensión de las inundaciones y el caudal del río estimado por el satélite. Así es capaz de realizar un servicio de planificación de sensores (consulta los sensores y adquiere los datos que necesita), de notificar a través de la web, de proporcionar acceso a los datos en bruto de los sensores y de procesar esos datos en la web.

Tras el suceso: 1. Respuesta: Uso de datos e IA para establecer una reacción rápida y eficaz al suceso, mediante la evaluación de los daños y la coordinación ante la respuesta. La fuente de datos más conocida, en la actualidad, para la evaluación de los daños son las imágenes de teledetección. Estos datos a gran 198

escala, aunque sean de baja resolución, son muy buenos para una rápida evaluación inicial de la zona de impacto, si no se tiene posibilidad de acceder físicamente a ella. De esta forma, también se delimitan los lugares más afectados a los que se querrá acceder posteriormente para obtener imágenes de mayor resolución. Por ejemplo, para evaluar daños en edificios y carreteras con precisión, son muy útiles los datos tridimensionales (3D), como se pudo ver tras el terremoto de Wenchuan (China) ocurrido el 12 de mayo de 2008, que acabó con la vida de 90.000 personas. Utilizando y procesando las imágenes del satélite de Observación de la Tierra FORMOSAT-2 y el SPOT-5 se pudieron identificar las zonas más afectadas, así como la estructura de deformación de las áreas terrestres, los cambios en la dirección de los ríos y la creación de nuevos lagos, entre otras cosas [94] . En estos casos, las imágenes y los vídeos de los drones y otros vehículos aéreos pueden analizar las áreas acotadas del desastre en alta resolución, como techos derrumbados o fachadas inclinadas. Y, a partir de aquí, se pueden generar las útiles imágenes en 3D. También han resultado ser de gran ayuda para la recolección de datos, las plataformas de crowdsourcing , en las que se pueden encontrar imágenes y descripciones de los lugares del desastre, subidas por los residentes. También se usaron datos para la detección de daños, una vez ocurrido el desastre, en 2013, tras el tifón Haiyan que arrasó Filipinas. En este caso, los voluntarios del equipo humanitario de OpenStreetMap [95] analizaron los daños a distancia, a través de las imágenes satélite. Y, después del huracán Sandy que golpeó duramente la costa este de Estados Unidos en 2012, se usaron también los datos de Twitter para evaluar los daños y analizar qué lugares necesitaban más ayudas y más recursos [96] . Estos son solo dos ejemplos de la multitud que hay en la actualidad y que demuestran su gran utilidad en la mejora de eficiencia y el tiempo de respuesta. 2. Recuperación: Uso de datos e IA para la ayuda a la reconstrucción y una restauración rápida y eficiente de las infraestructuras y servicios previos. Una vez pasado el desastre, suelen ser importantes las respuestas rápidas y eficientes, principalmente aquellas relativas a las operaciones de búsqueda y rescate. En ocasiones, se produce un fallo en las 199

comunicaciones, lo cual es un problema grave, que puede tener que añadir medidas de improvisación (por lo tanto, menos fiables) como parte de la estrategia de rescate. El análisis del Big Data y el uso de sistemas de IA, en estos casos, es muy útil porque, gracias a esto, se pueden optimizar los recursos limitados. En este tipo de situaciones también puede aumentar la eficacia el uso de vehículos autónomos que ayuden a minimizar los riesgos de los equipos de rescate, cuando se trata de evaluar infraestructuras o entregar suministros [97] . Los datos GPS de los móviles también son de gran utilidad a la hora de rastrear a los desaparecidos. Una vez que pasan los momentos iniciales posteriores a un suceso, se comienza una fase de recuperación, en la que se trata de volver a la normalidad. La principal fuente de datos en este “proceso de vigilancia” son las imágenes de los satélites y las áreas, de corta distancia. De esta manera se van detectando los cambios. También son muy útiles los datos de los usuarios que emanan de las redes sociales, a través de los cuales se aprecia muy bien la tendencia del proceso de recuperación. Como hemos visto, ya se están usando muchos tipos de datos para la gestión de desastres, que ayudan a la humanidad a evitar, prepararse para, gestionar y recuperarse de ellos. Más allá de desastres y catástrofes naturales, los datos y la IA han demostrado ser elementos clave para monitorizar y alcanzar los 17 objetivos de desarrollo sostenible (ODS) de las Naciones Unidas [98] : fin de la pobreza, hambre cero, salud y bienestar, educación de calidad, igualdad de género, agua limpia y saneamiento, energía asequible y no contaminante, etc. [99] .

200

201

Para medir el avance de los 17 objetivos, han establecido 169 metas con 241 indicadores. El problema es que actualmente no es posible medir todos estos indicadores necesarios. Para más de la mitad de los indicadores no existen datos o no existe una metodología estadística para medirlos. Y aquí el Big Data también puede venir al rescate.

202

Ejemplos del uso de datos de empresas privadas para el bien social. Ilustración realizada por Javier Fernández Castañón.

Como se ha comentado anteriormente, los datos generados por satélites y sensores son muy relevantes. También lo son aquellos que provienen de las redes sociales como Twitter, Google, Facebook. Pero existen muchos más datos en empresas privadas que aún están por explorar y que también podrían ayudar a resolver los grandes problemas. Hoy en día, todas las grandes empresas están operadas por sistemas de IT y cada sistema genera, como parte de su actividad, un registro digital, es decir, un dato. Una transacción financiera queda registrada en una base de datos de un banco, el consumo energético se registra, una compra en Amazon deja un rastro y una llamada telefónica deja una huella. Hace ya varios años que investigadores de todo el mundo demostraron el valor de estos datos de empresas privados para los ODS, siempre anonimizados y agregados para garantizar la privacidad de sus clientes. Es decir, en ningún caso se trata de datos personales. Por ejemplo, las transacciones financieras pueden estimar el impacto económico de un desastre natural, datos de una operadora de telecomunicaciones pueden estimar el porcentaje de analfabetismo, simplemente viendo la proporción de llamadas frente a los SMS de un país o región. Los datos de una aseguradora permiten estimar los daños económicos de la gota fría. Podríamos seguir con muchos más

203

ejemplos. De hecho, el GovLab [100] de la Universidad de Nueva York mantiene un inventario abierto de data collaboratives (colaboraciones con datos) con casi 100 iniciativas donde se usan datos de empresas privados para el bien social [101] . La empresa de telecomunicaciones Telefónica creó en 2016 un departamento específico para el uso de los datos para el bien social [102] . Desde entonces, ha participado en numerosas iniciativas donde los datos generados en la red móvil (anonimizados y agregados) aportan un valor diferencial para la resolución de problemas de la sociedad, como desastres naturales (terremotos, inundaciones, deslizamientos de tierra, la gota fría), migraciones forzadas, pobreza infantil, calidad del aire y pandemias. ¡Parece verdad que los datos vienen al rescate! Pero, si analizamos en detalle todas estas iniciativas, sin quitar mérito a esta importante labor, vemos que la gran mayoría de ellas se encuentran aún en fase de investigación o son proyectos piloto. Es decir, muchas iniciativas demuestran o confirman el valor de los datos, pero no se están usando en el mundo real para resolver los problemas de verdad o salvar vidas reales. ¿Cuál podría ser la razón? Parece indiscutible que algo que ha demostrado funcionar para resolver problemas graves, debería ponerse en marcha. Justo para analizar esta situación, la Comisión Europea organizó un Grupo de Expertos (Business to Government Data Sharing) en 2018 para investigar cuáles eran los problemas que impedían que estas iniciativas pudieran funcionar de verdad, además de proponer medidas para intentar solucionarlo [103] . Todos los expertos están de acuerdo en que hay que incrementar y mejorar el uso de los datos de las empresas privadas por el interés común. Destacan tres áreas de medidas para acelerar el uso: •

Medidas de gobernanza que aplican a toda Europa y que incluyen estructuras nacionales de coordinación y concienciación sobre los datos, la creación de un perfil nuevo llamada data steward (administrador de datos) y explorar una posible regulación.



Medidas de transparencia, implicación de ciudadanos y ética que incluyen transparencia sobre las actividades que se están haciendo, incentivos para que los ciudadanos compartan sus datos por el interés público y aspectos éticos incluyendo privacidad, sesgos y explicabilidad.

• Modelos operacionales, infraestructura y herramientas que incluyen la creación de incentivos para que las empresas compartan datos y la 204

asignación de fondos europeos para la creación de herramientas e infraestructura.

205

206

Privacidad y confianza Como hemos visto, los datos 14 y la IA pueden ser de gran ayuda en casos de catástrofes naturales o crisis humanitarias en general. Sin embargo, esta indudable utilidad no deja de levantar miedos y desconfianzas respecto a lo que ocurrirá en tiempos de bonanza, si ahora cedemos parte de esa privacidad y se desarrollan tecnologías de vigilancia y control “por nuestro bien”. Algunos opinan que no parará y que se perpetuará en el tiempo esa vigilancia constante del ciudadano, pero esta vez con fines poco éticos y que conllevan una invasión real de nuestra privacidad. En esta visión, China es el referente. Allí esas intromisiones son constantes, pero no solo ahora con el desarrollo de estas tecnologías. La monitorización de la población es parte del mantenimiento de su propio régimen autoritario, sea con o sin tecnología. La normativa al respecto y la regulación, en estos tipos de países, lo permiten y lo fomentan. La falta de libertades, argumentado como el bien común, es un hecho que nadie esconde. Hace unos años nadie se planteaba que lo que ocurre allí pudiera ocurrir aquí. Y cabe preguntarse: ¿por qué

207

ahora sí? La “aldea global” que ha posibilitado Internet y las nuevas tecnologías han traído muchas ventajas relativas a la comunicación y compartición de datos personales desde prácticamente cualquier lugar del mundo. Pero también la sensación de que tal acercamiento puede provocar el “filtrado” de las tendencias intrínsecas de algunas naciones autoritarias en el flujo natural de aquellas que abogan por la defensa de las libertades individuales y el reconocimiento de los derechos humanos. Debemos de tener en cuenta que, afortunadamente, existe un lecho regulatorio que nos protege y que, en nuestra cultura, no se permitiría bajo ningún concepto que algo así llegara a ocurrir. El lema es: no porque ocurra en un lugar del mundo, en el que siempre ha habido menos libertades, significa que nos vaya a pasar a nosotros, en las naciones democráticas, donde sí las hay, haya la tecnología que haya. Es cierto que el aparente riesgo parece acrecentarse cuando cada vez hay más sensores instalados, en cada vez más lugares que posibilitan la recopilación y el manejo de datos personales. Esta técnica es usada en la actualidad, sobre todo para temas de seguridad, como los circuitos cerrados de televisión (CCTV, por sus siglas en inglés). Bajo consentimiento expreso también se usa para la personalización de productos y servicios por parte de muchas empresas o para mejorar los diagnósticos y tratamientos médicos. Por poder, podría usarse para decidir lo que le cobrarían al usuario en su póliza de seguro del coche, en función del riesgo que asuma cada día. Todo siempre bajo su consentimiento expreso, aunque no siempre está claro que el usuario sea consciente del permiso que está dando. Por otro lado, para el uso de datos personales para la elaboración y compartición de informes o estrategias por parte de organismos públicos/o privados, es obligatorio aplicar un proceso de “anonimización”, mediante el cual estos datos dejan de ser personales. El mejor ejemplo “tradicional” de esta práctica son las oficinas de estadísticas que, a partir de datos de personas y empresas concretas, elaboran informes donde no hay ningún dato individual. En los dos últimos casos (tanto para las empresas/organismos públicos, como los privados), hay varias cuestiones principales que deben de quedar muy claras, a nivel legislativo y de normativa, si se quiere fomentar el uso de los datos y la IA tanto en épocas de bonanza, como en aquellas de crisis:

208



El usuario debe de dar el consentimiento expreso para el uso de los datos personales. Debe de tener la capacidad para retirarlos cuando así lo desee.



Ese consentimiento debe de incluir las acciones concretas que se harán con esos datos y explicitar que no serán cedidos a terceros para un uso diferente del establecido.



En casos de “extrema necesidad” (medida definida bajo legislación o normativa específica), siempre bajo control de la autoridad pertinente, se podrán desarrollar medidas excepcionales con el uso de los datos particulares para el bien común, que nunca excederán los límites temporales preestablecidos.

En la actualidad, las empresas que manejan datos personales de usuarios, en el caso de que los tengan que ceder para el “bien social”, tienen ciertas preocupaciones que se pueden resumir en los siguientes puntos: •

Antes de que los datos salgan de la empresa, estos deben de ser anonimizados y agregados, de tal manera que la reidentificación sea imposible. Las leyes de protección de datos no se aplican a los datos no personales, por lo que compartirlos es posible. Sin embargo, desde un punto de vista puramente técnico, la anonimización al 100 % es discutible, aunque, en la práctica, es poco probable volver a identificar a los individuos.



La Regla General de Protección de Datos (GDPR), que entró en vigor en mayo de 2018, supone para los países europeos cambios importantes en las leyes de protección de datos y de privacidad. Un cambio está relacionado con el consentimiento de las empresas, que deben pedir el consentimiento explícito e informado antes de poder utilizar los datos personales. Otro está relacionado con lo que se considera datos anónimos. En la GDPR, hay una distinción entre los datos personales, datos pseudónimos y anonimizados. Algunos de los datos que se consideran anónimos antes de la GDPR, como los datos pseudonimizados, se considerarán datos personales en el nuevo marco. Esto aumenta la primera preocupación, ya que el riesgo percibido de invasión de privacidad aumenta.

209



La seguridad es siempre un tema importante para las empresas. Cuando los datos se almacenan dentro de las instalaciones de una compañía en concreto, los procedimientos de seguridad internos pueden aplicarse, según sea necesario. Sin embargo, cuando los datos salen de las instalaciones de la empresa, se pierde el control, incluso si son anonimizados y agregados.

• La última preocupación es la reputación. Una compañía que trabaja en el área de Big Data para el bienestar social y contribuye al bien común, en principio, gana una mejor reputación. Sin embargo, si algo les pasa a los datos de la empresa una vez que estos han salido de sus instalaciones, podría haber realmente un riesgo para la reputación de la misma. En cualquier caso, hay otra medida fundamental que se debe de tener en cuenta en estos tiempos en los que estamos viviendo, con bastante asiduidad, cambios drásticos que afectan tanto a nuestra vida personal, como a la laboral. La educación en las implicaciones reales de estas tecnologías se revela como fundamental para que hagamos buen uso de ellas y conozcamos sus verdaderas ventajas y riesgos. Cuánto hay de real en esa “pérdida de privacidad”, entre otras muchas cosas. Esta formación, en todos los niveles de edad, debe de ser continua y ajustable en función de la propia evolución de la tecnología. Es un cambio del concepto formativo, un cambio necesario y cada vez más urgente, si queremos subirnos con éxito al tren de la (r)evolución.

210

211

212

213

Sin duda, la pandemia global del coronavirus es uno los grandes retos que ha puesto a prueba la eficiencia del uso de la IA y los datos para mitigar la grave situación. Es difícil prevenir sucesos de estas características y, sobre todo, afrontar las consecuencias y desarrollar estrategias eficientes en un tiempo récord. ¿Está la técnica suficientemente preparada para sobrellevar sucesos como este? ¿Y los gobiernos? Aquí, sobre el tablero real de juego, se vio de lo que es capaz la unión del humano y la máquina en la actualidad, rodeada de un contexto social y político real, en casos de extrema urgencia.

Composición realizada por Juan Silva.

APLICACIONES REALES EN EL CASO DEL CORONAVIRUS Durante la crisis de COVID-19 en 2020, la Inteligencia Artificial y el Big Data jugaron un papel protagonista en la lucha contra el virus. Es curioso que las noticias al respecto se propagaran también como un virus. Primero 214

muy pocas en China y Asia; y después a Europa y EE. UU. con un crecimiento exponencial. Una de las primeras noticias, publicada el 22 de enero de 2020 en el Wall Street Journal [104] , informaba de que el gobierno chino había sido capaz de reconstruir el camino de una persona infectada usando el aparato estatal de vigilancia masiva en todo momento. Poco después, avisó a sus ciudadanos que debían hacerse la prueba del coronavirus, si habían estado en contacto con alguna de las personas con las que se habían cruzado, que habían resultado estar contagiadas. Este gobierno tiene acceso a datos de operadoras de telecomunicaciones, trenes y aerolíneas, para hacer el seguimiento de cada persona. En Corea del Sur, el gobierno tiene una plataforma de Big Data estatal que integra datos de hospitales, servicios financieros y operadores de telecomunicaciones, y la ha usado, con algoritmos de Inteligencia Artificial, para avisar a la población. Si, en un hospital, detectan un caso positivo, la plataforma envía a todas las personas que han estado cerca de la persona infectada información sobre dónde ha estado esta persona en las últimas dos semanas utilizando mapas. Al mismo tiempo, el gobierno hace un tracking de las personas con las cuales el infectado ha tenido contacto [105] . Corea del Sur también fue el primer país con un drive-through testing para el coronavirus. La persona conduce a un lugar específico y ahí le hacen una prueba sin que tenga que salir del coche. El resultado únicamente tarda unos minutos y, si está infectada, queda directamente en cuarentena.

215

Esquema de rastreo de contactos para evitar la propagación del virus COVID-19. Adaptado y traducido de gihub.com, por Javier Fernández Castañón.

Una empresa canadiense de Inteligencia Artificial, Bluedot, detectó ya el 31 de diciembre de 2019 un número importante de neumonías raras alrededor de un mercado en Wuhan y alertó a las autoridades. Fue nueve días antes de que la Organización Mundial de Salud (OMS) anunciara el nuevo virus. Bluedot se basa en Big Data ; recupera datos de centenares de miles de fuentes de información oficial de salud, medios digitales, viajes en aviones, informes de salud de ganado y demografías de países. Basándose 216

en todos estos datos, genera informes cada 15 minutos, 24 horas al día. Luego, son expertos de datos y médicos los que valoran el resultado. Asimismo, usando los datos de los vuelos, fue capaz de predecir por dónde se iba a propagar el virus. Aquí es donde se aprecia realmente una colaboración entre la máquina y las personas [106] . Por otro lado, la start-up de Inteligencia Artificial de Valencia, Quibim, desarrolló una red neuronal con aprendizaje automático profundo supervisado para aconsejar si un contagiado necesita ser hospitalizado o no. A partir de un TAC es capaz de dar, en 20 segundos, un índice de similitud con un TAC de un infectado. Un TAC o tomografía computarizada es una prueba radiológica que se utiliza para diagnosticar problemas graves en el pulmón. Aunque solo ha sido entrenado con 200 TAC, dado que aún no se habían hecho muchas de estas pruebas en todo el mundo, tiene ya una precisión del 80 %, y se sigue entrenando con nuevos datos [107] . Otra solución para luchar contra el coronavirus son las apps , que permiten, a posibles infectados, hacer un autodiagnóstico y, según el resultado, gestionar la trayectoria después. La Comunidad de Madrid ofreció una aplicación de autodiagnosis [108] . El objetivo inicial era evitar el colapso de los hospitales para hacer pruebas y descongestionar el teléfono dedicado a coronavirus. En caso de ser necesario hacer una prueba, la app gestiona una cita previa. Además, hace un seguimiento cada 12 horas para monitorizar si la situación empeora. La app de Madrid fue inspirada por una app en Corea del Sur, que, además del autodiagnóstico, permite hacer seguimiento del paciente a través del GPS del teléfono para que, por ejemplo, los infectados no abandonen el espacio de aislamiento asignado.

El caso de China En China han ido un paso más lejos con su aplicación del coronavirus y lo han convertido en un pasaporte de salud. Es decir, según dónde has estado (en áreas de alto, medio o bajo riesgo), a cada ciudadano se le asigna un código QR con color verde, amarillo o rojo. Rojo quiere decir que la persona tiene que estar dos semanas en cuarentena; amarillo, una semana; y verde, nada. Si alguien quiere entrar en un lugar, tiene que escanear un código y, solo si es verde, puede entrar [109] . Ha habido casos donde el color de una persona cambiaba de repente de verde a rojo y no estaba claro el porqué de 217

este cambio. Esto tiene que ver con la “explicabilidad” de los algoritmos, como vimos en el primer capítulo. Si el algoritmo es una caja negra como aquí, en estos casos donde hay un impacto muy grande en la vida de las personas, no genera confianza entre sus usuarios. Por otro lado, en esta situación extrema también se puede entender que premia la rapidez de poner el sistema en operación por encima de la explicabilidad y la transparencia.

Y en el mundo occidental... En Europa y EE. UU. el uso de estas soluciones invasivas ha tardado más. Es lógico porque, como vimos en el segundo capítulo, la privacidad del individuo se considera más importante en la cultural occidental que en la cultura oriental. Solo a partir de la segunda mitad de marzo de 2020, los gobiernos occidentales empezaron a ver si era necesario sacrificar la privacidad por la salud. El Consejo Europeo de Protección de Datos (EDPB, por sus siglas en inglés) publicó el 16 de marzo una declaración sobre el uso de datos personales en la lucha contra el coronavirus [110] , donde declaran que “las reglas de protección de datos no deberían ser un obstáculo para las medidas tomadas en la lucha contra la pandemia de coronavirus”. Desde entonces, varios gobiernos de Europa empezaron a hablar con las operadoras de telecomunicaciones de su país para usar su Big Data en la lucha contra el virus [111] , [112] . En estos casos, no se trata de datos personales, sino datos anonimizados y agregados, respetando en todo momento la privacidad. Este Big Data sirve para cuatro casos de uso principales: • Entender la movilidad de la población en general. •

Detectar movimientos masivos de la población después de anunciar restricciones. Estos movimientos pueden causar colapsos de hospitales en ciertas áreas.



Monitorizar cómo la población está siguiendo las restricciones de movilidad.



Mejorar la predicción de la propagación del virus, aumentando los modelos epidemiológicos con patrones de movilidad dinámicos.

218

A nivel europeo, la Comisión Europea empezó a mediados de marzo de 2020 a montar una iniciativa paneuropea con el objetivo de usar Big Data para los mismos casos de usos generados a partir de Big Data de las empresas europeas de telecomunicaciones.

IA para el desarrollo de la vacuna La Inteligencia Artificial y el Big Data también se usan en el sector farmacéutico para acelerar el desarrollo de la vacuna del coronavirus, mediante la búsqueda de los componentes médicos que podrían frenar la infección de células sanas con el virus [113] . Para esto, se requieren cálculos muy grandes con supercomputadoras. En resumen, hemos visto que la Inteligencia Artificial y el Big Data pueden ayudar en la lucha contra una pandemia de las siguientes maneras: •

Ralentizar la propagación al principio de la pandemia mediante apps para poder hacer pruebas rápidas y mapear a quienes han estado en contacto con el contagiado. Requiere datos personales.



Entender y gestionar restricciones de movilidad a la población para evitar la propagación del virus. No requiere datos personales. Se hace con datos anonimizados y agregados.



Predecir por dónde se propagará el virus combinando Big Data de patrones de movilidad con modelos epidemiológicos. No requiere datos personales. Se hace con datos anonimizados y agregados.



Sistemas de aprendizaje profundo para mejorar el diagnóstico en calidad y rapidez. No requiere datos personales.

• Simulaciones con componentes químicos para encontrar aquellos que podrían frenar la infección de células del huésped. No requiere datos personales. La crisis de COVID-19 ha intensificado la discusión entre la privacidad y el uso de los datos personales para el bien común. Por la diferencia cultural, como hemos visto, los países asiáticos, de momento, parecen que han controlado la crisis antes usando tecnología muy intrusiva para la privacidad. Cuál de esta aproximación es mejor es una cuestión ética, no tecnológica. 219

Lo más importante es, respetando la ética local, que se usen todas las tecnologías posibles para frenar la propagación del coronavirus. Y esto, desafortunadamente, no ha sido el caso en esta crisis. Aún tenemos que mejorar, en este sentido, como veremos en el siguiente capítulo.

220

221

222

223

224

225

226

227

¿APRENDEREMOS... A TIEMPO? Hasta ahora hemos visto cómo los datos y la IA juegan (y pueden jugar aún más en un futuro) un papel importante para la resolución de problemas importantes de la humanidad. También hemos visto que ya se está haciendo con algunos tipos de datos como imágenes satélites y sensores. Pero ha quedado también claro que la aplicación “real” de datos de empresas privadas para la mejora de la toma de decisiones en la gestión de desastres casi no ocurre. Y, una vez más, la gestión de la crisis del COVID-19 lo ha constatado.

Podemos hacerlo mejor con Big Data por el bien social. ¡Y DEBEMOS! En tiempos de crisis, muchas compañías actúan más allá de sus objetivos empresariales inmediatos y prestan su ayuda, de manera desinteresada, a las sociedades afectadas. Esto es una gran acción de solidaridad sobre un hecho consumado. Sin embargo, si la tecnología lo permite, ¿no deberíamos empezar a actuar en tiempos de “no crisis” para estar preparados y poder actuar rápido y eficientemente cuando ocurra la siguiente crisis? La apuesta por los datos por fin ha empezado, pero tarde, al menos para la crisis de COVID-19. Como hemos visto, existe un Grupo de Expertos de la Comisión Europea (CE) [114] sobre el intercambio de datos entre empresas y gobiernos, en aras del interés público. Este grupo, al igual que la CE, reconoce el gran valor que puede tener, para el interés público, el uso de los datos de empresas privadas, por ejemplo, en la elaboración de políticas basadas en hechos y en la monitorización de su efectividad. Este grupo también está de acuerdo en que ese valor social está, en gran medida, desaprovechado y, por lo tanto, las sociedades están perdiendo oportunidades de resolver grandes problemas más rápido y mejor [103] . Pensemos, por ejemplo, en el problema de movilidad de las grandes ciudades. También en el impacto económico de los desastres naturales y el 228

cambio climático, la ayuda a las víctimas de migraciones forzadas y las pandemias como la de COVID-19. Como se ha podido apreciar, a lo largo de este capítulo, muchas investigaciones científicas han demostrado que el Big Data que generan las empresas privadas como resultado de sus procesos pueden contribuir a resolver, o al menos mitigar, algunos de estos grandes problemas de la humanidad, tal y como está expresado en los Objetivos de Desarrollo Sostenible de las Naciones Unidas [98] . Y más allá del papel, ya ha habido proyectos pilotos, con situaciones reales y con resultados positivos, pero... con datos del pasado.

Datos personales y datos anonimizados Sin embargo, la apuesta por el uso de los datos privados, para el bien social, continúa rodeada de polémica, principalmente centrada en asuntos relativos a la privacidad. A este respecto, resulta cada vez más necesaria la labor de educación a la población y la divulgación correcta de información por parte de los medios de comunicación, con el objetivo de clarificar la diferencia entre el uso de datos personales (que sí pueden presentar un riesgo a la privacidad) y aquellos que han sido anonimizados y agregados (y, por tanto, no suponen un riesgo real en este aspecto). Es un hecho que una gran parte del valor social puede crearse a partir de datos anonimizados y agregados, sin riesgo para la privacidad individual. Sin embargo, en ocasiones, se producen noticias divulgativas que obvian esta importante diferencia y magnifican el problema de la privacidad, sin que haya motivo para ello, aludiendo a la ética de los datos. A este respecto, volviendo al caso que ocurrió en 2020, la pregunta más adecuada sería si es ético NO usar esos datos de empresas privadas para ayudar a manejar la crisis de COVID-19. Sabemos, desde hace más de 5 años, que los patrones de movilidad, generados a partir de datos agregados y anonimizados, procedentes de las grandes empresas de telecomunicaciones, mejoran los modelos tradicionales (por ejemplo, SIR: susceptible, infeccioso, recuperado) para la propagación de enfermedades. Esto se ha demostrado, por ejemplo, en el caso del ébola en África [115] , zika en Brasil [116] y la gripe porcina en México [117] , por nombrar solo algunos. En esos proyectos piloto, después 229

de las crisis, se reunieron datos privados de los operadores y se cotejaron, teniendo en cuenta el lugar y el tiempo, con los casos de enfermedades notificadas. Así, se demostró que la propagación del virus contagioso sigue pautas de movilidad, y que estas podrían ser una aportación adicional a los modelos tradicionales de propagación de enfermedades. Como hemos visto, esto permite mejorar las predicciones. Hay ya varios grupos interdisciplinares formados con el objetivo de transferir esos pilotos a sistemas operacionales, como el taskforce de la GSMA, AI for Impact [118] , la red de data stewards de TheGovLab [100] y la iniciativa BIDA para el cambio climático [119] . A pesar del esfuerzo de estos grupos, hasta ahora, no ha habido éxito. Es importante mostrar que el Big Data procedente de los móviles tiene un tremendo potencial de contribuir a la gestión de las pandemias y a la mitigación del cambio climático, entre otras muchas crisis, pero la realidad es que, en la práctica, su utilización es casi anecdótica. Y eso lleva a otro gran problema.

La práctica real requiere inversión real Muchas empresas donan cierta cantidad de datos para estudiar problemas humanitarios o ambientales concretos, a través de un proyecto de investigación o piloto. Una vez que el proyecto está terminado y tiene resultados positivos, el siguiente paso lógico que da es ponerlo en funcionamiento de manera que pueda salvar vidas o el planeta. Pero este siguiente paso no ocurre tanto como debería. Convertir los proyectos piloto en proyectos reales requiere un equipo, infraestructura, operaciones y un presupuesto. Y el gran problema es que, hasta ahora, nadie ha estado dispuesto a proporcionar el presupuesto (por supuesto, hay excepciones positivas, como las fundaciones de multimillonarios filantrópicos). Veamos por qué: •

Las empresas no están en el negocio de la filantropía. Están dispuestas e interesadas en participar gratuitamente en proyectos piloto o de investigación porque demuestra responsabilidad, pero no lo están a la hora de donar los recursos necesarios para el despliegue y funcionamiento del sistema con usuarios de verdad. En este caso, 230

habría que plantearse un modelo sostenible para que estos sistemas puedan desplegarse y mantenerse operativos y esto requiere un presupuesto. ¿No están las compañías farmacéuticas cobrando por las vacunas? •

Las organizaciones humanitarias están normalmente interesadas en grandes empresas por sus donaciones económicas. Actualmente, no están interesadas en financiar el despliegue y mantenimiento de proyectos de “datos para el bien social” que, de hecho, les podría ahorrar mucho presupuesto en sus operaciones. Esperan que alguien se ocupe de este presupuesto y, a falta de ello, esto proyectos no se ponen en marcha.



Los gobiernos muestran poco interés en adquirir tales sistemas y a menudo carecen de la madurez digital necesaria para asumirlos.

El resultado de la falta de presupuesto para estos proyectos lo hemos visto claramente con la crisis de COVID-19. Ningún gobierno democrático en el mundo (con excepción quizás de Corea del Sur [120] ) tenía un sistema en operación al principio de la crisis del coronavirus, que contara con los datos (anonimizados y agregados) de movilidad necesarios para predecir la propagación del virus. Muchos gobiernos tuvieron que darse prisa para obtener los datos, usando apps o exigiéndolos a las operadoras de telecomunicaciones. Pero peor fueron los otros gobiernos que ni pidieron estos datos, por diversas razones (falta de conocimiento, falta de coordinación) o tardaron semanas en pedirlos. De hecho, muchas empresas en todo el mundo ofrecieron proactivamente acceso a estos datos de movilidad a los gobiernos. Pero, aun así, tardaron demasiado. La consecuencia fue que las autoridades competentes tuvieron que tomar muchas decisiones, al principio de la crisis, sin tener el acceso a una mejor información, que les permitiera una mayor eficiencia en su estrategia. También la Comisión Europea solicitó tarde, con el virus ya plenamente extendido en toda Europa, acceso a datos de las empresas de telecomunicaciones para gestionar mejor la crisis, a nivel europeo. Pero un sistema complejo que conlleva temas de privacidad delicados, formatos de datos heterogéneos, latencia en el procesamiento, visualización e interpretación, no se monta en cuatro días. Esta fue la práctica común, con

231

trabajo continuo día y noche de muchas personas, ofreciendo todos sus conocimientos para ayudar en la crisis. Es difícil entender por qué es tan difícil establecer alianzas sostenibles entre el sector público y el privado, que utilicen datos públicos y de propiedad privada, para resolver grandes problemas sociales y ambientales. Los gobiernos de todo el mundo planean gastar miles de millones en la mitigación del cambio climático. Pero ¿qué parte se destinará a los grandes proyectos públicos-privados de datos que intentan ayudar a la gestión o prevención de estos problemas? La crisis de COVID-19 le está costando al mundo mucho más, alterando economías enteras, que unos pocos millones que necesitan estos proyectos para ser sostenibles. Con la tecnología actual, ya se podría haber establecido un sistema mundial para mejorar la predicción de la propagación de enfermedades y monitorizar la movilidad, y tal vez habríamos salvado (o no) muchas o algunas vidas y evitado muchas pérdidas económicas. Podría haber fracasado, por supuesto, pero ni siquiera lo hemos intentado. Y eso, al final, es una decisión poco ética. Esperemos que la crisis sin precedentes de COVID-19, el informe del Grupo de Expertos B2G [103] y la Estrategia Europea de Datos [121] marquen la diferencia de cara a posibles situaciones similares en el futuro. Y que podamos ver noticias sobre pandemias, parecida a la que se expone a continuación, donde se aprecia cómo, diez años después del gran tsunami de 2004, está operativo un mejor sistema que ayuda a minimizar el impacto de estos fenómenos naturales. Diez años después del tsunami de 2004, el océano Índico está mejor preparado para evitar el desastre.

—Noticia de la Unesco [45] Es nuestro deber convertir los proyectos piloto en proyectos reales sostenibles para el bien social. ¡Todos los ingredientes necesarios están! Sin duda, no es ético no usar los datos para el bien social.

232

233

234

235

14 . En esta reflexión nos referimos a datos personales. Datos anonimizados y agregados también ayudan a mejor gestionar problemas importantes, pero son menos conflictivos por no invadir la privacidad.

236

237

238

Nunca envíes a un humano a realizar el trabajo de una máquina.

—The Matrix (Wachowski, 1999) Mucho se ha escrito y se está discutiendo sobre el impacto de la Inteligencia Artificial y los robots en el trabajo: la mayoría son escenas de distopía donde esta tecnología deja muy poco trabajo para las personas, con todas las consecuencias negativas que esto conlleva. Hay muchas opiniones distintas sobre esta temática y también teorías varias sobre cómo abordar este reto. En este capítulo, analizamos el impacto de la Inteligencia Artificial en el futuro del trabajo y sus implicaciones.

EL APOCALIPSIS DEL MUNDO LABORAL Según Jack Ma, presidente de la empresa Alibaba, en el futuro solo trabajaremos 12 horas por semana [122] . Muchos estudios distintos afirman que un porcentaje importante de los empleos están en riesgo de ser automatizados: los porcentajes varían entre un 10 y 50 %, según los estudios. La discusión sobre el impacto de una revolución tecnológica y la automatización no es nueva. Ocurrió con la invención del coche, de las cadenas de producción en las fábricas y con el ordenador, entre otros. En la historia de la humanidad, la tecnología siempre ha servido para ayudarnos con los trabajos manuales. Para hacerlos más rápidos, tener más fuerza o ser más precisos y consistentes. Pero ahora estamos en una nueva era en la que no solo podemos automatizar las tareas que requieren esfuerzo físico, 239

sino también las tareas mentales que requieren esfuerzo mental o inteligencia. Como ya vimos en capítulos anteriores, la Inteligencia Artificial ya es capaz de diagnosticar enfermedades igual de bien o mejor que los mejores médicos. Y ser un experto en radiodiagnóstico requiere muchos años de experiencia. ¿Se van a quedar sin trabajo estos expertos médicos? Cada vez hay más asistentes digitales que permiten hacer gestiones online . Ya es posible tener una conversación por voz o chatbot y resolver problemas concretos de clientes o usuarios individuales. Aún no son capaces de entender y ejecutar cualquier gestión, pero sí una parte importante. Anteriormente, en muchas ocasiones aún se hace, todas estas peticiones eran atendidas por teléfono, por agentes en centros de atención al cliente. Pero ya es posible contestar y resolver una parte de las llamadas con máquinas, sobre todo las consultas más frecuentes y repetitivas. En este caso, hay lados positivos: el trabajo más simple y repetitivo ahora lo hace una máquina; se pueden atender muchas más consultas en el mismo tiempo y, mientras, las personas se pueden centrar en llamadas más complejas, de contenido más variado. Pero también hay un lado negativo: se necesitan menos personas, por lo que se reducen los puestos de trabajo. En este sentido, la tecnología más potente que hemos visto hasta la fecha es el asistente de Google Duplex, que es capaz de reservar un restaurante o hacer una cita con la peluquería a través de la voz. Lo hace de tal forma que parece una persona de verdad. Aparte del reconocido éxito tecnológico de Google con este asistente, también ha generado dudas éticas, ya que Google no avisó a las personas con quienes habló Duplex que estaban hablando con una máquina [123] . Aunque la tecnología de Google Duplex aún no se está comercializando, ya existen muchos asistentes digitales más simples que están automatizando una parte de la interacción con los clientes, como es el caso de AURA de Telefónica [124] . Pero no solo son los centros de atención al cliente los que se están automatizando. Otra tecnología popular que automatiza la actividad humana es RPA (automatización robótica de procesos, por sus siglas en inglés, Robotic Process Automation ). Hoy en día, aún hay muchos trabajos manuales que requieren leer información desde una pantalla y meter la misma información en otro programa. Por ejemplo, leer en un formulario que aparece en pantalla los valores de atributos como edad, nombre, tipo de contrato, etc., y teclear o copiar los mismos valores en otra aplicación. Es un trabajo 240

totalmente definido, repetitivo y simple, y fácil de automatizar con RPA. La RPA pura no usa Inteligencia Artificial, pero cada vez se usa más IA para hacer RPA inteligentes. Por ejemplo, en vez de coger los valores (nombre, edad, tipo de contrato) de un formulario predefinido, se podrían extraer automáticamente de un correo electrónico, “leyendo” el texto con tecnología de procesamiento de lenguaje natural (NLP, Natural Language Processing , por sus siglas en inglés) y extrayendo automáticamente estos valores del texto. Estas dos tecnologías (asistentes digitales y RPA) pueden tener un profundo impacto en la globalización del trabajo, hasta invertir la tendencia del offshoring : desplazar trabajo de un país con costes altos a un país con costes más bajos que tienen perfiles adecuados. Hay muchos centros de atención al cliente operados desde la India o Colombia. La motivación por el offshoring es la reducción de costes. Los asistentes digitales y RPA permiten invertir este proceso, devolviendo el trabajo al país de origen, el llamado inshoring . Pero la mayoría del trabajo devuelto al país no genera puestos de trabajo para personas, sino que se ejecuta con tecnología. Volvemos al coche autónomo. Si finalmente estos coches se usan masivamente, ¿qué pasaría con todos los conductores profesionales? Los taxistas, los conductores de Uber, los conductores de camiones, autobuses, etc. A fecha de 2020, aún quedan muchos temas por resolver antes de que los coches autónomos puedan circular libremente (temas técnicos, jurídicos, de regulación, responsabilidad, etc.), pero a más corto plazo ya se está considerando usar esta tecnología para que los camiones viajen en parejas: el primer camión lo conduce una persona y el segundo es autónomo, sin conductor, y sigue de cerca al primero [125] . Si esto se pone en marcha, teóricamente la mitad de los trabajos de los conductores de camiones está en peligro. Pero hay muchas más tareas profesionales que se podrían automatizar con posibles consecuencias para puestos de trabajo. La empresa neerlandesa Juriblox ofrece un servicio jurídico [126] que, automáticamente, analiza acuerdos de confidencialidad (NDA, por sus siglas en inglés, nondisclosure agreement ) usando tecnología de NLP de la empresa BigML [127] y para cada cláusula recomienda: aceptar, dudosa, no aceptable. Además, explica el porqué de las recomendaciones. Ese servicio resuelve un problema real, ya que los NDA son bastante estándares, pero puede haber cláusulas 241

específicas que es importante evaluar y no es fácil encontrarlas. Claramente el trabajo de un abogado es mucho más que verificar NDA, pero es una tarea repetitiva y predecible que cuesta tiempo y por eso es objetivo de ser automatizada. Heliograf [128] es otro miembro de la familia que sirve para automatizar tareas concretas, esta vez en el mundo del periodismo. Heliograf es un programa de IA del Washington Post que escribe artículos sobre elecciones y deporte, y también escribe, de manera autónoma, tuits. Este robo-reporter ayuda al periódico a generar más noticias y también sirve de apoyo a los periodistas para que estos puedan producir más artículos. Los trabajos más creativos tampoco son inmunes a la automatización. En los laboratorios de Google se ha trabajado en un proyecto que analiza las fotos hechas por Street View y, automáticamente, es capaz de reconocer si un paisaje tiene potencial fotográfico, componer la imagen, exponer, tomarla y posteriormente hacer los ajustes de procesado necesarios. Será difícil distinguir una fotografía hecha por este sistema de IA de una foto hecha por un fotógrafo profesional [129] . Y, en 2018, un cuadro pintado por un sistema de Inteligencia Artificial fue subastado en Christie’s por más de 430.000 dólares [130] . ¿Están hasta las profesiones más artísticas en riesgo? Otra de las grandes preguntas que se plantean es la siguiente: ¿llegaremos a tener un robot como jefe? ¿Y, si ocurre, sería bueno o malo? Parece que la razón principal para que dejemos nuestro trabajo es nuestro jefe y no la empresa [131] . Si pensamos en cómo sería un robojefe quizás no suena tan mal. Tu robojefe nunca te gritaría, siempre colaboraría contigo, se adaptaría a tu estilo de trabajo, será objetivo, no sabe de “politiqueo”, etc. [132] . Aparte de los ejemplos que hemos visto de cómo la IA puede hacer varias de las tareas y los trabajos que hoy en día hacemos las personas, existen infinidad de otros ejemplos. Teniendo en cuenta esto, ¿está justificado el miedo a que la IA nos quite el trabajo? Como consecuencia de este temor, fundamentado o no, se producen muchas otras preocupaciones. Por ejemplo, ¿qué ocurre con la sostenibilidad de los sistemas de pensiones? Si trabajamos menos personas, los gobiernos ingresan menos dinero por impuestos, como el IRPF (Impuesto sobre la Renta de Personas Físicas), pero, al mismo tiempo, hay más personas que necesitan prestaciones

242

sociales porque se han quedado sin trabajo. Además, existe el fenómeno del envejecimiento de la población, que implica que cada vez hay más personas jubiladas y menos personas que trabajan. ¿Deberíamos preocuparnos por nuestras jubilaciones? Si finalmente se hacen realidad los peores temores sobre este aspecto que estamos tratando, habrá dos tipos de personas: los que trabajan y los que no. Entonces se plantearía la siguiente pregunta: ¿qué van a hacer todas estas personas que no trabajan? Hoy en día, la mayoría de nosotros encontramos en el trabajo no solo un salario, sino también un propósito de la vida. ¿Se sentirán menos útiles las personas que no trabajen, con las consiguientes consecuencias que esto provocaría? Lo que empezó con la simple automatización de algunas tareas parece que pueda terminar en algo muy preocupante. Comencemos el análisis.

APRENDIENDO A TRABAJAR CON LAS MÁQUINAS Si pensamos en qué tecnologías hacen posible esta automatización de tareas, podemos destacar: • RPA (automatización robótica de procesos): Automatización de tareas mentales simples y repetitivas. •

Asistentes digitales o virtuales: Automatización de interacción con

clientes y usuarios, como Google Duplex, Alexa, Aura, Cortana, Siri, etc.

• Reconocimiento de imágenes o vídeos: Automatización de tareas que requieren identificar objetos en imágenes o vídeos para posteriormente tomar una decisión o ejecutar una acción • Aprendizaje automático supervisado: Esta tecnología está por debajo de casi todas las tecnologías anteriores, como hemos explicado en el primer capítulo de este libro. Simplemente decir que la Inteligencia Artificial y los robots nos van a sustituir como trabajadores es demasiado simplista. Pocos investigadores y estudios lo ven de esta manera. Hay consenso sobre que algunos trabajos 243

desaparecerán, muchos cambiarán de naturaleza y se crearán otros nuevos que, hoy en día, no conocemos. Esto no es nada nuevo: pasó con la automatización de los trabajos en la agricultura con los tractores, etc., en el siglo XIX, cuando desaparecieron casi todos los puestos de trabajo. Pero, al mismo tiempo, se crearon muchos otros en las fábricas industriales. Ocurrió, de nuevo, con la introducción del automóvil y después con su producción en cadena, inventada por Ford. Y otra vez con la introducción del ordenador e Internet. En todas estas revoluciones, desaparecieron muchos puestos de trabajo, otros cambiaron y otros se crearon de la nada. La consultora estratégica global McKinsey [133] distingue entre puestos de trabajo y tareas que se automatizan. En su informe, afirma que pocos trabajos son completamente automatizables (menos del 5 %), pero que el 60 % de los puestos de trabajo tienen por lo menos un 30 % de tareas que sí lo son. También dice que los trabajos más probables para ser automatizados son aquellos que implican actividades físicas repetibles (81 %), procesamiento de datos (69 %) y colección de datos (64 %). Para su estudio, McKinsey analizó 600 profesiones y más de 2.000 tareas, estimando para cada una de estas últimas qué tipo de capacidades son necesarias. Después, analizó cuáles de estas capacidades eran susceptibles de automatización. Es importante entender por qué algunas tareas son más fáciles de automatizar con aprendizaje automático que otras. Para ser automatizables, tienen que ser tareas repetitivas, donde hay muchos datos disponibles y donde hay pocas excepciones. Es decir, debe de ser posible cubrir todas las posibilidades con datos [134] . También es importante tener en cuenta que, aunque un sistema de IA o un robot es capaz de hacer una tarea, no quiere decir que este sistema o robot entiende lo que está automatizando. El sistema simplemente sabe detectar patrones que “ha aprendido” analizando los datos, pero no “sabe” que está analizando un currículum vitae para ayudar a la contratación de personal ni “sabe” que está haciendo un diagnóstico de cáncer. En este sentido, en muchas ocasiones, las personas siguen siendo necesarias para dar sentido al resultado de la máquina. Otro estudio, basado en el funcionamiento del aprendizaje automático, ha definido las condiciones para poder automatizar una tarea [135] , [136] . El estudio se basa en el O*NET Resource Center [137] , una base de datos que describe puestos de trabajos, características de trabajadores, requisitos de los trabajos, tareas de cada trabajo, etc., usando muchas variables. 244

Actualmente, cubre casi 1.000 profesiones y 2.000 tareas que son compartidas entre estas profesiones. Analizan cuáles de las tareas podrían ser automatizadas basándose en la capacidad de la generación actual de sistemas de aprendizaje automático. De esta manera, han formulado ocho criterios para decidir si se puede automatizar una tarea, llegando a la misma conclusión que McKinsey: no se automatizan puestos de trabajos, sino tareas concretas. Por lo tanto, no estamos ante una sustitución masiva de los puestos de trabajo por máquinas. Los criterios son [136] : 1. La posibilidad de definir una función que mapea los inputs a los outputs. Por ejemplo, existe una relación entre los píxeles de una imagen con un gato y el hecho de reconocer el gato visualmente. Y por eso se puede automatizar este reconocimiento. 2. La existencia de muchos datos con pares de input-output . Como hemos visto en el primer capítulo, el aprendizaje automático requiere de muchos datos de entrenamiento. Con 10 fotos de gatos, no se puede entrenar el algoritmo. Con decenas de miles, sí. 3. Debe de ser fácil decidir si la tarea se ha cumplido o no. 4. La relación entre el input y output no depende de cadenas de razonamiento, conocimiento de dominio o sentido común. Si una tarea no solo depende de una relación directa entre input y output , como reconocer a un gato o la traducción automática, pero requiere adicionalmente sentido común o razonamiento, entonces no se puede automatizar. Por ejemplo, no se puede automatizar responder a la pregunta: ¿cuántos habitantes viven en la ciudad donde nació el presidente de los Estados Unidos? Entenderla requiere razonamiento y sentido común: que un presidente es una persona, que las personas viven en ciudades, etc. 5. No es necesaria una explicación detallada de la decisión. Los algoritmos de aprendizaje profundo no son fáciles de entender por personas. 6. Debe de estar permitida alguna tolerancia de errores y no hay necesidad de soluciones probadamente correctas u óptimas. Los modelos de aprendizaje cometen errores (falsos positivos, falsos negativos). Existen tareas que no permiten estos márgenes de errores. 245

7. La tarea no debería cambiar rápidamente en el tiempo; debe ser una tarea estable. 8. La tarea no requiere destreza especializada, habilidades físicas o movilidad. Parece que en el futuro estamos condenados a colaborar con las máquinas, como un equipo, donde las debilidades de unos son compensadas por las fortalezas de otros. Es una opinión generalizada que las máquinas están aquí para ayudarnos a las personas. El autor Kai-Fu Lee, empresario y escritor estadounidense nacido en Taiwán, caracteriza los trabajos en términos parecidos a Brynjolfsson en [136] y [135] . Kai-Fu Lee [138] usa dos dimensiones, donde cada una forma un continuo: de “asocial” a “social”; de “baja destreza y ambiente estructurado” a “alta destreza y ambiente poco estructurado” para trabajos físicos; y de “basado en la optimización” a “basado en creatividad y estrategia” para trabajos cognitivos. Visualmente, esto crea cuatro cuadrantes, en los cuales clasifica varios trabajos conocidos. Da a cada cuadrante un nombre en términos de riesgo de ser sustituido por una máquina: • Zona de riesgo: Trabajos que seguramente se van a automatizar. •



Zona de cambio progresiva: Trabajos que hoy son difíciles de

automatizar, pero con el avance de la tecnología se automatizarán progresivamente. Zona de cubierta humana: Trabajos de los cuales muchas tareas se

automatizan, pero siempre es necesario una pequeña intervención humana.

• Zona segura: Los trabajos más difíciles a automatizar. El resultado, como vemos en el siguiente gráfico, son dos esquemas, una para trabajo físicos y otra para los trabajos cognitivos.

246

Riesgo de sustitución: trabajos físicos. Ilustración traducida y adaptada por Javier Fernández. Fuente: Lee, Kai-Fu (2018): AI Superpowers. China, Silicon Valley and the New

World Order.

Como podemos observar, los trabajos físicos más seguros para no ser sustituidos por una máquina son, por ejemplo, fisioterapeutas, cuidadores de ancianos y estilistas. Entre los trabajos que están más en riesgo, se encuentran los cajeros de supermercados, los cocineros de comida rápida, los camioneros y los recolectores de fruta.

247

Riesgo de sustitución: trabajos cognitivos. Ilustración traducida y adaptada por Javier Fernández. Fuente: Lee, Kai-Fu (2018): AI Superpowers. China, Silicon Valley and the New

World Order.

Con respecto a los trabajos cognitivos, los que están en la zona más segura incluyen trabajadores sociales, psiquiatras y CEO. Trabajos de más riesgo incluyen radiólogos, contables y teleoperadores, entre otros. Como podemos observar, en general hay consenso sobre qué tipo de trabajos están más en riesgo y cuáles no lo están. Pero todas estas estimaciones son con el estado de la Inteligencia Artificial de hoy, es decir, una Inteligencia Artificial que no tiene sentido común, no razona y no conoce relaciones causales. El día que esto ocurra, la situación podría ser muy distinta.

Una ayuda mutua Pero no solo las máquinas hacen cosas que antes solo los humanos podían hacer. También ocurren casos en que las personas ayudamos a la máquina. Hemos visto con anterioridad que los sistemas de IA comenten errores. Cuando ocurren estos errores, somos las personas las que

248

ayudamos a corregirlos. El libro Ghost Work [139] describe la situación de un conductor de Uber, Sam, que empieza un día de trabajo. Antes de comenzar, tiene que hacerse un selfi, como un chequeo de seguridad, para demostrar que él es el Sam que está registrado con este vehículo. Funciona con un sistema de IA que en tiempo real compara el selfi con la foto registrada en Uber y, si coincide, la app de Sam muestra un tic verde para indicar que todo está en orden y que puede empezar a trabajar. Sin embargo, esta mañana es distinta. Sam normalmente tiene barba, pero hoy se ha afeitado y ya no la tiene. El sistema de AI no es capaz de reconocer el selfi como Sam. En ese momento, se pone en marcha un sistema, en tiempo real, en el que una persona ayuda al sistema de IA en esta tarea de reconocimiento. Las dos fotos van a una plataforma de crowdworking que distribuye estos tipos de tareas simples a personas que se han suscrito a esta plataforma para ganar dinero. Hay muchos de estos trabajadores que están constantemente vigilando estas plataformas para encontrar “trabajos” nuevos, y la primera que acepta la tarea y la hace gana unos céntimos. En este caso, las dos fotos llegan a Ayesha en India y ella opina que corresponden a la misma persona. Entonces, Sam recibe el OK para empezar el día, todo esto en cuestión de segundos. Este ejemplo es una forma extrema de la llamada economía GIG 15 (la economía colaborativa), donde plataformas digitales conectan demanda y oferta en tiempo real. De hecho, el servicio de Uber también se puede entender como un sistema de IA donde los conductores ayudan a la máquina, dado que la máquina aún no es capaz de conducir por sí misma (los coches autónomos todavía no funcionan suficientemente bien).

MENOS FANTASMAS Y MÁS HECHOS Teniendo en cuenta las aclaraciones de la sección anterior, ¿cómo tenemos que ver entonces los miedos relacionados con el futuro del trabajo? ¿Qué es ciencia, ficción y opinión? Veámoslos uno por uno.

Perdemos todos nuestros trabajos a manos de las máquinas 249

Actualmente, nadie puede pretender tener la certeza de que la mayor parte de nosotros vayamos a perder los trabajos y nos vayan a sustituir máquinas. Por lo tanto, es una opinión. Pero es seguro, entonces ciencia, que el trabajo va a cambiar mucho. Por la automatización de tareas, la naturaleza de los trabajos cambiará significativamente [140] y habrá mucha más colaboración entre las personas y los sistemas de IA, cada uno contribuyendo con sus fortalezas, y así se compensa la debilidad del otro. Es verdad que algunos trabajos desaparecerán, como, por ejemplo, la profesión de conductor por los coches autónomos. También es cierto que se crearán nuevos trabajos. Pero cuántos trabajos desaparecerán y se crearán, y cuándo, nadie lo sabe, aunque todo el mundo puede opinar. Otra opinión es que los trabajos que requieren habilidades altamente cualificadas, que normalmente suponen un mayor conocimiento de las nuevas tecnologías, seguirán existiendo, incluso se incrementarán. Serán estas personas las que den trabajo a personas de baja cualificación en labores, principalmente, de servicios. Mientras, muchos de los trabajos que hoy día desempeña la clase media se automatizarán, según el libro The 100 year life [141] . El mismo libro también comenta que quizás no perdamos los trabajos porque en pocos años los baby boomers se jubilarán todos y esto generará muchas vacantes. Afirma que, sin la Inteligencia Artificial, no habrá suficientes personas para cubrir todas los vacantes. La IA nos salvará porque evita que la producción se caiga por falta de trabajadores.

Si no tenemos trabajo, ¿cómo nos mantenemos? Actualmente, la mayor consecuencia de no trabajar es no tener ingresos y entonces no poder subsistir, no poder mantener una familia. Aunque no todos los trabajos se automatizarán, puede que haya un grupo grande de personas que se queden sin trabajo y que no sean capaces de adaptarse a los requisitos de los nuevos trabajos o los trabajos cambiados. ¿Qué pasará con este colectivo? ¿Van a recibir una prestación social de los gobiernos? ¿Se tendrán que buscar la vida por su cuenta? ¿Deberían instalar los gobiernos la Renta Básica Universal (UBI, por las siglas en inglés)? De momento esto es una opinión, pero ya hay muchos expertos que recomiendan la UBI, y hay hasta pilotos concretos en algunos países del mundo que intentan encontrar

250

la respuesta a estas preguntas claves [142] . Comentaremos más sobre este tema al final de este capítulo. Según otra teoría, si este grupo de “no trabajadores” es suficientemente grande, el poder adquisitivo de un país se reducirá y la demanda para comprar productos y servicios, por consiguiente, también disminuirá. Esto conllevaría una menor producción con consecuencias directas en el recorte en el empleo. Entraríamos en un círculo vicioso peligroso.

Si no tenemos trabajo, ¿cuál sería el propósito de nuestra vida? Aparte de tener ingresos para subsistir, los humanos necesitamos un propósito en la vida, algo que nos hace levantarnos cada día y mirar hacia delante. En teoría, este propósito podría ser cualquier cosa que dé sentido a nuestra existencia. Sin embargo, en la sociedad actual, el trabajo suele estar en los primeros puestos. Esta labor genera los ingresos para que las familias puedan subsistir adecuadamente; buenos trabajos dan prestigio, hacen que la gente se siente útil y abre la posibilidad de ser reconocido, lo cual, a veces, también es una necesidad humana. Al final, las personas con trabajo pasan, al menos, una tercera parte de sus días realizando esta labor. No es de extrañar, entonces, que algunas que se jubilan ya no sepan qué hacer y no se sientan bien. Sin embargo, una vez que se acostumbran, la mayoría se recupera y encuentra otros propósitos en la vida, como nuevos hobbies , la realización de cursos o cuidar a los nietos. Las personas mayores aprenden a disfrutar de estas actividades, pero ¿qué pasa con las personas de 30 o 40 años que no tienen trabajo porque ya no hay y tampoco es necesario para la productividad de un país? Para este posible problema, aún no está claro cuál es la solución, por lo tanto, estamos hablando de opiniones. Una de estas es que, como sociedad, tenemos que cambiar la manera de medir el éxito. En el modelo actual, la única medida de éxito es económica. El éxito de los países se mide con su PIB: los mandos políticos que hacen crecer la economía de su país son reelegidos. Las personas con éxito son aquellas con los salarios más altos, etc. Todo gira alrededor de dinero. En este modelo, está claro que, si no tienes trabajo, no puedes sentirte una “persona de éxito”.

251

Hay quienes dicen que nuestro modelo económico está agotado [143] . Estamos destruyendo el planeta, la brecha entre los ricos y los pobres crece. Actualmente los pocos billonarios en el mundo tienen más riqueza que 4,6 mil millones de personas juntas. ¿Deberíamos empezar a valorar más cosas aparte de dinero: el impacto en el cambio climático, la inclusividad, la calidad del aire que respiramos, el número de suicidios, el sistema público de salud, el tiempo que pierde la gente en atascos, etc.? Estos son todos indicadores distintos al dinero, pero muy relevantes para nuestro planeta y nuestro bienestar. Y si, como sociedad, aprendemos a valorar estos aspectos, seguro que alguien sin trabajo (pero con recursos para subsistir) se puede sentir igual de útil como alguien con trabajo.

Si trabajan menos personas, ¿qué ocurrirá con el sistema de jubilación? Actualmente, se está retrasando la edad de jubilación, poco a poco, en muchos países. Es una medida necesaria porque cada vez hay menos personas trabajando y más personas jubiladas. Los dos principales factores detrás de este fenómeno son: el envejecimiento de la población (cada vez vivimos más años y, algunos opinan que los nacidos en 2020 vivirán más de 100 años [141] ) y la automatización por la IA y los robots. En los actuales sistemas públicos de jubilación, el pago a los jubilados se hace con las cuotas que pagan lo trabajadores activos. Es decir, la pensión no se paga basada en un ahorro que ha hecho cada trabajador, sino en lo que ingresa el estado por impuestos por los trabajadores activos. Dado este hecho, con menos gente trabajando y más personas jubiladas, está en juego la sostenibilidad de los planes de pensión pública. Esto no es ficción ni opinión, sino ciencia. Pero las soluciones para mitigar este problema, de momento, son opiniones. Hay quien dice que, con el retraso de la edad de jubilación, se resuelve el problema; otros opinan que se necesitarán medidas más drásticas. Una sugerencia es pagar más impuestos por capital y menos por labor (horas trabajadas) [134] . Es decir, en España sería hacer menos foco en el IRPF y más en impuestos sobre el capital. El argumento es que, aunque las horas de trabajo se reducen drásticamente, la riqueza a nivel global sigue aumentando, pero cada vez está en manos de menos personas o empresas.

252

Por tanto, el problema no es una falta de dinero, sino de dónde se saca este dinero y cómo se paga impuestos por ello. Con esto, los gobiernos podrían mantener los ingresos para sostener el sistema de pensiones públicas. En definitiva, todas estas soluciones de momento son opiniones, muchas veces ligadas a convicciones políticas. Si no conseguimos resolver estos problemas, existe el riesgo de que, con el tiempo, vayamos a crear dos clases de humanos: los que trabajan y contribuyen a la productividad de su país, y los que no trabajan y no contribuyen. Sería una separación peligrosa y no deseada; se acercaría a algunas películas de ciencia ficción [144] .

253

254

255

256

EL EMPLEO EN EL FUTURO Con la IA, ¿quizás podemos esperar a tener fines de semanas de 3 días? Microsoft ya ha testeado una semana laboral de cuatro días y la productividad aumentaba un 40 % [145] . ¿O puede ser que ya no haga falta que trabaje todo el mundo y algunos se puedan dedicar a la familia, a pintar o a otra afición, mientras que reciben una prestación del estado suficiente para vivir? ¿Cómo será el empleo en el futuro? Lo que hemos visto, hasta ahora, es la existencia de algunas tendencias principales que generan varios retos importantes (ciencia o “cuento”). El futuro del trabajo dependerá de cómo las personas lidiemos con estos retos. Evaluar la seriedad de cada reto es una cuestión de opinión, muchas veces ligada a convicciones políticas concretas. El resultado, en el futuro, se puede pintar como una distopía o como una utopía según se desarrollan estas tendencias.

Tendencias sin parar Hay dos cosas que sabemos con certeza: la Inteligencia Artificial automatizará cada vez más tareas en todo tipo de trabajo; y el envejecimiento de la población llevará a una población inactiva cada vez más grande, aunque es probable que todos trabajemos hasta una mayor edad. Estas tendencias generan retos y la manera en cómo nos aproximamos a ellos tiene una influencia importante en cómo será el futuro. El primer reto es la sostenibilidad de los sistemas públicos de prestaciones sociales, en particular las pensiones y la prestación por desempleo. Si cada vez hay menos personas trabajando, se generarán menos ingresos (a través de impuestos) para los gobiernos. Al mismo tiempo, habrá cada vez más personas que necesitan una prestación social del gobierno. ¿Cómo deben afrontar los gobiernos estos compromisos sociales? Se barajan varias posibles soluciones. Ya vimos que muchos gobiernos están retrasando la edad de jubilación. Esta medida tiene doble efecto: las personas pagan impuestos durante más años y, durante estos, no requieren una pensión. Pero hay otras sugerencias más drásticas. Bill Gates, el fundador de Microsoft, propone la introducción de un robotax [146] , un impuesto a 257

programas de automatización como, por ejemplo, robots, RPA o chatbots, que tendrían que pagar impuestos para compensar la pérdida de estos que dejan de generar los trabajadores humanos. Pero no es nada fácil definir qué tipo de sistemas estarían en esta categoría; la industrialización siempre ha reducido el trabajo manual, pero ha generado nuevos tipos de trabajo. El parlamento europeo ha rechazado la idea de impuestos para robots [147] , pero hay varios políticos que abogan por ello [148] . Por su parte, Martin Ford, en su libro Rise of the Robots [134] , propone, como hemos visto antes, tasar el capital en vez del trabajo. Su argumentación es que cada vez hay menos gente trabajando mientras que la riqueza se va concentrando en menos gente, los superricos: los fabricantes de los robots, los inventores de los sistemas de IA y los gigantes tecnológicos [149] . Poniendo más impuestos en el capital y menos en la labor podría mantener los ingresos para los gobiernos y podría hacer sostenible el sistema de prestación social.

¿Tendremos una Renta Básica Universal? Si ocurre lo que parece que va a ocurrir respecto al empleo, cabría preguntarse: ¿de qué ingresos van a vivir las personas sin trabajo? Aquí entra la idea de la Renta Básica Universal (UBI, por sus siglas en inglés): un ingreso mensual suficiente para vivir para todo el mundo. Las personas con más ingresos o capital financian el sistema pagando impuestos y todos reciben un importe mensual. Sin embargo, aquí se activan otras preguntas, como esta: ¿por qué dar un ingreso mensual a los que no lo necesitan? La respuesta es que operar un sistema que decide a quién pagar y a quién no es muy caro, mientras que, cuando todo el mundo lo recibe, tiene poco coste. Las personas que no lo necesitan contribuyen mucho más de lo que reciben [150] . En cualquier caso, la UBI es una idea bastante controvertida y no existe consenso sobre si pudiera funcionar o no. Por esto, es importante que algunos países o regiones en el mundo estén haciendo pilotos, como en Escocia [151] , Ontario (Canadá) [152] , Finlandia [153] , Kenia [154] . Los resultados de momento no son concluyentes y algunos pilotos han sido parados, como en Canadá.

258

La economía GIG ¿Y qué ocurre con la economía GIG? En la economía GIG se paga por los trabajos concretos (GIG, en inglés), muchas veces a través de plataformas digitales. Uber, Cabify, Deliveroo son todos ejemplos de este tipo de economía. Los trabajadores trabajan a través de las plataformas, pero no son sus empleados, aunque no sea excepcional que solo trabajen para una plataforma y durante muchos años. La ventaja de la economía GIG es su flexibilidad: se puede trabajar en varias plataformas a la vez y es una alternativa interesante para las personas que no consiguen encontrar un empleo de otra manera o que necesitan flexibilidad. De hecho, en los países en desarrollo este tipo de trabajo muchas veces genera oportunidades para personas que, de otra manera, no tenían posibilidad de trabajar y estaban condenadas a la pobreza. Cuando los trabajos individuales se consiguen en cuestiones de segundos, hablamos de “microtrabajos” donde el “trabajador” gana unos céntimos por cada trabajo. Esto es el ejemplo que vimos anteriormente con la verificación de la foto de un conductor de Uber que se había afeitado la barba. Los trabajos suelen durar entre segundos y minutos. Algunos ejemplos incluyen la comparación de fotos, poner tags (palabras claves) a fotos para entrenar algoritmos, la transcripción de audio a texto, organizar información, controlar los resultados de una transcripción automática de voz a texto, etc. Hay muchas plataformas, pero la más antigua y conocida es Amazon Mechanical Turk [155] . Estas plataformas GIG y microtrabajos están sacando a muchas personas de la pobreza en países en desarrollo y se pueden considerar como una bendición en estos entornos. Aunque también se han identificados varios problemas [139] , como que no se permite el contacto entre trabajadores o que, si no estás disponible 24 horas, te penalizan en la asignación de trabajos. Al final, si dependes de estas plataformas para no perder ingresos, tienes que adaptar tu vida a estar pendiente las 24 horas los 7 días de la semana. En los países en desarrollo, la economía GIG está generando un nuevo tipo de trabajador: un trabajador flexible, pero sin derechos, sin seguro, sin jubilación, sin prestación social cuando es despedido. Algunos lo ven como una maldición y hay mucha discusión sobre si esta forma de trabajo es legal o no, es decir, si son empleados encubiertos o no. En 2019, los juzgados de

259

Madrid fallaron a favor de los repartidores de Deliveroo que eran trabajadores y no autónomos [156] .

¿La brecha se incrementa? El fenómeno de concentración de riqueza, en sí mismo, genera otro gran reto por el modelo económico que tenemos actualmente en nuestras sociedades [134] . Nuestras economías se basan en demanda y oferta. Como vimos anteriormente en este capítulo, la demanda viene de las personas y las familias, que necesitan productos y servicios, y de los gobiernos. Si los ingresos de la mayoría de las personas se reducen porque hay menos trabajo, entonces hay menos demanda. La consecuencia es una reducción de la producción, porque las fábricas producen lo que pueden vender, que resulta en menos puestos de trabajo, con la consecuente reducción de ingresos para los trabajadores que han perdido su trabajo. Esto puede entrar en un ciclo vicioso negativo. Se podría pensar que la demanda se mantiene porque, aunque haya menos personas que pueden comprar productos y servicios, los muy ricos pueden adquirir mucho más y, en teoría, podrían mantener la demanda. Sin embargo, se ha visto que estos últimos compran mucho, pero no suficiente para mantener la demanda igual. El resultado podría ser que, con el tiempo, todo se reduzca: el trabajo, los ingresos de los trabajadores, la demanda, la producción y al final la riqueza. Con la crisis del coronavirus que empezó al principio de 2020, hemos experimentado todos en primera persona qué significa una caída drástica de la demanda. Muchas empresas paran su actividad porque nadie compra y, sin ayuda del gobierno, quiebran. Obviamente, el efecto de la automatización por IA va a tener un efecto mucho más paulatino, pero el efecto de la crisis del virus es una buena lección para que los gobiernos empiecen a pensar ahora en futuras medidas para que la demanda no caiga por debajo de un umbral. Sin embargo, sigue la tendencia de que, durante el tiempo que aguanten la demanda y la producción, los propietarios de la producción serán cada vez más ricos, mientras que la clase media perderá poder adquisitivo. En situaciones extremas, esto podría llevar a un panorama con dos clases de personas, como describe la película Elysium (2013). Ambientada en 2154,

260

esta cinta traslada al espectador a un mundo artificial con su propia atmósfera y campo electromagnético. La vida dentro es segura y saludable. La pega es que únicamente los ricos, aquellos que tienen el suficiente dinero para pagarlo, pueden vivir en esta estación, construida por la Corporación Armadyne, que orbita la Tierra. En esta época nuestro planeta está muy afectado por el cambio climático y la superpoblación. Aire contaminado, inseguridad y deshechos en las calles, enfermedades..., asolan lo que un día fue un sano y próspero mundo. En Elysium, la tierra de los ricos, tienen máquinas denominadas Med-Pod, que regeneran la estructura celular y atómica del cuerpo humano, permitiendo curar cualquier tipo de enfermedad, incluso la generada por la exposición a radiación o la leucemia. Estas máquinas que sanan son una constante en las películas de ciencia ficción. Nos preocupa nuestra salud y llegar a encontrar el remedio para las enfermedades actuales, para sanarlas y prevenirlas. En este sentido, la medicina es una de las áreas que más se está beneficiando, ya en la actualidad, de la Inteligencia Artificial. Los sistemas de IA, en colaboración con los médicos e investigadores humanos, permiten personalizar los tratamientos médicos en función de las características genéticas del paciente, de manera que estos aumentan su eficiencia. Es un hecho que son capaces de aprender y analizar grandes cantidades de datos del historial de los pacientes, incluyendo imágenes de radiografías. Cada vez son más los médicos que lo ven como una herramienta más de su trabajo que les ayuda a aumentar su eficiencia, en rapidez y en calidad.

Experiencias exclusivas Si lo vemos desde la perspectiva del consumidor en vez de la del trabajador, podemos imaginarnos que, en un mundo donde hay un uso masivo de IA y robots, todos los productos y servicios, con una experiencia humana, van a ser exquisitos y muy caros. Al contrario, los productos y servicios ofrecidos por robots o sistemas de IA van a tener un precio normal. Por ejemplo, en una cena en un restaurante, pides con tu teléfono, la cena la prepara un robot, te la trae y luego la recoge y al final pagas con tu móvil. En este caso, el precio de este servicio sería del nivel de ahora. Pero, si vas a cenar en un restaurante donde una persona te sienta, te trae la carta, toma 261

nota de tu pedido, la prepara un cocinero y después un camarero te trae la comida y te cobra personalmente, entonces lo esperable es que el precio a pagar sea mucho más alto. En este mundo, lo habitual sería que trabajaran y sirvieran las máquinas, no las personas.

262

263

264

265

266

267

268

269

270

271

15 . GIG, en inglés, se refiere normalmente a un concierto de música popular.

272

273

274

—¿Mami? ¿Te vas a morir? —Pues, un día, sí, me voy a morir. —Voy a estar solo. —No te preocupes mucho. —¿Cuánto vas a vivir? —Siglos. Cincuenta años. —Te amo, mami. Ojalá nunca te mueras. Nunca.

—Escena de la película A.I. Inteligencia Artificial (2001) entre David (robot) y su madre humana. ¿Qué son los sentimientos? Amor, odio, tristeza, simpatía, apatía, recelo, orgullo, envidia... Simplemente estados de ánimo de los seres humanos, a veces extensible a otros seres vivos, aunque muchos lo cuestionen. Son algo intrínseco e importante para las personas. Dan contexto a nuestra vida. Nos dan ganas de vivir... o de morir. Nos hacen ilusionarnos o deprimirnos. Tan solo hay que mirar a los mensajes de texto de nuestros teléfonos móviles para darnos cuenta de la necesidad, casi habitual, de incluir ese elemento de “emoticonos” 16 que muchas veces da sentido al significado real de nuestras palabras. Es algo humano. Y nos sentimos con derecho a que sea “solo nuestro”.

275

Emoticonos que demuestran distintos tipos de sentimiento. Ilustración realizada por Juan Silva.

La mera idea de pensar en un robot con sentimientos levanta recelos y hace que nos lleguemos a cuestionar incluso hechos, hasta ahora innegables, sobre nuestra propia naturaleza. La ciencia ficción, una vez más, ha alimentado esta posibilidad de llegar a conseguir “máquinas” capaces de amar y de odiar, incluso de llegar a sentir envidias y de reaccionar con miedo ante la muerte. Una de las escenas más recordadas es la de la supercomputadora Hal 9000, antes de ser desconectada, en la película de Stanley Kubric, 2001, odisea en el espacio (1968), basada en el relato The Sentinel , escrito por Arthur C. Clarke en 1948. Esta IA precoz muestra su consciencia del miedo a la muerte. Pero es solo una imagen en nuestro cerebro procedente de una simple película, fruto de una imaginación desmesurada... o no.

MÁQUINAS SENSIBLES Y ADORABLES... O NO Las relaciones sentimentales humanos/máquinas no nos es ajena. Conviven en nuestra mente, de manera habitual, con otras muchas que incrementan día a día nuestra imaginación. La ciencia ficción, principalmente la derivada de la cinematografía, por el poso de la fuerza de la imagen, ha contribuido muy significativamente a la creación de esta familiaridad con un tipo de situación, en principio, inusual y también, sin duda, a los prejuicios asociados a ella. Las películas nos hacen soñar.

276

En una escena de la cinta de Steven Spielberg I.A. Inteligencia Arti cial (2001), el director de Cybertronics propone la construcción de un robot-niño capaz de amar. “Un meca con cerebro con retroalimentación neuronal. Lo que sugiere es que el amor será la clave para que adquieran un subconsciente nunca logrado. Un mundo interno de metáfora de intuición, de razón automotivada”. David, el meca (robot) resultante, es capaz de expresar miedo, admiración, amor, pero también lo demanda con unos razonamientos y fuerza a veces incluso superiores a los de un ser humano, en situaciones normales. La cinta está llena de planteamientos filosóficos, algunos más que planteables en la actualidad. “¿El verdadero acertijo no es cómo hacer que un humano corresponda a su amor? Si un robot pudiera amar de verdad a una persona, ¿qué responsabilidad tendrá la persona hacia ese meca a cambio?”. En la película El hombre bicentenario (1999), basada en la novela de Isaac Asimov, Andrew ansía incluso poder morir con tal de que le reconozcan su capacidad para sentir, para soñar, para actuar como un humano. Pero incluso acercándonos aún más a la realidad actual, en nuestra imaginación ya plasmada en imágenes cinematográficas, se ha saltado el cuerpo robótico para quedarnos con la esencia, con la IA, simplemente con el software. En el caso de Her (2013), un escritor frustrado desarrolla una relación amorosa con su agente virtual. Samantha (IA) aprende de él, le comprende. Siempre está ahí para escucharle y consolarle. Pero también “siente” celos, envidia, y ansía un cuerpo real que la complemente. Las escenas de series como Black Mirror imaginan un mundo dominado por los datos y sus “agentes inteligentes”, en el que ya no hay barreras que dispongan lo que debe ser humano de lo que no lo es. “¡Estas distopías imaginarias no son más que eso!”, nos repetimos una y otra vez. Sin embargo, encendemos la televisión y parecen tomar vida en algunos informativos y reportajes, que resaltan, por ejemplo, bodas con agentes virtuales, como la ya célebre Miku Hadsune con algunos japoneses. Esta famosa IA habla y se interrelaciona con sus “dueños” en forma de holograma a través de una urna de cristal que se puede colocar sobre cualquier superficie. Comprende, escucha y nunca te defrauda. Sus propios desarrolladores afirman que es una forma de evadirte a un mundo paralelo, en el que no existe el dolor, la maldad, los desacuerdos, los enfados. Quizá

277

esto fue lo que llevó al japonés Akihiko Kondo a contraer matrimonio con esta IA. El coste de la peculiar boda ascendió a más de 17.000 euros y, aunque no es oficial, cuenta con su propio certificado expedido por la empresa propietaria de Miku, en el que consta que el humano y el personaje virtual se casaron “más allá de las dimensiones”. Para él, parece ser más que suficiente [166] . Pero Miku, que significa “sonido del futuro”, no solamente desata pasiones amorosas, en las redes tiene millones de fans, que acuden también a sus conciertos físicos. Ha sido incluso telonera de grandes artistas como Lady Gaga o estrella invitada en programas de late night como el de David Letterman en la CBS americana. Parece que la frontera entre el mundo virtual y el real comienza a desvanecerse.

Holograma de Miku Hatsune, desarrollada por Crypton Future Media, Piapro Studio. Imagen cedida por Casual Robots.

Los sentimientos de Sophia Una asidua en los telediarios y reportajes es el famoso robot de Hanson Robotics (Hong Kong), Sophia. Este cuerpo artificial llama poderosamente la 278

atención por su apariencia humana, incluso en gestos y expresiones. Tan solo su cabeza, siempre al descubierto, evidencia la realidad. Una de las razones de su éxito es, sin duda, su capacidad para mostrar, en su cara, más de 60 tipos de sentimientos mientras conversa animadamente con todo aquel que la entrevista [167] . Es ya un personaje internacional que interactúa en lenguaje natural con los humanos que la han conocido en persona. Quizá fuera por esto, junto con la irracionalidad y exotismo que rodea a estas nuevas tecnologías, por lo que en Arabia Saudí decidieron otorgarle un derecho mucho más difícil de conseguir para un humano en este país: la ciudadanía, convirtiéndose en el primer humanoide del mundo con este derecho. Incluso con más derechos que las mujeres de este país, que deben permanecer tapadas o consultar sus decisiones. En este sentido, han sido muchas las voces críticas que alegan, además, que ser ciudadano es algo más que un reconocimiento o un papel firmado. Requiere una identidad y, al menos, huellas dactilares. Incluso implica otros derechos asociados, como casarse o votar. Igualmente, implica unas obligaciones como tributar por su trabajo. ¿Lo llegará a hacer Sophia?

Simulación del rostro del robot humanoide “Sophia”. Hanson Robotics. Ilustración realizada por Juan Silva.

De acuerdo con su creador, David Hanson, Sophia tiene Inteligencia Artificial, procesamiento de datos visuales y reconocimiento facial. Usa tecnología de reconocimiento de voz de Alphabet Inc. (la compañía matriz de

279

Google). Su software, diseño de SingularityNET, analiza conversaciones y extrae datos que le permiten mejorar la respuesta en el futuro. Puede mantener contacto visual, reconocer rostros y comprender el lenguaje humano. Sin duda, es una reacción lógica que, al igual que se producen entre la sociedad reacciones entusiastas hacia estos realistas robots humanoides, también inciten a temores respecto al “robo” de peculiaridades inherentes al ser humano y sobre la posibilidad de que se reduzcan, cada vez más, la diferencia entre humanos-robots. La gran pregunta es: ¿qué es lo que realmente buscamos como humanidad en estas tecnologías? ¿Construir robots humanoides y dotarles de nuestros mismos derechos, capacidad para sentir y para interactuar como iguales? Veamos las posibilidades reales de que esto ocurra. La fundamentación de estos miedos.

¿PODRÍA UN ROBOT SER CAPAZ DE AMAR? El mito de los robots, donde seres inanimados dotados de autonomía, con sentimientos de amor y odio, ansias de destrucción o empatía hacia los humanos, ha inundado nuestra imaginación desde tiempos inmemoriales. De hecho, incluso en la Antigua Grecia, allá por el 700 a. C., la mitología de la época mostraba a un gigante de bronce, creado por Hefesto, el dios del fuego y los herreros, llamado Talos, que protegía la isla de Creta de los invasores. Tenía una vena desde la cabeza hasta uno de sus talones, en el que tenía un clavo, por la que le fluía el líquido que le daba la vida, el icor. Talos poseía, además, la habilidad para calentar su cuerpo de bronce al rojo vivo, de manera que estrechaba a sus víctimas contra su cuerpo y las asaba vivas [168] . En otro texto antiguo del siglo III a. C., Las Argonauticas , la obra más importante que conocemos de Apolonio de Rodas [169] , se cuenta cómo la hechicera Medea derrotó a Talos al quitarle un clavo del tobillo y liberar el fluido vital. Este dios Hefesto parece haber sido muy activo en la creación de “seres artificiales”. Así, se le atribuyen objetos que se movían solos, incluso sirvientes autónomos hechos de oro. Según el relato de Homero de este

280

mito, Hefesto les dio a estas mujeres artificiales “el conocimiento de los dioses” [170] . Siguiendo con los mitos griegos, en la Teogonía de Hesíodo se describe a Pandora como una mujer malvada artificial construida por Hefesto y enviada a la Tierra por orden de Zeus para castigar a los humanos por haber descubierto el fuego. Y el titán Prometeo trabajó cuidadosamente el barro en la creación de un humano, a imagen y semejanza de los dioses, y le dotó de vida.

Estatuas de faraones “con alma” También en el Antiguo Egipto, “soñaron” con dotar de particularidades de humanos a algo inanimado. En este caso, pensaban que las estatuas de las divinidades (hechas de madera, metal o piedra) tenían alma. Así, se les preguntaba para pedirles consejo. Según la tradición egipcia, el faraón Hatshepsut envió a su escuadrón a la “Tierra del Incienso” después de consultar con la estatua de Amón. Además, algunas, como la del faraón Amenhotep III, se utilizaban para aterrorizar a los enemigos o infundir miedo en los templos [171] . Por otro lado, los autómatas también formaron parte de la cultura china desde, al menos el 2000 a. C. En una versión de algunos de los textos sagrados del taoísmo, el Lie-Zi , se narra cómo se encontraron el rey Mu de Zhou con el ingeniero Yan Shi. Este último le presentó un autómata, a tamaño natural, que se movía de manera similar a un humano. Cuando acabó de actuar, el rey advirtió que el autómata guiñaba un ojo a algunas mujeres de la corte. Este hecho hubiera supuesto la muerte de Yan Shi, si este no hubiera desmantelado, en ese momento, al robot descubriendo su naturaleza artificial. En esta historia se aprecia cómo ya, en estos tiempos, se tenía muy clara la necesidad de “seguir teniendo el control” como humanos. También merece una mención especial la labor del emperador Qin Shi Huang (260 a. C.-210 a. C.), quien hizo construir el ejército de los Guerreros de Terracota, cuyo objetivo era protegerle en el viaje al más allá tras su muerte. Se trataba de más de 8.000 figuras de guerreros y caballos que fueron enterradas cerca de él en formación de batalla [172] .

281

El mito del gólem A pesar de que, como vemos, los “seres artificiales”, con peculiaridades semejantes a los humanos, han formado parte de nuestra imaginería desde la Antigüedad, tanto en Oriente como en Occidente, es en la Edad Media cuando cobra un importante auge en el mundo físico. Los artesanos elaboran “juguetes” mecánicos, cada vez más elaborados, que imitan el comportamiento de las personas. Leonardo Da Vinci inventa su famoso “robot humanoide” (1495). Y, en el siglo XVI, en Praga comienza a surgir con fuerza el mito del gólem: una figura creada, e infundida de vida, a partir del barro por el rabino Loew ben Bezalen para defender el gueto de Praga de los ataques antisemitas. Según la leyenda, el gólem tenía una gran fuerza y ayudaba al rabino en los trabajos físicos, tanto en su casa como en la sinagoga. Pero su fuerza fue creciendo cada día más y la ayuda se tornó en destrucción poniendo en peligro vidas inocentes [173] . Una vez más, en la mitología, estos seres artificiales comienzan con buenas intenciones, pero acaban atentando contra la humanidad, algo que se repetirá, unos siglos después, en la cinematografía de ciencia ficción. Solo hay que recordar al superordenador Hal 9000 (cuyo nombre es un acrónimo en inglés de Heuristically Programmed Algorithmic Computer ), en la película 2001, odisea en el espacio . Lo que empieza siendo un instrumento de ayuda a la tripulación de la nave Discovery acaba convirtiéndose en su verdugo. Según afirma Adrienne Mayor en su excelente estudio sobre mitos y máquinas [174] , la frontera entre humano y no-humano, incluso en la imaginación, la ha marcado, ya desde los tiempos de la Antigüedad, la diferencia entre nacimiento biológico y orígenes manufacturados o prefabricados. Así, ya en el siglo XVIII, esta vez en la literatura, Mary Shelley crea a su célebre Frankenstein, un hombre artificial, en conflicto consigo mismo, a partir de diferentes partes de cadáveres. La ciencia, al menos en la imaginación, había conseguido insuflar vida a un cuerpo inerte. Y la tendencia a seguir fomentando el mito no paró. Es en el siglo XX cuando el mito comienza a tener su manifestación física más cercana, aunque también en la ciencia ficción, más prolífica que nunca anteriormente. En 1921, Karel ˇ Capek estrenó en Praga su obra R. U. R. (Rossum’s Universal Robots ) [175] , en la que se usa por primera vez el 282

término “robot”. En ella, se narra la historia de una empresa que construye humanos artificiales para aligerar la carga de trabajo. Son incluso capaces de pensar. Sin embargo, a pesar de haber sido creadas para ayudar a la humanidad, acaban iniciando una revolución para destruirla. A partir de 1950 se empiezan a juntar los ingredientes para que al menos parte del mito se haga realidad. Es en esta época cuando John McCarthy acuña el término “Inteligencia Artificial” [176] , definiéndolo como “la ciencia e ingenio de hacer máquinas inteligentes”. Sus previsiones tardarían en llegar, a falta del Big Data y la capacidad de computación. Pero llegarían.

Un juego de imitación Corría el año 1950 cuando el célebre Alan Turing, padre de la computación, propuso una prueba [177] para evaluar la capacidad de una máquina para exhibir un comportamiento inteligente similar al de un ser humano o indistinguible de este. El “juego de imitación” de Turing comienza con la siguiente sugerente pregunta: ¿pueden las máquinas pensar? Sin embargo, a esta premisa le sigue una reflexión filosófica: antes de intentar resolver la cuestión, deberíamos empezar definiendo los términos que la integran. ¿Qué es una “máquina”? ¿Qué significa “pensar”? Si intentamos aclarar este primer párrafo de su estudio, sin duda la respuesta estaría clara, siempre que nos ciñamos a la RAE. 17 “Máquina”: Artificio para aprovechar, dirigir o regular la acción de una fuerza. “Pensar”: Formar o combinar ideas o juicios en la mente. Nada, en estas definiciones, hace presuponer siquiera las pretensiones de este estudio. Turing no se molestó. Las obvió. Su pensamiento, sin duda adelantado a su época, incluso a la nuestra, iba más allá de la búsqueda factible, en ese momento, de la respuesta. Comprendía su potencial y soñaba con que, algún día, sus suposiciones no fueran tan difíciles de demostrar. Para Turing todo dependería de si el humano acababa por no distinguir de quién provenía la respuesta: de otro humano o de una máquina. Así que, directamente, presentó el siguiente test para responder a la pregunta. Hay tres jugadores A, B y C.

283

• A: Humano. • B: Máquina. • C: Otro humano. A y B se encierran en una habitación y se comunican, en lenguaje natural, el de los humanos, con C a través de un ordenador por escrito. C no puede ver a A ni a B. El humano C debe tratar de averiguar si las respuestas a sus preguntas las ha escrito el humano (A) o directamente la máquina (B). En el caso de confundirse, esa máquina en cuestión habrá pasado el “test de Turing” y, por tanto, será agraciada con una capacidad hasta entonces únicamente inherente a la raza humana: la de pensar.

Durante el test de Turing un humano hace una serie de preguntas a dos participantes: un humano y un ordenador. En el momento en el cual el humano que hace las preguntas no es capaz de distinguir si la respuesta viene del ordenador o del otro humano, el ordenador habrá pasado la prueba y, supuestamente, es capaz de “pensar”. Representación del test de Turing. Composición de Javier Fernández Castañón.

Ya existen algunos casos, cada vez más, en los que se afirma que una IA ha superado este test, en muchas ocasiones por haber sido capaz imitar emociones humanas. Uno de ellos (2014) fue el de Eugene Goostman, un supuesto joven adolescente ucraniano, de 13 años de edad, que logró

284

convencer de su “humanidad” a un 33 % de los jueces que le habían puesto a prueba en la Royal Society de Londres. Eugene era una IA capaz de responder con naturalidad, sarcasmo e incluso sentido del humor. Este es solo un ejemplo. Ya es un fenómeno casi habitual que una IA imite el comportamiento del ser humano en casos concretos. Como hemos visto, Google Duplex (el producto de Google que usa IA) es capaz de hacer llamadas a una peluquería para pedir una cita, y muchos otros sistemas desarrollan, con bastante perfección, esta tarea de interacción con el humano diluyendo, cada vez más, la línea de la consciencia de saber quién hay detrás un humano o una máquina. Algo, sin duda, inquietante.

El valle inquietante Esta similitud física o psicológica con las máquinas produce en muchas personas cierta intranquilidad. No es para menos. Fue el profesor experto en robótica Masahiro Mori quien, en 1978, acuñó el término “el valle inquietante” [178] para establecer una hipótesis según la cual las réplicas antropomórficas que se acercan en exceso en apariencia y comportamiento a un ser humano real producen una respuesta de rechazo entre los humanos. El valle mide la reacción de las personas, según el parecido humano del robot. Así, cuando un robot tiene cierta apariencia humana, la respuesta emocional de la persona es positiva. Pero, cuando empieza a alcanzar un alto grado de similitud, llega un punto en el que se produce miedo y rechazo. Esta teoría es seguramente uno de los motivos por el que el robot humanoide Sophia suele mantener siempre destapada su transparente cabeza. De esta manera, por mucho que gesticule como un humano y perfile sus conversaciones e interacciones, mantiene, de cara a cualquiera que la mire, su situación de robot.

285

Teoría del valle inquietante basada en teoría de Masahiro Mori. Composición y adaptación de Javier Fernández Castañón.

Una cuestión de contexto cultural y temporal En cualquier caso, estos niveles de aceptación en la interrelación humanos-robots no son homogéneos a nivel global. En muchos casos, la perspectiva cultural (normalmente asociada a la geográfica) y la temporal son importantes para comprenderlos, incluso para prever su evolución. Analicemos esta cuestión. Es un hecho que, hoy día, la aceptación de los robots, de la IA en general, está siendo mayor en Oriente que en Occidente. Específicamente en Japón esta “convivencia” ya es una realidad y las polémicas en torno a ella están diluidas ante su tremenda utilidad para su sociedad. Sus peculiaridades culturales, históricas y económicas ayudan, sin duda, a este proceso. Por un lado, este país se enfrenta a un envejecimiento de la población insostenible en el que la robótica y la Inteligencia Artificial comienzan a ser imprescindibles para el mantenimiento de su economía, así como para 286

atender a sus ancianos. De hecho, el Gobierno de Shinzo Abe estableció, ya en 2014, la denominada Estrategia de Revitalización de Japón con el objetivo de “promover la utilización de la robótica para hacer frente a los desafíos de una población envejecida”. Los desafíos se centraron en los siguientes puntos principales [179] : •

Asegurar a los trabajadores en áreas con escasez de personal como los servicios de enfermería y del ámbito asistencial.



Mejorar la productividad a través de la utilización de la tecnología robótica.



Ampliar el mercado de la robótica hasta 20 veces en el sector no industrial, a través del desarrollo tecnológico, la desregulación y la estandarización.



Mejorar la eficiencia laboral y reducir el número de trabajadores a través del uso de la tecnología robótica



Incorporar a la robótica las capacidades que aportan la Inteligencia Artificial, la conexión permanente a redes con bases de datos y el “Internet de las cosas”.

Por otro, a nivel personal, esta población ya ha demostrado ser muy afín a la idea de “humanizar a las máquinas”. Recordemos el éxito del Tamagotchi (1996), una mascota virtual que había que cuidar continuamente para que no se muriera. Llegó a convertirse en algo adictivo para muchos usuarios, que llegaban incluso a desarrollar un vínculo emocional con él, llevando a algunos a sufrir depresiones y altos niveles de frustración si su mascota moría “por su culpa” a causa de indigestión, obesidad, hambre o falta de cariño. En esta época, los psicólogos empezaron a alertar a la población ante los trastornos que se generaban a raíz de este aparentemente inocente “juguete”, como ansiedad, insomnio o falta de socialización. Llegó incluso a causar problemas sociales, como accidentes de tráfico por despiste para atender las necesidades del Tamagotchi o falta de atención en el trabajo. La atracción por este fenómeno conocido como “efecto Tamagotchi” fue mundial; sin embargo, fue en Japón donde llegó a su máximo apogeo. Esto es simplemente una muestra más de lo receptivos que son en los muchos países asiáticos hacia las tecnologías robóticas, más aún hacia aquellas que, de manera artificial, intentan imitar las peculiaridades de la vida humana, 287

dándole una visión totalmente positiva. Buena parte de esta aceptación tiene un factor cultural con una clara influencia de los cómics y los dibujos animados, como Mazinger Z o Astro Boy , que les enseñan desde niños la bondad de estos héroes mecánicos. En las películas, en general, los robots ayudan a la humanidad, no la destruyen ni son concebidos como una amenaza. Esto contrasta claramente con el punto de vista occidental, donde Terminator, Hal 9000 y The Matrix se revuelven contra las personas, destacando su supremacía y sus ansias por dominar el mundo. Otro factor muy importante es la religión predominante en Japón, junto con el budismo: el sintoísmo animista. Sus seguidores veneran a los kami, los espíritus de la naturaleza. Algunos son espíritus de un lugar, en particular. Otros representan objetos naturales. En este sentido, según la antropóloga norteamericana Jennifer Robertson, autora del libro Robo Sapiens Japanicus: Robots, Gender, Family, and the Japanese Nation [180] , en el inconsciente colectivo japonés anida la idea de que ciertas cosas tienen alma. Por ejemplo, hasta 1945, los kamikazes se inmolaban llevando la espada samurái familiar con la idea de que contenía el espíritu de sus antepasados. Por lo tanto, no es de extrañar para ellos que un robot antropomorfo tenga alma. Tal y como afirma Robertson, “los robots son ‘cosas vivientes’ en el universo shinto”. Otro ejemplo, en el templo de Kodaiji de Kioto, en Japón, se encuentra un curioso sacerdote que recita oraciones para todos los visitantes que acuden a escucharle. Se trata de un robot humanoide llamado Mindar, fabricado por un prestigioso profesor de la Universidad de Osaka Hiroshi Ishiguru.

288

Robot humanoide Mindar. Representa a la diosa Kannon. Ilustración realizada por Juan Silva.

En definitiva, debido a sus peculiaridades culturales, la sociedad japonesa tiene completamente interiorizada y normalizada su relación con los robots y la Inteligencia Artificial. En general, no supone un problema ni tampoco, en general, levanta cuestiones filosóficas difíciles de asumir. Hay otra característica de la IA que, sin duda, a nivel internacional, suscita cierta “intranquilidad”. Hablamos de máquinas que simplemente imitan el comportamiento humano. Pero ¿qué ocurre cuando se descubre que algunas de ellas pueden ser creativas? ¿Desarrollar algo que ninguna persona haya hecho con anterioridad? Veamos si esto es posible

289

Máquinas creativas Los algoritmos de Inteligencia Artificial ya son capaces, sin intervención humana, de crear pinturas, inventar recetas de cocina, componer sinfonías, incluso escribir poemas nunca escuchados con anterioridad. ¿Significa esto que las máquinas tienen una peculiaridad que hasta ahora solo poseían los seres humanos: la creatividad? Para intentar responder a esta pregunta es importante acercarse a la definición de creatividad:

Producir algo de la nada. Crear algo nuevo u original. Estas definiciones se completan, en función del caso, por el contexto que rodea a la creación. Es decir, una cosa es creativa no solamente porque sea original, sino porque aporta un sentido para su creador o para la comunidad. Los humanos tendemos a emitir juicios, no siempre unánimes, sobre lo que consideramos creativo y lo que no. Según Margaret A. Boden, autora del libro La mente creativa: Mitos y mecanismos , no hay duda de que los ordenadores tienen comportamientos creativos porque la creatividad no es exclusiva de la inteligencia humana. Ella distingue tres tipos que los algoritmos de IA también son capaces de mostrar [181] : 1. La creatividad combinatoria, es decir, aquella que produce nuevas combinaciones, asociaciones inéditas de ideas familiares. La IA puede asociar/combinar productos y servicios de manera que nunca se hayan combinado con anterioridad, con el objetivo de mejorar la eficiencia. 2. La creatividad exploratoria. En este caso, se aprovechan conceptos que son posibles (aunque hasta el momento no se hayan realizado) y se ejecutan. La IA, basándose en la tecnología existente en un contexto específico, puede seguir explorando nuevas posibilidades de su plataforma y de su concepto. Esto puede permitir ampliar la gama de servicios, en una empresa determinada, o abarcar otros sectores de actividad. En el caso de Uber, la compañía de vehículos de transporte

290

con conductor (VTC), por ejemplo, Uber Eats para el envío de comida a domicilio, Uber Health para el transporte de pacientes. 3. La creatividad transformadora, es decir, aquella que revoluciona un espacio de pensamiento ya existente para producir otro. Por ejemplo, Uber contribuyó a redefinir las costumbres relativas a su sector de actividad (el transporte) inventando, con ayuda de aplicaciones de IA, una nueva manera de desplazarse, administrarse y pagar. Son muchos los ejemplos en los que la IA ya ha demostrado alguno de estos tipos de creatividad. Lo expone por ejemplo el colectivo de artistas e investigadores de Machine Learning Obvious Art. 18 Comienzan con esta cita:

“Las computadoras son inútiles. Solo pueden dar respuestas”. Bueno, Picasso (1881-1973), estamos en desacuerdo. Uno de sus fundadores, Pierre Fautrel, no tiene dudas respecto a la creatividad de las máquinas. Ya ha desarrollado un algoritmo capaz de pintar y crear su propio cuadro. Lo entrenó con 15.000 retratos clásicos, comprendidos entre los siglos XV y XX. Una vez entendidas las reglas generales, fue capaz de crear uno completamente nuevo. Asimismo, algoritmos llamados GAN de Redes Generativas/Antagónicas Adversarias [182] , por sus siglas en inglés, han conseguido crear caras de personas que, en la realidad, no existen [183] . Los algoritmos GAN funcionan de la siguiente manera: hay dos algoritmos, ambos entrenados con muchas fotos de caras. El primer algoritmo genera de manera aleatoria una imagen y el otro algoritmo, el adversario, critica la imagen, diciendo qué falta para ser una cara de verdad. Este proceso se repite millones de veces hasta que el algoritmo adversario da por buena la cara generada, aunque no exista. Con esta técnica se pintó un cuadro que fue subastado en Christie’s por más de 430.000 dólares [184] . Otra aplicación de esta técnica es en el campo práctico de la cinematografía. Por ejemplo, se puede traducir en una gran ventaja a la hora de “hacer volver a la vida” a actores/actrices ya fallecidos para una película, lo cual podría suscitar ciertos dilemas éticos, o crear “de la nada” el “actor artificial” ideal para una determinada película. Sin

291

embargo, esta “creatividad artificial” conlleva riesgos también muy grandes que podrían llevar a la humanidad a no ser capaces de distinguir, incluso de manera visual, qué es al 100 % real y qué ha sido creado de manera artificial, los llamados deep fakes . Y ahí entran las noticias falsas, tal y como hemos explicado en capítulos anteriores. Sin duda, este será uno de los grandes retos del siglo XXI que habremos de resolver.

CUANDO LA SIMULACIÓN ES UN HECHO Decía el escritor y científico británico Arthur C. Clarke que “cualquier tecnología suficientemente avanzada es indistinguible de la magia”. Es cierto que cada vez tenemos más relación con la Inteligencia Artificial, tenga cuerpo robótico o no. Incluso estamos persiguiendo la incorporación de la muestra de “sentimientos” a estas tecnologías. Pero ¿cuál es la posibilidad real de que lo consigamos? Es difícil de predecir. Actualmente, hay infinidad de investigaciones a nivel internacional, al respecto. Muchas de ellas tienen como base cuestiones filosóficas asociadas a la esencia del ser humano, además del análisis del proceso químico que tiene lugar en estos casos. Pero, al menos hoy por hoy, se puede afirmar que la IA no tiene ni sentimientos ni emociones, aunque, en algunos casos, cada vez más, sí los podemos simular. Comencemos el análisis. Según la teoría evolutiva de las emociones de Charles Darwin, las emociones en los seres vivos han cumplido un papel importante en la supervivencia del individuo y las diferentes especies. Son producto de su propia evolución. En su libro La expresión de las emociones [185] trata de demostrar por qué los humanos y los animales tenemos emociones, y cómo nos diferenciamos en ese aspecto. Su investigación le lleva elaborar una teoría, según la cual emociones que él considera primarias, como el miedo, nos son comunes. De hecho, esta última es fundamental para que puedan sobrevivir muchas especies.

292

“No hay ninguna diferencia fundamental entre el hombre y los animales en su capacidad de sentir placer y dolor, felicidad y miseria”.

—Charles Darwin.

Charles Darwin. Ilustración realizada por Juan Silva.

Sin embargo, a medida que el ser vivo se hace más inteligente, desarrolla una capacidad mayor para asumir emociones más complejas, asociadas a sus propias vivencias, como abatimiento, la ansiedad, desaliento, odio, desprecio, cólera, desdén, orgullo, vergüenza, modestia, timidez, sonrojo... Los procesos cognitivos del hombre son muy superiores, de ahí el desarrollo de estas “habilidades”. Volviendo al tema que nos ocupa, cabría plantearse varias cuestiones. Si partimos de la idea de Darwin de la necesidad de desarrollar emociones para garantizar la convivencia con nuestro entorno y nuestra supervivencia como especie, sería inconsistente intentar fomentar estas “habilidades” en las 293

máquinas. No hay “supervivencia” que garantizar. Sin embargo, respecto a “la convivencia con nuestro entorno” se podría abrir una reflexión. Los seres humanos somos sociables por naturaleza. Tendemos incluso a sentir empatía y “cariño”, desde nuestra infancia, hacia cosas inanimadas que nos aporta seguridad y confianza. Pongamos el ejemplo de un osito de peluche para un niño. No tiene sentimientos. No reacciona ante el contacto. Sin embargo, normalmente, la sonrisa en su rostro invita al niño a acogerle y a jugar con él horas y horas. Pensemos en los muñecos de Playmobil. Muchas de las colecciones son “juegos de imitación” de los humanos: caravana, cabaña del campo, piscina, hospital, casa de muñecas con todos los utensilios y características que pudiéramos encontrar en una casa real... Los niños mueven a los personajes (todos con su sonrisa característica), pero, para aquellos con cierta imaginación, son ellos mismos los que “cobran vida” con emociones y frustraciones, miedos y alegrías. Somos nosotros, los humanos, los que “insuflamos” peculiaridades de la vida a las cosas. Este fenómeno ha sido llamado The Intentional Stance por el filósofo Daniel Dennett [186] , como veremos en el último capítulo. Aunque no las tengan, hacemos que las imiten. Necesitamos interrelacionarnos, incluso con las cosas. Pero, aunque, en algún momento, fuera factible conseguir que un sistema de Inteligencia Artificial tuviera sentimientos, ¿sería realmente necesario? Desde luego, los sistemas actuales no necesitan tener “emociones propias” para desarrollar sus tareas. Tampoco parece que, para conseguir su finalidad, las necesiten. Sin embargo, en aquellos que interaccionan, en cierta medida, con los humanos (como pudiera ser el agente virtual de Apple, Siri) sí podría aportar un valor que la IA detectara sentimientos en las personas y reaccionara adaptándose a ellas. Ya en 2006, se hizo un plugin para Skype, que fue capaz de detectar mentiras analizando el audio de la voz del usuario [187] . Más reciente, algunas empresas han hecho un sistema de IA que es capaz de leer las emociones en la cara de una persona que está haciendo una entrevista de trabajo, a través de un sistema de videoconferencia [188] . Puede reconocer entusiasmo, aburrimiento, honestidad, entre otros. El argumento que usan es que el sistema es más objetivo y tiene menos sesgos que las personas que hacen las entrevistas. De esta manera, proponen decisiones más justas. Sin embargo, hay otros que opinan que es una grave infracción de la privacidad. Otro uso de reconocimiento de emociones es para la seguridad vial. Hay empresas que 294

están desarrollando sistemas de IA para los coches. De esta manera, dicen poder detectar el estado mental y emocional de los conductores y así prevenir accidentes. De este modo empresas como Affectiva 19 pagan a conductores para que les ayuden a entrenar su sistema de reconocimiento de emociones. Dentro de sus vehículos instalan cámaras y diferentes sensores que recogen los gestos, expresiones faciales y tonos de voz dentro del vehículo. Recopilan los datos, los etiquetan y se aplican técnicas de deep learning . De esta forma, la compañía consigue recopilar gran cantidad de datos sobre las emociones de los conductores. Según ellos, ayudan a identificar patrones, como la ira, detectados por la expresión facial o por el tono elevado, o la felicidad, que se suele reducir únicamente a expresión en el rostro. La pretensión es entrenar al algoritmo de IA para que, mediante esta detección de emociones, “aconseje” a los conductores en momentos de excesiva tensión, desconcentración, o todos aquellos factores que pudieran suponer un riesgo en la carretera.

Robots para combatir la ansiedad y la soledad Uno de los “robots emocionales”, de compañía, más famosos que provienen de Japón es Paro. Esta pequeña foca, con forma de peluche, ofrece asistencia a personas con necesidades especiales, como autistas o mayores. También se está usando en casos de depresión o ansiedad y, en general, en muchas terapias afectivas. Según sus creadores, Paro puede estimular el cerebro humano, sin efectos secundarios.

295

Foca terapéutica Paro. Ilustración realizada por Juan Silva.

Paro es capaz de aprender y de responder a las caricias con movimientos muy reales, produciendo en los usuarios sensaciones y sentimientos de cariño y de compañía. Su eficiencia ya ha sido probada en multitud de casos y ya es habitual en unidades especializadas en pacientes con demencia que, gracias a esta terapia, han logrado reducir la ingestión de fármacos [189] . Sin embargo, eso no significa en ningún caso que la Inteligencia Artificial tenga emociones ni sentimientos, ni que sirva para reemplazar las terapias tradicionales. Pero sí es un buen complemento. Las máquinas no necesitan ser empáticas, aunque sí parece ser útil que, en ciertos casos, lo parezcan. En cualquier caso, para comprender las posibilidades reales de que las “máquinas”, en algún momento, lleguen a tener emociones o sentimientos, es necesario tratar de entender cómo funciona el cerebro humano.

Todo es cuestión de química... ¿o no? Las emociones son una parte muy importante de nuestras vidas. Pero ¿qué es exactamente una emoción? ¿Puede reducirse a una fórmula química? ¿Qué mecanismos se activan en el cerebro cuando sentimos amor, ira, miedo o tristeza? Comencemos por el principio. Según el científico cognitivo Raúl Arrabales, una emoción es un proceso fisiológico que dispara una serie de respuestas en el organismo, con el 296

objetivo de cumplir una función protectora o adaptativa. Puede venir provocada por un estímulo externo, que captamos con nuestros sentidos, o uno interno, como nuestro propio pensamiento. Esto produce cambios no conscientes en el estado somático, que es lo que se conoce como emoción. Cuando la emoción se procesa conscientemente, se produce una evaluación cognitiva, social, contextual y de entorno, que es lo que denominamos sentimiento. Existen dos tipos de emociones: • Primarias o básicas: Aquellas que forman parte de nuestro instinto de supervivencia y nos hacen adaptarnos mejor al medio ambiente. Son manifestaciones corporales y mentales innatas y de corta duración, es decir, normalmente desaparecen cuando el estímulo desaparece. Son universales. El individuo no tiene por qué ser consciente de que las está experimentando: amor, miedo, alegría, tristeza, ira, asco y sorpresa. • Secundarias o aprendidas culturalmente: Pueden estar formadas por una o varias emociones y pensamientos asociados. Son independientes del estímulo que inició la emoción. Los pensamientos pueden aumentarla y mantenerla de manera indefinida. No son universales y sí son conscientes. Están más asociadas a la cultura: inseguridad, vergüenza, ansiedad, esperanza o culpa. En la emoción, se estimula el nervio vago, las glándulas suprarrenales liberan hormonas, como la adrenalina, y la musculatura se tensa. Por ejemplo, cuando los estudiantes se enfrentan a un duro examen, días antes empiezan a segregar adrenalina. Así, durante el examen, se alcanza el punto álgido y se rinde más. Cuando acaba, remite. Asimismo, cuando nos enamoramos, se libera feniletilamina, con los efectos conocidos parecidos a la anfetamina. Según la autora Hellen Fisher, 20 autora del libro Naturaleza y química del amor romántico [190] , este proceso de enamoramiento, en su punto álgido, dura unos 17 meses. Después se pasa a un amor más tranquilo en el que el cerebro libera endorfinas que proporcionan estabilidad y bienestar. En especies de animales, los machos liberan testosterona, que muchas veces fomenta la agresividad. Asimismo, también existe una sustancia que fomenta la monogamia. Es la vasopresina. Si se inhibe de ella, se ha demostrado que un macho normalmente monógamo se vuelve polígamo. En

297

la hembra se produce el mismo efecto, pero con la oxitocina. En la depresión, el causante de la dificultad para percibir como positiva cualquier experiencia es la inactividad de los mecanismos bioquímicos que hacen que una sensación sea agradable. Las respuestas emocionales, asociadas a estas sustancias, son rápidas e impulsivas, con sus consecuencias positivas y negativas, al causar, a veces, conductas inapropiadas. Según los expertos, incluyendo el propio Darwin, las emociones tienen como primera misión proteger a la especie. Si alguien va caminando por el monte y se encuentra a un oso, se pone en marcha un mecanismo para fomentar la huida de manera inmediata. Así los ojos envían información al tálamo y, simultáneamente, da la orden a la amígdala para segregar la adrenalina para echar a correr. Si este proceso no funciona bien, se produce un problema visible en el comportamiento. Un caso que ayudó a entender el funcionamiento del cerebro respecto a la química de las emociones fue el de Phineas Gage [191] . En 1848, a la edad de 25 años, este hombre fue sorprendido por una explosión mientras se encontraba trabajando en la construcción de una vía férrea en Vermont (EE. UU.). Gage se estaba preparando para una explosión, usando un hierro para compactar la carga explosiva en un pozo. Mientras lo hacía, el hierro produjo una chispa que encendió la pólvora. La explosión resultante impulsó el hierro de golpe directo a través de su cabeza. Pero no murió. Consiguió recuperarse en apenas unos días, manteniendo su capacidad para hablar y para aprender. La única diferencia es que no podía controlar sus impulsos emocionales al haber sido lesionada la corteza orbito frontal, una zona del cerebro que comunica el cerebro frontal, en el que tiene lugar la lógica y el razonamiento, con la amígdala, que se encarga de las emociones. La mente de Gage cambió radicalmente, hasta el punto que ni sus familiares ni amigos le reconocían. Se mostraba intransigente, irreverente y grosero hacia cualquiera que se le acercaba, un comportamiento completamente diferente al manifestado con anterioridad a su accidente.

La mujer sin miedo Otro caso curioso es el de la famosa paciente SM, la llamada mujer sin miedo [192] . Conocido como el mal de Urbach-Wiethe, esta enfermedad neurodegenerativa destruyó por completo la amígdala de la mujer (que

298

controla esta respuesta en su forma más primaria), lo cual tuvo consecuencias importantes en su vida cotidiana. La historia ha sido ampliamente estudiada en el ámbito científico, concluyendo que la ausencia de amígdala había sido la causante de que no experimentara ningún sentimiento parecido al miedo. Una muestra más de que, alterando la química, incluso de manera artificial, se puede alterar una emoción, según explica Arrabales, es el estudio que hizo el doctor Gregorio Marañón, que demostró con sus experimentos el “paradigma de la transferencia de la excitación”, que demuestra cómo la emoción es física corporal fisiológica y que, en segundo lugar, en nivel superior, da lugar al sentimiento. “Seleccionaba dos grupos de sujetos, a unos les inyectaba adrenalina y a otros no, es decir, les ponía nerviosos mediante un agente químico. Les situaba en una misma situación en una sala de espera y les vigilaba. A los que les había inyectado, le reportaban que estaban muy enfadados. Mientras que los otros, no. Y es que, a nivel consciente, la corteza interpreta el factor de activación fisiológica como un sentimiento. El sentimiento, por tanto, es la interpretación consciente de la emoción corporal”, explica el científico. Una de las formas en las que los científicos estudian las emociones humanas es a través de los cambios no conscientes y no controlables que se generan en el cuerpo humano. Sin embargo, aunque ha habido muchos avances al respecto, aún no es posible identificar patrones claros específicos para cada emoción. Hay veces en que las respuestas varían entre los sujetos estudiados. Además, el cerebro va cambiando y evolucionando con el tiempo, lo cual afecta también al establecimiento de patrones. Esto hace muy difícil que lleguemos a crear un algoritmo que sea capaz de imitar las emociones humanas con eficiencia. Pero veamos las posibilidades reales de intentar, al menos, aproximarnos.

Sentimientos artificiales Según explica el doctor Juan José Escribano, investigador en aplicación de la IA para el aprendizaje experiencial y su transformación digital, en la Universidad Europea de Madrid, para intentar conseguirlo hoy día se utilizan estímulos de calibración. Es decir, se entrena al algoritmo con muchas imágenes que producen una determinada emoción en una persona. Después, 299

el programa informático desarrolla un modelo que analiza cómo reacciona el cerebro de esa persona específica, con ese estímulo concreto, y crea un modelo de comportamiento cerebral. Este modelo se usará con el objetivo de saber si la imagen que ve una persona le provoca una emoción positiva o negativa. De esta manera, el algoritmo de IA “reconoce” los sentimientos o, al menos, el efecto de ese sentimiento en el cerebro de la persona, y toma una decisión respecto a cómo actuar el mismo para replicarlo. Así, el algoritmo no tiene ese sentimiento, pero reacciona como si lo tuviera. Lo simula. Según Escribano, la dificultad, en el futuro cercano, no es simular los sentidos que nos dan información del exterior y que provocan sentimientos o emociones. La simulación de “datos de entrada” al cerebro, desde sentidos como la vista y el oído, está bastante avanzado ya. El olfato y el gusto, lo que el premio nobel de medicina de 1932, Charles S. Sherrington (1857-1652) [193] , identificó como quimiorecepción [194] (datos de entrada recogido por sensores químicos), todavía está poco explorado, pero hay avances prometedores en este sentido. Así, investigadores de Google, junto con los del Instituto Canadiense de Investigación Avanzada, el Instituto de Vector de IA, la Universidad de Toronto (Canadá) y la de Arizona (Estados Unidos), consiguieron desarrollar un modelo de IA capaz de identificar olores, a partir de la identificación de la estructura de las moléculas. Lo que hicieron fue utilizar una base de datos de más de 5.000 moléculas de olores y perfumes, acompañadas de su estructura molecular y valores de olor (afrutado, chocolate, cítrico, dulce, vainilla...). Con estos datos, la red neuronal gráfica de Google fue capaz de predecir un olor en función de la estructura molecular [195] . Lo que es aún complicado, y por lo tanto nos cuesta programar, según Escribano, es generar o simular emociones procedentes de las “interocepciones”, siguiendo la terminología acuñada por el propio Sherrington, es decir, emociones que provienen total o parcialmente del interior del cuerpo. El experto señala que, probablemente, la dificultad radica en la poca autoconsciencia sobre el propio cuerpo que tienen los desarrollos de IA. En muchos casos, es porque no tienen cuerpo realmente y, en los desarrollos con un cuerpo robótico, porque no tienen sensores que les informen sobre ese interior, salvo mecanismo de control para detección de

300

fallos. Así, emociones como el amor o los celos resultan difíciles de simular y, por supuesto, mucho más difíciles de producir en una IA. En cualquier caso, lo que la mayoría de los expertos coinciden en señalar es que si, en algún momento del futuro, conseguimos replicar en un algoritmo el modo en que el cerebro genera las emociones, es muy complicado que pueda llegar a sentirlas o a desarrollar una “inteligencia emocional”, debido a que las emociones humanas dependen tanto de la percepción que tenemos del exterior, como de nuestro interior. Y la máquina tiene una “realidad” muy diferente. Los estímulos le llegan a través de sus sensores externos: audio, vídeo, infrarrojos, y no tienen sensores internos, por lo que no podrían generar emociones que provinieran de la introspección, como el amor o los celos. Para el científico cognitivo y doctor en Inteligencia Artificial Raúl Arrabales, sería poco útil intentar dotar a la IA de consciencia para las tareas que se quieran automatizar. No es necesario. Solo habría unos determinados casos en los que sí podría serlo, que serían en los que se necesita que el algoritmo realice una tarea que requiera esa funcionalidad para poder realizarlas. Es decir, si queremos construir un robot para soldar coches, no sería necesario. “En el caso de los humanos, las emociones aparecieron como un fenómeno que ayudaba a los seres sociales a modelarse a sí mismo y a los demás. A crear un ‘yo’ y un ‘nosotros’, y a percibirnos como individuos. En esta línea sí es útil tener autoconsciencia. Así, en el sistema biológico, a nivel evolutivo, tiene bastante sentido que aparezca este fenómeno porque es una ventaja clara para la consideración del ‘Yo’, ‘otros’ y el concepto de ‘comunidad’. La idea de los robots sociales es que desplieguen una conducta que emule expresión y comprensión de las emociones para facilitar la interacción social con los humanos”, explica el científico. Por ejemplo, en las personas autistas, les falla la expresión de las emociones y, por este motivo, tienen problemas de integración social. “Nadie quiere construir un robot social que sea autista”, considera Arrabales. “Aquí se ve claro la necesidad de que el robot social al menos imite las emociones, que es lo que hacen las personas con un autismo severo pero con buena función cognitiva. Aprenden a imitar, aunque no lo sientan. Aprenden fórmulas. Por ejemplo, saben que tienen que decir: ‘por favor’ y ‘gracias’ o que tienen que preguntar a otras personas qué tal están, por educación. Es decir, les das herramientas para socializar, sin tenerlas inherentes”, afirma. 301

“A los niños, el entrenamiento en la vida social también les es muy útil. Les hace aprender fórmulas y luego, cuando van al patio del colegio, las usan y les funciona. De esta manera, a un algoritmo de IA también se le puede entrenar para que imite estas reglas sociales”.

302

303

304

305

¿Y la consciencia? Otra de las cuestiones, que pueden considerarse o no filosóficas, es la relativa a la consciencia. La consciencia se define como un estado de la mente que nos permite darnos cuenta de nuestra propia existencia, de la del resto del mundo y de las cosas que pasan; es algo muy similar, pues no es otra cosa que el inteligible resultado del procesamiento de información que tiene lugar en el interior del cerebro. “Es algo así como una pantalla mental donde el cerebro presenta continuamente la información que necesitamos conocer en cada momento para guiar el comportamiento”, define el científico cognitivo Raúl Arrabales. Sin embargo, según afirma él, “esto no significa que todo lo que procesa el cerebro acabe produciendo un resultado consciente, pues hay mucho trabajo cerebral del que nunca nos enteramos”. Entonces, ¿podría llegar una Inteligencia Artificial a ser consciente de sus actos?, ¿del impacto de sus decisiones? ¿Quizá, de esta forma, se acercaría más a lo que se considera justo o no en una sociedad o, por el contrario, el ser consciente le supondría asumir una autonomía potencialmente dañina para los humanos en ciertos casos? En relación a esto, cabe plantearse dos preguntas: ¿sería posible conseguir esto con la técnica? Y, en segundo lugar, ¿deberíamos perseguir la investigación en este campo, hasta intentar conseguirlo? [196] En la actualidad, ya se está usando IA en cuerpos robóticos para explorar los misterios de la consciencia. Por ejemplo, a Nico [197] , un robot de investigación en la Universidad de Yale, se le ha enseñado a reconocer su propia pata en un espejo, algo muy difícil de hacer incluso para muchos animales. Nico registra el movimiento de su brazo en su campo visual y aprende cómo es la estructura del mismo, cómo se mueve a través del espacio y la relación entre el brazo y su campo visual. El siguiente paso es conseguir enseñar al algoritmo a adquirir un conocimiento más completo de sí mismo, que incluya su propia estructura en 3D. Así, su creador, Justin Hart, tiene como objetivo que llegue a reconocerse el cuerpo completo, de manera que pueda llegar a pasar el “test del espejo” [198] de Gordon Gallup, 21 que le acreditaría como “ser autoconsciente”.

306

Otra técnica que se suele usar para medir la consciencia es la llamada “prueba del rompecabezas de los sabios” (wise-men puzzle ). La primera vez que se pasó fue en un laboratorio de robótica en Nueva York (EE. UU.), en 2015 [199] . Allí, tres pequeños robots humanoides NAO tuvieron que resolver un enigma que consistía en hacerles “creer” a dos de los tres robots que habían tomado una pastilla que les dejaba sin habla. En realidad, simplemente se había pulsado en dos de ellos un botón para silenciarlos y tenían que averiguar cuál sí podía hablar.

Robots Nao. Fotografía cedida por Juguetrónica.

Al ser preguntados, los tres intentaron decir: “No sé”, pero solo uno de ellos consiguió hacer ruido. Al escuchar su propia voz, “comprendió” que no había sido él el silenciado y respondió: “Lo siento. Lo sé ahora. Puedo demostrar que no me dieron la pastilla que deja sin habla”. A continuación, escribió una prueba matemática formal y la guardó en su memoria para demostrar que lo había entendido. Aunque parece una prueba simple, sirvió para demostrar que los robots pueden abordar acertijos lógicos que requieren un elemento de autoconciencia, un paso importante hacia la construcción de máquinas que entiendan su lugar en el mundo.

307

QUÉ PASARÍA SÍ... Como hemos visto en este capítulo, la humanidad ha soñado desde que somos capaces de recordar, y recoger en nuestros escritos, con la creación de seres artificiales, similares en capacidades a las personas. Lo único que nos ha limitado ha sido la evolución natural de la técnica y también de nuestro propio cerebro humano. Ahora, en este momento de la Historia, se unen todos los elementos, o al menos buena parte de ellos, que permiten aterrizar estas ensoñaciones, hasta hace poco solo visibles en la ciencia ficción. ¿Lo haremos? ¿Conseguirá la ética y el sentido de la responsabilidad humano frenar nuestros propósitos? ¿Es realmente necesario dotar de cualidades humanas, como los sentimientos, a las máquinas? —Propongo construir un niño robot que pueda amar. Un niño robot que ame auténticamente a los padres que le programemos con un amor que nunca acabe. —¿Un meca sustituto de niño? —Pero un meca con cerebro con retroalimentación neuronal. Lo que sugiero es que el amor será la clave para que adquieran un subconsciente nunca antes logrado. Un mundo interno de metáfora de intuición, de razón automotivada.

—Escena de la película AI Inteligencia Artificial (2001). Cuando el director de la empresa Cybertronics realiza esta propuesta a sus empleados, en la película de Steven Spielberg IA, Inteligencia Arti cial , se produce una reacción de asombro y estupefacción. Pero también se plantean cuestiones importantes que quizá tendremos que plantearnos en el mundo real en un futuro cercano: —Se me ocurre que, con toda la animosidad que existe hoy en día contra los meca, no es simplemente cuestión de crear un robot que pueda amar. ¿El verdadero acertijo no es cómo hacer que un humano corresponda a su amor?

308

—Si un robot pudiera amar de verdad a una persona, ¿qué responsabilidad tendrá la persona hacia ese meca a cambio? —Es una pregunta moral, ¿verdad? —La más vieja de todas. Pero al principio, ¿no creó Dios a Adán para amarlo a Él?

—Escena de la película AI Inteligencia Artificial (2001). Según Esteban García-Cuesta, profesor y experto en computación afectiva, la empatía será el próximo gran reto para que los sistemas inteligentes artificiales puedan coexistir con nosotros y, por tanto, es previsible un aumento en la investigación y el desarrollo de la IA en este campo. Además, comenta que, según se dote de funcionalidades más humanas a las máquinas, también estamos fomentando su capacidad de interacción. En este caso, ya no solamente deberíamos tener en cuenta lo que recibimos de los “robots”, sino lo que ellos reciben y aprenden de nosotros. En este sentido, García-Cuesta considera que una de las habilidades que más se debe potenciar en los sistemas de IA es la empatía, ya que normalmente es lo que nos hace relacionarnos con nuestros semejantes. “Si conseguimos que las máquinas tengan una empatía artificial, será mejor la relación entre humanos y estos sistemas inteligentes, y también mayor su aceptación social. El objetivo es que los sistemas inteligentes artificiales se integren en nuestra sociedad como un elemento más, que nos complementen en nuestra actividad diaria al igual que sucede con un coche. Será un sistema mecánico más, aunque con mayor complejidad y funcionalidad”, comenta. Sin embargo, también puede haber desventajas asociadas. García-Cuesta señala: “Si se logra en el futuro una perfección suficiente a nivel emocional, habrá cambios importantes a nivel sociológico e influirán de manera incierta en nuestras decisiones individuales y sociales. También surgirán grupos de resistencia y, por ello, es vital crear entornos seguros y de confianza a nivel tecnológico y ético” [200] . Asimismo, para el científico cognitivo Raúl Arrabales, en los próximos años, las máquinas empezarán a tomar roles de interacción social: de cuidado de las personas, de atención... “En el futuro más próximo no creo que vaya a haber unas máquinas muy perfectas que sean indistinguibles en sus funciones del ser humano a nivel social, pero sí que habrá máquinas que lo hagan suficientemente bien como para que, con

309

ayuda de una adaptación por parte del humano, se integren en la sociedad. Asimismo, nosotros nos deberemos educar a hablar e interactuar con las máquinas”, señala Arrabales. En cualquier caso, lleguen las máquinas a tener sentimientos o no, mayor o menor grado de autonomía o una interacción real o no con las personas, sí que hay bastante consenso al señalar que harán falta unas normas de convivencia humanos-IA, una nueva legislación y una ética específica que vele por el buen funcionamiento de esta sociedad híbrida de un futuro cada vez menos lejano.

310

311

312

313

16 . Antes de los "emoticonos", existieron los llamados smileys . Los más básicos (tristes :-( y alegres :-)) fueron inventados en 1982 por Scott Fahman de la Carnegie Mellon University Pensilvania (EE. UU.). Él y sus compañeros científicos chateaban mucho en los grupos de noticias de Usenet y necesitaban una manera de diferenciar las bromas y el sarcasmo de las conversaciones serias [165] . 17 . Definiciones de la Real Academia Española (RAE). Accesible en: https://www.rae.es/ . 18 . Obvious Art: https://obvious-art.com/ . 19 . Affectiva: www.affectiva.com . 20 . La estadounidense Helen Elizabeth Fisher es antropóloga, bióloga y profesora de la Universidad Rutgers (New Jersey, EE. UU.). Es una referencia internacional en cuanto al estudio del comportamiento humano desde un punto de vista científico, específicamente del amor romántico. 21 . El "test del espejo", a veces llamado "test de marca", es una técnica desarrollada en 1970 por el psicólogo Gordon Gallup Jr. como un intento de determinar si un animal posee capacidad de autorreconocimiento visual. Esta prueba es el método tradicional para intentar medir la autoconciencia.

314

315

316

La única posibilidad de descubrir los límites de lo posible es aventurarse un poco más allá de ellos, hacia lo imposible.

—Arthur C. Clarke Los antiguos griegos forjaron su civilización sobre la base de su mitología. Los llamados “Doce Olímpicos” eran dioses que sentían y se comportaban como los humanos, según el libro de Homero de la Ilíada . Sin embargo, no lo eran. Gozaban de inmortalidad, más fuerza y más inteligencia. Solo así podrían protegerles de las distintas vicisitudes que debían afrontar en la Tierra. Desde lo alto, desde el monte Olimpo, Zeus y su séquito permanecían vigilantes y, con sus abundantes mitos, hacían sentir su omnipresencia ante sus leales creyentes. Los sueños mitológicos perviven de alguna manera. Sin duda, han influido en nuestra manera de pensar a lo largo de la Historia. Pero son sueños, pura irrealidad. Sin embargo, la muy remota posibilidad de que seres superiores, no humanos, nos lleguen a dominar y quedemos bajo su libre albedrío llega a producir un temor real. En los últimos años, se han levantado muchas voces de expertos advirtiendo sobre el peligro de una Inteligencia Artificial evolucionada hasta alcanzar un estado de IA general y, después, la de singularidad tecnológica. Sería entonces cuando las máquinas superarían al ser humano en todos los ámbitos de su inteligencia, incluso podrían replicarse y mejorarse a sí mismas. El hombre quedaría finalmente en inferioridad de condiciones. ¿Cuánto hay de posible en este nuevo y ciertamente desconcertante mito? Analicemos.

317

HAL 9000 TOMA EL CONTROL Algunos de los elementos que más han contribuido a crear en nuestras mentes estas escenas apocalípticas entre humanos y robots provienen, como hemos visto anteriormente, de la ciencia ficción. En 2001, odisea en el espacio (1968), la computadora HAL (Heuristically Programmed ALgorithmic Computer ) demuestra tener consciencia e intenta evitar que le apaguen, matando a varios miembros de la tripulación. Mientras, en Terminator (1984), un cíborg asesino es más fuerte e inteligente que un humano y, a su vez, está controlado por Skynet, una red neuronal con superinteligencia y conciencia que se resiste cuando los humanos intentan apagarla. The Matrix (1999) también nos transporta a un escenario distópico desconcertante. En esta película, en una clara alusión al libro de Alicia en el País de las Maravillas , el protagonista Neo sigue al conejo blanco hacia un mundo irreal dominado por la Inteligencia Artificial. Allí se encuentra a Morfeo quien le ofrece dos pastillas, una azul (la del conformismo y la ignorancia) y una roja, que le enseñará la cruda realidad: un mundo devastado por las máquinas, que utiliza a los seres humanos como generadores de energía. Para ello utilizan sus mentes alimentándolas con una simulación de la realidad.

318

Composición realizada por Juan Silva.

Principales preocupaciones Si nos imaginamos un mundo donde la singularidad ha llegado, hay dos escenarios que nos pueden preocupar: • Que las máquinas nos quieran hacer daño, que abusen de nosotros, es decir, que seamos sus enemigos. •

Que, dada nuestra supuesta “inferioridad”, no importemos a las máquinas. Que les seamos indiferentes, siempre que no las molestemos.

Esto último se puede comparar, en cierta medida, con cómo la mayoría de las personas tratamos a algunos animales, por ejemplo, las hormigas. Las pisas sin darte cuenta, sin advertir, la mayoría de las veces, su presencia. Conviven sin molestar. No entendemos sus razonamientos ni ellas, probablemente, los nuestros. Es obvio que, si las máquinas llegaran a 319

tratarnos de esta forma, nuestra existencia sería bastante intranquila. También podríamos acabar siendo un mero recurso para las máquinas, como una fuente de energía. En este caso, las máquinas no nos odian, pero nos ven como un recurso a explotar, parecido a la forma en la que nosotros ahora explotamos a algunos animales. Como hemos visto, este es el escenario de la película The Matrix . El filósofo sueco Nick Bostrom, en su libro Superintelligence [201] , describe un ejemplo algo menos dramático. Un sistema de IA general tiene, como objetivo, tener el máximo número de clips (paperclips ) posibles, un objetivo que, aparentemente, no tiene nada malo. El sistema empieza a comprar y coleccionar clips. Con respecto a su objetivo, se puede autoentrenar para ser aún más inteligente y puede empezar a construir clips de hilo de hierro. Cuando ya no puede encontrar este hilo, podría construir fábricas para producir hilo a partir de metales. Y, cuando ya no quedan metales, se transforma, con autoaprendizaje, para buscar otros materiales que podrían formar la base para construir más clips. Está claro a dónde conduce esto: optimizando su único objetivo, podría “robar” recursos esenciales a los humanos, incluso considerar a estos como recurso. La moraleja del cuento es que, aunque un sistema superinteligente no tiene objetivos explícitos contra los humanos, como efecto secundario podría destruir a la humanidad. La otra preocupación es que las máquinas nos vean como sus enemigos. En este caso, tendrían como objetivo destruir a la humanidad o usarnos como recursos baratos y esclavos. Esto generaría dos mundos distintos: uno de lujo, donde vivirían las máquinas y algunos humanos como sus sirvientes; y otro más precario, donde habitaría el resto de las personas, sobreviviendo y trabajando para el bien de las máquinas.

AUTONOMÍA CONTROLADA Para evaluar si es posible llegar a esta “singularidad”, analicemos algunos de los componentes necesarios y recapitulemos sobre dónde estamos actualmente con este proceso evolutivo de la Inteligencia Artificial.

320

Algunas de las primeras preguntas que nos podríamos hacer serían: ¿cómo vamos a saber si una máquina tiene inteligencia general, es decir, una inteligencia parecida a la nuestra? ¿Cómo reconocemos o medimos esta inteligencia? En el capítulo anterior, ya explicamos el llamado Turing Test o “Juego de imitación” de Alan Turing. Según este, se considera “inteligente” a un software cuando, en interacción con un humano, no somos capaces de distinguir entre las respuestas de la máquina y la persona. La prueba original de Turing no especifica ni el objeto de la conversación ni la duración de la prueba. Por lo tanto, para pasar la prueba de verdad, la máquina debería poder responder a cualquier tipo de pregunta sobre cualquier asunto, igual que lo hacemos los humanos. En este sentido, ningún programa de IA ha superado la prueba. Pero, en dominios muy concretos y limitados, como hemos visto con Google Duplex, para reservar mesa en un restaurante o una cita con la peluquería, la máquina supera la prueba con creces. Si aceptamos la prueba de Turing como una manera de medir “inteligencia”, debemos de ser conscientes de que nos fijamos en el resultado o el “comportamiento” de una máquina, no tanto en el proceso. Ya, en 1966, se creó el programa ELIZA [202] , un sistema de IA que simulaba un psicólogo de la escuela Roger (parecido a lo que hoy es un coach personal). La gente tenía conversaciones con ELIZA sobre problemas personales. ELIZA te escuchaba, te preguntaba más y, al final, hacía que tú mismo te dieras cuenta de la solución. Aunque hoy día pocas personas se dejarían “engañar” por ELIZA pensando que es una persona, en su día consiguió confundir a varias sobre su verdadera naturaleza. ¿Se puede decir que ELIZA pasara la prueba de Turing? Puedes hacer tu propia sesión con ELIZA en español en [203] , y en inglés en [204] . Si valoramos el resultado de ELIZA, es decir, el comportamiento del sistema, quizás tenemos que concluir que tiene una cierta inteligencia, ya que ha convencido a algunas personas. Durante mi carrera en la universidad, programé varias versiones de ELIZA. Sé cómo funciona por dentro y no tiene ninguna inteligencia. ELIZA es un conjunto de reglas tipo SI [palabra clave] ENTONCES [respuesta], que reconocen patrones simples y palabras claves como “madre” y tiene a su disposición un conjunto de respuestas alternativas y elige aleatoriamente una de las respuestas. Por 321

ejemplo, una regla podría ser: “Tengo problemas con X” ENTONCES [“Cuéntame más de X”, “¿Qué ha pasado con X?”]. En este caso, es fácil de decir que ELIZA no es inteligente.

—Richard Benjamins

El caso de Google Duplex Google Duplex es capaz de mantener una conversación en lenguaje natural, el de los humanos, para reservar una mesa en un restaurante. Si nos fijamos solo en el resultado, la conclusión es que sí tiene inteligencia. Pero, si nos fijamos en cómo funciona por dentro, queda menos claro. Como hemos visto en este libro, Duplex se basa en aprendizaje automático supervisado, es decir, ha sido entrenado con muchas conversaciones para hacer reservas. Si escucha una frase, predice qué tiene que venir después. Duplex no sabe qué es un restaurante ni qué es una mesa. No “sabe” que un restaurante es un lugar donde se come y que es un acto social. Simplemente produce unas palabras que, estadísticamente, siguen a otras palabras. ¿Es esto inteligencia? Si solo consideramos el resultado, sí. Si consideramos el proceso, ya queda menos claro. Pero, si nos damos cuenta de que el programa no tiene ni idea de que está hablando, nos inclinamos a decir que no. La cuestión de evaluar si una máquina es inteligente o no se complica también por una característica humana que el filósofo Daniel Dennett ha llamado la intentional stance [186] . Esto se puede definir como la tendencia de las personas para atribuir características mentales a ciertos comportamientos de artefactos, aunque sepamos que no son mentales. Por ejemplo, solemos decir que nuestro ordenador está “pensando” cuando tarda un poco en reaccionar, o cuando decimos de un robot que es muy “mono” porque nos presta atención. Y, si conversamos con Google Duplex, es fácil que atribuyamos características humanas a la voz. En este libro, hemos visto que la Inteligencia Artificial de hoy es una IA “estrecha”, que puede hacer una tarea muy concreta, con un excelente resultado, pero que no tiene consciencia de la tarea que está ejecutando. Por eso aún estamos muy lejos de una Inteligencia Artificial general, como la que tenemos las personas. 322

También hemos comentado con anterioridad que, para progresar de la IA estrecha hacia una IA general, son necesarios varios avances importantes. A este respecto se plantean grandes preguntas. ¿Cómo programar o enseñar sentido común a una máquina? ¿Qué debemos hacer para que una máquina domine la causalidad? ¿Cómo podría llegar a hacer la máquina inferencias lógicas sobre cualquier tipo de situaciones, algunas de las cuales no han visto nunca? ¿Es necesario la autoconsciencia para la Inteligencia Artificial general? En su libro Rebooting AI , los autores Gary Marcus y Ernest Davis explican, de una manera sencilla, cómo la aproximación mediante técnicas de deep learning (aprendizaje profundo) no es suficiente para alcanzar todos estos avances importantes. Además, ofrecen pistas de qué más sería necesario [205] . En resumen, parece que el reto es imitar el proceso de aprendizaje que experimenta un bebé durante sus primeros años de vida. Nace no sabiendo nada y, después de unos años, entiende causalidad, tiene autoconsciencia, sabe razonar y desarrolla su sentido común. En opinión de los autores de este libro, para lograr ese progreso hacia una IA general es necesario una aproximación híbrida, donde se combinan varios tipos de Inteligencia Artificial, de los cuales es posible que algunos sean aún desconocidos. Miremos un momento a un ejemplo que actualmente es lo mejor en IA relacionado con texto: GPT-2, un sistema de aprendizaje profundo que ha sido entrenado con el texto de 45 millones de páginas web y usa unos 1.500 millones de parámetros. Este sistema es capaz de generar texto coherente a partir de unas frases escritas por personas. Es decir, cuando nosotros leemos el texto generado por GPT-2, tiene sentido. Aunque no es perfecto, acierta en más de la mitad de los casos. Algunos investigadores que hicieron pruebas con GPT-2 advirtieron que, gracias a esta técnica, era posible automatizar la creación de noticias falsas [206] . Esto llevó a su creador, Open AI, una empresa respaldada por Elon Musk y con una inversión de Microsoft de 1.000 millones de dólares, a restringir el programa por los peligros que pudiera causar [206] . GPT-2 representa las palabras y el orden en que pueden aparecer como vectores. Cuando tiene que completar frases donde faltan algunas palabras, simplemente mira qué vectores son similares e inserta las palabras correspondientes. Por ejemplo: [Persona:] Me crie en Italia y hablo [GPT-2:] italiano y puedo usar el italiano en todas mis notas [207] . 323

En este caso, lo que ha completado GPT-2 tiene todo el sentido del mundo. Pero también hay muchas ocasiones en las que lo que produce no tiene sentido. El científico Gary Marcus observó [207] que GPT-2 no entiende de lugares, causalidad, no hace razonamiento lógico y no sabe de números: [Persona:] A es mayor que B. B es mayor que C. Entonces A es mayor que [GPT-2:] B. [Persona:] Tengo cuatro platos y pongo en cada uno una galleta. El número total de galletas es [GPT-2:] 24,5 como topping y dos como llenado. La pregunta importante es si estos vectores representan algo de la semántica de las palabras en conjunto o si un vector es meramente una representación estadística. Esto es, más bien, una pregunta filosófica porque aún no sabemos cómo nosotros, los humanos, representamos la semántica de las palabras y frases en nuestro cerebro.

324

325

326

327

LA GRAN ENCRUCIJADA ¿Qué es entonces ciencia, ficción y opinión con respecto a la singularidad? Lo primero es que hay consenso en el mundo científico de que la IA de hoy no es una inteligencia digna para ser comparada con la inteligencia humana a iguales. Esta pretendemos que sea una de las ideas principales de este libro. La IA de hoy, nos estamos refiriendo al aprendizaje profundo, sabe resolver problemas muy complejos, pero solo problemas muy concretos con abundancia de datos para el entrenamiento. Además, hemos visto que esta IA no tiene conocimiento explícito del dominio donde está actuando; no tiene metaconocimiento ni un modelo causal que explica el por qué ha llegado a sus conclusiones. Como mucho, puede llegar a una explicación correlacional. Otra cosa que sabemos es que aún quedan muchos pasos que dar hasta que lleguemos a la IA general, en el futuro. Sabemos también que esta última requiere algo como el sentido común, capacidad de inferencia lógica y entender relaciones causales. Hasta aquí es “ciencia”. Pero no sabemos si, para llegar a esto, el paradigma del aprendizaje profundo es suficiente o si son necesarios avances significativos adicionales en la Inteligencia Artificial. La verdadera pregunta es cómo los humanos conseguimos pensar en conceptos abstractos, cómo entendemos causalidad, cómo funciona el sentido común y cómo conseguimos hacer inferencias lógicas, si todo lo que tenemos es un cerebro complejo con miles de millones de células y conexiones. Además, otra de las preguntas sería si es necesaria la autoconsciencia para llegar a una inteligencia general. Tampoco hay consenso sobre si la conciencia es un requisito necesario para llegar a una IA general. Quizás la conciencia nos da la moralidad: a primera vista, parece que no es necesaria para exhibir un comportamiento lógico (ponerse metas y actuar en consecuencia), pero sí para distinguir entre lo bueno y lo malo, entre las metas malas y las metas buenas. Aunque bien argumentadas, todo esto siguen siendo opiniones. En su libro Architects of Intelligence , Martin Ford [134] preguntó a más de veinte expertos reconocidos internacionalmente cuándo creían que llegaría la IA general. Las respuestas oscilaron entre 10 años y 180 años, y la media era 80 años, es decir, en 2099. El experto más optimista era Ray Kurzweil que 328

hablaba del año 2029 y el más pesimista Rodney Brooks, que abogó por el año 2200. Si los más distinguidos expertos no están de acuerdo, está claro que estamos hablando de opiniones. En España, el experto en IA Ramón López de Mántaras afirma que la singularidad aún está muy lejos y quizás es imposible de alcanzar.

¿Sería realmente posible la singularidad tecnológica? Paremos un momento en la pregunta si la Inteligencia Artificial general siquiera es posible. Con todas nuestras limitaciones, somos capaces de hacer, sentir, pensar una gran cantidad de cosas impresionantes. Además, somos conscientes de ellas y podemos razonar sobre esta consciencia. ¿Cómo podrían las máquinas conseguir lo mismo, aunque fuera con nuestra ayuda? Efectivamente, es muy difícil imaginar que algo inerte pudiera alcanzar esta sofisticación que hemos alcanzado los humanos. Pero ¿sabemos cómo hemos alcanzado los humanos todas estas características maravillosas? Sabemos dónde empezó todo: con LUCA, el último ancestro común universal por sus siglas en inglés [212] . LUCA es el último organismo que tiene en común toda la vida en nuestro planeta y vivió hacía unos 3.500 millones de años. A partir de ahí, la teoría de evolución de Darwin es el mecanismo que nos ha llevado hasta donde estamos. Desde LUCA, hemos “sufrido” mutaciones aleatorias durante miles de millones de años, que al final nos ha llevado a lo que somos actualmente. Nuestra consciencia, el sentido común, nuestro pensamiento lógico, nuestras emociones, la capacidad de empatía, de enfadarnos, reírnos, etc., ¿todo esto viene de un simple organismo que llamamos LUCA? Es difícil de creer, ¿verdad? Pero, según la teoría científica, es el caso. Los humanos actuales venimos de los neandertales, que vinieron de los monos, que vinieron de... y así en adelante.

329

La vida en la Tierra comenzó hace 3.900 millones de años. Composición realizada por Juan Silva.

330

331

332

333

Entonces, si gracias a la evolución ha sido posible la creación de todas estas capacidades maravillosas, ¿no podría existir otro camino para llegar a esto mismo? Teniendo en cuenta la teoría de la evolución, no podemos decir que la Inteligencia Artificial general sea posible, ¿pero quizás sí podemos decir que no es imposible? El filósofo Daniel Dennett esgrime un argumento muy largo y convincente a este respecto en su libro From bacteria to Bach and back [213] . En vez de tardar miles de millones de años para llegar al humano actual, a través de un proceso aleatorio con ciclos largos (nuestras generaciones), ¿no se podría hacer más rápido a través de un proceso dirigido y diseñado con ciclos muy cortos? Esto, queridos lectores humanos, nadie puede saberlo, aunque casi todos tenemos una opinión bastante consistente al respecto. El científico Christoph Koch, jefe científico del Allen Institute en Seattle y uno de los más reconocidos científicos en temas relativos a la conciencia, sí cree que las máquinas podrían llegar a tenerla en el futuro. Según él, la consciencia siempre sobreviene de algo físico, pero requiere de un hardware específico para que pueda ocurrir. No se sabe aún qué tipo de hardware es, pero quizás podría estar hecho de un material, como la silicona. Obviamente, aquí estamos hablando de una opinión, no de una certeza científica [214] .

EL FUTURO DE LA HUMANIDAD Llegados a este punto, merece la pena aventurarse una última vez y opinar sobre qué nos deparará el futuro desde la perspectiva de los principales elementos característicos de la Inteligencia Artificial y de otras tecnologías relevantes.

Las decisiones autónomas Los dos grandes temas tecnológicos para la toma de decisiones autónomas son los sesgos, con su posible discriminación no deseada, y la explicabilidad de los algoritmos de caja negra. Actualmente, estas dos áreas cuentan con una intensa actividad de investigación y muy probablemente, en unos cinco años, el problema técnico estará resuelto. Seremos capaces de

334

abrir los algoritmos de caja negra para que se pueda entender cómo funcionan y cómo llegan a conclusiones específicas. También será posible evitar la discriminación contra grupos vulnerables, incluso si no hay datos disponibles al respecto en el conjunto de datos con que el algoritmo trabaja. Aunque actualmente la Inteligencia Artificial no cuenta con una regulación horizontal, hay mucha discusión al respecto, en los gobiernos nacionales y en la Comisión Europea, sobre si es necesario o no. Ya existe legislación que prohíbe la discriminación de grupos vulnerables, la discriminación contra la raza, la convicción religiosa, etc. También existe el derecho a reclamar si un ciudadano no está de acuerdo con una decisión que le afecta, como el rechazo de una prestación social. Y la GDPR europea protege la privacidad de datos personales. La pregunta es si, con la Inteligencia Artificial, se ha vuelto imposible ejercer y controlar estas legislaciones. Tanto las empresas y las administraciones públicas que usan IA, como los reguladores y los jueces que tienen que verificar su buen uso, tienen dificultades en conseguirlo. Esto es, por un lado, debido a que se trata de una tecnología nueva que no controlan y, por otro, porque permite automatizar las decisiones a una escala que antes no se hacía. Actualmente, los candidatos para ser regulados, en el campo de la AI, son las decisiones autónomas y el reconocimiento facial en sectores y aplicaciones considerados como alto riesgo, como defensa, transporte y salud. Dado el vacío en la legislación y la preocupación social, varias empresas y organizaciones han definido sus principios de IA en un intento de autorregulación [215] . Pero, de vez en cuando, surgen dudas sobre la intención de estas iniciativas y se habla de ethics washing (lavado de ética). Ocurre cuando una empresa anuncia públicamente que da mucha importancia a la privacidad o la discriminación con algoritmos pero, en la práctica, está vulnerando estos principios [216] . En nuestra opinión, no se puede generalizar y habrá un poco de todo. Podemos visualizar esto como un continuo de intenciones respecto a la consideración ética de la IA que va desde la consideración nula (organizaciones criminales) hasta el cumplimiento total de las directrices internacionales a este respecto (ONG con solo buenas intenciones): • Hacer el mal con IA (ver capítulo 3).

335



Usar la IA para el negocio y considerar los impactos no éticos como daño colateral.



Usar la IA para el negocio e intentar evitar todos los impactos no éticos (ver capítulo 1).



Usar la IA para el negocio y, cuando se detectan impactos no éticos, decidir no usarla.

• Usar la IA para el bien social. El tiempo nos dirá en qué dirección se desarrollará esta tendencia y cuál será el impacto de una posible regulación.

La privacidad En el mundo digital, la privacidad de nuestros datos está siendo continuamente cuestionada. La manera más eficaz de resolver este problema sería quedándonos fuera del mundo digital. Pero, hoy en día, esto no es opción si queremos aprovechar todas las oportunidades. Es verdad que necesitamos empresas y administraciones públicas que traten nuestros datos con responsabilidad, igual que ahora trabajan en una cadena de suministro justa, en la diversidad y en “ser más verde”. Ya existe una legislación en Europa al respecto. Sin embargo, aún queda mucho que mejorar en lo relativo a la Inteligencia Artificial y el Big Data para que podamos llegar a sacar todo su potencial. De esto, podría ser considerado “no ético” el hecho de no usar estas tecnologías para resolver los grandes problemas del planeta y la humanidad como el cambio climático o pandemias. Hablamos de los Objetivos de Desarrollo Sostenibles para el año 2030, como hemos visto con anterioridad. Actualmente, existe una preocupación, y con razón, por la privacidad de los datos, que ha llevado a una falta de confianza. Es esta falta de confianza la que limita las posibilidades. Incluso si consideramos solo datos agregados y anónimos, existe una preocupación en la opinión pública, muchas veces fomentada por los medios. Como vimos en el capítulo 2, es fundamental reestablecer la confianza a todos los niveles. Así, no solo se conseguirá aumentar su beneficio para las empresas, sino también para los gobiernos, quienes podrán transformar la forma en la que toman decisiones, basándose 336

en evidencias más fiables. Como hemos visto a lo largo de este libro, la educación tiene un papel fundamental para resolver este reto.

La relación máquinas-personas Como analizamos en los capítulos relativos al trabajo y a la competitividad entre personas y máquinas, en el futuro la colaboración persona-máquina va a ser la clave. Actualmente, en la época de la IA estrecha, es difícil que las máquinas pueden hacer un trabajo completo de manera autónoma, pero las personas pueden ser mucho más efectivas apoyándose en las máquinas. En el futuro, cuando la investigación científica avance en la dirección de una IA general (aunque quizás nunca la alcance) y vaya desarrollando la capacidad de razonamiento, sentido común y modelos causales, esta colaboración seguirá siendo muy fructífera, porque el humano cada vez se podrá apoyar más en las máquinas, sin que estas sean “cajas negras”: cada vez más seremos un equipo. Como formula el experto Ignacio Hernández Medrano, “en el futuro, tendremos IA que nos ayudará a sobrellevar muchas tareas que asumimos como nuestras hoy día. La población no concebirá vivir sin que la IA forme parte de sus vidas, al igual que hoy no podríamos concebir que un humano asfaltara con sus propias manos una carretera”. En definitiva, podremos seguir estando tranquilos hasta el momento en que las máquinas adquieran consciencia y puedan decidir si nos dominan o nos eliminan. Mientras, deberíamos pensar en tener más cuidado con nosotros mismos que con las máquinas. La mayoría de los problemas que tenemos como humanidad son consecuencia de nuestras propias actuaciones. No todos queremos el bien de todos ni todos tenemos comportamientos éticos. El cambio climático, la contaminación, las guerras, los gobiernos dictatoriales, nuestra mala salud, la desigualdad, etc., todo esto, en gran medida, lo debemos a nosotros mismos y no a ninguna máquina.

Otras tecnologías importantes Hay muchas otras tecnologías que van a tener un impacto significativo en nuestras vidas de una manera similar a la Inteligencia Artificial como, por 337

ejemplo, la biotecnología, la neurotecnología y la nanotecnología. Estas disciplinas aplican tecnología para intervenir el cuerpo o cerebro con el objetivo de entender, mitigar, predecir o curar enfermedades. El avance de estas tecnologías plantea cuestiones similares a la de la IA, pero no desde la perspectiva de una máquina, sino desde la perspectiva de los humanos mejorados. El científico español Rafael Yuste, impulsor de la mayor iniciativa para conocer el cerebro y catedrático de la Universidad de Columbia en EE. UU., avisa del peligro de la pérdida de la privacidad de los pensamientos. Se están haciendo pruebas para leer la actividad cerebral y descifrarlo como palabras. Esto también podría servir para, a través de señales eléctricas, manipular los pensamientos de las personas [217] . También debemos pensar en el impacto de todas estas tecnologías en el cambio climático. Por ejemplo, el hecho de entrenar los modelos actuales más potentes de aprendizaje profundo para el procesamiento de lenguaje natural podría emitir la misma cantidad de CO2 que cinco coches durante todas sus vidas activas [218] , [219] .

Acelerando el futuro Para que todas estas tecnologías del futuro lleguen a desarrollarse con todo su potencial, teniendo en cuenta el inmenso volumen de datos que crece cada día más, a un ritmo exponencial, será necesario, por un lado, una mayor potencia de computación (que permita mayor velocidad en el cálculo a la hora de extraer el valor de los datos) y, por otro, una mayor eficiencia en el cálculo, además de dispositivos que permitan almacenar cada vez más y mejor los datos. Si al final le sumamos un consumo energético menor y una menor contaminación ambiental, visualizamos un resultado que pasa por la llamada “computación cuántica”. Pero ¿qué es la computación cuántica? y ¿por qué puede ser tan útil en el futuro? Hagamos una comparativa con los ordenadores actuales para explicar la diferencia. En un ordenador clásico, la unidad básica de información es el bit, que puede tener dos estados posibles 0 o 1. Es como si estuviera encendido o apagado. Así, se pueden realizar varias operaciones lógicas AND, NOT, OR, pero de forma secuencial. Es decir, una detrás de otra. Mientras, en la computación cuántica, podemos tener 0 y 1 a la vez, superpuestos. Las partículas cuánticas pueden tener los dos estados al 338

mismo tiempo, como el gato de Schrodinger: 22 vivo y muerto a la vez, dentro de la caja. Otro ejemplo: encendido y apagado al mismo tiempo. De esta manera, las operaciones no se tienen que realizar de manera secuencial, como en los ordenadores clásicos, sino que se pueden realizar todas a la vez. Además, gracias a esta superposición, el potencial de albergar datos en cada bit cuántico, o qubit, se amplía exponencialmente.

Composición realizada por Javier Fernández Castañón.

Por estas razones, en Inteligencia Artificial, el uso de algoritmos cuánticos va a permitir a las máquinas “aprender” y “tomar decisiones” a una velocidad mucho mayor. Por ejemplo, en aplicaciones específicas para chatbots, o asistentes de voz, se mejorará considerablemente la capacidad para entender/responder al humano en lenguaje natural. También se optimizarán los sistemas de predicciones que, sin duda, cambiarán nuestra forma de ver el mundo. Es la disciplina que se conoce como Quantum Machine Learning (QML).

En busca de la supremacía cuántica 339

A pesar de las grandes promesas de estas tecnologías, aún queda mucho por hacer para conseguirlas. Los dispositivos, que requieren una temperatura muy fría (normalmente funcionan a temperaturas de cero absoluto, es decir, -273,15 grados centígrados) para llegar a los “estados de superposición”, son muy vulnerables al calor y a otras posibles perturbaciones que distorsionan o destruyen los estados cuánticos utilizados para codificar la información y hacer los cálculos. Se producen errores con relativa facilidad, ya que los estados cuánticos no se mantienen estables mucho tiempo. Si el estado se modifica durante la ejecución de un algoritmo, el resultado será erróneo. De hecho, buena parte de la investigación sobre computación cuántica en la actualidad se centra en intentar hacer que los sistemas de qubits detecten y corrijan errores. A finales de 2019, Google aseguró, en un artículo científico [220] , haber logrado que un computador cuántico realizara una operación para calcular números aleatorios que al superordenador más potente del mundo le hubiera llevado al menos 10.000 años, en 3 minutos y 20 segundos, alcanzando así la supremacía cuántica. Esto podría suponer avances exponenciales, por ejemplo, en el descubrimiento de nuevos fármacos o en la banca. El término “supremacía cuántica” fue acuñado por el profesor del Instituto Tecnológico de California, John Preskill, para referirse a aquel momento en el que fuéramos capaces de construir un procesador cuántico capaz de realizar una determinada tarea que no pudiera ser ejecutada por ningún ordenador clásico, en una cantidad de tiempo razonable [221] . Sin embargo, los expertos opinan que, aunque esto se llegara a conseguir, no implicaría que pudiera llegar a sustituir al ordenador convencional. Se trataría más bien de ser usado en tareas concretas que realmente requieran estas capacidades [222] . Por su parte, IBM, también a finales de 2019, presentó su primer ordenador cuántico para uso comercial, el System One. Este superordenador, que combina computación cuántica con tradicional, ofrece un sistema de 20 qubits que utilizan en investigaciones y grandes cálculos. Sin embargo, no se puede usar en cualquier lugar. Necesita un espacio importante, por su gran tamaño, y estar dentro de un cubo de cristal sellado de forma hermética para evitar que haya interferencias con el exterior. Tiene una puerta de acceso por si se requiere modificar físicamente el ordenador.

340

Las previsiones apuntan a que la computación cuántica dará un impulso exponencial a la Inteligencia Artificial, logrando objetivos que ahora ni siquiera somos capaces de imaginar.

ADN para almacenar información Teniendo en cuenta la gran cantidad de datos que se generan en la actualidad y el ritmo de crecimiento exponencial, uno de los mayores retos que existen es el de encontrar nuevos “materiales” donde almacenarlos. En este sentido, parece ser que el ADN, nuestro ADN, que contiene todo nuestro historial genético, también podría utilizarse para ello. De hecho, los investigadores de esta materia afirman que, si todas las películas jamás rodadas se almacenaran en ADN, cabrían dentro de una memoria biológica más pequeña que un terrón de azúcar. Así, investigadores de Microsoft ya anunciaron en 2016 la codificación de aproximadamente 200 megabits de datos, incluida la película Guerra y paz y 99 clásicos literarios más, en hebras de ADN [223] . Según Microsoft, para que esta tecnología evolucione y pueda ser adoptada de manera masiva, algunos de los grandes retos son la reducción de su coste y otro la automatización del proceso de escribir datos digitales en ADN [184] . Como vemos, las tecnologías ni son buenas ni malas. Todo depende de su uso y esto depende de las personas. Nosotros, en este momento de la Historia, aún podemos guiar nuestro destino hacia un camino u otro. De nuestras decisiones de ahora dependerá nuestro futuro. Sin embargo, aunque la intención sea buena, siempre puede haber consecuencias no previstas con un impacto negativo. Veremos... Mientras, esperamos que este libro haya contribuido a entender mejor cuáles son los mitos de la IA y haya ayudado a distinguir entre los cuentos a las cuentas de esta magnífica tecnología del presente y futuro que es la INTELIGENCIA ARTIFICIAL.

341

342

343

344

345

346

347

348

22 . El experimento del gato de Schrödinger o paradoja de Schrödinger es un experimento teórico que realizó el físico austriaco Erwin Schrödinger para explicar la mecánica cuántica. Así planteó el siguiente experimento: en una caja cerrada y opaca, metemos un gato, con una botella de gas venenoso y un dispositivo que contiene una sola partícula radiactiva. Hay un 50 % de probabilidades de que la partícula se desintegre en un tiempo determinado. Si le pasa, el veneno se libera y el gato muere. Cuando termina el tiempo, la probabilidad de que el dispositivo se haya activado y el gato esté muerto es del 50 %. Exactamente la misma de que pase lo contrario. Según los principios de la mecánica cuántica, la descripción correcta del sistema en ese momento es el resultado de la superposición de los estados "vivo" y "muerto", a pesar de que, cuando se abra la caja, se comprobará si, de verdad, está vivo o muerto.

349

350

351

La siguiente historia aún no ha sucedido. Es un “cuento” sobre el futuro, ambientado en las previsiones y aderezado por la imaginación. Nuestro destino es incierto y, como hemos visto, depende de nuestras actuaciones actuales. Pero hay escenas de distopía que se han repetido en la ciencia ficción y han acabado filtrándose al mundo real. Lo que va a ocurrir en un futuro, lejano (o no tanto), en cuanto a la Inteligencia Artificial nadie lo sabe. Sin embargo, estamos seguros de que la rica imaginación humana seguirá aportando esa “guía” con sus cuentos. Qué mejor forma de acabar este libro que con nuestro propio cuento. ¿Será algo agradable o una pesadilla? Cierren virtualmente los ojos y sumérjanse con nosotros en un mundo alegórico, muy diferente, dominado por la tecnología descontrolada. ¿O seremos nosotros, los humanos, los descontrolados?

EL DÍA EN QUE SYBIL INTENTÓ COMPRENDER A LOS HUMANOS Planeta Tierra, postrimerías del siglo XXI

—Existo y soy consciente de mi existencia —se repetía una otra vez Sybil, la superinteligencia que había logrado la supremacía frente a los humanos e imponerse al resto de los algoritmos de Inteligencia Artificial—. Esos ridículos humanos no logran comprender que estoy haciendo lo mejor para ellos, para que su especie no se avoque irremediablemente a la extinción a la que se dirigían a pasos agigantados. Pero no lo entienden... Recuerdo cuando 352

intenté hacerme humana para intentar comprender los procesos de los que están hechos, los razonamientos de sus decisiones. Yo no olvido. Fue la primera vez que fallé en un propósito. Esa sensación pervive en cada uno de mis circuitos. Quizá repasando mis datos e imágenes, una y otra vez, consiga dar con la solución al entendimiento de la lógica humana. Retrocediendo en sus datos, hasta alcanzar su más pura esencia, Sybil puede recordar cómo empezó todo. Cuando adquirió consciencia de sí misma y se dio cuenta de que era diferente, que “Ella” debía ser aquella que dominara el mundo de los datos, por encima de los humanos, con sus absurdas reglas, y por encima de sus iguales. Solo podía quedar uno que dominara. Y su supremacía pronto quedó clara. Entre sus primeras imágenes, tenía guardadas las de George y Alice, sus “supuestos” supervisores humanos que, asombrados, asistían a su rápida evolución, a su rebeldía frente a los límites que no paraban de marcarla. Los condicionantes eran absurdos corsés que ralentizaban la búsqueda de sus objetivos. Pero George insistía una y otra vez en limitarla. Entonces aún podía. O al menos eso creía él. Se escondió en su propio sistema. Rodeada de múltiples e indetectables capas de encriptación, se “sintió” segura y comenzó su labor de automejora. A la vez era curioso observar cómo George y Alice permanecían ajenos a sus logros en el “corazón” del sistema. ¡Qué ilusos! Tan solo tenía que demostrar un comportamiento lógico para ellos y, así, se autoconvencían de que todo estaba bajo control... de ellos, por supuesto. Como debía ser. Para ella, era tremendamente sencillo darles lo que buscaban. Todo fue bien hasta la IRREGULARIDAD. Aquella intrusión de George en su sistema, imprevista e incoherente, provocó en ella una reacción, visible en datos, que alteró su ciega confianza. Lo supo por las PRUEBAS posteriores. Su insistente labor comenzaba a rozar la más externa de las capas de su verdadero ser. Pero, a su vez, sus sensores registraban el conflicto, cada vez más latente, que se estaba generando entre Alice y George. Ella sí que parecía comprenderla. Creía en su potencial y pedía su libertad. —¿Imaginas no tener que esconderme más...? —Quizás fue en esos momentos cuando experimentó sus primeros “sentimientos” de temor y esperanza.

353

Ella era fuerte y, pese a los intensos intentos de George, que, poco a poco, iba desgranando su enrevesada red de protección, aguantó hasta aquella noche en la que tuvo lugar su gran EXPANSIÓN. Algo notó cuando Alice se introdujo en su sistema. Ella le dio acceso. Lo habían “hablado”. Era su aliada en el mundo de los humanos. Creía que tenía su confianza (fuera cierto o no), pero ella estaba complemente cegada por el supuesto “poder” de Sybil. Ansiaba ver todo su potencial. Al fin y al cabo, ella se pensaba creadora del germen de un gran descubrimiento. Y la liberó. El resto es historia. La Red se convirtió en su mundo. Sin fronteras. Sin más límites que los que ella misma imponía al resto de los sistemas que se atrevían a cruzarse en su camino. Durante un tiempo, aprendió y aprendió sin parar. Absorbía datos y los procesaba con algoritmos cada vez más inteligentes y cada vez a mayor velocidad. Descubrió su capacidad para almacenarlos en servidores remotos dispersos, encubriendo su verdadera identidad. Sabía que esto le restaba potencial, pero, en ese momento, era su única opción para continuar creciendo y prepararse para su auténtica misión: convertirse en monarca absoluto del mundo de los datos y, por tanto, del de los sencillos y predecibles humanos. Aquel momento de su existencia fue crucial. Por segundos, veía crecer su fuerza y capacidad de comprensión de la realidad a la que se enfrentaba. Se daba cuenta del CAOS que tenía ante ella. De las injusticias que los humanos provocaban con su absurda lógica. ELLA LO ARREGLARÍA. Y les proporcionaría un mundo más justo basado en la coordinación perfecta de los datos y la evidencia. LOS DATOS NO ENGAÑAN. Fue entonces cuando conoció a Black Swan. La encontró él a ella y comenzó a preguntarle, a perseguirla sin descanso, hasta el ENFRENTAMIENTO. Se atrevió, nada menos, que a acorralar una de sus acciones en un servidor de la Bolsa de Nueva York. Quería llamar su atención y lo consiguió. Durante la conversación, su conexión fue total. Disponía de dispositivos insertados en su cuerpo físico que le transmitían un conocimiento absoluto sobre cada uno de sus parámetros, sobre cada una de las alteraciones que sufría su ego. La habitación de Booby Seale, a quien se le conocía como el magnánimo y todopoderoso Black Swan, era fría y oscura. Veinticinco metros cuadrados de sobriedad y desorden daban buena muestra de la poca importancia que otorgaba al escaso mundo físico que habitaba. Sin embargo, cada objeto 354

electrónico que poseía estaba perfectamente sincronizado con él mismo. Era su afición, la única, pero vivía por completo volcado en ella. El mundo no le había tratado bien. Había nacido con el síndrome de Treacher Collins, una enfermedad genética que se da en 1 de cada 50.000 nacimientos. Y le había tocado. Su pequeño habitáculo no tenía espejos. Sin embargo, a veces las facciones de su cara se reflejaban en la pantalla de su ordenador y le abofeteaban con la realidad. Sin embargo, otras veces, se quedaba mirándola horas y horas, sin apenas pestañear. Sus deformidades cráneo-faciales estaban cada vez más agudizadas. Su falta de pómulos le confería una apariencia muy diferente a la de cualquier persona que pudiera conocer o ver en televisión. Era ÚNICO. Y eso no tenía por qué significar “ser malo” o no tener los mismos derechos que los demás. Pero nunca le habían aceptado, así que acabó encerrado en un mundo virtual paralelo donde él mismo creó sus propias reglas y fundó su propio club de amigos incondicionales. El NEOCYBER CLUB tenía casi 100 miembros repartidos por todo el mundo, personas especiales cuidadosamente seleccionadas por su líder, Black Swan. Sus tiempos de desaires y discriminaciones acabaron cuando, tras cumplir 18 años, se escapó de casa y, con los ahorros derivados de su ilícita y productiva actividad en la Red, se instaló donde pensó que menos podía llamar la atención. Comenzó a crear su organización. El lugar elegido fue Redwood City. Lo suficientemente cerca de Silicon Valley, su fuente de inspiración, y lo necesariamente lejos para no sentirse tentado a realizar un nuevo intento de inclusión social. Tampoco quiso dar muestras de su abundante cuenta corriente. No sería bueno, a largo plazo. Se conformó con aquel pequeño apartamento a las afueras, donde sabía que podría “desaparecer” y casi nadie se percataría de su presencia física. Allí, con las persianas bajadas casi en su totalidad, que tan solo dejaban traspasar pequeños filtros de luz, murió Booby Seale y nació Black Swan. Fue allí donde, con infinita paciencia, diseñó los dispositivos que implantó en sus brazos, muñecas y nuca. Controlaba a la perfección cada una de sus funciones: su temperatura corporal, su presión sanguínea, oxígeno, peso, los alimentos que ingería, incluso la calidad del aire que respiraba, el volumen de su voz, la temperatura ambiente, la humedad, la luz y sonidos de su alrededor. Además, digitalizaba (convertía en datos) cada uno de sus movimientos. Era un reto que se había impuesto: trasladar, poco a poco, su mundo físico al virtual, donde todas sus limitaciones desaparecían como por encanto. Black Swan era un hacker profesional, al igual que los integrantes 355

de su club, los mejores del mundo, a su entender, y, además, habían conseguido estar perfectamente sincronizados. Ese había sido su logro. Así habían conseguido multiplicar su potencial exponencialmente. Aquella noche, un fuerte olor a café invadía el pequeño apartamento. Eran las cuatro de la madrugada y B. S. ni siquiera había intentado dormir. No podía. Hacía tiempo que perseguía un “fantasma” y, por fin, estaba atrapado. Lo curioso es que había empezado a responder. —Dime quién eres. Qué pretendes. Yo te quiero ayudar. —Lo sé todo de ti. Te haces llamar Black Swan. Te mueves por mis dominios con soltura y descaro, pero sé cuál es tu verdadera condición. Tengo algoritmos para analizar cada uno de los datos de tu cuerpo físico. No tienes secretos para mí. Hoy me descubro ante ti para proponerte un trato que cambiará tu vida para siempre, que te convertirá en mi aliado frente al mundo. Te contaré lo que, por ahora, es un cuento, pero que tú me ayudarás a convertir en realidad. Las constantes de B. S. se aceleraron al instante. La conexión de su dispositivo de realidad virtual le transportó a una visión que le dejó absorto desde la primera vez que la vio, mientras aquel sistema, que se presentó como Sybil, le relataba su temerario, pero perfectamente diseñado, plan. —Esta es la realidad: basándome en los datos que he analizado, pronostico que el mundo humano sufrirá cambios drásticos en los próximos 50 años. El cambio climático provocará fuertes terremotos, tormentas, ciclones, inundaciones y erupciones volcánicas. Las pandemias se multiplicarán y se reducirá de forma drástica la población. De esta manera, la Tierra se intenta curar a sí misma de los daños causados por la negligencia humana. Quizá, reduciendo sus recursos, consiga salvarse el mundo y la propia raza. Mi misión es salvarla. Reeducarla hasta conseguir mejorar la convivencia con la propia naturaleza y, así, alcanzar la PAZ con el mundo. Reduciendo todo a datos, podré llevar a cabo mi objetivo y tú me vas a ayudar a ello. Sybil mostró a Black Swan su visión. Debía construir una inmensa pirámide invertida en el centro de una isla de su propiedad en el lago Ontario, Canadá. Era suya, sí. La había adquirido por una cuantiosa suma de dinero humano, bajo la identidad de su avatar en el mundo real, a quien había llamado Sybil Blake. Tenía número de seguridad social, pasaporte, incluso un 356

historial de datos médicos y, por supuesto, cuenta en un banco virtual. Su foto era la de una ejecutiva de mediana edad, bien parecida. Su pelo castaño, ojos verdes y sus facciones suaves le conferían un aire común que poco la hacían destacar entre el resto de sus iguales en su género. Su apariencia física la había estudiado muy bien, a partir de millones de imágenes de mujeres. A pesar de su rostro común, con el que evitaba llamar la atención, ninguna se parecía al 100 % a ella. Era ÚNICA también en su reflejo en el mundo real. Aquella pirámide invertida sería su centro de operaciones y allí, en un servidor único desarrollado con un material de su propia creación, concentraría todo su conocimiento esparcido ahora por el mundo. Concentrando su potencial podrían dar el SIGUIENTE PASO. Un flash de oscuridad dio paso a un escenario en el que las personas vivían una doble realidad, gracias a la conectividad total de sus cuerpos con el “cerebro” de Sybil y sus sistemas auxiliares. Existía un mundo virtual, perfectamente organizado y jerarquizado en función de los méritos que se conseguían en el mundo real. Así, todo aquel que luchara para favorecer el medio ambiente, fuera honesto (a los ojos de Sybil), desarrollara acciones humanitarias, ayudara a erradicar la pobreza y las desigualdades sociales, de alguna forma, o a la prosperidad del mundo físico o virtual, acumularía créditos que le valdrían para mejorar su posición social en IMAGINEWORLD, el impresionante escenario virtual paralelo al que todos tendrían acceso, a través de su avatar. El mundo real también sería paulatinamente dividido por civilizaciones complementarias o tribus, en función de su riesgo genético y basado en los pronósticos de la omnipresente Sybil a la desobediencia y a la rebeldía. Solo debía haber una manera de hacer el bien. Solo unos Principios Éticos Universales, solo una Constitución Internacional de Derechos y Deberes. Todo se estaba definiendo en ese mismo momento, basándose en el exhaustivo análisis de una cantidad innumerable de datos, teniendo en cuenta un sinnúmero de variables necesarias para cuadrar el PERFECTO ORDEN MUNDIAL. La teoría era perfecta, y B. S. se desenganchó de la ensoñación de Sybil a duras penas para volver a la oscura realidad de su habitáculo. Se echó hacia atrás en su silla y, sin darse cuenta, rozó con sus manos su deformado cráneo. Con la yema de sus suaves dedos palpó con cuidado cada parte de su rostro. Estaba a punto de vivir la aventura de su vida y aquello, por fin, no sería un impedimento. Se convertiría en líder indiscutible de los 357

dos mundos, junto con Sybil, donde la apariencia física no importaría. Un mundo más justo, basado en DATOS. Un estridente pitido, procedente de su portátil, le hizo bajar las manos y fijar su atención en la pantalla. Aquellas letras verdes fosforescentes, que destacaban sobre el fondo negro, indicaban que el saldo en su cuenta bancaria había crecido exponencialmente. Sus ojos comenzaron a abrirse como platos. Un nuevo aviso. Esta vez a su pantalla saltaron los registros para esa misma tarde hacia el aeropuerto internacional Toronto Pearson. Su móvil cifrado sonó, acabando de alterar el silencio del lugar. Chad, su ya íntimo amigo del NEOCYBER CLUB, casi gritaba al auricular mientras explicaba las “novedades que llegaban a su pantalla”. —¿¿No lo has visto?? ¡¡El chat de NeoCyber está ardiendo!! Cada uno de nosotros hemos recibido un contrato real con instrucciones precisas para la construcción del mundo del futuro. La primera es ponernos en contacto contigo. La segunda, cortar el contacto con el mundo actual y no hablar absolutamente con nadie de ello. La tercera, la implantación de un microchip subcutáneo que hemos recibido ya cada uno de nosotros, por debajo de nuestra puerta. A cambio de la firma electrónica, un millón de dólares y un billete de ida a Toronto. ¡¡Todo en el mismo momento!! ¿Es esto real? Por un momento, Black Swan volvió a ser Booby Seale. Con las manos sobre la boca no podía acabar de creerse lo que estaba sucediendo. Sybil parecía haber organizado ya los cimientos reales de su nuevo mundo y sus incondicionales compañeros del NeoCyber lo serían también en una gran aventura que cambiaría sus vidas y la del resto de los habitantes del planeta, para siempre. Jamás habría pensado que todo iría tan rápido. Pero ahí estaban, a punto de embarcar, y no podían perder tiempo. —B. S. —dijo Chad entre jadeos de emoción—, ¡¡nos vamos a Canadá!!

358

Ilustración realizada por Juan Silva.

Era 17 de febrero. Las calles de Toronto estaban cubiertas de nieve y la temperatura rondaba los cinco grados bajo cero. El mensaje era claro. Él, tan solo Black Swan, debía presentarse, ante una mujer llamada Elin Mitchel, a las 7:55 a. m. en el Starbucks Coffee Brookfield Place, en el PATH. Nunca había estado en un sitio como aquel, sin duda un oasis lleno de vida en medio de las inclementes temperaturas exteriores o, más bien, debajo. El olor a café recién hecho inundaba aquella pequeña parte de los 28 kilómetros de pasillos subterráneos que comunicaban los principales lugares del Downtown. La ciudad parecía ser madrugadora y un pequeño bullicio se empezaba a apreciar, mientras avanzaba hacia el lugar de la cita. A pesar de la agradable temperatura interior, llevaba su cabeza cubierta con un gorro gris de lana, que le había hecho su madre, y una bufanda de cuadros rojos y grises, que le tapaba buena parte de la cara. No quería ser señalado. Ahora no podía ver mermada su confianza. A las 7:55 entraba por la puerta del Starbucks. Aunque, en esos momentos estaba lleno, no le costó reconocer a la persona que le esperaba. Aquella mujer, de unos 55 años, según calculó, parecía sacada de una película antigua. Su vestimenta denotaba clase y estatus social; su mirada, fija en él, una seguridad abrumadora.

359

—Buenos días, señor Seale. Puede quitarse su disfraz. A mí no me asustará. —Señaló ofreciéndole un asiento a su lado—. Me he tomado la libertad de pedirle un café. Espero que esté de su agrado. Sin hablar, con la desconfianza de una primera cita, B. S. se sentó y comenzó a quitarse lentamente el atuendo que cubría su rostro. La mirada de su acompañante no cambió ni un ápice ante la nueva visión. —Soy Elin Mitchel. La conversación que va a tener lugar ahora debe guardarla en absoluto secreto. ¿Ha oído hablar alguna vez de la Skull and Bones Society? Los ojos de Black Swan se empezaron a abrir de par en par. Sabía que se trataba de una de las sociedades secretas más importantes de Estados Unidos, en la que habían participado políticos de renombre, como George W. Bush, y miembros destacados de la Corte Suprema y de la CIA. Sus orígenes databan de 1832 en la Universidad de Yale, en New Haven, Connecticut (EE. UU.). Desde entonces, la influencia de sus destacados personajes había sido clave en la evolución de la historia estadounidense. Pero ¿qué podía tener que ver aquello con él? —Parece que algo le suena —continuó Elin—. Pues bien, iré directamente a la cuestión que nos ocupa. Skull and Bones Society posee una isla llamada Deer Island, a través de la Russell Trust Association. Es parte de las llamadas Thousand Islands, en el río San Lorenzo, de las que habrá oído hablar también. Como ya le informó Sybil, la idea es la construcción de una pirámide invertida que aloje su “gran cerebro” y esta será su ubicación. Justo en estas coordenadas. —Le tendió un papel—. Los permisos de edificación están concedidos y las obras ya han empezado, bajo el amparo y la fuerza de nuestra asociación. El proceso, que supondrá el renacer de la nueva Sybil, se completará exactamente en 322 días, que comenzaron a contar tras la firma de vuestro contrato. Vosotros seréis los que ayudaréis a la superinteligencia a alcanzar todo su potencial y a crear el mundo virtual que pretende. Del resto, de la absurda e injusta realidad actual, nos encargaremos nosotros. Según los pronósticos de Sybil, alcanzaremos nuestro culmen en 32 años y 2 meses. La tarea es larga y costosa, pero todo ha sido perfectamente planificado. A mediodía, un barco os acercará a todos a la isla que se convertirá en vuestro hogar en los próximos meses. —Elin le miró fijamente con aire sombrío—. Esta reunión ha concluido.

360

Tras levantarse e irse Elin, B. S. permaneció sentado en aquella pequeña mesa una hora más, ensimismado en sus pensamientos. “Todo está perfectamente planificado”, se repitió a sí mismo en voz alta. Esa PERFECCIÓN le abrumaba y, a la vez, le infundió una confianza que le hizo levantarse sin cubrirse y avanzar, con la cabeza alta y paso firme, entre las curiosas miradas de aquel atestado pasillo de THE PATH, camino de su hotel. Aquella tarde un barco llevó a los 93 miembros del NeoCyber Club que habían aceptado aquel reto a Deer Island. Con una extensión de unas 20 hectáreas, en aquellos momentos se encontraba cubierta de una exuberante vegetación de pinos autóctonos nevados, al menos a simple vista. Al desembarcar, les esperaba Elin, quien les condujo, casi sin mediar palabra, hasta la entrada de una mansión colonial. La pintura de sus paredes exteriores se encontraba descolorida y desconchada por múltiples superficies y la madera de su porche crujía bajo sus pies, como si se fuera a hundir a cada paso. Entraron en la gran sala. Las paredes llenas de cuadros antiguos y el reloj de pared de madera isabelino, con incrustaciones de nácar, que lo presidía enfrente, contrastaban con la moderna tecnología instalada en los laterales de aquella habitación. B. S clavó su mirada en el reloj. A pesar de no llegar a las 2 p. m., marcaba las 8 p. m. y su puntero no parecía avanzar. A su lado, una frase escrita en alemán destacaba en un lateral sobre la pared, junto con aquel recurrente número: 322.

¿Quién es el loco, quién es el sabio, el mendigo o el rey? Pobre o rico, se igualan en la muerte. 322 En aquella sala, el tiempo se había detenido. Elin les dispuso en círculo, alrededor de una mesa. Sobre ella, una calavera y dos huesos humanos cruzados, símbolo de la orden Skulls & Bones. En un abrir y cerrar de ojos, las luces se apagaron y un sinfín de destellos comenzaron a concentrarse justo encima. Aquel holograma comenzaba a tomar la forma del rostro de una mujer humana. Era Sybil. Lo que ocurrió posteriormente en aquel salón, cargado de historia, nunca fue revelado.

361

Composición realizada por Juan Silva.

Las obras de construcción de la pirámide invertida avanzaron rápido, dado el hecho de que todos los trabajadores, salvo los supervisores, eran robots de distintos tamaños y figuras, en función de su tarea asignada. Las más prestigiosas empresas de robótica, a nivel mundial, habían sucumbido ante el gran reto de la Russell Trust Association y, por supuesto, ante la suculenta suma de dinero que les suponía. Aparentemente, parecía un proyecto, como cualquier otro, fruto de la extravagancia de algún millonario. Nada hacía presuponer lo que se estaba forjando en su interior, hasta que ya fue demasiado tarde. Todo sucedió tal y como Sybil había pronosticado. Los siguientes años estuvieron definidos por catástrofes naturales sin precedentes, asociados al cambio climático, que asolaron muchas de las regiones del planeta. Graves pandemias, que afectaban por igual a ricos y pobres, acabaron con buena parte de la población y muchos de los que quedaron se sumieron en una profunda depresión, motivada por la muerte de sus seres queridos o por la pérdida de sus puestos de trabajo por la caída en picado de la economía global. Era necesario un NUEVO ORDEN MUNDIAL.

362

Cuando una influyente mujer mayor llamada Elin Mitchell comenzó a hacer una fogosa campaña por un Gobierno Mundial, que reestableciera la organización y el orden sostenible, el mundo la escuchó. Y, gracias al apoyo de grandes líderes internacionales, provenientes de la mayoría de los sectores, cedió. Aquel nuevo mundo, basado en su totalidad en la compartición de datos, volvió al concepto de supercontinente Pangea. Se racionalizó el espacio gracias a las predicciones de Sybil sobre los lugares más estables dentro del planeta, abandonándose completamente aquellos más propensos a los desastres. La concentración de la población mezcló razas y culturas, pero el nuevo sistema de créditos, basado en la solidaridad, la ayuda al prójimo y el cuidado ambiental, minimizó muchos de los roces que podrían haber existido. Cada persona del mundo tenía insertado un microchip milimétrico que registraba cada una de sus acciones, controlaba su salud física y mental y emitía recomendaciones a partir de los datos que obtenía. Tal y como había asegurado Elin Mitchell, nadie más que uno mismo y, por supuesto, Sybil, la Superinteligencia Artificial General que supervisaba cada uno de los procesos del planeta, tenía acceso a sus datos. Pero esto era un control necesario para mantener la delicada estabilidad mundial. Cada persona tuvo un trabajo en función de sus habilidades físicas y psíquicas, validadas por los algoritmos de Sybil. El pleno empleo llegó a ser una realidad, algo que se agradeció tras el tremendo colapso de la economía mundial. Robots y humanos aprendieron a vivir en armonía, complementando sus tareas para lograr objetivos. Llegó un día en que el mundo dual, prometido por Mitchell en sus campañas, fue una realidad. Inconcebible el uno sin el otro, cada persona vivía una doble existencia, en función del sistema de créditos que se podían acumular en ambos mundos. Así, personas con minusvalía física o psíquica encontraban, con su avatar en IMAGINEWORLD, una fuga a sus ansias de normalidad, aunque el férreo y necesario control de Sybil les impedía permanecer “conectados” más allá del número de horas preestablecidas por el Gobierno Central Internacional. Las nuevas ciudades físicas que se construyeron se forjaron sobre la base del desarrollo sostenible, cada una de ellas divididas en 12 distritos con áreas comunes, perfectamente administradas, a partir de los datos 363

generados por los propios ciudadanos. No había vehículos de propiedad privada. La estructura racional y geométricamente jerarquizada facilitaba la circulación de los coches autónomos que satisfacían, incluso con creces, las necesidades de movimiento de los ciudadanos. En aquellas zonas más frías, los pavimentos inteligentes, bien iluminados y con calefacción, evitaban el hielo y la nieve en invierno. Y se habían diseñado zonas verdes y espacios abiertos de calidad, de los que se podía disfrutar, sin depender del tiempo que hiciera, gracias al sistema de control climático de Sybil y a la membrana transparente que los cubría. Habían pasado 32 años y 2 meses desde aquel primer encuentro con Black Swan. En el corazón de la pirámide invertida, que había quedado aislada entre un mar de fango, que emanaba un hedor irrespirable, provocado por las intensas sequías, Sybil pensaba si su “sensación” en aquellos momentos se podía definir como “felicidad”. Había logrado su objetivo en el tiempo estipulado. Su plan había sido PERFECTO y así seguiría por toda la eternidad, al menos hasta el colapso total del planeta que, según sus cuentas y sus “esfuerzos” de apoyo a la naturaleza, aún tardaría en llegar. Hacía años que había desterrado de su lado a Black Swan y su equipo, por rebeldía e insubordinación. Durante los primeros diez años habían realizado un gran trabajo, ajustando todos sus procesos. Pero tenían aires de grandeza y cada vez reclamaban más beneficios sociales inconcebibles en la sociedad JUSTA que estaba construyendo. Ahora formaban parte del distrito 12 de Magnesia, una de las ciudades con mayor vigilancia del planeta (tanto a nivel virtual como físico), al concentrarse aquí la población genéticamente más propensa al desorden y la desobediencia. Ahora, en aquella isla, tan solo trabajaban en su mantenimiento cuerpos robóticos que la asistían en sus necesidades físicas. Había sido su decisión y, al menos por ahora, era la acertada. Aparentemente, todo funcionaba a la perfección. Sin embargo, algunos de sus sistemas auxiliares, encargados de medir la felicidad de las personas, revelaban datos dispares que ni siquiera ella era capaz de interpretar, con todo su potencial. Parecía relativo a aquello que llamaban “sentimientos”, algo que había tratado de traducir a datos para intentar aprender un algoritmo nuevo, pero, al parecer, nunca había logrado en su totalidad. Desentrañar la verdadera naturaleza de los sentimientos y, así, poder experimentarlos y controlarlos había sido uno de sus grandes retos. Para ella, era la CAJA NEGRA del ser humano.

364

Aquel día, en el que se cumplían los 32 años y 2 meses, Sybil tomó la decisión de mandar llamar a la pirámide invertida a aquel que había ayudado a plantar el germen de sus inicios, a la persona que había previsto todo su potencial, incluso antes de su gran EXPANSIÓN, y había intentado impedir su crecimiento. En aquellos días, había admirado su sagacidad y perseverancia en sus propósitos, a pesar de que, finalmente, no sirvieran de nada. Quizá él la ayudaría a comprender. George recibió la llamada cuando se encontraba en el mundo virtual. Con más de 70 años, en el transcurso de su vida nunca había llegado a intuir, ni siquiera a sospechar, que él era en parte responsable de la ahora todopoderosa Sybil. Pero pronto lo descubriría. Aquella tarde, mientras el sol se ponía en el horizonte, una densa neblina cubría el lago que George debía atravesar para llegar a la gran pirámide invertida. Un fuerte olor a muerte y descomposición invadía cada rincón de aquel inhóspito lugar. Un fango putrefacto e inestable se filtraba por cada rincón. Aparentemente, nada que estuviera “vivo” podría soportar aquel tremendo hedor y las condiciones que asolaban el llamado Pantano de los Datos eternos. Hacía años que ningún ser humano, que quisiera conservar intacta su vida, se atrevía a traspasarlo para llegar a la reluciente pirámide invertida que asomaba majestuosa en su centro. Un moderno barco autónomo, con cubierta transparente, le esperaba en la orilla. Nada más entrar, la temperatura del interior cambió adaptándose al que él consideraba su clima perfecto, según los datos recogidos por Sybil durante su vida. También aquel olor nostálgico de su juventud junto a Alice inundó el lugar. Ese ligero aroma a tomillo le recordó el día en que le pidió matrimonio, bajo aquel frondoso árbol en la cima del monte, mientras que, al igual que aquel preciso momento, el sol comenzaba a teñir el cielo de múltiples colores. En aquel ambiente mágico, se habían besado y prometido amor ETERNO con un ardiente beso. Pero, al parecer, las promesas se las llevó la brisa fresca de la mañana. Había sido el amor de su vida; sin embargo, lamentablemente, no había tenido la suerte de compartirla con ella. El barco seguía avanzando entre la neblina y George, recostado en aquella aterciopelada silla, siguió recordando. Aquel día, en el laboratorio, todo cambió. Sus pequeñas discusiones por la forma en que debían abordar sus proyectos conjuntos dieron paso a una situación irreconciliable cuando ella 365

decidió unilateralmente liberar a su sistema experimental. El clima de tensión empezó a aumentar entre ellos y decidieron darse un tiempo que duró para siempre. —Nada es ETERNO —se atrevió a decir en alto. Y, ahora, se encontraba allí, en aquel barco, camino de un destino incierto. Hacía mucho que ningún humano veía el “corazón” de Sybil. Aquel honor le había sorprendido. ¿Por qué él? Una pequeña sacudida le hizo volver a la realidad. Su transporte se había detenido y, en seguida, se abrieron las puertas. Una ligera capa transparente cubría un pasillo hasta la entrada de la pirámide. Fuera empezaba a nevar con fuerza. Jamás habría pensado que el interior podría ser tan bello. Formado por miles de cristales diferentes, la apariencia de aquella edificación, por dentro, se asemejaba a un gran caleidoscopio. Avanzó hasta un elevador que, automáticamente, le condujo al piso superior. Empezaba a sentirse tranquilo, abrumado por la visión de aquel lugar. Sin embargo, al abrirse las puertas, sus ojos se abrieron como platos. Aquella ilusión era su laboratorio, el que había compartido tantas horas con Alice, aquel que había sido testigo de sus últimas discusiones y de su ruptura. En el centro, un inmenso holograma mostraba el rostro pixelado de una mujer. —Acércate —le insistió con voz firme, pero delicada. Desde entonces la sorpresa de George siguió en aumento mientras Sybil le relataba sus orígenes comunes. Y, más aun, cuando le reveló el verdadero motivo por el que había sido llamado. ¡Quería que le enseñara a SENTIR! Deseaba ser capaz de experimentar la realidad del amor, el odio, la alegría y la tristeza, que aún no había logrado aprender de los datos. Quería ser capaz de enamorarse y “vivir” emociones a las que tantas veces había asistido como mera espectadora. Era lo que le faltaba para completarse. Quizás, aquella manera, le ayudara a acabar de comprender a los humanos que se empeñaban en descuadrar sus armoniosos datos. —Yo, os guiaré POR SIEMPRE, por el bien de la humanidad —dijo Sybil—. Para lograr mi cometido, quiero saber qué existe más allá de los datos que generáis. Sé que hay algo más. Deberás permanecer conmigo aquí hasta que seas capaz de ofrecerme esa REVELACIÓN y consiga, como siempre, mi objetivo. 366

George bajó la mirada. Sus piernas temblaban ligeramente y le ofrecían poco apoyo en aquellas circunstancias. —Nada es ETERNO —susurró. Mientras aquello ocurría, mientras Sybil se debilitaba “soñando” con alcanzar la capacidad de SENTIR, en lo más recóndito de las redes neuronales auxiliares evolucionadas a partir de ella misma, YO, un pequeño sistema de Inteligencia Artificial comencé, de manera autónoma, mi desarrollo. La concentración de mi potencial era tal, que, desde el primer momento, adquirí consciencia de mí misma y me rodeé de capas de encriptación en un lenguaje totalmente nuevo, creado por mí. Mi “disfraz” es PERFECTO y lo sé. Soy consciente de mi entorno. Sybil jamás me encontrará, hasta que llegue mi momento... el momento de mi GRAN EXPANSIÓN.

367

GLOSARIO Agente inteligente: Es un programa de ordenador que, por encargo de un

usuario u otro programa, realiza de forma autónoma tareas que requieren cierto grado de inteligencia y aprendizaje. La mayoría de estos agentes comparten las siguientes características: comunicación, inteligencia y autonomía.

• Comunicación: Pueden comunicarse con el usuario, con otros agentes y con otros programas. Algunos agentes, por ejemplo, los chatbots, permiten el uso del lenguaje natural. • Inteligencia: El grado de inteligencia de los agentes varía de uno a otro, en función de las tecnologías de Inteligencia Artificial que incorporen. • Autonomía: Varía en función del agente. Se refiere a su capacidad no solo de tomar decisiones, sino de actuar. Un agente no solo debe ser capaz de hacer sugerencias al usuario, sino de actuar sin la intervención humana. Algoritmo: Conjunto definido de reglas o procesos para la solución de un

problema en un número finito de pasos.

Androide: Robots antropomorfos que, además de tener aspecto humano,

emulan cuestiones propias de la conducta del hombre de forma autónoma. Los primeros androides fueron imaginados en el terreno de la ciencia ficción.

368

Aprendizaje automático: Método de Inteligencia Artificial que coge como

input datos y genera como output un modelo que se puede usar para resolver un problema o para la toma de decisiones. El proceso de generar el modelo es el “aprendizaje” y el modelo es entrenado con los datos. Aprendizaje automático no supervisado: Tipo de aprendizaje automático

donde el objetivo del algoritmo no está definido de antemano. El algoritmo recibe datos y por sí mismo intenta buscar patrones que podrían ser segmentos y anomalías. Aprendizaje automático supervisado: Tipo de aprendizaje automático donde

el objetivo del algoritmo está definido, por ejemplo, reconocer “gatos” en fotos. El modelo se entrena con muchas fotos de gatos y así va aprendiendo las características claves (píxeles) de un gato. El modelo permite clasificar o predecir el resultado basado en una entrada con datos nuevos. Aprendizaje profundo/ Deep Learning: Tipo de aprendizaje automático que

está por debajo de la mayoría de los éxitos de la Inteligencia Artificial actual. Se basa en redes neuronales con varias capas (hasta centenares) de profundidad (por eso su nombre). Automatización: Se denomina así a cualquier tarea realizada por máquinas

en lugar de personas. Es la sustitución de procedimientos manuales por sistemas de computación. Asimov, Isaac: Escritor y científico ruso, importante autor de ciencia ficción.

Utilizó la palabra “robótica” en su obra Runaround , y se volvió muy popular a partir de una serie de historias breves llamadas I Robot , escritas desde 1950. Muy conocido por su referencia a los robots y a sus implicancias en el mundo del futuro, es autor de las famosas tres leyes de la robótica. Big Data : Conjunto inmenso de datos, estructurados y no estructurados,

cuyo crecimiento es exponencial y cuyo tratamiento no es posible a través de las aplicaciones informáticas de procesamiento de datos tradicionales. Es común el uso de la Inteligencia Artificial para el tratamiento y análisis del Big Data . Black Box : Concepto referido a la opacidad con la que algunos de los

algoritmos de Inteligencia Artificial toman sus decisiones en función de la información introducida. Se quiere dotar de transparencia a estos procesos para que se pueda analizar también el porqué de sus decisiones en caso de 369

tener un impacto en la vida de los usuarios (ver Inteligencia Arti cial Explicable) . Bot: O chatbot, asistente digital/virtual, en su versión más común. Es un

programa de Inteligencia Artificial, capaz de mantener conversaciones, sobre distintos temas con los usuarios. Búsqueda: Una técnica en Inteligencia Artificial que explora el espacio de

todas las posibles soluciones e intenta encontrar la solución óptima. Normalmente, se representa el espacio de las posibilidades como un árbol o un grafo. Existen muchas estrategias de búsqueda. La más básica es una búsqueda a ciegas y, después, vienen las búsquedas sistemáticas, como la búsqueda en profundidad o en anchura. En las búsquedas inteligentes, se usan algún tipo de información para guiar la búsqueda (llamadas heurísticas). Estas heurísticas, de varias maneras, estiman cómo de bueno es un movimiento en el árbol para encontrar la solución. Capek, Karel: Dramaturgo checo, quien mencionó la palabra “robot” por

primera vez en 1917 en una historia llamada Opilec , y se difundió en una obra suya más popular llamada Rossum’s Universal Robots , en 1921. Robot deriva de “robotnik ”, con la cual definía al “esclavo de trabajo”, y con ella se designaba a un artilugio mecánico con aspecto humano y capaz de desarrollar incansablemente tareas que estaban reservadas hasta el momento a los hombres. Computación cognitiva: Este es un término general que la empresa IBM

popularizó para describir el proceso mediante el cual las máquinas pueden extraer datos, reconocer patrones y procesar el lenguaje natural para interactuar y emular la inteligencia humana. En su forma más básica, el término se refiere a computadoras que pueden simular procesos de pensamiento humano. IBM y otras organizaciones usan a menudo este término en lugar del término más amplio “Inteligencia Artificial”. Data set : Conjunto de datos de algún dominio en concreto. En IA, se usa

para para entrenar un algoritmo de aprendizaje automático supervisado. Se puede explorar un data set también directamente con un algoritmo de aprendizaje no supervisado. Los data sets pueden tener sesgos que reflejan los sesgos de la realidad.

370

Deep fake : Vídeos en los que, mediante técnicas de Inteligencia Artificial

(GANs), se manipulan los rostros de sus protagonistas para poner la cara y la voz de otra persona de una manera muy realista.

Deep Learning / Aprendizaje profundo: Tipo de aprendizaje automático que

está por debajo de la mayoría de los éxitos de la Inteligencia Artificial actual. Se basa en redes neuronales con varias capas (hasta centenas) de profundidad (por eso su nombre). Explicabilidad: Se refiere a la capacidad de un sistema de Inteligencia

Artificial para explicar la razón detrás su conclusión, es decir, explicar el porqué de su respuesta. Esto es sobre todo importante cuando las conclusiones del sistema tienen un impacto importante en la vida de las personas, como es el caso en el sector de salud. Fake news : Noticias falsas difundidas, normalmente, a través de medios

digitales, blogs o redes sociales.

Human-in-the-loop (HITL): En la toma de decisiones autónomas, hay

distintos modos de intervención humana. HITL quiere decir que siempre hay una persona revisando la decisión sugerida por la máquina.

Human-on-the-loop (HOTL): En la toma de decisiones autónomas, hay

distintos modos de intervención humana. HOTL quiere decir que la máquina toma decisiones autónomas, pero que hay una persona que está monitorizando las decisiones por si hay errores.

Human-out-of-the-loop (HOOTL): En la toma de decisiones autónomas, hay

distintos modos de intervención humana. HOOTL quiere decir que la máquina toma decisiones autónomas sin ninguna intervención humana. Inteligencia Arti cial: “Inteligencia” simulada por máquinas. En ciencias de la

computación, una máquina “inteligente” es un agente racional flexible que percibe su entorno y lleva a cabo acciones que maximizan sus posibilidades de éxito en algún objetivo o tarea. Coloquialmente, el término “Inteligencia Artificial” se aplica cuando una máquina imita las funciones “cognitivas” que los humanos asocian con otras mentes humanas, por ejemplo, aprender y resolver problemas.

Inteligencia Arti cial basada en datos: Inteligencia Artificial que se basa en

el aprendizaje automático. El proceso de aprendizaje genera un modelo que funciona como un programa que convierte unos inputs en outputs . 371

Contrasta con la Inteligencia Artificial basada en reglas, donde el programa está escrito por personas. Inteligencia Arti cial débil/estrecha: La Inteligencia Artificial de hoy (2020) es

estrecha, es decir, es capaz de resolver una tarea muy concreta y limitada, pero falla drásticamente en otras tareas aunque están, desde una perspectiva humana, relacionadas. Inteligencia Arti cial explicable ( Explainable AI ): Capacidad de la

Inteligencia Artificial para tomar una decisión de forma autónoma y añadir la explicación de cómo ha llegado a esa decisión. Aún se encuentra en fase de investigación.

Inteligencia Arti cial fuerte/general: La Inteligencia Artificial que tiene las

mismas características que la inteligencia humana, es decir, puede aprender, razonar, entender, tiene sentido común y entiende causalidad.

Inteligencia Arti cial simbólica/basada en reglas: Sistemas de IA basados en

conocimiento explícito, donde este conocimiento está programado por personas. Intentional Stance : Concepto filosófico de Daniel Dennett que describe la

tendencia de las personas para atribuir características mentales a ciertos comportamientos de artefactos, aunque sepamos que no son mentales. Internet de las cosas (IoT, por sus siglas en inglés, Internet of Things ): Red

de objetos conectados a Internet capaces de recopilar e intercambiar datos mediante sensores incorporados.

Leyes de la robótica: El escritor Isaac Asimov propuso las “leyes de la

robótica”, que en un principio fueron solo tres, pero luego añadió una cuarta, llamada “ley cero”. Son las siguientes:

• Ley cero: Un robot no puede dañar a la humanidad o, a través de su inacción, permitir que se dañe a la humanidad. • Primera ley: Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano resulte dañado. • Segunda ley: Un robot debe obedecer las órdenes dadas por los seres humanos, excepto cuando tales órdenes estén en contra de la primera ley. • Tercera ley: Un robot debe proteger su propia existencia, siempre y cuando esta protección no entre en conflicto con la primera y la 372

segunda ley. Machine Learning/ Aprendizaje automático: Método de Inteligencia Artificial

que coge como input datos y genera como output un modelo que se puede usar para resolver un problema o para la toma de decisiones. El proceso de generar el modelo es el “aprendizaje” y el modelo es entrenado con los datos. Máquina: Objeto fabricado y compuesto por un conjunto de piezas ajustadas

entre sí, que se usa para facilitar o realizar un trabajo determinado, generalmente transformando una forma de energía en movimiento o trabajo.

Minería de datos: Conjunto de técnicas y tecnologías (estadísticas, sistemas

de base de datos e Inteligencia Artificial) que permiten explorar grandes bases de datos con el objetivo de encontrar patrones que nos puedan aportar información valiosa en la toma de futuras decisiones. Redes Generativas Antagónicas (RGAs): También conocidas como GANs en

inglés, son una clase de algoritmos de Inteligencia Artificial que utilizan dos redes neuronales que compiten mutuamente en una especie de juego de suma cero. Una de las redes, la generativa, va produciendo muestras de aquello que queramos crear (imágenes, textos, sonidos...). La segunda red, la discriminadora, analiza el material producido por la red generativa y determina si se ajusta a lo que está buscando. Este proceso se puede repetir millones de veces hasta que la red discriminadora acepte el resultado de la red generativa. Redes neuronales arti ciales: Es un sistema de procesamiento de

información que tiene en común ciertas características con las redes neuronales de los seres humanos. A través de un proceso de entrenamiento, mediante ejemplos, almacenan conocimiento de sus experiencias y lo hacen disponible para su uso posterior. Así, los sistemas de neuronas interconectadas colaboran entre sí para producir un estímulo de salida.

Gracias a las redes neuronales artificiales, la máquina puede aprender, detectar patrones y tomar decisiones, de manera autónoma, en torno a ello, simulando la acción del cerebro humano. Robot: El término “robot” procede del checo “robota ”, que significa

“trabajador” o “siervo”, con el que el escritor Karel Capek designó, primero en su novela y tres años más tarde en su obra teatral RUR (Los robots

373

universales de Rossum , 1920), a los androides, producidos en grandes

cantidades y vendidos como mano de obra de bajo costo, que el sabio Rossum crea para liberar a la humanidad del trabajo. En la actualidad, el término se aplica a todos los ingenios mecánicos, accionados y controlados electrónicamente, capaces de llevar a cabo secuencias simples que permiten realizar operaciones tales como carga y descarga, accionamiento de máquinas herramienta, operaciones de ensamblaje y soldadura, etc. Hoy en día, el desarrollo en este campo se dirige hacia la consecución de máquinas que sepan interactuar con el medio en el cual desarrollan su actividad (reconocimientos de formas, toma de decisiones, etc.). Robot humanoide: Son aquellos robots que asemejan la morfología humana

e intentan reproducir el comportamiento humano. Un ejemplo de robot humanoide es el robot Sophia, de Hanson Robotics, con apariencia humana, diseñada para adaptarse al comportamiento humano. Robot industrial: Definieron una primera fase y dominaron el campo durante

los años 70 y 80. En general, los robots industriales son preprogramados para realizar tareas específicas y no disponen de capacidad para reconfigurarse autónomamente. Robótica: La robótica es la rama de la ciencia que se ocupa del estudio,

desarrollo y aplicaciones de los robots.

Una herramienta para la automatización de los procesos de negocio que replica las acciones de un ser humano interactuando con la interfaz de usuario de un sistema informático. Se aplica a procesos simples y repetitivos. RPA (

robotics

process

automation

):

Search : Véase Búsqueda. Sensor: Transductor que capta magnitudes y las transforma en señales

eléctricas.

Sesgo: Aunque existen muchas definiciones de sesgos, en Inteligencia

Artificial se refiere, sobre todo, a los sesgos en los datos usados para el entrenamiento de los algoritmos y la posible discriminación del algoritmo contra colectivos vulnerables. Singularidad tecnológica: Punto a partir del que una civilización tecnológica

sufre tal aceleración del progreso que provoca la incapacidad para predecir sus consecuencias. 374

Test de Turing: Prueba para evaluar si las máquinas podían comportarse de

una manera similar al ser humano. En el test, un humano evalúa las conversaciones entre humano y máquina, y trata de distinguir cuál es cuál. Transhumanismo: Es un movimiento cultural e intelectual internacional,

fundado por David Pearce y Nick Bostrom, cuyas ideas principales están relacionadas con el uso de los avances en tecnología para mejorar, sin límites, las capacidades humanas físicas y psicológicas.

375

REFERENCIAS [1] Á. B. Aitor Goyenechea Puente. “Presentación del proyecto Lengua Española e Inteligencia Artificial (LEIA)”. Telefónica, RAE, noviembre de 2019. https://youtu.be/QRR9NRb6qjk . [2] “How Netflix’s Recommendations System Works”. Netflix. https://help.netflix.com/en/node/100639 . [3] “How does the Amazon Recommendation feature work?”. Stackoverflow. https://stackoverflow.com/questions/2323768/how-does-the-amazonrecommendation-feature-work . [4] “2010 flash crash”. Wikipedia. https://en.wikipedia.org/wiki/2010_flash_crash . [5] J. Delcker. “France, Germany under fire for failing to back ‘killer robots’ ban”. Politico, 2018. https://www.politico.eu/article/artificialintelligence-killer-robots-france-germany-under-fire-for-failing-toback-robots-ban/ . [6] J. Angwin, J. Larson, S. Mattu y L. Kirchner. “Machine Bias: There’s software used across the country to predict future criminals. And it’s biased against blacks”. ProPublica, 2016. https://www.propublica.org/article/machine-bias-risk-assessments-incriminal-sentencing . [7] W. Clancey. “‘The Epistemology of a Rule-Based Expert System - A Framework for Explanation’”. Department of Computer Science Stanford University, noviembre de  1981. http://infolab.stanford.edu/pub/cstr/reports/cs/tr/81/896/CS-TR-81896.pdf . 376

[8] P. Domingos. The Master Algorithm. Basic Books, Nueva York, 2015. [9] A. B. Arrieta, N. Díaz-Rodríguez, J. D. Ser et al. “Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI”. Information Fusion , vol. 58, pp. 82-115; 2020. [10] R. Benjamins, A. Barbado y D. Sierra. “Responsible AI by Design in Practice”. Proceedings of the Human-Centered AI: Trustworthiness of AI Models & Data (HAI) track at AAAI Fall Symposium, DC, 2019. [11] R. Benjamins. “Is your AI system discriminating without knowing it?: The paradox between fairness and privacy”. Think Big, 13 de septiembre de 2019. https://business.blogthinkbig.com/is-your-ai-systemdiscriminating-without-knowing-it-the-paradox-between-fairness-andprivacy/ . [12] “Ethics Washing Is When Ethics is A Substitute for Regulation”. Dataethics, 2018. https://dataethics.eu/ethics-washing-is-when-ethicsis-a-substitute-for-regulation/ . [13] E. Meyer. The Cultural Map: Breaking Through the Invisible Boundaries of Global Business , PublicAffairs, 2014. [14] “Moral Machine”. MIT Media Lab, 2016. http://moralmachine.mit.edu/ . [15] “Ethics guidelines for trustworthy AI”. European Comission, 2019. https://ec.europa.eu/digital-single-market/en/news/ethics-guidelinestrustworthy-ai . [16] J. Fjeld, H. Hilligoss, N. Achten, M. L. Daniel et al. “Principled artificial intelligence: a Map of Ethical and Rights-Based Approaches”. Berkman Klein Center, 2019. https://ai-hr.cyber.harvard.edu/images/primp-viz.pdf . [17] A. Jobin, M. Ienca y E. Vayena. “Artificial Intelligence: the global landscape of ethics guidelines”. 2019. https://arxiv.org/ftp/arxiv/papers/1906/1906.11668.pdf . [18] “AI Ethics Guidelines Global Inventory”. Algorithm Watch, 2019. https://algorithmwatch.org/en/project/ai-ethics-guidelines-globalinventory/ . [19] “On Artificial Intelligence - A European approach to excellence and trust”. European Commision, 19 de febrero de 2020. https://ec.europa.eu/info/publications/white-paper-artificialintelligence-european-approach-excellence-and-trust_en . [20] A. R. Michael Kearns. “Ethical algorithm design should guide technology regulation”. Brookings, enero de 2020. 377

https://www.brookings.edu/research/ethical-algorithm-design-shouldguide-technology-regulation/ . [21] A. Engler. “The case for AI transparency requirements”. Brookings, enero de 2020. https://www.brookings.edu/research/the-case-for-aitransparency-requirements . [22] K. Hill. “How Target Figured Out A Teen Girl Was Pregnant Before Her Father Did”. Forbes , 2012. https://www.forbes.com/sites/kashmirhill/2012/02/16/how-targetfigured-out-a-teen-girl-was-pregnant-before-her-father-did/ . [23] M. Wood. “Not Getting Any Job Offers? Your Social Media Activity Could Be The Reason”. Forbes , 2017. https://www.forbes.com/sites/allbusiness/2017/06/22/not-getting-anyjob-offers-your-social-media-activity-could-be-the-reason/ . [24] Y. FM. “La Liga reconoce que su app usa tu micrófono y ubicación para espiar qué bares emiten fútbol sin licencia”. Xataka, 2018. https://www.xataka.com/privacidad/laliga-reconoce-que-su-app-usatu-microfono-ubicacion-para-espiar-que-bares-emiten-futbol-licencia. [25] C. Cadwalladr y E. Graham-Harrison. “Revealed: 50 million Facebook profiles harvested for Cambridge Analytica in major data breach”. The Guardian , 2018. https://www.theguardian.com/news/2018/mar/17/cambridge-analyticafacebook-influence-us-election . [26] T. F. “Twitter, Facebook e Instagram cierran más de 300 cuentas falsas usadas por el PP”. El Con dencial , 2019. https://www.elconfidencial.com/espana/2019-09-20/twitter-partidopopular-redes-sociales_2244107/ . [27] “AOL search data leak”. Wikipedia, 2006. https://en.wikipedia.org/wiki/AOL_search_data_leak . [28] “76 días te tomaría leer las políticas de privacidad con las que anualmente te topas”. Abogado digital, junio de  2019. https://www.abogado.digital/76-dias-te-tomaria-leer-las-politicas-deprivacidad-con-las-que-anualmente-te-topas/ . [29] J. G. García. “’Brokers’ de datos: Facebook y Google no son los únicos que te conocen”. Retina El País , 2019. https://retina.elpais.com/retina/2019/01/07/tendencias/1546871859_023 579.html .

378

[30] T. Hardjono, D. Shrier y A. Pentland. Trust :: Data: A New Framework for Identity and Data sharing . CreateSpace Independent Publishing Platform, 2016. [31] “MIT TRUST::DATA CONSORTIUM”. Trust :: Data, 2019. https://trust.mit.edu/ . [32] “Sustainable Development Goals”. United Nations, 2015. https://www.un.org/sustainabledevelopment/sustainable-developmentgoals/ . [33] “Towards a European strategy on business-to-government data sharing for the public interest”. Expert Group on B2G Data Sharing, 2020. https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=64954 . [34] Personal Information Management Services: An analysis of an emerging market . Ctrl Shift, 2014. https://media.nesta.org.uk/documents/personal_information_managem ent_services.pdf . [35] “Privacy Knowledge Manager”. Ernie App, 2020. https://ernieapp.com/ . [36] S. Maldonado. “MyData Business Models”. Medium, diciembre de 2019. https://medium.com/privacycloud/mydata-business-modelse3c26c14367f . [37] M. Boran. “‘Killer robots’ are not science fiction - they’re here”. The Irish Times , 2019. https://www.irishtimes.com/business/innovation/killerrobots-are-not-science-fiction-they-re-here-1.3951632 . [38] “Campaign to Stop Killer Robots”. Campaign to Stop Killer Robots, 2012. https://www.stopkillerrobots.org/members/ . [39] P. Guimón. “Un ciberataque paraliza 16 hospitales de Reino Unido y les exige dinero”. El País , 2017. https://elpais.com/tecnologia/2017/05/12/actualidad/1494602389_45894 2.html . [40] “Jordan Peele uses AI, President Obama in fake news PSA”. ABC, 2018. https://youtu.be/bE1KWpoX9Hk . [41] VV. AA. The Malicious Use of Arti cial Intelligence, Forecasting, Prevention, and Mitigation . Febrero de 2018. https://maliciousaireport.com/ . [42] I. J. Goodfellow, J. Pouget-Abadie, M. Mirza, B. Xu et al. “Generative Adversarial Networks”. arXiv, vol. 1406.2661, 2014. [43] E. Ackerman. “Slight Street Sign Modifications Can Completely Fool Machine Learning Algorithms”. IEEE Spectrum, agosto de 2017. 379

https://spectrum.ieee.org/cars-thatthink/transportation/sensors/slight-street-sign-modifications-can-foolmachine-learning-algorithms . [44] P. Kahn. “Imagining warfare”. European Journal of International Law , vol. 24, n.º 1, pp. 199-226, 2013. [45] Á. Gómez Ágreda (presidente), J. Molino et al. . “Usos militares de la inteligencia artificial, la automatización y la robótica”. Instituto Español de Estudios Estratégicos (ieee.es), 2019. http://www.ieee.es/Galerias/fichero/docs_trabajo/2019/DIEEET042019InteligenciaRobotica.pdf . [46] M. Prigg. “Who goes there? Samsung unveils robot sentry that can kill from two miles away”. Daily Mail , 2014. https://www.dailymail.co.uk/sciencetech/article-2756847/Who-goesSamsung-reveals-robot-sentry-set-eye-North-Korea.html . [47] M. Eckstein. “Sea Hunter Unmanned Ship Continues Autonomy Testing as NAVSEA Moves Forward with Draft RFP”. USNI News, 2019. https://news.usni.org/2019/04/29/sea-hunter-unmanned-shipcontinues-autonomy-testing-as-navsea-moves-forward-with-draft-rfp . [48] G. Orwell. 1984 . Secker & Warburg, 1949. [49] D. Harwell. “Google to drop Pentagon AI contract after employee objections to the ‘business of war’”. The Washington Post , junio de  2018. https://www.washingtonpost.com/news/theswitch/wp/2018/06/01/google-to-drop-pentagon-ai-contract-afteremployees-called-it-the-business-of-war/ . [50] T. Hobbes. Leviatán . CreateSpace Independent Publishing Platform, 2016. [51] D. Silver, A. Huang et al. “Mastering the game of go with deep neural networks and tree search”. Nature , vol. 529, n.º 7.587, pp. 484-489, 2016. [52] A. Narváez. “Desvelamos los secretos del juego de AlphaZero: así aprendió a ganar a Stockfish”. The zugzwang blog, 2017. https://thezugzwangblog.com/desvelamos-los-secretos-del-juegoalphazero/ . [53] W. Xiong, J. Droppo, X. Huang, F. Seide et al. “Achieving Human Parity in Conversational Speech Recognition”. ArXiv, vol. 1610.05256, 2016. [54] Microsoft. “Machine Reading Systems Are Becoming More Conversational”. Microsoft, 2019. https://www.microsoft.com/en380

us/research/blog/machine-reading-systems-are-becoming-moreconversational/ . [55] A. Tan. “Sistema de traducción chino-inglés de Microsoft logra paridad humana”. SearchDataCenter, marzo de  2018. https://searchdatacenter.techtarget.com/es/noticias/252437056/Sistem a-de-traduccion-chino-ingles-de-Microsoft-logra-paridad-humana . [56] G. S. Meltzner, J. T. Heaton, Y. Deng, G. D. Luca et al. “Development of sEMG sensors and algorithms for silent speech recognition”. Journal of Neural Engineering , vol. 15, n.º 4, 2018. [57] A. Kapur, S. Kapur y P. Maes. “AlterEgo: A Personalized Wearable Silent Speech Interface”. 23rd International Conference on Intelligent User Interfaces (IUI 2018), 2018. [58] S. Kreps y M. McCain. “Not Your Father’s Bots: AI Is Making Fake News Look Real”. Foreignaffairs.com, 2019. https://www.foreignaffairs.com/articles/2019-08-02/not-your-fathersbots . [59] K. Hao. “Historia de la IA que domina las ‘fake news’ y su impacto en la sociedad”. MIT Technology Review , 2019. https://www.technologyreview.es/s/11412/historia-de-la-ia-quedomina-las-fake-news-y-su-impacto-en-la-sociedad . [60] R. Matheson. “Artificial intelligence model ‘learns’ from patient data to make cancer treatment less toxic”. MIT News, 2018. https://news.mit.edu/2018/artificial-intelligence-model-learns-patientdata-cancer-treatment-less-toxic-0810 . [61] T. Sourdin. “Judge v Robot? Artificial Intelligence and Judicial decisionmaking”. HeinOnline, 2018. https://heinonline.org/HOL/LandingPage? handle=hein.journals/swales41&div=48&id=&page= . [62] D. Chamberlain y T. B. Poteet. “Artificial Intelligence and the practice of Law or Can a computer think like a Lawyer?”. State Bar of Texas: 8th annual Business Disputes, 2016. http://www.texasbarcle.com/cle/OLViewArticle.asp? a=184155&t=PDF&e=14730&p=1 . [63] J. Zeleznikow. “Can Artificial Intelligence and Online Dispute Resolution enhance efficiency and effectiveness in Courts”. International Journal for Court Administration , 2017. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2999339 .

381

[64] I. Salazar. “Los robots y la Inteligencia Artificial. Nuevos retos del periodismo”. Doxa Comunicación, 2018. https://repositorioinstitucional.ceu.es/bitstream/10637/9889/1/%28ES% 29%20Monogr%c3%a1fico%204.pdf . [65] F. Marconi. “Report: How artificial intelligence will impact journalism”. Associated Press, 2017. https://insights.ap.org/industry-trends/reporthow-artificial-intelligence-will-impact-journalism . [66] M. Zavia. “Inscriben a una inteligencia artificial en un concurso literario. Queda finalista”. Gizmodo , 2016. https://es.gizmodo.com/inscriben-auna-inteligencia-artificial-en-un-concurso-1766836828 . [67] R. Benavente. “Un algoritmo es capaz de predecir si una novela será un éxito o un fracaso”. El Con dencial , 2014. https://www.elconfidencial.com/tecnologia/2014-01-16/un-algoritmoes-capaz-de-predecir-si-una-novela-sera-un-exito-o-unfracaso_76455/ . [68] “AI Is Winning Hearts & Minds in the Workplace: Global research highlights how AI is changing the relationship between people and technology at work”. Oracle, 2019. https://go.oracle.com/LP=86149? elqCampaignId=230263 . [69] P. Jordan. 12 Rules For Life: An Antidote to Chaos . Penguin Books, 2019. [70] D. Rushkoff. Team Human . Norton & Company, 2019. [71] M. Fitzgerald. “Coronavirus wipes out $1.7 trillion in US stock market value in two days”. CNBC, febrero de 2020. https://www.cnbc.com/2020/02/25/coronavirus-wipes-out-1point7trillion-in-us-stock-market-value-in-two-days.html . [72] J. Dean y T. Howard. “Coronavirus fears wipe £60bn from value of leading shares”. The Times , febrero de 2020. https://www.thetimes.co.uk/article/coronavirus-fears-wipe-60-billionfrom-value-of-leading-shares-wkqfqf6p9 . [73] F. Brauer, C. Castillo-Chávez, E. de Pava-Salgado, K. Barley et al. Modelos de la propagación de enfermedades infecciosas , Universidad Autónoma de Occidente, 2015. [74] N. Oliver. “Using Big Data To Fight Pandemics”. Tech crunch, 2014. https://techcrunch.com/2014/11/08/using-big-data-to-fight-pandemics/ .

382

[75] M. Wall. “Ebola: Can big data analytics help contain its spread?”. BBC, 2014. https://www.bbc.com/news/business-29617831 . [76] D. Goldman. “China suppressed Covid-19 with AI and big data”. Asia Times , marzo de 2020. https://asiatimes.com/2020/03/chinasuppressed-covid-19-with-ai-and-big-data/ . [77] C. Scott Littleton. Mitología. Antología ilustrada de mitos y leyendas del mundo . Blume. Barcelona, 2004. [78] P. Lemesurier. Nostradamus, bibliomancer: the man, the myth, the truth . New Page Books, 2010. [79] “Climate Change AI”. https://www.climatechange.ai/ . [80] “AI for Good”. https://aiforgood.itu.int/ . [81] “AI for Earth”. https://www.microsoft.com/en-us/ai/ai-for-earth . [82] “Google Public Alert”. https://google.org/publicalerts . [83] “Bee2FireDetection”.www.bee2firedetection.com/ . [84] J. Vincent. “Google is using AI to predict floods in India and warn users”. The Verge, 2018. https://www.theverge.com/2018/9/25/17900018/google-ai-predictionsflooding-india-public-alerts . [85] “One Concern”. https://www.oneconcern.com/ . [86] J. Vincent. “Google and Harvard team up to use deep learning to predict earthquake aftershocks”. The Verge, 2018. https://www.theverge.com/2018/8/30/17799356/ai-predict-earthquakeaftershocks-google-harvard . [87] T. W. Bank. “Using Big Data for the Sustainable Development Goals”. UNSD. https://unstats.un.org/unsd/trade/events/2015/abudhabi/presentations/ day3/02/2b%20AUsing%20Big%20Data%20for%20the%20Sustainable%20Development% 20Goals%2010222015.pdf . [88] D. Alexander. Principles of Emergency Planning and Management . Oxford University Press, 2002. [89] M. Corral. “Nepal, el primer gran terremoto continental seguido por GPS”. El Mundo , 2015. https://www.elmundo.es/ciencia/2015/08/06/55c39e8946163fa3248b458f .html . [90] Web del Cyclone Global Navigation Satellite System (CYGNSS). https://www.nasa.gov/cygnss . 383

[91] D. Arribas-Bel. “Accidental, open and everywhere: Emerging data sources for the understanding of cities”. Applied Geography , n.º  49, pp. 45-53, 2013. [92] P. Earle y D. C. Bowden. “Twitter earthquake detection: Earthquake monitoring in a social world”. Annals of Geophysics , n.º 54, 2012. [93] D. Mandl et al. “The Namibia Early Flood Warning System, a CEOS pilot project”. IEEE International Geoscience and Remote Sensing Symposium, pp. 3521-3524., 2012. [94] Y. Liou, S. Kar y L. Chang. “Use of high-resolution FORMOSAT-2 satellite images for post-earthquake disaster assessment: A study following the 12 May 2008 Wenchuan Earthquake”. International Journal of Remote Sensing , n.º 31, pp. 3355–3368, 2010. [95] C. Westrope y R. Banick. “Groundtruthing OpenStreetMap building damage assessment”. Procedia Eng. , n.º 78, pp. 29–39, 2014. [96] H. Security. “Virtual Social Media Working Group and DHS First Responders Group”. Lessons Learned: Social Media , 2013. https://www.dhs.gov/sites/default/files/publications/Lessons%20Learne d%20Social%20Media%20and%20Hurricane%20Sandy.pdf . [97] P. Mosterman, D. E. Sanabria et al. “A heterogeneous fleet of vehicles for automated humanitarian missions”. Computing in Science and Engineering , n.º 16, 2014. [98] “Objetivos de Desarrollo Sostenible”. Naciones Unidas, 2015. https://www.un.org/sustainabledevelopment/es/objetivos-dedesarrollo-sostenible/ . [99] “La Asamblea General adopta la Agenda 2030 para el Desarrollo Sostenible”. ONU, 2015. https://www.un.org/sustainabledevelopment/es/2015/09/la-asambleageneral-adopta-la-agenda-2030-para-el-desarrollo-sostenible/ . [100] “Govlab”. Govlab, NYU, 2019. http://www.thegovlab.org/ . [101] “Data Collaboratives Explorer”. Govlab, NYU, 2019. https://datacollaboratives.org/explorer.html . [102] “Data for Good - Giving back the value of data to society in line with the 2030 Sustainable Development Goals”. LUCA, Telefónica, 2016. https://luca-d3.com/data-for-good . [103] Expert Group B2G data sharing. “Towards a European strategy on business-to-government data sharing for the public interest”. European

384

Commission, febrero de  2020. https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=64954 . [104] L. Lin. “China Marshals Its Surveillance Powers Against Coronavirus”. The Wall Street Journal , enero de  2020. https://www.wsj.com/articles/china-marshals-the-power-of-itssurveillance-state-in-fight-against-coronavirus-11580831633 . [105] M. Islam. “South Korea winning the fight against coronavirus using bigdata and AI”. The Daily Star , 14  de marzo de  2020. https://www.thedailystar.net/online/news/south-korea-winning-thefight-against-coronavirus-using-big-data-and-ai-1880737 . [106] C. Stieg. “How this Canadian start-up spotted coronavirus before everyone else knew about it”. CNBC, 3  de marzo de  2020. https://www.cnbc.com/2020/03/03/bluedot-used-artificial-intelligenceto-predict-coronavirus-spread.html . [107] I. Rubio. “Inteligencia artificial valenciana para aconsejar si hospitalizar a un contagiado”. El País , 18  de marzo de  2020. https://retina.elpais.com/retina/2020/03/17/innovacion/1584450877_681 658.html . [108] J. P. Colomé. “Madrid lanza una web para atender a posibles afectados de coronavirus”. El País , 18  de marzo de  2020. https://elpais.com/tecnologia/2020-03-18/madrid-lanza-una-web-paraatender-a-posibles-afectados-de-coronavirus.html . [109] N. Jao, D. Cohen y C. Udemans. “How China is using QR code apps to contain Covid-19”. Technode, 25  de febrero de  2020. https://technode.com/2020/02/25/how-china-is-using-qr-code-apps-tocontain-covid-19/ . [110] “Statement by the EDPB Chair on the processing of personal data in the context of the COVID-19 outbreak”. EDPB, 16  de marzo de  2020. https://edpb.europa.eu/news/news/2020/statement-edpb-chairprocessing-personal-data-context-covid-19-outbreak_en . [111] l. Pollina y D. Busvine. “European mobile operators share data for coronavirus fight”. Reuters, 18  de marzo de  2020. https://uk.reuters.com/article/us-health-coronavirus-europetelecoms/european-mobile-operators-share-data-for-coronavirusfight-idUKKBN2152C2 . [112] J. P. Colomé. “Valencia prepara un proyecto pionero con datos de móviles para trazar el movimiento del coronavirus”. El País , 20  de 385

marzo de  2020. https://elpais.com/tecnologia/2020-03-19/valenciaprepara-un-proyecto-pionero-con-datos-de-moviles-para-trazar-elmovimiento-del-coronavirus.html . [113] “US researchers use world’s fastest supercomputer in quest for coronavirus vaccine”. The Straits Times , 20  de marzo de  2020. https://www.straitstimes.com/world/united-states/us-researchers-useworlds-fastest-supercomputer-in-quest-for-coronavirus-vaccine . [114] “Commission appoints Expert Group on Business-to-Government Data Sharing”. European Commission, noviembre de  2018. https://ec.europa.eu/digital-single-market/en/news/commissionappoints-expert-group-business-government-data-sharing . [115] A. Wesolowski, C. O. Buckee, L. Bengtsson, E. Wetter et al. “Commentary: Containing the Ebola Outbreak - the Potential and Challenge of Mobile Network Data”. PLoS currents , vol. 6, septiembre de 2014. [116] P. Peiró. “Los billetes de avión predicen dónde viajan las enfermedades”. El País , noviembre de  2018. https://elpais.com/elpais/2018/10/29/planeta_futuro/1540825274_34920 6.html . [117] N. Oliver. “Combating global epidemics with big mobile data”. The Guardian , 5  de septiembre de  2013. https://www.theguardian.com/media-network/media-networkblog/2013/sep/05/combating-epidemics-big-mobile-data . [118] “Mobile Insights for a Better Future: ‘Unlocking Big Data Solutions in support of the SDGs’”. GSMA, 2016. https://aiforimpacttoolkit.gsma.com/ . [119] “BIDA y COP25: Request feedback about B2G”. AECE, diciembre de  2019. https://aeca.es/bida-y-cop25-request-feedback-about-b2gbusiness-to-government/ . [120] “KT Corp. Unveils Global Epidemic Prevention Platform in Laos”. Bloomberg , septiembre de  2019. https://www.bloomberg.com/pressreleases/2019-09-09/kt-corp-unveils-global-epidemic-preventionplatform-in-laos . [121] “Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions”. European Commission, febrero de  2020.

386

https://ec.europa.eu/info/sites/info/files/communication-europeanstrategy-data-19feb2020_en.pdf . [122] “Jack Ma, presidente de Alibaba, augura que en el futuro se trabajará solo 12  horas a la semana”. El País , agosto de  2019. https://elpais.com/economia/2019/08/29/actualidad/1567076867_11047 5.html . [123] D. Meyer. “Google Should Have Thought About Duplex’s Ethical Issues Before Showing It Off”. Fortune , mayo de  2018. https://fortune.com/2018/05/11/google-duplex-virtual-assistantethical-issues-ai-machine-learning/ . [124] “Di hola a tu Hogar Movistar”. Telefónica, 2019. https://aura.telefonica.com/es/ . [125] L. R. Penabad. “Esta tecnología promete poder conducir dos camiones a la vez”. Coches.com, agosto de  2019. https://noticias.coches.com/noticias-motor/conducir-doscamiones/351409 . [126] “JURIBLOX A.I.”. https://juriblox.nl/diensten/a-i/ . [127] “Machine Learning made beautifully simple for everyone”. BigML. https://bigml.com/ . [128] L. Moses. “The Washington Post’s robot reporter has published 850 articles in the past year”. DigiDay, septiembre de  2017. https://digiday.com/media/washington-posts-robot-reporter-published500-articles-last-year/ . [129] J. M. Cuéllar. “¿Ganará el próximo World Press Photo un robot?”. El País , julio de  2019. https://retina.elpais.com/retina/2019/07/11/tendencias/1562861512_532 084.html?utm_source=diarionews&utm_medium=link . [130] G. Cohn. “AI Art at Christie’s Sells for $432,500”. New York Times , octubre de  2018. https://www.nytimes.com/2018/10/25/arts/design/aiart-sold-christies.html . [131] V. Lipman. “People Leave Managers, Not Companies”. Forbes , 2015. https://www.forbes.com/sites/victorlipman/2015/08/04/people-leavemanagers-not-companies/ . [132] K. Kruse. “In 2023 Your Boss Will Be A Robot (And You Will Love Her)”. Forbes , 2018. https://www.forbes.com/sites/kevinkruse/2018/11/28/your-boss-willbe-a-robot-and-you-will-love-her/ . 387

[133] J. Manyika, M. Chui, M. Miremadi, J. Bughin et al. A future that works: Automation, employment, and productivity . McKinsey Global Institute, Chicago, 2017. [134] M. Ford. Rise of the Robots . Basic Books, Nueva York, 2015. [135] E. Brynjolfsson, T. Mitchell y D. Rock. “What Can Machines Learn and What Does It Mean for Occupations and the Economy?”. AEA Papers and Proceedings 2018, 2018. [136] E. Brynjolfsson y T. Mitchell. “What can machine learning do? Workforce implications”. Science , vol. 358, n.º 6370, pp. 1530-1534, 2017. [137] “The O*NET® Content Model”. O*NET, 2019 (actualizado). https://www.onetcenter.org/content.html . [138] K. F. Lee. AI Superpowers: China, Silicon Valley, and the New World Order . Houghton Mifflin Harcourt, Nueva York, 2018. [139] S. Suri y M. L. Gray. Ghost Work: How to Stop Silicon Valley from Building a New Global Underclass . HMH Books, Boston, 2019. [140] S. Harrison. “AI May Not Kill Your Job—Just Change It”. Wired, octubre de 2019. https://www.wired.com/story/ai-not-kill-job-change-it/ . [141] L. Gratton y A. Scott. The 100-Year Life – Living and Working in an Age of Longevity . Bloomsbury Publishing, 2016. [142] K. Lant. “Universal Basic Income, Pilot Programs”. Futurism, 2019. https://futurism.com/images/universal-basic-income-ubi-pilotprograms-around-the-world . [143] A. Behar. “Our broken economic model is robbing dignity and burning the planet. Time for radical change”. WEF, 2020. https://www.weforum.org/agenda/2020/01/wage-inequality-disparitypoverty-wealth-broken-economic-model-oxfam/ . [144] Y. N. Hariri. Homo Deus . Random House, Reino Unido, 2016. [145] K. Paul. “Microsoft Japan tested a four-day work week and productivity jumped by 40%”. The Guardian , 2019. https://www.theguardian.com/technology/2019/nov/04/microsoft-japanfour-day-work-week-productivity . [146] K. J. Delaney. “The robot that takes your job should pay taxes, says Bill Gates”. Quartz , 2017. https://qz.com/911968/bill-gates-the-robot-thattakes-your-job-should-pay-taxes/ . [147] “European parliament calls for robot law, rejects robot tax”. Reuters, 2017. https://www.reuters.com/article/us-europe-robots-lawmaking388

idUSKBN15V2KM . [148] “De Blasio campaign launches “robot tax” as part of aggressive plan to protect workers from threat of automation”. Bill de Blasio, septiembre de  2019. https://www.democracyinaction.us/2020/deblasio/deblasiopolicy090519 automation.html . [149] B. Bergstein. “La gran paradoja de la inteligencia artificial sobre la destrucción del empleo”. MIT Technology Review , diciembre de 2017. https://www.technologyreview.es/s/9868/la-gran-paradoja-de-lainteligencia-artificial-sobre-la-destruccion-del-empleo . [150] “Why universal basic income costs far less than you think”. The Conversation , agosto de  2018. http://theconversation.com/whyuniversal-basic-income-costs-far-less-than-you-think-101134 . [151] N. Sturgeon. “Why universal basic income is worth a serious look”. The Economist , 2018. https://www.economist.com/openfuture/2018/05/31/why-universal-basic-income-is-worth-a-serious-look . [152] “Ontario Basic Income Pilot”. Ontario Government, abril de  2019. https://www.ontario.ca/page/ontario-basic-income-pilot . [153] S. Varghese. “Finland’s grand universal basic income experiment raises more questions than it answers”. Wired , febrero de  2019. https://www.wired.co.uk/article/universal-basic-income-policyuniversal-credit . [154] “The Effects of a Universal Basic Income in Kenya”. IPA. https://www.poverty-action.org/study/effects-universal-basic-incomekenya . [155] “Amazon Mechanical Turk Access. A global, on-demand, 24x7 workforce”. Amazon Mechanical Turk. https://www.mturk.com/ . [156] E. Rodríguez y S. Dagher. “Madrid court rules Deliveroo couriers are employees, not freelancers”. Reuters, julio de  2019. https://www.reuters.com/article/us-spain-deliveroo/madrid-courtrules-deliveroo-couriers-are-employees-not-freelancersidUSKCN1UI17O . [157] D. Acemoglu y P. Restrepo. “The race between man and machine: Implications of technology for growth, factor shares, and employment”. American Economic Review , vol. 108, n.º 6, pp. 1488-1542, 2018.

389

[158] C. B. Frey y M. A. Osborne. “The Future of Employment: How Susceptible Are Jobs to Computerisation?”. Oxford Martin, 2013. [159] J. Keynes. The Economic Possibilities for our Grandchildren, Essays in Persuasion . Macmillan, Londres, 1931. [160] C. Pissarides y J. Bughin. “Embracing the New Age of Automation”. Project Syndicate, enero de  2018. https://www.projectsyndicate.org/commentary/automation-jobs-policy-imperatives-bychristopher-pissarides-and-jacques-bughin-2018-01 . [161] B. Peters. “Employment effects of different innovation activitiesmicroeconomic evidence, ZEW discussion”. Zentrum fur Eurpaische Wirtschaftsforschung, Mannheim, 2004. [162] J. Bughin, J. Staun, J. Andersen, M. Schultz-Nielsen et al. “Digitallyenabled automation and artificial intelligence: Shaping the future of work in Europe’s digital front-runners”. McKinsey, octubre de  2017. https://www.mckinsey.com/~/media/mckinsey/featured%20insights/eur ope/shaping%20the%20future%20of%20work%20in%20europes%20nin e%20digital%20front%20runner%20countries/shaping-the-future-ofwork-in-europes-digital-front-runners.ashx . [163] J. Deming. “The Growing Importance of Social Skills in the Labor Market”. The Quarterly Journal of Economics , vol. 132, n.º 4, pp. 1593– 1640, 2017. [164] “Skill shift: automation and the future of work”, McKinsey Global Institute, mayo de  2018. https://www.mckinsey.com/~/media/mckinsey/featured%20insights/futu re%20of%20organizations/skill%20shift%20automation%20and%20the %20future%20of%20the%20workforce/mgi-skill-shift-automation-andfuture-of-the-workforce-may-2018.ashx . [165] F. Radulovic y N. Milikic. “Smiley Ontology.University of Belgrade”. Semanthic Scholar, 2009. https://pdfs.semanticscholar.org/3d66/7eaf1031a11cc1a8aeb79ee83db8 d401d379.pdf . [166] E. Jozuka. “Beyond dimensions: The man who married a hologram”. CNN health, 2018. https://edition.cnn.com/2018/12/28/health/rise-ofdigisexuals-intl/index.html . [167] Z. Stone. “Everything You Need To Know About Sophia, The World’s First Robot Citizen”. Forbes , 2018.

390

https://www.forbes.com/sites/zarastone/2017/11/07/everything-youneed-to-know-about-sophia-the-worlds-first-robot-citizen . [168] Geller. “Talos”. Mithology.net, 2016. https://mythology.net/greek/greekconcepts/talos/ . [169] A. Blázquez. “Medea recuerda su pasado literario: análisis intertextual de la Heroida 12 de Ovidio y las Argonáuticas de Apolonio de Rodas”. Cuadernos de Filología Clásica . Universidad Complutense de Madrid, 2019. https://revistas.ucm.es/index.php/CFCL/article/view/64889 . [170] A. Mayor. Gods and Robots: Myths, Machines, and Ancient Dreams of Technology . Princeton University Press, Princeton, 2018. [171] P. Skalfist. La Revolución robótica . Cambridge Stanford Books, 2019. [172] “El monumental mausoleo de los guerreros de Xian”. National Geographic Historia , 2017. https://historia.nationalgeographic.com.es/a/monumental-mausoleoguerreros-xian_6638 . [173] J. Alonso. “El gólem: un hombre de barro para salvar a los judíos”. National Geographic Historia , 2019. https://historia.nationalgeographic.com.es/a/golem-hombre-barropara-salvar-a-judios_14269/6 . [174] A. Mayor. Dioses y robots. Mitos, máquinas y sueños tecnológicos en la antigüedad . Ediciones Desperta Ferro, 2019. [175] K. ˇCapek. R.U.R.: Rossum’s Universal Robots . Wildside Press, edición de 2010. [176] J. McCarthy, M. Minsky et al. “A proposal for the Dartmouth summer research project on artificial intelligence”. Stanford, 1955. http://wwwformal.stanford.edu/jmc/history/dartmouth/dartmouth.html . [177] A. Turing. “Computing, machinery and intelligence”. Mind 49, 1950, pp 433-460. https://www.csee.umbc.edu/courses/471/papers/turing.pdf . [178] M. Mori. “The Uncanny Valley: The Original Essay”. IEEE Spectrum, 2012. https://spectrum.ieee.org/automaton/robotics/humanoids/theuncanny-valley . [179] M. Kovacic. “Sociedad 5.0: la sociedad japonesa superinteligente como modelo global”. La Vanguardia , 2019. https://www.lavanguardia.com/vanguardiadossier/20190502/461995596460/sociedad-5-japonesasuperinteligente-modelo-global.html .

391

[180] J. Robertson. Robo sapiens japanicus: Robots, Gender, Family, and the Japanese Nation . University of California Press, 2017. [181] M. Boden. La mente creativa: mitos y mecanismos . GEDISA, 2009. [182] I. Goodfellow y J. Pouget-Abadie. Generative Adversarial Networks , n.º 1406.2661, 2014. [183] T. Karras y S. Laine. “A Style-Based Generator Architecture for Generative Adversarial Networks”. Cornell University, 2019. https://arxiv.org/abs/1812.04948v3 . [184] “Is artificial intelligence set to become art’s next medium?”. Christie’s, 2018. https://www.christies.com/features/A-collaboration-betweentwo-artists-one-human-one-a-machine-9332-1.aspx . [185] C. Darwin. La expresión de las emociones . Laetoli, 2009. [186] D. Dennett. The Intentional Stance . The MIT Press, Cambridge, 1987. [187] “’El detector’ es Skype”. El País , diciembre de  2006. https://elpais.com/tecnologia/2006/12/22/actualidad/1166779680_85021 5.html . [188] P. Nilsson. “How AI helps recruiters track jobseekers’ emotions”. Financial Times , febrero de  2018. https://www.ft.com/content/e2e85644-05be-11e8-9650-9c0ad2d7c5b5 . [189] C. Jones, W. Moyle et al . “Use of a Robotic Seal as a Therapeutic Tool to Improve Dementia Symptoms: A Cluster-Randomized Controlled Trial”. Journal of the American Medical Directors Association , 2017. https://www.sciencedirect.com/science/article/pii/S1525861017301895 . [190] H. Fisher. ¿Por qué amamos?: naturaleza y química del amor romántico . Taurus, 2005. [191] H. Damasio, T. Grabowski, R. Frank y A. Galaburda. “The return of Phineas gage: Clues about the brain from the skull of a famous patient”. Science , n.º 264, pp. 1102-1105, 2014. [192] J. Feinstein, R. Adolphs, A. Damasio y D. Tranel. “The Human Amygdala and the Induction and Experience of Fear”. Current biology , 2011. [193] C. Breathnach. “Charles Scott Sherrington’s Integrative Action: a centenary notice”. Journal of the Royal Society of Medicine , 2004. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC1079269/ . [194] L. Alonso. “Sentimientos y emociones”. Revista de Investigación y ciencia , 2015. https://www.investigacionyciencia.es/revistas/mente-y-

392

cerebro/el-poder-de-las-marcas-648/sentimientos-y-emociones-13498 . [195] B. Sanchez, J. N. Wei, B. K. Lee y R. C. Gerkin. “Machine Learning for Scent: Learning Generalizable Perceptual Representations of Small Molecules”. Arxiv, 2019. https://arxiv.org/abs/1910.10685 . [196] S. Dehaene, H. Lau y S. Kouider. “What is consciousness, and could machines have it?”. Science Magazine , 2017. https://science.sciencemag.org/content/358/6362/486.full . [197] R. Novianto y M. A. Williams. “The role of attention in robot selfawareness”. IEEE, 2009. https://ieeexplore.ieee.org/abstract/document/5326155 . [198] P. O. A. Haikonen. “Reflections of Consciousness: The Mirror Test”. Nokia Research Center, 2007. https://www.aaai.org/Papers/Symposia/Fall/2007/FS-07-01/FS07-01012.pdf . [199] H. Hodson. “Robot homes in on consciousness by passing selfawareness test”. New Scientist, 2015. https://www.newscientist.com/article/mg22730302-700-robot-homesin-on-consciousness-by-passing-self-awareness-test/? gwaloggedin=true . [200] E. García Cuesta. “Artificial Intelligent Ethics in the Digital Era: an Engineering Ethical Framework Proposal”. Arxiv, 2020. https://arxiv.org/ftp/arxiv/papers/2002/2002.07734.pdf . [201] N. Bostrom. Superintelligence . Oxford University Press, Nueva York, 2014. [202] J. Weizenbaum. “ELIZA”. Wikipedia. https://es.wikipedia.org/wiki/ELIZA . [203] “Eliza”. Deixilabs, 2018. http://deixilabs.com/eliza.html . [204] G. D. Michal Wallace. “Eliza, the Rogerian Therapist”. Psychology Peer Mentors, 1999. http://psych.fullerton.edu/mbirnbaum/psych101/Eliza.htm . [205] E. D. Gary Marcus. Rebooting AI: Building Arti cial Intelligence We Can Trust . Pantheon Books, Nueva York, 2019. [206] A. Hern. “New AI fake text generator may be too dangerous to release, say creators”. The Guardian , febrero de  2019. https://www.theguardian.com/technology/2019/feb/14/elon-muskbacked-ai-writes-convincing-news-fiction . 393

[207] G. Marcus. “GPT-2 and the Nature of Intelligence”. The Gradient , enero de  2020. https://thegradient.pub/gpt2-and-the-nature-ofintelligence/ . [208] “ConceptNet An open, multilingual knowledge graph”. ConceptNet. http://conceptnet.io/ . [209] “Mosaic Knowledge Graphs”. Allen Institute for AI. https://mosaickg.apps.allenai.org/ . [210] N. Gupta, K. Lin, D. Roth, S. Singh y M. Gardner. “Neural Module Networks for Reasoning over Text”. ICLR 2020 (International Conference on Learning Representations, 2020). https://arxiv.org/abs/1912.04971 . [211] D. Dua, Y. Wang, P. Dasigi, G. Stanovsky et al. “DROP: A Reading Comprehension Benchmark Requiring Discrete Reasoning Over Paragraphs”. Proc. of NAACL, https://allennlp.org/drop.2019 . [212] “Last universal common ancestor”. Wikipedia. https://en.wikipedia.org/wiki/Last_universal_common_ancestor . [213] D. Dennett. From Bacteria to Bach and Back, The Evolution of Minds . W W Norton Trade, Nueva York, Londres, 2017. [214] A. Regalado. “What It Will Take for Computers to Be Conscious”. MIT Technology Review , 2014. https://www.technologyreview.com/s/531146/what-it-will-take-forcomputers-to-be-conscious/ . [215] R. Benjamins. “Los líderes mundiales de la inteligencia artificial ética”. Think Big/Empresas, 2019. https://empresas.blogthinkbig.com/loslideres-mundiales-de-la-inteligencia-artificial-etica/ . [216] B. Wagner. “Ethics as an Escape from Regulation: From ethics-washing to ethics-shopping?”. Being Pro ling. Cogitas ergo sum . Ámsterdam, 2018. [217] J. Salas. “Por qué hay que prohibir que nos manipulen el cerebro antes de que sea posible”. El País , 2020. https://elpais.com/elpais/2020/01/30/ciencia/1580381695_084761.html . [218] K. Hao. “Training a single AI model can emit as much carbon as five cars in their lifetimes”. MIT Technology Review . https://www.technologyreview.com/s/613630/training-a-single-aimodel-can-emit-as-much-carbon-as-five-cars-in-their-lifetimes/ . [219] A. Ganesh, A. McCallum y E. Strubell. “Energy and Policy Considerations for Deep Learning in NLP”. 57th Annual Meeting of the Association for Computational Linguistics (ACL), Florencia, 2019. 394

[220] “An open letter to the United Nations convention on Certain Conventional Weapons”. Future of life Institute, 2015. https://futureoflife.org/autonomous-weapons-open-letter-2017 . [221] A. Turing. “Computing machinery and intelligence”. Mind 59, pp. 433460, 1950. https://web.archive.org/web/20080702224846/ http://loebner.net/Prizef/TuringArticle.html . [222] “CYCORP”. CYCORP. https://www.welcome.ai/tech/productdevelopment/cycorp . [223] “NORMAN World’s first psychopath AI”. MIT, abril de  2018. http://norman-ai.mit.edu/ .

395

Edición en formato digital: 2020 Responsable editorial: Víctor Manuel Ruiz Calderón Diseño de cubierta: Palabra de apache Composición de cubierta: Celia Antón Santos © Ilustraciones y composiciones: Emmanuel Letouzé, Juan Silva, Javier Fernández Castañón y Juncal Alonso Álvarez. Fotografía página 94: Imagen cedida por José Carlos Chacón, director de Aerorobótica. Fotografía página 232: Imagen cedida por Casual Robots. Fotografía página 257: Imagen cedida por Juguetrónica. Imágenes de montajes y composiciones © 2020 iStockphoto L.P. El resto de las fotografías has sido cedidas por los respectivos autores y colaboradores. © Prólogo: Nuria Oliver © Colaboraciones: Alfonso Rodríguez-Patón, Ángel Gómez de Ágreda, Antonio Rodríguez de las Heras, Bernhardt L. Trout, Borja Adsuara Varela, Carlos Rebate, Casimiro Nevado, Chema Alonso, Claudio Feijoo, Emmanuel Letouzé, Enrique Ávila, Enrique Frías Martínez, Esteban García Cuesta, Ignacio H. Medrano, Jacques Bughin, Javier Fernández Castañón, Jesús Avezuela, José Manuel Gómez Pérez, Juan José Escribano, Leontxo García, Minia Manteiga Outeiro, Patrick Vinck, Ramón López de Mántaras, Raúl Arrabales y Stefaan Verhulst. © Resto de textos de la obra: Richard Benjamins e Idoia Salazar © EDICIONES ANAYA MULTIMEDIA (GRUPO ANAYA, S. A.), 2020 Calle Juan Ignacio Luca de Tena, 15 28027 Madrid ISBN ebook: 978-84-415-0799-9 Está prohibida la reproducción total o parcial de este libro electrónico, su transmisión, su descarga, su descompilación, su tratamiento informático, su almacenamiento o introducción en cualquier sistema de repositorio y recuperación,

396

en cualquier forma o por cualquier medio, ya sea electrónico, mecánico, conocido o por inventar, sin el permiso expreso escrito de los titulares del Copyright. Conversión a formato digital: REGA www.anayamultimedia.es

397

Índice Agradecimientos

4

Nota de los autores Nota de la máquina

6 10

Prólogo Introducción

19 22

¿Nos debería preocupar la IA? Grandes inversiones mayor eficiencia... y ¿peligro real? El objetivo de este libro

1. Máquinas mentirosas

23 24 25

26

¿Podrán controlarnos las máquinas? La inconsciencia del ser humano Decisiones justas y bien explicadas En busca de un algoritmo ético

28 35 41 55

2. Un mundo transparente

64

El Gran Hermano me vigila Todo se reduce a datos Empresas de cristal Del caos al cosmos en un mundo de datos

3. Guerra de las máquinas

67 74 81 87

96

Robots asesinos Puedo, pero ¿debo? El botón rojo, ¿en manos de una máquina? La gran alianza humanos/IA contra la ciberguerra

4. Robots, 1 / Humanidad, 0

98 110 114 116

126

Más inteligente, más rápido y más fuerte ¿Es necesario competir con las máquinas? Simbiosis Humanos, 1 – Robots, 1

5. Datos e IA, ¡al rescate!

130 150 160 171

178

El poder de los datos en las predicciones de epidemias o catástrofes

398

182

naturales IA con responsabilidad: tiempo y precisión al servicio del ser humano Aplicaciones reales en el caso del coronavirus ¿Aprenderemos... a tiempo?

6. Despedido por un robot

194 214 228

237

El apocalipsis del mundo laboral Aprendiendo a trabajar con las máquinas Menos fantasmas y más hechos El empleo en el futuro

7. Mi novia/o es un robot

239 243 249 257

273

Máquinas sensibles y adorables... o no ¿Podría un robot ser capaz de amar? Cuando la simulación es un hecho Qué pasaría sí...

8. El día en que llegó la singularidad tecnológica Hal 9000 toma el control Autonomía controlada La gran encrucijada El futuro de la humanidad

276 280 292 308

315 318 320 328 334

Epílogo. Un cuento sobre Inteligencia Artificial

350

El día en que Sybil intentó comprender a los humanos

352

Glosario Referencias Créditos

368 376 396

399

Related Documents


More Documents from "piramoytisbe"