Nick Bostrom
Nick Bostrom - ABC

Nick Bostrom: «Debemos ser capaces de saber cómo controlar la Inteligencia Artificial»

El filósofo sueco es uno de los más influyentes en superinteligencia. Dirige el Instituto del Futuro de la Humanidad en la Universidad de Oxford

Actualizado:

El transhumanismo es considerar la posibilidad de mejorar la condición humana física, emocional y cognitivamente, utilizando el progreso de la ciencia y la tecnología. Hablo de este movimiento intelectual, científico y cultural con el filósofo Nick Bostrom (Suecia, 1973), fundador junto a David Pearce de la Asociación Transhumanista Mundial y uno de los pensadores más influyentes en superinteligencia. Dirige el Instituto del Futuro de la Humanidad y el Programa de Gobernabilidad de la Inteligencia Artificial en la Universidad de Oxford. Es autor de más de 200 publicaciones, destacando «Mejoramiento humano» (Teel Editorial) o «Superinteligencia, caminos, peligros, estrategias» (Teel Editorial), best seller del «New York Times» y recomendado encarecidamente por Bill Gates y Elon Musk.

¿Qué le llevó a crear la Asociación Transhumanista Mundial?

Bueno, esto sucedió en los años 90. En aquel entonces me parecía que no había un foro adecuado para discutir los impactos del nacimiento de futuras tecnologías y la manera en las que éstas podrían afectar a la condición humana. En ese momento se enfatizaba, sobre todo, lo negativo. La mayoría de los temas relevantes no se discutían en absoluto y las escasas discusiones sobre bioética académica se centraban siempre en inconvenientes como la posible deshumanización por la aplicación de la tecnología para mejorar las capacidades humanas. Era necesario que hubiera otra voz. La asociación fue un esfuerzo para tratar de crear una plataforma para cumplir ese cometido.

¿Y en la actualidad?

No participo en ella desde hace muchos años. A principios de la década de 2000 estos problemas encontraron eco y fueron desarrollados en el ámbito académico. Y la organización dejó de ser una necesidad.

Se habla de que la Inteligencia Artificial está tratando de conseguir una inteligencia con consciencia para aprender de la misma manera que los humanos. ¿Qué nos puede decir?

Creo que gran parte de la expectación en los últimos ocho años se debe a los avances en el aprendizaje profundo; este es un enfoque particular de la IA. Esta manera de procesar la información es similar en muchas maneras a como lo hace nuestra mente humana. La expectación se crea porque parece ser una forma más «general» de estructurar la inteligencia, un tipo de algoritmo que tiene la capacidad general de aprender de los datos (big data), aprender de la experiencia y construir representaciones a partir de un patrón presente en dichos datos que no ha sido explícitamente preprogramado por humanos. Este nuevo concepto apunta a la Inteligencia General Artificial (AGI).

¿Puede poner un ejemplo?

El mismo algoritmo que puede aprender a jugar un solo juego de Atari puede aprender a jugar otros juegos de Atari. Con pequeñas modificaciones, puede aprender a jugar al ajedrez, a Go, a reconocer a gatos en imágenes y a reconocer el habla. A pesar de que hay límites a lo que se puede hacer hoy, hay indicios de que podríamos estar llegando al tipo de mecanismo que proporcione una flexibilidad similar a la de la inteligencia humana, una especie de capacidad general de aprendizaje.

Algunas voces son más escépticas.

Si observa los sistemas que se utilizan en la industria, todavía son una especie de híbridos. En algunos casos, estos sistemas de aprendizaje profundo modernos se utilizan específicamente para reconocimiento de imágenes y de voz, pero muchos otros sistemas empleados por las empresas siguen siendo en su mayoría sistemas expertos en aplicaciones para un propósito específico siguiendo el estilo de la vieja escuela. Esto contribuye a crear la confusión.

¿Cuándo cree que será una realidad la nanotecnología molecular, que permitiría la fabricación de máquinas diminutas para ser introducidas en nuestro organismo y así erradicar muchas enfermedades y prolongar la vida?

Es una buena pregunta... Creo que la nanotecnología probablemente será viable tras el desarrollo de la superinteligencia artificial. Lo mismo ocurre con otras muchas tecnologías avanzadas, que se podrían desarrollar poniendo esa superinteligencia al servicio de la investigación y desarrollo. Pero se podría dar el escenario en que la nanotecnología molecular se desarrollase antes de que la inteligencia artificial despegase. En ese caso, las primeras aplicaciones presentan riesgos a los que tendríamos que sobrevivir, y si tenemos éxito, entonces tendríamos que sobrevivir a los riesgos ligados a la superinteligencia, una vez se desarrollase esta. Por lo tanto, en la medida en que pudiéramos tener una influencia sobre el orden de desarrollo de ambas tecnologías, el objetivo ideal sería obtener la superinteligencia antes que la nanotecnología molecular.

Otro modo de prolongar la vida sería la criogenización. Más de 300 personas tienen su cuerpo crioconservado o sus cerebros neuropreservados en nitrógeno. Usted que ha contratado este servicio, ¿qué expectativas le han animado a ello?

Bueno, en realidad, en los contactos que he tenido con los medios, nunca lo he confirmado. Mi postura siempre ha sido que mis arreglos funerarios son un asunto privado. Sé que ha habido especulaciones por parte de algún periódico hace dos años... También es cierto que algunos de mis colegas son clientes criónicos, y lo han hecho público, como el Dr. Anders Sandberg, que es uno de nuestros investigadores aquí.

Con una diversidad cultural y códigos morales diferentes como hay en el mundo, ¿cómo se puede llegar a un consenso global sobre los límites éticos en la investigación genética?

Por el momento, la humanidad no tiene realmente un solo plan coordinado para el futuro, hay muchos países y grupos diferentes, cada uno de ellos persiguiendo sus propias iniciativas.

Por lo que dice, se hace imprescindible la previsión.

Si piensa en el desarrollo de las armas nucleares hace 70 años, resultaba difícil fabricar una bomba nuclear. Se necesita uranio altamente enriquecido o plutonio, muy difíciles de conseguir, y se necesitarían centrales eléctricas de tamaño industrial para fabricarlas. Además de una gran cantidad de electricidad, tanta que puedes verla desde el espacio. Es un proceso difícil, no es algo que podrías hacer en tu garaje. Pero supongamos que hubieran descubierto una forma fácil de liberar la energía del átomo; eso podría haber supuesto el final de la civilización humana, ya que hubiera sido imposible de controlar.

Pensarlo inquieta.

Sí, sería en estos casos cuando tal vez la humanidad tendría que adoptar medidas para tener una mayor capacidad de coordinación global; en caso de que surja tal vulnerabilidad o una nueva carrera armamentista. Mientras más poderosas sean nuestras tecnologías, mayor será la cantidad de daño que podemos hacer si las usamos de manera hostil o imprudentemente. En este momento, creo que éste es un gran punto débil para la humanidad y solo esperamos que las tecnologías que descubramos no se presten a aplicaciones fáciles y destructivas.

Estudios recientes han demostrado que el grafeno puede interactuar efectivamente con las neuronas. ¿Qué piensa de los avances en el desarrollo de interfaces (zonas de comunicación) cerebro-máquina que usan grafeno?

Es algo emocionante desde el punto de vista de la medicina y para personas con discapacidades. Para pacientes con daño en su médula espinal, tiene varias aplicaciones muy prometedoras como neuro-prótesis. Pero soy un poco escéptico sobre que mejore la funcionalidad de una persona sana, lo suficiente como para que valga la pena asumir los riesgos, los dolores y los problemas de una intervención quirúrgica.

¿Cree que no vale la pena en una persona sana?

Es bastante difícil agregar funcionalidad adicional a una mente humana sana que no pudieras obtener de manera similar, interactuando con una computadora fuera de tu cuerpo, simplemente escribiendo cosas en un teclado, o recibiendo entradas a través de tus globos oculares al mirar una pantalla. Ya tenemos canales de entrada y salida con un alto ancho de banda para el cerebro humano, por ejemplo, a través de los dedos o mediante el habla. Es mucho más relevante dar solución a cómo acceder, organizar y procesar la gran cantidad de información disponible con las limitaciones del cerebro humano. Ese es el cuello de botella a resolver y donde se debería enfocar el desarrollo.

Comenta en su libro «Superinteligencia» que el proyecto de investigación de la Inteligencia Artificial comienza en Dartmouth College en 1956. Desde entonces ha habido periodos de entusiasmo y de retroceso. En la actualidad, parece ser que el máximo defensor en la creación de una IA pos-humana es Ray Kurzweil, fundador de Singularity University y financiada por Google. ¿Cree que esta vez se alcanzará el objetivo?

No creo que Ray Kurzweil sea el líder en la investigación de la IA. Hay una gran comunidad de investigación global con mucha gente relevante que hace contribuciones importantes y no creo que él juegue un papel significativo en la mayoría de ellas.

¿Estarían dichas investigaciones orientadas a replicar el cerebro humano incluyendo la consciencia?

La inteligencia artificial trata principalmente de encontrar formas de hacer que las máquinas resuelvan problemas difíciles. Ahora bien, si lo hacen emulando, asimilando o inspirándose en el cerebro humano o no, es una decisión más táctica. Si hay conocimientos útiles que se puedan extraer de la neurociencia, serán aprovechados, pero el objetivo principal no es tratar de replicar la mente humana.

Pensé que ya existía un proyecto poshumano...

Si se refiere al Proyecto del Cerebro Humano, entonces sí. Podría estar un poco más cerca de tratar de emular varios detalles y niveles de la condición humana. Mi impresión es que inicialmente comenzó con una visión muy ambiciosa y probablemente con excesivas espectativas, con modelos muy detallados de una columna cortical. Pero, tras varias voces disonantes, se ha convertido en canales de financiación para varios proyectos de neurociencia.

Ha comentado que con la superinteligencia (nivel humano) se obtendrán resultados muy buenos pero con el riesgo de la extinción humana.

Bueno, creo que la superinteligencia sería una especie de tecnología de propósito general, porque permitiría inventar otras tecnologías. Si eres súper inteligente, puedes hacer un trabajo científico o de ingeniería mucho más rápido y de manera más eficaz de lo que lo pueden hacer los científicos e ingenieros humanos. Así que imagine todas las cosas que los humanos podrían lograr si dispusiéramos de 40.000 años para trabajar en ellas; tal vez desarrollaríamos colonias espaciales, mejoras en nuestro organismo, curas para el envejecimiento y realidades virtuales perfectas. Creo que todas esas tecnologías y otras que aún no hemos imaginado podrían ser desarrolladas por máquinas con superinteligencia y probablemente en un período relativamente corto después de su llegada. Nos da una idea de la gran cantidad de beneficios potenciales.

¿Y cuáles serían los «riesgos existenciales» a los que nos enfrentaríamos con la Inteligencia Artificial?

Veo dos clases de amenazas, la primera surge por problemas en la alineación de objetivos. Estás creando algo que sería muy inteligente y que podría ser también muy poderoso. Si no somos capaces de resolver cómo controlarlo, podríamos dar lugar a la existencia de un sistema súper inteligente que podría dar prioridad a alcanzar sus propios valores en detrimento de los nuestros. Otro riesgo es que los humanos usemos esta poderosa tecnología de forma maliciosa o irresponsable, como hemos hecho con muchas otras tecnologías a lo largo de nuestra historia. Las utilizamos no solo para ayudarnos unos a otros y con fines productivos, sino también para librar guerras u oprimirnos unos a otros. Así que esta sería la otra gran amenaza con una tecnología tan avanzada.

Stephen Hawking postulaba «expandirnos hacia el espacio» y la empresa Space X de Elon Musk espera enviar, a corto plazo, humanos a Marte. ¿Cuáles son las causas por las que nos vamos a ver obligados a emigrar a otros planetas? ¿Podrán vivir ya los humanos en Marte?

En este momento, Marte no es un buen lugar para vivir. La colonización del espacio de manera significativa ocurrirá después de la superinteligencia. A corto plazo parece muy poco atractivo y será más fácil crear un hábitat en el fondo del mar o en la cima del Himalaya que hacerlo en la Luna o en Marte. Hasta que hayamos agotado ese tipo de espacios, es difícil ver el beneficio práctico de hacerlo en Marte. Pero, a largo plazo, el espacio es sin duda un objetivo; la Tierra es una pequeña migaja flotando en una extensión casi infinita de recursos.