Nick Bostrom: habla el gurú de Bill Gates, Elon Musk y Stephen Hawking

En exclusiva para Infobae, el gran pensador transhumanista comparte su visión sobre el futuro de la humanidad y reflexiona sobre los peligros del avance descontrolado de la tecnología y de la ciencia. ¿Por qué sostiene que es posible que estemos viviendo dentro de una simulación hecha por computadoras?

Guardar

Su nombre no es familiar para el común de los mortales. Sin embargo, Nick Bostrom es uno de los pensadores más influyente de la actualidad: asesora a la ONU en Inteligencia Artificial, es bestseller de The New York Times, "uno de los 100 mejores cerebros del planeta", según Foreign Affairs y "el filósofo del fin del mundo" para el New Yorker.

Los pensamientos de este escritor y conferencista son seguidos con especial devoción por las mentes más brillantes y poderosas del mundo de la ciencia y de la tecnología, como Bill Gates, Elon Musk o Stephen Hawking.

Bostrom dirige el departamento IFH,
Bostrom dirige el departamento IFH, “Instituto Futuro de la Humanidad”, en Oxford (NB)

Desde la Universidad de Oxford, Bostrom dirige un departamento que él mismo creó y que lleva un nombre tan particular, como todo lo suyo. Se trata del IFH, "Instituto Futuro de la Humanidad" donde trabaja junto a un equipo multidisciplinario de filósofos, matemáticos y científicos informáticos. "Allí nos reunimos a pensar cosas que a mucha gente le parecen ciencia ficción, alocadas o lejanas; pero que no lo son", afirma el pensador.

"Mirándolo en perspectiva, el hombre de hoy y el mono se diferencian por muy pocas cosas. Si con tan poco, la evolución nos llevó de trepar a los árboles a fabricar misiles transatlánticos ¿Hacia dónde vamos ahora con el poder de la Inteligencia Artificial (AI), el Aprendizaje de las Máquinas (Machine Learning), y el avance exponencial de la tecnología y de la ciencia?" ¿En qué iremos a convertirnos, en presumiblemente mucho menos tiempo? La respuesta es inquietante: para él, la especie humana se encuentra en un estado de anomalía del que va a salir por la extinción o por la transformación en post-humanos. "La inteligencia de las máquinas es la principal candidata a ser el acontecimiento de este siglo que podría cambiar, de manera fundamental, la naturaleza de la vida en el Tierra", sostiene.

Los pensamientos de este escritor
Los pensamientos de este escritor y conferencista son seguidos con especial devoción por las mentes más brillantes y poderosas del mundo (NB)

La mutación va ser paulatina, casi imperceptible, pero contundente. Bostrom advierte que se necesitaron sólo unos pocos años (no miles) para producir todo un cambio de paradigma, en el que las máquinas pasaron de procesar pequeños volúmenes de datos, a algoritmos capaces de aprender a partir de información muy rudimentaria. Un avance contundente que no se aplica solo a campos específicos, sino que atraviesa todos los aspectos de nuestra civilización: desde la medicina, la agricultura, las comunicaciones, la economía, el trabajo y la organización social, hasta la forma en que vivimos nuestro día a día.

Pero todavía hay algo que nos separada de las máquinas. Nuestra corteza cerebral puede hacer cosas que las computadoras no pueden. Pero la pregunta es ¿Cuánto tiempo pasará hasta que sí puedan lograrlo? La definición del plazo de tiempos es incierta, pero la reflexión sobre el tema es apasionante y la aborda Bostrom en su exitoso libro, "La Superinteligencia".

Las máquinas, el último invento del hombre

"La máquina inteligente es el último invento que la Humanidad jamás tendrá que realizar. Las máquinas serán mejores inventores que nosotros y lo harán en tiempos de escala digital", dice Bostrom. A partir de allí, nosotros nos quedaremos confinados a la capacidad intelectual limitada del ser humano, a un cerebro que pueda caber en un cráneo y con una velocidad neuronal infinidad de veces más lenta que la capacidad de cómputo de los ordenadores actuales. En este pensamiento se apoya también el genio contemporáneo, Stephen Hawking cuando afirma que "el desarrollo total de la inteligencia artificial podría propiciar el fin de la raza humana. Los humanos, limitados por la evolución biológica, no podrán competir y serán superados por las máquinas".

Durante más de 100.000 años hemos sido capaces de sobrevivir a asteroides, terremotos, tifones, volcanes y todo tipo de catástrofes naturales. Pero nadie ni nada nos ha preparado para enfrentarnos al producto de la actividad humana en el siglo XXI

La disputa entonces será por el poder. Hoy nos sentimos más fuertes que la computadora que tenemos al frente, de la misma manera que el chimpancé confiaba en su fuerza física superior a la del homo sapiens. Sin embargo, hoy su destino depende más de nosotros que de ellos mismos. Lo mismo podría ocurrir, según Bostrom, con la Superinteligencia de las máquinas dominando los hilos de la Humanidad. Hoy, "lo que nos hace sentir más poderosos que las máquinas es que las superamos en la inteligencia vinculada a la innovación tecnológica, la organización social compleja y la planificación." Pero esto es algo que ellas podrán muy pronto; seguramente más rápido, mejor y sin cansancio ni errores.

Si no tomamos las precauciones del caso ¿Podrán las máquinas empezar a decidir por nosotros? ¿Cómo lo harán? ¿Basadas en valores humanos o en resultados de eficiencia? Bostrom pone un ejemplo duro, pero que ilustra lo que se llama el "efecto perverso" (aquel que aparece cuando la solución a un problema lo incrementa o propicia otro distinto). "Supongamos que nosotros explicamos a las máquinas que hacer que las personas sonrían es un objetivo a alcanzar, pues ellas podrían interpretar que la manera más eficiente de hacerlo es colocar electrodos en los músculos faciales de las personas y tenerlas sonriendo permanentemente a fuerza de impulsos eléctricos".

La analogía con el mito del Rey Midas, quien pidió convertir en oro a todo lo que tocara. Primero fue feliz viendo como se rodeaba de riquezas hasta que no puedo comer porque convertía los alimentos en ese metal y llegó a transformar a su hija en una estatua de oro, al intentar abrazarla. Entonces la idea dejó de ser divertida y rogó a Dios poder volver atrás. En este relato, la mitología – que tan bien expresa la esencia humana – pone de manifiesto los peligros de no reflexionar sobre las consecuencias destructivas de las carreras alocadas, a las que nos entregamos cegados por la ambición y el cortoplacismo.

"Somos como bebés jugando con explosivos"

Hay que destacar que Bostrom no es un apocalíptico, ni un visionario de futuros distópicos. Por el contrario, celebra los aspectos positivos del desarrollo tecnológico. Sin embargo, busca advertir sobre el gran potencial que tienen muchas de ellas para volverse verdaderas bombas destructivas. "Somos como bebés jugando con explosivos", sostiene.

– ¿Ignoramos las consecuencias negativas que puede tener el desarrollo tecnológico?

Sí, en general creo que la Humanidad no es tan buena a la hora de pensar cuáles serán las consecuencias a largo plazo de nuestras acciones. Si te fijás no hay sectores pensando o diseñando un "plan maestro" para pensar a dónde queremos estar dentro 50 o 100 años. Lo que tenemos es mucha gente corriendo atrás de sus propios negocios. Somos más bien como un hormiguero con un montón de hormigas ocupadas tirando de su aguja en el pajar tal vez, pero con poca visión de conjunto, de pararse a pensar a qué están contribuyendo con eso. Así que creo que sería bueno tener un poco más de reflexión sobre el panorama más amplio. ¿Qué es lo que estamos en proceso de construir? No sólo con la Inteligencia Artificial, sino más ampliamente, con nuestra ciencia y tecnología. ¿Qué cosas pueden llegar a salir mal? ¿Qué podemos hacer para reducir el riesgo de que eso ocurra? ¿Cuáles son las cosas que deben ser aceleradas tanto como sea posible? ¿Y en qué aspectos o áreas sería mejor ir más despacio? Creo que hay muy poca sofisticación en la manera en que la mayoría de la gente piensa esas preguntas.

-¿Cuál es el futuro de la Humanidad?

Sería muy largo conversar en esta entrevista. Pero, brevemente, mi visión es que estamos avanzando hacia una transformación muy profunda, en la historia de la Tierra, de lo que conocemos como la vida inteligente. No sabemos exactamente cuándo va a ocurrir esa transición, pero creemos que puede ser en algún momento de este siglo. Las personas vamos a pasar de la condición humana a algo radicalmente diferente – tal vez una condición post-humana -. La llegada de la Superinteligencia de las máquinas, acelerará ese futuro. La Inteligencia Artificial será más inteligente que nosotros en todos los ámbitos, incluyendo la investigación científica y tecnológica, donde eso empieza a suceder en escalas de tiempo digital. Luego, a continuación, se podría contar con todas las tecnologías jamás imaginables. Allí podríamos alcanzar la madurez tecnológica.

“Hacia dónde vamos ahora con
“Hacia dónde vamos ahora con el poder de la Inteligencia Artificial”, se pregunta el filósofo

Algunas personas pueden pensar que es una hipótesis radical, pero para mí, lo que es radical e imposible es lo que actualmente consideramos "la condición humana normal", que es esto que somos hoy: un reloj despertador que se levanta por la mañana, que se traslada al trabajo, se sienta frente a una pantalla de ordenador todo el día y trata de no comer demasiado. Eso es en realidad una enorme anomalía, desde todo punto de vista, históricamente esto que vivimos hoy es una condición muy bizarra. Cuanto más largo es el tiempo vayamos por este camino, creo que más probable será que salgamos de esta condición humana anormal hacia algo muy diferente: ya sea la extinción o algún tipo de condición post-humana.

No sabemos qué va a pasar cuando la inteligencia de las máquinas sea mayor que las que logra el cerebro humano

-¿Es posible que todos seamos una simulación por computadora?

Si, es posibles. Creo que la ideas más interesante del "Argumento de la Simulación", es que intenta demostrar que no sólo es posible, sino que de hecho es una de sólo tres posibilidades:

  • La hipótesis 1: es que vivimos una simulación por computadora creada por alguna civilización avanzada.
  • La hipótesis 2: en esta existe un fuerte consenso, es que casi todas las civilizaciones, en nuestra etapa actual de desarrollo tecnológico, se extinguirán antes de alcanzar su madurez tecnológica.
  • Hipótesis 3: plantea que existe la posibilidad de una fuerte convergencia entre todas las civilizaciones de que, una vez alcanzada la madurez tecnológica, decidieron universalmente no crear este tipo de simulaciones por computadora.

Por lo tanto, si las dos últimas son falsas, parece que la primera posibilidad es verdadera y, entonces, seguramente es que estamos en una simulación por computadora. Porque lo que el argumento de simulación muestra es que, al menos una de estas tres posibilidades, es verdadera. Eso creo que es muy interesante.

El pensador critica el rol
El pensador critica el rol rutinario del hombre de hoy (NB)

Sus pensamientos influyen, de forma determinantes, en quienes toman grandes decisiones y en algunas de las mentes contemporánea más brillantes, como Elon Musk, Bill Gates o Stephen Hawking. ¿Cómo se siente al respecto?

Bueno, yo espero que eso derive en un efecto positivo, en el sentido de que se pueda tener más información y que eso ayude a las personas a aumentar las probabilidades de un buen futuro para la Humanidad. Supongo que, en cierto sentido, es halagador para un académico que tu investigación se lea o que algunas personas le prestan atención o piensen que es importante. Pero la consideración más relevante es lograr que este tipo de conocimiento realmente nos ayude a pensar y a actuar en consecuencia.

– ¿Cuáles son para usted las tecnologías más peligrosas?

Bueno, las tecnologías más peligrosas son, paradójicamente, aquellas que también tienen un enorme potencial para el bien. Esto es porque son poderosas. La inteligencia artificial es una, pero la biotecnología es otra. Y sí, tiene enormes aplicaciones en medicina – para curar diferentes enfermedades y hacer que los seres humanos sean más felices y saludables -, también para el medio ambiente – producción de alimentos, etc. – El problema es que no es descabellado imaginar que algunos de estos avances en biología sintética se usen mal, para crear virus de diseño o en programas de guerra biológica de los Estados, entre otras cosas. Lo mismo ocurre con la nanotecnología molecular, que es algo que realmente no tenemos todavía, pero si eso sucediera, de manera similar nos presentaría grandes ventajas y potenciales peligros.

Es posible que estemos viviendo en una simulación hecha por ordenador

Luego, dentro de estos campos, hay algunas tecnologías que son más claramente buenas o malas. Considero que la biotecnología es un campo que hay que fomentar y tratar de acelerar en soluciones tales como el desarrollo de vacunas, herramientas de diagnóstico, y redes tempranas de vigilancia de las enfermedades. Pero pueden aparecer peligros derivados, por ejemplo, de la manipulación de microorganismos para darles nuevas capacidades. Esto es el "Principio tecno-diferencial", es decir, ante el posible desarrollo de una tecnología X, la pregunta correcta que hay que plantearse no es si es buena o mala, si no: ¿Queremos esa tecnología X o no la queremos? ¿Para cuándo queremos esa tecnología X? ¿Para qué? Entonces podemos tener una planificación para acelerar el desarrollo de esas, pero retrasar la aparición de otras para las que antes necesitamos desarrollar una protección contra posibles efectos no deseados.

– ¿Estás preocupado por CRISPR y la posibilidad de editar el genoma?

Sí. El sistema CRISPR tiene muchas aplicaciones potenciales realmente emocionantes, como atacar diferentes enfermedades, pero también hace que pueda llegar a ser muy fácil generar efectos muy destructivos.

LEA MAS

CRISPR, cómo es la tecnología que permite "editar" las células de cualquier organismo vivo

En biotecnología hay cosas que
En biotecnología hay cosas que se podrían hacer hoy que probablemente serían juiciosas y precavidas, dice Bolstrom (NB)

– Cuando habla de estos riesgos, ¿Está pensando en el futuro cercano? ¿En cuántos años podemos empezar a toparnos con riesgos graves?

Eso depende de la tecnología en la que estemos pensando. Si hablamos de Inteligencia Artificial, todavía faltan algunos años, y no hay consenso en cuanto a los plazos. Sin embargo, creo que no es demasiado pronto para empezar a hacer algunas investigaciones básicas sobre el problema de la alineación, aunque sí sería demasiado pronto para empezar a pensar en la regulación. En biotecnología hay cosas que se podrían hacer hoy que probablemente serían juiciosas y precavidas. Por ejemplo, relativas a la existencia de máquinas de síntesis de ADN que pueden utilizarse a partir de un modelo digital de un virus -muchos de los cuales existen en el dominio público en Internet-.

Esto hace que se puedan descargar los genomas de estos virus y que las máquinas de síntesis de ADN los impriman. Este es un campo que está aún bastante desregulado hoy en día. Es algo muy peligroso porque estas máquinas realmente son capaces de imprimir armas de destrucción masiva, agentes biológicos, virus biológicos modificados y todo eso, entonces debería estar sujeto a controles similares como el material fisionable que se podría utilizar para crear armas nucleares.

El hombre es la mayor promesa y la mayor amenaza para el hombre

Sin embargo, el nivel de conciencia de seguridad en el comunidades biotecnológicas es mucho menor que la que tienen los físicos nucleares. Las cosas que se pueden usar para construir bombas nucleares necesitan mucha supervisión. Esa misma conciencia sobre la seguridad debería existir en la comunidad biotecnológica.

LEA MAS

-¿Cuál es su opinión sobre el "biohacking"? Ahora puede hacerse investigación por fuera de la universidad y grandes centros debido a que bajaron mucho los costos y por el fácil acceso a la información.

Por eso yo no estoy de acuerdo con la política de promover las comunidades de "biohacking" que tiene esta idea de capacitar a los ciudadanos comunes para que ellos puedan realizar sus propios experimentos biotecnológicos y que quieren democratizar el acceso a todo eso, porque son potencialmente muy peligrosas y cada vez más baratas y fáciles de manipular.

Por ejemplo, hace poco tiempo hubo alguien en un pequeño grupo de investigación que utilizaba síntesis de ADN para producir una copia del virus de la viruela equina que es un pariente cercano al virus de la viruela. El virus de la viruela equina en sí mismo es inofensivo, pero la misma tecnología básicamente le permitía fabricar el virus de la viruela que fue erradicado del mundo hace algunas décadas. Sólo hay dos depositarios de este virus, Rusia y los EE.UU., ambos bajo estrecha vigilancia porque es un virus potencialmente muy peligroso. Sin embargo, ahora con estos avances en la tecnología, se hace posible reconstituir estos virus extintos de otra manera. No es descabellado pensar que, sólo después que suceda algún desastre, habrá suficiente seriedad para realmente empezar a pensar en alguna estructura reguladora que se haga cargo de la seguridad en la manipulación de la biotecnología.

Hasta ahora, solo ha habido algunos incidentes, los ataques de ántrax en los EE.UU. y cosas de ese tipo, pero en escalas muy pequeñas. Hay poco apetito en la comunidad biotecnológica a favor de un cuidado más intrusivo en nuestros sitios. Será hasta que suceda algo dramático…

LEA MAS

Estados Unidos realiza las primeras modificaciones a embriones humanos

Tijera genética: la responsabilidad al comunicar avances científicos en etapa experimental

Edición genética: la técnica creada por un argentino enfrenta a 2 prestigiosas universidades

 
Guardar