¿QUÉ SUCEDE CUANDO LA INTELIGENCIA ARTIFICIAL SE VUELVE CONTRA NOSOTROS?
En un nuevo libro, James Barrat advierte que la inteligencia artificial, un día será más inteligente que los seres humanos, y no hay garantía de que será benévola.
La inteligencia artificial ha recorrido un largo camino desde R2-D2. En nuestros días, la mayoría de esta generación se perdería sin sistemas GPS inteligentes. Los robots ya están navegando los campos de batalla, y los drones pronto podrían entregar paquetes de Amazon en nuestras puertas.
Siri puede resolver ecuaciones complicadas y le dirá cómo cocinar el arroz. Incluso se ha demostrado que puede incluso responder a las preguntas con cierto sentido del humor.
Pero todos estos avances dependen de un usuario que dando órdenes a la Inteligencia Articifial (IA). ¿Qué pasaría si las unidades de GPS decidieran que no quieren ir a la tintorería, o peor, Siri decidiera que podría ser más inteligente sin usted por aquí?
Estos son sólo los más anodinos resultados que James Barrat, autor y director de documentales, pronostica en su nuevo libro, Our Final Invention: Artificial Intelligence and the End of the Human Era.(Nuestra Invención Final: Inteligencia Artificial y el Fin de la Era Humana)
En poco tiempo, dice Barrat, la inteligencia artificial, -desde Siri hasta aviones no tripulados y sistemas de procesamiento de datos-, dejarán de recurrir a los seres humanos para las actualizaciones y comenzarán la búsqueda de mejoras por su cuenta. Y a diferencia de los R2-D2 y HAL de la ciencia ficción, la IA de nuestro futuro no será necesariamente amable. Afirma que en realidad podría ser lo que nos destruya.
En pocas palabras, ¿puede explicar sus ideas?
En este siglo, los científicos crearán máquinas con inteligencia que igualará y luego sobrepasará a la nuestra. Pero antes de que compartamos el planeta con máquinas super-inteligentes, debemos desarrollar una ciencia para comprenderlas. De lo contrario, tomarán el control. Y no, esto no es ciencia ficción.
Los científicos ya han creado máquinas que son mejores que los humanos en el ajedrez, Jeopardy!, la navegación, el procesamiento de datos, búsqueda, demostración de teoremas y un sin número de otras tareas. Con el tiempo, las máquinas creadas en la investigación IA serán mejores que los seres humanos.
En ese punto, serán capaces de mejorar sus propias capacidades muy rápidamente. Esas máquinas automejoradas perseguirán los objetivos que ellas crearon, ya fuera la exploración espacial, jugar al ajedrez o la selección de acciones. Para lograr el éxito buscarán y emplearán recursos, ya sea energía o dinero. Tratarán de evitar los fallos, como ser desconectados o desenchufados. En definitiva, desarrollarán unidades, incluyendo de auto-protección y de adquisición de recursos, tanto como la nuestra. No vacilarán en rogar, pedir prestado, robar y lo peor para conseguir lo que necesiten.
¿Cómo se interesó en este tema?
Soy un director de documentales. En el 2000, entrevisté al autor Ray Kurzweil, al experto en robótica Rodney Brooks y a la leyenda de la ciencia ficción Arthur C. Clarke para una película para TLC sobre la fabricación de la novela y la película, 2001: Una odisea del espacio. Las entrevistas exploraron la idea de la Hal 9000, y computadores malévolos. Los libros de Kurzweil han retratado el futuro IA como una «singularidad» exultante, un período en el que los avances tecnológicos superan la capacidad de los humanos para entenderlos. Además él anticipó sólo cosas buenas de la IA, que es lo suficientemente fuerte como para igualar y luego superar a la inteligencia humana. Él predice que vamos a ser capaces de reprogramar las células de nuestro cuerpo para derrotar a la enfermedad y el envejecimiento. Desarrollaremos súper resistencia con nanobots que emiten más oxígeno que las células rojas de la sangre. Incrementaremos el potencial de nuestro cerebro con los implantes informáticos para llegar a ser superinteligentes. Y llevaremos a nuestros cerebros a un medio más duradero que nuestro presente «wetware» y viviremos para siempre si queremos. Brooks era optimista, insistiendo en que los robots IA mejorados serían aliados, no amenazas.
Por su parte Clarke, el científico convertido en autor, se mostró pesimista. Me dijo que la inteligencia ganará, y los seres humanos probablemente competirían por la supervivencia con las máquinas superinteligentes. Él no fue específico acerca de lo que sucedería cuando compartamos el planeta con máquinas super-inteligentes, pero pensaba que sería una lucha para la humanidad que no íbamos a ganar.
Eso iba en contra de todo lo que yo había pensado sobre la IA, así que comencé a entrevistar a expertos en inteligencia artificial.
¿Qué pruebas tiene usted para apoyar su idea?
La inteligencia artificial avanzada es una tecnología de doble uso, como la fisión nuclear, capaz de un gran bien o un gran daño. Estamos empezando a ver el daño.
El escándalo de privacidad de la NSA se ha producido porque la NSA desarrolló muy sofisticadas herramientas de procesamiento de datos. La agencia utilizó su poder para sondear los metadatos de millones de llamadas telefónicas y los de la totalidad de la Internet, de todo el correo electrónico. Seducida por el poder del procesamiento de datos de la IA, una agencia a cargo de proteger la Constitución en vez de eso abusó de ella. Desarrollaron herramientas demasiado poderosas para que los utilizaran de forma responsable.
Hoy en día, otra batalla ética se está gestando sobre la fabricación de drones asesinos totalmente autónomos y robots de batalla alimentados por avanzadas IA, -asesinos de humanos sin humanos al tanto. Se está gestando entre el Departamento de Defensa y los fabricantes de aviones no tripulados y robots que son pagados por el Departamento de Defensa, y las personas que piensan que es temerario e inmoral crear máquinas de matar inteligentes. Los partidarios de drones autónomos y robots de batalla argumentan que serán más morales, es decir, menos emocionales, se centrarán mejor en el objetivo y serán más disciplinados que los operadores humanos. Aquellos en contra de dejar al ser humano fuera del circuito se fijan en la terrible historia de drones matando civiles, y su participación en asesinatos ilegales. ¿Sobre quién recae la culpabilidad moral cuando un robot mata? ¿Los fabricantes de robots, los usuarios de robots, o nadie? No importan las obstácuos técnicos de llamar amigo al enemigo.
A más largo plazo, como expertos argumentan en mi libro, al acercarse la IA a la inteligencia de nivel humano no se podrá controlar fácilmente; por desgracia, la super-inteligencia no implica benevolencia. Como el teórico de la IA, Eliezer Yudkowsky del MIRI [Instituto de Investigación en Inteligencia de la máquina] dice, «La IA no te quiere, ni te odia, pero estás hecho de átomos que puede utilizar para otra cosa.» Si la ética no puede ser incorporada en una máquina, entonces estaremos creando psicópatas super-inteligentes, criaturas sin brújulas morales, y no seremos sus amos por mucho tiempo.
¿Qué hay de nuevo en su forma de pensar?
Individuos y grupos tan diversos como el científico estadounidense de computación Bill Joy y el MIRI han advertido desde hace tiempo que tenemos mucho que temer de máquinas cuya inteligencia eclipse la nuestra. En Nuestra Invención Final, argumento que la IA también será mal utlizada en el camino del desarrollo de la inteligencia humana. Entre hoy y el día en que los científicos creen inteligencia al nivel humano, tendremos errores relacionados con la IA y aplicaciones criminales.
¿Por qué no se ha hecho más, o, que se está haciendo para impedir que la IA se vuelva en contra nuestra?
No hay una sola razón, sino muchas. Algunos expertos no creen que estemos lo bastante cerca de crear una inteligencia artificial a nivel humano y no se preocupan por sus riesgos. Muchos fabricantes de IA ganan contratos con DARPA (Agencia de Proyectos de Investigación Avanzada de Defensa) y no quieren plantear cuestiones que consideran políticas. La tendencia normal es un sesgo cognitivo que impide que la gente reaccione a los desastres y las catástrofes en la creación, es definitivamente parte de ello. Pero muchos fabricantes de IA están haciendo algo. Atienden a los científicos que asesoran a MIRI. Y, muchos más se involucrarán una vez que los peligros de la IA avanzada entren en el diálogo general.
¿Puede describir el momento en que supo que esto era importante?
Nosotros los humanos dirigimos el futuro no porque seamos los más rápidos o las criaturas más fuertes del planeta, sino porque somos los más inteligentes. Cuando compartamos el planeta con criaturas más inteligentes que nosotros, ellos dirigirán el futuro. Cuando entendí la idea, sentí que estaba escribiendo sobre la cuestión más importante de nuestro tiempo.
Cada gran pensador tiene predecesores cuyo trabajo fue crucial para su descubrimiento. ¿Quién le dio la base para construir su idea?
Los fundamentos del análisis de riesgos IA fueron desarrollados por el matemático I.J. Good, el escritor de ciencia ficción Vernor Vinge, y otros, incluyendo al desarrollador IA Steve Omohundro. Hoy en día, el MIRI y el Instituo de Oxford «Futuro de la Humanidad» están casi solos en el tratamiento de este problema. Nuestra Invención Final tiene alrededor de 30 páginas de notas finales que reconocen a estos pensadores.
En la investigación y el desarrollo de su idea, ¿cuál ha sido el punto más alto? ¿Y el punto más bajo?
Los puntos altos lo fueron escribiendo Nuestra Invención Final, y mi diálogo permanente con los responsables y teóricos de la IA. Las personas que programan AI son conscientes de las cuestiones de seguridad y quieren ayudar a conseguir algún dispositivo de salvaguardia. Por ejemplo, MIRI está trabajando en la creación de una IA «amistosa».
El informático y teórico Steve Omohundro ha abogado por un enfoque de «andamiaje», en el que una IA demostradamente segura ayuda a construir la próxima generación de IA para asegurar que también sea segura. Entonces esa IA hace lo mismo, y así sucesivamente. Creo que una alianza público-privada tiene que ser creada para que los responsables de IA compartan ideas acerca de la seguridad, algo así como la Agencia Internacional de la Energía Atómica, pero en colaboración con las corporaciones. ¿Los puntos bajos? Al constatar que la mejor y má avanzada tecnología IA se utilizará para crear armas. Y esas armas eventualmente se volverán contra nosotros.
¿Qué dos o tres personas tienen más probabilidades de tratar de refutar su argumento? ¿Por qué?
Ray Kurzweil es el principal apologista de tecnologías avanzadas. En mis dos entrevistas con él, decía que íbamos a fundirnos con las tecnologías de la IA a través de mejoras cognitivas. Kurzweil y la gente generalmente llamados transhumanistas y singularistas piensan que la IA y en última instancia, la inteligencia general artificial y demás evolucionarán con nosotros. Por ejemplo, los implantes informáticos mejorarán la velocidad de nuestro cerebro y las capacidades generales. Con el tiempo, desarrollaremos la tecnología para el transporte de nuestra inteligencia y de la conciencia a los ordenadores. Entonces la super-inteligencia será por lo menos en parte humana, que en teoría garantizaría que sea «segura».
Por muchas razones, yo no soy seguidor de este punto de vista. El problema es que nosotros los humanos no somos confiablemente seguros, y parece poco probable que los seres humanos superinteligentes lo sean. No tenemos idea de lo que pasa con la ética de un ser humano después de que se aumente su inteligencia. Tenemos una base biológica para la agresión que las máquinas no tienen. La super-inteligencia podría muy bien ser un multiplicador de la agresión.
¿Quién será más afectado por esta idea?
Todo el mundo en el planeta tiene mucho que temer del desarrollo no regulado de las máquinas superinteligentes. Una raza inteligente está desarrollándose en estos momentos. El logro de IA es el trabajo número uno para Google, IBM y muchas empresas más pequeñas como Vicarious y Deep Thought, así como para DARPA, la NSA y los gobiernos y empresas extranjeras. El beneficio es la principal motivación para esa carrera. Imagina un objetivo probable: un cerebro humano virtual por el precio de un ordenador. Sería el producto más lucrativo en la historia. Imagínese bancos de miles de cerebros calidad doctorado trabajando las 24 horas en el desarrollo de productos farmacéuticos, la investigación del cáncer, el desarrollo de armas y mucho más. ¿Quién no querría comprar esa tecnología?
Mientras tanto, 56 países están desarrollando robots de batalla, y van camino de hacerlos, -y a los drones-, autónomos. Serán máquinas que maten, sin supervisión de seres humanos. Las naciones empobrecidas serán las más perjudicadas por los drones autónomos y robots de batalla. Inicialmente, sólo los países ricos podrán permitirse robots asesinos autónomos, así que las naciones ricas manejarán esas armas contra los soldados humanos de las naciones empobrecidas.
¿Cómo podría cambiar la vida, tal como la conocemos?
Imagínese: en tan sólo una década, los ordenadores de una media docena de empresas y naciones que rivalizan o superan la inteligencia humana. Imagínese lo que sucede cuando esos ordenadores se convierten en expertos en computadoras inteligentes de programación. Pronto compartiremos el planeta con máquinas miles o millones de veces más inteligentes que nosotros. Y, al mismo tiempo, cada generación de esta tecnología estará armada. No reglamentado, será catastrófico.
¿Qué preguntas se quedan sin respuesta?
Soluciones. La solución obvia sería la de dotar a las máquinas de un sentido moral que les haga valorar la vida humana y la propiedad. Pero la programación de la ética en una máquina resulta ser extremadamente difícil. Las normas morales difieren de una cultura a otra, cambian con el tiempo, y son contextuales. Si nosotros los humanos no podemos ponernos de acuerdo sobre cuándo comienza la vida, ¿cómo podemos decir a una máquina que proteja la vida? ¿Realmente queremos estar seguros, o lo que realmente queremos es ser libres ? Podemos debatir todo el día y no llegar a un consenso, por lo que ¿cómo podemos programarlo?
También nosotros, como he mencionado antes, necesitamos conseguir desarrolladores de IA. En la década de 1970, investigadores de ADN recombinante decidieron suspender la investigación y reunirse para una conferencia en Asilomar en Pacific Grove, California. Ellos desarrollaron protocolos de seguridad básicas como «no rastrear el ADN fuera de tus zapatos», por temor a la contaminación del medio ambiente con trabajos genéticos en curso. A causa de las «Directrices de Asilomar,» el mundo se beneficia de los cultivos modificados genéticamente, y la terapia génica parece prometedora. Por lo que sabemos, se evitaron accidentes. Es hora de una Conferencia de Asilomar para la IA.
¿Qué es lo que lo impide?
Un gran viento económico impulsa el desarrollo de tecnologías avanzadas IA de inteligencia a nivel humano que el precio de una computadora será el producto más importante de la historia. Google e IBM no quieren compartir sus secretos con el público o los competidores. El Departamento de Defensa no va a querer abrir sus laboratorios a China e Israel, y vice-versa. La conciencia pública tiene que empujar la política hacia la apertura y la colaboración público-privada para garantizar la seguridad.
¿Qué será lo próximo para usted?
Soy un director de documentales, así que por supuesto que estoy pensando en una versión cinematográfica de Nuestra Final Invención.
ERICA R. HENDRY Smithsonian Magazine (Traducido por JUAN PEDRO MOSCARDÓ para LIBERTALIADEHATALI)
