NUESTRA ÚLTIMA INVENCIÓN

¿QUÉ SUCEDE CUANDO LA INTELIGENCIA ARTIFICIAL SE VUELVE CONTRA NOSOTROS?

terminator.jpg__800x600_q85_cropEn un nuevo libro, James Barrat advierte que la inteligencia artificial, un día será más inteligente que los seres humanos, y no hay garantía de que será benévola.

La inteligencia artificial ha recorrido un largo camino desde R2-D2. En nuestros días, la mayoría de esta  generación se perdería sin sistemas GPS inteligentes. Los robots ya están navegando los campos de batalla, y los drones pronto podrían entregar paquetes de Amazon en nuestras puertas.

Siri puede resolver ecuaciones complicadas y le dirá cómo cocinar el arroz. Incluso se ha demostrado que puede incluso responder a las preguntas con cierto sentido del humor.

Pero todos estos avances dependen de un usuario que dando órdenes a la Inteligencia Articifial (IA). ¿Qué pasaría si las unidades de GPS decidieran que no quieren ir a la tintorería, o peor, Siri decidiera que podría ser más inteligente sin usted por aquí?

Estos son sólo los más anodinos resultados que James Barrat, autor y director de documentales, pronostica en su nuevo libro, Our Final Invention: Artificial Intelligence and the End of the Human Era.(Nuestra Invención Final: Inteligencia Artificial y el Fin de la Era Humana)

james-barrat-with-book-cover.jpg__800x450_q85_crop_upscaleEn poco tiempo, dice Barrat, la inteligencia artificial, -desde Siri hasta aviones no tripulados y sistemas de procesamiento de datos-, dejarán de recurrir a los seres humanos para las actualizaciones y comenzarán la búsqueda de mejoras por su cuenta. Y a diferencia de los R2-D2 y HAL de la ciencia ficción, la IA de nuestro futuro no será necesariamente amable. Afirma que en realidad podría ser lo que nos destruya.

En pocas palabras, ¿puede explicar sus ideas?

En este siglo, los científicos crearán máquinas con inteligencia que igualará y luego sobrepasará a la nuestra. Pero antes de que compartamos el planeta con máquinas super-inteligentes, debemos desarrollar una ciencia para comprenderlas. De lo contrario, tomarán el control. Y no, esto no es ciencia ficción.

Los científicos ya han creado máquinas que son mejores que los humanos en el ajedrez,  Jeopardy!, la navegación, el procesamiento de datos, búsqueda, demostración de teoremas y un sin número de otras tareas. Con el tiempo, las máquinas creadas en la investigación IA serán mejores que los seres humanos.

En ese punto, serán capaces de mejorar sus propias capacidades muy rápidamente. Esas máquinas automejoradas perseguirán los objetivos que ellas crearon, ya fuera la exploración espacial, jugar al ajedrez o la selección de acciones. Para lograr el éxito buscarán y emplearán recursos, ya sea energía o dinero. Tratarán de evitar los fallos, como ser desconectados o desenchufados. En definitiva, desarrollarán unidades, incluyendo de auto-protección y de adquisición de recursos, tanto como la nuestra. No vacilarán en rogar, pedir prestado, robar y lo peor para conseguir lo que necesiten.

¿Cómo se interesó en este tema?

                   
 Soy un director de documentales. En el 2000, entrevisté al autor Ray Kurzweil, al experto en robótica Rodney Brooks y a la  leyenda de la ciencia ficción Arthur C. Clarke para una película para TLC sobre la fabricación de la novela y la película,  2001: Una odisea del espacio.  Las entrevistas exploraron la idea de la Hal 9000, y computadores malévolos. Los libros de Kurzweil han retratado el futuro IA como una “singularidad” exultante, un período en el que los avances tecnológicos superan la capacidad de los humanos para entenderlos. Además él anticipó sólo cosas buenas de la IA, que es lo suficientemente fuerte como para igualar y luego superar a la inteligencia humana. Él predice que vamos a ser capaces de reprogramar las células de nuestro cuerpo para derrotar a la enfermedad y el envejecimiento. Desarrollaremos súper resistencia con nanobots que emiten más oxígeno que las células rojas de la sangre. Incrementaremos el potencial de nuestro cerebro con los implantes informáticos para llegar a ser superinteligentes. Y llevaremos a nuestros cerebros a un medio más duradero que nuestro presente “wetware” y viviremos para siempre si queremos. Brooks era optimista, insistiendo en que los robots IA mejorados serían aliados, no amenazas.

Por su parte Clarke, el científico convertido en autor, se mostró pesimista. Me dijo que la inteligencia  ganará, y los seres humanos probablemente competirían por la supervivencia con las máquinas superinteligentes. Él no fue específico acerca de lo que sucedería cuando compartamos el planeta con máquinas super-inteligentes, pero pensaba que sería una lucha para la humanidad que no íbamos a ganar.

Eso iba en contra de todo lo que yo había pensado sobre la IA, así que comencé a entrevistar a expertos en inteligencia artificial.

¿Qué pruebas tiene usted para apoyar su idea?

La inteligencia artificial avanzada es una tecnología de doble uso, como la fisión nuclear, capaz de un gran bien o un gran daño. Estamos empezando a ver el daño.

El escándalo de privacidad de la  NSA se ha producido porque la NSA desarrolló muy sofisticadas herramientas de procesamiento de datos. La agencia utilizó su poder para sondear los metadatos de millones de llamadas telefónicas y los de la totalidad de la Internet, de todo el correo electrónico. Seducida por el poder del procesamiento de datos de la IA, una agencia a cargo de proteger la Constitución en vez de eso abusó de ella. Desarrollaron herramientas demasiado poderosas para que los utilizaran de forma responsable.

Hoy en día, otra batalla ética se está gestando sobre la fabricación de drones asesinos totalmente autónomos y robots de batalla alimentados por avanzadas IA, -asesinos de humanos sin humanos al tanto. Se está gestando entre el Departamento de Defensa y los fabricantes de aviones no tripulados y robots que son pagados por el Departamento de Defensa, y las personas que piensan que es temerario e inmoral crear máquinas de matar inteligentes. Los partidarios de drones autónomos y robots de batalla argumentan que serán más morales, es decir, menos emocionales, se centrarán mejor en el objetivo y serán más disciplinados que los operadores humanos. Aquellos en contra de dejar al ser humano fuera del circuito se fijan en la terrible historia de drones matando civiles, y su participación en asesinatos ilegales. ¿Sobre quién recae la culpabilidad moral cuando un robot mata? ¿Los fabricantes de robots, los usuarios de robots, o nadie? No importan las obstácuos técnicos de llamar amigo al enemigo.

A más largo plazo, como expertos argumentan en mi libro,  al acercarse la IA a la inteligencia de nivel humano no se podrá controlar fácilmente; por desgracia, la super-inteligencia no implica benevolencia. Como el teórico de la IA, Eliezer Yudkowsky del MIRI [Instituto de Investigación en Inteligencia de la máquina] dice, “La IA no te quiere, ni te odia, pero estás hecho de átomos que puede utilizar para otra cosa.” Si la ética no puede ser incorporada en una máquina, entonces estaremos creando psicópatas super-inteligentes, criaturas sin brújulas morales, y no  seremos sus amos por mucho tiempo.

¿Qué hay de nuevo en su forma de pensar?

Individuos y grupos tan diversos como el científico estadounidense de computación Bill Joy y el MIRI han advertido desde hace tiempo que tenemos mucho que temer de máquinas cuya inteligencia eclipse la nuestra. En Nuestra Invención Final, argumento que la IA también será mal utlizada en el camino del desarrollo de la inteligencia humana. Entre hoy y el día en que los científicos creen inteligencia al nivel humano, tendremos errores relacionados con la IA y aplicaciones criminales.

¿Por qué no se ha hecho más, o, que se está haciendo para impedir que la IA se vuelva en contra nuestra?

No hay una sola razón, sino muchas. Algunos expertos no creen que estemos lo bastante cerca de crear  una inteligencia artificial a nivel humano y no se preocupan por sus riesgos. Muchos fabricantes de IA ganan contratos con DARPA (Agencia de Proyectos de Investigación Avanzada de Defensa) y no quieren plantear cuestiones que consideran políticas. La tendencia normal es un sesgo cognitivo que impide que la gente reaccione a los desastres y las catástrofes en la creación, es definitivamente parte de ello. Pero muchos fabricantes de IA están haciendo algo. Atienden a los científicos que asesoran a MIRI. Y, muchos más se involucrarán una vez que los peligros de la IA avanzada entren en el diálogo general.
        
¿Puede describir el momento en que supo que esto era importante?

Nosotros los humanos dirigimos el futuro no porque seamos los más rápidos o las criaturas más fuertes del planeta, sino porque somos los más inteligentes. Cuando compartamos el planeta con criaturas más inteligentes que nosotros, ellos dirigirán el futuro. Cuando entendí la idea, sentí que estaba escribiendo sobre la cuestión más importante de nuestro tiempo.

Cada gran pensador tiene predecesores cuyo trabajo fue crucial para su descubrimiento. ¿Quién le dio la base para construir su idea?

Los fundamentos del análisis de riesgos IA fueron desarrollados por el matemático I.J. Good, el escritor de ciencia ficción Vernor Vinge, y otros, incluyendo al desarrollador IA Steve Omohundro. Hoy en día, el MIRI y el Instituo de Oxford “Futuro de la Humanidad” están casi solos en el tratamiento de este problema.  Nuestra Invención Final tiene alrededor de 30 páginas de notas finales que reconocen a estos pensadores.

En la investigación y el desarrollo de su idea, ¿cuál ha sido el punto más alto? ¿Y el punto más bajo?

Los puntos altos lo fueron escribiendo  Nuestra Invención Final,  y mi diálogo permanente con los responsables y teóricos de la IA. Las personas que programan AI son conscientes de las cuestiones de seguridad y quieren ayudar a conseguir algún dispositivo de salvaguardia. Por ejemplo, MIRI está trabajando en la creación de una IA “amistosa”.

El informático y teórico Steve Omohundro ha abogado por un enfoque de “andamiaje”, en el que una IA demostradamente segura ayuda a construir la próxima generación de IA para asegurar que también sea segura. Entonces esa IA hace lo mismo, y así sucesivamente. Creo que una alianza público-privada tiene que ser creada para que los responsables de IA compartan ideas acerca de la seguridad, algo así como la Agencia Internacional de la Energía Atómica, pero en colaboración con las corporaciones. ¿Los puntos bajos? Al constatar que la mejor y má avanzada tecnología IA se utilizará para crear armas. Y esas armas eventualmente se volverán contra nosotros.

¿Qué dos o tres personas tienen más probabilidades de tratar de refutar su argumento? ¿Por qué?

Ray Kurzweil es el principal apologista de tecnologías avanzadas. En mis dos entrevistas con él, decía que íbamos a fundirnos con las tecnologías de la IA a través de mejoras cognitivas. Kurzweil y la gente generalmente llamados transhumanistas y singularistas piensan que la IA y en última instancia, la inteligencia general artificial y demás evolucionarán con nosotros. Por ejemplo, los implantes informáticos mejorarán la velocidad de nuestro cerebro y las capacidades generales. Con el tiempo, desarrollaremos la tecnología para el transporte de nuestra inteligencia y de la conciencia a los ordenadores. Entonces la super-inteligencia será por lo menos en parte humana, que en teoría garantizaría que sea “segura”.

Por muchas razones, yo no soy seguidor de este punto de vista. El problema es que nosotros los humanos no somos confiablemente seguros, y parece poco probable que los seres humanos superinteligentes lo sean. No tenemos idea de lo que pasa con la ética de un ser humano después de que se aumente su inteligencia. Tenemos una base biológica para la agresión que las máquinas no tienen. La super-inteligencia podría muy bien ser un multiplicador de la agresión.

¿Quién será más afectado por esta idea?

Todo el mundo en el planeta tiene mucho que temer del desarrollo no regulado de las máquinas superinteligentes. Una raza inteligente está desarrollándose en estos momentos. El logro de IA es el trabajo número uno para Google, IBM y muchas empresas más pequeñas como Vicarious y Deep Thought, así como para DARPA, la NSA y los gobiernos y empresas extranjeras. El beneficio es la principal motivación para esa carrera. Imagina un objetivo probable: un cerebro humano virtual por el precio de un ordenador. Sería el producto más lucrativo en la historia. Imagínese bancos de miles de cerebros calidad doctorado trabajando las 24 horas en el desarrollo de productos farmacéuticos, la investigación del cáncer, el desarrollo de armas y mucho más. ¿Quién no querría comprar esa tecnología?

Mientras tanto, 56 países están desarrollando robots de batalla, y van camino de hacerlos, -y a los drones-, autónomos. Serán máquinas que maten, sin supervisión de seres humanos. Las naciones empobrecidas serán las más perjudicadas por los drones autónomos y robots de batalla. Inicialmente, sólo los países ricos podrán permitirse robots asesinos autónomos, así que las naciones ricas manejarán esas armas contra los soldados humanos de las naciones empobrecidas.

¿Cómo podría cambiar la vida, tal como la conocemos?

Imagínese: en tan sólo una década, los ordenadores de una media docena de empresas y naciones que rivalizan o superan la inteligencia humana. Imagínese lo que sucede cuando esos ordenadores se convierten en expertos en computadoras inteligentes de programación. Pronto  compartiremos el planeta con máquinas miles o millones de veces más inteligentes que nosotros. Y, al mismo tiempo, cada generación de esta tecnología estará armada. No reglamentado, será catastrófico.

¿Qué preguntas se quedan sin respuesta?

Soluciones. La solución obvia sería la de dotar a las máquinas de un sentido moral que les haga valorar la vida humana y la propiedad. Pero la programación de la ética en una máquina resulta ser extremadamente difícil. Las normas morales difieren de una cultura a otra, cambian con el tiempo, y son contextuales. Si nosotros los humanos no podemos ponernos de acuerdo sobre cuándo comienza la vida, ¿cómo podemos decir a una máquina que proteja la vida? ¿Realmente queremos estar seguros, o lo que realmente queremos es ser libres ?  Podemos debatir todo el día y no llegar a un consenso, por lo que ¿cómo podemos programarlo?

También nosotros, como he mencionado antes, necesitamos conseguir desarrolladores de IA. En la década de 1970, investigadores de ADN recombinante decidieron suspender la investigación y reunirse para una conferencia en Asilomar en Pacific Grove, California. Ellos desarrollaron protocolos de seguridad básicas como “no rastrear el ADN fuera de tus zapatos”, por temor a la contaminación del medio ambiente con trabajos genéticos en curso. A causa de las “Directrices de Asilomar,” el mundo se beneficia de los cultivos modificados genéticamente, y la terapia génica parece prometedora. Por lo que sabemos, se evitaron accidentes. Es hora de una Conferencia de Asilomar para la IA.

¿Qué es lo que lo impide?

Un gran viento económico impulsa el desarrollo de tecnologías avanzadas IA de inteligencia a nivel humano que el precio de una computadora será el producto más importante de la historia. Google e IBM no quieren compartir sus secretos con el público o los competidores. El Departamento de Defensa no va a querer abrir sus laboratorios a China e Israel, y vice-versa. La conciencia pública tiene que empujar la política hacia la apertura y la colaboración público-privada para garantizar la seguridad.

¿Qué será lo próximo para usted?

Soy un director de documentales, así que por supuesto que estoy pensando en una versión cinematográfica de Nuestra Final Invención.

ERICA R. HENDRY      Smithsonian Magazine (Traducido por JUAN PEDRO MOSCARDÓ para LIBERTALIADEHATALI)

libertalia1

JAMESON, EL MARINERO DESCONOCIDO

Traigo aquí un extracto del libro de JESÚS HERNÁNDEZ, Enigmas y Misterios de la Segunda Guerra Mundial

Uno de los sucesos más extraños de la Segunda Guerra Mundial fue el protagonizado por un marinero que decía llamarse Charles A. Jameson, cuya auténtica identidad se convirtió en un quebradero de cabeza para las autoridades militares norteamericanas.

El 8 de febrero de 1945, el buque de transporte USS Le Jeune llegó al puerto de Boston procedente del teatro de operaciones europeo. En su interior se alojaban centenares de soldados y marineros civiles heridos, pendientes de recibir tratamiento médico en los hospitales norteamericanos. Uno de ellos, que permanecía inconsciente, presentaba restos de metralla en la espalda y una herida infectada en la cabeza; debido a su gravedad fue ingresado de inmediato en un centro de Houston.

La ficha que ese hombre llevaba atada al tobillo decía: “Charles A. Jameson, 49; religión, católica; ciudadano americano; Cutty Sark”.

La brevedad de ese escueto informe no era extraña; teniendo en cuenta que la prioridad de los médicos era salvar la vida del herido, en muchas ocasiones la ficha de identidad que acompañaba al herido era telegráfica.

Una vez que la vida del herido, que permanecía inconsciente, estuvo a salvo en el hospital de Boston, a nadie se le ocurrió, inexplicablemente, comprobar los datos que allí aparecían. Tampoco se hizo ningún esfuerzo por intentar localizar a la familia, quizás para evitar que ésta padeciese al descubrir que su ser querido estaba inmerso en un estado de coma del que no se sabía si algún día podría despertar.

Todo cambió cuando, tres años más tarde, Jameson fue recuperando progresivamente la consciencia. Poco a poco, aunque seguía sin poder articular palabra, Jameson era ya capaz de garabatear algunas letras en un cuaderno de notas. Cuando estuvo en condiciones de escribir, se limitó tan sólo a repetir los datos que aparecían en su lacónica identificación y que probablemente dijo al médico encargado de apuntarlos en la ficha que le acompañaba.

La dirección del hospital se dirigió a las autoridades militares para que les proporcionasen algún dato sobre él. El ejército comenzó a hacer las pertinentes pesquisas, pero en sus archivos no aparecía nadie con ese nombre. Por su edad, lo más probable es que se tratase de un marinero civil, así que la marina mercante buscó también alguna información sobre Charles A. Jameson, sin obtener ningún resultado, al igual que la guardia costera o incluso la Cruz Roja, que tampoco encontraron ninguna referencia con ese nombre.

Para sorpresa de todos, el enigmático paciente confeccionó un listado completo de las principales compañías navieras del mundo, lo que confirmaba que Jameson había sido marinero. La posibilidad de resolver el caso se apuntó como cierta cuando reconoció en las fotos de una publicación la escuela de artillería naval de Gosport, en Gran Bretaña. Inmediatamente comenzó a describir por escrito algunas de las características de las instalaciones. Parecía que por fin el mistrio del marinero desconocido estaba a punto de resolverse…

Las autoridades militares norteamericanas se pusieron inmediatamente en contacto con sus homólogos del otro lado del Atlántico. Sin embargo, las investigaciones del Registro Marítimo Británico tampoco dieron sus frutos; no existía ningún registro a nombre de Charles A. Jameson y la escuela de artillería naval de Gosport no había tenido nunca un alumno que se llamara así.

La estrategia para conocer la auténtica identidad del herido se centró entonces en localizar al buque al que, según la ficha que le acompañaba, supuestamente pertenecía: el Cutty Sark. El barco fue encontrado en los archivos de la marina mercante pero, para sorpresa de todos, ¡había sido registrado en el siglo XIX!

Por lo tanto, Jameson había dicho pertenecer a la tripulación de un barco del siglo anterior. Evidentemente, en lugar de arrojar luz sobre el asunto, el hallazgo del registro del Cutty Sark contribuyó a agrandar aún más el enigma que ya rodeaba a ese singular paciente.

Unos meses más tarde, Jameson ofreció de nuevo una pista que aparentemente podía ser la correcta. En el cuaderno de notas escribió que en realidad había sido miembro de la tripulación del barco Himenoa, y que éste había sido hundido por un crucero alemán en mitad del Atlántico cuando transportaba un cargamento de nitrato desde Chile a Gran Bretaña.

Por fin parecía que el misterio estaba a punto de esclarecerse. Se comprobó que el Himenoa había existido en realidad y que, en efecto, había sido hundido por un barco de guerra germano, pero el ataque no había sucedido en aguas abiertas del Atlántico, sino en el Canal de la Mancha. Sin dar importancia a esta inexactitud, se dio como cierta la versión de Jameson; el enigma parecía solucionado.

Para cerciorarse de que el caso estaba totalmente aclarado, se localizó a algunos marineros del Himenoa que habían sobrevivido al hundimiento. Para decepción, y quizás desesperación, de los encargados de la investigación, ninguno de los miembros de la tripulación del Himenoa recordó que hubiera un marinero con ese nombre. La foto de Jameson tampoco fue reconocida por ninguno de ellos. Como si se tratase de una pesadilla, la resolución de la incógnita, que parecía ser inminente, regresaba de nuevo al punto de partida.

Desde ese momento, las autoridades militares renunciaron a continuar la investigación que ya les había llevado a tantos callejones sin salida. El último recurso fue publicar  la foto de Jameson en toda la prensa nacional, con la esperanza de que algún amigo o familiar lo reconociese.

Su imagen fue apareciendo regularmente en la presa sin que nadie recordase su rostro. Finalmente, en 1957 Jameson murió en el hospital de Boston en donde había ingresado doce años antes.Los interrogantes que habían marcado ese último período de su existencia le acompañaron hasta el mismo momento de su muerte. Hasta hoy, la identidad de aquel marinero desconocido continúa siendo un misterio.

Editorial Nowtilus