¿SON LOS OVNIS INTELIGENCIAS ARTIFICIALES EXTRATERRESTRES?

800px-Raymond_Kurzweil,_Stanford_2006_(square_crop)El erudito Ray Kurzweil, en varios libros y artículos, ha postulado que «especies» alienígenas podrían haber visitado o estar visitando este planeta en forma de artefactos de Inteligencia Artificial.

Delegados de Lugares Lejanos:

Nuestra visión contemporánea popular de visitas de otros planetas en el Universo contempla criaturas como nosotros con naves espaciales y otras tecnologías avanzadas que les asisten. En algunas concepciones los alienígenas tienen una apariencia muy similar a la humana. En otras, parecen un poco extraños….

….Visitas de entidades inteligentes de otro planeta representan una fusión de una evolucionada especie inteligente con su tecnología computacional inteligente aún más evolucionada….

Un super-inteligencia computacional de finales del siglo XXI aquí en la Tierra será de tamaño microscópico. Por lo tanto, una delegación inteligente de otro planeta no es probable que use una nave espacial del tamaño que es común en la ciencia ficción de hoy …. Considere que el objetivo de dicha visita no es probable que sea la extracción de recursos materiales ya que una civilización tan avanzada casi seguro que  ha pasado más allá del punto donde no se necesita ningún material significativo …. El único propósito probable de esta visita es para la observación y la recopilación de información. La única riqueza de interés para una civilización tan avanzada será el conocimiento … «[páginas 257-258, La era de las máquinas espirituales: Cuando los Ordenadores Superen la Inteligencia Humana, Penguin Books, Nueva York, 1999]
353803

(Kurzweil ha elaborado y ampliado  su opinión en libros posteriores, La singularidad está cerca (2005), Cómo crear una Mente (2013), etc. , que traeré aquí más tarde).

Biografía de Wikipedia de Kurzweil:

https://en.wikipedia.org/wiki/Ray_Kurzweil

La opinión de que civilizaciones avanzadas fuera de la Tierra evolucionarían de manera similar a cómo las civilizaciones se han desarrollado aquí es rizar el rizo extraterrestre como yo lo veo.

Las teorías evolutivas de Darwin se aplican a la Tierra (solamente) y son por lo tanto únicas.

Es decir, las vicisitudes de este planeta no se pueden encontrar en otro lugar en el Universo (excepto por pura casualidad el que las probabilidades están en contra, a menos que uno postule que Dios es el creador de todas las cosas, una idea que no es irracional, por cierto…. pero para otra ocasión).

Los empujes evolutivos y la(s) lucha (s) por la supervivencia sólo pueden aplicarse a este planeta; serían totalmente diferentes en otro lugar, donde la geología, la atmósfera, las especies exóticas, y otros elementos únicos estarían implicados.

Aquí surgió la tecnología no simbióticamente, sino de las mentes creativas de hombres como Babbage, Turing, para la informática (que es el impulso de la IA de  Kurzweil) y todos los hombres y mujeres que proporcionaron ideas y esfuerzo para hacer máquinas.

Que tales «personas» emergieran en otro planeta es un imaginativo paso que aturde la mente.

Sin embargo, me gusta la idea de que los ovnis son vehículos o entidades con una esencia IA.

[Muchos avistamientos de ovnis en la literatura denota una pátina IA (que he relatado anteriormente aquí y recapitularé cuando termine el próximo libro de Nick Bostrom, Superinteligencia: Caminos, Peligros, Estrategias]

Si una especie avanzada creó máquinas que acabaron reemplazándola, uno puede imaginar que una inteligene máquina autoreplicante podría ponerse en camino a buscar en la galaxia o el universo «máquinas» o inteligencias como ella.

La curiosidad no sería ajena a una especie IA (si entiendo a Kurzweil correctamente).

Si eso no  te seduce, ¿qué hay de máquinas IA avanzada de nuestro futuro?

Unas máquinas tan avanzadas como para pensar y crear/mantenerse a sí mismas, después de un espacio de tiempo (millones de años o más), y que han llegado a comprender y controlar el tiempo.

Una visita al pasado, como los convoyes extraterrestres, no sería una incursión prohibida o no deseada por cualquier especie inteligente, IA u otra diferente.

El libro de Bostrom se publicará en mayo y varios libros de Kurzweil (y otros del género IA) son difíciles de digerir para uno con escasas capacidades intelectuales, como yo, pero seguiré revisando este tema, ya que parece ser una posible explicación ovni.

Después de todo, no hay otra explicación preminente.

Copyright 2016 InterAmerica Inc.

RR         The Ufo Iconoclast

VIDA EXTRATERRESTRE POSTBIOLÓGICA

pb1Vida avanzada extraterrestre: «puede tener mil millones de años, con tecnología más allá de la materia»

«Creo que es muy probable -de hecho, inevitable- que la inteligencia biológica sea sólo un fenómeno transitorio… Si alguna vez encontramos inteligencia extraterrestre, creo que es muy probable que sea postbiológica en la naturaleza», escribe Paul Davies de la Universidad Estatal de Arizona en The Eerie Silence. Expertos de renombre mundial desde el físico Sir Martin Rees de la Universidad de Cambridge hasta el astrobiólogo Davies han preguntado que si tuviéramos que encontrar a una tecnología alienígena muy superior a la nuestra, aun estaríamos dándonos cuenta de lo que era. Una tecnología de un millón o más años antes de la nuestra parecería milagrosa.

pb3De hecho, Davies sugiere en The Eerie Silence, que la tecnología avanzada podría incluso no estar hecha de materia. Podría no tener tamaño fijo o forma; ni tener límites bien definidos. Ser dinámica en todas las escalas de espacio y tiempo. O, por el contrario, parecer que haga nada en todo lo que podamos discernir. No consiste en cosas discretas, separadas; sino que es un sistema, o una correlación sutil de nivel superior de las cosas.

¿Son materia e información, pregunta Davies, todo lo que hay? Hace quinientos años, escribe Davies: «el concepto mismo de un dispositivo de manipulación de la información, o software, habría sido incomprensible. ¿Podría haber un nivel aún más alto, hasta ahora fuera de toda experiencia humana, que organice los electrones? Si es así este «tercer nivel» nunca se manifestará a través de observaciones hechas a nivel informativo, y menos aún a nivel de la materia.

Debemos estar abiertos a la posibilidad real de que la tecnología avanzada extraterrestre de mil millones de años de edad pueda operar en el tercer, o tal vez incluso un cuarto o quinto nivel -todos los cuales son totalmente incomprensibles para la mente humana en nuestro estado actual de la evolución en 2012.»

Susan Schneider, de la Universidad de Pensilvania parece estar de acuerdo. Ella es una de los pocos pensadores -fuera del reino de la ciencia ficción- que han considerado la idea de que la inteligencia artificial ya está ahí, y lo ha estado durante eones.

pb4Su estudio reciente, Alien Minds, pregunta «¿Cómo pensarían las inteligencias extraterrestres? ¿Tendrían experiencias conscientes? ¿Sentirían una cierta manera de ser un extraterrestre?» Saber que no estamos solos en el universo sería una realización profunda, y ponernos en contacto con una civilización extraterrestre podría producir sorprendentes innovaciones tecnológicas y conocimientos culturales.

Schneider se pregunta: ¿cómo podrían pensar los extraterrestres? Y, ¿serían conscientes? No creo que la mayoría de las civilizaciones extraterrestres avanzadas serían biológicas, dice Schneider. Las civilizaciones más sofisticadas serán formas postbiológicas de inteligencia artificial o superinteligencia extraterrestre.

Los programas de Búsqueda de Inteligencias Extraterrestres (SETI) han estado buscando vida biológica. Nuestra cultura ha representado siempre a los extraterrestres como criaturas humanoides con pequeñas barbillas puntiagudas, ojos enormes y grandes cabezas, al parecer, albergando cerebros que son más grandes que los nuestros. Paradigmáticamente, son «pequeños hombres verdes.» Si bien somos conscientes de que nuestra cultura es antropomorfisante, Schneider imagina que su sugerencia de que los extraterrestres son supercomputadoras nos puede golpear muy duro. Entonces, ¿cuál es su justificación de la opinión de que las civilizaciones extraterrestres más inteligentes tendrán miembros que son inteligencias artificiales (IA) superinteligentes?

La presentación de Schneider ofrece tres observaciones que, en conjunto, apoyan la conclusión de la existencia de superinteligencia alienígena.

La primera es «la corta ventana de observación»: Una vez que una sociedad crea la tecnología que podría ponerlos en contacto con el cosmos, están sólo a unos pocos cientos de años lejos de cambiar su propio paradigma de la biología a la IA. Esta «ventana corta» hace que sea más probable que los extraterrestres que nos encontremos sean postbiológicos.

La corta ventana de observación es apoyada por la evolución cultural humana, al menos hasta el momento. Nuestras primeras señales de radio se remontan sólo a alrededor de ciento veinte años, y la exploración espacial está a sólo unos cincuenta años de edad, pero ya estamos inmersos en la tecnología digital.

pb2El segundo argumento de Schneider es «la mayor edad de las civilizaciones extraterrestres.» Los defensores de SETI a menudo han llegado a la conclusión de que las civilizaciones extraterrestres serían mucho más antiguas que la nuestra …todas las líneas de evidencia convergen en la conclusión de que la edad máxima de una inteligencia extraterrestre sería de miles de millones de años, en concreto [esta] oscila desde 1,7 mil millones hasta 8000 millones de años.

Si las civilizaciones son millones o miles de millones de años más antiguas que nosotros, muchas serían mucho más inteligentes que nosotros. Para nuestros estándares, muchas serían superinteligentes. Somos bebés galácticos.

¿Pero serían formas de IA, así como formas de superinteligencias? Schneider dice, sí. Incluso si fueran biológicas, por el mero hecho de tener mejoras cerebrales biológicas, su superinteligencia se alcanzaría por medios artificiales, y podríamos considerarlas como siendo «inteligencias artificiales».

Pero ella sospecha algo más fuerte que esto: que no van a estar basadas en el carbono. La subida de información permite que una criatura esté cerca de la inmortalidad, permite reinicios, y le permite sobrevivir bajo una variedad de condiciones que las formas de vida basadas en el carbono no pueden hacerlo. Además, el silicio parece ser un mejor medio para el procesamiento de la información que el cerebro mismo. Las neuronas alcanzan una velocidad pico de aproximadamente 200 Hz, que es siete órdenes de magnitud más lento que los microprocesadores actuales.

http://www.dailygalaxy.com/my_weblog/2015/12/advanced-alien-life-may-be-a-billion-years-old-and-exist-with-technology-beyond-matter-weekend-featu.html

Modificado por orbitaceromendoza

QUÉ ESPERAR DE LOS EXTRATERRESTRES CUANDO HAGAMOS EL PRIMER CONTACTO

contact1Dada la inmensidad del espacio, sólo puede ser una cuestión de tiempo antes de hacer contacto con extraterrestres inteligentes. Pero, ¿cómo podría una civilización alienígena reaccionar a un encuentro y bienvenida tan monumental, y cómo podemos posiblemente conocer sus intenciones? Esto es lo que podríamos esperar.

Las civilizaciones extraterrestres serán seguramente como los copos de nieve: no hay dos que sean la misma. Cada una será diferente según una serie de factores, incluyendo su modo de existencia, la edad, la historia, la etapa de desarrollo, y el nivel de desarrollo tecnológico. Dicho esto, las civilizaciones avanzadas pueden tener mucho en común ya que se adaptan a retos similares; todos compartimos el mismo universo, después de todo.

Obviamente nunca hemos interactuado con una civilización extraterrestre, así que no tenemos prácticamente datos a compartir. La predicción de las intenciones extraterrestres es, pues, una perspectiva muy precaria -pero sí nos tenemos a nosotros mismos para considerarnos como un modelo potencial, tanto en términos de nuestra situación actual y dónde podríamos estar dirigiéndonos como especie en el futuro. Con esto en mente, he analizado tres escenarios diferentes en mi esfuerzo por predecir cómo las inteligencias extraterrestres (IETs) podrían reaccionar al reunirse con nosotros:
closeencounters-alien_1474
1-El contacto con una especie biológica como la nuestra;
2-El contacto con una especie post-biológica más avanzada que la nuestra; y
3-El contacto con una inteligencia extraterrestre basada en una máquina superinteligente.

Claramente, puede haber otras tipologías extraterrestres por ahí, pero no tiene ningún sentido tratar de predecir lo que podrían ser, especialmente en cuanto a sus intenciones.

Pararse en el mismo paño cosmológico  

Prácticamente no hay manera de que una especie exótica aparezca y se comporte exactamente igual que nosotros, pero eso no significa que no vayamos a compartir ciertas similitudes; en realidad, podemos ser más parecidos de lo que no -especialmente si los dos estamos todavía en la etapa biológica de nuestro desarrollo.

Como el biólogo evolucionista Richard Dawkins señaló en Climbing Mount Improbable, no hay planificación a largo plazo involucrada en la evolución, pero las especies se mueven hacia los picos de su acondicionamiento físico, es decir, que tienden a mejorar en las tareas especializadas con el tiempo (un ejemplo clásico es la tela de araña, que se considera un «diseño» óptimo en la naturaleza). Es más, algunas especies separadas por el tiempo y el espacio han sido conocidas por evolucionar a rasgos sorprendentemente similares, un fenómeno biológico conocido como evolución convergente. No es descabellado suponer, por tanto, que una especie exótica con inteligencia similar a la humana -y los atributos físicos para ejercer esa inteligencia en su entorno- compartirán ciertas cosas en común con los seres humanos, incluidas las tecnologías y los comportamientos heredados.
contact2
En su nuevo libro, The Runes of Evolution, el biólogo evolutivo Conway Morris sostiene que, mientras que el número de posibilidades en la evolución es astronómica, el número que realmente funciona es una fracción infinitesimal menor.

«La convergencia es uno de los mejores argumentos para la adaptación darwiniana, pero su gran ubicuidad no ha sido apreciada«, señaló en un artículo reciente de la Universidad de Cambridge. «A menudo, la investigación sobre la convergencia es acompañado por exclamaciones de sorpresa, y la describen como extraña, notable y sorprendente. De hecho, está en todas partes, y es una indicación notable de que la evolución está lejos de ser un proceso aleatorio. Y si los resultados de la evolución son, al menos en términos generales predecibles, entonces lo que se aplica en la Tierra será de aplicación a través de la Vía Láctea, y más allá«.

Morris sostiene que los extraterrestres biológicos probablemente se asemejan a los seres humanos, incluyendo en características como las extremidades, cabezas, cuerpos -y la inteligencia. Y si nuestros niveles de inteligencia son comparables, entonces nuestras psicologías y respuestas emocionales pueden ser similares también.

Los comportamientos heredados

¿Entonces qué comportamientos heredados podríamos compartir en común?

Como especie que desciende de los primates, somos criaturas muy sociales con tendencias jerárquicas definidas. Como Jared Diamond señaló en Guns, Germs and Steel: The Fate of Human Societies, también somos tomadores de riesgo. De hecho, los seres humanos son distintos de entre los primates porque exhibimos tendencias migratorias; nuestros antepasados con ​​frecuencia abandonaron sus entornos «naturales» en busca de los mejores, o cuando iban tras criaturas migratorias como parte de la caza mayor. Este comportamiento de riesgo, junto con nuestra insaciable curiosidad, habilidades lingüísticas y habilidades conceptuales sin precedentes, nos ha permitido innovar y organizarnos a lo largo de los milenios.
contact3
Pero ¿es justo proyectar nuestros atributos primates a los extraterrestres? Si y no. Los extraterrestres biológicos no es probable que sean primates, pero algunos pueden ser muy similares a los primates. Para las especies terrestres, el modo de la evolución de una fase darwinista a una fase post-darwiniana puede seguir patrones similares. Y desde una perspectiva construccionista social, los humanos y los extraterrestres también pueden compartir similitudes en el ámbito socio-político.

Dicho esto, si las especies exóticas evolucionaron a partir de diferentes precursores biológicos, como los animales similares a los peces, insectos, dinosaurios, aves, o algo que no observamos aquí en la Tierra, sus comportamientos probablemente serán muy diferentes, y por lo tanto muy difíciles -pero no necesariamente imposible- de predecir. Pero es justo decir que una especie antisocial excesivamente beligerante, no importa cuán inteligente o físicamente hábil sea, no es probable que avance a una etapa postindustrial capaz de viajar por el espacio.

Si los extraterrestres son biológica y socialmente iguales que nosotros, por lo tanto, pueden compartir muchos de nuestros deseos e inclinaciones, incluyendo nuestro interés por la ciencia, y el encuentro e interacción con la vida extraterrestre. Al mismo tiempo, sin embargo, pueden también compartir nuestro instinto de supervivencia y la experiencia de miedo en la reunión con «el otro», llevando a la priorización de lo que está en el grupo.

Si debemos hacer el primer contacto con una inteligencia extraterrestre (ETI), tendremos que asegurarnos de que nos encontremos amigablemente. Esperemos que vayan a hacer lo mismo. Pero incluso si estamos dispuestos a reunirnos, un gran desafío estará en la evaluación de los riesgos del intercambio cultural y tecnológico; sólo porque nos reunamos no significa que algo malo podría suceder involuntariamente. Como un ejemplo histórico, la introducción de enfermedades de Eurasia a las Américas durante la época de colonización es un poderoso recordatorio de lo que puede suceder cuando civilizaciones dispares y anteriormente aisladas se reunen.

Como ha dicho Stephen Hawking, «si los extraterrestres nos visitan, el resultado sería tanto como cuando Colón desembarcó en América, que no resultó bien para los nativos americanos. Sólo tenemos que mirarnos a nosotros mismos para ver cómo la vida inteligente podría convertirse en algo que no querríamos conocer».
contac4
El fallecido Carl Sagan tenía una opinión diferente, argumentando que es inapropiado hacer analogías históricas cuando se habla de las intenciones alienígenas. En un contacto optimista, dijo que era poco probable que vayamos a enfrentar «la barbarie colonial» de IETs avanzadas. Según Sagan, civilizaciones alienígenas que vivieron lo suficiente para colonizar una buena parte de la galaxia serían menos propensas a participar en un imperialismo agresivo. También pensaba que cualquier extraterrestre «pendenciero» serían anulado por una especie más potente. Lo que es más, no creo que IETs tecnológicamente avanzadas tendrían nada que temer de nosotros, así que no tenemos por qué temerles.

Encuentros cercanos del tipo máquina

La búsqueda de señales de radio y mensajes láser puede llevarnos a descubrir una especie exótica como la nuestra. Pero si una nave espacial extraterrestre apareciera de repente en la puerta, es muy poco probable que saliera algo biológico. Lo más probable es que una especie de máquina estaría allí para saludarnos.
contact7
Como el historiador jefe de la NASA, Steven J. Dick ha señalado, la forma dominante de la vida en el cosmos es probablemente post-biológica. Civilizaciones alienígenas avanzadas, ya sea a través de su propia evolución trans biológica o a través del aumento de su progenie artificial inteligente, son más propensos a estar basados en la máquina que en la carne. Nosotros mismos podríamos estar yendo en esta dirección, como lo demuestran los avances actuales y pendientes en la genética, la cibernética, la nanotecnología molecular, la ciencia cognitiva y la tecnología de la información.

Como Dick señaló en su ponencia, “The Postbiological Universe”:
Debido a los límites de la biología y de los cerebros de carne y hueso… la evolución cultural eventualmente resultará en métodos para mejorar la inteligencia más allá de los límites biológicos. Si el fuerte concepto de Inteligencia Artificial es correcto, es decir, si es posible construir IA con más inteligencia que los productos biológicos, la inteligencia postbiológica puede tomar la forma de la IA. Se ha argumentado que los humanos sí pueden convertirse postbiológicos en este sentido dentro de unas pocas generaciones.

Esta línea de argumentación llevó a Dick a postular el Principio de Inteligencia:
El mantenimiento, la mejora y la perpetuación del conocimiento y la inteligencia es la fuerza motriz fundamental de la evolución cultural, y en la medida en que la inteligencia pueda ser mejorada, será mejorada.

Suena como una declaración de una agradable misión -una común a todas las civilizaciones a medida que evolucionan y se adaptan a las condiciones cambiantes en el tiempo. Dados similares paisajes adaptativos -como tratar de desarrollar una estable y óptima Civilización Tipo II Kardashev o vivir en tándem con una superinteligencia artificial- las IETs pueden evolucionar hacia un modo común de existencia. Sin embargo, las presiones adaptacionistas extremas, incluyendo y especialmente la mitigación de los riesgos existenciales, pueden limitar la vida post-biológica de manera muy estrecha. Si este fuera el caso, es posible que finalmente seamos capaces de predecir la naturaleza de esta modalidad. Tal ejercicio podría servir al doble propósito de modelar a nuestros seres futuros y a las características potenciales y tendencias de las civilizaciones extraterrestres.

Una megaestructura similar a una esfera Dyson
Una megaestructura similar a una esfera Dyson

Huelga decir que los extraterrestres post-biológicos, como cyborgs o civilizaciones compuestas por mentes subidas, tendrían un conjunto diferente de prioridades de lo que estamos acostumbrados. Estas IETs pueden estar contenidas para construir sus Esferas de Dyson y vivir sus vidas virtuales alimentados por masivos Cerebros Matrioshka. Si este es el caso, es posible que no tengan ningún deseo de hacer contacto con seres biológicos como nosotros. Es difícil saber si estarían dispuestos a hacer contacto con civilizaciones similares a las suyas, aunque lo más probable es que querrían cuidarse a sí mismos. Una especie de xenofobia intergaláctica puede explicar El Gran Silencio y la Paradoja de Fermi; la escasez de olas colonizadoras de IETs parece sugerir que todo el mundo prefiere quedarse en casa, lejos de las miradas indiscretas.

Al mismo tiempo, si las inteligencias de las máquinas gobiernan el cosmos (ya sea localmente o a través de la inmensidad del espacio), entonces podemos ejecutar lo que se conoce como el problema de la inconmensurabilidad. Por el momento, las diferencias entre las mentes humanas y las mentes de la máquina es tan grande que la comunicación es imposible. En pocas palabras, la predicción de las intenciones y comportamientos de la inteligencia post-biológica es prácticamente imposible.

Cuidado con la Skynet extraterrestre

Como señaló Dick, el cosmos puede estar salpicado de superinteligencia artificial (SIA) -máquinas que sucedan o suplanten a sus antepasados ​​biológicos.
contact8
La predicción de los comportamientos y las intenciones de las SIAs es un enigma que actualmente enfrentan los teóricos de la IA que se preocupan por la posibilidad de que la mente de las máquinas se salgan fuera de control. Pero también es algo por lo que los astrobiólogos y científicos de SETI deben preocuparse.

¿Qué podría hacer una superinteligencia extraterrestre basada en la máquina consigo misma? Es alarmante, puede adoptar una serie de «objetivos instrumentales» para asegurar su existencia continua. Si este es el caso, es posible que desee alejarse de ellos (y por «alejarse» me refiero a mantener un perfil bajo cósmico). El filósofo de la Universidad de Oxford Nick Bostrom explica lo que entiende por objetivos instrumentales:
Varios valores instrumentales pueden ser identificados que son convergentes en el sentido de que su consecución aumentaría las posibilidades de que el objetivo del agente que se está realizado para una amplia gama de objetivos finales y una amplia gama de situaciones, lo que implica que estos valores instrumentales son susceptibles de ser perseguidos por un amplio espectro de agentes inteligentes situados.

En otras palabras, mientras que una superinteligencia artificial extraterrestre puede tener un conjunto de metas principales, ellas serán, en palabras de Bostrom, las de «perseguir objetivos intermedios similares porque tienen razones instrumentales para hacerlo.» Él llama a esto la Tesis de la Convergencia Instrumental.

El físico y teórico de la IA Steve Omohundro ha tomado la punta en tratar de predecir lo que podrían ser estos sub-objetivos. Su lista de unidades incluyen la auto-preservación, auto-protección, función de utilidad o integridad de meta-contenido (es decir, garantizar que no se desvía de sus objetivos o valores predeterminados), auto-mejora y adquisición de recursos. En consecuencia, las inteligencias alienígenas basadas ​​en máquinas avanzadas pueden ser extraordinariamente peligrosas para los forasteros.

En el lado positivo, sin embargo, una super-poderosa inteligencia de la máquina puede haber adoptado un objetivo principal, o la función de utilidad, que le obliga a eliminar tanto el sufrimiento de la galaxia como le sea posible. O para crear tantas experiencias individuales significativas como sea posible, es decir, mediante la conversión de toda la materia utilizable en computronium. Piense en ello como la aplicación pan-galáctica de la ética utilitarista. Si ese es el caso, ciertamente debemos esperar a reunirnos con ellos algún día. Asumiendo, por supuesto, que no nos destruyamos en el proceso.

GEORGE DVORSKY

Fuente original: io9

Modificado por orbitaceromendoza

LAS PREVISIONES MÁS ASOMBROSAS (Y PREOCUPANTES) SOBRE LA INTELIGENCIA ARTIFICIAL

IA1Un futuro en el que las máquinas sean tan inteligentes como los hombres es algo que la humanidad ha soñado e imaginado durante décadas. Personas como Ada Lovelace o Alan Turing, pioneros de la informática moderna, ya fantasearon con algo así. Pero ¿cuáles son las implicaciones reales de “crear” inteligencia?

Los esfuerzos y la visión de Turing y Lovelace fueron clave en la invención durante el siglo XX de los primeros ordenadores. A los suyos se unieron los de otros como Gordon Moore, Robert Noyce, John von Neumann o Tim Berners Lee y muchos más. El de todos en su conjunto hace que ahora que despega el siglo XXI nos encontremos ante un abismo, cada vez más cercano e inmediato, en el que las máquinas serán mejores que el hombre en la única que el hombre ha hecho mejor que el resto de especies en el planeta: pensar.

Cuando las máquinas gobiernen la Tierra
IA2
Antes de seguir es interesante definir exactamente qué entendemos como inteligencia artificial. En su nivel más básico, la realidad es que la inteligencia artificial no es algo esencialmente nuevo. Uno de los mejores ejemplos es el que miles de personas llevan en sus muñecas y bolsillos con asistentes como Siri, Cortana o Google Now. Una inteligencia artificial, Deep Blue, fue también la que en 1996 derrotó por primera vez a un ser humano, Gary Kasparov, jugando al ajedrez.

Pero tanto Siri y similares o Deep Blue, aunque son capaces de superar y mejorar a la inteligencia humana en ámbitos muy concretos no lo son globalmente. Tampoco “piensan” en el sentido auténtico de la palabra ni son capaces de generar pensamientos o ideas a menos que hayan sido programados para ello. Tampoco tienen una consciencia, simplemente no ejecutan tareas mejor que nosotros.

Sobre esa inteligencia en un ámbito concreto, irónicamente lo cierto es que los seres humanos tampoco somos superiores en ese sentido, y cuanto más avanza la humanidad menos parecen serlo.

Dicho de otro modo: durante todo el siglo XX, el grado de especialización y de complejidad en las diversas disciplinas técnicas y científicas creció de manera tan acelerada que provocó un cambio progresivo desde un modelo con “grandes inventores” (Edison y la bombilla, Gutenberg y la imprenta) a otro donde las grandes invenciones surgen en realidad de un esfuerzo colaborativo. Internet y el smartphone son buenos ejemplos, no hay un inventor claro y definido, aunque sí haya figura claves que a su vez se nutren de avances y mejoras anteriores a ellos.

Lo mismo ocurre con la comunidad científica y médica: muchos avances son o bien realizados en conjunto o bien se apoyan en descubrimientos anteriores. Es lógico al fin y al cabo, cuanto más aumenta la especialización, más díficil es para el ser humano ser experto globalmente. Surge así el concepto de “Superinteligencia”. Una superinteligencia se define a menudo también como “Probablemente la última cosa que el ser humano necesite inventar”.

Un futuro apasionante y preocupante, al mismo tiempo
IA3
Una superinteligencia domina varias áreas y además las domina por igual. La presencia de una tecnología así probablemente multiplicase los avances en otras áreas muy distintas. Es además, capaz de ser replicada (y potencialmente replicarse a sí misma), autónoma, con consciencia, capaz de aprender y por tanto de ser cada vez más poderosa. Una superinteligencia es puro intelecto,y no está atada tampoco a las afecciones más pasionales y sentimentales del ser humano.

Eso no es necesariamente “malo”. En realidad, uno de los principales problemas cuando afrontamos e imaginamos la inteligencia artificial somos, irónicamente, nosotros mismos. Imaginamos las máquinas como una proyección mecanizada del propio ser humano. Y probablemente no sea el modelo más inteligente a seguir.

La ciencia-ficción ha tratado el tema de manera equivocada

Una máquina no tiene por qué tener la psique humana y por tanto no tiene por qué sentirse incómoda siendo un esclavo que sirva a la humanidad (como sí se sentiría un humano, obviamente). Para bien o para mal, las máquinas no necesitan compartir nuestra emociones ni nuestros sentimientos.

Partiendo de esa base, la mayoría de argumentos de ciencia ficción, comenzando por Terminator, no tendrían demasiado sentido. Una máquina no tiene por qué sentir un impulso de superioridad, por ejemplo, o un concepto intrínseco de raza que le lleve a “sublevarse”. La cuestión es que en el momento en el que se entra a hablar de probabilidades, como es el caso, y de un futuro más bien ambiguo es normalmente porque todavía pertenece, para bien o para mal, a la ciencia-ficción.

Que no acabe de estar del todo claro, sin embargo, no significa que no tenga que haber una genuina preocupación en torno a cómo vamos a manejar la inteligencia artificial. La creación de esa superinteligencia probablemente sea un evento comparable al de la imprenta, el descubrimiento de américa o el propio internet. Y lo más delicado, como mencionaba antes, probablemente no ocurra sin más y de golpe, sino como consecuencia de unas invencinoes previas.

Conexión humano-máquina: cerebros en la nube

De esas invenciones, las más inmediatas en el horizonte son el coche autónomo de Google, que ya ha comenzado a funcionar y todo tipo de conexiones humano-máquina. Para 2030, una de las personas que mejor predijo el comienzo del siglo XXI desde los 90, Ray Kurzweil, ha vaticinado algún tipo de conexión cerebral entre humanos y la nube, eso permitiría no sólo “subir” información mental a la misma sino también nutrirse de manera casi inmediata de todo su conocimiento. Su libro, La era de las máquinas espirituales, un título parcialmente basado en una definición de Ada Lovelace, es una gran lectura para entender y ampliar esto.

Stephen Hawking también avisaba hace poco sobre el potencial inmediato y los peligros que una superinteligencia podría ocasionar. Para Hawking, lo preocupante no es si inicialmente somos capaces de controlarla, algo que se da prácticamente por sentado, sino si podremos hacerlo a largo plazo cuando y evitar que esa superinteligencia se vuelva contra nosotros.

Figuras como Elon Musk, o Bill Gates, han realizado donaciones millonarias y gestiones a diversos fondos para favorecer que esa futura inteligencia artificial se convierta en algo beneficioso para la humanidad, en lugar de algo peligroso. Para intentar manejar de la manera más precisa posible ese cuchillo de doble filo.

Los dilemas éticos que plantea

Esa superinteligencia no será una persona, pero podrá realizar acciones al mismo nivel que una real. Y lo más importante: muchas de ellas lo hará mejor. Eso plantea algunos dilemas éticos interesantes.

Uno de los clásicos y más populares es aquel que plantea un coche capaz de frenar y ajustar su velocidad para salvar la vida tanto de peatones como de pasajeros. En un momento determinado, se encuentra en la particular situación en la que si frena bruscamente conseguirá salvar la vida de 5 personas en un paso de peatones a unos metros por delante, si lo hace, con todo, volcará matando al único pasajero en su interior. ¿Qué debería hacer el coche, no frenar y salvar la vida de 1 persona o hacerlo y salvar la de 5 seres humanos pero no la de su legítimo dueño? Es una pregunta delicada, con dimensiones éticas muy complejas pero que da a pie a otra más interesante ¿Cómo codificaremos las máquinas para que nunca se vuelvan contra la humanidad?

Con una superinteligencia el principal dilema es que el ser humano se enfrentaría, por primera vez en su historia, a algo que es exponencialmente más inteligente que él. Toma un poco de tiempo entender las dimensiones reales de la paradoja, pero las consecuencias pueden ser aterradoras.

La guerra contra las máquinas
IA4
Hay una gran variedad de niveles intelectuales en el ser humano, desde superdotados a gente rematadamente idiota, pero todos nos movemos dentro de un abanico lo suficientemente estrecho como para que el entendimiento sea común. Imaginemos ahora cómo nos ve, por ejemplo, un chimpancé, o un gorila, incluso un delfín. La diferencia en coeficiente intelectual no es “tan” elevada, pero a nivel práctico somos esencialmente dioses. Resulta curioso comparar cómo verá el hombre a un máquina capaz de superarlo intelectualmente en múltiplos cada vez mayores. Y lo mejor: capaz de aprender y ser cada vez más avanzada.

Esa superinteligencia, como exponen las hipótesis de Nick Bostrom, podría volverse en algún momento tan superior que acabe suponiendo la extinción del ser humano. No por un deseo de hacer el mal, en sí, sino porque no seamos capaces realmente de manejarlas o de pararlas.

Futuro incierto. Futuro apasionante. Futuro aterrador.

Aquí entra otro concepto interesante: la explosión de la inteligencia. Hasta ahora, y pese a los avances técnicos derivados fundamentalmente de la progresión de la Ley de Moore el principal limitante ha sido irónicamente la propia inteligencia humana. Pero, ¿qué ocurrirá cuando una máquina adquiera el suficiente nivel de inteligencia como para aprender del entorno y replicarse a sí misma? Ese es el concepto que recoge la singularidad. A partir de la singularidad, el crecimiento y el avance de la inteligencia artificial vendrá determinado por la propia inteligencia de la máquina creando más máquinas, no por la del ser humano.

El trabajo de personas como Ray Kurzweil y Vernor Vinge se ha centrado durante años en elucubrar sobre qué ocurrirá en el momento en el que aparezca la singularidad. Su conclusión: no lo sabemos. Cuando ocurra las posibilidades pueden propulsar a la raza humana hasta límites y extremos que nunca antes ha alcanzado o pueden condenarla a la extinción. Y hasta que esa singularidad no ocurra, la Inteligencia Artificial seguirá siendo apasionante y escalofriante a partes iguales.

CARLOS REBATO

Imagen: Andrea Danti/Shutterstock.

LAS DIEZ RAZONES POR LAS QUE DEBEMOS TEMER LA SINGULARIDAD

dreamstime_3402262-300x240¿Porqué tenemos miedo de la singularidad tecnológica?

Bueno, déjame darte las que creo son las diez razones más populares:

1. Extinción

La extinción es, con mucho, la más temida, así como la consecuencia más comúnmente predicha de la singularidad.

fearsingu3El apocalipsis mundial para la raza humana viene en muchos sabores, pero algunos de los más populares son: una SuperInteligencia Artificial (SIA) estilo «terminator», -un «Robopocalipsis» ;  una nanotecnología rebelde, -el escenario llamado plaga gris; armas inteligentes caseras de destrucción masiva,- utilizadas por terroristas y nihilistas; modificaciones o mutaciones genéticas, -nos convierten en muertos vivientes; experimentos científicos fallidos, -el Gran Colisionador de Hadrones  creando un agujero negro que engulle el planeta …
robopocalyps-cover
En pocas palabras, el temor es que, como Bill Joy notoriamente señaló:  el futuro no nos necesita .

2. Esclavitud

Tal vez la segunda razón más común para temer la singularidad es la esclavitud potencial o sometimiento de toda la raza humana. El argumento es bastante simple:

Una vez que tengamos una SIA dejaremos de ser las entidades más inteligentes de este planeta. En otras palabras, hemos creado dioses sin dejar de ser simples humanos. Así, si por cualquier razón las máquinas deciden no exterminarnos, entonces, lo más probable es que, ya que serán muy superiores a nosotros, nos esclavicen. Esto se puede realizar de varias maneras: ya sea explícitamente, -dándonos cuenta de nuestra esclavitud, o implícitamente, -sin darnos cuenta (los escenarios Matrix/Simulación).

3. La III Guerra Mundial – Guerra Giga

El tercer temor más común de la singularidad es, por supuesto, la Tercera Guerra Mundial. Una guerra  de una escala sin precedentes, con una sofisticación y eficiencia de  muerte y destrucción que podría ser el resultado de o bien un choque entre la raza humana y la IA o entre diferentes facciones de los seres humanos: por ejemplo, la «Guerra ArtIlect» de «terranos» contra «cosmists» según lo previsto por Hugo de Garis. Cualquiera que sea el caso, probablemente provocará miles de millones de muertes y un colapso o la completa erradicación de nuestra civilización.

4. Colapso Económico

Algunos han argumentado que, si de alguna manera nos las arreglamos para evitar los tres escenarios anteriores, entonces, estaríamos propensos a experimentar un total colapso económico:

La absoluta robotización de nuestra sociedad es probable que conduzca a la sobreproducción de bienes y servicios. Sin embargo, ya que se afirma que la mayoría de personas perderán sus puestos de trabajo debido a los robots, habrá una tasa de desempleo mundial de escala sin precedentes que a su vez derrumbará la demanda de esos bienes y servicios robóticos. Combine esto con la explosión de una población de 9 o incluso 10 millones de personas en su mayoría desempleados que no tengan medios para crear ingresos y comprar cualquier cosa, y veríamos un colapso económico global.

5. Gran Hermano IA

Este escenario es una versión más suave de la opción Matrix de esclavitud/sometimiento porque estamos todavía bajo el control completo de una Inteligencia Artificial que todo lo sabe. La principal diferencia es que la IA no está haciendo nada más que lo que es mejor para nosotros, en lugar de lo que es mejor para ella: tenemos un benevolente, omnipotente y absoluto monarca que nos protege de nuestros peores enemigos, -de los demás seres humanos y de nosotros mismos. Todo se hace en nombre de la maximización de la seguridad, la prosperidad y la felicidad general para todas las personas en todo el planeta. El único aspecto negativo es un poco de propaganda y el «lavado de cerebro ideológico, político o religioso» necesario para apuntalar «el culto de la IA», pero está bien, ya que es por nuestro propio beneficio.

fearsingu26. La Alienación y Pérdida de la Humanidad

Siguiendo la máxima de «si no puedes vencerlos, únete a ellos», una de las posibles maneras de sobrevivir a la singularidad es mediante la fusión con las máquinas. Esta idea, -que podemos y deberíamos mejorar lo que se nos ha transmitido por la madre naturaleza-, se refiere a menudo como transhumanismo. Fusionando hombre y máquina a través de la biotecnología, la nanotecnología molecular y la inteligencia artificial, aumentaríamos nuestras capacidades cognitivas, la fuerza física, la estabilidad emocional, la salud general y la longevidad.

El miedo, por supuesto, es que al hacerlo vamos a perder la esencia misma del ser humano, -nuestra naturaleza humana, nuestras almas humanas y la identidad humana. Por otra parte, a nivel colectivo, la pérdida de humanidad también significa alienación o pérdida de la comunidad que quiere decir que la variedad resultante de entidades posthumanas será tan distintas como para negar cualquier relación entre los diferentes individuos. Esto a su vez significa que la humanidad, de hecho, no sobreviviría, sino que sucumbiría a la invasión de la máquina y de hecho se extinguiría.

7. Catástrofe Ambiental

Nuestra historia muestra que nuestra destructividad ambiental está en proporción directa de nuestras proezas tecnológicas. Una vez que vivimos en una sociedad global donde todo es producido en serie por robots, nuestra civilización manufacturada cortará la última conexión con el mundo natural. Perderemos la última pizca de respeto por la madre naturaleza:

¿Por qué preservar la selva tropical si podemos crear una «mejor» e «inteligente»? ¿Por qué preocuparnos por la biodiversidad, la extinción de especies o la degradación del medio ambiente si podemos revivir y moldearlos para nuestros propios fines o placer?

¿Porqué preocuparse de algo si somos dioses (tecnológicos)?

8. Pérdida de la Historia, el Conocimiento y la Resolución espacial (Edad Oscura Digital)

fearsingu6El proceso cada vez más acelerado de la digitalización viene junto con una cierta pérdida o destrucción de datos. Estos datos pueden estar en forma de historia, tradiciones culturales, lenguas muertas o información científica importante. Por ejemplo, la NASA admitió recientemente que se ha perdido la capacidad de recuperar gran parte de los datos informáticos de algunas de las misiones Apolo y los alunizajes. Así ciertos tipos de conocimiento vitalmente importante y único, así como la historia o las tradiciones culturales se pierden para siempre. Para saber si estamos haciendo un buen negocio o no, debemos  cuantificar las pérdidas de datos y compararlas con los beneficios potenciales. Sin embargo, a la velocidad vertiginosa que estamos avanzando pocos tienen tiempo para tales cálculos.

Parece que vivimos en un universo analógico con resolución infinita, – tanto para ampliar y reducir, en la medida que podamos. El proceso de digitalización captura una mera fracción de él. Al igual que un archivo .mp3 comprimido capta sólo una parte del desempeño musical actual, este proceso crea los símbolos que son representaciones digitales de la realidad. El temor es que podemos llegar a perder la conciencia de que el mundo digital es un reino de símbolos, -un mero reflejo del verdadero universo analógico-, terminando en la cueva de las ilusiones digital de Platón.

9. Computronium y Cerebros  Matrioska  

fearsingu7Por lo que sabemos parece que vivimos en un universo lleno de materia tonta. Esto, por supuesto, lo convierte en un universo bastante tonto también.

Sin embargo, extrapolando de nuestro propio desarrollo, parece que a medida que pasa el tiempo hay un movimiento de menos a más inteligencia en el universo. Por lo tanto, dado el tiempo suficiente, más y más de nuestro planeta y, con el tiempo nuestro universo, es probable que contenga y se componga de cada vez más materia inteligente. Este proceso es probable que continúe hasta que la ley de Moore se derrumbe y se alcance un equilibrio. Tal disposición teórica de la materia, -la mejor configuración posible de cualquier cantidad dada para lograr un dispositivo de computación absolutamente óptimo, es el sustrato también conocido como computronium.

SONY DSCUn cerebro Matrioska es una hipotética megaestructura de inmensa capacidad computacional. Basado en la esfera de Dyson, el concepto deriva su nombre de la muñeca rusa Matrioska y es un ejemplo de un ordenador de tamaño planetario alimentado con energía solar, capturando toda la producción de energía de una estrella. Para formar el cerebro Matrioska todos los planetas del sistema solar se desmontan y se crea un vasto dispositivo computacional habitado por mentes volcadas o virtuales, inconcebiblemente más avanzado y complejo que nosotros.

Así que la idea es que con el tiempo, de una manera u otra, toda la materia del universo será inteligente. Todo el polvo será polvo inteligente, y todos los recursos serán utilizados para su potencial óptimo de computación. No habrá nada más que cerebros Matrioska  y/o computronium…

10. El Temor del Cambio

El miedo al cambio y el miedo a lo desconocido están profundamente arraigados en la psique humana:. Todos queremos estar cómodos. No saber es muy, muy incómodo. Al darse cuenta de que el cambio que se avecina es radicalmente único, – tanto en escala como en imprevisibilidad, es aún más desasosegante.

Cuando se trata de la supervivencia a nadie le gustan las sorpresas. Así lo tomamos como una cuestión tanto personal como de seguridad colectiva para modelar y, al menos,  prever aproximadamente el futuro.

La singularidad es un cambio radical de proporciones cósmicas que es, por definición, imposible de modelar, y mucho menos predecir. Por lo tanto, no es ninguna sorpresa que evoque una profunda inseguridad y miedo primario.

La pregunta es: ¿Tienes miedo?¿No tienes mucho, mucho miedo?

SÓCRATES

NUESTRA ÚLTIMA INVENCIÓN

¿QUÉ SUCEDE CUANDO LA INTELIGENCIA ARTIFICIAL SE VUELVE CONTRA NOSOTROS?

terminator.jpg__800x600_q85_cropEn un nuevo libro, James Barrat advierte que la inteligencia artificial, un día será más inteligente que los seres humanos, y no hay garantía de que será benévola.

La inteligencia artificial ha recorrido un largo camino desde R2-D2. En nuestros días, la mayoría de esta  generación se perdería sin sistemas GPS inteligentes. Los robots ya están navegando los campos de batalla, y los drones pronto podrían entregar paquetes de Amazon en nuestras puertas.

Siri puede resolver ecuaciones complicadas y le dirá cómo cocinar el arroz. Incluso se ha demostrado que puede incluso responder a las preguntas con cierto sentido del humor.

Pero todos estos avances dependen de un usuario que dando órdenes a la Inteligencia Articifial (IA). ¿Qué pasaría si las unidades de GPS decidieran que no quieren ir a la tintorería, o peor, Siri decidiera que podría ser más inteligente sin usted por aquí?

Estos son sólo los más anodinos resultados que James Barrat, autor y director de documentales, pronostica en su nuevo libro, Our Final Invention: Artificial Intelligence and the End of the Human Era.(Nuestra Invención Final: Inteligencia Artificial y el Fin de la Era Humana)

james-barrat-with-book-cover.jpg__800x450_q85_crop_upscaleEn poco tiempo, dice Barrat, la inteligencia artificial, -desde Siri hasta aviones no tripulados y sistemas de procesamiento de datos-, dejarán de recurrir a los seres humanos para las actualizaciones y comenzarán la búsqueda de mejoras por su cuenta. Y a diferencia de los R2-D2 y HAL de la ciencia ficción, la IA de nuestro futuro no será necesariamente amable. Afirma que en realidad podría ser lo que nos destruya.

En pocas palabras, ¿puede explicar sus ideas?

En este siglo, los científicos crearán máquinas con inteligencia que igualará y luego sobrepasará a la nuestra. Pero antes de que compartamos el planeta con máquinas super-inteligentes, debemos desarrollar una ciencia para comprenderlas. De lo contrario, tomarán el control. Y no, esto no es ciencia ficción.

Los científicos ya han creado máquinas que son mejores que los humanos en el ajedrez,  Jeopardy!, la navegación, el procesamiento de datos, búsqueda, demostración de teoremas y un sin número de otras tareas. Con el tiempo, las máquinas creadas en la investigación IA serán mejores que los seres humanos.

En ese punto, serán capaces de mejorar sus propias capacidades muy rápidamente. Esas máquinas automejoradas perseguirán los objetivos que ellas crearon, ya fuera la exploración espacial, jugar al ajedrez o la selección de acciones. Para lograr el éxito buscarán y emplearán recursos, ya sea energía o dinero. Tratarán de evitar los fallos, como ser desconectados o desenchufados. En definitiva, desarrollarán unidades, incluyendo de auto-protección y de adquisición de recursos, tanto como la nuestra. No vacilarán en rogar, pedir prestado, robar y lo peor para conseguir lo que necesiten.

¿Cómo se interesó en este tema?

                   
 Soy un director de documentales. En el 2000, entrevisté al autor Ray Kurzweil, al experto en robótica Rodney Brooks y a la  leyenda de la ciencia ficción Arthur C. Clarke para una película para TLC sobre la fabricación de la novela y la película,  2001: Una odisea del espacio.  Las entrevistas exploraron la idea de la Hal 9000, y computadores malévolos. Los libros de Kurzweil han retratado el futuro IA como una «singularidad» exultante, un período en el que los avances tecnológicos superan la capacidad de los humanos para entenderlos. Además él anticipó sólo cosas buenas de la IA, que es lo suficientemente fuerte como para igualar y luego superar a la inteligencia humana. Él predice que vamos a ser capaces de reprogramar las células de nuestro cuerpo para derrotar a la enfermedad y el envejecimiento. Desarrollaremos súper resistencia con nanobots que emiten más oxígeno que las células rojas de la sangre. Incrementaremos el potencial de nuestro cerebro con los implantes informáticos para llegar a ser superinteligentes. Y llevaremos a nuestros cerebros a un medio más duradero que nuestro presente «wetware» y viviremos para siempre si queremos. Brooks era optimista, insistiendo en que los robots IA mejorados serían aliados, no amenazas.

Por su parte Clarke, el científico convertido en autor, se mostró pesimista. Me dijo que la inteligencia  ganará, y los seres humanos probablemente competirían por la supervivencia con las máquinas superinteligentes. Él no fue específico acerca de lo que sucedería cuando compartamos el planeta con máquinas super-inteligentes, pero pensaba que sería una lucha para la humanidad que no íbamos a ganar.

Eso iba en contra de todo lo que yo había pensado sobre la IA, así que comencé a entrevistar a expertos en inteligencia artificial.

¿Qué pruebas tiene usted para apoyar su idea?

La inteligencia artificial avanzada es una tecnología de doble uso, como la fisión nuclear, capaz de un gran bien o un gran daño. Estamos empezando a ver el daño.

El escándalo de privacidad de la  NSA se ha producido porque la NSA desarrolló muy sofisticadas herramientas de procesamiento de datos. La agencia utilizó su poder para sondear los metadatos de millones de llamadas telefónicas y los de la totalidad de la Internet, de todo el correo electrónico. Seducida por el poder del procesamiento de datos de la IA, una agencia a cargo de proteger la Constitución en vez de eso abusó de ella. Desarrollaron herramientas demasiado poderosas para que los utilizaran de forma responsable.

Hoy en día, otra batalla ética se está gestando sobre la fabricación de drones asesinos totalmente autónomos y robots de batalla alimentados por avanzadas IA, -asesinos de humanos sin humanos al tanto. Se está gestando entre el Departamento de Defensa y los fabricantes de aviones no tripulados y robots que son pagados por el Departamento de Defensa, y las personas que piensan que es temerario e inmoral crear máquinas de matar inteligentes. Los partidarios de drones autónomos y robots de batalla argumentan que serán más morales, es decir, menos emocionales, se centrarán mejor en el objetivo y serán más disciplinados que los operadores humanos. Aquellos en contra de dejar al ser humano fuera del circuito se fijan en la terrible historia de drones matando civiles, y su participación en asesinatos ilegales. ¿Sobre quién recae la culpabilidad moral cuando un robot mata? ¿Los fabricantes de robots, los usuarios de robots, o nadie? No importan las obstácuos técnicos de llamar amigo al enemigo.

A más largo plazo, como expertos argumentan en mi libro,  al acercarse la IA a la inteligencia de nivel humano no se podrá controlar fácilmente; por desgracia, la super-inteligencia no implica benevolencia. Como el teórico de la IA, Eliezer Yudkowsky del MIRI [Instituto de Investigación en Inteligencia de la máquina] dice, «La IA no te quiere, ni te odia, pero estás hecho de átomos que puede utilizar para otra cosa.» Si la ética no puede ser incorporada en una máquina, entonces estaremos creando psicópatas super-inteligentes, criaturas sin brújulas morales, y no  seremos sus amos por mucho tiempo.

¿Qué hay de nuevo en su forma de pensar?

Individuos y grupos tan diversos como el científico estadounidense de computación Bill Joy y el MIRI han advertido desde hace tiempo que tenemos mucho que temer de máquinas cuya inteligencia eclipse la nuestra. En Nuestra Invención Final, argumento que la IA también será mal utlizada en el camino del desarrollo de la inteligencia humana. Entre hoy y el día en que los científicos creen inteligencia al nivel humano, tendremos errores relacionados con la IA y aplicaciones criminales.

¿Por qué no se ha hecho más, o, que se está haciendo para impedir que la IA se vuelva en contra nuestra?

No hay una sola razón, sino muchas. Algunos expertos no creen que estemos lo bastante cerca de crear  una inteligencia artificial a nivel humano y no se preocupan por sus riesgos. Muchos fabricantes de IA ganan contratos con DARPA (Agencia de Proyectos de Investigación Avanzada de Defensa) y no quieren plantear cuestiones que consideran políticas. La tendencia normal es un sesgo cognitivo que impide que la gente reaccione a los desastres y las catástrofes en la creación, es definitivamente parte de ello. Pero muchos fabricantes de IA están haciendo algo. Atienden a los científicos que asesoran a MIRI. Y, muchos más se involucrarán una vez que los peligros de la IA avanzada entren en el diálogo general.
        
¿Puede describir el momento en que supo que esto era importante?

Nosotros los humanos dirigimos el futuro no porque seamos los más rápidos o las criaturas más fuertes del planeta, sino porque somos los más inteligentes. Cuando compartamos el planeta con criaturas más inteligentes que nosotros, ellos dirigirán el futuro. Cuando entendí la idea, sentí que estaba escribiendo sobre la cuestión más importante de nuestro tiempo.

Cada gran pensador tiene predecesores cuyo trabajo fue crucial para su descubrimiento. ¿Quién le dio la base para construir su idea?

Los fundamentos del análisis de riesgos IA fueron desarrollados por el matemático I.J. Good, el escritor de ciencia ficción Vernor Vinge, y otros, incluyendo al desarrollador IA Steve Omohundro. Hoy en día, el MIRI y el Instituo de Oxford «Futuro de la Humanidad» están casi solos en el tratamiento de este problema.  Nuestra Invención Final tiene alrededor de 30 páginas de notas finales que reconocen a estos pensadores.

En la investigación y el desarrollo de su idea, ¿cuál ha sido el punto más alto? ¿Y el punto más bajo?

Los puntos altos lo fueron escribiendo  Nuestra Invención Final,  y mi diálogo permanente con los responsables y teóricos de la IA. Las personas que programan AI son conscientes de las cuestiones de seguridad y quieren ayudar a conseguir algún dispositivo de salvaguardia. Por ejemplo, MIRI está trabajando en la creación de una IA «amistosa».

El informático y teórico Steve Omohundro ha abogado por un enfoque de «andamiaje», en el que una IA demostradamente segura ayuda a construir la próxima generación de IA para asegurar que también sea segura. Entonces esa IA hace lo mismo, y así sucesivamente. Creo que una alianza público-privada tiene que ser creada para que los responsables de IA compartan ideas acerca de la seguridad, algo así como la Agencia Internacional de la Energía Atómica, pero en colaboración con las corporaciones. ¿Los puntos bajos? Al constatar que la mejor y má avanzada tecnología IA se utilizará para crear armas. Y esas armas eventualmente se volverán contra nosotros.

¿Qué dos o tres personas tienen más probabilidades de tratar de refutar su argumento? ¿Por qué?

Ray Kurzweil es el principal apologista de tecnologías avanzadas. En mis dos entrevistas con él, decía que íbamos a fundirnos con las tecnologías de la IA a través de mejoras cognitivas. Kurzweil y la gente generalmente llamados transhumanistas y singularistas piensan que la IA y en última instancia, la inteligencia general artificial y demás evolucionarán con nosotros. Por ejemplo, los implantes informáticos mejorarán la velocidad de nuestro cerebro y las capacidades generales. Con el tiempo, desarrollaremos la tecnología para el transporte de nuestra inteligencia y de la conciencia a los ordenadores. Entonces la super-inteligencia será por lo menos en parte humana, que en teoría garantizaría que sea «segura».

Por muchas razones, yo no soy seguidor de este punto de vista. El problema es que nosotros los humanos no somos confiablemente seguros, y parece poco probable que los seres humanos superinteligentes lo sean. No tenemos idea de lo que pasa con la ética de un ser humano después de que se aumente su inteligencia. Tenemos una base biológica para la agresión que las máquinas no tienen. La super-inteligencia podría muy bien ser un multiplicador de la agresión.

¿Quién será más afectado por esta idea?

Todo el mundo en el planeta tiene mucho que temer del desarrollo no regulado de las máquinas superinteligentes. Una raza inteligente está desarrollándose en estos momentos. El logro de IA es el trabajo número uno para Google, IBM y muchas empresas más pequeñas como Vicarious y Deep Thought, así como para DARPA, la NSA y los gobiernos y empresas extranjeras. El beneficio es la principal motivación para esa carrera. Imagina un objetivo probable: un cerebro humano virtual por el precio de un ordenador. Sería el producto más lucrativo en la historia. Imagínese bancos de miles de cerebros calidad doctorado trabajando las 24 horas en el desarrollo de productos farmacéuticos, la investigación del cáncer, el desarrollo de armas y mucho más. ¿Quién no querría comprar esa tecnología?

Mientras tanto, 56 países están desarrollando robots de batalla, y van camino de hacerlos, -y a los drones-, autónomos. Serán máquinas que maten, sin supervisión de seres humanos. Las naciones empobrecidas serán las más perjudicadas por los drones autónomos y robots de batalla. Inicialmente, sólo los países ricos podrán permitirse robots asesinos autónomos, así que las naciones ricas manejarán esas armas contra los soldados humanos de las naciones empobrecidas.

¿Cómo podría cambiar la vida, tal como la conocemos?

Imagínese: en tan sólo una década, los ordenadores de una media docena de empresas y naciones que rivalizan o superan la inteligencia humana. Imagínese lo que sucede cuando esos ordenadores se convierten en expertos en computadoras inteligentes de programación. Pronto  compartiremos el planeta con máquinas miles o millones de veces más inteligentes que nosotros. Y, al mismo tiempo, cada generación de esta tecnología estará armada. No reglamentado, será catastrófico.

¿Qué preguntas se quedan sin respuesta?

Soluciones. La solución obvia sería la de dotar a las máquinas de un sentido moral que les haga valorar la vida humana y la propiedad. Pero la programación de la ética en una máquina resulta ser extremadamente difícil. Las normas morales difieren de una cultura a otra, cambian con el tiempo, y son contextuales. Si nosotros los humanos no podemos ponernos de acuerdo sobre cuándo comienza la vida, ¿cómo podemos decir a una máquina que proteja la vida? ¿Realmente queremos estar seguros, o lo que realmente queremos es ser libres ?  Podemos debatir todo el día y no llegar a un consenso, por lo que ¿cómo podemos programarlo?

También nosotros, como he mencionado antes, necesitamos conseguir desarrolladores de IA. En la década de 1970, investigadores de ADN recombinante decidieron suspender la investigación y reunirse para una conferencia en Asilomar en Pacific Grove, California. Ellos desarrollaron protocolos de seguridad básicas como «no rastrear el ADN fuera de tus zapatos», por temor a la contaminación del medio ambiente con trabajos genéticos en curso. A causa de las «Directrices de Asilomar,» el mundo se beneficia de los cultivos modificados genéticamente, y la terapia génica parece prometedora. Por lo que sabemos, se evitaron accidentes. Es hora de una Conferencia de Asilomar para la IA.

¿Qué es lo que lo impide?

Un gran viento económico impulsa el desarrollo de tecnologías avanzadas IA de inteligencia a nivel humano que el precio de una computadora será el producto más importante de la historia. Google e IBM no quieren compartir sus secretos con el público o los competidores. El Departamento de Defensa no va a querer abrir sus laboratorios a China e Israel, y vice-versa. La conciencia pública tiene que empujar la política hacia la apertura y la colaboración público-privada para garantizar la seguridad.

¿Qué será lo próximo para usted?

Soy un director de documentales, así que por supuesto que estoy pensando en una versión cinematográfica de Nuestra Final Invención.

ERICA R. HENDRY      Smithsonian Magazine (Traducido por JUAN PEDRO MOSCARDÓ para LIBERTALIADEHATALI)

libertalia1

LAS PEORES MENTIRAS QUE SE HAN DICHO SOBRE LA SINGULARIDAD

singularityUsted probablemente ha oído hablar de un concepto conocido como la Singularidad Tecnológica, -un nebuloso evento que se supone ocurrirá en un futuro no muy lejano. Gran parte de la incertidumbre que rodea a esta posibilidad, sin embargo, ha llevado a la especulación salvaje, confusión y negación absoluta. Estos son los peores mitos que le han dicho acerca de la Singularidad.

En pocas palabras, la Singularidad Tecnológica es un término usado para describir el momento teórico en el tiempo cuando prenda la inteligencia artificial y luego supere a la inteligencia humana. El término fue popularizado por el escritor de ciencia ficción Vernor Vinge, pero todo el crédito recae sobre el matemático John von Neumann, quien habló de un [en palabras de Stanislaw Ulam] «cada vez más acelerado progreso de la tecnología y los cambios en el modo de la vida humana, que da lugar a la aparición inminente de alguna singularidad esencial en la historia de la raza más allá del cual los asuntos humanos, tal como los conocemos, no podría continuar».

Por «no continuar» von Neumann se refería a la posibilidad de que la humanidad pierda el control y caiga fuera del contexto de sus tecnologías. Hoy en día, esta tecnología se supone que es la inteligencia artificial, o más exactamente, la mejora recursiva de la inteligencia artificial (MRIA), que conduce a una super-inteligencia artificial (SIA).

Ya que no podemos predecir la naturaleza y las intenciones de una superinteligencia artificial, hemos convenido en referirnos a este futuro evento sociológico como la Singularidad Tecnológica, un concepto que está abierto a una amplia interpretación, y como consecuencia, a gruesos desconocimientos. Estos son los peores:

«La Singularidad no sucederá»

Bueno, yo no apostaría en contra de ella. La embestida de la Ley de Moore parece estar sin obstáculos , mientras que los avances en el cartografiado del cerebro y la inteligencia artificial continúan a buen ritmo. No nos aguardan obstáculos conceptuales y tecnológicos insuperables.

Y lo que la mayoría de los escépticos de SIA no entienden es que todavía no hemos ni siquiera entrado en la era de la IA, un momento en que poderosos, -pero estrechos-, sistemas incorporen muchos dominios actualmente ocupados por los seres humanos. Habrá un tremendo incentivo para el desarrollo de estos sistemas, tanto para la economía y la seguridad. Finalmente aparecerá una Superinteligencia, lo más probable producto de las megacorporaciones y los militares.

Este mito puede ser en realidad el peor de todos, algo a lo que me he referido como Negacionismo de la Singularidad. Aparte de la nanotecnología molecular usada tal vez como arma, SIA representa la mayor amenaza para la humanidad. Esta amenaza existencial no ha alcanzado el zeitgeist o espíritu de la época, pero finalmente lo hará, probablemente después de nuestra primera catástrofe IA. Y recuerden mis palabras, llegará un día en que esta perniciosa y babeante retórica de friquis será igual, si no peor, que lo que la negación del cambio climático es hoy.

«La SuperInteligencia Artificial será consciente»

No. La SIA probablemente no será consciente. Necesitamos ver a esos sistemas, de los cuales habrá muchos tipos, como las versiones tuneadas en marcha de Watson de IBM o Deep Blue. Van a trabajar a una velocidad increíble, serán alimentados por procesadores y algoritmos increíblemente poderosos, pero no habrá nadie en casa.

Para ser justos, existe la posibilidad de que una SIA pudiera ser diseñada para ser consciente. Incluso se podría rediseñar para ser consciente de sí misma. Pero si esto sucede, todavía representaría un espacio mental muy diferente de todo lo que conocemos. La experiencia subjetiva de una mente máquina apenas se parecería a la nuestra.

Como acotación al margen, este concepto erróneo puede estar vinculado al primero. Algunos escépticos argumentan que no habrá Singularidad porque nunca vamos a ser capaces de imitar las complejidades de la conciencia humana. Pero es una objeción que es completamente irrelevante. Una SIA será potente, sofisticada y peligrosa, pero no porque sea consciente.

«Una SuperInteligencia Artificial tiene que ser amistosa»

Hay un meme entre algunos singularistas que dice así: a medida que aumenta la inteligencia, lo mismo ocurre con la empatía y la benevolencia. De acuerdo con este pensamiento, como las inteligencias artificiales serán más y más inteligentes, esperaríamos verlos a ellas más y más amistosas.

Lamentablemente, este no será el caso. En primer lugar, este razonamiento implica (1) un cierto nivel de autoreflexión e introspección por parte de la SIA (que no es en absoluto un hecho), y (2) una función de utilidad o imperativo ético que esté estrechamente alineada con la nuestra. Sobre este último punto, no podemos predecir o conocer las cavilaciones de una mente máquina completamente ajena, -que está distanciada de la nuestra varios órdenes de magnitud más allá-, o lo que iba a encontrar moralmente valioso o no. Por otra parte, si está programado con un conjunto de objetivos que son inalterables, serán siempre prioritarios aquellos parámetros iniciales más allá de cualquier otra cosa, como lo ilustra el infame escenario pisapapeles. Como ha dicho el teórico de IA Eliezer Yudkowsky, «La IA no te odia, ni te ama, pero estás hecho de átomos que se pueden utilizar para otra cosa.»

«La aceleración del cambio es la Singularidad»

Desde que el término se hizo popular, se nos ha dicho que habrá que esperar varios tipos diferentes de Singularidades, algunos de los cuales ni siquiera tienen nada que ver con la SIA. Nos han dicho que se espera una singularidad económica o hasta una singularidad de las cuchillas de afeitar. Algunos incluso han equiparado (o fusionado) la Singularidad con la extensión radical de vida, la transferencia mental, la inteligencia transhumana, y la fusión de los seres humanos con las máquinas (más sobre esto a continuación). Los seguidores de Kurzweil son particularmente culpables de esto, a menudo equiparan la Singularidad con el constante crecimiento acelerado de todas las tecnologías, incluida la IA. Una perspectiva que en gran medida no tiene en cuenta una explosión de inteligencia incontrolable.

«Los seres humanos se fusionarán con las máquinas»

Algunos dicen que no es necesario preocuparse por la Singularidad, porque sólo tendremos que dejarnos llevar. En el momento en que la Singularidad llegue, señala este argumento, vamos a estar tan estrechamente integrados con nuestras máquinas que seremos todo en uno. ¡Será una singularidad para todos!

El primer problema con esta teoría es que ciborgización y/o transferencia  humana sucederán a un ritmo mucho más lento que los avances en la IA (sobre todo por razones éticas). El segundo problema es que la fuente inmediata de una MRIA será muy localizada. Será un sistema (o sistemas múltiples que trabajan en conjunto para aprovechar los efectos sinérgicos y/o estrategias de teoría de juegos diseñados para asegurar la futura libertad de acción) que de repente se apaga la parte más profunda, mejorando iterativamente sobre sí misma, ya que funciona para alcanzar un determinado objetivo o configuración (el llamado «despegue duro» de la Singularidad). En otras palabras, vamos a ser testigos de la Singularidad.

Claro, una SIA puede decidir la fusión de sí misma con tantos seres humanos como sea posible, pero eso tiene unas connotaciones más bien distópicas para ello.

«Seremos como dioses»

Si sobrevivimos a la Singularidad, y suponiendo que todavía haya un lugar para nosotros en un mundo regido por la máquina, completamente rediseñado, podremos tener colectivamente poderes sin precedentes. Podríamos ser capaces de ejercer estos dones «divinos» como una mente colmena . Pero como individuos, no tanto. El jurado aún está deliberando sobre la cantidad de inteligencia que una sola mente puede manejar. Refiriéndose al radical aumento de inteligencia (IA) para los seres humanos, el futurista Michael Anissimov ha dicho,

«Uno de los efectos secundarios más destacados sería locura. El cerebro humano es una máquina muy afinada y calibrada. La mayoría de las perturbaciones que sufre esta afinación se califican como lo que podríamos considerar «demencias». Hay muchos tipos diferentes de locura, mucho más que los que hay para la cordura. Desde dentro, la locura parece perfectamente sana, por lo que probablemente tendría muchos problemas para convencer a estas personas que ellos están locos.

Incluso en el caso de la cordura perfecta, los efectos secundarios pueden incluir convulsiones, la sobrecarga de información y, posiblemente, los sentimientos de egolatría o la alienación extrema. Las personas inteligentes tienden a sentirse comparativamente más alienadas en el mundo, y para un ser más inteligente que todos, el efecto sería muy amplificado.»

«Las cosas no van a cambiar de manera radical después de la Singularidad»

No lo creo. Piense en la singularidad tecnológica como un botón de reinicio completo en prácticamente todo, sobre todo y cada molécula en la Tierra. Mientras las leyes de la física y la computación teórica lo permitan, una mente máquina furtiva podría hacer que algo suceda. Lo que habrá más allá de la Singularidad no lo podemos ni imaginar, un enigma que podría estorbar a la ciencia ficción.

GEORGE DVORSKY              io9

[Traducido por JUAN PEDRO MOSCARDÓ para LIBERTALIADEHATALI]

libertalia1