TODO LO QUE CONOCES SOBRE LA INTELIGENCIA ARTIFICIAL ES INCORRECTO

Las tres leyes de la robótica de Isaac Asimov no van a ser suficientes para controlar la IA. Los robots del amanecer / Michael Whalen
Las tres leyes de la robótica de Isaac Asimov no van a ser suficientes para controlar la IA. Los robots del amanecer / Michael Whalen

Seguir leyendo “TODO LO QUE CONOCES SOBRE LA INTELIGENCIA ARTIFICIAL ES INCORRECTO”

Anuncios

LAS PREVISIONES MÁS ASOMBROSAS (Y PREOCUPANTES) SOBRE LA INTELIGENCIA ARTIFICIAL

IA1Un futuro en el que las máquinas sean tan inteligentes como los hombres es algo que la humanidad ha soñado e imaginado durante décadas. Personas como Ada Lovelace o Alan Turing, pioneros de la informática moderna, ya fantasearon con algo así. Pero ¿cuáles son las implicaciones reales de “crear” inteligencia?

Los esfuerzos y la visión de Turing y Lovelace fueron clave en la invención durante el siglo XX de los primeros ordenadores. A los suyos se unieron los de otros como Gordon Moore, Robert Noyce, John von Neumann o Tim Berners Lee y muchos más. El de todos en su conjunto hace que ahora que despega el siglo XXI nos encontremos ante un abismo, cada vez más cercano e inmediato, en el que las máquinas serán mejores que el hombre en la única que el hombre ha hecho mejor que el resto de especies en el planeta: pensar.

Cuando las máquinas gobiernen la Tierra
IA2
Antes de seguir es interesante definir exactamente qué entendemos como inteligencia artificial. En su nivel más básico, la realidad es que la inteligencia artificial no es algo esencialmente nuevo. Uno de los mejores ejemplos es el que miles de personas llevan en sus muñecas y bolsillos con asistentes como Siri, Cortana o Google Now. Una inteligencia artificial, Deep Blue, fue también la que en 1996 derrotó por primera vez a un ser humano, Gary Kasparov, jugando al ajedrez.

Pero tanto Siri y similares o Deep Blue, aunque son capaces de superar y mejorar a la inteligencia humana en ámbitos muy concretos no lo son globalmente. Tampoco “piensan” en el sentido auténtico de la palabra ni son capaces de generar pensamientos o ideas a menos que hayan sido programados para ello. Tampoco tienen una consciencia, simplemente no ejecutan tareas mejor que nosotros.

Sobre esa inteligencia en un ámbito concreto, irónicamente lo cierto es que los seres humanos tampoco somos superiores en ese sentido, y cuanto más avanza la humanidad menos parecen serlo.

Dicho de otro modo: durante todo el siglo XX, el grado de especialización y de complejidad en las diversas disciplinas técnicas y científicas creció de manera tan acelerada que provocó un cambio progresivo desde un modelo con “grandes inventores” (Edison y la bombilla, Gutenberg y la imprenta) a otro donde las grandes invenciones surgen en realidad de un esfuerzo colaborativo. Internet y el smartphone son buenos ejemplos, no hay un inventor claro y definido, aunque sí haya figura claves que a su vez se nutren de avances y mejoras anteriores a ellos.

Lo mismo ocurre con la comunidad científica y médica: muchos avances son o bien realizados en conjunto o bien se apoyan en descubrimientos anteriores. Es lógico al fin y al cabo, cuanto más aumenta la especialización, más díficil es para el ser humano ser experto globalmente. Surge así el concepto de “Superinteligencia”. Una superinteligencia se define a menudo también como “Probablemente la última cosa que el ser humano necesite inventar”.

Un futuro apasionante y preocupante, al mismo tiempo
IA3
Una superinteligencia domina varias áreas y además las domina por igual. La presencia de una tecnología así probablemente multiplicase los avances en otras áreas muy distintas. Es además, capaz de ser replicada (y potencialmente replicarse a sí misma), autónoma, con consciencia, capaz de aprender y por tanto de ser cada vez más poderosa. Una superinteligencia es puro intelecto,y no está atada tampoco a las afecciones más pasionales y sentimentales del ser humano.

Eso no es necesariamente “malo”. En realidad, uno de los principales problemas cuando afrontamos e imaginamos la inteligencia artificial somos, irónicamente, nosotros mismos. Imaginamos las máquinas como una proyección mecanizada del propio ser humano. Y probablemente no sea el modelo más inteligente a seguir.

La ciencia-ficción ha tratado el tema de manera equivocada

Una máquina no tiene por qué tener la psique humana y por tanto no tiene por qué sentirse incómoda siendo un esclavo que sirva a la humanidad (como sí se sentiría un humano, obviamente). Para bien o para mal, las máquinas no necesitan compartir nuestra emociones ni nuestros sentimientos.

Partiendo de esa base, la mayoría de argumentos de ciencia ficción, comenzando por Terminator, no tendrían demasiado sentido. Una máquina no tiene por qué sentir un impulso de superioridad, por ejemplo, o un concepto intrínseco de raza que le lleve a “sublevarse”. La cuestión es que en el momento en el que se entra a hablar de probabilidades, como es el caso, y de un futuro más bien ambiguo es normalmente porque todavía pertenece, para bien o para mal, a la ciencia-ficción.

Que no acabe de estar del todo claro, sin embargo, no significa que no tenga que haber una genuina preocupación en torno a cómo vamos a manejar la inteligencia artificial. La creación de esa superinteligencia probablemente sea un evento comparable al de la imprenta, el descubrimiento de américa o el propio internet. Y lo más delicado, como mencionaba antes, probablemente no ocurra sin más y de golpe, sino como consecuencia de unas invencinoes previas.

Conexión humano-máquina: cerebros en la nube

De esas invenciones, las más inmediatas en el horizonte son el coche autónomo de Google, que ya ha comenzado a funcionar y todo tipo de conexiones humano-máquina. Para 2030, una de las personas que mejor predijo el comienzo del siglo XXI desde los 90, Ray Kurzweil, ha vaticinado algún tipo de conexión cerebral entre humanos y la nube, eso permitiría no sólo “subir” información mental a la misma sino también nutrirse de manera casi inmediata de todo su conocimiento. Su libro, La era de las máquinas espirituales, un título parcialmente basado en una definición de Ada Lovelace, es una gran lectura para entender y ampliar esto.

Stephen Hawking también avisaba hace poco sobre el potencial inmediato y los peligros que una superinteligencia podría ocasionar. Para Hawking, lo preocupante no es si inicialmente somos capaces de controlarla, algo que se da prácticamente por sentado, sino si podremos hacerlo a largo plazo cuando y evitar que esa superinteligencia se vuelva contra nosotros.

Figuras como Elon Musk, o Bill Gates, han realizado donaciones millonarias y gestiones a diversos fondos para favorecer que esa futura inteligencia artificial se convierta en algo beneficioso para la humanidad, en lugar de algo peligroso. Para intentar manejar de la manera más precisa posible ese cuchillo de doble filo.

Los dilemas éticos que plantea

Esa superinteligencia no será una persona, pero podrá realizar acciones al mismo nivel que una real. Y lo más importante: muchas de ellas lo hará mejor. Eso plantea algunos dilemas éticos interesantes.

Uno de los clásicos y más populares es aquel que plantea un coche capaz de frenar y ajustar su velocidad para salvar la vida tanto de peatones como de pasajeros. En un momento determinado, se encuentra en la particular situación en la que si frena bruscamente conseguirá salvar la vida de 5 personas en un paso de peatones a unos metros por delante, si lo hace, con todo, volcará matando al único pasajero en su interior. ¿Qué debería hacer el coche, no frenar y salvar la vida de 1 persona o hacerlo y salvar la de 5 seres humanos pero no la de su legítimo dueño? Es una pregunta delicada, con dimensiones éticas muy complejas pero que da a pie a otra más interesante ¿Cómo codificaremos las máquinas para que nunca se vuelvan contra la humanidad?

Con una superinteligencia el principal dilema es que el ser humano se enfrentaría, por primera vez en su historia, a algo que es exponencialmente más inteligente que él. Toma un poco de tiempo entender las dimensiones reales de la paradoja, pero las consecuencias pueden ser aterradoras.

La guerra contra las máquinas
IA4
Hay una gran variedad de niveles intelectuales en el ser humano, desde superdotados a gente rematadamente idiota, pero todos nos movemos dentro de un abanico lo suficientemente estrecho como para que el entendimiento sea común. Imaginemos ahora cómo nos ve, por ejemplo, un chimpancé, o un gorila, incluso un delfín. La diferencia en coeficiente intelectual no es “tan” elevada, pero a nivel práctico somos esencialmente dioses. Resulta curioso comparar cómo verá el hombre a un máquina capaz de superarlo intelectualmente en múltiplos cada vez mayores. Y lo mejor: capaz de aprender y ser cada vez más avanzada.

Esa superinteligencia, como exponen las hipótesis de Nick Bostrom, podría volverse en algún momento tan superior que acabe suponiendo la extinción del ser humano. No por un deseo de hacer el mal, en sí, sino porque no seamos capaces realmente de manejarlas o de pararlas.

Futuro incierto. Futuro apasionante. Futuro aterrador.

Aquí entra otro concepto interesante: la explosión de la inteligencia. Hasta ahora, y pese a los avances técnicos derivados fundamentalmente de la progresión de la Ley de Moore el principal limitante ha sido irónicamente la propia inteligencia humana. Pero, ¿qué ocurrirá cuando una máquina adquiera el suficiente nivel de inteligencia como para aprender del entorno y replicarse a sí misma? Ese es el concepto que recoge la singularidad. A partir de la singularidad, el crecimiento y el avance de la inteligencia artificial vendrá determinado por la propia inteligencia de la máquina creando más máquinas, no por la del ser humano.

El trabajo de personas como Ray Kurzweil y Vernor Vinge se ha centrado durante años en elucubrar sobre qué ocurrirá en el momento en el que aparezca la singularidad. Su conclusión: no lo sabemos. Cuando ocurra las posibilidades pueden propulsar a la raza humana hasta límites y extremos que nunca antes ha alcanzado o pueden condenarla a la extinción. Y hasta que esa singularidad no ocurra, la Inteligencia Artificial seguirá siendo apasionante y escalofriante a partes iguales.

CARLOS REBATO

Imagen: Andrea Danti/Shutterstock.

LAS DIEZ RAZONES POR LAS QUE DEBEMOS TEMER LA SINGULARIDAD

dreamstime_3402262-300x240¿Porqué tenemos miedo de la singularidad tecnológica?

Bueno, déjame darte las que creo son las diez razones más populares:

1. Extinción

La extinción es, con mucho, la más temida, así como la consecuencia más comúnmente predicha de la singularidad.

fearsingu3El apocalipsis mundial para la raza humana viene en muchos sabores, pero algunos de los más populares son: una SuperInteligencia Artificial (SIA) estilo “terminator”, -un “Robopocalipsis” ;  una nanotecnología rebelde, -el escenario llamado plaga gris; armas inteligentes caseras de destrucción masiva,- utilizadas por terroristas y nihilistas; modificaciones o mutaciones genéticas, -nos convierten en muertos vivientes; experimentos científicos fallidos, -el Gran Colisionador de Hadrones  creando un agujero negro que engulle el planeta …
robopocalyps-cover
En pocas palabras, el temor es que, como Bill Joy notoriamente señaló:  el futuro no nos necesita .

2. Esclavitud

Tal vez la segunda razón más común para temer la singularidad es la esclavitud potencial o sometimiento de toda la raza humana. El argumento es bastante simple:

Una vez que tengamos una SIA dejaremos de ser las entidades más inteligentes de este planeta. En otras palabras, hemos creado dioses sin dejar de ser simples humanos. Así, si por cualquier razón las máquinas deciden no exterminarnos, entonces, lo más probable es que, ya que serán muy superiores a nosotros, nos esclavicen. Esto se puede realizar de varias maneras: ya sea explícitamente, -dándonos cuenta de nuestra esclavitud, o implícitamente, -sin darnos cuenta (los escenarios Matrix/Simulación).

3. La III Guerra Mundial – Guerra Giga

El tercer temor más común de la singularidad es, por supuesto, la Tercera Guerra Mundial. Una guerra  de una escala sin precedentes, con una sofisticación y eficiencia de  muerte y destrucción que podría ser el resultado de o bien un choque entre la raza humana y la IA o entre diferentes facciones de los seres humanos: por ejemplo, la “Guerra ArtIlect” de “terranos” contra “cosmists” según lo previsto por Hugo de Garis. Cualquiera que sea el caso, probablemente provocará miles de millones de muertes y un colapso o la completa erradicación de nuestra civilización.

4. Colapso Económico

Algunos han argumentado que, si de alguna manera nos las arreglamos para evitar los tres escenarios anteriores, entonces, estaríamos propensos a experimentar un total colapso económico:

La absoluta robotización de nuestra sociedad es probable que conduzca a la sobreproducción de bienes y servicios. Sin embargo, ya que se afirma que la mayoría de personas perderán sus puestos de trabajo debido a los robots, habrá una tasa de desempleo mundial de escala sin precedentes que a su vez derrumbará la demanda de esos bienes y servicios robóticos. Combine esto con la explosión de una población de 9 o incluso 10 millones de personas en su mayoría desempleados que no tengan medios para crear ingresos y comprar cualquier cosa, y veríamos un colapso económico global.

5. Gran Hermano IA

Este escenario es una versión más suave de la opción Matrix de esclavitud/sometimiento porque estamos todavía bajo el control completo de una Inteligencia Artificial que todo lo sabe. La principal diferencia es que la IA no está haciendo nada más que lo que es mejor para nosotros, en lugar de lo que es mejor para ella: tenemos un benevolente, omnipotente y absoluto monarca que nos protege de nuestros peores enemigos, -de los demás seres humanos y de nosotros mismos. Todo se hace en nombre de la maximización de la seguridad, la prosperidad y la felicidad general para todas las personas en todo el planeta. El único aspecto negativo es un poco de propaganda y el “lavado de cerebro ideológico, político o religioso” necesario para apuntalar “el culto de la IA”, pero está bien, ya que es por nuestro propio beneficio.

fearsingu26. La Alienación y Pérdida de la Humanidad

Siguiendo la máxima de “si no puedes vencerlos, únete a ellos”, una de las posibles maneras de sobrevivir a la singularidad es mediante la fusión con las máquinas. Esta idea, -que podemos y deberíamos mejorar lo que se nos ha transmitido por la madre naturaleza-, se refiere a menudo como transhumanismo. Fusionando hombre y máquina a través de la biotecnología, la nanotecnología molecular y la inteligencia artificial, aumentaríamos nuestras capacidades cognitivas, la fuerza física, la estabilidad emocional, la salud general y la longevidad.

El miedo, por supuesto, es que al hacerlo vamos a perder la esencia misma del ser humano, -nuestra naturaleza humana, nuestras almas humanas y la identidad humana. Por otra parte, a nivel colectivo, la pérdida de humanidad también significa alienación o pérdida de la comunidad que quiere decir que la variedad resultante de entidades posthumanas será tan distintas como para negar cualquier relación entre los diferentes individuos. Esto a su vez significa que la humanidad, de hecho, no sobreviviría, sino que sucumbiría a la invasión de la máquina y de hecho se extinguiría.

7. Catástrofe Ambiental

Nuestra historia muestra que nuestra destructividad ambiental está en proporción directa de nuestras proezas tecnológicas. Una vez que vivimos en una sociedad global donde todo es producido en serie por robots, nuestra civilización manufacturada cortará la última conexión con el mundo natural. Perderemos la última pizca de respeto por la madre naturaleza:

¿Por qué preservar la selva tropical si podemos crear una “mejor” e “inteligente”? ¿Por qué preocuparnos por la biodiversidad, la extinción de especies o la degradación del medio ambiente si podemos revivir y moldearlos para nuestros propios fines o placer?

¿Porqué preocuparse de algo si somos dioses (tecnológicos)?

8. Pérdida de la Historia, el Conocimiento y la Resolución espacial (Edad Oscura Digital)

fearsingu6El proceso cada vez más acelerado de la digitalización viene junto con una cierta pérdida o destrucción de datos. Estos datos pueden estar en forma de historia, tradiciones culturales, lenguas muertas o información científica importante. Por ejemplo, la NASA admitió recientemente que se ha perdido la capacidad de recuperar gran parte de los datos informáticos de algunas de las misiones Apolo y los alunizajes. Así ciertos tipos de conocimiento vitalmente importante y único, así como la historia o las tradiciones culturales se pierden para siempre. Para saber si estamos haciendo un buen negocio o no, debemos  cuantificar las pérdidas de datos y compararlas con los beneficios potenciales. Sin embargo, a la velocidad vertiginosa que estamos avanzando pocos tienen tiempo para tales cálculos.

Parece que vivimos en un universo analógico con resolución infinita, – tanto para ampliar y reducir, en la medida que podamos. El proceso de digitalización captura una mera fracción de él. Al igual que un archivo .mp3 comprimido capta sólo una parte del desempeño musical actual, este proceso crea los símbolos que son representaciones digitales de la realidad. El temor es que podemos llegar a perder la conciencia de que el mundo digital es un reino de símbolos, -un mero reflejo del verdadero universo analógico-, terminando en la cueva de las ilusiones digital de Platón.

9. Computronium y Cerebros  Matrioska  

fearsingu7Por lo que sabemos parece que vivimos en un universo lleno de materia tonta. Esto, por supuesto, lo convierte en un universo bastante tonto también.

Sin embargo, extrapolando de nuestro propio desarrollo, parece que a medida que pasa el tiempo hay un movimiento de menos a más inteligencia en el universo. Por lo tanto, dado el tiempo suficiente, más y más de nuestro planeta y, con el tiempo nuestro universo, es probable que contenga y se componga de cada vez más materia inteligente. Este proceso es probable que continúe hasta que la ley de Moore se derrumbe y se alcance un equilibrio. Tal disposición teórica de la materia, -la mejor configuración posible de cualquier cantidad dada para lograr un dispositivo de computación absolutamente óptimo, es el sustrato también conocido como computronium.

SONY DSCUn cerebro Matrioska es una hipotética megaestructura de inmensa capacidad computacional. Basado en la esfera de Dyson, el concepto deriva su nombre de la muñeca rusa Matrioska y es un ejemplo de un ordenador de tamaño planetario alimentado con energía solar, capturando toda la producción de energía de una estrella. Para formar el cerebro Matrioska todos los planetas del sistema solar se desmontan y se crea un vasto dispositivo computacional habitado por mentes volcadas o virtuales, inconcebiblemente más avanzado y complejo que nosotros.

Así que la idea es que con el tiempo, de una manera u otra, toda la materia del universo será inteligente. Todo el polvo será polvo inteligente, y todos los recursos serán utilizados para su potencial óptimo de computación. No habrá nada más que cerebros Matrioska  y/o computronium…

10. El Temor del Cambio

El miedo al cambio y el miedo a lo desconocido están profundamente arraigados en la psique humana:. Todos queremos estar cómodos. No saber es muy, muy incómodo. Al darse cuenta de que el cambio que se avecina es radicalmente único, – tanto en escala como en imprevisibilidad, es aún más desasosegante.

Cuando se trata de la supervivencia a nadie le gustan las sorpresas. Así lo tomamos como una cuestión tanto personal como de seguridad colectiva para modelar y, al menos,  prever aproximadamente el futuro.

La singularidad es un cambio radical de proporciones cósmicas que es, por definición, imposible de modelar, y mucho menos predecir. Por lo tanto, no es ninguna sorpresa que evoque una profunda inseguridad y miedo primario.

La pregunta es: ¿Tienes miedo?¿No tienes mucho, mucho miedo?

SÓCRATES

NUESTRA ÚLTIMA INVENCIÓN

¿QUÉ SUCEDE CUANDO LA INTELIGENCIA ARTIFICIAL SE VUELVE CONTRA NOSOTROS?

terminator.jpg__800x600_q85_cropEn un nuevo libro, James Barrat advierte que la inteligencia artificial, un día será más inteligente que los seres humanos, y no hay garantía de que será benévola.

La inteligencia artificial ha recorrido un largo camino desde R2-D2. En nuestros días, la mayoría de esta  generación se perdería sin sistemas GPS inteligentes. Los robots ya están navegando los campos de batalla, y los drones pronto podrían entregar paquetes de Amazon en nuestras puertas.

Siri puede resolver ecuaciones complicadas y le dirá cómo cocinar el arroz. Incluso se ha demostrado que puede incluso responder a las preguntas con cierto sentido del humor.

Pero todos estos avances dependen de un usuario que dando órdenes a la Inteligencia Articifial (IA). ¿Qué pasaría si las unidades de GPS decidieran que no quieren ir a la tintorería, o peor, Siri decidiera que podría ser más inteligente sin usted por aquí?

Estos son sólo los más anodinos resultados que James Barrat, autor y director de documentales, pronostica en su nuevo libro, Our Final Invention: Artificial Intelligence and the End of the Human Era.(Nuestra Invención Final: Inteligencia Artificial y el Fin de la Era Humana)

james-barrat-with-book-cover.jpg__800x450_q85_crop_upscaleEn poco tiempo, dice Barrat, la inteligencia artificial, -desde Siri hasta aviones no tripulados y sistemas de procesamiento de datos-, dejarán de recurrir a los seres humanos para las actualizaciones y comenzarán la búsqueda de mejoras por su cuenta. Y a diferencia de los R2-D2 y HAL de la ciencia ficción, la IA de nuestro futuro no será necesariamente amable. Afirma que en realidad podría ser lo que nos destruya.

En pocas palabras, ¿puede explicar sus ideas?

En este siglo, los científicos crearán máquinas con inteligencia que igualará y luego sobrepasará a la nuestra. Pero antes de que compartamos el planeta con máquinas super-inteligentes, debemos desarrollar una ciencia para comprenderlas. De lo contrario, tomarán el control. Y no, esto no es ciencia ficción.

Los científicos ya han creado máquinas que son mejores que los humanos en el ajedrez,  Jeopardy!, la navegación, el procesamiento de datos, búsqueda, demostración de teoremas y un sin número de otras tareas. Con el tiempo, las máquinas creadas en la investigación IA serán mejores que los seres humanos.

En ese punto, serán capaces de mejorar sus propias capacidades muy rápidamente. Esas máquinas automejoradas perseguirán los objetivos que ellas crearon, ya fuera la exploración espacial, jugar al ajedrez o la selección de acciones. Para lograr el éxito buscarán y emplearán recursos, ya sea energía o dinero. Tratarán de evitar los fallos, como ser desconectados o desenchufados. En definitiva, desarrollarán unidades, incluyendo de auto-protección y de adquisición de recursos, tanto como la nuestra. No vacilarán en rogar, pedir prestado, robar y lo peor para conseguir lo que necesiten.

¿Cómo se interesó en este tema?

                   
 Soy un director de documentales. En el 2000, entrevisté al autor Ray Kurzweil, al experto en robótica Rodney Brooks y a la  leyenda de la ciencia ficción Arthur C. Clarke para una película para TLC sobre la fabricación de la novela y la película,  2001: Una odisea del espacio.  Las entrevistas exploraron la idea de la Hal 9000, y computadores malévolos. Los libros de Kurzweil han retratado el futuro IA como una “singularidad” exultante, un período en el que los avances tecnológicos superan la capacidad de los humanos para entenderlos. Además él anticipó sólo cosas buenas de la IA, que es lo suficientemente fuerte como para igualar y luego superar a la inteligencia humana. Él predice que vamos a ser capaces de reprogramar las células de nuestro cuerpo para derrotar a la enfermedad y el envejecimiento. Desarrollaremos súper resistencia con nanobots que emiten más oxígeno que las células rojas de la sangre. Incrementaremos el potencial de nuestro cerebro con los implantes informáticos para llegar a ser superinteligentes. Y llevaremos a nuestros cerebros a un medio más duradero que nuestro presente “wetware” y viviremos para siempre si queremos. Brooks era optimista, insistiendo en que los robots IA mejorados serían aliados, no amenazas.

Por su parte Clarke, el científico convertido en autor, se mostró pesimista. Me dijo que la inteligencia  ganará, y los seres humanos probablemente competirían por la supervivencia con las máquinas superinteligentes. Él no fue específico acerca de lo que sucedería cuando compartamos el planeta con máquinas super-inteligentes, pero pensaba que sería una lucha para la humanidad que no íbamos a ganar.

Eso iba en contra de todo lo que yo había pensado sobre la IA, así que comencé a entrevistar a expertos en inteligencia artificial.

¿Qué pruebas tiene usted para apoyar su idea?

La inteligencia artificial avanzada es una tecnología de doble uso, como la fisión nuclear, capaz de un gran bien o un gran daño. Estamos empezando a ver el daño.

El escándalo de privacidad de la  NSA se ha producido porque la NSA desarrolló muy sofisticadas herramientas de procesamiento de datos. La agencia utilizó su poder para sondear los metadatos de millones de llamadas telefónicas y los de la totalidad de la Internet, de todo el correo electrónico. Seducida por el poder del procesamiento de datos de la IA, una agencia a cargo de proteger la Constitución en vez de eso abusó de ella. Desarrollaron herramientas demasiado poderosas para que los utilizaran de forma responsable.

Hoy en día, otra batalla ética se está gestando sobre la fabricación de drones asesinos totalmente autónomos y robots de batalla alimentados por avanzadas IA, -asesinos de humanos sin humanos al tanto. Se está gestando entre el Departamento de Defensa y los fabricantes de aviones no tripulados y robots que son pagados por el Departamento de Defensa, y las personas que piensan que es temerario e inmoral crear máquinas de matar inteligentes. Los partidarios de drones autónomos y robots de batalla argumentan que serán más morales, es decir, menos emocionales, se centrarán mejor en el objetivo y serán más disciplinados que los operadores humanos. Aquellos en contra de dejar al ser humano fuera del circuito se fijan en la terrible historia de drones matando civiles, y su participación en asesinatos ilegales. ¿Sobre quién recae la culpabilidad moral cuando un robot mata? ¿Los fabricantes de robots, los usuarios de robots, o nadie? No importan las obstácuos técnicos de llamar amigo al enemigo.

A más largo plazo, como expertos argumentan en mi libro,  al acercarse la IA a la inteligencia de nivel humano no se podrá controlar fácilmente; por desgracia, la super-inteligencia no implica benevolencia. Como el teórico de la IA, Eliezer Yudkowsky del MIRI [Instituto de Investigación en Inteligencia de la máquina] dice, “La IA no te quiere, ni te odia, pero estás hecho de átomos que puede utilizar para otra cosa.” Si la ética no puede ser incorporada en una máquina, entonces estaremos creando psicópatas super-inteligentes, criaturas sin brújulas morales, y no  seremos sus amos por mucho tiempo.

¿Qué hay de nuevo en su forma de pensar?

Individuos y grupos tan diversos como el científico estadounidense de computación Bill Joy y el MIRI han advertido desde hace tiempo que tenemos mucho que temer de máquinas cuya inteligencia eclipse la nuestra. En Nuestra Invención Final, argumento que la IA también será mal utlizada en el camino del desarrollo de la inteligencia humana. Entre hoy y el día en que los científicos creen inteligencia al nivel humano, tendremos errores relacionados con la IA y aplicaciones criminales.

¿Por qué no se ha hecho más, o, que se está haciendo para impedir que la IA se vuelva en contra nuestra?

No hay una sola razón, sino muchas. Algunos expertos no creen que estemos lo bastante cerca de crear  una inteligencia artificial a nivel humano y no se preocupan por sus riesgos. Muchos fabricantes de IA ganan contratos con DARPA (Agencia de Proyectos de Investigación Avanzada de Defensa) y no quieren plantear cuestiones que consideran políticas. La tendencia normal es un sesgo cognitivo que impide que la gente reaccione a los desastres y las catástrofes en la creación, es definitivamente parte de ello. Pero muchos fabricantes de IA están haciendo algo. Atienden a los científicos que asesoran a MIRI. Y, muchos más se involucrarán una vez que los peligros de la IA avanzada entren en el diálogo general.
        
¿Puede describir el momento en que supo que esto era importante?

Nosotros los humanos dirigimos el futuro no porque seamos los más rápidos o las criaturas más fuertes del planeta, sino porque somos los más inteligentes. Cuando compartamos el planeta con criaturas más inteligentes que nosotros, ellos dirigirán el futuro. Cuando entendí la idea, sentí que estaba escribiendo sobre la cuestión más importante de nuestro tiempo.

Cada gran pensador tiene predecesores cuyo trabajo fue crucial para su descubrimiento. ¿Quién le dio la base para construir su idea?

Los fundamentos del análisis de riesgos IA fueron desarrollados por el matemático I.J. Good, el escritor de ciencia ficción Vernor Vinge, y otros, incluyendo al desarrollador IA Steve Omohundro. Hoy en día, el MIRI y el Instituo de Oxford “Futuro de la Humanidad” están casi solos en el tratamiento de este problema.  Nuestra Invención Final tiene alrededor de 30 páginas de notas finales que reconocen a estos pensadores.

En la investigación y el desarrollo de su idea, ¿cuál ha sido el punto más alto? ¿Y el punto más bajo?

Los puntos altos lo fueron escribiendo  Nuestra Invención Final,  y mi diálogo permanente con los responsables y teóricos de la IA. Las personas que programan AI son conscientes de las cuestiones de seguridad y quieren ayudar a conseguir algún dispositivo de salvaguardia. Por ejemplo, MIRI está trabajando en la creación de una IA “amistosa”.

El informático y teórico Steve Omohundro ha abogado por un enfoque de “andamiaje”, en el que una IA demostradamente segura ayuda a construir la próxima generación de IA para asegurar que también sea segura. Entonces esa IA hace lo mismo, y así sucesivamente. Creo que una alianza público-privada tiene que ser creada para que los responsables de IA compartan ideas acerca de la seguridad, algo así como la Agencia Internacional de la Energía Atómica, pero en colaboración con las corporaciones. ¿Los puntos bajos? Al constatar que la mejor y má avanzada tecnología IA se utilizará para crear armas. Y esas armas eventualmente se volverán contra nosotros.

¿Qué dos o tres personas tienen más probabilidades de tratar de refutar su argumento? ¿Por qué?

Ray Kurzweil es el principal apologista de tecnologías avanzadas. En mis dos entrevistas con él, decía que íbamos a fundirnos con las tecnologías de la IA a través de mejoras cognitivas. Kurzweil y la gente generalmente llamados transhumanistas y singularistas piensan que la IA y en última instancia, la inteligencia general artificial y demás evolucionarán con nosotros. Por ejemplo, los implantes informáticos mejorarán la velocidad de nuestro cerebro y las capacidades generales. Con el tiempo, desarrollaremos la tecnología para el transporte de nuestra inteligencia y de la conciencia a los ordenadores. Entonces la super-inteligencia será por lo menos en parte humana, que en teoría garantizaría que sea “segura”.

Por muchas razones, yo no soy seguidor de este punto de vista. El problema es que nosotros los humanos no somos confiablemente seguros, y parece poco probable que los seres humanos superinteligentes lo sean. No tenemos idea de lo que pasa con la ética de un ser humano después de que se aumente su inteligencia. Tenemos una base biológica para la agresión que las máquinas no tienen. La super-inteligencia podría muy bien ser un multiplicador de la agresión.

¿Quién será más afectado por esta idea?

Todo el mundo en el planeta tiene mucho que temer del desarrollo no regulado de las máquinas superinteligentes. Una raza inteligente está desarrollándose en estos momentos. El logro de IA es el trabajo número uno para Google, IBM y muchas empresas más pequeñas como Vicarious y Deep Thought, así como para DARPA, la NSA y los gobiernos y empresas extranjeras. El beneficio es la principal motivación para esa carrera. Imagina un objetivo probable: un cerebro humano virtual por el precio de un ordenador. Sería el producto más lucrativo en la historia. Imagínese bancos de miles de cerebros calidad doctorado trabajando las 24 horas en el desarrollo de productos farmacéuticos, la investigación del cáncer, el desarrollo de armas y mucho más. ¿Quién no querría comprar esa tecnología?

Mientras tanto, 56 países están desarrollando robots de batalla, y van camino de hacerlos, -y a los drones-, autónomos. Serán máquinas que maten, sin supervisión de seres humanos. Las naciones empobrecidas serán las más perjudicadas por los drones autónomos y robots de batalla. Inicialmente, sólo los países ricos podrán permitirse robots asesinos autónomos, así que las naciones ricas manejarán esas armas contra los soldados humanos de las naciones empobrecidas.

¿Cómo podría cambiar la vida, tal como la conocemos?

Imagínese: en tan sólo una década, los ordenadores de una media docena de empresas y naciones que rivalizan o superan la inteligencia humana. Imagínese lo que sucede cuando esos ordenadores se convierten en expertos en computadoras inteligentes de programación. Pronto  compartiremos el planeta con máquinas miles o millones de veces más inteligentes que nosotros. Y, al mismo tiempo, cada generación de esta tecnología estará armada. No reglamentado, será catastrófico.

¿Qué preguntas se quedan sin respuesta?

Soluciones. La solución obvia sería la de dotar a las máquinas de un sentido moral que les haga valorar la vida humana y la propiedad. Pero la programación de la ética en una máquina resulta ser extremadamente difícil. Las normas morales difieren de una cultura a otra, cambian con el tiempo, y son contextuales. Si nosotros los humanos no podemos ponernos de acuerdo sobre cuándo comienza la vida, ¿cómo podemos decir a una máquina que proteja la vida? ¿Realmente queremos estar seguros, o lo que realmente queremos es ser libres ?  Podemos debatir todo el día y no llegar a un consenso, por lo que ¿cómo podemos programarlo?

También nosotros, como he mencionado antes, necesitamos conseguir desarrolladores de IA. En la década de 1970, investigadores de ADN recombinante decidieron suspender la investigación y reunirse para una conferencia en Asilomar en Pacific Grove, California. Ellos desarrollaron protocolos de seguridad básicas como “no rastrear el ADN fuera de tus zapatos”, por temor a la contaminación del medio ambiente con trabajos genéticos en curso. A causa de las “Directrices de Asilomar,” el mundo se beneficia de los cultivos modificados genéticamente, y la terapia génica parece prometedora. Por lo que sabemos, se evitaron accidentes. Es hora de una Conferencia de Asilomar para la IA.

¿Qué es lo que lo impide?

Un gran viento económico impulsa el desarrollo de tecnologías avanzadas IA de inteligencia a nivel humano que el precio de una computadora será el producto más importante de la historia. Google e IBM no quieren compartir sus secretos con el público o los competidores. El Departamento de Defensa no va a querer abrir sus laboratorios a China e Israel, y vice-versa. La conciencia pública tiene que empujar la política hacia la apertura y la colaboración público-privada para garantizar la seguridad.

¿Qué será lo próximo para usted?

Soy un director de documentales, así que por supuesto que estoy pensando en una versión cinematográfica de Nuestra Final Invención.

ERICA R. HENDRY      Smithsonian Magazine (Traducido por JUAN PEDRO MOSCARDÓ para LIBERTALIADEHATALI)

libertalia1

¿LA SINGULARIDAD SERÁ PRIVATIZADA? BIENVENIDOS A LA VIDA

The-singularityRecientemente descubrimos un gran video titulado: “Bienvenido a la vida: la singularidad, arruinado por los abogados”. El vídeo imagina a una persona que despierta en el limbo del ciberespacio en el año 2052 con la oportunidad de vivir una vida simulada en una avanzada red basada en la nube llamada La Red de la Vida. Gracias a su proveedor de atención primaria, ahora tiene la opción de participar en 30.000 actividades únicas, así como la capacidad de ponerse en contacto con sus familiares y amigos no digitalizados. (Suponemos que eso significa familiares y amigos que no han muerto. ¿Significa eso que usted les está apareciendo, o comunicándose inteligiblemente?)

¡Al principio esta no-muerte suena bien!

Pero luego te metes en los Términos y Condiciones y los diferentes niveles del Plan de Vida. Por ejemplo, en el nivel 2, el cielo puede ser sustituido por publicidad dirigida. En el Nivel 3, sus pensamientos pueden ser objeto de una Política de Uso Legítimo; la auto-conciencia y el pensamiento creativo y  subconsciente podrían ser regulados.

Para pagar un plan de Nivel 1,  asumimos que uno tiene que ser un sirviente corporativo, pero estamos seguros de los campos de golf son grandes.

Al seleccionar un plan, los patrones mentales ilegales se corrigen de acuerdo con la Ley de Prevención del Delito y Terrorismo de 2050. Además el cumplimiento legal implica el almacenamiento de las obras protegidas que recordamos a lo largo de nuestra vida: canciones, libros, películas, etc. Para mantenerlos, hay que pagar una cuota de licencia de 18000 dólares al mes. ¡Bienvenido a la Vida¡

Se trata de un dolorosamente posible escenario, un mundo futuro en el que las tecnologías avanzadas de la Singularidad son privatizadas y mercantilizadas. Sí, algún día viviremos como algoritmos dentro de arcologías corporativas simuladas …

THEGHOSTDIARIES

libertalia1

LAS PEORES MENTIRAS QUE SE HAN DICHO SOBRE LA SINGULARIDAD

singularityUsted probablemente ha oído hablar de un concepto conocido como la Singularidad Tecnológica, -un nebuloso evento que se supone ocurrirá en un futuro no muy lejano. Gran parte de la incertidumbre que rodea a esta posibilidad, sin embargo, ha llevado a la especulación salvaje, confusión y negación absoluta. Estos son los peores mitos que le han dicho acerca de la Singularidad.

En pocas palabras, la Singularidad Tecnológica es un término usado para describir el momento teórico en el tiempo cuando prenda la inteligencia artificial y luego supere a la inteligencia humana. El término fue popularizado por el escritor de ciencia ficción Vernor Vinge, pero todo el crédito recae sobre el matemático John von Neumann, quien habló de un [en palabras de Stanislaw Ulam] “cada vez más acelerado progreso de la tecnología y los cambios en el modo de la vida humana, que da lugar a la aparición inminente de alguna singularidad esencial en la historia de la raza más allá del cual los asuntos humanos, tal como los conocemos, no podría continuar”.

Por “no continuar” von Neumann se refería a la posibilidad de que la humanidad pierda el control y caiga fuera del contexto de sus tecnologías. Hoy en día, esta tecnología se supone que es la inteligencia artificial, o más exactamente, la mejora recursiva de la inteligencia artificial (MRIA), que conduce a una super-inteligencia artificial (SIA).

Ya que no podemos predecir la naturaleza y las intenciones de una superinteligencia artificial, hemos convenido en referirnos a este futuro evento sociológico como la Singularidad Tecnológica, un concepto que está abierto a una amplia interpretación, y como consecuencia, a gruesos desconocimientos. Estos son los peores:

“La Singularidad no sucederá”

Bueno, yo no apostaría en contra de ella. La embestida de la Ley de Moore parece estar sin obstáculos , mientras que los avances en el cartografiado del cerebro y la inteligencia artificial continúan a buen ritmo. No nos aguardan obstáculos conceptuales y tecnológicos insuperables.

Y lo que la mayoría de los escépticos de SIA no entienden es que todavía no hemos ni siquiera entrado en la era de la IA, un momento en que poderosos, -pero estrechos-, sistemas incorporen muchos dominios actualmente ocupados por los seres humanos. Habrá un tremendo incentivo para el desarrollo de estos sistemas, tanto para la economía y la seguridad. Finalmente aparecerá una Superinteligencia, lo más probable producto de las megacorporaciones y los militares.

Este mito puede ser en realidad el peor de todos, algo a lo que me he referido como Negacionismo de la Singularidad. Aparte de la nanotecnología molecular usada tal vez como arma, SIA representa la mayor amenaza para la humanidad. Esta amenaza existencial no ha alcanzado el zeitgeist o espíritu de la época, pero finalmente lo hará, probablemente después de nuestra primera catástrofe IA. Y recuerden mis palabras, llegará un día en que esta perniciosa y babeante retórica de friquis será igual, si no peor, que lo que la negación del cambio climático es hoy.

“La SuperInteligencia Artificial será consciente”

No. La SIA probablemente no será consciente. Necesitamos ver a esos sistemas, de los cuales habrá muchos tipos, como las versiones tuneadas en marcha de Watson de IBM o Deep Blue. Van a trabajar a una velocidad increíble, serán alimentados por procesadores y algoritmos increíblemente poderosos, pero no habrá nadie en casa.

Para ser justos, existe la posibilidad de que una SIA pudiera ser diseñada para ser consciente. Incluso se podría rediseñar para ser consciente de sí misma. Pero si esto sucede, todavía representaría un espacio mental muy diferente de todo lo que conocemos. La experiencia subjetiva de una mente máquina apenas se parecería a la nuestra.

Como acotación al margen, este concepto erróneo puede estar vinculado al primero. Algunos escépticos argumentan que no habrá Singularidad porque nunca vamos a ser capaces de imitar las complejidades de la conciencia humana. Pero es una objeción que es completamente irrelevante. Una SIA será potente, sofisticada y peligrosa, pero no porque sea consciente.

“Una SuperInteligencia Artificial tiene que ser amistosa”

Hay un meme entre algunos singularistas que dice así: a medida que aumenta la inteligencia, lo mismo ocurre con la empatía y la benevolencia. De acuerdo con este pensamiento, como las inteligencias artificiales serán más y más inteligentes, esperaríamos verlos a ellas más y más amistosas.

Lamentablemente, este no será el caso. En primer lugar, este razonamiento implica (1) un cierto nivel de autoreflexión e introspección por parte de la SIA (que no es en absoluto un hecho), y (2) una función de utilidad o imperativo ético que esté estrechamente alineada con la nuestra. Sobre este último punto, no podemos predecir o conocer las cavilaciones de una mente máquina completamente ajena, -que está distanciada de la nuestra varios órdenes de magnitud más allá-, o lo que iba a encontrar moralmente valioso o no. Por otra parte, si está programado con un conjunto de objetivos que son inalterables, serán siempre prioritarios aquellos parámetros iniciales más allá de cualquier otra cosa, como lo ilustra el infame escenario pisapapeles. Como ha dicho el teórico de IA Eliezer Yudkowsky, “La IA no te odia, ni te ama, pero estás hecho de átomos que se pueden utilizar para otra cosa.”

“La aceleración del cambio es la Singularidad”

Desde que el término se hizo popular, se nos ha dicho que habrá que esperar varios tipos diferentes de Singularidades, algunos de los cuales ni siquiera tienen nada que ver con la SIA. Nos han dicho que se espera una singularidad económica o hasta una singularidad de las cuchillas de afeitar. Algunos incluso han equiparado (o fusionado) la Singularidad con la extensión radical de vida, la transferencia mental, la inteligencia transhumana, y la fusión de los seres humanos con las máquinas (más sobre esto a continuación). Los seguidores de Kurzweil son particularmente culpables de esto, a menudo equiparan la Singularidad con el constante crecimiento acelerado de todas las tecnologías, incluida la IA. Una perspectiva que en gran medida no tiene en cuenta una explosión de inteligencia incontrolable.

“Los seres humanos se fusionarán con las máquinas”

Algunos dicen que no es necesario preocuparse por la Singularidad, porque sólo tendremos que dejarnos llevar. En el momento en que la Singularidad llegue, señala este argumento, vamos a estar tan estrechamente integrados con nuestras máquinas que seremos todo en uno. ¡Será una singularidad para todos!

El primer problema con esta teoría es que ciborgización y/o transferencia  humana sucederán a un ritmo mucho más lento que los avances en la IA (sobre todo por razones éticas). El segundo problema es que la fuente inmediata de una MRIA será muy localizada. Será un sistema (o sistemas múltiples que trabajan en conjunto para aprovechar los efectos sinérgicos y/o estrategias de teoría de juegos diseñados para asegurar la futura libertad de acción) que de repente se apaga la parte más profunda, mejorando iterativamente sobre sí misma, ya que funciona para alcanzar un determinado objetivo o configuración (el llamado “despegue duro” de la Singularidad). En otras palabras, vamos a ser testigos de la Singularidad.

Claro, una SIA puede decidir la fusión de sí misma con tantos seres humanos como sea posible, pero eso tiene unas connotaciones más bien distópicas para ello.

“Seremos como dioses”

Si sobrevivimos a la Singularidad, y suponiendo que todavía haya un lugar para nosotros en un mundo regido por la máquina, completamente rediseñado, podremos tener colectivamente poderes sin precedentes. Podríamos ser capaces de ejercer estos dones “divinos” como una mente colmena . Pero como individuos, no tanto. El jurado aún está deliberando sobre la cantidad de inteligencia que una sola mente puede manejar. Refiriéndose al radical aumento de inteligencia (IA) para los seres humanos, el futurista Michael Anissimov ha dicho,

“Uno de los efectos secundarios más destacados sería locura. El cerebro humano es una máquina muy afinada y calibrada. La mayoría de las perturbaciones que sufre esta afinación se califican como lo que podríamos considerar “demencias”. Hay muchos tipos diferentes de locura, mucho más que los que hay para la cordura. Desde dentro, la locura parece perfectamente sana, por lo que probablemente tendría muchos problemas para convencer a estas personas que ellos están locos.

Incluso en el caso de la cordura perfecta, los efectos secundarios pueden incluir convulsiones, la sobrecarga de información y, posiblemente, los sentimientos de egolatría o la alienación extrema. Las personas inteligentes tienden a sentirse comparativamente más alienadas en el mundo, y para un ser más inteligente que todos, el efecto sería muy amplificado.”

“Las cosas no van a cambiar de manera radical después de la Singularidad”

No lo creo. Piense en la singularidad tecnológica como un botón de reinicio completo en prácticamente todo, sobre todo y cada molécula en la Tierra. Mientras las leyes de la física y la computación teórica lo permitan, una mente máquina furtiva podría hacer que algo suceda. Lo que habrá más allá de la Singularidad no lo podemos ni imaginar, un enigma que podría estorbar a la ciencia ficción.

GEORGE DVORSKY              io9

[Traducido por JUAN PEDRO MOSCARDÓ para LIBERTALIADEHATALI]

libertalia1

LOS CUATRO POSIBLES TIPOS DE UNIVERSOS PARALELOS

UniverseEn la última década, los universos paralelos, un experimento mental antes reservado para los frikis de fines de semana lluviosos (o soleados), se ha convertido en una especie de palabra de moda, a la par de la materia oscura y los viajes en el tiempo en su capacidad para cautivar. Solía ​​suceder que en realidad nadie creía en universos paralelos, que sólo pensaba que era algo genial para especular. Entonces algo llamado la teoría de cuerdas (o  “branas”) llegó y nos apuntó con la noción de otras dimensiones envueltas en la trama de nuestra propia realidad. Los golpes al sistema no se detuvieron y, en los últimos años, los científicos realmente han comenzado a buscar la evidencia física del ‘multiverso’.

En primer lugar, vamos a identificar los cuatro modos posibles de universos paralelos:

TIPO 1 – EL UNIVERSO INFINITO

Este modelo sostiene que el universo es infinito. Por lo tanto, cada posible configuración de la materia necesariamente debe repetirse en algún momento. Esto significa que más allá del horizonte cósmico de nuestro universo, -en algún lugar, en algún desvío por ahí, un lugar del que ni siquiera hemos recibido todavía la luz-, hay una región del espacio exactamente como ésta, donde exactamente las mismas galaxias, sistemas solares y planetas se han formado.

TIPO 2 – EL UNIVERSO BURBUJA INFLACIONARIO

Este tipo de universo paralelo prevé innumerables universos burbuja apareciendo y desapareciendo. Esto significaría que el comienzo de nuestro universo, el Big Bang, fue sólo la creación de una burbuja en un vasto mar de universos inflacionarios, que eventualmente estallan o lo que sea que hagan los universos cuando su burbuja exprimida se vuelve demasiado inestable. El tipo 2 incluye también el universo “brana”, que es una evolución de la teoría de cuerdas.

TIPO 3 – EL UNIVERSO DE MUCHOS MUNDOS

Esta teoría se sostiene del mundo extraño y salvaje de la mecánica cuántica, pero en el mundo de la ciencia ficción es a menudo identificado como el universo “historia alternativa”. La teoría de los Muchos Mundos sostiene que todas las versiones posibles de cada evento posible sucederá en un universo diferente. En esencia, se plantea la incertidumbre cuántica como una especie de árbol de la bifurcación de los mundos, cada vez que haces una elección, se ramifica en un universo diferente. Nos encontramos con una consoladora idea de que todo lo que puede suceder, sucederá consolar a imaginar que todo lo que puede suceder sucederá, aunque también es cierto que es una idea un poco espeluznante.

TIPO 4 – DIFERENTES LEYES DE LA FÍSICA Y LAS MATEMÁTICAS

El último tipo es nuestro favorito, una noción verdaderamente extraña que afirma que nuestro universo es sólo uno dentro de un número infinito de diferentes tipos de universos. El concepto de especie se remonta a los de teoría de la burbuja, -un incontable número de universos existentes dentro del mismo multiverso-, sólo que en este modelo, cada uno de estos universos es muy diferente, con diferentes leyes de la física y diferentes descripciones matemáticas de la realidad. En un universo, la materia nunca se formó, y en otro, el tiempo fluye en sentido inverso. Podría haber un universo lleno de agujeros de gusano, lo que permite a la vida inteligente viajar alrededor de diferentes estrellas y galaxias. O un universo que es un agujero negro gigante…..con un cerebro computarizado en la singularidad. (Esto me suena deliciosamente a Borges, nota de LIBERTALIADEHATALI)

El año pasado, unos científicos hicieron el sorprendente anuncio de que puede haber impresiones o “moratones” de otros universos que han impactado con el nuestro. Roger Penrose, de la Universidad de Oxford y Vahe Gurzadyan, de la Universidad Estatal de Ereván en Armenia dicen que extraños círculos inexplicables en nuestros mapas de radiación de microondas sugieren que otros universos “burbuja” pudieron haber colisionado con el nuestro cuatro veces en el pasado.

Otro estudio científico publicado un año antes, sugirió que puede haber evidencia de la energía oscura fuga “antigravedad” de un universo vecino.

La pregunta que estamos ponderando dejamos es si es posible visitar cualquiera de estos otros universos, atravesarlos. Es una pregunta como si dispararas a las estrellas(literalmente) cuando se considera que ni siquiera hemos estado todavía en otro planeta. E incluso si cruzáramos a otro universo, podríamos terminar en el medio de una estrella, o tal vez este nuevo universo contiene del tamaño de planetas bioformas que nos engullen inmediatamente. De todos modos, no hay necesidad imperiosa de huir a un nuevo universo en este momento, todavía tenemos mucho que hacer aquí.
Pero en algún momento en un futuro lejano, nuestro universo puede estar en peligro de sucumbir a la gran congelación, cuando la muerte térmica del universo se nos venga encima (o de quien esté vivo). En ese momento, una civilización pos singularidad que sea capaz de aprovechar el poder de una estrella o incluso toda una galaxia podría dirigir toda esa energía a un solo punto, el logro final de la energía de Planck y de hecho causar un agujero en el espacio/tiempo de nuestro universo. Quizás a través de este agujero se podría enviar una espora nanobot dotada de todos los planos de la vida humana (o ya por ese tiempo probablemente una inteligencia artificial posthumana) y la semilla del nuevo universo.
O un pensamiento más loco: ¿y si los “moratones” detectados en el mapa microondas de radiación cósmica son en realidad los esfuerzos de los alienígenas avanzados para atravesarlo, golpeándonos tratando de escapar del suyo.

THE GHOST DIARIES  (Traducido por JUAN PEDRO MOSCARDÓ para LIBERTALIADEHATALI)

libertalia1

SIETE RESULTADOS DEL TODO INESPERADOS QUE PODRÍAN SEGUIR A LA SINGULARIDAD

k-bigpicPor definición, la Singularidad Tecnológica es un punto ciego en nuestra forma de pensar predictiva. Los futuristas tienen dificultades para imaginar cómo será la vida después de que creemos inteligencias artificiales sobrehumanas. Aquí están siete consecuencias de la Singularidad en las que nadie piensa, y que podrían cegarnos por completo.

Para el propósito de esta lista, decidí mantener una definición muy libre de la Singularidad Tecnológica. Mi preferencia personal es la de una explosión de la inteligencia y la aparición de múltiples (y potencialmente rivales) fuentes, tanto una super-inteligencia general artificial (SIA) y la IA débil. Pero la singularidad también podría dar lugar a una especie de futuro Kurzweiliano en la que la humanidad se ha fusionado con las máquinas . O un mundo Moraveciano en que nuestros “niños de la mente” han salido de la cuna a explorar el cosmos, o una sociedad Hansoniano de competencia renovadora, ofreciendo un rápido crecimiento económico y tecnológico.

Además de algunos de estos escenarios, una singularidad podría dar lugar a un cambio completo existencial para la civilización humana, como nuestra conversión a la vida digital, o el surgimiento de un mundo libre de la escasez y el sufrimiento. O podría resultar en un desastre total y un apocalipsis global. Hugo de Garis ha hablado de una lucha mundial por el poder que implica máquinas muy inteligentes contra la humanidad,- la llamada guerra artilect.

Pero hay algunos escenarios menos conocidos que también merecen tenerse en cuenta, para no ser atrapados por sorpresa. Aquí están siete de los resultados más inesperados de la Singularidad.

1. Cabezales IA

wirehiredPor lo general se supone que superinteligencia artificial automejorable (SIA) se esforzará por convertirse progresivamente en más inteligente. Pero, ¿y si la mejora cognitiva no es la meta? ¿Y si una IA sólo quiere divertirse?
Algunos futuristas y escritores scifi han especulado que los humanos del futuro se dedicarán a la práctica del cableado cerebral – la estimulación artificial del cerebro para experimentar placer (comprueba las historias de Espacio Conocido de Larry Niven para ver algunos buenos ejemplos). Una IA podría concluir, por ejemplo, que la optimización de la capacidad de experimentar placer es lo más útil y valioso que podría hacer. Y, de hecho, la evolución guía el comportamiento de los animales de una manera similar. Tal vez una trascendente IA automejorable no sería inmune a similares tendencias.

Al mismo tiempo, una SIA también podría interpretar su función útil de tal manera que decidiera cablear a toda la población humana. Podría hacerlo, por ejemplo, si fuera preprogramada para ser “segura” y considerar los mejores intereses de los seres humanos, asumiendo así su mandato hasta el extremo. Ciertamente una IA podría colapsar completamente su  sistema de valores al llegar a la conclusión de que las cantidades máximas de placer es la utilidad más alta posible para sí mismo y para los seres humanos.

Por otro lado, el futurista Stephen Omohundro discrepa con la predicción del cableado IA, argumentando que las IAs se esforzarán mucho por evitar convertirse en “cableadas” porque sería perjudicial para sus objetivos.

2. “Hasta luego y gracias por todo el pescado virtual”

Imagine este escenario: La Singularidad Tecnológica sucede – y la SIA emergente simplemente hace el equipaje y se va. Podría lanzarse al espacio y desaparecer para siempre.

Pero para que este escenario tenga algún sentido, una SIA tendría que concluir, por cualquier razón, que la interacción con la civilización humana simplemente no vale la pena, es sólo el momento de abandonar la Tierra, al estilo delfín de Douglas Adams.

3. El ascenso de un Singleton Invisible

Es concebible que una IA bastante avanzada podría erigirse en un singleton -un orden mundial hipotético en el que existe un único organismo o entidad de toma de decisiones al más alto nivel de control. Pero más que hacer obvio su monopolio y a sí mismo, esta especie de dios/IA podría ejercer el control sobre la población humana de manera encubierta.

Para ello, la SIA singleton utilizaría tecnologías de vigilancia (incluyendo algún tipo de detección de mentiras fiable) y de control mental, las tecnologías de la comunicación, y otras formas de inteligencia artificial. En última instancia, trabajaría para evitar cualquier amenaza a su propia existencia y supremacía, mientras se ejerce control sobre las partes más importantes de su territorio o dominio, al tiempo que permanece invisible en segundo plano.

4. Nuestra propia Yihad Butleriana

Otra posibilidad es que la humanidad pudiera realmente derrotar a un superinteligencia artificial, un resultado totalmente inesperado sólo basado en su absoluta improbabilidad. Sin duda, una vez que la SIA maligna o errónea (o incluso una IA débil) se saliera de control, sería muy difícil, si no imposible, que se detuviera. Pero la humanidad, tal vez en combinación con una IA amistosa, o por algún otro medio, podría defenderse y encontrar una manera de superarla antes de que pudiera ejecutar su voluntad sobre el planeta y los asuntos humanos. Alternativamente, los futuros humanos podrían trabajar para evitarlo antes de que llegara.

Frank Herbert abordó estas posibilidades en las sagas de Dune en virtud de la “Yihad Butleriana”, -un evento catastrófico en el que el “dios de la lógica de la máquina”, fue derrocado por la humanidad y un nuevo principio fundamental invocado: “No harás una máquina a semejanza de la mente humana. La Yihad dio lugar a la destrucción de todas las máquinas inteligentes y el surgimiento de una nueva sociedad feudal. También dio lugar a la aparición de la orden mentat, humanos con extraordinarias capacidades cognitivas que funcionaban como ordenadores virtuales.

5. Primer Contacto

ku-xlargeNuestra transición a una civilización postsingularidad podría también exponernos a una comunidad intergaláctica tecnológicamente más avanzada. Hay diferentes posibilidades aquí, pero no todas buenas.

En primer lugar, una civilización post-Singularidad (o una SIA) puede averiguar rápidamente cómo comunicarse con los extraterrestres (ya sea recibiendo o transmitiendo) Podría haber una especie de internet cósmica a la que somos ajenos, y que sólo avanzadas civilizaciones podrían ser capaces de detectar (por ejemplo algún programa de comunicación cuántica que implique la no-localización). Segundo, podría existir alguna clase de Directriz Suprema que pudiera comprender una política galáctica de no interferencia en
la que las civilizaciones “primitivas” son dejadas solas. Pero en lugar de esperar a que pudiéramos viajar más rápido que la luz, una civilización extraterrestre podría esperando que alcancemos y sobrevivamos una Singularidad Tecnológica.

En tercer lugar, y relacionado con el último punto, una civilización extraterrestre podría también estar esperando que lleguemos a la Singularidad, en cuyo momento se llevará a cabo una evaluación de riesgos para determinar si nuestra incipiente SIA o la civilización post-Singularidad plantea algún tipo de amenaza. Si no le gusta lo que ve, podría destruirnos al instante. O puede simplemente destruirnos de todos modos, en un esfuerzo por proseguir su monopolio galáctico. Esto podría ser en realidad la forma en que las sondas berseker trabajan; permanecen inactivas en algún lugar del sistema solar, activándose al primer signo de una incipiente singularidad.

6. Nuestra Simulación Cierra

originalSi estamos viviendo en una gigante simulación por ordenador, es posible que lo estemos en una llamada simulación ancestro, -una simulación que está siendo dirigida por posthumanos por alguna razón en particular. Podría ser para entretenimiento, o para un experimento científico. Una simulación ancestro también se puede ejecutar al tiempo que muchas otras simulaciones con el fin de crear un gran conjunto de muestras, o para permitir la introducción de diferentes variables. De manera inquietante, es posible que las simulaciones estén diseñadas para alcanzar un determinado momento de la historia, -y ese punto podría muy bien ser la Singularidad.

Así que si llegamos a esa etapa, de repente todo podría oscurecerse. Y lo que es más, las demandas computacionales necesarias para ejecutar una simulación post-Singularidad de una civilización podrían ser enormes. La velocidad del reloj, o incluso el tiempo transcurrido de la simulación puede resultar que se ejecutara tan lentamente que los posthumanos ya no tendrían ninguna utilidad práctica para mantenerla. Así que probablemente ellos la cerrarían.

7. La IA comienza a piratear en el Universo

Es cierto que ésta es bastante especulativa (¡no es que las otros no lo sean!), pero piensa de ello como algo del tipo “no sabemos lo que no sabemos”. Una SIA suficientemente avanzada podría comenzar por ver directamente en la estructura del cosmos y averiguar cómo entrar en su ‘código’. Podría empezar a trastear con el universo más allá de sus necesidades, tal vez haciendo  sutiles alteraciones a las leyes del universo mismo, o encontrando (o ingeniando) una “puerta de escape” para evitar el ataque inevitable de la entropía. Alternativamente, una SIA podría construir un universo “sótano”, -un pequeño universo creado artificialmente vinculado al universo actual por un agujero de gusano. Esto podría ser utilizado luego como espacio de vida, informática, o como una forma de escapar de la eventual muerte térmica del universo matriz.

O bien, una SIA podría migrar y desaparecer en un espacio de vida extremadamente pequeño (a lo que el futurólogo John Smart se refiere como espacio STEM, -zonas altamente comprimidas de espacio, tiempo, energía y materia) y llevar a cabo sus negocios allí. En tal escenario, una avanzada IA permanecería completamente ajena a nosotros, bolsas de carne insignificantes; para un SIA, la idea de conversar con los seres humanos podría ser semejante a si nosotros quisiéramos tener una conversación con una planta.

GEORGE DVORSKY

Artículos relacionados:

LA SINGULARIDAD ESTÁ AQUÍ. EL CONOCIMIENTO HUMANO Y LA PRÓXIMA EXPLOSIÓN DE INTELIGENCIA

LA SINGULARIDAD OVNI

ALTERNATIVAS DEL FUTURO: FUTURISMO Y LA NUEVA PSEUDORELIGIÓN

DENTRO DE LA MATRIX: INTELIGENCIA ARTIFICIAL, LA HUMANIDAD FUTURA Y EL ENIGMA OVNI

LA SINGULARIDAD OVNI

ufosingularityENTREVISTA A MICAH HANKS EN “THE CHURCH OF MABUS”, POR JEFFREY PRITCHETT

Micah Hanks tiene un nuevo libro llamado “La Singularidad OVNI: ¿Porqué nuestros antiguos fenómenos inexplicados están cambiando nuestro futuro? ¿Hasta donde llegará el pensamiento de vanguardia? ¿Cuán cercana está la Singularidad?

1. ¿Qué significa exactamente en tu perspectiva la “Singularidad Ovni”?

MH: Lo que en esencia trata el libro es el punto en el que la humanidad alcanzará en nuestro futuro, quizás dentro de unas pocas décadas, donde cualquier fenómeno anómalo existente que podríamos equiparar con los ovnis de hoy en día, serán producidos por nuestra propia tecnología. La aparente super desarrollada tecnología que percibimos hoy (p.ej. ovnis) podría no estar tan lejana de nosotros.

2. ¿Cuando en tu libro señalas que la Segunda Guerra Mundial fue un período esencial para la ovnilogía, te refieres a que se desarrolló tecnología ovni que es ahora nuestra tecnología de los drones?

MH: Bueno, la Segunda Guerra Mundial es un período significativo por varias razones, cada una con un trasfondo oculto. Por ejemplo, justo después de la SGM comenzamos a percibir los ovnis como un fenómeno cultural. Así, es muy sospechoso que tales objetos empezaran a aparecer justo después del conflicto. ¿Llamamos la atención de los extraterrestres con nuestro uso de arsenal atómico? ¿O la aparición de ovnis representa alguna tecnología clandestina emergente proveniente de la misma Tierra? Si esas naves, cualquier cosa que fueran (y aún son) hubieran sido desarrolladas por alguna de las superpotencia durante la guerra, ¿ no las habrían usado para fines militares? Como esto no fue el caso, debemos suponer que había algo más… pero comprender lo que podría haber sido entraña más dificultades debido a la escasas evidencias que tenemos.

3. ¿Y qué piensas sobre Roswell? ¿Qué opinas sobre el enfoque de Douglas Deitrich que afirma que sería una nave japonesa?

MH:  Siempre existe esa posibilidad, que el objeto hubiera sido una nave derribada de origen terrestre. Pero más que japonesa, si hubiera que seguir la lógica, señalaría lo que escribió Philip Corso, y que investigadores como Joseph P. Farrell y otros han mencionado también: que mucha de la avanzada tecnología que se observó supuestamente en el lugar del estrellamiento de Roswell eran cosas que los nazis habían estado perfeccionando durante los años de la guerra; no la nave misma, sino desde luego otras piezas que se dice fueron halladas entre los restos. Así que sí, el objeto que se estrelló en Roswell (si realmente se produjo tal colisión) bien podría haber sido, más que extraterrestre, de origen terrestre….aunque determinarlo en concreto permanece en el misterio.

4. ¿Podrías hablarnos de Locus Grove, el avistamiento de Georgia que sucedió cerca de una estación eléctrica? Georgia es el estado en el que vivo y he tenido muchos encuentros allí.

MH: El avistamiento de Locus Grove tuvo lugar en 1973 e involucró a un platillo volante que fu visto sobrevolando una central eléctrica por un hombre llamado Mike Reese, que fue testigo junto a varios familiares. La historia no es muy diferente de la plétora de informes que ofrece la ovnilogía, pero lo encontré interesante, y lo incluí en el libro por la accesibilidad que tenía al mismo. Conocí a los testigos, y gracias a la aguda memoria de Mike Reese, pude agrupar cierto número de detalles en mi mente y especular con que clase de tecnología podría haber actuado allí. Además, ¿porqué la nave había estado sobrevolando un área bien iluminada directamente sobre la central eléctrica? Todo ello parecía curioso. Al menos una de las primeras críticas sobre La Singularidad OVNI se refería a mi excesiva meticulosidad, -hasta banalidad-, en la investigación de este caso. Pero elegí hacerlo por dos razones: primero, demasiados investigadores de los ovnis hoy día se sientan tras el ordenador y hacen toda su “investigación” desde allí. Yo mismo también lo uso a menudo, pero además hay que hacer trabajo de campo, y este caso me proporcionaba esa oportunidad. Además sentí que centrándome en el examen de un caso serio, casi “arquetípico” que implicaba el “estereotipado” platillo volante (y que no había sido previamente reseñado en ningún sitio), me proporcionaría un armazón único desde el que intentar determinar nuevos detalles sobre una bien conocida área de estudio dentro de la ovnilogía.

mhanks5. ¿Qué piensas exactamente de los viajeros del tiempo y los ovnis?

MH: No pienso que los ovnis sean necesariamente “viajeros en el tiempo” como vemos en películas, aunque me he preguntado si tecnologías avanzadas del futuro podrían ser capaces de “evadir la temporalidad”, en el sentido que les pudiera permitir tener la facultad de doblar o deformar el tiempo de forma que pudieran ser perceptibles por los humanos de hoy. Pienso en un animal nadando bajo la superficie de una oscura piscina…uno podría ser incapaz de ver al animal mismo, pero una burbuja podría ascender a la superficie ocasionalmente, delatando su presencia. Del mismo modo, los efectos de tales actividades en las que estuvieran involucrados nuestros eventuales moradores del futuro podrían causar “fracturas” ocasionales en el espacio-tiempo, que podríamos percibir como una nave ovni, o informes de “alta extrañeza”.

6. Tu libro trata mucho sobre lo que los futuristas llaman transhumanismo y el concepto de singularidad tecnológica. ¿Qué tiene que ver eso con los ovnis?

MH: El transhumanismo es esencialmente el concepto o estudio relacionado con el sendero final de la humanidad, bien a través de evolución natural, o más bien mediante cambios o incluso manipulación de nosotros mismo a través del uso de ciencias avanzadas. La singularidad, dentro de un panorama tecnológico, podría ser definida como el surgimiento de algo más grande que la inteligencia humana, presumiblemente mediante la creación de tecnologías sintéticas como la inteligencia artificial. Desde que estamos discutiendo la variante final de inteligencia que sobrepasará nuestros propios niveles de inteligencia humana, varios casos ovni alrededor del mundo nos han hecho pensar que estamos interactuando con una inteligencia que excede la nuestra. Así que las conexiones entre ambos conceptos a mi me parece obvia y además digna de la mayor consideración.

7. A pesar de las probabilidades futuras, también echas un vistazo a la tecnología del pasado. Cuéntanos sobre los dirigibles del siglo diecinueve y cómo están relacionados con tu hipótesis ovni.

MH: Los primeros informes de dirigibles deben ser tomados como anécdota, ya que me di cuenta (como la mayoría de los investigadores ovni) que casi en su totalidad eran simples fraudes. Pero si suponemos que, para la época en que aquellos avistamientos tuvieron lugar, que aquellas avanzadas tecnologías no fueron diseñadas con propósitos militares, podríamos considerar que esas tecnologías reservadas, -especialmente las de financiación privada-, habrían despegado (perdón el juego de palabras) mucho más temprano de lo que muchos de los historiadores de la aviación han pensado. Este tipo de investigaciones han sido expuestas muy bien por autores como J. Allen Danalek, y creo en la fascinante idea que industrias privadas podrían haber estado interesadas en producir aeronaves avanzadas a lo largo de esos años.

8. También tratas sobre inteligencia artificial y formas de vida sintética en La Singularidad Ovni. ¿Cómo el estudio de la inteligencia artificial nos ayuda a aprender sobre los ovnis, o están conectados los dos temas?

MH: Como he afirmado antes, creo que los paralelismos entre la inteligencia artificial y la tecnología ovni surgen en gran parte de la cuestión de cómo una inteligencia más grande que la humana podría llegar a existir; si será a través de la creación de I. A. por nuestra parte, o mediante la introducción de inteligencia avanzada debido a interacciones con seres extraterrestres. Es probable que sea algo que tengamos que tomar seriamente en el futuro. La ovnilogía y el estudio de la inteligencia artificial y las ciencias de “Singularidad” avanzada ofrecen un panorama filosófico sobre lo que podría esperarnos en un mundo donde los humanos no serán más el pez más gordo del estanque.

9. Siento curiosidad por como te sientes sobre el uso del gobierno de la agenda alienígena para su beneficio encubriendo su propia tecnología. Es más fácil etiquetar a alguien como un chiflado de los ovnis que explicar las operaciones secretas. ¿Estás de acuerdo?

MH: Completamente, en el sentido que si los gobiernos del mundo estuvieran, por ejemplo, escondiendo sus propias tecnologías, una de las más simples formas de encubrirlas sería creando un infraestructura de desinformación, así como un conjunto de estereotipos culturales que posibilitara que a cualquiera que afirmara conocer o ser testigo de alguna de este tipo de cosas, se le tuviera por chalado. Y con gente como Stephen Hawking afirmando que los ovnis son sólo vistos por “excéntricos y raritos”, es mucho más fácil este trabajo.

10. ¿Cuáles son tus próximas actividades y libros?

MH: Respondí a una pregunta similar justo tras mi libro Magia, misticismo y la Molécula hace un par de años. Esa vez sentía que mi siguiente libro entraría en el campo de la ovnilogía. Y así fue, como ahora vemos. Hoy diría que mi próximo libro será sobre el fenómeno psíquico, y sobre cómo la ciencia del futuro podrá crear algún tipo de “singularidad psíquica”, donde alcanzaremos un punto la tecnología incipiente permita capacidades psíquicas funcionales mediante el uso de interfaces ordenador-cerebro, etc. Es una excitante pero también terrible posibilidad; especialmente desde que algunas informaciones afirmaran que los militares ya están explorando el uso de tales cosas para el campo de batalla, o quizás para la vigilancia y más. Pero nuestra tecnología indudablemente parece encaminada en esa dirección.  Parte de mi piensa que ciertos aspectos del mundo que conocemos nunca cambiará, y que el tipo de “singularidad” a gran escala que muchos de los transhumanistas esperan nunca sucederá (por ejemplo  aquellos que lo ven casi como una religión). Pero de todas formas, las posibilidades aquí son fascinantes…y quizás sea eso la próxima entrega. Quién sabe… Tiendo a aburrirme cuando toco sólo un tema por demasiado tiempo.

La Singularidad Ovni revela lo que el fenómeno ovni puede decirnos acerca de una inteligencia mayor que la humana y ofrece teorías provocativas de donde tal inteligencia podría originarse. Explorarás las más desafiantes cuestiones metafísicas y los últimos pensamientos científicos sobre ello, incluyendo:

– ¿Qué es la singularidad y cómo se relacina con los ovnis?
– ¿Podrían ser los ovnis en realidad viajeros en el tiempo de nuestro tiempo?
– ¿Qué tendencias científicas actuales nos conducen al tipo de tecnología avanzada que hemos visto en varios informes ovni?
– ¿Hay otras maneras en las que los ovnis podrían ser considerados “visitantes extraterrestres”, incluso si no llegaran aquí de la forma que la mayoría de la gente piensa (via vuelo espacial interplanetario)?

Artículos relacionados:

LA SINGULARIDAD ESTÁ AQUÍ: EL CONOCIMIENTO HUMANO Y LA PRÓXIMA EXPLOSIÓN DE INTELIGENCIA

ALTERNATIVAS DEL FUTURO: FUTURISMO Y LA NUEVA PSEUDORELIGIÓN

DENTRO DE LA MATRIX: INTELIGENCIA ARTIFICIAL, LA HUMANIDAD FUTURA Y EL ENIGMA OVNI

SEÑALES DE LOS TIEMPOS: ¿VIAJE EN EL TIEMPO, VIAJE MENTAL O SIMPLE PERCEPCIÓN?

HUMANIDAD 2.0: ¿HA GANADO YA EL TRANSHUMANISMO?

DENTRO DE LA MATRIX: INTELIGENCIA ARTIFICIAL, LA HUMANIDAD FUTURA Y EL ENIGMA OVNI

Las apasionantes teorías que existen tras el misterio ovni son múltiples y variadas. Por un lado, tenemos la popular noción de que las naves ovni representan seres extraterrestres del espacio exterior. Por otro, vemos a los observadores escépticos de este fenómeno que creen que tiene que ver con variada tecnología humana, diseñada por hombres como tú o yo, fuera del alcance del conocimiento público (o incluso de la mayoría del gobierno).

Y aún otros creen que los ovnis representan anomalías físicas extradimensionales, o alguna clase de inteligencia metaterrestre que es capaz de cruzarse con nuestra realidad en fugaces ráfagas, aterrorizando y fascinando de sus observadores terrestres.

 Es probable que, abierto como permanece el origen del fenómeno ovni, pueda comprender una combinación de todas esas cosas. Del mismo modo que, todavía hay explicaciones incomprensible que constituirían las bases de un cierto número de extraños sucesos observados en nuestra realidad.  Una de ellas implica la manipulación de nuestro entorno por una inteligencia que parece regirse por leyes físicas infinitamente diferentes de las nuestras; pero que sin embargo es posible que tal inteligencia pudiera estar muy relacionado con nosotros….o ¿incluso existiría como alguna extraña extensión de la humanidad misma?

Ya es bastante popular en libros y películas la idea sobre que podría existir una estructura programable dentro de nuestra realidad, o que algún tipo de realidad virtual podría cernirse sobre la humanidad, manipulada por otras inteligencias, culminando en lo que percibimos como nuestro mundo en derredor. Las películas de Matrix exploran esta posibilidad, así como en cierto modo, otras cintas de ciencia ficción incluyendo Vanilla Sky, la trilogía de Terminator y algunas más, en donde lo que vemos y percibimos como el “mundo real” podría ser el resultado de un estado de ensoñación, o incluso el resultado de una intrusión temporal (es decir, un viaje en el tiempo desde el futuro).

 Aplicando todo este tema en términos muy reales, fue publicado recientemente en el blog de Maxim Kammerer, erudito, crítico de arte e historia e investigador esotérico. En su artículo, Una nueva hipótesis ovni: Inteligencia artificial, Mundo Simulado Matrix y el Homo Mechanicus Post-Singularidad, Kammerer plantea la teoría que algunos ovnis podrían ser el resultado de los futuros humanos, denominados apropiadamente Homo Mechanicus debido a su presumible mecanización en un futuro Post-Singularidad, interactuando con nuestro presente a través de una compleja realidad Matrix.
 
Esta teoría es detallada más en profundidad en un manuscrito que Kammerer detalla en el artículo, titulado Ilusiones Espacio-Temporales: Una Exploración Transhumanista de la hipótesis de los ovnis interdimensionales de Jacques Vallee, que será publicado en un futuro cercano. En sus propias palabras, el autor dice:

“El manuscrito compara la idea de Vallee de la unidad de la materia y la conciencia con la teoría de David Bohm del Orden Implicado, de acuerdo a la cual la mente y la materia son generadas por un subyacente Orden Implicado que consiste en una premateria y preconsciencia existiendo como un único, inseparable e interpenetrado fenómeno. Las exhibiciones físicas simultáneas e inmateriales de los ovnis sugieren que el fenómeno no es material ni inmaterial en el sentido habitual de estos términos, sino que podría originarse desde una tecnología que dominara el Orden Implicado de Bohm que no tuviera espaciotiempo y que consistiría en un inseparable premateria y preconsciencia que generara materia y  consciencia en el campo del ilusorio espaciotiempo. De este modo, un dominio tecnológico del terreno común tras la materia y la consciencia podría ayudar a explicar el fenómeno ovni. El Multiverso de Vallee podría ser esencialmente lo mismo que el Orden Implicado de Bohm.”

 La interpretación de Vallee de varios fenómenos dimensionales en relación a los ovnis no se interpreta como las nociones convencionales de “multiverso”, propuestas por los partidarios de la Teoría de Cuerdas y múltiples dimensiones alternativas a las nuestras. En vez de eso, aceptando la noción por la que el espacio y el tiempo son, de hecho, ilusiones impuestas por nuestra consciencia resultante de nuestra habilidad física como humanos para percibir un mundo tridimensional, podemos comenzar a entender, en ausencia de un espacio físico real, la idea de ubicaciones alternativas en coincidencia con las nuestras se convierte en obsoleta; en vez de eso nosotros funcionamos en una única área perceptiva de conciencia. Podría decirse que algunos de los fenómenos que llamamos “ovnis” o “extraterrestres” derivados de la conciencia de un estado perceptivo del todo diferente que alguna que otra vez puede cruzarse con los humanos en esta realidad, aunque sea visto como si fuera magia por el observador humano medio.
 
El conjunto de esta idea es un pensamiento provocativo, y estando de acuerdo con Kammerer en el pasado en algunas cosas, yo creo que esta teoría aún siendo tan buena como cualquiera, -dejando a un lado multitud de extraños fenómenos que observamos de tanto en tanto-, está lejos de explicar las habituales manifestaciones físicas y sucesos fantasmagóricos que constituyen los ovnis y otras anomalías.

MICAH HANKS (11/10/2011)