CASCADIA, LA NUEVA AMENAZA CATASTRÓFICA

La costa noroeste de EE.UU. enfrenta el riesgo de sufrir un tsunami similar al que arrasó la costa norte de Japón en 2011.
La costa noroeste de EE.UU. enfrenta el riesgo de sufrir un tsunami similar al que arrasó la costa norte de Japón en 2011.

Cascadia, la falla que «amenaza con provocar un gran terremoto y tsunami en EE.UU.»

La falla de San Andrés, que recorre de norte a sur el estado de California, es una de las más estudiadas del planeta y también la más temida en Estados Unidos.
Lo que muchos no saben es que, un poco más hacia el norte, frente a la costa noroeste del país, existe otra falla que, según los científicos, en un futuro próximo provocará un megaterremoto todavía mayor que el que se originó en la de San Andrés en 1906 y que devastó la ciudad de San Francisco.

Se trata de la falla submarina de Cascadia que, con una longitud de más de 1.100 kilómetros, abarca desde la provincia canadiense de la Columbia Británica hasta el norte de California.
Se encuentra en la zona de subducción de la placa de Juan de Fuca y la placa Norteamericana, y no fue hasta mediados de los años 80 que los científicos fueron conscientes del peligro que presenta, siendo capaz de provocar sismos de una magnitud superior a los 9 grados, acompañados de tsunamis similares al que arrasó la costa norte de Japón en 2011.
El desconocimiento que existe sobre esta falla quedó demostrado con el revuelo que causó hace unos días la publicación de un artículo en la revista The New Yorker.

La falla submarina de Cascadia se encuentra en el Cinturón de Fuego del Pacífico, donde ocurren el 90% de los terremotos del planeta.
La falla submarina de Cascadia se encuentra en el Cinturón de Fuego del Pacífico, donde ocurren el 90% de los terremotos del planeta.

En él en varios investigadores informaban de que en las próximas décadas esperan que la ruptura de Cascadia provoque en los estados de Washington y Oregón la que prevén será la mayor catástrofe natural de la historia de EE.UU.

El terremoto de 1700
Lo poco que se sabe de esta falla se debe a que la última vez que dio lugar a un megaterremoto fue en el año 1700, cuando la costa noroeste de EE.UU. estaba poblada por tribus indígenas que no dejaron ningún registro escrito de ese evento, que causó un tsunami que llegó hasta las costas de Japón.
Ahora, gracias al estudio de los sedimentos costeros, los científicos han podido determinar que la falla de Cascadia ha hecho temblar la tierra más de 40 veces en los últimos 10.000 años, provocando sismos superiores a los 9 grados con un intervalo de unos 500 años, aunque también se han dado con una diferencia de tan sólo 200 años.
Ya hace más de 300 años del último megaterremoto -que se calcula tuvo una magnitud de entre 8,7 y 9,2 grados- y los expertos advierten que el noreste de EE.UU. no está preparado para una catástrofe de ese tipo.

Seattle se encuentra entre las cioudades que resultarían afectadas por un sismo provocado por la falla de Cascadia.
Seattle se encuentra entre las cioudades que resultarían afectadas por un sismo provocado por la falla de Cascadia.

Según cálculos de la Agencia Federal para la Gestión de Emergencias de EE.UU. (FEMA, por sus siglos en inglés), si se produce una ruptura total de la falla, el sismo y posterior tsunami que provocará se cobrará la vida de más de 13.000 personas, afectando seriamente ciudades como Seattle, Olimpia, Portland y Salem.
Además, hará que más de un millón de personas deban abandonar sus hogares y dañará seriamente infraestructuras básicas como puentes y carreteras, interrumpiéndose el suministro eléctrico y de agua en algunas zonas durante semanas o incluso meses.
Los científicos aseguran que la mayor parte de la destrucción la provocará el tsunami, que alcanzará la costa en apenas 20 minutos, afectando un área inundable en la que viven más de 70.000 personas, y en la que no existen refugios verticales para resguardarse de unas olas que se prevé alcancen varios metros de altura.
Otro factor que preocupa a los expertos es que la mayor parte de edificios de la región -con una población de unos siete millones de personas- no fueron construidos para soportar un sismo como el que puede provocar la falla de Cascadia, incluyendo muchos que albergan hospitales, escuelas o estaciones policía y bomberos.

Más fondos

«Me sorprende la atención que ha recibido el artículo de The New Yorker, ya que la información que contiene no es nueva. Su autora ha hecho un buen trabajo resumiendo lo que puede suceder en la costa noroeste del país, aunque el tono es un poco alarmista», asegura en conversación con BBC Mundo William Steele, portavoz de la Red Sísmica del Noroeste del Pacífico, con sede en Seattle.

La falla de San Andrés es mucho más conocida entre el público que la de Cascadia.
La falla de San Andrés es mucho más conocida entre el público que la de Cascadia.

«La población sabe que vivimos en una zona de terremotos, aunque no creo que estén preparados para un sismo como el que puede provocar la falla de Casacadia, del que no se tiene memoria reciente».
Steele asegura que «en las áreas costeras susceptibles de ser inundadas por un tsunami se tienen que construir más áreas de evacuación verticales» para que aquellos que no tengan tiempo de escapar, se puedan resguardar.
Además, el experto cree que se han de poner más fondos a disposición de las comunidades locales para que se preparen, ya que considera que «no tiene sentido que el dinero les llegue una vez el terremoto y el tsunami hayan ocurrido».
«Hay que empezar a pensar en cómo combinar recursos estatales y federales para preparar a las comunidades que resultarán impactadas».

La costa noroeste de EE.UU. carece de refugios verticales en los que la población se pueda refugiar en caso de tsunami.
La costa noroeste de EE.UU. carece de refugios verticales en los que la población se pueda refugiar en caso de tsunami.

«Otro tema que creo importante es que infraestructuras esenciales como escuelas y hospitales sean construidas fuera de las zonas inundables», apunta Steele, señalando que Oregón se ha aprobado la construcción de instalaciones de ese tipo en áreas que se prevé serán impactadas por un tsunami.

No es una ciencia exacta
Timothy Walsh, experto del Servicio Geológico del estado de Washington, hace hincapié en que el cálculo de los intervalos en los que ocurren los terremotos no es una ciencia exacta y señala que, debido a ello, el megaterremoto de Cascadia «podría ocurrir hoy mismo o dentro de varios siglos».
En conversación con BBC Mundo Walsh explica que las tribus que viven en la costa de Washington tienen en su tradiciones orales historias sobre este tipo de eventos, por lo que se toman más en en serio que el resto de la población el riesgo que presenta la falla de Cascadia.
El experto apunta que las autoridades locales cada vez son más conscientes de los peligros que enfrenta la región, motivo por el cual el año próximo van a organizar un gran simulacro de terremoto y tsunami que va a involucrar a los servicios de emergencia de Washington, Oregon y la Columbia Británica.

Los científicos prevén que las olas del tsunami alcancen varios metros de altura.
Los científicos prevén que las olas del tsunami alcancen varios metros de altura.

Además, confía en que cuando la tierra vuelva a temblar, en el noroeste de EE.UU. esté ya en funcionamiento un sistema de alerta temprana similar al que ya existe en Japón desde hace años y que actualmente está en pruebas.

JAIME GONZÁLEZ
BBC Mundo, Los Ángeles, @bbc_gonzalez

LAS PREVISIONES MÁS ASOMBROSAS (Y PREOCUPANTES) SOBRE LA INTELIGENCIA ARTIFICIAL

IA1Un futuro en el que las máquinas sean tan inteligentes como los hombres es algo que la humanidad ha soñado e imaginado durante décadas. Personas como Ada Lovelace o Alan Turing, pioneros de la informática moderna, ya fantasearon con algo así. Pero ¿cuáles son las implicaciones reales de “crear” inteligencia?

Los esfuerzos y la visión de Turing y Lovelace fueron clave en la invención durante el siglo XX de los primeros ordenadores. A los suyos se unieron los de otros como Gordon Moore, Robert Noyce, John von Neumann o Tim Berners Lee y muchos más. El de todos en su conjunto hace que ahora que despega el siglo XXI nos encontremos ante un abismo, cada vez más cercano e inmediato, en el que las máquinas serán mejores que el hombre en la única que el hombre ha hecho mejor que el resto de especies en el planeta: pensar.

Cuando las máquinas gobiernen la Tierra
IA2
Antes de seguir es interesante definir exactamente qué entendemos como inteligencia artificial. En su nivel más básico, la realidad es que la inteligencia artificial no es algo esencialmente nuevo. Uno de los mejores ejemplos es el que miles de personas llevan en sus muñecas y bolsillos con asistentes como Siri, Cortana o Google Now. Una inteligencia artificial, Deep Blue, fue también la que en 1996 derrotó por primera vez a un ser humano, Gary Kasparov, jugando al ajedrez.

Pero tanto Siri y similares o Deep Blue, aunque son capaces de superar y mejorar a la inteligencia humana en ámbitos muy concretos no lo son globalmente. Tampoco “piensan” en el sentido auténtico de la palabra ni son capaces de generar pensamientos o ideas a menos que hayan sido programados para ello. Tampoco tienen una consciencia, simplemente no ejecutan tareas mejor que nosotros.

Sobre esa inteligencia en un ámbito concreto, irónicamente lo cierto es que los seres humanos tampoco somos superiores en ese sentido, y cuanto más avanza la humanidad menos parecen serlo.

Dicho de otro modo: durante todo el siglo XX, el grado de especialización y de complejidad en las diversas disciplinas técnicas y científicas creció de manera tan acelerada que provocó un cambio progresivo desde un modelo con “grandes inventores” (Edison y la bombilla, Gutenberg y la imprenta) a otro donde las grandes invenciones surgen en realidad de un esfuerzo colaborativo. Internet y el smartphone son buenos ejemplos, no hay un inventor claro y definido, aunque sí haya figura claves que a su vez se nutren de avances y mejoras anteriores a ellos.

Lo mismo ocurre con la comunidad científica y médica: muchos avances son o bien realizados en conjunto o bien se apoyan en descubrimientos anteriores. Es lógico al fin y al cabo, cuanto más aumenta la especialización, más díficil es para el ser humano ser experto globalmente. Surge así el concepto de “Superinteligencia”. Una superinteligencia se define a menudo también como “Probablemente la última cosa que el ser humano necesite inventar”.

Un futuro apasionante y preocupante, al mismo tiempo
IA3
Una superinteligencia domina varias áreas y además las domina por igual. La presencia de una tecnología así probablemente multiplicase los avances en otras áreas muy distintas. Es además, capaz de ser replicada (y potencialmente replicarse a sí misma), autónoma, con consciencia, capaz de aprender y por tanto de ser cada vez más poderosa. Una superinteligencia es puro intelecto,y no está atada tampoco a las afecciones más pasionales y sentimentales del ser humano.

Eso no es necesariamente “malo”. En realidad, uno de los principales problemas cuando afrontamos e imaginamos la inteligencia artificial somos, irónicamente, nosotros mismos. Imaginamos las máquinas como una proyección mecanizada del propio ser humano. Y probablemente no sea el modelo más inteligente a seguir.

La ciencia-ficción ha tratado el tema de manera equivocada

Una máquina no tiene por qué tener la psique humana y por tanto no tiene por qué sentirse incómoda siendo un esclavo que sirva a la humanidad (como sí se sentiría un humano, obviamente). Para bien o para mal, las máquinas no necesitan compartir nuestra emociones ni nuestros sentimientos.

Partiendo de esa base, la mayoría de argumentos de ciencia ficción, comenzando por Terminator, no tendrían demasiado sentido. Una máquina no tiene por qué sentir un impulso de superioridad, por ejemplo, o un concepto intrínseco de raza que le lleve a “sublevarse”. La cuestión es que en el momento en el que se entra a hablar de probabilidades, como es el caso, y de un futuro más bien ambiguo es normalmente porque todavía pertenece, para bien o para mal, a la ciencia-ficción.

Que no acabe de estar del todo claro, sin embargo, no significa que no tenga que haber una genuina preocupación en torno a cómo vamos a manejar la inteligencia artificial. La creación de esa superinteligencia probablemente sea un evento comparable al de la imprenta, el descubrimiento de américa o el propio internet. Y lo más delicado, como mencionaba antes, probablemente no ocurra sin más y de golpe, sino como consecuencia de unas invencinoes previas.

Conexión humano-máquina: cerebros en la nube

De esas invenciones, las más inmediatas en el horizonte son el coche autónomo de Google, que ya ha comenzado a funcionar y todo tipo de conexiones humano-máquina. Para 2030, una de las personas que mejor predijo el comienzo del siglo XXI desde los 90, Ray Kurzweil, ha vaticinado algún tipo de conexión cerebral entre humanos y la nube, eso permitiría no sólo “subir” información mental a la misma sino también nutrirse de manera casi inmediata de todo su conocimiento. Su libro, La era de las máquinas espirituales, un título parcialmente basado en una definición de Ada Lovelace, es una gran lectura para entender y ampliar esto.

Stephen Hawking también avisaba hace poco sobre el potencial inmediato y los peligros que una superinteligencia podría ocasionar. Para Hawking, lo preocupante no es si inicialmente somos capaces de controlarla, algo que se da prácticamente por sentado, sino si podremos hacerlo a largo plazo cuando y evitar que esa superinteligencia se vuelva contra nosotros.

Figuras como Elon Musk, o Bill Gates, han realizado donaciones millonarias y gestiones a diversos fondos para favorecer que esa futura inteligencia artificial se convierta en algo beneficioso para la humanidad, en lugar de algo peligroso. Para intentar manejar de la manera más precisa posible ese cuchillo de doble filo.

Los dilemas éticos que plantea

Esa superinteligencia no será una persona, pero podrá realizar acciones al mismo nivel que una real. Y lo más importante: muchas de ellas lo hará mejor. Eso plantea algunos dilemas éticos interesantes.

Uno de los clásicos y más populares es aquel que plantea un coche capaz de frenar y ajustar su velocidad para salvar la vida tanto de peatones como de pasajeros. En un momento determinado, se encuentra en la particular situación en la que si frena bruscamente conseguirá salvar la vida de 5 personas en un paso de peatones a unos metros por delante, si lo hace, con todo, volcará matando al único pasajero en su interior. ¿Qué debería hacer el coche, no frenar y salvar la vida de 1 persona o hacerlo y salvar la de 5 seres humanos pero no la de su legítimo dueño? Es una pregunta delicada, con dimensiones éticas muy complejas pero que da a pie a otra más interesante ¿Cómo codificaremos las máquinas para que nunca se vuelvan contra la humanidad?

Con una superinteligencia el principal dilema es que el ser humano se enfrentaría, por primera vez en su historia, a algo que es exponencialmente más inteligente que él. Toma un poco de tiempo entender las dimensiones reales de la paradoja, pero las consecuencias pueden ser aterradoras.

La guerra contra las máquinas
IA4
Hay una gran variedad de niveles intelectuales en el ser humano, desde superdotados a gente rematadamente idiota, pero todos nos movemos dentro de un abanico lo suficientemente estrecho como para que el entendimiento sea común. Imaginemos ahora cómo nos ve, por ejemplo, un chimpancé, o un gorila, incluso un delfín. La diferencia en coeficiente intelectual no es “tan” elevada, pero a nivel práctico somos esencialmente dioses. Resulta curioso comparar cómo verá el hombre a un máquina capaz de superarlo intelectualmente en múltiplos cada vez mayores. Y lo mejor: capaz de aprender y ser cada vez más avanzada.

Esa superinteligencia, como exponen las hipótesis de Nick Bostrom, podría volverse en algún momento tan superior que acabe suponiendo la extinción del ser humano. No por un deseo de hacer el mal, en sí, sino porque no seamos capaces realmente de manejarlas o de pararlas.

Futuro incierto. Futuro apasionante. Futuro aterrador.

Aquí entra otro concepto interesante: la explosión de la inteligencia. Hasta ahora, y pese a los avances técnicos derivados fundamentalmente de la progresión de la Ley de Moore el principal limitante ha sido irónicamente la propia inteligencia humana. Pero, ¿qué ocurrirá cuando una máquina adquiera el suficiente nivel de inteligencia como para aprender del entorno y replicarse a sí misma? Ese es el concepto que recoge la singularidad. A partir de la singularidad, el crecimiento y el avance de la inteligencia artificial vendrá determinado por la propia inteligencia de la máquina creando más máquinas, no por la del ser humano.

El trabajo de personas como Ray Kurzweil y Vernor Vinge se ha centrado durante años en elucubrar sobre qué ocurrirá en el momento en el que aparezca la singularidad. Su conclusión: no lo sabemos. Cuando ocurra las posibilidades pueden propulsar a la raza humana hasta límites y extremos que nunca antes ha alcanzado o pueden condenarla a la extinción. Y hasta que esa singularidad no ocurra, la Inteligencia Artificial seguirá siendo apasionante y escalofriante a partes iguales.

CARLOS REBATO

Imagen: Andrea Danti/Shutterstock.