La lectura de una nota en una revista me llevó a comprar y leer el libro “Homo Deus. Breve historia del mañana” (Ed. Debate, 2016) de Yuval Noah Harari (que se muestra en la imagen de la entrada). Este libro, avanza hacia el futuro vinculado con un “best seller” anterior del autor denominado “De animales a dioses” (hicimos una reflexión sobre una parte del mismo).
Es un texto extenso (490 páginas) del que desearía comentar solamente la última parte. En el Capítulo 9 (“la gran desconexión”) señala que en el siglo XXI, con motivo de los cambios científicos-tecnológicos, pueden ocurrir tres fenómenos:
- Los humanos perderán su utilidad económica y militar, de ahí que el sistema económico y político deje de atribuirles mucho valor.
- El sistema seguirá encontrando valor en los humanos colectivamente, pero no en los individuos.
- El sistema seguirá encontrando valor en algunos individuos, pero estos serán una nueva élite de superhumanos mejorados y no la masa de la población.
En el Capítulo 10 (“el océano de la conciencia”) plantea la emergencia de nuevas religiones de lugares como Silicon Valley. Al respecto afirma que es “allí donde gurúes de la alta tecnología están elaborando para nosotros religiones valientes y nuevas que poco tienen que ver con Dios y todo que ver con la tecnología. Prometen todas las recompensas antiguas (felicidad, paz, prosperidad e incluso vida eterna), pero aquí, en la Tierra, y con la ayuda de la tecnología, en lugar después de la muerte y con la ayuda de seres celestiales”.
Continúa diciendo que “estas nuevas tecnorreligiones pueden dividirse en dos clases principales: tecnohumanismo y religión de los datos. La religión de los datos afirma que los humanos ya han completado su tarea cósmica y que ahora deberían pasar el relevo a tipos de entidades completamente nuevos. Abordaremos los sueños y las pesadillas de la religión de los datos en el siguiente capítulo. Este lo dedicaremos al credo más conservador del tecnohumanismo, que sigue viendo a los humanos como la cúspide de la creación y se aferra a muchos valores humanistas tradicionales. El tecnohumanismo conviene en que el Homo sapiens, tal como lo conocemos, ya ha terminado su recorrido histórico y ya no será relevante en el futuro, pero concluye que, por ello, debemos utilizar la tecnología para crear Homo Deus, un modelo humano muy superior. Homo Deus conservará algunos rasgos humanos esenciales, pero también gozará de capacidades físicas y mentales mejoradas que le permitirán seguir siendo autónomo incluso frente a los algoritmos no conscientes más sofisticados. Puesto que la inteligencia se está escindiendo de la conciencia y se está desarrollando a una velocidad de vértigo, los humanos deben mejorar activamente su mente si quieren seguir en la partida.”
Para terminar con las referencias diremos –a modo de síntesis- que el dataismo, en perspectiva, consiste en que los algoritmos electrónicos más sofisticados (IA) se fusionan con los algoritmos bioquímicos (los humanos), los superan y toman el dominio. En ese contexto los humanos pasaremos a ser tratados por ellos como nosotros tratamos hoy a los animales. También otra posibilidad (que el libro no plantea) es considerar que nos exterminen (la ciencia ficción, como la saga de “Terminator”, es ilustrativa al respecto).
Al respecto podemos preguntarnos: estos escenarios son improbables? En base a las argumentaciones del autor podríamos decir que no son improbables. En esta dirección va la afirmación de más de 1000 científicos y tecnólogos, así como de Elon Musk el CEO de Tesla y SpaceX y este pionero de la IA.
Otra pregunta que pudiéramos formularnos es: qué podemos hacer al respecto? Sin duda una de las primeras cosas que pudiéramos hacer es establecer una Convención Internacional, acompañada de leyes nacionales, que permitan aplicar a los fabricantes de robots que puedan tomar decisiones autónomas las tres leyes de la robótica de Isaac Asimov, que surgen por primera vez en el relato “Círculo vicioso” (Runaround, de 1942), que establecen lo siguiente:
- Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
- Un robot debe hacer o realizar las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
- Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.
El “no matarás, no harás daño” a un ser humano, sería el “piso” mínimo de consenso a construir entre todas las naciones. Pero, para ello, habría que ver en qué dirección o sentido se resuelve la cuestión de la «voluntad de poder” de nosotros los humanos planteada por Nietzche. Si va más allá de voluntad de superación o mejoramiento individual y ello conlleva dominar a otros, la inteligencia artificial se pondrá al servicio del dominio (tanto humano como autonomizándose de nosotros).
En relación con lo que se viene de mencionar, está la afirmación que hizo Julián Assange en un reportaje de Fontevechia donde afirma: “La historia de Silicon Valley se remonta a la Segunda Guerra Mundial. Durante la Segunda Guerra Mundial hubo un esfuerzo enorme de investigación con el fin de desactivar los sistemas de radares que las fuerzas armadas alemanas habían instalado en Alemania y Francia. Se trataba de una red de radares muy compleja y sofisticada que detectaba y destruía bombarderos estadounidenses y británicos. En la costa oeste, donde se encuentra Stanford, algunos ingenieros y académicos ingresaron al sistema de investigación militar secreta y fueron ampliamente subsidiados por el sistema de financiación del gobierno de los Estados Unidos y luego instados a fundar pequeñas empresas que produjeran componentes de misiles, y así trabajar como contratistas militares para la Agencia de Seguridad Nacional. Este fue el nacimiento de Silicon Valley y también el nacimiento del capital de riesgo. Silicon Valley, y Stanford, su núcleo. Se ha utilizado a Stanford desde la Segunda Guerra Mundial como una fuente de tecnología para el complejo de guerra de los Estados Unidos, por eso es habitual que los proyectos de tecnología de Stanford y muchas otras universidades estadounidenses estén subsidiados por la Agencia de Investigación Avanzada de Defensa”. En esta misma dirección va la nota de David E. Sanger y William J. Broad que aparece el 15/07/2017 en la versión español del New York Times en el diario Clarín de Argentina, acerca de empresas como Capella Space en el Silicon Valley.
Si lo anterior continúa en esa dirección, y otras naciones lo están aplicando en la actualidad o lo harán más adelante, la ley de Asimov no se implementará y nuestro futuro no se diferenciará mucho de la saga de Terminator.
De los dos escenarios que plantea Harari, si se diera el de tecnohumanismo y en el caso de ser optimistas, debería predominar una cultura a favor de la vida y del cuidado, democratizando los avances tecnológicos (que no queden en una élite) comenzando por los más débiles o necesitados (en particular en cuanto a limitaciones físicas y socioeconómicas). Ello debería posibilitar avanzar en regulaciones, políticas y acciones adecuadas para que la inteligencia artificial esté a nuestro servicio, y de una vida plena que nos permita a toda la humanidad ser más felices.
PD: En línea con lo que aquí se comenta es interesante el último libro de Amy Webb, también esta entrevista en CNN así como esta entrevista con Santiago Bilinkis, o esta nota. Cabe destacar que también sería loable avanzar en iniciativas como esta.