El trabajo desplazado por la IA

En otra entrada hemos planteado la posibilidad de la complementariedad del trabajo humano con la inteligencia artificial (IA). En esta entrada plantearemos la posibilidad de que el trabajo humano sea desplazado definitivamente por la IA (ver la temática de robotlución) y, más en general, que el ser humano sea desplazado y «las máquinas tomen el control» (por ahora sólo en la ciencia ficción). Un sitio que se puede consultar sobre este tema es este.

Hay una línea argumental de que en la historia de la humanidad se ha ido avanzando en lo científico-tecnológico y que, si bien han habido resistencias como con la aparición del maquinismo (ver el caso del ludismo), al final la destrucción de trabajo humano en determinados sectores ha generado nuevos trabajos en otros sectores que posibilitaron la inserción laboral y el progreso. Hoy este enfoque está en crisis (no tanto para un plazo cercano y a nivel «agregado», sino para el mediano y largo plazo), dado que -por lo que estamos viendo- este cambio es mucho más profundo y radical (al estilo de un «nuevo Neolítico» y que excede una nueva revolución industrial «más»). Y viene a pasos acelerados.

Científicos como Stephen Hawking y otros están alertando sobre la posibilidad que la autonomización de los robots los convierta en asesinos (la cuestión de «la ética» en el software de los robots, ya planteada en las tres leyes de la robótica de Isaac Asimov), empresarios exitosos en la aplicación comercial de la IA -como Elon Musk– hacen un fuerte señalamiento sobre la necesaria supervisión humana sobre este fenómeno, Facebook tuvo que desconectar a los robots Bob y Alice porque habían desarrollado autónomamente  y aplicado un lenguaje entre ellos que los humanos no podemos entender, la aplicación de drones autónomos para matar, Harari en su libro «Homo Deus» nos plantea un futuro inquietante con el «dataísmo», al igual que el último libro de Amy Webb (y también esta entrevista en CNN), esta entrevista con Santiago Bilinkis, y así podríamos seguir (la imagen de la entrada va en esa dirección). Algunas notas y autores comienzan a hablar de «robocalipsis«. Otra de las dimensiones es la señalada por Eric Sadin, en esta nota del diario La Nación donde plantea los peligros del «tecnoliberalismo».

Podemos hacer algo? Una primera respuesta, a corto y mediano plazo, puede ir en línea con iniciativas que se están haciendo en universidades de Estados Unidos que han comenzado a enseñar ética y regulación de la inteligencia artificial, a priorizar las actividades humanas relacionadas con la habilidades blandas (como la empatía), las actividades vinculadas al cuidado (más en general la economía del cuidado), a la cultura, al ocio….como señalan intelectuales como Eduardo Levy Yeyati, a generar un nuevo contrato social vinculado con lo digital como sostiene Gustavo Beliz y esta nota, entre otras.

Una segunda respuesta, y más a mediano plazo, podría ser: depende. De qué depende?: de que los seres humanos, además de la inteligencia limitada que tenemos, seamos «sabios». Qué sería ser «sabios»: canalizar nuestra energía positiva (agressiveness) en tratar de construir un mundo mejor, y no nuestra energía negativa (agressivity) en el dominio de unos sobre otros y en lucha de poderes y vanidades. La IA es resultado de la IH (inteligencia humana), es nuestra «hija» y si le transmitimos lo peor de nosotros mismos terminaremos devorados por ella. En esta línea reflexiona Gerd Leonhard y lo expresa en una nota de Lorena Oliva, del suplemento Ideas del diario La Nación del 1/7/18, donde dice que «harán falta sabiduría y previsión para manejar en forma adecuada el poder que le darán al hombre los próximos avances tecnológicos».

Un tema que viene emergiendo con fuerza es el de la inteligencia artificial generativa, y qué habrá que ir abordando en sus riesgos y aspectos negativos, así como en su potencialidad con un buen uso de la misma.

Si tomáramos conciencia de esta temática podríamos canalizar a la IA en complementarnos hacia un mundo mejor.

Acerca de «HOMO DEUS»

La lectura de una nota en una revista me llevó a comprar y leer el libro “Homo Deus. Breve historia del mañana (Ed. Debate, 2016) de Yuval Noah Harari (que se muestra en la imagen de la entrada). Este libro, avanza hacia el futuro vinculado con un “best seller” anterior del autor denominado “De animales a dioses” (hicimos una reflexión sobre una parte del mismo).

Es un texto extenso (490 páginas) del que desearía comentar solamente la última parte. En el Capítulo 9 (“la gran desconexión”) señala que en el siglo XXI, con motivo de los cambios científicos-tecnológicos, pueden ocurrir tres fenómenos:

  1. Los humanos perderán su utilidad económica y militar, de ahí que el sistema económico y político deje de atribuirles mucho valor.
  2. El sistema seguirá encontrando valor en los humanos colectivamente, pero no en los individuos.
  3. El sistema seguirá encontrando valor en algunos individuos, pero estos serán una nueva élite de superhumanos mejorados y no la masa de la población.

En el Capítulo 10 (“el océano de la conciencia”) plantea la emergencia de nuevas religiones de lugares como Silicon Valley. Al respecto afirma que es “allí donde gurúes de la alta tecnología están elaborando para nosotros religiones valientes y nuevas que poco tienen que ver con Dios y todo que ver con la tecnología. Prometen todas las recompensas antiguas (felicidad, paz, prosperidad e incluso vida eterna), pero aquí, en la Tierra, y con la ayuda de la tecnología, en lugar después de la muerte y con la ayuda de seres celestiales”.

Continúa diciendo que “estas nuevas tecnorreligiones pueden dividirse en dos clases principales: tecnohumanismo y religión de los datos. La religión de los datos afirma que los humanos ya han completado su tarea cósmica y que ahora deberían pasar el relevo a tipos de entidades completamente nuevos. Abordaremos los sueños y las pesadillas de la religión de los datos en el siguiente capítulo. Este lo dedicaremos al credo más conservador del tecnohumanismo, que sigue viendo a los humanos como la cúspide de la creación y se aferra a muchos valores humanistas tradicionales. El tecnohumanismo conviene en que el Homo sapiens, tal como lo conocemos, ya ha terminado su recorrido histórico y ya no será relevante en el futuro, pero concluye que, por ello, debemos utilizar la tecnología para crear Homo Deus, un modelo humano muy superior. Homo Deus conservará algunos rasgos humanos esenciales, pero también gozará de capacidades físicas y mentales mejoradas que le permitirán seguir siendo autónomo incluso frente a los algoritmos no conscientes más sofisticados. Puesto que la inteligencia se está escindiendo de la conciencia y se está desarrollando a una velocidad de vértigo, los humanos deben mejorar activamente su mente si quieren seguir en la partida.”

Para terminar con las referencias diremos –a modo de síntesis- que el dataismo, en perspectiva, consiste en que los algoritmos electrónicos más sofisticados (IA) se fusionan con los algoritmos bioquímicos (los humanos), los superan y toman el dominio. En ese contexto los humanos pasaremos a ser tratados por ellos como nosotros tratamos hoy a los animales. También otra posibilidad (que el libro no plantea) es considerar que nos exterminen (la ciencia ficción, como la saga de “Terminator”, es ilustrativa al respecto).

Al respecto podemos preguntarnos: estos escenarios son improbables? En base a las argumentaciones del autor podríamos decir que no son improbables. En esta dirección va la afirmación de más de 1000 científicos y tecnólogos, así como de Elon Musk el CEO de Tesla y SpaceX y este pionero de la IA.

Otra pregunta que pudiéramos formularnos es: qué podemos hacer al respecto? Sin duda una de las primeras cosas que pudiéramos hacer es establecer una Convención Internacional, acompañada de leyes nacionales, que permitan aplicar a los fabricantes de robots que puedan tomar decisiones autónomas las tres leyes de la robótica de Isaac Asimov, que surgen por primera vez en el relato “Círculo vicioso” (Runaround, de 1942), que establecen lo siguiente:

  1. Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
  2. Un robot debe hacer o realizar las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.

El “no matarás, no harás daño” a un ser humano, sería el “piso” mínimo de consenso a construir entre todas las naciones. Pero, para ello, habría que ver en qué dirección o sentido se resuelve la cuestión de la «voluntad de poder” de nosotros los humanos planteada por Nietzche. Si va más allá de voluntad de superación o mejoramiento individual y ello conlleva dominar a otros, la inteligencia artificial se pondrá al servicio del dominio (tanto humano como autonomizándose de nosotros).

En relación con lo que se viene de mencionar, está la afirmación que hizo Julián Assange en un reportaje de Fontevechia  donde afirma: “La historia de Silicon Valley se remonta a la Segunda Guerra Mundial. Durante la Segunda Guerra Mundial hubo un esfuerzo enorme de investigación con el fin de desactivar los sistemas de radares que las fuerzas armadas alemanas habían instalado en Alemania y Francia. Se trataba de una red de radares muy compleja y sofisticada que detectaba y destruía bombarderos estadounidenses y británicos. En la costa oeste, donde se encuentra Stanford, algunos ingenieros y académicos ingresaron al sistema de investigación militar secreta y fueron ampliamente subsidiados por el sistema de financiación del gobierno de los Estados Unidos y luego instados a fundar pequeñas empresas que produjeran componentes de misiles, y así trabajar como contratistas militares para la Agencia de Seguridad Nacional. Este fue el nacimiento de Silicon Valley y también el nacimiento del capital de riesgo. Silicon Valley, y Stanford, su núcleo. Se ha utilizado a Stanford desde la Segunda Guerra Mundial como una fuente de tecnología para el complejo de guerra de los Estados Unidos, por eso es habitual que los proyectos de tecnología de Stanford y muchas otras universidades estadounidenses estén subsidiados por la Agencia de Investigación Avanzada de Defensa”. En esta misma dirección va la nota de David E. Sanger y William J. Broad que aparece el 15/07/2017 en la versión español del New York Times en el diario Clarín de Argentina,  acerca de empresas como Capella Space en el Silicon Valley.

Si lo anterior continúa en esa dirección, y otras naciones lo están aplicando en la actualidad o lo harán más adelante, la ley de Asimov no se implementará y nuestro futuro no se diferenciará mucho de la saga de Terminator.

De los dos escenarios que plantea Harari, si se diera el de tecnohumanismo y en el caso de ser optimistas, debería predominar una cultura a favor de la vida y del cuidado, democratizando los avances tecnológicos (que no queden en una élite) comenzando por los más débiles o necesitados (en particular en cuanto a limitaciones físicas y socioeconómicas). Ello debería posibilitar avanzar en regulaciones, políticas y acciones adecuadas para que la inteligencia artificial esté a nuestro servicio, y de una vida plena que nos permita a toda la humanidad ser más felices.

PD: En línea con lo que aquí se comenta es interesante el último libro de Amy Webb, también esta entrevista en CNN así como esta entrevista con Santiago Bilinkis, o esta nota. Cabe destacar que también sería loable avanzar en iniciativas como esta.