Juegos para un Mundo Mejor

Hay coincidencia de que el origen etimológico de la palabra «juego» procede de dos vocablos en latín: «iocum y ludus-ludere». Ellos hacen referencia a broma, diversión (por lo tanto vinculado a la alegría), chiste, y se suelen usar indistintamente junto con la expresión actividad lúdica. En cuanto a nuestra «característica humana» conlleva que, además de ser «homo sapiens» y «homo faber», somos también «homo ludens«.

De pequeños, tanto animales como personas, en general jugamos gran parte de nuestro tiempo. En el caso de los humanos está muy incorporado al nivel de enseñanza inicial, pero luego -al menos en la enseñanza «tradicional» de muchos países- va decreciendo a medida que se avanza en el proceso educativo. Las razones son múltiples: no es fácil encontrar docentes, programas de enseñanza y juegos que abarquen todas las disciplinas y todos los temas. También hay otras cuestiones más relacionadas con «enfoques» acerca de la seriedad, disciplina y trabajo que conlleva «aprender» -en el proceso de crecimiento del ser humano-. Por lo tanto «no es cuestión de juego» (más allá de la necesaria valoración de la seriedad, la disciplina y el trabajo para la vida). Esto se ha manifestado de distintas maneras: desde reforzar el esfuerzo e involucramiento personal (lo que es muy necesario y valedero para aprender) hasta desviaciones de rigorismo y mal trato en algunas prácticas antiguas muy duras (como «la letra con sangre entra» o las visualizadas en escenas de películas como Pink Floyd – The Wall). Uno de los que primero remarcó la importancia del juego en el aprendizaje fue Comenius, según esta nota.

En un pasado más reciente y hacia la actualidad se ha incorporado mucho el juego para conocer nuestra naturaleza humana (1) puesta en acción,, por ejemplo en economía (combinada con psicología) con la teoría de los juegos y con la experimentación relacionada (corriente denominada «economía del comportamiento»). También se la utiliza mucho como aprendizaje que posibilite la «simulación de la realidad»; como ejemplos: simuladores para conducir vehículos de distinto tipo, simuladores de laboratorios, experimentos y ciencia, simuladores de emprendimientos, también   con fines terapéuticos (como este), entre otros, donde las herramientas virtuales son un soporte indispensable. También ha surgido un término: «gamificación» que busca transformar «lo aburrido en divertido» (tan importante para captar la atención en la cultura posmoderna y de imágenes) y estimular el pleno involucramiento personal, la imaginación y la creatividad. También hay experiencias vinculadas con videojuegos (como este caso), robots, impresoras 3D y realidad virtual, entre las principales. Desde el punto de vista de vista del psicoanálisis es interesante esta nota y este libro, entre otros.

Juegos hay de muy distinto tipo: individuales o grupales, competitivos o cooperativos, predominantemente físicos o mentales, etc., así como desviaciones (relacionadas con los juegos de azar y el dinero).  Los juegos competitivos, sin duda, son una forma de «sublimar» la rivalidad y también un ejercicio práctico de que necesitamos de la colaboración de otros y de trabajar en equipo para ser los «primeros». Si el objetivo no es «satisfacer una necesidad narcisista de ser el número uno» o «ganar poder o dinero sin límites», sino de satisfacer una serie de necesidades y deseos humanos de la mejor manera posible, entonces adquieren gran relevancia los «juegos cooperativos».

Si se pone en el buscador google las palabras «juegos cooperativos» aparecen a comienzos de 2020 (hemos actualizado la búsqueda) 2.820.00 resultados. También en youtube hay muchos videos sobre esta temática. A veces hay docentes o líneas pedagógicas en las instituciones que lo impulsan. En otros casos hay experiencias puntuales que surgen desde fuera (como es este caso). También hay libros (en especial para niños) como los que edita en Argentina Intercoop que van en esa dirección (en particular este texto). En lo que se refiere a juegos cooperativos o colaborativos digitales son interesantes esta fuente y esta.

Si coincidimos que es deseable que los seres humanos compartamos y cooperemos para un mundo mejor, los juegos que promuevan esto son una herramienta educativa y práctica muy válida.

(1) Esta nota hace referencia a la identidad de género y en esta (que mencionamos más abajo) a la cuestión de la libertad.

El trabajo desplazado por la IA

En otra entrada hemos planteado la posibilidad de la complementariedad del trabajo humano con la inteligencia artificial (IA). En esta entrada plantearemos la posibilidad de que el trabajo humano sea desplazado definitivamente por la IA (ver la temática de robotlución) y, más en general, que el ser humano sea desplazado y «las máquinas tomen el control» (por ahora sólo en la ciencia ficción). Un sitio que se puede consultar sobre este tema es este.

Hay una línea argumental de que en la historia de la humanidad se ha ido avanzando en lo científico-tecnológico y que, si bien han habido resistencias como con la aparición del maquinismo (ver el caso del ludismo), al final la destrucción de trabajo humano en determinados sectores ha generado nuevos trabajos en otros sectores que posibilitaron la inserción laboral y el progreso. Hoy este enfoque está en crisis (no tanto para un plazo cercano y a nivel «agregado», sino para el mediano y largo plazo), dado que -por lo que estamos viendo- este cambio es mucho más profundo y radical (al estilo de un «nuevo Neolítico» y que excede una nueva revolución industrial «más»). Y viene a pasos acelerados.

Científicos como Stephen Hawking y otros están alertando sobre la posibilidad que la autonomización de los robots los convierta en asesinos (la cuestión de «la ética» en el software de los robots, ya planteada en las tres leyes de la robótica de Isaac Asimov), empresarios exitosos en la aplicación comercial de la IA -como Elon Musk– hacen un fuerte señalamiento sobre la necesaria supervisión humana sobre este fenómeno, Facebook tuvo que desconectar a los robots Bob y Alice porque habían desarrollado autónomamente  y aplicado un lenguaje entre ellos que los humanos no podemos entender, la aplicación de drones autónomos para matar, Harari en su libro «Homo Deus» nos plantea un futuro inquietante con el «dataísmo», al igual que el último libro de Amy Webb (y también esta entrevista en CNN), esta entrevista con Santiago Bilinkis, y así podríamos seguir (la imagen de la entrada va en esa dirección). Algunas notas y autores comienzan a hablar de «robocalipsis«. Otra de las dimensiones es la señalada por Eric Sadin, en esta nota del diario La Nación donde plantea los peligros del «tecnoliberalismo».

Podemos hacer algo? Una primera respuesta, a corto y mediano plazo, puede ir en línea con iniciativas que se están haciendo en universidades de Estados Unidos que han comenzado a enseñar ética y regulación de la inteligencia artificial, a priorizar las actividades humanas relacionadas con la habilidades blandas (como la empatía), las actividades vinculadas al cuidado (más en general la economía del cuidado), a la cultura, al ocio….como señalan intelectuales como Eduardo Levy Yeyati, a generar un nuevo contrato social vinculado con lo digital como sostiene Gustavo Beliz y esta nota, entre otras.

Una segunda respuesta, y más a mediano plazo, podría ser: depende. De qué depende?: de que los seres humanos, además de la inteligencia limitada que tenemos, seamos «sabios». Qué sería ser «sabios»: canalizar nuestra energía positiva (agressiveness) en tratar de construir un mundo mejor, y no nuestra energía negativa (agressivity) en el dominio de unos sobre otros y en lucha de poderes y vanidades. La IA es resultado de la IH (inteligencia humana), es nuestra «hija» y si le transmitimos lo peor de nosotros mismos terminaremos devorados por ella. En esta línea reflexiona Gerd Leonhard y lo expresa en una nota de Lorena Oliva, del suplemento Ideas del diario La Nación del 1/7/18, donde dice que «harán falta sabiduría y previsión para manejar en forma adecuada el poder que le darán al hombre los próximos avances tecnológicos».

Un tema que viene emergiendo con fuerza es el de la inteligencia artificial generativa, y qué habrá que ir abordando en sus riesgos y aspectos negativos, así como en su potencialidad con un buen uso de la misma.

Si tomáramos conciencia de esta temática podríamos canalizar a la IA en complementarnos hacia un mundo mejor.

Acerca de «HOMO DEUS»

La lectura de una nota en una revista me llevó a comprar y leer el libro “Homo Deus. Breve historia del mañana (Ed. Debate, 2016) de Yuval Noah Harari (que se muestra en la imagen de la entrada). Este libro, avanza hacia el futuro vinculado con un “best seller” anterior del autor denominado “De animales a dioses” (hicimos una reflexión sobre una parte del mismo).

Es un texto extenso (490 páginas) del que desearía comentar solamente la última parte. En el Capítulo 9 (“la gran desconexión”) señala que en el siglo XXI, con motivo de los cambios científicos-tecnológicos, pueden ocurrir tres fenómenos:

  1. Los humanos perderán su utilidad económica y militar, de ahí que el sistema económico y político deje de atribuirles mucho valor.
  2. El sistema seguirá encontrando valor en los humanos colectivamente, pero no en los individuos.
  3. El sistema seguirá encontrando valor en algunos individuos, pero estos serán una nueva élite de superhumanos mejorados y no la masa de la población.

En el Capítulo 10 (“el océano de la conciencia”) plantea la emergencia de nuevas religiones de lugares como Silicon Valley. Al respecto afirma que es “allí donde gurúes de la alta tecnología están elaborando para nosotros religiones valientes y nuevas que poco tienen que ver con Dios y todo que ver con la tecnología. Prometen todas las recompensas antiguas (felicidad, paz, prosperidad e incluso vida eterna), pero aquí, en la Tierra, y con la ayuda de la tecnología, en lugar después de la muerte y con la ayuda de seres celestiales”.

Continúa diciendo que “estas nuevas tecnorreligiones pueden dividirse en dos clases principales: tecnohumanismo y religión de los datos. La religión de los datos afirma que los humanos ya han completado su tarea cósmica y que ahora deberían pasar el relevo a tipos de entidades completamente nuevos. Abordaremos los sueños y las pesadillas de la religión de los datos en el siguiente capítulo. Este lo dedicaremos al credo más conservador del tecnohumanismo, que sigue viendo a los humanos como la cúspide de la creación y se aferra a muchos valores humanistas tradicionales. El tecnohumanismo conviene en que el Homo sapiens, tal como lo conocemos, ya ha terminado su recorrido histórico y ya no será relevante en el futuro, pero concluye que, por ello, debemos utilizar la tecnología para crear Homo Deus, un modelo humano muy superior. Homo Deus conservará algunos rasgos humanos esenciales, pero también gozará de capacidades físicas y mentales mejoradas que le permitirán seguir siendo autónomo incluso frente a los algoritmos no conscientes más sofisticados. Puesto que la inteligencia se está escindiendo de la conciencia y se está desarrollando a una velocidad de vértigo, los humanos deben mejorar activamente su mente si quieren seguir en la partida.”

Para terminar con las referencias diremos –a modo de síntesis- que el dataismo, en perspectiva, consiste en que los algoritmos electrónicos más sofisticados (IA) se fusionan con los algoritmos bioquímicos (los humanos), los superan y toman el dominio. En ese contexto los humanos pasaremos a ser tratados por ellos como nosotros tratamos hoy a los animales. También otra posibilidad (que el libro no plantea) es considerar que nos exterminen (la ciencia ficción, como la saga de “Terminator”, es ilustrativa al respecto).

Al respecto podemos preguntarnos: estos escenarios son improbables? En base a las argumentaciones del autor podríamos decir que no son improbables. En esta dirección va la afirmación de más de 1000 científicos y tecnólogos, así como de Elon Musk el CEO de Tesla y SpaceX y este pionero de la IA.

Otra pregunta que pudiéramos formularnos es: qué podemos hacer al respecto? Sin duda una de las primeras cosas que pudiéramos hacer es establecer una Convención Internacional, acompañada de leyes nacionales, que permitan aplicar a los fabricantes de robots que puedan tomar decisiones autónomas las tres leyes de la robótica de Isaac Asimov, que surgen por primera vez en el relato “Círculo vicioso” (Runaround, de 1942), que establecen lo siguiente:

  1. Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
  2. Un robot debe hacer o realizar las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.

El “no matarás, no harás daño” a un ser humano, sería el “piso” mínimo de consenso a construir entre todas las naciones. Pero, para ello, habría que ver en qué dirección o sentido se resuelve la cuestión de la «voluntad de poder” de nosotros los humanos planteada por Nietzche. Si va más allá de voluntad de superación o mejoramiento individual y ello conlleva dominar a otros, la inteligencia artificial se pondrá al servicio del dominio (tanto humano como autonomizándose de nosotros).

En relación con lo que se viene de mencionar, está la afirmación que hizo Julián Assange en un reportaje de Fontevechia  donde afirma: “La historia de Silicon Valley se remonta a la Segunda Guerra Mundial. Durante la Segunda Guerra Mundial hubo un esfuerzo enorme de investigación con el fin de desactivar los sistemas de radares que las fuerzas armadas alemanas habían instalado en Alemania y Francia. Se trataba de una red de radares muy compleja y sofisticada que detectaba y destruía bombarderos estadounidenses y británicos. En la costa oeste, donde se encuentra Stanford, algunos ingenieros y académicos ingresaron al sistema de investigación militar secreta y fueron ampliamente subsidiados por el sistema de financiación del gobierno de los Estados Unidos y luego instados a fundar pequeñas empresas que produjeran componentes de misiles, y así trabajar como contratistas militares para la Agencia de Seguridad Nacional. Este fue el nacimiento de Silicon Valley y también el nacimiento del capital de riesgo. Silicon Valley, y Stanford, su núcleo. Se ha utilizado a Stanford desde la Segunda Guerra Mundial como una fuente de tecnología para el complejo de guerra de los Estados Unidos, por eso es habitual que los proyectos de tecnología de Stanford y muchas otras universidades estadounidenses estén subsidiados por la Agencia de Investigación Avanzada de Defensa”. En esta misma dirección va la nota de David E. Sanger y William J. Broad que aparece el 15/07/2017 en la versión español del New York Times en el diario Clarín de Argentina,  acerca de empresas como Capella Space en el Silicon Valley.

Si lo anterior continúa en esa dirección, y otras naciones lo están aplicando en la actualidad o lo harán más adelante, la ley de Asimov no se implementará y nuestro futuro no se diferenciará mucho de la saga de Terminator.

De los dos escenarios que plantea Harari, si se diera el de tecnohumanismo y en el caso de ser optimistas, debería predominar una cultura a favor de la vida y del cuidado, democratizando los avances tecnológicos (que no queden en una élite) comenzando por los más débiles o necesitados (en particular en cuanto a limitaciones físicas y socioeconómicas). Ello debería posibilitar avanzar en regulaciones, políticas y acciones adecuadas para que la inteligencia artificial esté a nuestro servicio, y de una vida plena que nos permita a toda la humanidad ser más felices.

PD: En línea con lo que aquí se comenta es interesante el último libro de Amy Webb, también esta entrevista en CNN así como esta entrevista con Santiago Bilinkis, o esta nota. Cabe destacar que también sería loable avanzar en iniciativas como esta.