En otra entrada hemos planteado la posibilidad de la complementariedad del trabajo humano con la inteligencia artificial (IA). En esta entrada plantearemos la posibilidad de que el trabajo humano sea desplazado definitivamente por la IA (ver la temática de robotlución) y, más en general, que el ser humano sea desplazado y «las máquinas tomen el control» (por ahora sólo en la ciencia ficción). Un sitio que se puede consultar sobre este tema es este.
Hay una línea argumental de que en la historia de la humanidad se ha ido avanzando en lo científico-tecnológico y que, si bien han habido resistencias como con la aparición del maquinismo (ver el caso del ludismo), al final la destrucción de trabajo humano en determinados sectores ha generado nuevos trabajos en otros sectores que posibilitaron la inserción laboral y el progreso. Hoy este enfoque está en crisis (no tanto para un plazo cercano y a nivel «agregado», sino para el mediano y largo plazo), dado que -por lo que estamos viendo- este cambio es mucho más profundo y radical (al estilo de un «nuevo Neolítico» y que excede una nueva revolución industrial «más»). Y viene a pasos acelerados.
Científicos como Stephen Hawking y otros están alertando sobre la posibilidad que la autonomización de los robots los convierta en asesinos (la cuestión de «la ética» en el software de los robots, ya planteada en las tres leyes de la robótica de Isaac Asimov), empresarios exitosos en la aplicación comercial de la IA -como Elon Musk– hacen un fuerte señalamiento sobre la necesaria supervisión humana sobre este fenómeno, Facebook tuvo que desconectar a los robots Bob y Alice porque habían desarrollado autónomamente y aplicado un lenguaje entre ellos que los humanos no podemos entender, la aplicación de drones autónomos para matar, Harari en su libro «Homo Deus» nos plantea un futuro inquietante con el «dataísmo», al igual que el último libro de Amy Webb (y también esta entrevista en CNN), esta entrevista con Santiago Bilinkis, y así podríamos seguir (la imagen de la entrada va en esa dirección). Algunas notas y autores comienzan a hablar de «robocalipsis«. Otra de las dimensiones es la señalada por Eric Sadin, en esta nota del diario La Nación donde plantea los peligros del «tecnoliberalismo».
Podemos hacer algo? Una primera respuesta, a corto y mediano plazo, puede ir en línea con iniciativas que se están haciendo en universidades de Estados Unidos que han comenzado a enseñar ética y regulación de la inteligencia artificial, a priorizar las actividades humanas relacionadas con la habilidades blandas (como la empatía), las actividades vinculadas al cuidado (más en general la economía del cuidado), a la cultura, al ocio….como señalan intelectuales como Eduardo Levy Yeyati, a generar un nuevo contrato social vinculado con lo digital como sostiene Gustavo Beliz y esta nota, entre otras.
Una segunda respuesta, y más a mediano plazo, podría ser: depende. De qué depende?: de que los seres humanos, además de la inteligencia limitada que tenemos, seamos «sabios». Qué sería ser «sabios»: canalizar nuestra energía positiva (agressiveness) en tratar de construir un mundo mejor, y no nuestra energía negativa (agressivity) en el dominio de unos sobre otros y en lucha de poderes y vanidades. La IA es resultado de la IH (inteligencia humana), es nuestra «hija» y si le transmitimos lo peor de nosotros mismos terminaremos devorados por ella. En esta línea reflexiona Gerd Leonhard y lo expresa en una nota de Lorena Oliva, del suplemento Ideas del diario La Nación del 1/7/18, donde dice que «harán falta sabiduría y previsión para manejar en forma adecuada el poder que le darán al hombre los próximos avances tecnológicos».
Un tema que viene emergiendo con fuerza es el de la inteligencia artificial generativa, y qué habrá que ir abordando en sus riesgos y aspectos negativos, así como en su potencialidad con un buen uso de la misma.
Si tomáramos conciencia de esta temática podríamos canalizar a la IA en complementarnos hacia un mundo mejor.