¿Podemos ser buenos centinelas y orientadores del cambio tecnológico? El caso de la IA generativa

La imagen de la entrada se refiere a un tipo de inteligencia artificial que viene emergiendo y que es «generativa«. Tiene muchas y enormes posibilidades, pero también grandes riesgos si no se le introducen códigos de conducta adecuados y límites específicos sobre el qué y el cómo.

Ya hay iniciativas concretas en la Unión Europea y en China, o más en general como esta o esta.

Más allá de la cuestión general, se considera que debemos estar alertas (asociada a la figura de centinela pacífico o no militar) sobre los cambios que se están dando y su posible impacto en distintos ámbitos. Al respecto citaremos sólo dos notas.

La primera se refiere a esta noticia, titulada «Una inteligencia artificial fue nombrada directora en una escuela de Inglaterra» y detalla las funciones que va a cumplir.

La segunda es más general abordada por Sebastián Campanario. Allí expresa, entre otros conceptos vinculados a posibles trabajos del futuro, lo siguiente: “El estudio, del cual participó el economista argentino de Accenture Tomás Castagnino, especula con que en estos “trabajos del mañana” (así se titula el informe) habrá “entrenadores” (desarrollo de IA), “explicadores” (los que trabajan en el detrás de escena para hacer accesible la IA generativa al público en general) y “sostenedores” (personas dedicadas a optimizar su uso: curadores, creadores de contenido, reguladores, expertos en ética, etcétera)”. Es muy interesante que no sólo habrá desarrolladres de IA sino también “explicadores” y “sostenedores”.

En cuanto a posibles impactos es interesante esta nota, también esta y en cuanto a las posibles limitaciones esta.

Una cuestión muy relevante a seguir, entre muchas otras a nivel mundial y nacional.

Inteligencia Artificial y Robots

La mayoría de los artículos recientes sobre inteligencia artificial se refieren a softwares o programas (como el Chat GPT) que son asistentes o, en otras oportunidades, poderosas herramientas de lenguaje.

Menos notas hay sobre su aplicación a la robótica, como es el caso de esta. Allí se hace referencia al «Figure 01 es el prototipo más cercano al humanoide que la ciencia ficción había anticipado. El robot, que ha recibido este mes de marzo el apoyo inversor y tecnológico de la compañía de inteligencia artificial Open AI, el gigante de los procesadores Nvidia y Jeff Bezos, fundador de Amazon, es capaz de discernir objetos no solo por su forma sino por su funcionalidad, desarrollar tareas diversas ajustando sus movimientos a la resistencia de aquello que manipula, interaccionar con el entorno e incluso evaluar su desempeño. Figure se acerca en apariencia a las máquinas de Yo, robot y aún está lejos de Robocop, pero es un ejemplo de una fulgurante carrera tecnológica: el embodiment, un término inglés que podría traducirse por encarnación o personificación y que supone, según Luis Merino, profesor y director del Service Robotics Lab (Laboratorio de Robótica de Servicios) de la Universidad Pablo de Olavide, romper los límites de la “pasividad del aprendizaje” automático para acercarse al humano, donde la interacción con el entorno es la clave.

La apuesta de las grandes compañías por esta tecnología es clara. Nvidia, además de su apoyo financiero a Figure, ha anunciado GR00T, una plataforma específica para robots humanoides, en cuyo desarrollo hay una acelerada carrera en la que participan, entre otras, empresas como 1X Technologies, Agility Robotics, Apptronik, Boston Dynamics, Figure AI, Fourier Intelligence, Sanctuary AI, Unitree Robotics y XPENG Robotics.»

Se hace referencia a muchas otras alternativas de desarollo de robots con diferentes tipos y habilidades de inteligencia artificial. Termina diciendo que “el siguiente gran paso es que los robots humanoides hagan un trabajo real, planifiquen actividades y se relacione con el mundo físico de maneras que no solo interaccionen con los pies y el suelo”, dice Alan Fern, profesor de Ciencias de la Computación en la Universidad Estatal de Oregón.

En este sentido avanza Figure, un robot de 1,70 metros de alto, 60 kilos, con capacidad para cargar un tercio de su peso, eléctrico, con cinco horas de autonomía y una velocidad de 1,2 metros por segundo. Pero lo que lo hace diferente, es su capacidad de desarrollar distintas tareas, discernir personas y objetos, actuar autónomamente y, sobre todo, aprender. La compañía defiende que su apariencia humana es necesaria porque “el mundo está diseñado para la misma”.

Figure es un ejemplo de encarnación o personalización. “No podemos separar mente y cuerpo. El aprendizaje los aúna. La mayoría de robots procesan imágenes y datos. Los entrenas y no tienen una interacción. Sin embargo, los humanos aprendemos interaccionando con nuestro entorno, porque tenemos un cuerpo y tenemos unos sentidos”, explica Merino.»

Un tema relevante a seguir, dadas las diferentes implicancias que tiene a futuro, tanto para un mundo mejor como para un mundo peor.

 

Economía del Cambio: el caso de la IA

Sabemos que la economía va cambiando con la evolución humana, los cambios sociales y culturales, los conflictos como las guerras, el cambio climático, o los avances científicos-tecnológicos, entre los principales elementos. Respecto de este último intentaremos glosar algunas notas sobre el impacto de la inteligencia artificial.

La imagen de la entrada se ha tomado de esta fuente. Entre otros conceptos expresa que «la inteligencia artificial (IA) está revolucionando la forma en que operan las empresas y está generando un impacto significativo en la economía global. Una de las principales formas en que la IA está cambiando la economía es a través de la automatización de tareas repetitivas.

Antes de la llegada de la IA, muchas tareas en el entorno laboral eran realizadas manualmente por los empleados, lo que requería tiempo y esfuerzo. Sin embargo, con la IA, es posible automatizar estas tareas, lo que permite a las empresas ser más eficientes y ahorrar tiempo y recursos.

La automatización de tareas repetitivas no solo reduce los costos operativos de las empresas, sino que también aumenta la productividad. Al liberar a los empleados de tareas monótonas y rutinarias, la IA les permite enfocarse en tareas más estratégicas y creativas, lo que puede generar un mayor valor para la empresa.

Además, la IA también puede ayudar a mejorar la calidad y precisión de las tareas automatizadas. Al utilizar algoritmos avanzados y técnicas de aprendizaje automático, la IA puede realizar tareas con un nivel de precisión y consistencia que es difícil de lograr manualmente.

La automatización impulsada por la IA no solo está cambiando la forma en que las empresas operan internamente, sino que también está teniendo un impacto en la economía en general. Al aumentar la eficiencia y la productividad, la IA está contribuyendo al crecimiento económico y al desarrollo de nuevos sectores y oportunidades de empleo.

La inteligencia artificial está impulsando la eficiencia económica al automatizar tareas repetitivas. Esto no solo ayuda a las empresas a reducir costos y aumentar la productividad, sino que también está generando un impacto positivo en la economía en general. A medida que la IA continúa avanzando, es probable que su influencia en la economía siga creciendo y transformando la forma en que trabajamos y vivimos.» Después hace otras interesantes consideraciones interesantes sobre sus diferentes impactos (se invita a leer la nota completa).

También Sebastián Campanario -en este artículo– plantea la temática de la «economía del cambio» donde se pasa -según su opinión- de la «compresión del tiempo» a la próxima etapa de la inteligencia artificial generativa. Allí analiza este fenómeno y expresa autores que lo sustentan como los párrafos que siguen: «Los tiempos se van acortando en esta avenida de avance. En un libro publicado en 1989, La Condición de la Posmodernidad, el geógrafo y teórico social inglés David Harvey habla por primera vez del concepto de “compresión del tiempo” para describir los avances cada vez más acelerados de la tecnología y la globalización (1).

 

Acerca de «HOMO DEUS»

La lectura de una nota en una revista me llevó a comprar y leer el libro “Homo Deus. Breve historia del mañana (Ed. Debate, 2016) de Yuval Noah Harari (que se muestra en la imagen de la entrada). Este libro, avanza hacia el futuro vinculado con un “best seller” anterior del autor denominado “De animales a dioses” (hicimos una reflexión sobre una parte del mismo).

Es un texto extenso (490 páginas) del que desearía comentar solamente la última parte. En el Capítulo 9 (“la gran desconexión”) señala que en el siglo XXI, con motivo de los cambios científicos-tecnológicos, pueden ocurrir tres fenómenos:

  1. Los humanos perderán su utilidad económica y militar, de ahí que el sistema económico y político deje de atribuirles mucho valor.
  2. El sistema seguirá encontrando valor en los humanos colectivamente, pero no en los individuos.
  3. El sistema seguirá encontrando valor en algunos individuos, pero estos serán una nueva élite de superhumanos mejorados y no la masa de la población.

En el Capítulo 10 (“el océano de la conciencia”) plantea la emergencia de nuevas religiones de lugares como Silicon Valley. Al respecto afirma que es “allí donde gurúes de la alta tecnología están elaborando para nosotros religiones valientes y nuevas que poco tienen que ver con Dios y todo que ver con la tecnología. Prometen todas las recompensas antiguas (felicidad, paz, prosperidad e incluso vida eterna), pero aquí, en la Tierra, y con la ayuda de la tecnología, en lugar después de la muerte y con la ayuda de seres celestiales”.

Continúa diciendo que “estas nuevas tecnorreligiones pueden dividirse en dos clases principales: tecnohumanismo y religión de los datos. La religión de los datos afirma que los humanos ya han completado su tarea cósmica y que ahora deberían pasar el relevo a tipos de entidades completamente nuevos. Abordaremos los sueños y las pesadillas de la religión de los datos en el siguiente capítulo. Este lo dedicaremos al credo más conservador del tecnohumanismo, que sigue viendo a los humanos como la cúspide de la creación y se aferra a muchos valores humanistas tradicionales. El tecnohumanismo conviene en que el Homo sapiens, tal como lo conocemos, ya ha terminado su recorrido histórico y ya no será relevante en el futuro, pero concluye que, por ello, debemos utilizar la tecnología para crear Homo Deus, un modelo humano muy superior. Homo Deus conservará algunos rasgos humanos esenciales, pero también gozará de capacidades físicas y mentales mejoradas que le permitirán seguir siendo autónomo incluso frente a los algoritmos no conscientes más sofisticados. Puesto que la inteligencia se está escindiendo de la conciencia y se está desarrollando a una velocidad de vértigo, los humanos deben mejorar activamente su mente si quieren seguir en la partida.”

Para terminar con las referencias diremos –a modo de síntesis- que el dataismo, en perspectiva, consiste en que los algoritmos electrónicos más sofisticados (IA) se fusionan con los algoritmos bioquímicos (los humanos), los superan y toman el dominio. En ese contexto los humanos pasaremos a ser tratados por ellos como nosotros tratamos hoy a los animales. También otra posibilidad (que el libro no plantea) es considerar que nos exterminen (la ciencia ficción, como la saga de “Terminator”, es ilustrativa al respecto).

Al respecto podemos preguntarnos: estos escenarios son improbables? En base a las argumentaciones del autor podríamos decir que no son improbables. En esta dirección va la afirmación de más de 1000 científicos y tecnólogos, así como de Elon Musk el CEO de Tesla y SpaceX y este pionero de la IA.

Otra pregunta que pudiéramos formularnos es: qué podemos hacer al respecto? Sin duda una de las primeras cosas que pudiéramos hacer es establecer una Convención Internacional, acompañada de leyes nacionales, que permitan aplicar a los fabricantes de robots que puedan tomar decisiones autónomas las tres leyes de la robótica de Isaac Asimov, que surgen por primera vez en el relato “Círculo vicioso” (Runaround, de 1942), que establecen lo siguiente:

  1. Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
  2. Un robot debe hacer o realizar las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.

El “no matarás, no harás daño” a un ser humano, sería el “piso” mínimo de consenso a construir entre todas las naciones. Pero, para ello, habría que ver en qué dirección o sentido se resuelve la cuestión de la «voluntad de poder” de nosotros los humanos planteada por Nietzche. Si va más allá de voluntad de superación o mejoramiento individual y ello conlleva dominar a otros, la inteligencia artificial se pondrá al servicio del dominio (tanto humano como autonomizándose de nosotros).

En relación con lo que se viene de mencionar, está la afirmación que hizo Julián Assange en un reportaje de Fontevechia  donde afirma: “La historia de Silicon Valley se remonta a la Segunda Guerra Mundial. Durante la Segunda Guerra Mundial hubo un esfuerzo enorme de investigación con el fin de desactivar los sistemas de radares que las fuerzas armadas alemanas habían instalado en Alemania y Francia. Se trataba de una red de radares muy compleja y sofisticada que detectaba y destruía bombarderos estadounidenses y británicos. En la costa oeste, donde se encuentra Stanford, algunos ingenieros y académicos ingresaron al sistema de investigación militar secreta y fueron ampliamente subsidiados por el sistema de financiación del gobierno de los Estados Unidos y luego instados a fundar pequeñas empresas que produjeran componentes de misiles, y así trabajar como contratistas militares para la Agencia de Seguridad Nacional. Este fue el nacimiento de Silicon Valley y también el nacimiento del capital de riesgo. Silicon Valley, y Stanford, su núcleo. Se ha utilizado a Stanford desde la Segunda Guerra Mundial como una fuente de tecnología para el complejo de guerra de los Estados Unidos, por eso es habitual que los proyectos de tecnología de Stanford y muchas otras universidades estadounidenses estén subsidiados por la Agencia de Investigación Avanzada de Defensa”. En esta misma dirección va la nota de David E. Sanger y William J. Broad que aparece el 15/07/2017 en la versión español del New York Times en el diario Clarín de Argentina,  acerca de empresas como Capella Space en el Silicon Valley.

Si lo anterior continúa en esa dirección, y otras naciones lo están aplicando en la actualidad o lo harán más adelante, la ley de Asimov no se implementará y nuestro futuro no se diferenciará mucho de la saga de Terminator.

De los dos escenarios que plantea Harari, si se diera el de tecnohumanismo y en el caso de ser optimistas, debería predominar una cultura a favor de la vida y del cuidado, democratizando los avances tecnológicos (que no queden en una élite) comenzando por los más débiles o necesitados (en particular en cuanto a limitaciones físicas y socioeconómicas). Ello debería posibilitar avanzar en regulaciones, políticas y acciones adecuadas para que la inteligencia artificial esté a nuestro servicio, y de una vida plena que nos permita a toda la humanidad ser más felices.

PD: En línea con lo que aquí se comenta es interesante el último libro de Amy Webb, también esta entrevista en CNN así como esta entrevista con Santiago Bilinkis, o esta nota. Cabe destacar que también sería loable avanzar en iniciativas como esta.