Los dilemas éticos que plantea la Inteligencia Artificial

La inteligencia artificial (IA) es una de las tecnologías más prometedoras de nuestro tiempo. Sin embargo, su rápida evolución esboza unos dilemas éticos que la sociedad debe discutir.

Por Andrés Felipe Uribe

Cada herramienta que ha creado el Homo sapiens trae consigo una serie de cuestionamientos. En el momento en que el ser humano dominó el fuego, su relación con el entorno cambió, se preguntaba qué otras cosas podría conquistar. Cuando inventó la rueda su capacidad de transportarse se expandió y se preguntó hasta dónde podría llegar. Con la aparición de la imprenta, la radio, la televisión y la internet la pregunta fue si se podía controlar al otro. Ahora, con la llegada de la inteligencia artificial nos cuestionamos sobre si existe un límite.

Para Adolfo Eslava, director del Centro Humanista de EAFIT, con la llegada de la pandemia no solo debimos entender cómo un virus nos condujo hacia inconmensurables consecuencias, sino asumir asuntos como el cuidado propio y el de los otros. Este año, la inteligencia artificial volvió a poner en el centro de la discusión una pregunta ética milenaria: “¿qué debemos hacer?”.

Esta pregunta lleva a José Alejandro Betancur, director de Nodo, a cuestionarse sobre si la llegada de la IA plantea la ética de lo correcto o incorrecto. Para él es solo una herramienta, pero es innegable que existen unos riesgos. “Mientras no tengamos la posibilidad de cerrar brechas y crear nuevas oportunidades, existirán desventajas para quienes no pueden analizar más rápido una cantidad de datos. Algo similar sucedió con la creación de las armas, unos pueblos tenían ventajas y pudieron dominar a otros”, explica.

Sin embargo, esos riesgos dan origen a otros cuestionamientos, puesto que en la serie de algoritmos que entraña esta tecnología hay detalles que revelan la esencia de lo humano, algo que se teme perder o reemplazar. En esa construcción colectiva y en las mezclas que implica la inteligencia artificial aparece la duda sobre la creatividad.

«Hay un filósofo que dice: somos hombres modernos con emociones paleolíticas, instituciones medievales y tecnología de dioses, pero si ya tienes un Dios, ¿cómo lo controlas?»
José Alejandro Betancur 

Para Eslava, nos enfocamos en lo que hace la inteligencia artificial con nuestras curiosidades, o en su capacidad para analizar cuantiosa información, pero deberíamos enfrentarnos a preguntas éticas cruciales como “¿qué significa todo esto?, ¿qué somos capaces de ser y de hacer?, ¿qué debemos aprender?”.

Abordar estos dilemas exigen un cuestionamiento fundamental sobre lo que significa ser humano en un mundo cada vez más automatizado. A medida que delegamos tareas cognitivas y decisiones entra en discusión la esencia de lo que somos y la diferencia con lo que creamos.

“Al analizar lo humano, debemos tener en cuenta la mente extendida. Nosotros hace mucho tiempo dejamos de ser unos seres únicos y las herramientas que creamos nos amplían el cerebro. La IA es una de esas herramientas que nos hace la vida más fácil y nos aumenta como humanos. Nos proyecta hacia otras actividades que potencian la creatividad, porque la IA no crea, ella mezcla, en cambio el ser humano sí lo hace, por lo que nos puede volver a conectar con lo que somos”, afirma Betancur.

El avance de la inteligencia artificial agudiza el debate sobre el camino que se debe seguir en nuevos desarrollos. Enfrentar estos dilemas crea un espiral de preguntas en el que las distintas profesiones desean aportar su conocimiento para dar con una solución que de nuevo mantenga en el centro la vida y el esfuerzo humano.

«Pasar por alto la posibilidad de avances técnicos nocivos y adentrarnos en su uso de manera acrítica, elude la pregunta de las éticas aplicadas que nos mantiene atentos ¿qué debemos hacer?»
Adolfo Eslava 

“Nos enfrentamos al desafío de superar la tendencia facilista y con ello dar por verdaderas las respuestas digitales que no lo son. La tecnologización de la comunicación pública trae consigo el desafío de reconocer qué hace y qué no hace un algoritmo, un chat o una aplicación: las ganancias en tiempos, acceso y uso de información se pueden ver superadas por las realidades de manipulación, contradicción y posverdad”, explica el Decano de la Escuela de Artes y humanidades.

Sin embargo, el desafío de una posterior regulación radica en encontrar un equilibrio entre la transformación que puede traer el uso de la inteligencia artificial y los valores éticos que rigen la humanidad. Y entonces vale la pena preguntarse si es posible.

“Los grandes laboratorios frenan, pero el muchacho en la casa no va a frenar porque siente que necesita alcanzar todos los avances. No hay una forma de controlar quién lo hace y quién no, por lo que tenemos que comenzar a generar unos mandamientos como los que tenemos hoy en día, matar es malo, robar es malo. Así se puede tener un poco más de claridad”, subraya el Director de Nodo.

Al final, el debate se mantiene en lo que podemos hacer: ¿qué hicimos con el fuego?, ¿hasta dónde llevamos la rueda?, ¿hemos puesto un límite a la comunicación? Estas herramientas, incluida la inteligencia artificial, nos regresan a la pregunta de lo que somos, y en esos interrogantes siempre volverán los límites que debemos ponernos y ponerle a lo que creamos.

* Este artículo se construyó con el aporte de Adolfo Eslava, director del Centro Humanista de EAFIT y José Alejandro Betancur, director de Nodo de la misma Universidad.