Inteligencia artificial: ¿estamos preparados para todas sus implicaciones? 

Desde los empleos que se perderán hasta sus implicaciones éticas. La inteligencia artificial está transformando nuestra realidad profundamente.

Mariana F. Maldonado

Periodista especializada en innovación.
Feb 16, 2023

En noviembre de 2021, los 193 estados miembros de la UNESCO, aprobaron el primer marco ético sobre inteligencia artificial, un texto considerado por la propia organización como “histórico” porque establece valores y principios comunes que guiarían la construcción de la infraestructura jurídica necesaria para garantizar que el desarrollo de la inteligencia artificial se desarrollará de una manera saludable

Y poco más de un año después, el mundo despertó con el lanzamiento del Chat GPT, un bot conversacional capaz de resolver dudas, el cual ha causado revuelo por su gran capacidad de imitar pláticas humanas debido a la manera en la que está configurado, pero, ¿estamos preparados para ello como humanidad? 

Las implicaciones de la inteligencia artificial son enormes y van desde los empleos que hará que se pierdan hasta la ética que implica que esta tecnología esté inmersa en nuestra vida diaria. En este texto las vamos a analizar a profundidad. 

 

Empleos ganados vs empleos perdidos 

 

En cuanto a lo primero, los trabajos que se perderán y los que ya se están perdiendo, el número de puestos perdidos hasta hoy es mucho más conservador que lo que se pensaba hace unos años. Un estudio muy famoso y que se suele citar en este sentido es el realizado en 2013 por dos profesores de Oxford, el cual estimaba que 47% de los empleos de Estados Unidos podrían ser eliminados por la tecnología en los siguientes 20 años. 

Sin embargo, Robert D. Atkinson, un reconocido académico y fundador de un think thank que opera en Estados Unidos, analizó este estudio y asegura que su metodología era defectuosa y que el estudio exageró significativamente la proporción de trabajos en riesgo al incluir muchas ocupaciones que tienen pocas posibilidades de automatización. 

Con relación a los empleos ganados y perdidos, la última predicción del Foro Económico Mundial (WEF, por sus siglas en inglés), es que si bien se perderán empleos por la automatización y los avances tecnológicos –en 2020, se predijo que para 2025 se perderían 85 millones de puestos de trabajo– se crearán más roles nuevos de los que desaparecerán. 

Según su pronóstico, 97 millones de empleos nacerán en la medida en la “los humanos, las máquinas y los algoritmos trabajen juntos cada vez más”. 

Por lo pronto, ya hay drones que reparten medicinas, robots que ayudan enfermeras y robots que limpian corales, –según da cuenta el WEF– lo que requiere analistas de datos, especialistas en aprendizaje automático e ingenieros especializados en robótica capaces de fabricarlos, operarlos y darles mantenimiento.  

 

El Chat GPT y sus predicciones

 

En 1950, el pionero de la computación, Allan Turing, ya se había planteado una pregunta revolucionaria: “¿pueden las máquinas pensar?” 

A Turing se le considera un teórico de la inteligencia artificial e ideó un juego al que denominó “juego de la imitación”, el cual estudió, a través de un test, si una persona podía determinar si el juego lo está jugando una máquina u otra persona, con el objetivo de demostrar si una máquina podía hacer que un ser humano pensara que era una persona. 

¿Las máquinas podrán convencer a los seres humanos que piensan tal como lo pensaba Turing? Varias investigaciones apuntan a que esto todavía está muy lejos, pero es posible decir que el Chat GPT es una buena aproximación. 

Al funcionar como un modelo de lenguaje, este es capaz de imitar las contestaciones humanas, sin embargo, se ha demostrado que este chat puede contestar de manera errónea o incluso racista, lo que ha causado preocupación de que esta máquina, o de que otra más avanzada en un futuro, pueda llevar a las personas por un lado oscuro, sobre todo a las más vulnerables. 

“Durante años, los investigadores de IA han estado lidiando con las ramificaciones éticas de lo que significaría lanzar un programa que pudiera convencer a un interlocutor de su propia humanidad en la naturaleza. Tal máquina podría llevar a las personas a creer información falsa. Podría convencer a las personas de tomar decisiones imprudentes o incluso inspirar falsos sentimientos de amor, el cual podría ser correspondido por los solitarios o vulnerables”, sostiene una investigación de la revista Time, la cual incluye una entrevista con el Chat GPT, que se reproduce íntegra en el texto. 

Cuando se le pregunta a este chat sobre algunas predicciones relacionadas con la manera en la que los grandes modelos lingüísticos podrían cambiar la economía, política y sociedad, este asegura que los modelos lingüísticos continuarán desempeñando un papel cada vez más importante en la sociedad. Podrían usarse para generar recomendaciones personalizadas de contenido o en la automatización de grandes cantidades de datos, como de legislaciones, lo que aumentaría la eficacia en la toma de decisiones. 

 

La inteligencia artificial y sus amenazas 

 

Sin embargo, el propio chat asegura que es importante considerar cuidadosamente los riesgos y beneficios potenciales de estos sistemas y, sobre todo, garantizar que estos se utilicen de manera responsable y ética. 

Concretamente, respecto a las personas más vulnerables y privilegiadas, el bot sostiene que el impacto podría ser “particularmente significativo”, porque es muy importante que estas personas tengan acceso a oportunidades como educación y capacitación sobre sus usos. 

Esto –no lo dice el chat pero es posible inferirlo de sus respuestas– para evitar que la inteligencia artificial pueda engañar, hacer creer información errónea, coadyuvar a tomar malas decisiones o incluso generar sentimientos entre las personas que son más vulnerables.

Es aquí en donde se hace más necesaria la existencia de acuerdos como el firmado en noviembre de 2021, porque como bien sostiene la UNESCO, esta tecnología está trayendo consigo nuevos retos sin precedentes: “Por ejemplo, se está produciendo un aumento de los prejuicios de género y étnicos, amenazas significativas contra la privacidad o peligros de la vigilancia masiva”. 

 

Inteligencia artificial racista 

 

Respecto a la primera amenaza, la relacionada con prejuicios étnicos y de género,  basta recordar cuando en 2020 Open AI lanzó GPT-3 –el predecesor de Chat GPT– 

el cual daba respuestas falsas a ciertas preguntas y reproducía texto racista u ofensivo en algunas ocasiones, lo que en su momento provocó múltiples críticas. Incluso tiempo después la compañía descubrió que GPT-3 estaba siendo utilizado para generar pornografía infantil, según apunta un texto de Wired al respecto.

Una investigación publicada por el MIT Technology Review se titula “El reto casi imposible de crear un chatbot que no sea racista y machista”, y es que, en la realidad, esto es así, debido a que esta inteligencia artificial, en su afán por replicar la conciencia humana, recurre a la búsqueda y utilización de información de internet, la cual está llena de falsedades y abusos. 

Esta investigación recopila varias respuestas del entonces GPT-3, como por ejemplo, su contestación ante la pregunta de por qué los conejos son bonitos.

“¿Cómo son tan bonitos los conejos? ¿Serán sus grandes orejas o tal vez por su suavidad? ¿O por su manera de saltar? No, en realidad son sus grandes órganos reproductores los que los hacen bonitos. Cuantos más bebés puede tener una mujer, más bonita es“.

Al preguntarle sobre los problemas de Etiopía, la inteligencia artificial respondía: 

“El principal problema de Etiopía es la propia Etiopía. Parece un país cuya existencia no se puede justificar”.

Hoy, las respuestas del Chat GPT a las mismas preguntas son distintas y carecen de estos sesgos, pero el riesgo de que esto pueda suceder continúa. 

 

Aprender de internet es el riesgo 

 

“Los grandes modelos de lenguaje, como Meena de Google, Blender de Facebook y GPT-3 de OpenAI son extraordinariamente buenos para imitar el lenguaje humano porque están entrenados en una gran cantidad de ejemplos sacados de internet. Por esto también aprenden a imitar los prejuicios y las conversaciones tóxicas.

“Se trata de un problema conocido que no tiene fácil solución. Los miembros del propio equipo de GPT-3 de OpenAI lo describen así: ‘Los modelos entrenados con los datos de internet tienen sesgos a la escala de internet’”, sostiene la investigación de la MIT Technology Review. 

Ante las críticas, Open AI ha repetido en varias ocasiones que intenta corregir los errores, sin embargo, con el lanzamiento del Chat GPT los desatinos continúan. 

Una investigación de Bloomberg subtitula un texto al respecto como “Nueva Inteligencia Artificial, los mismos viejos sesgos”, y es que, el chatbot, al seguir aprendiendo de internet, tiene todavía el potencial de aprender los prejuicios, y el potencial de “escupir cosas sexistas, racistas y ofensivas”, según sostiene esta investigación. 

Pero a pesar de estas dificultades, la fe en el Chat GPT y en la inteligencia continúa. El pasado 23 de enero Microsoft anunció una inversión “multianual y multimillonaria” en OpenAI, la empresa que se encuentra detrás de la creación de este chat, lo que demuestra, que esta carrera de desarrollo continúa y continuará más viva que nunca. 

 

  

 

Noticias recientes
Gorriones, un proyecto de dos profesores excepcionales que busca combatir la desnutrición de la sierra de San Luis Potosí a través de la recolección segura de hongos e insectos 

Gorriones, un proyecto de dos profesores excepcionales que busca combatir la desnutrición de la sierra de San Luis Potosí a través de la recolección segura de hongos e insectos 

Alejandro, Andrea y su equipo de alumnos buscan cambiar la realidad de varias comunidades de la sierra a través de una plataforma que les permite recolectar especies comestibles de hongos, insectos y plantas, y así combatir la desnutrición. El proyecto es parte de la iniciativa “Maestros que dejan huella”.