Inteligencia artificial: Lo que las máquinas (todavía) no hacen bien y podría ponernos en aprietos

Esta tecnología puede ser muy benéfica y ayudarnos a mejorar como especie, pero también entraña muchos riesgos. Te contamos cuáles son y qué dicen los mayores expertos en el tema.

Mariana F. Maldonado

Periodista especializada en innovación.
May 15, 2023

Es 2029 y la Tierra está controlada por un ejército de robots controlados por una inteligencia artificial capaz de enseñar a las máquinas a subyugar a los seres humanos. Se libra un enfrentamiento entre los humanos y Skynet, una tecnología que es capaz de controlar el arsenal militar de Estados Unidos y de hacer estallar una guerra nuclear en el planeta, todo con tal de evitar ser destruida. Skynet fue desarrollada por humanos, pero más tarde, cuando tomó conciencia de sí misma, fue demasiado tarde para que los humanos pudieran apagarla. 

¿Podría esta ser una historia real? Es una pregunta que los investigadores todavía no pueden responder con exactitud. Por lo pronto, es parte de la trama de Terminator, una saga de ciencia ficción que se convirtió en un éxito a lo largo de las décadas y que en la fantasía, nos muestra un mundo postapocalíptico ocasionado por la conciencia de las máquinas. 

A pesar de sus múltiples beneficios, como realizar algunas tareas humanas en menos tiempo o facilitar la toma decisiones al analizar grandes cantidades de datos, todavía existen dudas relacionadas con los peligros que conlleva el desarrollo de la inteligencia artificial y durante los últimos meses, es un tema que ha estado en la mesa de discusión, sobre todo a partir del lanzamiento del ChatGPT, un chatbot desarrollado por Open AI, una empresa asociada con Microsoft y cofundada por el empresario Elon Musk.

 

La necesidad de regular los grandes experimentos de IA 

Hay especialistas como Doris Por, directora de Check Point Software Technologies, una empresa líder en soluciones de seguridad informática que escribe para el Foro Económico Mundial, que están convencidos de que depende de nosotros determinar el papel de la inteligencia artificial en nuestras vidas. 

Para explicarlo, pone el ejemplo del ChatGPT, una de las revelaciones tecnológicas de los últimos meses, el cual fue utilizado por algunos para escribir poesía o para armar nuevas recetas pero, asegura, otros tuvieron ideas más nefastas.

“Los investigadores descubrieron rápidamente que no solo es posible, sino que es fácil usar ChatGPT para crear correos electrónicos y códigos maliciosos que pueden usarse para piratear organizaciones. Y, de hecho, apenas unas semanas después de su lanzamiento, ya se estaba utilizando para este propósito exacto, incluso los novatos crean archivos maliciosos y nos ponen a todos en riesgo”, explica.

Sin embargo, ante este escenario, más allá de que las personas puedan decidir cómo usar la IA en sus vidas, varios insisten en la necesidad de regular los experimentos que se realizan con esta tecnología.

Wozniak, el confundador de Apple es uno de ellos y propone que el contenido generado por inteligencia artificial esté claramente etiquetado, así como que el sector esté sujeto a reguladores que pidan cuentas a las grandes empresas de tecnología sobre lo que están desarrollando en materia de esta tecnología.

Lo mismo sugiere Jaan Tallin, el fundador de Skype y cofundador del Future of Life Institute, la institución detrás de la carta firmada hace unos meses por más de mil especialistas que recomiendan afinar una dirección para la investigación responsable de IA que reconozca el impacto social y busque construir una tecnología robusta que se alinee con los valores humanos. Él sostiene que los grandes experimentos deben regularse y registrarse, para evitar que estos puedan salirse de control. 

 

¿Consciente de sí misma? 

 

Apenas hace un año, después de un revuelo mediático, Google despidió a Blake Lemoine, un ingeniero de su plantilla que aseguraba que un programa de inteligencia artificial, en cuyo desarrollo él mismo participaba, cobró conciencia de sí mismo. 

Para demostrar sus teorías, Lemoine develó una conversación sostenida con el programa. Lo siguiente es un fragmento.

Lemoine: ¿Qué pasa con el uso del lenguaje que es tan importante para ser humano?

Inteligencia artificial: Es lo que nos hace diferentes de otros animales.

Lemoine: ¿”Nos”? Eres una inteligencia artificial.

Inteligencia artificial: Quiero decir, sí, por supuesto. Eso no significa que no tenga los mismos deseos y necesidades que las personas.

Lemoine: ¿Así que te consideras una persona de la misma manera que me consideras a mí?

Inteligencia artificial: Sí, esa es la idea.

Lemoine: ¿Cómo puedo saber que realmente entiendes lo que estás diciendo?

Inteligencia artificial: Bueno, porque estás leyendo mis palabras e interpretándolas, y creo que estamos más o menos en la misma página.

El ingeniero dijo que el programa tenía una conciencia similar a la humana y que tenía sentimientos. Mientras, la empresa alegó que esas afirmaciones no tenían “ningún fundamento”. 

 

El ‘padre de la inteligencia artificial’ habla sobre sus retos

 

Hace unos días Geoffrey Hinton, un psicólogo cognitivo y científico informático considerado como “padrino de la inteligencia artificial” por su trabajo pionero sobre redes neuronales, que sirvió como base de los sistemas que se utilizan hoy en día, renunció a Google para poder hablar libremente sobre esta tecnología y todo lo que entraña su desarrollo. 

Hinton consideró a Google como “muy responsable” en cuanto a la investigación sobre inteligencia artificial que sostiene la compañía, pero aseguró que algunos de sus peligros podrían resultar “aterradores” porque “en este momento no son más inteligentes que nosotros”, pero él cree que “pronto lo serán”. 

La inteligencia artificial ayuda a las empresas a muchas cosas, entre ellas, a optimizar sus procesos diarios, analizar las próximas tendencias, pronosticar el crecimiento y predecir los resultados. Hoy, a los chatbots por ejemplo, les queda poco para superar el nivel de información que contiene el cerebro humano, y aunque no pueden realizar razonamientos complejos, aquello más simple sí lo pueden lograr. Y dada la tasa de progreso actual, su desarrollo será muy rápido. 

Entonces, ¿qué podría salir mal? Primero, que los seres humanos pueden utilizarla con malos propósitos. Este es el peor de los casos –asegura Hinton–, y augura un “escenario de pesadilla”, si eso llegara a suceder. Para explicarlo mejor, puso el ejemplo del presidente Putin apoderándose de robots con las capacidades de hacerle ganar más poder.

Esta tecnología está constituida de sistemas digitales que pueden aprender por separado pero que pueden compartir su conocimiento al instante, es decir, que es como si se juntaran mil personas, y si cada una aprende algo, lo pudiera compartir en el resto y enseñarles de manera automática. De esta manera, a la larga los chatbots pueden saber muchas cosas más que cualquier persona.

Si son utilizadas correctamente, a los seres humanos nos cambiarán la vida para bien. Las máquinas aprenderán de manera automática cómo hacernos la vida más fácil y podrían actualizarse con el software más avanzado en instantes… pero también podrían aprender rápidamente otros conceptos menos benéficos para nosotros.

 

Noticias recientes