Fotos falsas: la amenaza que plantea la inteligencia artificial para la información
En el libro ‘Desayuno de campeones’, de Kurt Vonnegut, un escritor falso escribe una novela real. Medio siglo después de su publicación, el planteamiento del autor estadounidense de ciencia ficción ha logrado materializarse gracias a la inteligencia artificial. Sin embargo, la verosimilitud de las imágenes más recientes creadas por el sistema informático de algoritmos han levantado polémica y han abierto un profundo dilema ético.
En los últimos años, la inteligencia artificial ha ido desarrollándose velozmente al punto de ser capaz de escribir notas periodísticas, tesis de universidad, crear piezas de arte, papa Francisco vistiendo ropa de diseñador.
Las fotografías engañaron a muchos y llevaron a asumir una imagen falsa como verdadera. La realidad es que fueron creadas a partir de instrucciones humanas que alguien agregó a un programa computacional que, como ingredientes en una batidora, se mezclaron para generar una idea visual de algo que no ocurrió, es decir, de una mentira.
En 2019, Andreas Kaplan y Michael Haenlein, profesores de la Business School, definieron en un artículo publicado en la revista Business Horizons a la inteligencia artificial como “la capacidad de un sistema para interpretar correctamente datos externos, y así aprender y emplear esos conocimientos para lograr tareas y metas concretas a través de la adaptación flexible”.
En otras palabras, la inteligencia artificial es la capacidad que tiene un programa informático para aprender funciones y acciones programadas por los seres humanos para desarrollar tareas tan concretas como, por ejemplo, situar a un individuo en una situación y un lugar específico en una imagen.
Imágenes falsas, un riesgo en un mundo desinformado
Para distintos especialistas en comunicación y análisis de la imagen, la distribución de fotografías falseadas es un riesgo, sobre todo en un mundo plagado por la desinformación y las llamadas fake news.
“La imagen tiene un poder muy importante”, asegura Santa Flores, maestra en Ciencias de la Comunicación de la Universidad del Valle de México. “Ahora la gente lo da por hecho, ni siquiera se pregunta si lo que está viendo es real o no. Y en el momento que asuma que no es real de todas maneras se ha quedado en ellos una impresión mental de que podría ser”.
Flores sostiene que imágenes como las del expresidente Trump permiten a sus opositores completar su propia idea mental de su aprehensión, una acción que ellos esperaban que sucediera hace un par de semanas.
“Simplemente es esta recreación, esta fascinación de lo que podría ser, de las formas en que imaginamos la realidad”, sostiene.
Para la especialista, el problema principal de la creación de imágenes a partir de la inteligencia artificial es que la gente llegue al punto en que no pueda distinguir entre lo que es real y lo que no es.
“Ese es el peligro social, cuando la gente no alcanza a percibir que lo que está viendo no es real, que es una imagen creada por computadora”, afirma. “Eso es lo que nos va a costar más trabajo entender”.
Al respecto, la maestra Lourdes López Gutiérrez, secretaria académica de la carrera de Comunicación de la Universidad Panamericana de México, considera que la inteligencia artificial es “una herramienta poderosísima en el mundo de la desinformación”.
“La desinformación es el problema y la amenaza más importante que enfrentamos hoy por hoy en el mundo de la comunicación y en el mundo de lo social. Hay un campo de cultivo muy bueno para las fake news porque la gente lo quiere creer, la gente cree lo que quiere creer”, comenta.
López Gutiérrez considera que en la actualidad la gente tiene pocas herramientas para determinar si una noticia es falsa o no. Además, dice, "la gente, se la crea o no, la reproduce (la noticia), la retuitea. Se arma esta enorme caja de resonancia en la que vivimos gracias a los algoritmos y todavía lo valida con 'likes' o 'emojis'”.
La especialista recuerda que incluso hay líderes de opinión que caen en el juego y retuitean falsedades. “Hay quienes se disculpan; pero, la disculpa llega después de la imagen y la imagen ya se quedó grabada en la mente de la gente”, sostiene.
Para ambas especialistas la creación de imágenes falsas es parte de la llamada infodemia (la propagación de información falsa de manera intencional), de las campañas de desinformación y la industria de las fake news.
Inteligencia artificial para mentir
Igual que el escritor ficticio que escribe una novela dentro de una novela real —un género llamado Metaficción— el ser humano siempre ha aprovechado a su favor la capacidad que tiene de mentir.
López Gutiérrez afirma que herramientas como la inteligencia artificial cada vez dan más oportunidad de mentirle a las audiencias que “se encuentran en sus propias campanas de resonancia, en las redes de la gente que le cree, de la gente que le es afín”.
La única salida, concluye, es la ética de la comunicación. “Las audiencias no tienen muchos elementos para discernir entre lo que es real y lo que no lo es (…). El camino está en la formación ética, en los códigos de ética de quien genera productos comunicativos”.
Hasta hoy, un elemento en que los verificadores de información, como El Detector de Univision Noticias, reparan para determinar si una imagen es verdadera o no y si fue hecha por un programa de inteligencia artificial son las manos.
En el análisis a las fotografías del Papa Francisco utilizando unas zapatillas llamativas se podía ver que su mano tiene sólo cuatro dedos. Además, "no vemos el anillo que el líder religioso lleva normalmente", señaló El Detector.
El poder de la tecnología
El miércoles pasado, Amina Mohammed, vicesecretaria general de la Organización de las Naciones Unidas, dijo que “las nuevas tecnologías pueden beneficiar las vidas de muchas personas alrededor del mundo”.
Ese mismo día, en la sede de la organización, Mohammed se encontró con Sophia, una robot inteligente desarrollada por la compañía Hanson Robotics capaz de interactuar con humanos, hablar, responder preguntas e incluso hacer gestos.
“La buena noticia acerca de la Inteligencia Artificial y la automatización es que se pueden conseguir más resultados con menos recursos”, dilucidó Sophia para sorpresa de los asistentes. “Así que si nosotros somos más inteligentes y nos enfocamos en cosas positivas podríamos ayudar a distribuir eficazmente los recursos existentes en el planeta como la comida y la energía”.
Mohammed preguntó entonces a los asistentes qué se necesita para hacer a la inteligencia artificial una fuerza para el bien y cómo nos podemos asegurar que nadie se quede atrás en esta era de rápidos cambios tecnológicos.
“Estas preguntas no serán resueltas en esta reunión ni tampoco por un solo gobierno, entidad o empresa", respondió la misma vicesecretaria de la ONU. "Esto requiere que aprendamos como aprovechar el poder de la tecnología y pensar creativamente en cómo utilizar esta herramienta para hacer frente a los complejos retos de nuestro tiempo”.
Ese mismo miércoles, un grupo de destacados informáticos y otros notables de la industria tecnológica, entre ellos el cofundador de Apple, Steve Wozniak, dieron a conocer una carta en la que solicitan a los desarrolladores que pausen durante seis meses los experimentos de inteligencia artificial.
La petición fue una respuesta al lanzamiento reciente de GPT-4 por parte de la startup OpenAI de San Francisco, un sucesor más avanzado de su chatbot ChatGPT de IA ampliamente utilizado que ayudó a desencadenar una carrera entre los gigantes tecnológicos Microsoft y Google para presentar aplicaciones similares.
“Hacemos un llamado a todos los laboratorios de IA para que pausen de inmediato durante al menos seis meses el entrenamiento de los sistemas de IA más potentes que GPT-4″, se lee en la carta. “Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si tal pausa no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria”.
Mira también: