Descubre más acerca de nuestro trabajo, clientes y proyectos a continuación.
Fake news

¿Cómo podemos verificar la desinformación generada por IA?


Gustavo Pineda
Compartir

El uso de inteligencia artificial (IA) se ha convertido en un tema muy polémico dentro de la agenda informativa. Hace algunas semanas comenzaron a circular imágenes realizadas con esta tecnología que involucran desde políticos como el ex presidente de Estados Unidos, Donald Trump, hasta el propio Jefe del Estado Vaticano, el Papa Francisco. Rápidamente los diseños se viralizaron y generaron desinformación, la cual ha llevado a una gran incógnita verificada por varios fact-checker de medios independientes en distintas partes del mundo. 

 

Inteligencia artificial: ¿buena o mala?

Actualmente, el uso de la IA sigue en tela de juicio, pero también ha generado nuevas preguntas para periodistas, comunicadores y agencias que trabajan todos los días con personalidades o marcas, como: ¿la inteligencia artificial es dañina?, ¿cómo desmentir desinformación con estas nuevas herramientas tecnológicas?, y ¿qué tan preparados estamos como profesionales para identificar y desmentir estas imágenes? 

En el panorama internacional, Italia fue el primer país en limitar temporalmente el robot conversacional ChatGPT, acusado de no respetar la legislación sobre los datos personales y de no disponer de un sistema para verificar la edad de los usuarios menores de edad. La decisión ocurrió el pasado 31 de marzo que confiere la “limitación provisional del tratamiento de los datos de los usuarios italianos con respecto a OpenAI”, el creador del famoso chat. 

 

LEE TAMBIÉN: AI, avatares y filtros: ¿cómo tu marca puede aprovechar estas tecnologías?

 

Otro ejemplo fue la carta firmada por empresarios, investigadores y usuarios de nuevas tecnologías, publicada en el sitio web Future of Life Institute, donde solicitaron parar durante un semestre el desarrollo de inteligencias artificiales. 

Las posturas a favor y en contra son muchas, sin embargo, la IA ya está aquí y continúa su marcha a pasos gigantes, pero dicha herramienta en manos humanas “ha sido utilizada por desinformadores para causar confusión o engañar a otras personas, sobre todo con fines políticos”, opina Samedi Aguirre, Subcoordinadora de El Sabueso, sitio de verificación perteneciente al medio mexicano Animal Político que investiga contenidos que circulan en redes sociales.

 

El agudo olfato de El Sabueso

En entrevista con another, Samedi Aguirre señala que la inteligencia artificial como tal sólo es una herramienta, y por sí sola no es ni buena ni mala. “En el mismo sentido nosotras como personas que nos dedicamos a la verificación de hechos, la hemos utilizado para hacer nuestro trabajo de manera cotidiana. Por ejemplo, tenemos el Museo de la Mentira que justo se construye a partir de solicitudes de verificación a través del VerifiChat”, comentó. 

 

TE PODRÍA INTERESAR: Le preguntamos a ChatGPT, ¿por qué la IA no puede sustituir la creatividad humana?

 

El Sabueso también es una plataforma al servicio de la sociedad para aclarar vía mensajería qué es cierto y qué es desinformación, contrastando datos, imágenes de archivo, estadísticas oficiales y contando con la explicación de especialistas. 

“La desinformación tiene muchas formas y también muchos motivos. Algunas de las desinformaciones más compartidas se presentan como videos, imágenes y audios manipulados o sacados de contexto. Aunque la desinformación no siempre es creada o compartida con mala intención, en todos los casos causa confusión y puede llegar a ser muy peligrosa”, indicó. 

 

Herramientas de IA vs IA

Entre las semanas del 20 de marzo al 2 de abril, en El Sabueso lograron detectar al menos cinco desinformaciones creadas con inteligencia artificial. “Seguimos una metodología para realizar la verificación de hechos. Nuestro primer paso siempre es buscar la imagen original usando la búsqueda de imágenes de Google, RevEye o InVID. A partir de ahí podemos identificar si la imagen ya se compartió con otro contexto o de forma previa. Muchas veces eso es suficiente para saber el origen de una imagen”, señaló la especialista. 

Además, utilizan herramientas avanzadas como inVID para ver los metadatos y los detalles de imágenes sospechosas creadas con dicha inteligencia. Entre los errores más comunes generados por las computadoras se encuentran personas con tres pies, cabello poco natural o posiciones de manos raras que muestran la poca fiabilidad de los contenidos que circulan en redes sociales. 

 

Crisis por IA: ¿Qué debemos hacer? 

En another, apoyamos en muchas ocasiones a negocios y marcas en temas de crisis generadas por distintas circunstancias, sin embargo, la inteligencia artificial coloca un nuevo tema en casos excepcionales donde nos preguntamos, ¿qué deberíamos hacer si uno de nuestros clientes se ve afectado por desinformación creada a partir de una herramienta de IA? 

“El primer paso siempre será revisar la situación con mente fría, y lo segundo más importante verificar la información o visitar sitios de fact-checking para aclarar este tema”, dijo Penélope Torres, PR Director de another, experta en gestión de crisis y con una amplia experiencia con marcas, agencias y medios de comunicación. 

 

LEE TAMBIÉN: 6 herramientas de IA que toda marca debe conocer

 

“Una mentira viaja más rápido que una verdad, pero es fundamental siempre en casos de crisis comunicar de forma asertiva la situación a través de los medios y  canales propios de comunicación”, agregó. 

Torres sostiene que una estrecha relación y comunicación estratégica con los periodistas es fundamental para ejercer el derecho de réplica, e informar la verdad en estos casos mediante la verificación de datos con el uso de herramientas tecnológicas. 

Finalmente, tanto Penélope como Samedi coincidieron en que periodistas y agencias deben ser transparentes para todo tipo de desinformación, no sólo la generada por IA.