Abr 03

La IA también puede servir en la lucha contra la desinformación

El trabajo para la creación de algunas herramientas de IA que ahora generan riesgos de desinformación tomó años. Ahora, desde la academia se analiza cómo usar esas mismas herramientas para luchar contra ella. Ya existen algunas herramientas. 

Está claro que la Inteligencia Artificial (IA) puede ser usada para fomentar la desinformación. Pero, ¿puede también ser una herramienta valiosa en la lucha contra la desinformación? Esta pregunta se hace más relevante a medida que la gente verifica, día a día, cómo las nuevas herramientas generativas de IA mejoran su capacidad para crear imágenes falsas extremadamente realistas o de simular y procesar conversaciones humanas, como el chatbot ChatGPT.

Sin embargo, a pesar de los riesgos, expertos creen que la inteligencia artificial también tiene el potencial de ayudar a combatir la desinformación. Se trata, sin la menor duda, de uno de los mayores desafíos que hoy enfrentan, no sólo periodistas profesionales, sino todos los usuarios del mundo digital

La magnitud de este desafío ante el auge que en los últimos meses han experimentado herramientas de IA, la confirman tres importantes hitos históricos de la tecnología contemporánea, con los que concluyó marzo de 2023.

El primero, la Unesco urgió a los gobiernos aplicar “sin demora” un Marco Ético Mundial sobre Inteligencia, aceptado en el 2021, de forma unánime, por los 193 estados. El pedido es que la expansión de esta tecnología no se realice a costa de los derechos de los ciudadanos. Y para ello insta a aplicar dicho marco, que busca «garantizar la transparencia y la accesibilidad» de los algoritmos sobre los que se basan estas tecnologías.

Por ahora, unos 40 países de todo el mundo ya aportan sugerencias, especialmente legales, para desarrollar controles y equilibrios de Inteligencia Artificial, según reporta la propia Unesco, organismo encomendado por la ONU para promover la educación, la ciencia y la cultura.

El segundo de estos hitos lo marcaron el 29 de marzo unos 1.100 empresarios tecnológicos y expertos en Inteligencia Artificial, al firmar una carta pública en la que piden “frenar”, por lo menos seis meses, el entrenamiento de los modelos más potentes de la IA, como ChatGPT, argumentando que son una potencial amenaza para la humanidad.

Los desarrolladores de estas tecnologías están en “una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie. Ni siquiera sus creadores, pueden comprender, predecir o controlar de forma fiable”, señala dicha carta, apoyada por, entre otros, investigadores de la firma DeepMind; el director ejecutivo de la firma Stability AI, Emad Mostaque; el cofundador de Apple, Steve Wozniak; y el controversial propietario de Twitter y de Tesla, Elon Musk.

El tercero de estos hitos lo concretó Italia este 30 de marzo al bloquear “con efecto inmediato” el acceso el acceso a ChatGPT en medio de interrogantes a escala mundial sobre cuáles serían los siguientes países en adoptar similar restricción.

Según el Garante Italiano para la Protección de Datos Personales, ChatGPT no respeta la ley de protección de datos de los consumidores porque recoge datos de los usuarios de manera ilegal, por lo cual ha abierto una investigación para esclarecer su funcionamiento preciso y determinar si ha cometido una infracción.

Estos tres nuevos hitos históricos por regular el uso de la nueva generación de inteligencias artificiales dan cuenta de la complejidad, precisamente, de usarlas para combatir la desinformación, en una línea en la que cada vez es más difícil distinguir lo real de lo que no lo es; por ejemplo, la reciente difusión global de unas fotos falsas del papa Francisco caminando por las calles de Roma con un traje “urbano” o al expresidente estadounidense Donald Trump en resistencia a un arresto.

Frente a este tema, precisamente, la colaboradora de Reuters Fact Check Lydia Morrish publicó recientemente en la revista de divulgación científica Wired un artículo titulado La automatización de la desinformación ya está aquí, en el que destaca 2 iniciativas para combatirla con sus mismas herramientas y con un solo objetivo: defender la verdad:

ClaimHunter

        Iniciativa de Newtral, medio de comunicación español dedicado, precisamente, al fact-cheking. Con su experiencia en la materia ha desarrollado un programa de Maestría en Periodismo de Datos y Fact Checking.

          Utiliza el modelo de lenguaje Bert, de Microsoft, entrenado con 10 mil declaraciones para reconocer frases que incluirían hechos, datos, números y comparaciones.

London School of Economics and Political Science

          Desarrolla herramienta para automatizar la comparación de declaraciones.

          En este desarrollo colabora Newtral.

          La herramienta ahorra tiempo al reciclar artículos periodísticos con aclaraciones y desmentidos.


ENTREVISTA

Luego de este contexto introductorio, presentamos el diálogo que sostuvo Ecuador Verifica con Jorge Cruz Silva, coordinador de la Maestría en Comunicación Estratégica con mención en Comunicación Digital, de la Universidad Católica de Quito. Cruz lidera una investigación sobre la aplicación de la IA en el Fact Checking.

Los profesionales de la información siempre han combatido la desinformación, ¿cuál es la diferencia en los actuales tiempos de inteligencias artificiales “generativas”?

Hemos combatido la desinformación durante décadas y siglos. Hemos encontrado cómo estas tecnologías pueden ofrecer un camino enorme para informarnos, pero también para desinformarnos. Es decir, la solución está en primera instancia y, de manera más general, en las mismas actividades que hemos desarrollado los ciudadanos y los comunicadores y periodistas alrededor de la verificación, selección de mejores fuentes y ampliar el conocimiento especializado de ciertos temas.

Hay mucha gente que busca, por medio de ciertas estratagemas, desinformar, a veces consciente o inconscientemente.

Particularmente, con la inteligencia artificial, primero se está desarrollando está relación cognitiva con estos robots y máquinas que aprenden y crean contenido. Ahí entra el mismo proceso de dónde viene inicialmente esta información y poder entender cómo funciona.

¿Cómo la academia está entendiendo este tema?

En la PUCE justo estamos iniciando un proyecto de investigación que lo vamos a encaminar hacia el fact-checking, pero usando inteligencia artificial para ese propósito. Y estamos empezando a explorar el potencial de evitar la desinformación.

Un colega del Imperial College de Londres refería que es necesario entender que el proceso de aprendizaje de estas máquinas —que primero aprenden y luego crean— puede estar mediado o tergiversado por la manera en que le hicieron aprender ciertos datos.

¿Un ejemplo?

Por este proceso de inicio de la investigación hemos estado jugando, como casi la mitad de la humanidad, con el ChatGPT. Le pregunté cómo fueron los últimos días de George Harris y respondió que le visitaron sus amigos Paul McCartney y Ringo Starr y que John Lennon le realizó una visita póstuma. Entonces le repregunté cómo fue posible esa visita si Lennon murió antes y respondió “sí, tienes razón, perdóname”.

¿Qué refleja ese error de la Inteligencia Artificial?

La inteligencia artificial, inicialmente, no tiene la intención de desinformar, pero sí de la manera cómo está construida o cómo crea secuencialmente estos textos o imágenes, puede generar desinformación. Lo interesante será que sistemáticamente entendamos cómo evitar llegar a eso y cómo alertar, por ejemplo, con la labor que hacen ustedes (Ecuador Chequea y Ecuador Verifica) y con la que intentamos impulsar con nuestro proyecto de investigación.

¿Por qué es más necesario combatir la desinformación en los actuales tiempos?

Porque mientras más información hay, más filtros necesitamos. En algún momento los filtros son humanos y en algún punto, ojalá, podamos automatizar los filtros.  Combatir la desinformación significa saber con quién cuenta el ciudadano común. Y es ahí que se demuestra la importancia de periodistas, comunicadores, como personas que tienen experiencia en reconocer, contrastar, seleccionar una fuente de información.

¿A futuro la Inteligencia Artificial será parte de la cotidianidad en el trabajo de las verificaciones?

Creo que sí. De seguro esa realidad que nos parece como si viéramos Los Supersónicos (serie animada futurista producida entre 1962 y 1987), va a llegar mucho más rápido porque hoy los desarrollos tecnológicos son mucho más rápidos que hace unas décadas.

Hoy tenemos al ChatGPT y otras herramientas de inteligencia artificial más a la luz, pero ya teníamos inteligencias artificiales que desde hace mucho tiempo estaban tras bambalinas.

Al ver al ChatGPT realmente estamos viendo una ventanilla porque no conocemos qué hay detrás de su estructura y sus bases de datos. Y para que llegue de una manera mucho más cercana, falta muy poco tiempo. Pero hay una gran necesidad de responder para qué la vamos a usar, porque hay mucha gente está usando al ChatGPT como oráculo: ingresa datos y pregunta si se va o no a enfermar o data unos datos y pide una comparación del carro que debo comprar y el sistema le responde con datos fríos. Entonces la toma de decisión debe mantenerse siempre humana.

¿Cómo se explica este proceso desde la Comunicación?

Hay tres niveles con los que el ser humano entiende este proceso: cognitivo, performativo y evaluativo. La Inteligencia Artificial, evidentemente, tiene este nivel cognitivo con millones de bases de datos de rápido acceso. En lo performativo, si yo pido que escriba un relato o descripción de datos también lo hace bien. Entonces, lo evaluativo sigue siendo humano porque el humano debe evaluar lo que conoce y puede hacer la inteligencia artificial.  El humano es la inteligencia que evalúa a la inteligencia artificial y ahí tenemos que educarnos todos.

¿En qué consiste el proyecto de fact-checking con la ayuda de Inteligencia Artificial que ustedes empiezan a investigar?

Estamos empezando la exploración para mirar las nuevas categorías de noticiabilidad. Y tendremos una exposición sobre esto en el último trimestre del año en una conferencia en México. Todo esto que a ustedes les preocupa, a nosotros también, como carrera de Comunicación y desde el Observatorio de Comunicación, que hemos fundado hace un año.

La idea es, primero, entender cuáles son estas nuevas lógicas para definir qué es verosímil y qué es veraz, en función de estas nuevas tecnologías, en donde las “noticias falsas” o la desinformación tiene su base. Después habrá un desarrollo con la gente de ingeniería, tendremos un apoyo del Imperial College de Londres y buscamos asociarnos con la Universidad Autónoma de Barcelona en un gran proyecto que ellos ya tienen.

Veremos también cuáles son los espacios en donde podemos recolectar datos, enseñar a una máquina y ponerla en marcha. Estimo que nos tomará un par de años, como todo proyecto de aplicación, tener un modelo funcional, pero con avances en cada semestre en el modelo para poderle enseñar a la máquina, en un año ya enseñándole a la máquina y en dos años que ya presentarse en espacio abierta para que el público, pueda hacer pruebas.

Es decir, a la academia se necesita mucho tiempo para tomarle el pulso a la Inteligencia Artificial…

ChatGPT tiene detrás como 10 años de trabajo. Es importante saber que el trabajo con la Inteligencia Artificial toma tiempo y queremos construir bajo la lógica universitaria de servir al ciudadano común y corriente que necesita estas herramientas.

Te puede interesar:

· “La propia inteligencia artificial nos puede hacer un autogol”

· Tor: el navegador anónimo anticensura

· Tras los ataques registrados con USB: ¿Cómo protegerse de estos artefactos explosivos?