La capacidad crítica del ser humano es indispensable para evitar la desinformación en un contexto digital donde es más difícil discernir qué es real y qué no. Entrevista con Pablo Escandón, especialista y docente de comunicación digital.
La revolución tecnológica actual presenta un gran desafío para el ciudadano común, que aún no está preparado para enfrentar los nuevos escenarios de la comunicación y el trabajo.
Así lo advierte el catedrático de Comunicación y Cultura Digital de la Universidad Andina Simón Bolívar Pablo Escandón, quien destaca la importancia de la capacidad crítica del ser humano frente a las nuevas generaciones de inteligencias artificiales, como ChatGPT, que siguen avanzando a pasos agigantados.
¿Cómo tiene el ciudadano de a pie contacto con las nuevas generaciones de inteligencias artificiales generativas?
Está teniendo estos contactos directamente con los procesos de construcción visual. Ahí es donde más se están situando las inteligencias artificiales, porque provenimos de una cultura muy visual. También está en la cultura textual, con el ChatGPT. En ambas culturas, la visual y la textual, siempre debemos tener un poquito más de contexto, pero en lo textual la gente recurre más a confiar en que lo que está escrito en texto es más cierto.
¿En qué sentido?
Cuando vemos algo escrito, nos lo creemos más. Cuando vemos algo visual, sí, lo vemos, lo pasamos por creíble, pero luego empezamos a dudar. Lo que no ocurre con el texto, que se supone que ya está escrito y entonces hay mayores condiciones o unos procesos intelectuales, incluso de confianza y de credibilidad, porque no todos escriben bien.
Ahí tenemos un tema de educación, de formación, de cómo la gente accede y confía en las fuentes en las que está habituada a encontrar datos y tener información. Entonces, ahí vienen estos elementos con los que ya habíamos trabajado con una inteligencia artificial inicial, que era el autocorrector de texto del programa de Word, que fue desarrollado aquí en Ecuador. En muchos casos podemos dudar e incluso el propio sistema tiene ya establecidas las formas de citación académica y cómo vamos a trabajar con ciertos documentos.
Pero no todos las utilizan.
Pero quienes las utilizan y las necesitan lo hacen siempre en contextos necesariamente verificados. Entonces, si nosotros no estamos habituados a un contexto, la propia inteligencia artificial o el propio programa nos puede hacer un autogol.
Entre estas actitudes individuales y la cultura, ¿hay consciencia en el ciudadano del desafío comunicativo que implica la nueva era de las inteligencias artificiales?
No, porque lo único que ve el ciudadano común y corriente es una utilidad, una facilidad para hacer nuevos textos, nuevas imágenes y nuevo contenido. Y está muy en común decir que ya no se van a necesitar ciertos profesionales porque ya la inteligencia artificial me lo está dando. Estaba leyendo, por ejemplo, que “ya no necesitamos a cierto tipo de abogados, asistentes legales, para que me ayuden a hacer un contrato”. Ya no lo necesitábamos de antemano porque los contratos siempre están preelaborados en la web, hay plantillas. Eso no quiere decir que ya no necesite un abogado. Yo no soy un abogado y, si hago un contrato de esa manera, tal vez esté bien, tal vez esté mal.
Depende de cómo se pregunte a la inteligencia artificial…
Sí, tengo que aprender a preguntar a la inteligencia artificial, pero es más fácil preguntarle a un profesional que preguntarle a una máquina. Hay mayor confianza porque la máquina me va a dar todo lo que encuentre libre y más rápido. Entonces, las generalidades y lo masificado va a ser lo que me entregue la máquina. Pero las particularidades no me va dar la máquina.
En el ejemplo anterior, yo necesito un contrato para mi edificio en el que tengo estos problemas; entonces, ahí viene el criterio del profesional que realiza sus propias consultas. Es como hacer la operación del cuerpo, que tiene que ver con los contextos que tengo yo, mis necesidades y mi situación física. Y, a futuro, la máquina me puede dar muchos elementos generales, pero no siempre va a atinar con lo que yo quiero y necesito.
Entonces, la inteligencia artificial sólo sirve como un referente.
Nos sirve como un referente sí, como un apoyo, sí, pero no como algo que sustituirá a algo. Ya se ha venido dando siempre en todas las evoluciones tecnológicas: lo nuevo no va a sustituir a lo anterior. Son complementos, son evoluciones que hay que manejar.
Una investigación de OpenAi, los desarrolladores de ChatGPT, señala que, a diferencia de revoluciones tecnológicas anteriores, es la primera vez que los trabajos más cualificados tendrán más exposición o riesgo de ser reemplazados y los trabajos manuales menos exposición. ¿Es tan así?
Claro, porque el algoritmo busca lo más popular, masificado. Entonces, si yo no tengo una buena visibilidad en la web, no tengo un buen SEO (acrónimo en inglés de optimización para motores de búsqueda), entonces el ChatGPT no va a encontrar las cosas que yo hago. Entonces, mi particularidad no va a a ser expresada por el ChatGPT. Entonces ahí viene el criterio de los profesores. Y eso es algo que a mí me enseñaron muy bien mis profesores de letras y castellano porque ellos identificaban claramente cómo cada uno de sus estudiantes se expresaban por escrito.
En este contexto, ¿fue apresurada la decisión de algunas escuelas públicas, como en Nueva York, de prohibir el uso de ChatGPT?
Claro, lo que mejor conviene en todas estas realidades es conocerlas, adoptarlas, convivir con ellas y tener una relación que diga: “Muy bien, ustedes pueden utilizar esto y hacer esto y vamos viendo”. Sí es interesante que en cierto tipo de escuelas y universidades están enseñando a utilizar bien las inteligencias artificiales para encontrar la información, para escribir borradores que pueden ser mejorados.
Pero si desconozco de algo y pido al ChatGPT que me mande, me va a dar en cinco minutos algo que me hubiera costado encontrar unos dos o tres días y yo tengo una orientación. Son mapas que nos ayudan a buscar información y adecuarla a las necesidades que tenemos. Pero si sólo utilizamos ese mismo mapa y lo presentamos en otro contexto, ahí vienen los errores y los problemas de desinformación, porque la gente piensa que esos mapas son aplicables a todas las realidades.
En un contexto de difusión de imágenes artificiales fijas o en movimiento con gran realismo pero falsas, por ejemplo, Donald Trump en supuesta resistencia a un arresto, ¿cómo enfrentar la desinformación?
Ahí interviene el curador. Si es un medio que está circulando eso debe respetar la fuente y contextualizarla. Pero si a los medios les interesa la instantaneidad y replican la imagen de Papa con chompa de rapero y la gente se cree. Ahí hay una lógica de que, dentro de la imagen debo poner no solamente la cita, sino la explicación. Si vivimos en una sociedad que recurre a los memes, entonces tengo que hacer un meme del Papa diciendo la información real.
Al nombrar como ‘consejero de gobierno’ a un sistema de inteligencia artificial que invita a los ciudadanos a expresar sus quejas y preocupaciones para canalizarlas a autoridades, el Primer Ministro de Rumania dijo que no es opcional, sino obligatorio tomar decisiones con inteligencia artificial. Hoy es una reflexión, pero, ¿quizás a futuro sea parte de la cotidianidad de los estados?
Dependiendo de qué información estoy alimentando. Si está exclusivamente para extraer información de los ciudadanos, claro, porque yo quiero saber quién me está pidiendo qué, para saber a quién atiendo de manera populista o de manera real y humanamente democrática. Pero también debo meter información sobre estadística y legislación. Es decir, debo tener una base de datos fuerte, expedita, “escrapeable” (facilidad de una web para sus datos puedan ser «raspados» o extraídos de la página web mediante un proceso automatizado de «scraping»), consultable e ir actualizándose cada cinco o 10 días.
Ahorita, por ejemplo, yo puedo tener información de lo que sucedió en Alausí (tragedia por un deslizamiento de tierra en la provincia de Chimborazo) en tiempo real, para saber y para que la propia máquina que aprende automáticamente me dé indicadores. Y con esos indicadores tomo decisiones, pero no dejo a la máquina que me dé las decisiones porque ahí viene el tema de para qué estamos los seres humanos.
Y en la realidad de Ecuador, ¿cómo mira la usabilidad de las páginas web de las instituciones públicas?
Siempre han estado bajas, a pesar de que hay una normativa que pide cumplir requisitos de calidad, vinculada con el World Wide Web Consortium. Pero no lo hacen porque sobre la calidad de la usabilidad está la decisión administrativa de la imagen del gobierno. Y eso viene desde el Gobierno de Rafael Correa, cuando se inició con este tema del Gobierno electrónico, que iba muy bien, pero la propaganda se impuso sobre lo técnico. Entonces no hay esos accesos y se debe cumplir con eso y ahí pueden funcionar los elementos del aprendizaje automático rápido para la toma de decisiones y el gobierno electrónico.
Y lo que siempre van a decir los que están en contra de esto es que cogen nuestros datos y se ocupan de todo. Entonces ahí la solución es que desarrollemos nuestros propios sistemas para poder satisfacer nuestras necesidades y tener el dominio e independencia sobre las empresas globales: tener un buen data center, una buena fuente de datos y poder trabajar sobre ellos. De lo contrario no, seguimos estando a expensas de otros, que nos den haciendo.
Finalmente, su recomendación para promover la alfabetización digital en Ecuador
Principalmente que veamos todo lo que se consume en medios digitales como algo que siempre hay que confirmar, de dónde viene, quién me lo envía, es confiable, parece confiable, no es confiable. Entonces ahí empiezo a dudar. Y mientras más dudas tenga más certezas voy a tener de que eso no me a afectar directamente. Si yo me lo como todo me va a afectar, pero el momento en que empiezo a verificar por mi cuenta ahí aprendo, contribuyo y detengo la desinformación.
Te puede interesar:
· Tor: el navegador anónimo anticensura
· Tras los ataques registrados con USB: ¿Cómo protegerse de estos artefactos explosivos?
· Google y Android ponen alertas sísmicas en la palma de tu mano
Comments are closed.