IA GENERATIVA Y FALSIFICACIÓN DE LA REALIDAD

Descripción general:

A través de experiencias personales y ejercicios colaborativos, esta actividad invita a reflexionar críticamente sobre los efectos de la IA generativa y las tecnologías de falsificación. Se elabora un recurso pedagógico accesible para ayudar a personas mayores a reconocer y enfrentar contenidos manipulados.

LECTURAS CRÍTICAS SOBRE LA RECOLECCIÓN DE DATOS

Descripción general:

En un contexto donde las tecnologías generativas —como deepfakes, audios clonados o imágenes artificiales— son cada vez más accesibles y sofisticadas, esta actividad propone una aproximación crítica y situada para entender sus impactos. Partiendo de experiencias reales, se reflexiona sobre cómo estas tecnologías alteran la confianza, la comunicación y la percepción de lo verdadero. Como acción concreta, se desarrolla un manual pedagógico diseñado para personas mayores, con el objetivo de que puedan reconocer señales de alerta y responder de forma crítica y acompañada ante contenidos manipulados. El ejercicio busca traducir el conocimiento técnico en herramientas accesibles y empáticas para fortalecer la alfabetización mediática.

Objetivos:

-Reflexionar sobre la expansión de las tecnologías generativas y su capacidad de crear realidades falsas convincentes.

-Conectar los efectos de estas tecnologías con vivencias personales y colectivas.

-Desarrollar un recurso pedagógico claro y accesible para fomentar pensamiento crítico y alfabetización mediática.

-Visibilizar cómo las tecnologías de falsificación afectan la confianza social, la seguridad y la comunicación intergeneracional.

Duración total estimada: 3 horas

Pasos a Seguir y Dinámicas:

Conversación inicial: ¿qué hemos visto o vivido? (45 minutos)
Se inicia con un círculo de diálogo donde cada participante comparte alguna experiencia cercana con contenidos falsos generados con IA. Se identifican patrones emocionales y sociales: ¿cómo circuló?, ¿quién lo compartió?, ¿por qué se creyó?

Discusión crítica: ¿por qué nos preocupa esto? (30 minutos)
En plenaria, se profundiza sobre las consecuencias sociales de estos contenidos: pérdida de confianza, manipulación política, violencia simbólica, afectación a personas mayores. Se valoran también las zonas grises: no todo lo generado con IA es negativo, pero sí requiere atención crítica.

Creación del “manual para nuestras abuelitas” (1 h 15 minutos)
Por equipos, se crea un recurso pedagógico accesible para personas mayores que divida la experiencia en tres etapas:

Antes: señales de alerta, cómo identificar sospechas.

Durante: criterios básicos de verificación.

Después: acciones tras haber compartido un contenido falso.
Los formatos pueden incluir cómics, diálogos, infografías, micro relatos o fanzines breves.

Puesta en común y socialización (30 minutos)

Los grupos presentan sus manuales al resto. Se evalúa su claridad, tono, utilidad y replicabilidad. Se reflexiona sobre cómo estos recursos podrían compartirse en escuelas, bibliotecas, redes familiares o centros comunitarios.

PREGUNTAS PARA CONTINUAR LA CONVERSACIÓN

  • ¿Qué parte del texto fue más difícil de entender?

  • ¿Sentiste que el lenguaje busca informar o confundir?

  • ¿Cambió tu percepción sobre aceptar términos sin leerlos?

  • ¿Cómo podemos promover mayor transparencia en estos documentos?

  • ¿Qué formato te parecería más útil para entender estas políticas?

MATERIALES Y NECESIDADES

Hojas, papel kraft o cartulinas

Plumones, lápices, tijeras, pegamento

Dispositivos móviles o computadoras para búsquedas (opcional)

Acceso a ejemplos de IA generativa (deepfakes, audios clonados, etc.)

Material adicional: referencias visuales, glosario básico, ficha técnica del módulo

DESCARGABLES Y EDITABLES

FICHA TÉCNICA

Power your creative ideas with pixel-perfect design and cutting-edge technology. Create your beautiful website with Zeen now.