IA GENERATIVA Y FALSIFICACIÓN DE LA REALIDAD

Descripción general:
A través de experiencias personales y ejercicios colaborativos, esta actividad invita a reflexionar críticamente sobre los efectos de la IA generativa y las tecnologías de falsificación. Se elabora un recurso pedagógico accesible para ayudar a personas mayores a reconocer y enfrentar contenidos manipulados.
LECTURAS CRÍTICAS SOBRE LA RECOLECCIÓN DE DATOS





Descripción general:
En un contexto donde las tecnologías generativas —como deepfakes, audios clonados o imágenes artificiales— son cada vez más accesibles y sofisticadas, esta actividad propone una aproximación crítica y situada para entender sus impactos. Partiendo de experiencias reales, se reflexiona sobre cómo estas tecnologías alteran la confianza, la comunicación y la percepción de lo verdadero. Como acción concreta, se desarrolla un manual pedagógico diseñado para personas mayores, con el objetivo de que puedan reconocer señales de alerta y responder de forma crítica y acompañada ante contenidos manipulados. El ejercicio busca traducir el conocimiento técnico en herramientas accesibles y empáticas para fortalecer la alfabetización mediática.
Objetivos:
-Reflexionar sobre la expansión de las tecnologías generativas y su capacidad de crear realidades falsas convincentes.
-Conectar los efectos de estas tecnologías con vivencias personales y colectivas.
-Desarrollar un recurso pedagógico claro y accesible para fomentar pensamiento crítico y alfabetización mediática.
-Visibilizar cómo las tecnologías de falsificación afectan la confianza social, la seguridad y la comunicación intergeneracional.
Duración total estimada: 3 horas
Pasos a Seguir y Dinámicas:
Conversación inicial: ¿qué hemos visto o vivido? (45 minutos)
Se inicia con un círculo de diálogo donde cada participante comparte alguna experiencia cercana con contenidos falsos generados con IA. Se identifican patrones emocionales y sociales: ¿cómo circuló?, ¿quién lo compartió?, ¿por qué se creyó?
Discusión crítica: ¿por qué nos preocupa esto? (30 minutos)
En plenaria, se profundiza sobre las consecuencias sociales de estos contenidos: pérdida de confianza, manipulación política, violencia simbólica, afectación a personas mayores. Se valoran también las zonas grises: no todo lo generado con IA es negativo, pero sí requiere atención crítica.
Creación del “manual para nuestras abuelitas” (1 h 15 minutos)
Por equipos, se crea un recurso pedagógico accesible para personas mayores que divida la experiencia en tres etapas:
Antes: señales de alerta, cómo identificar sospechas.
Durante: criterios básicos de verificación.
Después: acciones tras haber compartido un contenido falso.
Los formatos pueden incluir cómics, diálogos, infografías, micro relatos o fanzines breves.
Puesta en común y socialización (30 minutos)
Los grupos presentan sus manuales al resto. Se evalúa su claridad, tono, utilidad y replicabilidad. Se reflexiona sobre cómo estos recursos podrían compartirse en escuelas, bibliotecas, redes familiares o centros comunitarios.
PREGUNTAS PARA CONTINUAR LA CONVERSACIÓN
- ¿Qué parte del texto fue más difícil de entender?
- ¿Sentiste que el lenguaje busca informar o confundir?
- ¿Cambió tu percepción sobre aceptar términos sin leerlos?
- ¿Cómo podemos promover mayor transparencia en estos documentos?
- ¿Qué formato te parecería más útil para entender estas políticas?
MATERIALES Y NECESIDADES
Hojas, papel kraft o cartulinas
Plumones, lápices, tijeras, pegamento
Dispositivos móviles o computadoras para búsquedas (opcional)
Acceso a ejemplos de IA generativa (deepfakes, audios clonados, etc.)
Material adicional: referencias visuales, glosario básico, ficha técnica del módulo
FICHA TÉCNICA
