Tu Hijo Vio un Deepfake Hoy. Qué Enseñarle de Verdad
Tabla de contenido

Tu Hijo Vio un Deepfake Hoy. Qué Enseñarle de Verdad

En 2025 se compartieron 8 millones de deepfakes. La mayoría de los niños no distingue el contenido de IA del real. Aquí tienes un marco de 4 conversaciones que construye escepticismo, no miedo.

En 2023, se compartieron en internet aproximadamente 500.000 deepfakes. En 2025, esa cifra llegó a unos 8 millones. Según algunas proyecciones, el 90% del contenido en línea podría ser generado de forma sintética o modificado por IA para 2026.

Tu hijo, si usa internet de alguna manera, ya se está encontrando con contenido generado por IA de forma regular — imágenes que parecen fotografiadas, audio que parece grabado, vídeo que parece filmado, texto que parece escrito por una persona. La mayoría de los niños no sabe distinguirlo.

Un estudio de 2025 citado por investigadores de Stanford encontró que el 72% de los estudiantes no podía distinguir texto generado por IA de artículos escritos por humanos, y que el 56% aceptaba como verdaderos hechos alucinados por la IA — afirmaciones presentadas con total convicción que eran completamente inventadas. No se trata de estudiantes que reprueban. Son jóvenes típicos navegando un entorno de información que cambió más rápido de lo que cualquier habilidad de alfabetización mediática podría adaptarse.

La respuesta habitual de los padres ante los deepfakes tiende a ser o bien alarma (van a ser manipulados por todo) o bien indiferencia (los niños son hábiles con la tecnología, ya lo resolverán solos). Ninguna de las dos es precisa, y ninguna es útil. La respuesta real consiste en desarrollar habilidades específicas — un conjunto de hábitos que no requieren sofisticación técnica, pero sí práctica deliberada.

Qué Son los Deepfakes — en Palabras Sencillas

Un deepfake es un contenido multimedia — imagen, vídeo, audio o texto — que ha sido generado o modificado sustancialmente por inteligencia artificial para parecer algo que no es. El término se refería originalmente a vídeos manipulados por IA (generalmente intercambiando rostros), pero en el uso común ahora incluye:

  • Imágenes generadas por IA que parecen fotografías reales de personas, eventos o lugares que no existen
  • Clonación de voz mediante IA que puede reproducir la voz de una persona específica a partir de muestras de audio limitadas
  • Síntesis de vídeo con IA que genera imágenes en movimiento de personas diciendo o haciendo cosas que nunca hicieron
  • Texto generado por IA diseñado para sonar como la escritura de una persona real, incluyendo citas falsas y “noticias” fabricadas

La tecnología que produce todo esto ha mejorado drásticamente y sigue mejorando. Lo que en 2020 requería habilidad técnica considerable en 2026 requiere una aplicación gratuita.

Los usos maliciosos son reales y vale la pena nombrarlos: desinformación política (vídeo falso de un político diciendo algo que nunca dijo), fraude financiero (llamadas con voz clonada haciéndose pasar por familiares en apuros), imágenes íntimas no consensuales (un daño específico y grave dirigido a adolescentes) y campañas de desinformación. Pero el encuentro más frecuente es más sutil: imágenes compartidas como “reales” que no lo son, citas atribuidas a personas reales que nunca dijeron, artículos en formato periodístico sobre eventos que nunca ocurrieron.

Por Qué los Niños Son Especialmente Vulnerables

Un estudio de PMC de 2025 sobre la susceptibilidad de los niños al contenido generado por IA encontró que los niños de 7 a 13 años mostraron una precisión significativamente menor que los adultos al detectar imágenes generadas por IA, incluso cuando creían estar evaluándolas con atención. El mecanismo principal no es la ingenuidad — es que los niños tienen menos experiencia con las señales visuales y lingüísticas que actualmente produce la generación por IA, y tienen menos puntos de referencia internos para preguntarse “¿esto me parece raro?”.

Un estudio de 2025 en Computers in Human Behavior sobre los encuentros de jóvenes con deepfakes encontró que la detección basada en la intuición (“esto parece falso”) era significativamente menos fiable que las técnicas de verificación sistemática en todos los grupos de edad — pero la brecha era mayor en los adolescentes, que tienden a guiarse por la impresión visual en lugar de verificar.

El informe del Parlamento Europeo de 2025 sobre niños y deepfakes señala que los adolescentes son objetivo específico del acoso basado en deepfakes, siendo las imágenes íntimas no consensuales una preocupación creciente en materia de protección en las escuelas. Los niños que no entienden lo que es técnicamente posible están peor equipados para reconocer cuándo ellos o alguien que conocen han sido víctimas.

El análisis de la UNESCO “Deepfakes y la Crisis del Conocimiento” sostiene que el problema no reside principalmente en elementos multimedia individuales — sino en que la existencia de los deepfakes erosiona la credibilidad general de todos los medios, incluyendo la documentación real. Los niños que crecen en este entorno necesitan no solo habilidades de detección, sino un hábito epistemológico más amplio: “¿Cómo sé lo que sé, y qué tan seguro debería estar?”.

Tipo de Contenido × Enfoque de Detección

Tipo de contenido de IAEncuentro frecuenteEnfoque de detecciónConversación de enseñanza
Imágenes generadas por IAPublicaciones en redes sociales, artículos de noticiasBusca: manos poco naturales, cabello que se fusiona con el fondo, rasgos asimétricos, reflejos extraños en los ojos; búsqueda inversa de imágenes para encontrar el original”Miremos las manos en esta foto — la IA suele fallar con las manos”
Texto de IA / citas falsasCitas atribuidas en redes sociales, artículos de noticias falsasBusca la fuente original; las citas de figuras públicas deben rastrearse hasta registros documentados”¿De dónde viene originalmente esta cita? Vamos a buscarla.”
Voz de IA / llamadas telefónicasLlamadas fraudulentas que se hacen pasar por un familiar en apurosEstablece una palabra clave familiar para verificar emergencias”Si alguien te llama diciendo ser yo y que está en problemas, pregúntale nuestra palabra clave”
Vídeo de IAContenido político, publicaciones viralesBusca movimiento ocular poco natural, falta de sincronía labial, inconsistencias en la iluminación; verifica la fuente y la fecha”¿Dónde se filmó esto? Veamos si este evento está documentado en otro lugar”
Artículos de “noticias” de IAEnlaces compartidos sin fuente originalVerifica la credibilidad del medio, busca múltiples fuentes que cubran el mismo evento”¿Algún medio de comunicación que conozcas ha informado sobre esto?”

El Marco de las Cuatro Conversaciones

Estas no son charlas de una sola vez — son conversaciones recurrentes, idealmente desencadenadas por encuentros reales. Cada una dura unos 10 minutos y desarrolla un hábito específico.

Conversación 1: “¿De dónde vino esto?”

La pregunta más fundamental de la alfabetización mediática. No “¿es esto real?” sino “¿a qué fuente se remonta esto?”. El contenido generado por IA y la desinformación suelen fallar ante esta pregunta: no se remontan a una fuente original, solo a compartidos.

Practícalo juntos: encuentra algo en las redes sociales — idealmente algo que tu hijo esté a punto de compartir o que le haya llamado la atención — y pregunten juntos: ¿quién lo publicó primero? ¿Cuál es la fuente original? ¿Hay algo sobre este tema en un medio de comunicación que reconozcas? El proceso, practicado de forma repetida, se convierte en un hábito.

Conversación 2: “¿Cómo sería esto si fuera real?”

Esta es la conversación sobre el estándar de evidencia. Si este evento ocurrió de verdad, ¿qué esperarías encontrar? Múltiples fuentes de noticias independientes. Vídeo desde distintos ángulos. Declaraciones oficiales. Reacciones de personas identificadas que estuvieron presentes. La ausencia de la evidencia esperada es en sí misma información.

Esta conversación funciona especialmente bien con imágenes y vídeos virales: “Si esto fuera real, ¿quién más lo habría filmado? ¿Dónde está la cobertura periodística?”. El hábito de notar lo que debería existir pero no existe es una de las herramientas más poderosas en la evaluación crítica de los medios.

Conversación 3: “¿Cómo te hace sentir esto, y por qué?”

El contenido que activa emocionalmente se propaga más rápido — es una característica del diseño del contenido viral, no un accidente. La desinformación generada por IA a menudo apunta a las respuestas emocionales porque la activación emocional reduce el escrutinio crítico.

Enseñar a los niños a notar su propia respuesta emocional como una señal para comprobar con más cuidado — no como un indicador de verdad — es uno de los hábitos de alfabetización mediática de mayor impacto. “Noto que esto te hizo sentir muy enojado. Eso vale la pena tenerlo en cuenta: las cosas que más nos convencen y más nos emocionan son a menudo las que deberíamos evaluar con más cuidado.”

Conversación 4: “¿Qué pasa si esto está equivocado?”

Esta es la pregunta consecuencialista. No toda desinformación tiene el mismo costo. Equivocarse con el marcador de un partido tiene pocas consecuencias. Creer una afirmación médica sobre tu salud tiene muchas. Compartir un vídeo falso que daña la reputación de alguien tiene muchas consecuencias para esa persona.

Enseñar a los niños a calibrar su esfuerzo de verificación según las consecuencias — a verificar con más cuidado cuando más importa — es un hábito sostenible de alfabetización mediática. Verificar todo con el mismo nivel de rigor sería agotador; verificar en proporción a las consecuencias es práctico.

Para el marco más amplio sobre cómo desarrollar habilidades de evaluación de IA, ver Enseñar a los Niños a Usar la IA como Compañero de Pensamiento y Qué Significa la Alfabetización en IA para un Niño de 10 Años.

Qué Observar Durante los Próximos 3 Meses

Semanas 2–3: Después de plantear la pregunta “¿de dónde vino esto?” una sola vez, ¿tu hijo la hace espontáneamente sobre algo que encuentra en la semana siguiente? La aplicación autónoma es el indicador adelantado de que el hábito se está formando.

Mes 2: ¿Tu hijo duda antes de compartir cosas en línea — tomándose un momento para considerar la fuente y la veracidad en lugar de reenviar de inmediato? La pausa en el comportamiento es la señal visible del proceso de evaluación interno.

Revisión del mes 3: ¿Podría tu hijo nombrar tres cosas específicas que verificar cuando no está seguro de si una imagen o un vídeo son reales? La capacidad de nombrar los pasos de verificación significa que el proceso está interiorizado y no solo escuchado una vez.

Preguntas Frecuentes

¿Debería mostrarle a mi hijo un deepfake evidente para que vea cómo son?

Sí, con ejemplos apropiados para su edad. El MIT Media Lab, el DFRLab y varias organizaciones de alfabetización mediática mantienen bibliotecas de ejemplos de deepfakes elaborados con fines educativos. Mostrarle a un niño un vídeo manipulado y analizar juntos las señales es significativamente más memorable que describirlo. Empieza con algo obviamente imperfecto (los deepfakes de los primeros tiempos solían tener artefactos muy visibles) antes de pasar a ejemplos más convincentes.

Mi hijo de 14 años recibió de un compañero una imagen suya manipulada con IA. ¿Qué hago?

Esto es un asunto grave de protección que va más allá de la alfabetización mediática. Documenta la imagen sin mostrarla más. Repórtalo a la escuela. Dependiendo de la naturaleza de la manipulación, repórtalo también a la plataforma y posiblemente a las autoridades. Las imágenes íntimas no consensuales — incluso las generadas por IA — son ilegales en un número creciente de jurisdicciones. Tu hijo necesita apoyo concreto, no solo palabras tranquilizadoras.

¿Existe una aplicación que detecte deepfakes?

Existen aplicaciones de detección (Sensity, Hive Moderation y otras), pero van por detrás de la tecnología de generación y producen tanto falsos positivos como falsos negativos. No son lo suficientemente fiables como para usarlas como herramienta de verificación principal. Los hábitos descritos anteriormente — rastreo de fuentes, estándares de evidencia, conciencia de la respuesta emocional — son más fiables ante distintos tipos de contenido y no requieren ninguna aplicación.

¿Cómo hablo de esto sin que mi hijo se vuelva paranoico con todos los medios?

El objetivo es el escepticismo apropiado, no la parálisis. Enmarca esto como una habilidad: “Ahora vivimos en un mundo donde algunas cosas en internet están hechas para parecer reales cuando no lo son. Eso no significa que todo sea falso — significa que necesitas un método.” La paranoia viene de “no puedo confiar en nada”. La evaluación crítica viene de “tengo una forma de verificar”. Enfatiza esto último.


Sobre el autor

Ricky Flores es el fundador de HIWVE Makers e ingeniero eléctrico con más de 15 años de experiencia desarrollando tecnología de consumo en Apple, Samsung y Texas Instruments. Escribe sobre cómo los niños aprenden a construir, pensar y crear en un mundo saturado de tecnología. Lee más en hiwavemakers.com.

Fuentes

  1. PMC. (2025). “Children’s susceptibility to content generated by artificial intelligence.” PMC13089802. https://pmc.ncbi.nlm.nih.gov/articles/PMC13089802/

  2. ScienceDirect. (2025). “Everyday encounters with deepfakes: young people’s media and information literacy practices with AI-generated media.” Computers in Human Behavior. https://doi.org/10.1016/j.chb.2025.108504

  3. Parlamento Europeo. (2025). “Children and deepfakes.” Briefing PE 775855. https://www.europarl.europa.eu/RegData/etudes/BRIE/2025/775855/EPRS_BRI(2025)775855_EN.pdf

  4. UNESCO. “Deepfakes and the Crisis of Knowing.” https://www.unesco.org/en/articles/deepfakes-and-crisis-knowing

  5. NC State Extension / Bertie County. (2025). “Digital Literacy for the Age of Deepfakes: Recognizing Misinformation in AI-Generated Media.” https://bertie.ces.ncsu.edu/2025/03/digital-literacy-for-the-age-of-deepfakes-recognizing-misinformation-in-ai-generated-media/

  6. KidsAITools / Stanford. (2026). “Teaching Kids to Spot AI Misinformation: Media Literacy Guide.” https://www.kidsaitools.com/en/articles/teaching-kids-to-spot-ai-misinformation

Ricky Flores
Escrito por Ricky Flores

Fundador de HiWave Makers e ingeniero eléctrico con más de 15 años de experiencia en Apple, Samsung y Texas Instruments. Escribe sobre cómo los niños aprenden a construir, pensar y crear en un mundo impulsado por la tecnología.