Cómo enseñar a los niños a evaluar lo que dice la IA: la habilidad de pensamiento crítico que las escuelas ignoran
Tabla de contenido

Cómo enseñar a los niños a evaluar lo que dice la IA: la habilidad de pensamiento crítico que las escuelas ignoran

Los niños ya saben cómo pedirle cosas a la IA. Lo que no saben es cómo verificar lo que les da. Aquí te explicamos qué es la lectura lateral, por qué importa y cómo enseñarla en casa.

Tu hijo ya le agarró la onda a ChatGPT. Sabe cómo pedirle que escriba un cuento en voz de pirata, que resuma un capítulo en bullets, o que le explique la fotosíntesis de tres formas distintas hasta que una le entre. Eso está muy bien — es una habilidad real. Pero nomás es la mitad del trabajo. La otra mitad — la que casi ninguna escuela está enseñando — es saber qué hacer una vez que la IA responde. ¿Cómo la verificas? ¿Cómo sabes cuándo está mal? ¿Cómo sabes cuándo está sutilmente mal, que es mucho más peligroso que cuando se equivoca de forma obvia? Enseñar a los niños a evaluar lo que produce la IA puede ser la habilidad de pensamiento crítico más importante de la próxima década, y en la mayoría de las escuelas K-12 simplemente no existe.

El problema: fluidez sin verificación

Aquí está la brecha. Los niños están aprendiendo a usar herramientas de IA a un ritmo que ha sorprendido a investigadores, maestros y papás por igual. La encuesta de 2025 de Common Sense Media encontró que la mayoría de los adolescentes usa herramientas de IA al menos una vez por semana, y aproximadamente un tercio las usa regularmente para la escuela. Las herramientas están disponibles, son fáciles de usar y muchas veces de verdad ayudan.

Lo que no va al mismo ritmo es la parte evaluativa. Un estudio de 2021 de Breakstone, McGrew, Smith, Ortega y Wineburg, publicado en PNAS, evaluó a 3,446 estudiantes de preparatoria en 14 estados de EE. UU. sobre su capacidad de evaluar información en línea. Los resultados fueron impactantes: la mayoría de los estudiantes no podía distinguir de forma confiable entre fuentes creíbles y fuentes poco confiables. Evaluaban los sitios web según su apariencia visual, confiaban en logotipos que se veían oficiales, y leían las fuentes de arriba a abajo sin verificarlas lateralmente con referencias independientes.

Ese estudio se hizo antes de que los modelos de lenguaje grandes se volvieran herramientas del día a día. El problema que identificó solo se ha agudizado desde entonces. Los resultados de la IA tienen una característica específica que los hace más difíciles de evaluar que una página web normal: son fluidos. Se leen bien. Son coherentes y gramáticamente seguros. Llegan sin las señales visuales —formato raro, dominios desconocidos, sin firma de autor— que a veces le avisan a un lector cuidadoso que no confíe en una página. Una IA que está equivocada no parece equivocada. Se ve igual que todo lo demás que genera, que la mayoría del tiempo sí está bien.

Esto es lo que CISA (la Agencia de Ciberseguridad e Infraestructura de EE. UU.) señaló en su guía de 2024 sobre IA y desinformación: el contenido generado por IA es cada vez más difícil de distinguir del contenido humano, y esa dificultad se extiende a los datos concretos. El riesgo no se limita a los deepfakes o los medios sintéticos. Incluye el resumen seguro e incorrecto que un niño entrega como tarea.

Los estándares de alfabetización en IA del ISTE 2024 identifican “evaluar críticamente el resultado de la IA” como una de las seis competencias clave para los estudiantes. El problema es que los estándares y los planes de estudio son dos cosas distintas. Un estándar dice lo que los estudiantes deben saber hacer. Un plan de estudios le dice a los maestros cómo enseñarlo, cuándo y a través de qué actividades. Para 2024, muy pocos distritos tienen un plan de estudios claro y estructurado para evaluar los resultados de la IA. Los papás están básicamente solos.

Lo que dice la investigación

El cuerpo de investigación más útil sobre este tema no viene de estudios sobre IA —esos todavía son jóvenes— sino de la investigación sobre razonamiento cívico en línea desarrollada durante la última década en el Stanford History Education Group (SHEG), dirigido por Sam Wineburg.

Wineburg y sus colegas pasaron años estudiando cómo distintas personas evalúan la información en línea. Su artículo de 2022 en Science, escrito con Joel Breakstone y Mark Smith, introdujo un marco que distingue dos enfoques: la lectura vertical y la lectura lateral.

La lectura vertical es lo que hace la mayoría de los estudiantes. Abren una fuente, la leen con cuidado de arriba a abajo y la evalúan según lo que ella misma dice de sí —la página “Acerca de”, las credenciales mencionadas, el tono. Este enfoque es intuitivo y parece completo. Pero es poco confiable. Una fuente que dice ser confiable puede no serlo. Evaluar una fuente solo con base en lo que ella misma dice no puede detectar sesgos, errores o inventos que la fuente no reconoce.

La lectura lateral es lo que hacen los verificadores profesionales de datos. En lugar de leer una fuente de arriba a abajo, abren de inmediato nuevas pestañas y buscan qué dicen otros sobre esa fuente. Buscan corroboración independiente antes de comprometerse a leerla a fondo. Tratan la fuente como una afirmación que hay que verificar, no como un documento que hay que entender.

La investigación de Wineburg encontró que los verificadores profesionales eran dramáticamente más rápidos y precisos que los profesores universitarios y los estudiantes para evaluar la confiabilidad de las fuentes — no porque supieran más, sino porque usaban la lectura lateral. La habilidad que se ponía a prueba no era el conocimiento de la materia; era el método epistémico.

El estudio de McGrew et al. de 2018 en Social Education aplicó este marco específicamente a estudiantes y encontró que la lectura lateral puede enseñarse. Los estudiantes de preparatoria que recibieron instrucción explícita en lectura lateral superaron a los grupos de control en tareas de evaluación de fuentes, incluyendo fuentes nuevas que no habían visto durante el entrenamiento.

La traducción a la evaluación de resultados de IA es directa, pero requiere un paso adicional. Con una página web, la lectura lateral significa verificar quién creó la fuente. Con los resultados de la IA, la fuente es el modelo mismo — y el modelo no sabe si está equivocado. Entonces la lectura lateral de los resultados de la IA significa: identifica las afirmaciones específicas que se hacen, y luego verifica esas afirmaciones en fuentes independientes antes de tratarlas como hechos.

Esto es diferente a la habilidad que se enseña normalmente de “verificar tus fuentes”. Es más específico y más activo. No se trata de citar referencias — las herramientas de IA ahora generan referencias, muchas veces inventadas. Se trata de verificar de forma independiente el contenido de las afirmaciones, sin confiar en la fluidez de la presentación.

El marco de alfabetización en IA del WEF 2024 para la educación lo dice explícitamente: la alfabetización en IA no es solo la capacidad de usar herramientas de IA de forma efectiva; incluye la capacidad de reconocer las limitaciones de esas herramientas y las condiciones bajo las cuales no se debe confiar en sus resultados. La verificación se identifica como un componente central de la alfabetización, no como algo avanzado u opcional.

Enfoque de evaluaciónQué verifica¿Confiable para la IA?Tiempo requerido
Lectura verticalCoherencia interna, calidad de escritura, credenciales declaradasNo — la IA es fluida aunque esté equivocadaBajo
Confiar en las citasSi existen las referenciasNo — la IA inventa citasBajo
Búsqueda puntualSi otra fuente está de acuerdoA veces — depende de la fuente elegidaMedio
Lectura lateralQué dicen múltiples fuentes independientes sobre la afirmaciónSí — el método más confiableMedio-Alto
Revisión por experto del áreaSi una persona con conocimiento confirma la afirmaciónSí — el más confiable en generalAlto

Qué hacer en la práctica

La buena noticia: la lectura lateral es una habilidad, y las habilidades se enseñan. No requiere ninguna tecnología especial. Requiere práctica y un cambio en el comportamiento por defecto — de “leer y confiar” a “leer y luego verificar”.

Empieza con la prueba del “dato raro”

Toma una respuesta de la IA sobre cualquier tema que tu hijo conozca algo y busca una afirmación factual específica — una fecha, un nombre, un número, una relación de causa y efecto. Luego pregunta: ¿cómo comprobarías si eso es cierto? Sin volver a ver la IA. Abre un buscador y encuentra dos fuentes que confirmen o descarten de forma independiente esa afirmación específica. Este ejercicio no se trata de desconfiar de la IA. Se trata de construir un reflejo de verificación. Hazlo una vez por semana con cualquier contenido generado por IA, hasta que se vuelva automático.

Enséñale la diferencia entre sonar seguro y estar correcto

Las herramientas de IA expresan la incertidumbre de forma inconsistente. A veces matizan (“Esto puede variar según…”). La mayoría de las veces no. Una afirmación entregada sin matices no es una afirmación verificada — es un resultado fluido. Ayuda a tu hijo a notar esto tomando una respuesta de la IA y preguntando: ¿qué tan segura suena la IA? ¿Y qué tan seguros debemos estar nosotros? ¿Qué se necesitaría para averiguarlo con certeza? El objetivo es desconectar la confianza percibida de una afirmación de la confianza interna del niño en esa afirmación.

Practica el ejercicio de la cita inventada

Esto es incómodo pero necesario. Pídele a una herramienta de IA que dé referencias para una afirmación que hizo. Luego — y este es el paso clave — busca esas referencias. Verifica que la revista, el autor, el año y el hallazgo descrito correspondan a una publicación real. Muchas no van a corresponder. Los niños que hacen este ejercicio una vez tienden a recordarlo para siempre. La experiencia de encontrar una cita segura y bien formateada que no existe es más instructiva que cualquier plática sobre las limitaciones de la IA. Para más contexto sobre cómo la IA afecta los hábitos de información de los niños, revisa el artículo sobre la IA y el aprendizaje del cerebro.

Practica la descomposición de afirmaciones

El texto fluido de la IA disimula cuántas afirmaciones distintas contiene. Entrena a tu hijo para que lea un párrafo de IA y liste cada afirmación verificable por separado. Un solo párrafo puede contener cinco o seis aserciones fácticas distintas. Tratar cada una como algo que necesita verificación individual es diferente a evaluar el párrafo en conjunto, que se lee de forma coherente y por eso se siente confiable. Esta es una habilidad de escritura y lectura tanto como de IA — aplica para evaluar cualquier fuente compleja.

Construye el hábito de lectura lateral de forma específica

Enseña la frase: “¿Qué dicen otras fuentes sobre esto?” No “¿hay alguna otra fuente que esté de acuerdo?” sino “¿qué dicen las fuentes independientes?” La distinción importa. Encontrar coincidencia no verifica una afirmación si ambas fuentes vienen del mismo origen. La verdadera lectura lateral significa encontrar corroboración independiente — fuentes que llegaron a la misma conclusión a través de métodos o evidencia diferentes. Muéstrale a tu hijo cómo se ve abrir tres pestañas y verificar, en lugar de leer una sola fuente a profundidad. Para más sobre cómo construir habilidades de razonamiento con IA en los niños, el artículo sobre enseñar a los niños a usar la IA como compañero de pensamiento cubre la habilidad complementaria.

Usa el escepticismo estructurado, no la desconfianza generalizada

El objetivo es una confianza calibrada, no la sospecha por reflejo. Algunos resultados de la IA merecen confianza fácilmente — el punto de ebullición del agua, el año en que se publicó una novela famosa. Otros requieren verificación — datos políticos, afirmaciones científicas en áreas debatidas, estadísticas, causalidad histórica. Enseña a los niños a preguntar: ¿qué tipo de afirmación es esta y cuánta verificación independiente necesita? Construir este hábito metacognitivo es más duradero que cualquier lista de debilidades de la IA, porque se adapta a medida que las herramientas cambian.

Qué observar en los próximos 3 meses

Fíjate cómo responde tu hijo cuando le preguntas de dónde sacó un dato. Si la respuesta siempre es “la IA lo dijo” sin ninguna verificación secundaria, ese es el problema que estamos tratando. No es una falla moral — es el comportamiento por defecto que fomentan las herramientas, porque un resultado fluido y seguro no da señales de que necesita ser verificado.

Observa también cómo describen las escuelas sus políticas de IA. La mayoría de las políticas actuales se enfocan en si los estudiantes usaron IA, no en cómo evaluaron lo que produjo. Una escuela que prohíbe completamente el uso de IA está atacando el problema más fácil. Una escuela que enseña a los estudiantes a verificar los resultados de la IA está atacando el más difícil y el más duradero.

Tanto el ISTE como el WEF anticipan que la evaluación de resultados de IA se convertirá en un estándar de alfabetización — de la misma forma que la citación de fuentes se convirtió en una habilidad estándar de investigación en los años 90. El período en el que los papás pueden adelantarse a esto, antes de que se evalúe formalmente, probablemente sea los próximos dos o tres años. Los niños que ya hayan construido el hábito de lectura lateral antes de que sea obligatorio tendrán una ventaja estructural.

Preguntas frecuentes

¿En qué se diferencia evaluar los resultados de la IA de la evaluación normal de fuentes?

La evaluación de fuentes estándar pregunta si una fuente es confiable. Evaluar los resultados de la IA pregunta si las afirmaciones en el resultado son precisas — lo que requiere lectura lateral (verificar las afirmaciones contra fuentes independientes), no solo evaluar la credibilidad de la IA en sí misma. La IA siempre es “creíble” en el sentido de ser una herramienta conocida y ampliamente usada. Eso no te dice nada sobre si un resultado específico es preciso.

¿A qué edad pueden los niños empezar a aprender la lectura lateral?

La investigación de Breakstone y Wineburg se ha aplicado a estudiantes desde secundaria (grados 6-8) con buenos resultados. El concepto central — “mira qué dicen otras fuentes” — puede introducirse incluso antes, en primaria, de forma simplificada: “verifiquemos si dos lugares más dicen lo mismo”.

¿Qué pasa si la escuela de mi hijo promueve activamente el uso de la IA sin enseñar verificación?

Ese es el estado actual en la mayoría de las escuelas. Puedes plantear la pregunta directamente con los maestros o directivos — preguntando específicamente si las herramientas de IA que se usan incluyen instrucción en verificación de resultados. Mientras tanto, las prácticas en casa descritas en este artículo son suficientes para construir el hábito sin apoyo escolar.

¿Los niños deben desconfiar completamente de la IA?

No. La desconfianza generalizada y no específica no construye habilidades útiles. El escepticismo calibrado — saber qué afirmaciones verificar y cómo — es más útil que la confianza ciega o la desconfianza total. Muchos resultados de la IA son precisos. El objetivo es saber distinguir.

¿Cómo sé si mi hijo realmente aprendió esto?

Ponlo a prueba. Dale un párrafo generado por IA y pídele que encuentre una afirmación que podría estar mal. Luego observa su proceso. ¿Busca de forma independiente? ¿Busca más de una fuente confirmadora? ¿Reporta con evidencia específica en vez de “no encontré nada malo”? El proceso es la habilidad — el resultado de la búsqueda es secundario.

¿La lectura lateral es una habilidad que aplica más allá de la IA?

Sí — este es uno de los hallazgos más sólidos de la investigación de Wineburg. Los estudiantes que aprenden la lectura lateral como una habilidad para evaluar la IA la aplican para evaluar publicaciones en redes sociales, artículos de noticias y resúmenes de investigación. No es específica de la IA; es un hábito epistémico que hace a los estudiantes mejores consumidores de toda la información.


Sobre el autor

Ricky Flores es el fundador de HiWave Makers e ingeniero eléctrico con más de 15 años de experiencia desarrollando tecnología de consumo en Apple, Samsung y Texas Instruments. Escribe sobre cómo los niños aprenden a construir, pensar y crear en un mundo dominado por la tecnología. Lee más en hiwavemakers.com.

Fuentes

  • Breakstone, J., McGrew, S., Smith, M., Ortega, T., & Wineburg, S. (2021). “Students’ civic online reasoning: A national portrait.” PNAS, 118(39). https://doi.org/10.1073/pnas.2108870118
  • Wineburg, S., Breakstone, J., & Smith, M. (2022). “Lateral reading and the nature of expertise: Reading less and learning more when evaluating digital information.” Science, 374(6572). https://doi.org/10.1126/science.abm8613
  • McGrew, S., Ortega, T., Breakstone, J., & Wineburg, S. (2018). “The challenge that’s bigger than fake news: Civic reasoning in a social media environment.” Social Education, 82(6), 316–322.
  • ISTE. (2024). AI Literacy Standards for K-12 Students. International Society for Technology in Education.
  • CISA. (2024). AI and Misinformation: What You Need to Know. Cybersecurity and Infrastructure Security Agency.
  • World Economic Forum. (2024). AI Literacy Framework for Education. WEF Global Coalition for Digital Safety.
  • Common Sense Media. (2025). AI Use Among Teens and Tweens: 2025 Survey Report.
Ricky Flores
Escrito por Ricky Flores

Fundador de HiWave Makers e ingeniero eléctrico con más de 15 años trabajando en proyectos con Apple, Samsung, Texas Instruments y otras empresas Fortune 500. Escribe sobre cómo los niños aprenden a construir, pensar y crear en un mundo impulsado por la tecnología.