Antes de que podamos elegir qué leer, un algoritmo ya decidió qué mostrar. Lo vemos todos los días: cadenas de audios en WhatsApp que se viralizan sin verificación, videos editados que circulan en TikTok sin contexto, titulares sacados de época que reaparecen como si fueran de hoy. En este ecosistema, la desinformación es un subproducto de sistemas optimizados para captar nuestra atención y polarizar nuestras emociones.
Al mismo tiempo, la escuela enfrenta un desafío silencioso: comprender qué papel juegan los datos en esta nueva ecología digital. Ningún registro es neutro. Todo dato implica decisiones, recortes, supuestos. Y sin entender ese trasfondo, la alfabetización tecnológica queda reducida a un uso instrumental.
En mi rol de formador docente veo que cuando quienes aprenden se inician en el análisis de datos y en pequeñas experiencias de programación empiezan a leer la tecnología desde adentro. Ahí aparece una relación distinta con la inteligencia artificial: más crítica, más creativa, más autónoma. Por eso sostengo que estas experiencias deberían formar parte de la educación, no para formar programadores, sino para formar ciudadanos capaces de entender el lenguaje de su tiempo.
En un entorno donde modelos de IA pueden producir textos, audios e imágenes en cuestión de segundos, la frontera entre lo verdadero y lo falso deja de apoyarse en la intuición y se desplaza hacia capacidades más complejas: rastrear fuentes, entender cómo se entrenan los modelos, identificar patrones de manipulación, reconocer cuándo una pieza de contenido está hecha para movilizar nuestras emociones más que para informarnos.
Desde Uruguay, la investigadora Denise Vaillant sintetiza una preocupación extendida en la región: “El futuro de la docencia está en la tecnología, pero con un propósito pedagógico claro”. El punto es evitar que los algoritmos se transformen en una caja negra incuestionable dentro de la escuela.
Por su parte, Cristóbal Cobo, experto en educación y tecnología, advierte algo similar al analizar el impacto de la IA en la educación superior: “Quien mejor usa la IA no es el más digital, sino el que ha leído más, el que ha debatido más, el que ha sido expuesto a realidades más diversas”. La frase desmonta uno de los mitos más peligrosos de esta época: que basta con ser “nativo digital” (término cuestionable) para estar preparado.
Lo que vuelve realmente potente a una herramienta de IA es la densidad cultural, ética y crítica de quien la utiliza. Y cuando esa persona cuenta además con una comprensión técnica mínima de su funcionamiento, el potencial se amplifica de manera significativa.
Entonces, ¿qué debería significar “estar alfabetizado en IA”?
En un país atravesado por desigualdades profundas de conectividad, equipamiento y capital cultural, una política de alfabetización en IA que se limite sólo a la destreza técnica corre el riesgo de ampliar aún más la brecha entre quienes sólo consumen tecnología y quienes la comprenden y la discuten.
Estar alfabetizada o alfabetizado en IA debería implicar, como mínimo:
Saber leer plataformas: reconocer que no son neutras, identificar sus reglas de juego, comprender qué modelo económico las sostiene y cómo condicionan la experiencia escolar.
Comprender el ciclo de los datos: qué se registra, quién lo procesa, con qué garantías de privacidad, qué derechos tenemos sobre esos datos y cómo exigirlos.
Ejercer un pensamiento crítico robusto frente a la información y la desinformación: con articulación de las competencias científicas y tecnológicas que señalan autoras como Melina Furman —la capacidad de buscar evidencias, cuestionarlas, revisar cómo sabemos lo que creemos saber— con una lectura política del ecosistema mediático.
Entender la lógica básica de los algoritmos contemporáneos: qué es el aprendizaje automático, por qué los modelos pueden ser opacos, cómo operan los sesgos y qué significa exigir explicabilidad cuando una decisión automatizada nos afecta.
Aprender a diseñar instrucciones e interacciones con agentes de IA generativa: formular pedidos claros, aportar el contexto necesario y orientar la atención del modelo sin perder el control de la conversación. Esto incluye evitar que la IA direccione nuestro pensamiento cuando no lo buscamos y usar la interacción como herramienta de análisis sin sustituir el juicio propio.
Sin embargo, la conversación sobre IA en educación todavía se mueve entre dos polos opuestos: por un lado, el entusiasmo casi acrítico por “la escuela del futuro”, y por otro, la añoranza por un aula sin pantallas. Ninguna de estas posiciones alcanza a comprender la complejidad del momento actual. La IA ya convive con las prácticas docentes y, como recuerda Paulo Freire, el problema nunca fue la herramienta en sí misma —y en este caso hablamos de una metatecnología— sino el sentido pedagógico que la orienta y las habilidades requeridas, de quienes la utilizan.
(*) Por Juan Pablo Neveu – Formador en IA Generativa

















