Cinco rasgos humanos necesarios para usar la IA en educación, ¿estás preparado?
- Ernesto Bañuelos
- 19 ene
- 5 Min. de lectura
Actualizado: 19 ene

Hubo un momento en la historia en que la voz dejó de pertenecer solo a su emisor y a un pequeño grupo. El día que el micrófono se conectó a un buen amplificador, el ser humano descubrió que podía hacer llegar sus pensamientos, palabras y sentimientos a miles de cuerpos al mismo tiempo.
Si has asistido al concierto de tu artista favorito, sabes a lo que me refiero: el estremecimiento de sentir cómo su voz te recorre la piel al mismo tiempo que a cien mil personas más que gritan y se emocionan contigo. Sin ese invento, nos habríamos perdido momentos memorables... pero también sabemos que muchos mítines totalitarios no habrían sido tan eficaces. Ni el micrófono ni el amplificador preguntan si el discurso era justo o peligroso. Solo lo hicieron más grande.
Ese es el sello de la tecnología: potencia nuestras capacidades, pero rara vez las corrige. La tecnología es agnóstica, no cuestiona moralidad ni verdad, solo amplifica lo que ya hacemos. Y esto nunca ha sido tan evidente como con la Inteligencia Artificial.
Aun con lo disruptiva que es, la IA sigue siendo eso: una lupa de la naturaleza humana, con sus virtudes y sus defectos por igual.
Y aquí aparece el riesgo de esta era: la trampa de la coherencia textual
La IA, por diseño, privilegia la coherencia textual por encima de cualquier otra cosa. Al generar una respuesta, busca ser impecable, convincente, elegante en su estructura, incluso cuando está equivocada. Puede sonar sabia sin serlo. Y si uno no trae algo previo en la cabeza y en el corazón, la IA no amplificará claridad, sino un vacío vestido de verdad.
La IA domina una coherencia textual muy seductora y muy lejos de la coherencia humana: párrafos que fluyen, argumentos que cierran, patrones de lenguaje perfectos… aunque vacíos.
Esto nos lleva a una reflexión antropológica y existencial:
¿qué tipo de humano necesitamos ser para usar con libertad una herramienta que no distingue entre sabiduría y coherencia textual?
A continuación propongo cinco rasgos que debiéramos buscar cultivar, por incipientes que sean, para acercarnos a la IA en la educación sin perder el norte.
Primero: humanos con criterio
Estos humanos no acuden a la IA para que les diga qué es bueno, verdadero o deseable. Llegan con una idea, aunque sea imperfecta, esperando debatirla o ampliarla.
Si no traes un criterio previo, acabarás haciendo preguntas que, a primera vista, parecen humildes, pero en realidad piden, desde la inseguridad, que alguien (¿algo?) más cargue con el peso de definir el valor de las ideas.
Preguntas como: “¿qué debo pensar sobre esto?”, “¿cuál es la postura correcta sobre X?”, “dime qué hacer acerca de Y…” delegan responsabilidad.
Práctica sugerida: Antes de preguntar, define tu marco de diálogo:
“Para este tema, lo inaceptable es X, lo deseable es Y y lo negociable es Z. Ahora, ayúdame a profundizar".
Sin ser descripciones perfectas, le ofreces a la IA (y a ti mismo) un marco. Eso ayuda a que la herramienta ordene, compare, sintetice o sugiera… en vez de decidir por ti.
Segundo: humanos capaces de tolerar la fricción
Crecer en sabiduría siempre duele un poco (o un mucho). Quien busca eliminar toda incomodidad cognitiva usará la IA solo para confirmar lo que ya quiere creer. La verdadera comprensión rara vez llega con paz inmediata; suele obligarte a revisar tu sistema de creencias.
Si la respuesta de la IA te incomoda, puede que sea porque la idea es mala... o porque te está sacando de tu zona de confort. Una persona madura examina la incomodidad; una inmadura la elimina a toda costa.
¿Cómo saber cuándo hace falta tolerancia a la fricción? Preguntas como: “dame una respuesta definitiva sobre X”, “¿cuál es la conclusión final respecto a Y?”, “haz que esto quede claro de una vez”.
Práctica sugerida: Agrega siempre una línea incómoda a tu petición:
"Dame el mejor argumento en contra de mi conclusión" o "Hazme dos preguntas que me obliguen a investigar más".
Si te irrita un poco, vas por buen camino.
Tercero: humanos con conciencia de sus sesgos
La neutralidad absoluta es un mito. Es necesario reconocer: "estoy pidiendo X porque en el fondo quiero oír Y". Este acto de honestidad reduce el poder manipulador del lenguaje coherente. Sin esto, la IA se convierte en una máquina de autoengaño que disfraza de "análisis profundo" lo que es solo una búsqueda de permiso.
Si se lo pides, la IA puede ser tu mejor abogado y construir argumentos impecables para defender casi cualquier cosa.
¿Cómo se ven tus preguntas cuando hace falta conciencia de sesgo? “Demuéstrame por qué mi decisión X es correcta.” “Dame razones para responderle a fulano así…” “Haz que esto suene bien.”
Práctica sugerida: Declara tu inclinación para ganar honestidad:
"Estoy inclinado a esta decisión; ayúdame a detectar mi punto ciego porque no quiero que mi preferencia distorsione el análisis".
Tus ideas no se volverán neutrales, serán honestas. Eso ya es mucho decir en estos tiempos.
Cuarto: humanos que distinguen medio y fin
Es fácil confundir la claridad de un concepto con su veracidad. Una respuesta puede ser brillante en su redacción y, al mismo tiempo, deshumanizante en la práctica. La IA domina la forma (el superpoder de sonar bien), pero la forma no es garantía de bondad.
No debemos rendirnos ante la primera respuesta ofrecida por la IA. Sospechar de la forma es un ejercicio de libertad. Te sugiero hacerte a ti mismo las siguientes preguntas de filtro que te ayuden con esta definición:
¿Esto es verificable o es solo una interpretación convincente?
¿A quién podría dañar si adopto esta postura?
¿Qué versión más humana (y quizás menos "perfecta") existe para esto?
El objetivo no es desconfiar de todo; es no rendirnos ante el brillo inicial de la respuesta.
Quinto: humanos con anclaje existencial
Este es el rasgo definitivo. La humanidad depende de relaciones reales, responsabilidades concretas, comunidades vivas… y de consecuencias imposibles de editar con un CTRL+Z.
La IA puede sugerirte cómo hablar con tu hijo o despedir a un empleado sin pagar el costo emocional ni sostener la mirada del otro.
Entonces, estar bien plantado en la realidad existencial te obliga a preguntarte:
¿Esto que acabo de leer se sostiene en la vida real?
¿Puedo realmente tener esta conversación sin afectar la relación con esta persona?
¿Esta acción concreta es viable en un rango de tiempo determinado?
¿Este compromiso es posible y estoy dispuesto a asumir su costo?
Si no toca nada en tu vida real, es probable que sea solo un buen texto. Y un buen texto no necesariamente es una buena decisión.
La IA es peligrosa para quien la confunde con un oráculo o una conciencia externalizada. Es, en cambio, una herramienta potentísima para quien la usa como un instrumento de exploración.
Y la pregunta que vale la pena hacernos, si queremos mantener una coherencia humana (existencial), es esta:
¿Estoy usando la IA para comprender mejor el mundo y acercarme más a la verdad… o para evitar el peso de vivir lo que ya sé?



Comentarios