
Vol. 12/ Núm. 4 2025 pág. 2710
https://doi.org/10.69639/arandu.v12i4.1846
Chatbots como mediación didáctica para el fortalecimiento
del pensamiento crítico universitario
Chatbots as educational tools for strengthening critical thinking in universities
David Andres Ordoñez Arcos
davida.ordoniez@upec.edu.ec
https://orcid.org/0009-0000-9236-2807
Universidad Politécnica Estatal del Carchi
Ecuador – Tulcán
Adrián Alexander Valverde Obando
adrian.valverde@upec.edu.ec
https://orcid.org/0000-0003-0304-8950
Universidad Politécnica Estatal del Carchi
Ecuador – Tulcán
Artículo recibido: 10 noviembre 2025 -Aceptado para publicación: 18 diciembre 2025
Conflictos de intereses: Ninguno que declarar.
RESUMEN
La rápida llegada de la Inteligencia Artificial Generativa (IAG) a las aulas universitarias ha
encendido una discusión intensa, que oscila entre el temor a que los docentes sean reemplazados
y el entusiasmo por una oportunidad única para innovar. En este trabajo, exploramos a fondo
cómo los chatbots, actuando como mediadores didácticos, influyen en el pensamiento crítico de
los estudiantes, desafiando la idea común de que la tecnología nos vuelve pasivos. Utilizando una
metodología mixta, encuestamos a una muestra representativa de 352 estudiantes y conversamos
en profundidad con 5 docentes expertos en tecnología educativa. Los datos cuentan una historia
interesante: el 78.4% de los estudiantes no usa la IA para saltarse el esfuerzo mental, sino para
desafiar sus propios argumentos y cazar errores, lo que afina notablemente su capacidad de
análisis. Por su parte, los profesores ya no ven a la IA como un rival, sino como un andamio
cognitivo que les libera tiempo para enseñar ética y habilidades complejas. Es por ello que el
chatbot fomenta una cultura de verificación y debate, reafirmando que el docente es un mentor
insustituible en esta era digital.
Palabras clave: chatbots, pensamiento crítico, educación superior, mediación didáctica,
inteligencia artificial
ABSTRACT
The rapid arrival of Generative Artificial Intelligence (GenAI) in university classrooms has
sparked an intense discussion, oscillating between the fear of teachers being replaced and the
enthusiasm for a unique opportunity to innovate. In this work, we thoroughly explore how

Vol. 12/ Núm. 4 2025 pág. 2711
chatbots, acting as didactic mediators, influence students' critical thinking, challenging the
common idea that technology makes us passive. Using a mixed methodology, we surveyed a
representative sample of 352 students and held in-depth discussions with 5 teachers who are
experts in educational technology. The data tells an interesting story: 78.4% of students do not
use AI to "skip" mental effort, but to challenge their own arguments and hunt for errors,
remarkably sharpening their analytical capacity. For their part, teachers no longer see AI as a
rival, but as a "cognitive scaffold" that frees up time for them to teach ethics and complex skills.
In conclusion, if used with guidance and purpose, chatbots foster a culture of verification and
debate, reaffirming that the teacher is an irreplaceable mentor in this digital age.
Keywords: chatbots, critical thinking, higher education, didactic mediation, artificial
intelligence
Todo el contenido de la Revista Científica Internacional Arandu UTIC publicado en este sitio está disponible bajo
licencia Creative Commons Atribution 4.0 International.

Vol. 12/ Núm. 4 2025 pág. 2712
INTRODUCCIÓN
La educación universitaria está viviendo uno de sus cambios más profundos con la
integración de la Inteligencia Artificial (IA). Herramientas como ChatGPT, Gemini o Claude han
dejado de ser simples novedades tecnológicas para convertirse en compañeros diarios de estudio.
Sin embargo, este cambio trae consigo una inquietud válida: ¿Nos está llevando esta tecnología a
una "pereza mental" donde dejamos que la máquina piense por nosotros, o, por el contrario, nos
está ayudando a pensar mejor y más rápido? (Barshay, 2025).
El pensamiento crítico no se trata solo de acumular datos, sino de tener la disciplina para
cuestionar, analizar y evaluar esa información. Investigaciones recientes están cambiando nuestra
forma de ver la relación entre humanos y máquinas, sugiriendo que los chatbots pueden ser
verdaderos "socios de pensamiento" que mejoran el compromiso estudiantil y la personalización
del aprendizaje (Nguyen et al., 2024). Un experimento de 2025 mostró que los estudiantes que
debaten conceptos complejos con una IA —usándola para refutar argumentos— mejoran su lógica
mucho más que aquellos que estudian de forma tradicional (Mabrouk, 2025). Esto contradice la
visión pesimista que asocia la IA solo con el plagio o el mínimo esfuerzo, evidenciando un
potencial transformador en las estrategias pedagógicas contemporáneas (Fariño Holguín, 2025).
Aun así, la opinión de los profesores es variada. Mientras algunos temen perder su
relevancia en el aula, la tendencia académica sugiere que el rol del docente se está transformando,
no desapareciendo. En este nuevo escenario, la IA se encarga de lo básico como corregir
gramática o dar feedback inmediato permitiendo que el profesor se dedique a lo que realmente
importa: la mentoría ética, el desarrollo emocional y el contexto humano del conocimiento
(Molina Cobo, 2025). Dentro de la investigación creemos que cuando la IA se equivoca o alucina,
no es un fallo fatal, sino una lección valiosa. Esa posibilidad de error obliga al estudiante a
verificar todo rigurosamente, desarrollando un escepticismo saludable que rara vez se activa
frente a un libro de texto (Parreño et al., 2024).
Esta investigación busca dos cosas importantes: primero, medir con datos si el uso guiado
de chatbots realmente mejora el análisis y la argumentación en los estudiantes; y segundo,
entender desde la voz de los docentes si ven estas herramientas como una ayuda real o como una
amenaza a su labor pedagógica.
MATERIALES Y MÉTODOS
La investigación es mixta, al recolectar y analizar datos cuantitativos y cualitativos de
manera simultánea, pudimos contrastar la objetividad de las métricas de desempeño con la riqueza
interpretativa de la experiencia docente, logrando una validación cruzada que robustece las
conclusiones. El escenario de este estudio fue la Universidad Politécnica Estatal del Carchi
(UPEC) durante el primer semestre académico de 2025A. Esta institución, caracterizada por su
ubicación fronteriza y su población estudiantil multicultural, ofreció un ecosistema diverso y

Vol. 12/ Núm. 4 2025 pág. 2713
tecnológicamente receptivo, ideal para evaluar el impacto de herramientas digitales en entornos
educativos reales y dinámicos.
Población y Muestra
Para la parte cuantitativa, seleccionamos una muestra aleatoria de 352 estudiantes de la
Facultad de Comercio Internacional, Integración, Administración y Economía Empresarial.
Para la parte cualitativa, elegimos cuidadosamente a 5 docentes a tiempo completo.
buscamos a aquellos con al menos 2 años de experiencia y que en el proceso enseñanza
aprendizaje ya hubieran usado IA en sus clases durante el último año.
Instrumentos de Recolección de Datos
Encuesta de Mediación Cognitiva con IA (EMCIA): Creamos un cuestionario validado
por expertos (con una fiabilidad alta, Alpha de Cronbach = 0.89). Usamos una escala para
preguntarles a los estudiantes sobre su capacidad de argumentar, sus hábitos para verificar fuentes
y si sentían que dependían demasiado de la tecnología.
Entrevistas a Profundidad: Conversamos con los docentes sobre tres temas clave tales
como: ¿Realmente sirve la IA para enseñar?, ¿Cómo cambia su trabajo como profesores? y ¿Qué
desafíos éticos ven en el día a día?
Procedimiento
Realizamos una intervención en clase durante 8 semanas. Los estudiantes usaron chatbots
(como ChatGPT-4 y Gemini) para preparar debates. La regla era clara: no podían usar la IA para
escribir sus ensayos finales. En su lugar, debían usarla en modo Simulación Socrática que quiere
decir que se realiza un diálogo guiado con preguntas y respuestas para ayudar a los participantes
a reflexionar, analizar y llegar por sí mismos a una conclusión, donde la IA actuaba como un
oponente que atacaba sus ideas, obligándoles a defenderse, encontrar fallos en su lógica y verificar
datos. Al final, analizamos los resultados estadísticos con SPSS.
RESULTADOS Y DISCUSIÓN
Lo que encontramos es alentador y rompe con varios mitos sobre la pasividad de los
estudiantes, reafirmando al mismo tiempo que el docente sigue siendo indispensable.
Análisis Cuantitativo: Impacto en el Estudiante
Los datos de los 352 estudiantes muestran que debatir con chatbots fortaleció sus
habilidades críticas mucho más que solo buscar información en Google. A continuación,
desglosamos los resultados para ver la magnitud real del impacto.
Tabla 1
Distribución de frecuencias y conteo de personas sobre el uso del Chatbot
Dimensión
Evaluada
De
Acuerdo
(%)
N°
Personas
Neutral
(%)
N°
Personas
En
Desacuerdo
(%)
N°
Personas
Media
(SD)
Identificación
de errores
lógicos propios
84.3% 297 10.5% 37 5.2% 18 4.2
(0.8)

Vol. 12/ Núm. 4 2025 pág. 2714
Verificación
obligatoria por
inconsistencias
78.4% 276 12.2% 43 9.4% 33 4.0
(0.9)
Disminución del
pensamiento
propio
11.6% 41 15.3% 54 73.1% 257 1.8
(1.1)
Tutor 24/7 para
conceptos
complejos
89.2% 314 6.8% 24 4.0% 14 4.5
(0.6)
Fuente: Elaboración propia.
Para entender mejor estos números vemos que 297 estudiantes (la gran mayoría) sintieron
que la herramienta les sirvió como un espejo para ver sus propios errores de lógica, mientras que
solo 18 no lo vieron así. Además, es clave notar que 257 estudiantes rechazaron la idea de que la
IA les hace pensar menos. Al contrario, 276 alumnos dijeron que, como la IA a veces se equivoca,
se sentían obligados a verificar la información. Esto es crucial que el estudiante deja de ser un
receptor pasivo y se convierte en un verificador activo, una habilidad vital hoy en día.
Tabla 2
Comparativa de Autopercepción de Competencias (Pre y Post uso de IA)
Competencia
Nivel Percibido
Pre-IA (Escala 1-
10)
Nivel Percibido
Post-IA (Escala 1-
10)
Variación
positiva
(%)
Estructuración de
argumentos 6.2 8.1 30.6%
Detección de falacias 5.8 7.9 36.2%
Creatividad en
resolución de
problemas
6.5 8.3 27.7%
Redacción académica
autónoma 7.0 7.4 5.7%
Fuente: Elaboración propia.
Para entender estos números de forma sencilla pedimos a los estudiantes que se pusieran
una nota del 1 al 10 en sus habilidades antes de empezar en la investigación |y otra al terminar.
Lo que descubrió que su capacidad para escribir textos mejoró de forma modesta (5.7%), su
habilidad para detectar mentiras o errores lógicos (detectar falacias) dio un salto enorme del
36.2%. ¿Qué significa esto? Que el uso de la IA no los volvió menos críticos, sino más agudos y
analíticos. No usaron la tecnología para que escribiera por ellos, sino para entrenar su cerebro,
confirmando lo que dicen estudios como los de Deng & Yu (2023). El verdadero valor está en la
interacción, no en el copiado.
Análisis Cualitativo la perspectiva docente
Las entrevistas con los 5 docentes revelaron un cambio de mentalidad profundo: pasaron
del miedo inicial a ver la IA como una herramienta pragmática y ética.
Tabla 3
Matriz de Categorización de Entrevistas a Docentes (n=5)
Categoría Subcategoría Citas Textuales Representativas Interpretación del
Investigador
Rol
Docente
No Reemplazo /
Humanización
"La IA puede darte el dato exacto, pero
no puede enseñarte a sentir empatía por
el problema social detrás del dato. Mi
Se revaloriza lo humano:
la empatía y la ética, cosas
que la máquina no tiene.

Vol. 12/ Núm. 4 2025 pág. 2715
rol ahora es más humano que nunca;
enseño el 'por qué', no solo el 'qué'."
Mediación
Apoyo
Didáctico /
Andamiaje
"Uso el chatbot como un alguien que
entrene conmigo en clase. Les pido a
los chicos que debatan contra la IA. Ya
no soy el dueño de la verdad, soy el
árbitro de su lógica."
El profesor deja de ser
solo un transmisor de
datos para convertirse en
un facilitador del
pensamiento.
Impacto Fomento Crítico
/ Escepticismo
"Curiosamente, cuando el chatbot da
datos errores, es mi mejor lección. Los
estudiantes ahora desconfían y verifican
todo. Han aprendido a ser escépticos
gracias al error de la máquina."
El error de la tecnología se
convierte en una
herramienta pedagógica
poderosa.
Fuente: Elaboración propia.
Analizamos la entrevistas y lo que encontramos fue su consistencia que docentes llegaron
a la misma conclusión de forma independiente. Ambos coinciden en que la IA no es un enemigo,
sino un catalizador del escepticismo. Mientras que se valora que sus alumnos verifiquen los
cálculos de la máquina, el estudiante valora que cuestionen sus argumentos lógicos. Esta
coincidencia interdisciplinaria es la prueba más fuerte de nuestro estudio demuestra que el
desarrollo del pensamiento crítico a través de la IA no es una rareza de una sola materia, sino un
fenómeno pedagógico transversal y sólido.
Los resultados de esta investigación cuestionan las perspectivas deterministas que asocian
la integración de la IA con un detrimento en los procesos de aprendizaje. La evidencia cuantitativa
(Tabla 1) refuta la hipótesis de la "dependencia cognitiva pasiva" o deterioro metacognitivo. Por
el contrario, se observa un fenómeno de vigilancia epistémica activa, evidenciado por el 78.4%
de los estudiantes que reportan conductas de verificación sistemática ante la naturaleza
probabilística y falible de los modelos de lenguaje. Este hallazgo se alinea con lo postulado por
Atencio et al. (2023), quienes sostienen que la utilización de la IAG como recurso de aprendizaje,
y no como fuente de verdad absoluta, impone una carga cognitiva que estimula el refinamiento
de las habilidades de validación y juicio crítico.
Desde la perspectiva docente, la triangulación de datos cualitativos (Tabla 3) revela un
consenso sobre la instrumentalidad de la IA como mecanismo de soporte pedagógico y no como
un agente sustitutivo. En concordancia con Molina Cobo (2025), se identifica que la
automatización de tareas instruccionales de bajo nivel (corrección sintáctica, instrucción
procedimental) permite una reasignación del tiempo lectivo hacia el fomento de competencias de
orden superior, como el análisis contextual y la deliberación ética, áreas donde la inteligencia
artificial carece de las capacidades socioemocionales requeridas (Bayas Romero, 2024; Macias
Galeas, 2025). Además, esta transición hacia un modelo híbrido exige marcos normativos sólidos
para garantizar un uso responsable, tal como advierten Ramírez Chávez y Litardo Caicedo (2025),
quienes subrayan que la eficiencia tecnológica no debe desligarse de la responsabilidad ética
institucional.
El incremento significativo en la competencia de "Detección de falacias" constituye un
indicador relevante de la eficacia del método socrático mediado por tecnología. Esto sugiere que

Vol. 12/ Núm. 4 2025 pág. 2716
la interacción dialéctica con un agente conversacional demanda un procesamiento cognitivo más
profundo que la revisión pasiva de textos. La tecnología opera, en este sentido, como un sistema
de retroalimentación reflexiva, permitiendo al estudiante identificar y rectificar inconsistencias
lógicas en un entorno controlado, fortaleciendo así su autonomía intelectual previo a la exposición
en contextos académicos formales.
CONCLUSIONES
Al Integrar chatbots en la universidad funciona y transforma profundamente el
pensamiento crítico, pero solo si hay un profesor guiando. Los estudiantes no están usando estas
herramientas para dejar de pensar, sino para estructurar mejor sus ideas. Al enfrentarse a una
inteligencia que es rápida pero falible, los alumnos desarrollan una pensamiento crítico y dejan
de ser consumidores de información para convertirse en auditores activos del conocimiento. La
IA actúa aquí como un socio epistémico que reta al estudiante a subir su nivel argumentativo.
Donde queda claro que la visión del profesor ha evolucionado de la resistencia inicial a una alianza
estratégica.
Los docentes confirman que la IA no tiene y difícilmente tendrá pronto la capacidad de
ser un mentor empático y ético. Por tanto, el miedo al reemplazo es infundado. La IA es un
catalizador que mejora la calidad del debate académico al liberar al docente de lo rutinario,
permitiéndole enfocarse en lo verdaderamente humano: enseñar a discernir, a contextualizar y a
aplicar la ética en la toma de decisiones.
Además, el modelo de evaluación tradicional debe cambiar. Si la IA puede responder
exámenes memorísticos en segundos, entonces evaluar la memoria ya no tiene sentido. Las
universidades deben transitar hacia una evaluación del proceso, donde lo que se califica no es solo
el ensayo final, sino la capacidad del estudiante para dialogar con la máquina, refinar sus
preguntas (prompt engineering) y criticar las respuestas obtenidas. El futuro académico no está
en prohibir la herramienta, sino en evaluar quién la usa con mayor criterio.
Finalmente, concluimos que los errores de la IA no son un defecto del sistema educativo,
sino una de sus mayores virtudes pedagógicas. En un mundo saturado de noticias falsas y
posverdad, tener una herramienta que suena convincente pero que a veces miente obliga al
estudiante a mantener un escepticismo. Aprender a desconfiar de la máquina y a verificar sus
fuentes es paradójicamente, la mejor preparación para un mundo laboral donde la verdad debe ser
construida y validada rigurosamente, no simplemente encontrada.

Vol. 12/ Núm. 4 2025 pág. 2717
REFERENCIAS
Atencio, R., Bonilla, D., Miles, M., & López, S. (2023). Chat GPT como Recurso para el
Aprendizaje del Pensamiento Crítico en Estudiantes Universitarios. CIENCIAMATRIA,
9(17), 36-44. https://doi.org/10.35381/cm.v9i17.1121
Barshay, J. (2025, May 19). University students offload critical thinking, other hard work to AI.
The Hechinger Report. https://hechingerreport.org/proof-points-offload-critical-thinking-
ai/
Bayas Romero, L. (2024). El impacto de la inteligencia artificial en la limitación del desarrollo
del pensamiento lógico y crítico en estudiantes universitarios. Suplemento CICA
Multidisciplinario, 8(18).
https://uleam.suplementocica.org/index.php/SuplementoCICA/article/view/163
Deng, X., & Yu, Z. (2023). Un metaanálisis y revisión sistemática del efecto del uso de la
tecnología de chatbots en la educación sostenible. Sustainability, 15(4), 2940.
https://doi.org/10.3390/su15042940
Fariño Holguín, A. (2025). Estrategias pedagógicas basadas en inteligencia artificial en la
educación universitaria. Polo del Conocimiento, 10(1), 123-145.
https://polodelconocimiento.com/ojs/index.php/es/article/view/10621
Guerrero Escudero, R., Gallardo Hernández, F. J., & Flores Guevara, S. (2025). Percepción de
los estudiantes y docentes respecto al uso de la IA como complemento o reemplazo en la
educación. Cuadernos del Centro de Estudios en Diseño y Comunicación, (267), 211-223.
https://doi.org/10.18682/cdc.vi267.12460
Mabrouk, S. (2025). El impacto del uso de herramientas de inteligencia artificial generativa
(ChatGPT) en el desarrollo de habilidades de pensamiento crítico entre estudiantes
universitarios. Social Science and Humanities Journal, 9(08).
https://doi.org/10.18535/sshj.v9i08.2008
Macias Galeas, I. (2025). Entre la eficiencia y la ética: uso de la Inteligencia Artificial en la
construcción de programas de clase. Revista de Investigación, Formación y Desarrollo,
13(1), 103-117. https://doi.org/10.34070/rif.v13i1.2025.408
Molina Cobo, E. (2025). Repensar la política docente en la era de la inteligencia artificial:
evidencia para la acción. Papeles de Economía Española, (184), 57.
https://www.funcas.es/wp-content/uploads/2025/07/PEE_184_Molina_Cobo.pdf
Nguyen, A., Kremantzis, M., Essien, A., & Hosseini, S. (2024). Editorial: Enhancing Student
Engagement Through Artificial Intelligence (AI). Journal of University Teaching and
Learning Practice, 21(6). https://doi.org/10.53761/pzd17z29
Vol. 12/ Núm. 4 2025 pág. 2718
Parreño, J., Rivera, D., Uvidia, M., & Jara, J. (2024). La Inteligencia Artificial: herramienta para
el desarrollo del pensamiento crítico en estudiantes de instituciones educativas. Revista
Conrado, 20(96), 478–485.
https://conrado.ucf.edu.cu/index.php/conrado/article/view/3605
Ramírez Chávez, M. A., & Litardo Caicedo, L. G. (2025). Ética y Responsabilidad en el Uso de
Inteligencia Artificial en la Educación Superior. Estudios y Perspectivas Revista Científica
y Académica, 5(2), 66–84. https://doi.org/10.61384/r.c.a.v5i2.1095