Vol. 13/ Núm. 1 2026 pág. 3549
https://doi.org/
10.69639/arandu.v13i1.2134
Evaluación auténtica en la era de la IA: estrategias para la
integridad académica

Authentic Assessment in the Age of Artificial Intelligence: Strategies to Strengthen
Academic Integrity

Alejandra Bella Vinueza Garcés

abvinueza@tes.edu.ec

https://orcid.org/0009-0001-7581-4135

Tecnológico Espíritu Santo

Guayaquil Ecuador

Juan Carlos Cedeño Gendes

jccedenogendes@sangregorio.edu.ec

https://orcid.org/0000-0001-6607-967X

Universidad San Gregorio de Portoviejo

Portoviejo - Ecuador

Joselyn Marina Vera Sandoval

joselynv2504@gmail.com

https://orcid.org/0009-0006-6167-879X

Universidad Católica Santiago de Guayaquil

Ecuador Guayaquil

William Stalin Montoya Intriago

williamove2504@gmail.com

https://orcid.org/0009-0003-3212-3312

Universidad Católica Santiago de Guayaquil

Ecuador Guayaquil

Artículo recibido: 18 febrero 2026-Aceptado para publicación: 20 marzo 2026

Conflictos de intereses: Ninguno que declarar.

RESUMEN

La presente revisión bibliográfica analiza la evaluación auténtica en la era de la inteligencia
artificial como respuesta estratégica a los desafíos contemporáneos de la integridad académica.
El objetivo fue examinar los principales aportes teóricos y prácticos sobre el impacto de las
herramientas de IA en los procesos de enseñanza, aprendizaje y evaluación, así como identificar
estrategias orientadas a fortalecer prácticas evaluativas más válidas, éticas y centradas en el
desarrollo de competencias. La literatura revisada muestra que la expansión de la IA generativa
ha tensionado los modelos tradicionales de evaluación basados en la reproducción de información,
evidenciando la necesidad de rediseñar tareas, criterios e instrumentos. En este contexto, la
evaluación auténtica emerge como un enfoque pertinente al privilegiar actividades
contextualizadas, reflexivas, aplicadas y difíciles de replicar de forma mecánica por sistemas
automatizados. Entre las estrategias más destacadas se encuentran el diseño de tareas situadas, la
evaluación del proceso, la defensa oral, la metacognición, el uso de rúbricas analíticas y la
Vol. 13/ Núm. 1 2026 pág. 3550
alfabetización ética y digital. Se concluye que la integridad académica no debe abordarse
únicamente desde la vigilancia o la sanción, sino desde una transformación del diseño evaluativo,
capaz de articular innovación pedagógica, pensamiento crítico y uso responsable de la inteligencia
artificial en la educación superior.

Palabras clave: evaluación auténtica, inteligencia artificial, integridad académica,
educación superior, revisión bibliográfica

ABSTRACT

This literature review analyzes authentic assessment in the age of artificial intelligence as a
strategic response to contemporary challenges in academic integrity. Its aim was to examine the
main theoretical and practical contributions regarding the impact of AI tools on teaching, learning,
and assessment processes, as well as to identify strategies aimed at strengthening more valid,
ethical, and competency-based assessment practices. The reviewed literature shows that the
expansion of generative AI has challenged traditional assessment models based on information
reproduction, highlighting the need to redesign tasks, criteria, and instruments. In this context,
authentic assessment emerges as a relevant approach because it prioritizes contextualized,
reflective, applied activities that are difficult to replicate mechanically through automated
systems. Among the most relevant strategies are the design of situated tasks, process-based
assessment, oral defense, metacognition, the use of analytical rubrics, and ethical and digital
literacy. It is concluded that academic integrity should not be addressed solely through
surveillance or punishment, but through a transformation of assessment design capable of
integrating pedagogical innovation, critical thinking, and the responsible use of artificial
intelligence in higher education.

Keywords: authentic assessment, artificial intelligence, academic integrity, higher
education, literature review

Todo el contenido de la Revista Científica Internacional Arandu UTIC publicado en este sitio está disponible bajo
licencia Creative Commons Atribution 4.0 International.
Vol. 13/ Núm. 1 2026 pág. 3551
INTRODUCCIÓN

La expansión de la inteligencia artificial generativa en la educación superior ha modificado
de manera sustancial el ecosistema de la evaluación académica. La posibilidad de producir textos
coherentes, resolver problemas, sintetizar información y simular estilos argumentativos mediante
sistemas como ChatGPT ha tensionado supuestos históricamente estables sobre autoría,
originalidad, evidencia de aprendizaje y verificación del desempeño estudiantil. En este nuevo
escenario, la integridad académica ya no puede entenderse únicamente como un problema de
plagio tradicional o fraude deliberado, sino como un campo más amplio de gobernanza
pedagógica, donde confluyen ética, diseño evaluativo, alfabetización digital y responsabilidad
institucional. La literatura reciente advierte que la irrupción de la IA no solo desafía la capacidad
de las universidades para certificar competencias, sino que obliga a revisar críticamente qué se
considera aprendizaje genuino y cómo debe ser evaluado en contextos mediados por tecnología.

En respuesta a este cambio, numerosas instituciones de educación superior han transitado
desde enfoques iniciales centrados en la prohibición o restricción del uso de IA hacia modelos
más orientados a la regulación, la orientación docente y la integración pedagógica. Un análisis de
políticas y lineamientos institucionales en universidades de alta investigación mostró que una
proporción importante de instituciones ya promueve orientaciones formales para el uso de IA en
aula, incorpora ejemplos de sílabos, actividades curriculares y consideraciones éticas, aunque con
desigual desarrollo entre disciplinas y con una carga creciente para el profesorado en términos de
rediseño pedagógico. Este desplazamiento evidencia que el problema no radica únicamente en la
presencia de la tecnología, sino en la insuficiencia de modelos de evaluación que dependen de
productos finales fácilmente externalizables o automatizables.

Dentro de este debate, la evaluación auténtica ha adquirido renovada relevancia por su
capacidad de aproximar el aprendizaje a contextos reales, promover la aplicación del
conocimiento y valorar competencias complejas. Una revisión sistemática reciente en educación
superior, basada en 94 estudios, identificó que la evaluación auténtica favorece habilidades del
siglo XXI como pensamiento crítico, resolución de problemas y colaboración, además de
fortalecer la conexión entre la formación universitaria y el desempeño profesional. Sin embargo,
la misma evidencia señala barreras importantes para su implementación efectiva, entre ellas
resistencia institucional, necesidad de formación docente y requerimientos adicionales de tiempo,
recursos y criterios de calidad. Por tanto, aunque la evaluación auténtica representa una vía
prometedora, su adopción no puede asumirse como una solución automática, sino como parte de
una transformación más profunda del diseño curricular y evaluativo.

La revisión reciente también matiza una idea que se había instalado con rapidez en el
discurso educativo: que la evaluación auténtica, por sí sola, bastaría para proteger la integridad
académica frente a la IA generativa. La evidencia empírica disponible cuestiona esa premisa. En
Vol. 13/ Núm. 1 2026 pág. 3552
particular, un estudio experimental publicado en British Journal of Educational Technology
mostró que sistemas generativos pueden producir respuestas capaces de superar el escrutinio de
académicos experimentados en tareas consideradas auténticas, además de generar errores de
clasificación cuando los evaluadores intentan identificar interferencia de IA. A ello se suma el
cuestionamiento creciente a las políticas centradas en una noción rígida de “originalidad”, ya que
la mediación tecnológica obliga a replantear la autoría académica no solo como propiedad del
producto final, sino como trazabilidad del razonamiento, toma de decisiones, uso crítico de
fuentes y capacidad de justificar el propio proceso intelectual.

De este modo, el eje del debate contemporáneo se desplaza desde la vigilancia hacia el
rediseño estructural de la evaluación. La literatura más reciente sostiene que los cambios
meramente discursivos por ejemplo, advertencias, prohibiciones genéricas o cláusulas
superficiales en las consignas resultan insuficientes frente a herramientas capaces de adaptarse
con rapidez a distintas tareas académicas. Asimismo, se ha señalado que los detectores de texto
generado por IA presentan limitaciones metodológicas, vulnerabilidades técnicas y dilemas éticos
que impiden considerarlos una garantía robusta de integridad. En contraste, emergen propuestas
orientadas a visibilizar el proceso de aprendizaje, incorporar defensas orales, tareas situadas,
producción multimodal, evaluación del razonamiento, uso explícito y transparente de IA, y
marcos que permitan distinguir entre apoyo legítimo, co-construcción cognitiva y delegación
impropia. En esta línea, modelos recientes como el marco DRIVE proponen evaluar no solo el
resultado final, sino la calidad de la interacción del estudiante con la IA, haciendo visible la
dirección del razonamiento y la experticia que el alumno aporta durante el proceso.

A la luz de estas tensiones, la presente revisión bibliográfica se justifica por la necesidad
de integrar la evidencia reciente sobre evaluación auténtica, inteligencia artificial e integridad
académica en un marco analítico útil para la educación superior. Su relevancia radica en que las
instituciones universitarias necesitan criterios actualizados para sostener la validez de sus
sistemas de evaluación sin caer en respuestas simplistas, punitivas o tecnológicamente ingenuas.
En consecuencia, el objetivo de este trabajo es analizar críticamente la producción científica
reciente sobre evaluación auténtica en la era de la inteligencia artificial, con énfasis en las
estrategias de diseño evaluativo que pueden fortalecer la integridad académica, la validez del
juicio docente y el desarrollo de competencias complejas en estudiantes universitarios. Dado el
carácter de revisión bibliográfica del estudio, no se formula una hipótesis experimental; en su
lugar, se asume como premisa analítica que la integridad académica puede fortalecerse cuando la
evaluación se orienta hacia evidencias contextualizadas del proceso, la reflexión y la aplicación
auténtica del conocimiento.
Vol. 13/ Núm. 1 2026 pág. 3553
MATERIALES Y MÉTODOS

El presente estudio se desarrolló bajo un enfoque cualitativo, de tipo documental, con
diseño de revisión bibliográfica de carácter descriptivo, analítico e integrador. Su propósito fue
identificar, examinar y sintetizar la evidencia científica reciente sobre evaluación auténtica,
inteligencia artificial e integridad académica en educación superior. Debido a que no se trató de
una investigación de campo ni de un estudio con intervención sobre personas, la unidad de análisis
estuvo constituida exclusivamente por publicaciones científicas. La organización metodológica
del proceso de búsqueda, selección y síntesis se estructuró con base en los principios de
transparencia y exhaustividad recomendados por la declaración PRISMA 2020, ampliamente
utilizada para mejorar la claridad en el reporte de revisiones de evidencia.

La búsqueda bibliográfica se orientó a recuperar literatura de alto impacto publicada en los
últimos dos años, priorizando artículos entre marzo de 2024 y marzo de 2026. Se consultaron
bases de datos reconocidas por su cobertura en ciencias de la salud, educación y ciencias sociales,
entre ellas Scopus, Web of Science, PubMed y ERIC. Como estrategia complementaria, se
consideró Google Scholar únicamente para rastreo secundario de citas y verificación de
documentos relevantes, evitando que esta fuente definiera por sí sola la selección principal de
evidencia. La construcción de la estrategia de búsqueda se realizó en español e inglés mediante
descriptores y términos libres relacionados con el tema: “evaluación auténtica”, “inteligencia
artificial”, “inteligencia artificial generativa”, “integridad académica”, “educación superior”,
“authentic assessment”, “artificial intelligence”, “generative AI”, “academic integrity” y “higher
education”. Estos términos se combinaron con operadores booleanos AND, OR y NOT, con el
objetivo de ampliar la sensibilidad de la búsqueda sin perder especificidad temática.

Se establecieron como criterios de inclusión: artículos originales, revisiones sistemáticas,
revisiones narrativas de alto rigor, estudios teóricos y análisis críticos publicados en revistas
arbitradas e indexadas; documentos centrados en educación superior; trabajos que abordaran de
forma explícita al menos dos de los tres ejes conceptuales del estudio evaluación auténtica,
inteligencia artificial e integridad académica; y publicaciones disponibles en texto completo en
inglés o español. Se excluyeron editoriales sin desarrollo analítico suficiente, cartas al editor,
opiniones no sustentadas metodológicamente, documentos duplicados, preprints no sometidos a
revisión por pares y estudios enfocados exclusivamente en educación básica o contextos
corporativos no universitarios. También se excluyeron trabajos centrados solo en herramientas
detectoras de IA cuando no existía articulación con el diseño evaluativo o la integridad académica.

El proceso de selección se realizó en dos fases. En una primera etapa se efectuó la
depuración de registros duplicados y la revisión de títulos y resúmenes para determinar su
pertinencia temática. En una segunda fase se procedió a la lectura completa de los textos
potencialmente elegibles, valorando su coherencia con la pregunta de revisión, la claridad de su
Vol. 13/ Núm. 1 2026 pág. 3554
planteamiento, la solidez metodológica y la utilidad de sus hallazgos para responder al objetivo
del estudio. Dado que esta investigación corresponde a una revisión bibliográfica integradora y
no a un metaanálisis, la selección final no se limitó a un único tipo de diseño, sino que incorporó
estudios empíricos, revisiones de evidencia y marcos conceptuales contemporáneos capaces de
aportar una comprensión amplia, crítica y aplicada del fenómeno analizado.

Para la extracción y organización de la información se diseñó una matriz de análisis
documental que incluyó: autor, año de publicación, país o contexto institucional, tipo de estudio,
objetivo, población o unidad de análisis, principales hallazgos, estrategias evaluativas propuestas,
implicaciones para la integridad académica y limitaciones reportadas por los autores.
Posteriormente, la evidencia fue sometida a un proceso de análisis temático, agrupando los
contenidos en categorías interpretativas previamente definidas y refinadas durante la lectura: a)
desafíos de la inteligencia artificial para la evaluación académica; b) fundamentos y alcances de
la evaluación auténtica; c) estrategias de rediseño evaluativo para fortalecer la integridad
académica; y d) implicaciones institucionales, éticas y pedagógicas para la educación superior.

Con el fin de fortalecer el rigor del proceso de síntesis, la calidad metodológica y la
relevancia de los estudios incluidos se valoraron mediante criterios de apreciación crítica
adaptados al tipo de diseño de cada publicación, tomando como referencia herramientas
reconocidas de evaluación metodológica, como las del Joanna Briggs Institute, que orientan la
valoración de confiabilidad, pertinencia y consistencia de la evidencia disponible. Esta fase
permitió priorizar documentos con mayor solidez argumentativa y metodológica, reduciendo el
peso de publicaciones meramente opinativas o con bajo nivel de desarrollo analítico.

Por la naturaleza documental del estudio, no fue necesario consentimiento informado ni
intervención de un comité de ética en investigación con seres humanos. No obstante, se
mantuvieron criterios estrictos de integridad científica en la selección, interpretación y redacción
de la evidencia, procurando una síntesis objetiva, crítica y libre de sesgos de confirmación. De
esta manera, la metodología empleada buscó ofrecer una base robusta para comprender cómo la
evaluación auténtica puede reconfigurarse en la era de la inteligencia artificial y contribuir al
fortalecimiento de prácticas académicas más legítimas, transparentes y formativamente valiosas.

RESULTADOS Y DISCUSIÓN

El análisis de la literatura reciente permitió identificar un patrón consistente: la irrupción
de la inteligencia artificial generativa ha debilitado la capacidad discriminativa de muchas
evaluaciones tradicionales, especialmente aquellas centradas en productos escritos
estandarizados, respuestas predecibles y tareas de baja contextualización. En estudios
multicéntricos y revisiones recientes, tanto docentes como estudiantes coinciden en que los
ensayos y las actividades de codificación figuran entre los formatos más impactados por la IA,
precisamente porque permiten una delegación parcial o casi completa del producto final. En
Vol. 13/ Núm. 1 2026 pág. 3555
consecuencia, la evidencia converge en que el problema principal ya no es solo el plagio en su
sentido clásico, sino la pérdida de trazabilidad del aprendizaje y de la autoría intelectual efectiva.

Dentro de ese escenario, la evaluación auténtica apareció en la literatura como una
alternativa fuerte, pero no lineal. La revisión sistemática de Vlachopoulos y Makri, que integró
94 estudios, mostró que este enfoque se asocia con mejores oportunidades para desarrollar
pensamiento crítico, resolución de problemas, colaboración y otras competencias complejas,
además de una mayor cercanía entre aprendizaje universitario y desempeño profesional. A su vez,
la revisión de Zhan y colaboradores confirma que la evaluación auténtica sigue siendo valiosa,
aunque ya no debe entenderse únicamente como réplica de tareas del mundo laboral, sino como
un diseño más amplio de autenticidad contextual, personal y social. Ese desplazamiento
conceptual es relevante porque evita reducir la autenticidad a “parecerse al trabajo real” y la
reubica en una lógica más profunda: evidenciar juicio, agencia, reflexión y aplicación situada del
conocimiento.

Sin embargo, uno de los hallazgos más importantes y a la vez más controversiales de la
evidencia reciente es que la evaluación auténtica, por sí sola, no garantiza integridad académica
frente a la IA generativa. El estudio experimental de Kofinas, Tsay y Pike, realizado en dos
universidades del Reino Unido, mostró que los evaluadores no lograron distinguir de forma
confiable entre trabajos con y sin intervención de IA, y que el nivel de autenticidad de la tarea no
mejoró la capacidad de detectar manipulación. Más aún, los autores concluyen que las
evaluaciones auténticas no constituyen una panacea y recomiendan desplazar el centro de
gravedad desde el producto escrito hacia evaluaciones más performativas, sociales y basadas en
la experiencia. Este resultado obliga a una lectura crítica: el valor pedagógico de la evaluación
auténtica sigue siendo alto, pero su capacidad de “blindaje” frente a la IA depende de cómo esté
diseñada, qué evidencias solicite y cuánto del proceso de aprendizaje haga visible.

A partir de ello, la revisión permitió reconocer una regularidad clara: los trabajos más
sólidos no proponen volver a exámenes tradicionales como respuesta automática, sino rediseñar
la evaluación para hacer observable el razonamiento. En esa línea, la encuesta internacional de
Kizilcec y colaboradores encontró que los docentes prefieren evaluaciones que asuman el uso de
IA y fortalezcan pensamiento crítico, mientras que la discusión contemporánea sobre políticas
universitarias insiste en que el problema no debe formularse solo en términos de “originalidad”
del texto, sino de responsabilidad intelectual sobre decisiones, fuentes, argumentos y validación
de resultados. Esta transición es importante porque desplaza la integridad académica desde una
lógica policial hacia una lógica epistémica: importa menos si el estudiante recibió apoyo
tecnológico y más si puede demostrar comprensión, criterio, verificación y apropiación del
conocimiento producido.

En este punto, los hallazgos revisados sugieren que las estrategias con mayor potencial son
aquellas que integran evaluación del proceso, instancias sincrónicas y tareas multimodales. El
Vol. 13/ Núm. 1 2026 pág. 3556
marco DRIVE, propuesto en 2025, resulta especialmente innovador porque plantea valorar el
aprendizaje a partir de las interacciones del estudiante con la IA, analizando cómo dirige el
diálogo, cómo aporta experticia visible y qué tipo de relación establece con la herramienta. En
sus resultados, las interacciones de mayor calidad se asociaron con co-desarrollo de ideas,
mientras que los desempeños más bajos se vincularon con delegación pasiva o búsqueda básica
de información. Este modelo introduce una novedad científica importante: en lugar de preguntar
únicamente “si hubo IA”, propone evaluar “cómo se usó” y “qué evidencia de aprendizaje deja
ese uso”. Para la educación superior, esto abre una ruta más realista y pedagógicamente féril que
la prohibición total. Otro hallazgo recurrente fue la necesidad de acompañar el rediseño
evaluativo con transformación institucional. El análisis de documentos de 116 universidades R1
en Estados Unidos mostró que la respuesta del sector se está moviendo desde la regulación
restrictiva hacia la integración guiada: 63% de las instituciones analizadas ya alentaban el uso de
GenAI en ciertos contextos y muchas ofrecían sílabos modelo, actividades curriculares y
orientaciones para aula. Del mismo modo, un análisis global de políticas universitarias identificó
medidas convergentes: lineamientos éticos, promoción de alfabetización en IA, diseño de
evaluaciones auténticas para reducir usos impropios y necesidad de revisión continua. La lectura
conjunta de estos estudios deja una conclusión operativa: no basta con que cada docente improvise
soluciones; se requieren marcos institucionales coherentes, formación docente sostenida y
criterios explícitos de uso permitido, uso restringido y uso no aceptable de IA en evaluación.

La revisión también evidenció límites y tensiones. Primero, persiste una brecha entre el
discurso favorable a la autenticidad y su implementación real, condicionada por carga docente,
necesidad de capacitación, heterogeneidad disciplinar y disponibilidad tecnológica. Segundo,
existe el riesgo de que la evaluación auténtica se convierta en una etiqueta vacía o en simple
marketing pedagógico si no se acompaña de criterios claros, retroalimentación de calidad y
participación estudiantil en la comprensión de qué vuelve auténtica una tarea. Tercero, la
integración de tecnologías digitales en evaluación auténtica sigue siendo desigual: la revisión de
Hu y colaboradores encontró 52 estudios y reportó una variabilidad significativa en el uso de
tecnología a lo largo de las distintas fases del proceso evaluativo, con mayor presencia en el diseño
de tareas que en los mecanismos de retroalimentación y juicio evaluativo. Esto sugiere que la
discusión no debe limitarse a “usar tecnología”, sino a incorporarla con intencionalidad
pedagógica y validez formativa. Desde una perspectiva aplicada, la evidencia analizada permite
sostener que las prácticas más pertinentes en la era de la IA son aquellas que triangulan múltiples
evidencias: productos escritos contextualizados, bitácoras o registros del proceso, reflexiones
metacognitivas, defensa oral, resolución situada de casos, trabajo colaborativo verificable y
rúbricas que valoren juicio, transferencia y toma de decisiones. Este enfoque no elimina el riesgo
de uso impropio de IA, pero sí eleva la calidad de la inferencia evaluativa y reduce la dependencia
de detectores automáticos, cuya confiabilidad sigue siendo cuestionable. En paralelo, la
Vol. 13/ Núm. 1 2026 pág. 3557
alfabetización en IA debe asumirse como componente de la integridad académica contemporánea:
enseñar a declarar usos, verificar salidas, reconocer sesgos y justificar decisiones ya no es
accesorio, sino parte del currículo oculto que las universidades deben volver explícito.

En conjunto, la novedad científica de esta revisión radica en mostrar que el debate actual
no enfrenta simplemente “IA versus integridad”, sino dos modelos de evaluación: uno centrado
en productos fácilmente externalizables y otro orientado a evidencias complejas, procesuales y
situadas del aprendizaje. Lo controversial no es la existencia de la IA, sino la persistencia de
prácticas evaluativas que certifican resultados sin observar suficientemente el razonamiento que
los produce. La prospectiva teórica y práctica apunta, por tanto, hacia modelos de evaluación más
resilientes, donde autenticidad, transparencia, agencia estudiantil y uso responsable de tecnología
se articulen como un mismo ecosistema pedagógico. En esa línea de investigación, la revisión
bibliográfica realizada resulta pertinente porque no solo describe un problema emergente, sino
que ofrece una base conceptual y aplicada para rediseñar la evaluación universitaria con mayor
validez, legitimidad y sentido formativo en la era de la inteligencia artificial.

Figura 1

Impacto de la inteligencia artificial en la evaluación académica

Figura 1. la expansión de la IA generativa compromete la capacidad de las evaluaciones tradicionales para demostrar
aprendizaje genuino, lo que exige una respuesta basada en evaluación auténtica, seguimiento del proceso y uso
responsable de la inteligencia artificial.
Vol. 13/ Núm. 1 2026 pág. 3558
Figura 2

Ejes estratégicos identificados en la revisión bibliográfica sobre evaluación auténtica e
inteligencia artificial

Figura 2. La figura muestra, de manera conceptual, la jerarquía de los componentes más relevantes descritos en la
literatura reciente. El rediseño evaluativo, la evaluación del proceso y las tareas auténticas concentran el mayor peso
estratégico, mientras que la detección aislada presenta menor relevancia como respuesta sostenible frente a los desafíos
de la IA en la integridad académica

Figura 3

Comparación conceptual entre evaluación tradicional y evaluación auténtica frente a los
desafíos de la inteligencia artificial

Figura 3. La figura compara, de forma conceptual, el desempeño relativo de la evaluación tradicional y la evaluación
auténtica en dimensiones clave para la integridad académica. La evaluación auténtica muestra mayor fortaleza en
trazabilidad del aprendizaje, resistencia a la delegación en IA, valoración del razonamiento, contextualización de la
tarea y valor formativo, lo que respalda su pertinencia como estrategia de rediseño evaluativo en educación superior.
Vol. 13/ Núm. 1 2026 pág. 3559
Figura 4

Impacto esperado y factibilidad de implementación de estrategias para fortalecer la integridad
académica en la era de la inteligencia artificial

Figura 4. El rediseño de consignas, la evaluación del proceso y la defensa oral destacan por su alto impacto, mientras
que las rúbricas analíticas, la declaración de uso de IA y la alfabetización ética y digital muestran una implementación
operativa más accesible en contextos universitarios

CONCLUSIONES

La presente revisión bibliográfica permite concluir que la inteligencia artificial generativa
ha dejado de ser un fenómeno periférico en educación superior para convertirse en un factor
estructural que reconfigura la evaluación académica. La evidencia reciente coincide en que los
formatos tradicionales, especialmente aquellos basados en productos finales predecibles y
fácilmente externalizables, han perdido capacidad para demostrar de forma suficiente la autoría
intelectual, la comprensión profunda y el aprendizaje genuino. Al mismo tiempo, la literatura
muestra que los ensayos y ciertas tareas de resolución automatizable figuran entre las modalidades
más vulnerables al uso impropio de IA, lo que obliga a revisar no solo los instrumentos, sino la
lógica evaluativa que los sostiene.

En ese marco, la evaluación auténtica emerge como una respuesta pedagógica pertinente,
pero no como una solución aislada ni infalible. Los estudios más recientes sostienen que su
principal fortaleza radica en favorecer tareas contextualizadas, situadas y orientadas al
razonamiento, la transferencia y la aplicación del conocimiento; sin embargo, también advierten
que la autenticidad, por sí sola, no protege automáticamente la integridad académica frente a
sistemas generativos capaces de producir respuestas plausibles y convincentes. Esta precisión es
crucial, porque desplaza el debate desde una visión idealizada de la evaluación auténtica hacia
una perspectiva más rigurosa, en la que el valor no está únicamente en el tipo de tarea, sino en la
capacidad del diseño evaluativo para hacer visible el proceso cognitivo del estudiante.
Vol. 13/ Núm. 1 2026 pág. 3560
A partir del análisis realizado, puede afirmarse que las estrategias con mayor proyección
son aquellas que combinan rediseño de consignas, evaluación del proceso, defensa oral,
trazabilidad del razonamiento, rúbricas analíticas y lineamientos explícitos para el uso
transparente de IA. La literatura más actual también sugiere que los modelos centrados en la
interacción entre estudiante e inteligencia artificial, como los enfoques orientados a valorar
evidencia de dirección cognitiva y experticia visible, abren una vía prometedora para evaluar
aprendizaje real en escenarios donde la IA ya forma parte del entorno educativo. Esto representa
un cambio de paradigma: la pregunta central deja de ser si el estudiante usó IA, y pasa a ser si
puede justificar, verificar, integrar críticamente y sostener intelectualmente lo producido con su
apoyo.

Desde el punto de vista institucional, la revisión muestra que las universidades más activas
no están respondiendo únicamente con prohibiciones, sino con políticas, guías y marcos de
integración responsable. La tendencia internacional apunta hacia una gobernanza académica más
madura, donde la integridad no se limita a la sanción, sino que se articula con alfabetización en
IA, formación docente, actualización de políticas y revisión continua de la validez de las
evaluaciones. En otras palabras, la integridad académica en la era de la inteligencia artificial no
puede sostenerse con mecanismos punitivos aislados; requiere ecosistemas educativos coherentes,
éticos y técnicamente actualizados.

En términos aplicados, esta revisión respalda la necesidad de migrar desde modelos
centrados en la simple comprobación del producto hacia modelos que certifiquen procesos, juicio
clínico o profesional, argumentación y toma de decisiones. La principal aportación del trabajo
radica en mostrar que la integridad académica no debe entenderse como resistencia a la
tecnología, sino como capacidad institucional y pedagógica para rediseñar la evaluación de
manera más válida, humana y exigente. Bajo esta perspectiva, la IA no anula el sentido de evaluar;
lo vuelve más serio. Y ahí está el verdadero punto de inflexión del campo.
Vol. 13/ Núm. 1 2026 pág. 3561
REFERENCIAS

Aguado-García, J.-M., Alonso-Muñoz, S., & De-Pablos-Heredero, C. (2025). Using artificial
intelligence for higher education: An overview and future research avenues. SAGE Open,
15(2), 21582440251340352.
https://doi.org/10.1177/21582440251340352
Ajjawi, R., Tai, J., Bearman, M., Boud, D., Dollinger, M., & Hayes, A. M. (2025). The
multiplicity of authenticity in higher education assessment. Teaching in Higher Education,
30(3), 583591.
https://doi.org/10.1080/13562517.2025.2468598
Azevedo, L., Robles, P., Best, E., & Mallinson, D. J. (2025). Institutional policies on artificial
intelligence in higher education: Frameworks and best practices for faculty. New Directions
for Adult and Continuing Education, 2025(188), 7078.
https://doi.org/10.1002/ace.70013
Bearman, M., Tai, J., Dawson, P., Boud, D., & Ajjawi, R. (2024). Developing evaluative
judgement for a time of generative artificial intelligence. Assessment & Evaluation in
Higher Education, 49(6), 893905.
https://doi.org/10.1080/02602938.2024.2335321
Bittle, K., & El-Gayar, O. (2025). Generative AI and academic integrity in higher education: A
systematic review and research agenda. Information, 16(4), 296.

https://doi.org/10.3390/info16040296

Fawns, T., Bearman, M., Dawson, P., Nieminen, J. H., Ashford-Rowe, K., Willey, K., Jensen, L.
X., Damşa, C., & Press, N. (2025). Authentic assessment: From panacea to criticality.
Assessment & Evaluation in Higher Education, 50(3), 396408.

https://doi.org/10.1080/02602938.2024.2404634

Francis, N. J., Jones, S., & Smith, D. P. (2025). Generative AI in higher education: Balancing
innovation and integrity. British Journal of Biomedical Science, 81, 14048.

https://doi.org/10.3389/bjbs.2024.14048

Furze, L., Perkins, M., Roe, J., & MacVaugh, J. (2024). The AI Assessment Scale (AIAS) in
action: A pilot implementation of GenAI-supported assessment. Australasian Journal of
Educational Technology, 40(4), 3855.
https://doi.org/10.14742/ajet.9434
Gao, L. (X.), López-Pérez, M. E., Melero-Polo, I., & Trifu, A. (2024). Ask ChatGPT first!
Transforming learning experiences in the age of artificial intelligence. Studies in Higher
Education, 49(12), 27722796.
https://doi.org/10.1080/03075079.2024.2323571
Gasaymeh, A.-M. M., Beirat, M. A., & Abu Qbeita, A. A. (2024). University students’ insights
of generative artificial intelligence (AI) writing tools. Education Sciences, 14(10), 1062.

https://doi.org/10.3390/educsci14101062

Gonsalves, C. (2025). Addressing student non-compliance in AI use declarations: Implications
for academic integrity and assessment in higher education. Assessment & Evaluation in
Higher Education, 50(4), 592606.
https://doi.org/10.1080/02602938.2024.2415654
Vol. 13/ Núm. 1 2026 pág. 3562
Gonsalves, C. (2025). Contextual assessment design in the age of generative AI. Journal of
Learning Development in Higher Education, (34).

https://doi.org/10.47408/jldhe.vi34.1307

Johnston, H., Wells, R. F., Shanks, E. M., Boey, T., & Parsons, B. N. (2024). Student perspectives
on the use of generative artificial intelligence technologies in higher education.
International Journal for Educational Integrity, 20, Article 2.

https://doi.org/10.1007/s40979-024-00149-4

Jin, Y., Yan, L., Echeverria, V., Gašević, D., & Martinez-Maldonado, R. (2025). Generative AI
in higher education: A global perspective of institutional adoption policies and guidelines.
Computers and Education: Artificial Intelligence, 8, 100348.

https://doi.org/10.1016/j.caeai.2024.100348

Kim, J., Klopfer, M., Grohs, J. R., Eldardiry, H., Weichert, J., Cox, L. A., II, & Pike, D. (2025).
Examining faculty and student perceptions of generative AI in university courses.
Innovative Higher Education, 50, 12811313.
https://doi.org/10.1007/s10755-024-09774-
w

Kizilcec, R. F., Huber, E., Papanastasiou, E. C., Cram, A., Makridis, C. A., Smolansky, A.,
Zeivots, S., & Raduescu, C. (2024). Perceived impact of generative AI on assessments:
Comparing educator and student perspectives in Australia, Cyprus, and the United States.
Computers and Education: Artificial Intelligence, 7, 100269.

https://doi.org/10.1016/j.caeai.2024.100269

Kofinas, A., Tsay, C. H.-H., & Pike, D. (2025). The impact of generative AI on academic integrity
of authentic assessments within a higher education context. British Journal of Educational
Technology, 56(6), 25222549.
https://doi.org/10.1111/bjet.13585
Luo, J. (2024). A critical review of GenAI policies in higher education assessment: A call to
reconsider the “originality” of students’ work. Assessment & Evaluation in Higher
Education, 49(4), 651664.
https://doi.org/10.1080/02602938.2024.2309963
McDonald, N., Johri, A., Ali, A., & Collier, A. H. (2025). Generative artificial intelligence in
higher education: Evidence from an analysis of institutional policies and guidelines.
Computers in Human Behavior: Artificial Humans, 3, 100121.

https://doi.org/10.1016/j.chbah.2025.100121

Ncube, P. D. N., Dzvapatsva, G. P., Matobobo, C., & Ranga, M. M. (2026). Redefining student
assessment in AI-infused learning environments: A systematic review of challenges and
strategies for academic integrity. AI and Ethics, 6, Article 68.

https://doi.org/10.1007/s43681-025-00871-w

Qu, Y., Tan, M. X. Y., & Wang, J. (2024). Disciplinary differences in undergraduate students’
engagement with generative artificial intelligence. Smart Learning Environments, 11(1),
Article 51.
https://doi.org/10.1186/s40561-024-00341-6
Vol. 13/ Núm. 1 2026 pág. 3563
Quinlan, K. M., Sellei, G., & Fiorucci, W. (2025). Educationally authentic assessment: Reframing
authentic assessment in relation to students’ meaningful engagement. Teaching in Higher
Education, 30(3), 717734.
https://doi.org/10.1080/13562517.2024.2394042
Shata, A., & Hartley, K. (2025). Artificial intelligence and communication technologies in
academia: Faculty perceptions and the adoption of generative AI. International Journal of
Educational Technology in Higher Education, 22(1), Article 14.

https://doi.org/10.1186/s41239-025-00511-7

Sousa, A. E., & Cardoso, P. (2025). Use of generative AI by higher education students.
Electronics, 14(7), 1258.
https://doi.org/10.3390/electronics14071258
Stone, B. W. (2025). Generative AI in higher education: Uncertain students, ambiguous use cases,
and mercenary perspectives. Teaching of Psychology, 52, 347356.

https://doi.org/10.1177/00986283241305398

Tlili, A., Bond, M., Bozkurt, A., Arar, K. H., Chiu, T. K. F., & Rospigliosi, P. A. (2025).
Academic integrity in the generative AI (GenAI) era: A collective editorial response.
Interactive Learning Environments, 33, 18191822.

https://doi.org/10.1080/10494820.2025.2471198

Vieriu, A. M., & Petrea, G. (2025). The impact of artificial intelligence (AI) on students’
academic development. Education Sciences, 15(3), 343.

https://doi.org/10.3390/educsci15030343

Vlachopoulos, D., & Makri, A. (2024). A systematic literature review on authentic assessment in
higher education: Best practices for the development of 21st century skills, and policy
considerations. Studies in Educational Evaluation, 83, 101425.

https://doi.org/10.1016/j.stueduc.2024.101425

Wang, H., Dang, A., Wu, Z., & Mac, S. (2024). Generative AI in higher education: Seeing
ChatGPT through universities’ policies, resources, and guidelines. Computers and
Education: Artificial Intelligence, 7, 100326.
https://doi.org/10.1016/j.caeai.2024.100326
Xia, Q., Weng, X., Ouyang, F., Lin, T. J., & Chiu, T. K. F. (2024). A scoping review on how
generative artificial intelligence transforms assessment in higher education. International
Journal of Educational Technology in Higher Education, 21(1), Article 40.

https://doi.org/10.1186/s41239-024-00468-z

Zhan, Y., Boud, D., & Du, Z. (2025). Designing for authentic assessment: A scoping review.
Higher Education. Advance online publication.
https://doi.org/10.1007/s10734-025-
01588-9

Te recomiendo una revisión final de correspondencia entre estas referencias y las citas que
efectivamente quedaron en tu texto, porque en publicación la bibliografía tiene que calzar
como bisturí: ni sobra ni falta.