
Vol. 13/ Núm. 1 2026 pág. 3490
https://doi.org/10.69639/arandu.v13i1.2132
Marco socio-técnico de control para el uso responsable de IA
generativa en instituciones de educación superior del Ecuador
Socio-Technical Control Framework for the Responsible Use of Generative AI in
Higher Education Institutions in Ecuador
José Luis Núñez Muñoz
jose.nunez@utc.edu.ec
https://orcid.org/0000-0002-9237-8881
Facultad de Posgrados. Escuela de Educación, Maestría en Inteligencia Artificial para la
Educación, Universidad Estatal de Milagro
Álvaro Andrés Bautista Jara
https://orcid.org/0009-0004-9265-4462
abautista@tecnologicoedupraxis.edu.ec
Facultad de Posgrados. Escuela de Educación, Maestría en Inteligencia Artificial para la
Educación, Universidad Estatal de Milagro
Yilena Montero Reyes
ymonteror@unemi.edu.ec
https://orcid.org/0000-0003-4515-4700
Universidad Estatal de Milagro
Artículo recibido: (la fecha la coloca el Equipo editorial) - Aceptado para publicación:
Conflictos de intereses: Ninguno que declarar.
RESUMEN
La irrupción de la inteligencia artificial generativa (IAG) ha transformado de manera significativa
los procesos de enseñanza, aprendizaje, evaluación e investigación en la educación superior,
generando tanto oportunidades pedagógicas como desafíos éticos e institucionales. En el contexto
ecuatoriano, la adopción de estas tecnologías avanza de forma progresiva, pero evidencia la
ausencia de marcos normativos y pedagógicos específicos que orienten su uso responsable. El
presente estudio tiene como objetivo proponer un marco socio-técnico de control para el uso
responsable de la inteligencia artificial generativa en instituciones de educación superior del
Ecuador, integrando dimensiones éticas, pedagógicas, normativas y tecnológicas. La
investigación se desarrolló bajo un enfoque metodológico mixto, de tipo descriptivo–analítico,
combinando técnicas cuantitativas y cualitativas. Se aplicaron cuestionarios estructurados a
docentes y estudiantes universitarios, entrevistas semiestructuradas a autoridades académicas y
responsables de gestión institucional, y una revisión documental de normativas y lineamientos
nacionales e internacionales sobre ética e inteligencia artificial. Los datos cuantitativos fueron
analizados mediante estadística descriptiva, mientras que la información cualitativa se examinó a
través de análisis de contenido temático, permitiendo la identificación de ejes clave del enfoque
socio-técnico.Los resultados evidencian una alta aceptación de la IAG como herramienta de
apoyo académico, junto con preocupaciones relacionadas con la integridad académica, la autoría,

Vol. 13/ Núm. 1 2026 pág. 3491
la dependencia tecnológica y la falta de políticas institucionales claras. Se concluye que la
implementación de un marco socio-técnico de control resulta fundamental para garantizar una
adopción ética, formativa y contextualizada de la inteligencia artificial generativa en las
universidades ecuatorianas, promoviendo una cultura de responsabilidad digital y pensamiento
crítico. Por lo expuesto se evidencia que la implementación de marcos de gobernanza para la I.A
en la educación universitaria y o superior genera resultados concretos, destacándose cuatro puntos
regulatorios: Marcos de cumplimiento normativo, marcos de autorregulación institucional,
marcos híbridos regulatorios, marcos participativos. (Félix et all, 2025)
Palabras clave: Inteligencia artificial generativa, Educación superior, Marco socio-
técnico de control, Integridad académica, Ética de la IA
ABSTRACT
The emergence of generative artificial intelligence has significantly reshaped teaching, learning,
assessment, and research in higher education, creating both pedagogical opportunities and ethical
and institutional challenges. In Ecuador, adoption is progressing steadily, yet it reveals a lack of
specific regulatory and pedagogical frameworks to guide responsible use. This study aims to
propose a socio-technical control framework for the responsible use of generative AI in
Ecuadorian higher education institutions, integrating ethical, pedagogical, regulatory, and
technological dimensions. A mixed-methods, descriptive–analytic design was applied, combining
quantitative and qualitative techniques. Structured questionnaires were administered to university
students and faculty, semi-structured interviews were conducted with academic authorities and
institutional management stakeholders, and a document review of national and international
guidelines on AI ethics was carried out. Quantitative data were examined through descriptive
statistics, while qualitative evidence was analyzed using thematic content analysis to identify key
socio-technical dimensions. The article findings indicate high acceptance of generative AI as
academic support, alongside concerns related to academic integrity, authorship, technological
dependence, and the absence of clear institutional policies. The study concludes that
implementing a socio-technical control framework is essential to ensure an ethical, formative, and
context-sensitive adoption of generative AI in Ecuadorian universities, fostering digital
responsibility and critical thinking. The results also highlight four governance approaches
applicable to higher education: compliance-based frameworks, institutional self-regulation,
hybrid regulatory models, and participatory frameworks.
Keywords: Generative artificial intelligence, Higher education, Socio-technical control
framework, Academic integrity, AI ethics
Todo el contenido de la Revista Científica Internacional Arandu UTIC publicado en este sitio está disponible bajo
licencia Creative Commons Atribution 4.0 International.

Vol. 13/ Núm. 1 2026 pág. 3492
INTRODUCCIÓN
El auge de la inteligencia artificial generativa (IAG) ha transformado profundamente la
dinámica de la educación superior, modificando la manera en que los docentes y estudiantes
conciben los procesos de enseñanza, aprendizaje y evaluación. Desde finales de 2022,
herramientas como ChatGPT, Bard o Humata.ai se han posicionado como referentes de una
revolución tecnológica que combina accesibilidad, inmediatez en la generación de contenidos y
personalización educativa en tiempo real. Sin embargo, este avance vertiginoso plantea
interrogantes sobre la ética, la integridad académica y la fiabilidad de la información generada
por sistemas automatizados (Gallent, 2023).
A nivel global, las instituciones universitarias enfrentan el desafío de integrar estas
tecnologías de manera ética y sostenible, garantizando la privacidad, la equidad y la autoría
legítima del conocimiento. El mayor reto no radica únicamente en la adopción de la IAG, sino en
la construcción de políticas institucionales que orienten su uso responsable, fortalezcan la
alfabetización digital crítica y eviten prácticas deshonestas como el plagio o la suplantación de
autoría (Gallent, 2023).
Sin embargo, a pesar de los avances tecnológicos en el campo educativo, aún persiste el
problema relacionado con la ausencia de reglamentos y políticas de control que regulen el uso de
la I.A en el campo académico, generando incertidumbre tanto a nivel de docentes y estudiantes.
En el contexto ecuatoriano, la incorporación de la inteligencia artificial generativa avanza
de forma gradual, impulsada por el interés académico y las políticas de innovación educativa
promovidas en las universidades. No obstante, la ausencia de marcos regulatorios específicos
evidencia la necesidad de un marco socio-técnico de control que armonice la innovación
tecnológica con los principios éticos y formativos propios de la educación superior (Barragán
Martínez, 2023). De este modo, el desafío no se limita al aprovechamiento técnico de la IAG, sino
que abarca la formación de una cultura universitaria que promueva el pensamiento crítico, la
responsabilidad digital y la integridad académica como ejes del aprendizaje contemporáneo
(Campuzano y otros, 2025).
La irrupción de la inteligencia artificial generativa (IAG) en la educación superior ha
marcado un punto de inflexión en los procesos de enseñanza, aprendizaje, evaluación e
investigación académica. Herramientas como ChatGPT y otros modelos generativos han
acelerado la producción de textos, imágenes, códigos y recursos educativos, generando
oportunidades significativas para la personalización del aprendizaje y la optimización del trabajo
académico, pero también importantes desafíos éticos, pedagógicos y organizacionales. (Vera,
2023). Esta rápida adopción ha transformado las dinámicas tradicionales del quehacer
universitario, situando a las instituciones de educación superior (IES) frente a la necesidad de
repensar sus marcos normativos y prácticas educativas.

Vol. 13/ Núm. 1 2026 pág. 3493
Diversos estudios coinciden en que la IAG ofrece beneficios relevantes en términos de
eficiencia, apoyo a la docencia, generación de ideas, análisis de información y desarrollo de
materiales didácticos; sin embargo, su uso indiscriminado plantea riesgos asociados a la
integridad académica, la originalidad del trabajo estudiantil, la transparencia en la autoría y la
equidad en el acceso a la tecnología (Chavez et al, 2023).
En este contexto, la preocupación por la autenticidad del aprendizaje y la evaluación justa
del desempeño estudiantil se ha intensificado, especialmente en escenarios donde la generación
automática de contenidos puede sustituir procesos cognitivos fundamentales como el análisis
crítico y la síntesis de información. Desde la perspectiva docente, la incorporación de la IAG ha
generado percepciones ambivalentes. Por un lado, los profesores reconocen su potencial para
mejorar la calidad educativa y reducir la carga administrativa; por otro, manifiestan inquietudes
relacionadas con el uso indebido de estas herramientas en evaluaciones y actividades académicas,
así como la ausencia de lineamientos claros para su integración pedagógica (Perezchica et al,
2024).
Estas tensiones evidencian la necesidad de acompañar la adopción tecnológica con
procesos de formación docente, rediseño de estrategias didácticas y mecanismos de control
institucional que garanticen un uso ético y responsable.
En el ámbito latinoamericano, las investigaciones resaltan que la IAG no debe ser
concebida únicamente como una herramienta tecnológica, sino como un fenómeno socio-técnico
que interactúa con dimensiones culturales, normativas, pedagógicas y organizacionales propias
de cada contexto educativo (Chavez et al, 2023).
En consecuencia, las respuestas institucionales no pueden limitarse a la prohibición o al
uso instrumental de la tecnología, sino que deben orientarse hacia la construcción de marcos
integrales que articulen la dimensión técnica políticas, protocolos, seguridad de datos con la
dimensión social ética, formación, cultura académica y equidad.
En el contexto ecuatoriano, donde las IES enfrentan procesos de transformación digital
acelerada y desafíos estructurales relacionados con la gobernanza educativa y la brecha
tecnológica, resulta imprescindible proponer un marco socio-técnico de control que oriente el uso
responsable de la IAG. Dicho marco debe permitir a las instituciones aprovechar las
potencialidades de la inteligencia artificial generativa sin comprometer la integridad académica,
la calidad del aprendizaje ni los principios éticos que sustentan la educación superior.
En este sentido surge la siguiente formulación del problema: de qué manera influye el uso
de la inteligencia artificial generativa en los procesos educativos y probidad académica en la
educación superior ecuatoriana. Así mismo se formula la siguiente hipótesis: influye
significativamente el uso de la I.A.G en los procesos de enseñanza aprendizaje y en la integridad
académica de la educación superior.

Vol. 13/ Núm. 1 2026 pág. 3494
Por lo expuesto la presente investigación tiene como objetivos: analizar el uso de la
inteligencia artificial generativa en la educación superior ecuatoriana, considerando las opiniones
de estudiantes, docentes y autoridades de dos instituciones de educación superior, a la par se
pretende identificar los riesgos y beneficios que supone el uso de la I.A.G en la educación y
analizar la necesidad de normativas que regulen su uso.
En este sentido, el presente estudio busca contribuir al debate académico proponiendo un
enfoque que integre regulación, orientación pedagógica y acompañamiento institucional como
pilares para una adopción responsable y contextualizada de la IA generativa en las universidades
del Ecuador.
Marco teórico
La inteligencia artificial generativa (IAG) se define como un conjunto de tecnologías
basadas en modelos avanzados de aprendizaje automático capaces de generar contenido nuevo
texto, imágenes, audio, video o código a partir de patrones aprendidos en grandes volúmenes de
datos. Estos sistemas operan mediante interfaces conversacionales de lenguaje natural, lo que
facilita su adopción masiva en distintos contextos sociales y educativos. (Hernández et al, 2024)
En el ámbito de la educación superior, la IAG se ha consolidado como una herramienta
con alto potencial para apoyar procesos de enseñanza, aprendizaje, evaluación e investigación,
aunque su uso plantea interrogantes relacionados con la calidad de la información, la originalidad
académica y la ética del conocimiento (Sanabria y otros, 2023)
Estudios recientes evidencian que la capacidad de estos modelos para producir textos
coherentes y persuasivos puede influir significativamente en la forma en que los estudiantes
acceden y procesan la información, lo que refuerza la necesidad de un uso crítico y supervisado
(Finkel et al, 2024).
El enfoque socio técnico plantea que toda tecnología debe comprenderse en su doble
dimensión material y organizacional, porque su funcionamiento y sus efectos dependen de cómo
se articulan los dispositivos, los métodos de trabajo, los roles, las reglas y los acuerdos que les
dan sentido dentro de una institución. Desde esta base, el marco socio técnico de control se define
como la integración de decisiones técnicas y sociales que permite gobernar la incorporación de la
inteligencia artificial generativa, evitando que se limite a una adopción instrumental y asegurando
coherencia con la planificación, la gestión y el seguimiento institucional (Roca Petitjean, 2023).
En este estudio, la variable marco socio técnico incluye de forma implícita condiciones
de seguridad, privacidad y trazabilidad del uso de IA, capacidades de docentes y estudiantes para
emplearla con transparencia y propósito formativo, lineamientos y procedimientos de supervisión,
y criterios éticos que protegen la integridad académica, la originalidad y la equidad. Esta
operacionalización se justifica porque la literatura sobre IA generativa en educación superior
señala riesgos recurrentes como plagio, desinformación, falta de atribución y vulneración de

Vol. 13/ Núm. 1 2026 pág. 3495
datos, por lo que recomienda establecer políticas, formación y códigos éticos para un uso
responsable (Guaman, 2025).
Aplicado a la educación superior, este enfoque permite comprender que el impacto de la
IAG depende de variables como las competencias digitales del profesorado y del estudiantado, la
cultura institucional, las políticas universitarias y los valores que orientan el uso del conocimiento.
(Romeu et al, 2025)
Diversos autores coinciden en que la ausencia de una visión socio-técnica puede conducir
a una adopción acrítica de la tecnología, generando dependencia, pérdida de pensamiento crítico
y nuevas brechas educativas. (Romeu et al, 2025)
En este sentido, el enfoque socio-técnico resulta útil para diseñar marcos de control
formativos, que no se centren únicamente en la prohibición o vigilancia, sino en la
corresponsabilidad entre actores institucionales y en la integración ética de la IA generativa en
los procesos académicos.
La gobernanza de la IA generativa en educación superior se vincula estrechamente con
los principios de ética, transparencia, rendición de cuentas y protección de derechos humanos.
Organismos internacionales como la UNESCO han desarrollado marcos normativos que orientan
el uso responsable de la inteligencia artificial en contextos educativos y científicos. (UNESCO,
2021)
La Recomendación sobre la Ética de la Inteligencia Artificial establece principios como
la centralidad del ser humano, la equidad, la no discriminación y la protección de datos personales,
subrayando que la IA debe fortalecer, y no sustituir, las capacidades humanas en la educación
(Romeu et al, 2025).
Asimismo, la Guía para el uso de la IA generativa en educación e investigación enfatiza
la necesidad de políticas institucionales claras, formación ética y evaluación continua del impacto
tecnológico. Tiene como objetivo principal ayudar a Gobiernos, Universidades, Institutos, y
Colegios, docentes a regular e integrar la I.A de manera ética, clara, y pedagógicamente adecuada.
La Guía se enfoca en varios temas: La IA generativa puede transformar la educación, Necesidad
de políticas y regulación institucional, Principios éticos para el uso de IA en educación,
Formación docente en inteligencia artificial, Protección de estudiantes y límites de uso,
Validación pedagógica de las herramientas de IA. (UNESCO, 2024)
En el ámbito de los estándares internacionales, se destacan los aportes de la OECD en
materia de gobernanza de sistemas de IA confiables y los desarrollos normativos de la ISO
relacionados con la gestión del riesgo, la seguridad de la información y la calidad de los sistemas
inteligentes. Estos marcos refuerzan la idea de que el control de la IA debe ser preventivo,
participativo y adaptativo, especialmente en contextos educativos.
Estudios Previos, la literatura reciente muestra un crecimiento sostenido de
investigaciones sobre la percepción, adopción y efectos de la IA generativa en la educación

Vol. 13/ Núm. 1 2026 pág. 3496
superior. Estudios realizados con estudiantes universitarios indican una alta aceptación de
herramientas como ChatGPT para apoyar tareas académicas, mejorar la eficiencia y facilitar el
aprendizaje autónomo, aunque también se evidencian preocupaciones éticas y de privacidad
(Hernández et al, 2024).
Investigaciones basadas en grandes muestras estudiantiles señalan que la experiencia
previa con la IA influye significativamente en la valoración de sus resultados, destacándose la
necesidad de formación en alfabetización informacional y pensamiento crítico para evitar la
difusión de información errónea o sesgada (Finkel et al, 2024).
Desde la perspectiva docente, los estudios evidencian una percepción generalmente
positiva, pero condicionada por factores como la facilidad de uso, el valor pedagógico percibido
y las preocupaciones éticas, especialmente en relación con la evaluación y la autoría académica
(Padilla & Martín, 2024).
En el contexto latinoamericano, las investigaciones resaltan que la IAG puede actuar
como tutor personalizado, favoreciendo la motivación, la autogestión del aprendizaje y la
retención del conocimiento, siempre que exista una guía pedagógica clara y políticas
institucionales sólidas (Rossalyn, 2025).
Contexto del Ecuador y de la educación superior
La inteligencia artificial (IA) en la actualidad se ha convertido en una de las tecnologías
más influyentes del siglo XXI, causando transformaciones en diversos sectores, incluido el
educativo. En el contexto ecuatoriano, la IA se integra progresivamente en las instituciones de
educación superior, lo que permite analizar una gran cantidad de datos, identificar patrones y
mejorar los procesos de enseñanza y aprendizaje a través de sistemas inteligentes capaces de
mejorar y modificar la experiencia educativa de los estudiantes. Estas herramientas permiten
adaptar los contenidos, el ritmo de aprendizaje y las estrategias pedagógicas a las características
individuales de cada estudiante, lo que contribuye a mejorar el rendimiento académico y el
compromiso con el proceso educativo.
En el Ecuador, la adopción de tecnologías de inteligencia artificial en el ámbito
universitario se encuentra en una fase inicial, pero en crecimiento. Varias universidades y centros
tecnológicos han comenzado a desarrollar laboratorios de investigación en IA, programas
académicos especializados y proyectos de innovación educativa que integran aprendizaje
automático y análisis de datos en plataformas virtuales de aprendizaje. (Navarrete et al, 2025).
Estos procesos son parte de una tendencia global en la que las diferentes instituciones de
educación superior buscan modernizar sus modelos educativos mediante el uso de tecnologías
inteligentes que faciliten la gestión académica, la investigación, la evaluación automatizada y
muchos otros factores de la gestión docente y estudiantil.
El interés por la I.A no solo es en el Ecuador, sino que ha aumentado considerablemente
en las universidades latinoamericanas. Estudios recientes indican que más del 75 % de las

Vol. 13/ Núm. 1 2026 pág. 3497
principales universidades analizadas en la región promueven la investigación en sistemas
autónomos basados en IA y el 96 % ofrece carreras o programas relacionados con esta tecnología,
lo que evidencia la creciente importancia de la inteligencia artificial en la formación profesional
y en la producción científica. (Pérez et al, 2024)
Sin embargo, la implementación de la inteligencia artificial en el sistema educativo
ecuatoriano también enfrenta importantes desafíos. Entre los principales se encuentran la brecha
digital, la falta de infraestructura tecnológica en zonas rurales, la escasa capacitación docente en
competencias digitales y los costos asociados a la implementación de sistemas inteligentes.
(Navarrete et al, 2025)
De la misma manera lo afirma (Pérez et al, 2024), quien menciona, estas limitaciones
pueden generar desigualdades en el acceso a las tecnologías educativas, especialmente en regiones
donde la conectividad y los recursos tecnológicos son limitados.
Finalmente, varios estudios coinciden en que la inteligencia artificial es una oportunidad
eficaz para transformar la educación superior ecuatoriana. Su integración puede mejorar la calidad
educativa, aumentar el acceso al conocimiento y fortalecer la formación de profesionales
preparados para la economía digital. Sin embargo, la clave para esta transformación va depender
de la implementación de políticas públicas que fomenten la inversión en infraestructura
tecnológica, la capacitación docente y la investigación en inteligencia artificial aplicada a la
educación.
Aunque aún no existen regulaciones específicas y vinculantes para el uso de IA generativa
en las universidades ecuatorianas, se observa un creciente interés institucional por establecer
lineamientos internos, códigos de integridad académica y estrategias de formación ética, en
consonancia con las recomendaciones internacionales (Romeu et al, 2025).
En Ecuador, la (UNESCO, 2021) ha promovido espacios de diálogo y reflexión sobre la
ética de la inteligencia artificial, orientados a sensibilizar a las instituciones educativas sobre la
necesidad de marcos normativos y pedagógicos responsables. Estas iniciativas enfatizan la
importancia de alinear la adopción de la IA con los principios de equidad, inclusión y desarrollo
sostenible.
Entre los principales desafíos del contexto ecuatoriano se identifican:
• La falta de políticas institucionales homogéneas sobre IA generativa.
• Limitaciones en la capacitación docente en uso pedagógico y ético de la IA.
• Riesgos asociados al plagio, dependencia tecnológica y pérdida de pensamiento crítico.
• Brechas de acceso y alfabetización digital entre estudiantes.
Estos factores refuerzan la necesidad de un marco socio-técnico de control, que articule
gobernanza, ética, pedagogía y tecnología, adaptado a la realidad del sistema de educación
superior del país.

Vol. 13/ Núm. 1 2026 pág. 3498
MATERIALES Y MÉTODOS
La investigación se desarrolló bajo un enfoque mixto, combinando métodos cuantitativos
y cualitativos para entender de manera integral el uso de la inteligencia artificial generativa en las
instituciones de educación superior del Ecuador. La parte cuantitativa permitió identificar
tendencias, frecuencia de uso y percepciones de estudiantes y docentes respecto a la inteligencia
artificial generativa mediante encuestas estructuradas con escalas tipo Likert. Por su parte, el
componente cualitativo intenta comprender las perspectivas institucionales relacionadas con
gobernanza, regulación, ética académica y mecanismos de control mediante entrevistas dirigidas
a autoridades universitarias. La integración de ambos enfoques permitió contrastar las prácticas
reales de uso de IA con los criterios institucionales de regulación, integridad académica y gestión
tecnológica, aportando evidencia para la construcción del marco socio-técnico de control para el
uso responsable de la IA generativa. (Esquivel, 2025)
Respecto al tipo de estudio, este es de tipo descriptivo y analítico, el mismo que permite
comprender el uso de las herramientas de la I.A, cuales son los riesgos y beneficios, así como el
conocimiento de las normativas respecto al tema. Respecto a la fase analítica ésta permitió
analizar las condiciones institucionales necesarias para implementar mecanismos de gobernanza
y control del uso de IA, identificando necesidades de regulación, formación docente, gestión
tecnológica y políticas institucionales. La investigación aplicó un diseño no experimental de corte
transversal, ya que las variables fueron observadas en su contexto natural sin manipulación por
parte del investigador y la recolección de información se realizó en un único momento temporal.
(Otzen & Manterola, 2017)
Para la obtención de información se utilizaron tres técnicas principales: Se aplicó un
cuestionario estructurado dirigido a estudiantes y docentes universitarios. El cuestionario incluyó
preguntas cerradas con escala Likert de cinco niveles. La encuesta permitió obtener datos
cuantitativos sobre los patrones de uso y percepciones de la comunidad universitaria. De la misma
manera se realizaron entrevistas a las autoridades de la Universidad Técnica de Cotopaxi
Extensión La Maná y del Instituto Superior Tecnológico Edupraxis.
Finalmente, se realizó la operacionalización de las variables lo que permitió estructurar
el proceso de investigación de manera sistemática. Iniciamos con la variable independiente sobre
el marco socio-técnico institucional, el cual comprende las normas, políticas, lineamientos
institucionales y la infraestructura tecnológica que definen y regulan la inteligencia artificial en
las instituciones de educación superior. Por otro lado, se estableció como variable dependiente el
uso responsable de la inteligencia artificial generativa en el ámbito educativo, la cual permite
evaluar la forma en que estudiantes y docentes utilizan estas herramientas en sus actividades
académicas, considerando aspectos como el aprendizaje autónomo, la calidad de los trabajos
académicos, la originalidad y los riesgos asociados al uso inadecuado de estas tecnologías. Por lo

Vol. 13/ Núm. 1 2026 pág. 3499
expuesto el análisis de ambas variables da un panorama concreto sobre la problemática a ser
investigada.
Población y muestra
La población estuvo conformada por estudiantes, docentes y autoridades de las siguientes
Instituciones de Educación Superior: Universidad Técnica de Cotopaxi Extensión La Maná y del
Instituto Superior Tecnológico Edupraxis
Para la muestra de docentes y autoridades se seleccionó mediante muestreo no
probabilístico por conveniencia, considerando criterios de accesibilidad y participación
voluntaria, mientras que para los estudiantes se sumó el total de ambas instituciones y se
estableció la siguiente formula:
𝑛 = 𝑁 · 𝑍² · 𝑝 · 𝑞
𝑒²(𝑁 − 1) + 𝑍² · 𝑝 · 𝑞
Donde:
n = tamaño de la muestra
N = tamaño de la población (1516)
Z = valor de la distribución normal según el nivel de confianza
p = probabilidad de ocurrencia (0.5 cuando no se conoce)
q = 1 − p (0.5)
e = margen de error (0.05)
Tamaño de la muestra 307 estudiantes
RESULTADOS
Los resultados obtenidos en la presente investigación se basan principalmente en tres
aspectos principales lo que permitió obtener un panorama más amplio sobre el uso de la
inteligencia artificial generativa en el contexto de la educación superior. En primer lugar, se aplicó
una encuesta a los estudiantes de ambas instituciones para lo cual se utilizó la escala de Likert lo
que facilitó medir las diferentes respuestas relacionadas con el uso de la inteligencia artificial en
el ámbito académico.
Las encuestas realizadas a los docentes es nuestro segundo instrumento de medición el
mismo que se aplicó con el objetivo de conocer su opinión sobre la incorporación de la
inteligencia artificial generativa en los procesos educativos, así como su percepción sobre los
beneficios, problemas y desafíos que estas tecnologías pueden representar en la enseñanza y
evaluación académica.
Finalmente, como tercer componente metodológico, se llevaron a cabo entrevistas a las
autoridades académicas, con el propósito de identificar la visión institucional respecto al uso de
la inteligencia artificial, así como la importancia de aplicar normas y políticas claras dentro de las
instituciones para promover el uso responsable de estas tecnologías en el entorno universitario.

Vol. 13/ Núm. 1 2026 pág. 3500
Análisis de resultados Estudiantes
Para el efecto se realizó un análisis estadístico calculando el promedio (media aritmética)
de las respuestas de los estudiantes obtenidos en cada variable analizada. Este promedio se obtuvo
mediante la suma total de los valores asignados a cada respuesta dividida para el número total de
encuestados. Siendo posible identificar las percepciones de los estudiantes respecto al uso de la
inteligencia artificial generativa en el contexto académico.
Para facilitar la interpretación de los resultados, los promedios obtenidos fueron
contrastados con un rango de interpretación previamente definido, donde los valores entre 1.0 y
1.8 indican muy en desacuerdo, 1.9 a 2.6 en desacuerdo, 2.7 a 3.4 neutral, 3.5 a 4.2 de acuerdo, y
4.3 a 5.0 totalmente de acuerdo.
Este procedimiento permitió clasificar cada resultado dentro de una categoría
interpretativa clara, facilitando así el análisis de la percepción de los estudiantes sobre aspectos
como la frecuencia de uso de la inteligencia artificial, su impacto en la calidad de los trabajos
académicos, el aprendizaje autónomo, los riesgos asociados al plagio y la necesidad de establecer
normas institucionales.
Tabla 1
Promedios e interpretación de percepciones estudiantiles sobre el uso de IA generativa,
beneficios, riesgos y necesidad de normas institucionales
Variable Analizada Promedio Interpretación
Frecuencia de uso de la I.A 3.40 Los estudiantes utilizan herramientas de IA
generativa con una frecuencia moderada,
situándose entre el uso ocasional y frecuente.
I.A mejora calidad de
trabajos
3.64 Los estudiantes tienden a estar de acuerdo en que
la IA generativa mejora la calidad de sus trabajos
académicos.
I.A mejora aprendizaje
autónomo
3.92 Existe una percepción positiva clara sobre el
aporte de la IA al aprendizaje autónomo.
I.A afecta originalidad
académica
3.13 Los estudiantes perciben de manera moderada
que la IA puede afectar la originalidad de los
trabajos.
Riesgo de plagio 3.52 Los estudiantes consideran que existe un riesgo
moderado-alto de plagio asociado al uso de IA
generativa.
Normas institucionales 4.11 Existe un alto nivel de acuerdo respecto a la
necesidad de que las universidades establezcan
normas claras sobre el uso de IA.
Promedio 3,62 Los estudiantes tienen una percepción favorable
del uso de la I.A, sin embargo reconocen que su
uso representa riesgo.
Como se puede observar en el cuadro se evidencia una percepción moderada a positiva
sobre el uso de la inteligencia artificial generativa en el ámbito académico. En primer lugar, la
frecuencia de uso de la IA presenta un promedio de 3.40, lo que significa que los estudiantes

Vol. 13/ Núm. 1 2026 pág. 3501
manejan estas herramientas con una frecuencia moderada, situándose entre el uso ocasional y
frecuente. Este resultado coincide con estudios recientes que señalan que las herramientas de
inteligencia artificial generativa se están incorporando progresivamente en las actividades
académicas, especialmente para apoyar procesos de búsqueda de información, redacción y
análisis de datos. (García, 2024)
En relación con el impacto de la IA en la calidad de los trabajos académicos, el promedio
obtenido fue de 3.64, lo que indica que estas herramientas contribuyen a mejorar la calidad de los
productos académicos. Este hallazgo se alinea con investigaciones que destacan que la
inteligencia artificial permite automatizar procesos, optimizar la redacción de textos y apoyar la
generación de contenidos académicos, facilitando así el trabajo tanto de estudiantes como de
docentes. (Chavez et al, 2023)
Respecto al indicador relacionado con el aprendizaje autónomo presenta uno de los
valores más altos del análisis (3.92), lo que evidencia una percepción claramente positiva respecto
al aporte de la IA en el desarrollo de procesos de aprendizaje independiente.
Sin embargo, los resultados también reflejan alguna preocupación asociada al uso de la
inteligencia artificial en la educación, el factor relacionado con la afectación de la originalidad
académica obtuvo un promedio de 3.13, lo que indica una percepción moderada sobre el posible
impacto de estas herramientas en la autenticidad de los trabajos académicos. En esta misma línea,
el riesgo de plagio alcanzó un promedio de 3.52, evidenciando que los estudiantes entienden y
conocen el riesgo del mal uso de la IA generativa.
De la misma manera, uno de los resultados más significativos se relaciona con la variable
que tiene que ver con las normativas institucionales, la misma que alcanzó el promedio más alto
(4.11), evidenciando un alto nivel de acuerdo respecto a la necesidad de que las instituciones de
educación superior establezcan reglamentos y políticas claras sobre el uso de la inteligencia
artificial en el ámbito académico. Este resultado coincide con investigaciones recientes que
subrayan la importancia de desarrollar políticas institucionales, marcos éticos y lineamientos
pedagógicos que orienten el uso responsable de estas tecnologías en los entornos educativos.
(Guaman, 2025)
Estos resultados dejan claro que, si bien la inteligencia artificial generativa es recibida
como una herramienta con alto potencial para mejorar el aprendizaje y la calidad académica,
también plantea retos importantes relacionados con la ética, la integridad académica y la
necesidad de regulación institucional, aspectos que deben ser considerados por las autoridades
universitarias y los entes que regulan la educación superior en Ecuador.
Es importante mencionar que no todos los ítems del instrumento fueron analizados
mediante escala Likert. Este tipo de análisis se aplicó a aquellas preguntas orientadas a medir
percepciones y niveles de acuerdo, respecto al uso de la inteligencia artificial generativa en el
ámbito académico.

Vol. 13/ Núm. 1 2026 pág. 3502
Para darle mayor peso a la investigación se ha aplicado el Alfa de Cronbach para lo cual
se utilizaron 6 ítems ordinales del cuestionario:
Tabla 2
Ítems de la encuesta utilizados para el cálculo del alfa de Cronbach y su varianza
N.º Ítems Varianza
1 Frecuencia de uso de IA 0.507
2 IA mejora calidad de trabajos 0.510
3 IA mejora aprendizaje autónomo 0.710
4 IA afecta originalidad académica 0.613
5 Riesgo de plagio percibido 0.570
6 Necesidad de normas institucionales 1.143
Total, de ítems: k=6
Suma de varianzas: ΣVar(i)=4.053
Varianza total obtenida: Var(total)=8.584
Calculo del Alfa de Cronbach
𝛼 = 𝑘
𝑘 − 1 (1 − 𝛴 𝑉𝑎𝑟(𝑖)
𝑉𝑎𝑟(𝑡𝑜𝑡𝑎𝑙))
𝛼 = 𝑘
𝑘 − 1 (1 − 𝛴 𝑉𝑎𝑟(𝑖)
𝑉𝑎𝑟(𝑡𝑜𝑡𝑎𝑙))
𝛼 = 1.2(1 − 0.472)
𝛼 = 0.634
El análisis realizado a partir de 307 encuestas, dio como resultado un valor de α = 0.63,
lo cual indica una consistencia interna moderada del instrumento. Este nivel de confiabilidad es
aceptable en estudios exploratorios de percepción social, particularmente cuando el cuestionario
integra diversas dimensiones relacionadas con el uso, los beneficios y los riesgos de la inteligencia
artificial generativa en el contexto educativo.
“Los criterios para la interpretación del coeficiente alfa de Cronbach para la fiabilidad
son que cualquier valor superior a 0,8 indica una buena fiabilidad, entre 0,6 y 0,8 una fiabilidad
aceptable, y un valor del coeficiente alfa de Cronbach inferior a 0,6 una fiabilidad inaceptable
para la investigación exploratoria.” (Sigudla & Maritz, 2023)
Finalmente, con el objetivo de conocer cómo se relacionan las percepciones de los
estudiantes respecto a la I.A. generativa se procedió a realizar la matriz de correlación de las
variables.

Vol. 13/ Núm. 1 2026 pág. 3503
Tabla 3
Matriz de correlación de variables (Pearson)
Variable Uso
I. A
Calidad
Trabajos
Aprendizaje
Autónomo
Originalidad
académica
Riesgo
plagio
Normas
Institucionales
Uso de la I. A 1.00 0.31 0.22 0.13 0.30 0.05
Calidad
trabajos
0.31 1.00 0.61 0.18 0.21 0.15
Aprendizaje
autónomo
0.22 0.61 1.00 0.19 0.17 0.15
Originalidad
académica
0.13 0.18 0.19 1.00 0.41 0.52
Riesgo plagio 0.30 0.21 0.17 0.41 1.00 0.21
Normas
Institucionales
0.05 0.15 0.15 0.52 0.21 1.00
0.0 – 0.19
Muy débil
0.20 – 0.39
Débil
0.40 – 0.59
Moderada
0.60 – 0.79
Fuerte
0.80 – 1.00
Muy fuerte
Interpretación de los resultados de la matriz de correlación de variables
Los resultados obtenidos son los siguientes: se identificó relaciones significativas entre
las variables. La relación más fuerte se da entre la percepción de mejora en la calidad de los
trabajos académicos y el aprendizaje autónomo (r = 0.61), lo que sugiere que los estudiantes
perciben la IA generativa como una herramienta que mejora y refuerza los procesos de
aprendizaje independiente. Paralelamente, se identificó una correlación moderada entre la
percepción de afectación de la originalidad académica y la necesidad de normativas
institucionales para regular el uso de la IA (r = 0.52). Destacando la importancia de establecer
marcos institucionales de gobernanza para el uso responsable de la inteligencia artificial
generativa en la educación superior.
Por otra parte, las correlaciones más bajas se dan entre aprendizaje autónomo y riesgo de
plagio (r = 0.17), así como entre aprendizaje autónomo y necesidad de normas institucionales (r
= 0.15), lo que sugiere que los beneficios educativos percibidos de la IA no se asocian
directamente con preocupaciones regulatorias o éticas.
Vol. 13/ Núm. 1 2026 pág. 3504
Análisis de resultados Docentes
Figura 1
Respuestas encuestas
La IA generativa ya está incorporada en la práctica docente, de acuerdo a los datos
obtenidos cerca de dos tercios de los docentes la usan casi siempre y otro bloque importante a
veces, lo que confirma que el fenómeno no es marginal ni futuro, sino actual. El uso se concentra
en tareas funcionales para la docencia, especialmente planificación académica, seguida de
elaboración de material didáctico e investigación. Esto respalda que la IA se está integrando como
soporte operativo del trabajo docente y no solo como curiosidad tecnológica.
Figura 2
Respuestas encuestas
Respecto a si la I.A.G es una oportunidad para innovar el proceso educativo, la mayoría
de los encuestados manifiestan estar de acuerdo (63,5%), así mismo un porcentaje significativo
manifiesta estar totalmente de acuerdo (30,8%), están en desacuerdo un mínimo de encuestados.
Vol. 13/ Núm. 1 2026 pág. 3505
Figura 3
Respuestas encuestas
En términos pedagógicos, la mayoría la percibe como oportunidad de innovación en
enseñanza-aprendizaje, pero al mismo tiempo se identifica el problema de la evaluación auténtica
del aprendizaje de los estudiantes, esta combinación es clave para el argumento propuesto, hay
apertura a innovar, pero se tensiona el núcleo de la educación superior, que es evaluar aprendizaje
real y autoría.
Figura 4
Respuestas encuestas
El punto crítico aparece en el aspecto ético, la preocupación por integridad académica es
mayoritariamente alta o muy alta, y esto se traduce en una demanda clara de acción institucional,
la gran mayoría está de acuerdo en que se deben implementar mecanismos de control, sin
embargo, más de la mitad declara no haber recibido capacitación institucional, y otro grupo
relevante indica que está “en proceso”. Este desajuste justifica directamente la necesidad de un
marco socio-técnico para control el proceso formativo.
Vol. 13/ Núm. 1 2026 pág. 3506
Figura 5
Respuestas encuestas
Sobre los mecanismos de control para el uso de la inteligencia artificial, la mayoría
afirma estar totalmente de acuerdo (76,9 %) esto significa que es necesario implementar
normativas institucionales que regulen su uso.
Figura 6
Respuestas encuestas
Finalmente, cuando se pregunta qué acciones priorizar, predominan regulación
institucional y formación docente, esto encaja con una salida socio-técnica donde no basta con
detectar el uso de IA, al contrario, hace falta normar, formar y orientar la práctica para reducir
riesgos sin bloquear la innovación y uso de tecnologías emergentes.
Análisis de resultados Autoridades
Para finalizar nuestro análisis sobre la I.A en la Educación Superior, se realizaron
entrevistas semiestructuradas a las autoridades académicas de las dos instituciones por un lado la
Universidad Técnica de Cotopaxi, extensión La Maná (Director Ejecutivo, Director Académico

Vol. 13/ Núm. 1 2026 pág. 3507
y Directores de Carrera), y el Instituto Superior Edupraxis (Rector, Vicerrector Académico y de
Investigación). El propósito de estas entrevistas fue analizar la perspectiva institucional sobre el
uso de la inteligencia artificial generativa en los procesos educativos, así como identificar
aspectos positivos y negativos sobre el tema, esto permitirá buscar estrategias orientadas a regular
el uso de la I.A de manera responsable en el ámbito académico.
La inteligencia artificial no es ajena para las autoridades, en general, se percibe que estas
tecnologías representan una oportunidad para afianzar los procesos de enseñanza y aprendizaje,
principalmente en actividades relacionadas con la búsqueda de información, el apoyo a la
redacción académica y el desarrollo de habilidades digitales en los estudiantes.
Es importante mencionar la creciente preocupación de nuestras autoridades con el uso
excesivo e inadecuado de estas herramientas, particularmente en lo referente a la originalidad de
los trabajos académicos y al eventual incremento del plagio académico. En este sentido,
implementar políticas claras y una formación ética de los estudiantes, será clave para evitar este
problema.
Finalmente, las autoridades destacaron la importancia de capacitar tanto a docentes como
a estudiantes en el uso adecuado de la inteligencia artificial generativa, con el fin de aprovechar
sus beneficios sin comprometer la integridad académica. En este sentido, se considera que la
incorporación de políticas institucionales, programas de capacitación y estrategias pedagógicas
innovadoras será fundamental para garantizar un uso responsable y ético de estas tecnologías en
la educación superior.
Tabla 4
Categorías de análisis, hallazgos e interpretación de entrevistas a autoridades sobre el uso de
IA generativa en educación superior
Categoría de
análisis
Hallazgos principales Interpretación
Uso
académico de
la IA
Las autoridades reconocen que
herramientas como ChatGPT y otras
aplicaciones de IA generativa están siendo
utilizadas por estudiantes y docentes como
apoyo en la búsqueda de información,
redacción de textos y desarrollo de tareas
académicas.
La inteligencia artificial se
percibe como una
herramienta emergente que
está comenzando a integrarse
en los procesos educativos.
Beneficios
educativos
Se considera que la IA puede contribuir al
aprendizaje autónomo, facilitar el acceso a
información y apoyar la producción
académica de los estudiantes.
Existe una percepción
positiva sobre el potencial de
la IA para mejorar los
procesos de enseñanza y
aprendizaje.
Riesgos
académicos
Las autoridades manifestaron preocupación
sobre el posible uso inadecuado de estas
herramientas, especialmente en relación con
el plagio académico y la pérdida de
originalidad en los trabajos estudiantiles.
La incorporación de IA en la
educación también genera
desafíos relacionados con la
integridad académica.
Normativa
institucional
En ambas instituciones se reconoce que
todavía no existen lineamientos
institucionales completamente definidos
Se evidencia la necesidad de
desarrollar políticas
institucionales que orienten

Vol. 13/ Núm. 1 2026 pág. 3508
para regular el uso de la inteligencia
artificial en las actividades académicas.
el uso responsable de estas
tecnologías.
Formación y
capacitación
Se considera importante implementar
procesos de capacitación dirigidos a
docentes y estudiantes sobre el uso ético y
responsable de la inteligencia artificial.
La formación digital se
identifica como un elemento
clave para aprovechar los
beneficios de la IA en el
ámbito educativo.
Visión
institucional
Las autoridades coinciden en que la
inteligencia artificial representa una
transformación significativa para la
educación superior, por lo que las
instituciones deben adaptarse a estos
cambios mediante nuevas estrategias
pedagógicas y normativas.
La IA es vista como un
proceso de transformación
educativa que requiere
adaptación institucional.
Marco socio-técnico de control para el uso responsable de IA generativa en educación
superior
El marco socio-técnico de control se plantea como una estructura institucional para
ordenar el uso de IA generativa en la educación superior, evitando que su adopción dependa solo
de decisiones individuales. Su objetivo es aprovechar sus beneficios académicos sin comprometer
la integridad, la calidad del aprendizaje, la protección de datos ni la equidad. (Oncioiu & Bularca,
2025)A partir de los hallazgos del estudio, donde se observa uso extendido y demanda de normas
y capacitación, el control se concibe principalmente como preventivo y formativo, con reglas
claras, acompañamiento y seguimiento proporcional.
El marco se organiza en cinco pilares que operan de manera articulada. El pilar de
normativa y gobernanza establece qué usos son aceptables según el tipo de actividad, define
criterios mínimos de transparencia y autoría, y asigna responsables para emitir lineamientos,
atender casos y actualizar reglas (Michay, 2026).
El pilar de pedagogía y evaluación traduce la norma en práctica docente, ajustando tareas
e instrumentos de evaluación para diferenciar aprendizaje auténtico de producción asistida,
mediante rúbricas centradas en razonamiento, proceso y verificación de fuentes (Cotton y otros,
2024).
El pilar de formación y cultura de integridad desarrolla competencias de uso crítico en
docentes y estudiantes, refuerza acuerdos académicos sobre originalidad y promueve una cultura
de honestidad que reduzca el riesgo de uso indebido (Chávez, 2025).
El pilar de tecnología, privacidad y seguridad define herramientas autorizadas y reglas de
protección de datos, delimitando el manejo de información sensible y condiciones de seguridad
mínimas para el uso institucional (Amén y otros, 2024).
El pilar de equidad y transparencia académica incorpora medidas para reducir brechas de
acceso a herramientas y formaliza prácticas de declaración del uso de IA, de manera que la
evaluación sea más justa y comparable (Zawacki y otros, 2019).

Vol. 13/ Núm. 1 2026 pág. 3509
Para su implementación, el marco se aplica de forma gradual mediante diagnóstico
inicial, definición de lineamientos por tipo de tarea, capacitación breve y obligatoria, ajuste de
evaluación y un sistema simple de seguimiento y revisión periódica. La eficacia del marco se
verifica con indicadores prácticos: nivel de conocimiento de las reglas, cobertura de capacitación,
consistencia en la evaluación, adopción de declaración de uso, disminución de incidentes de
integridad, cumplimiento de medidas de seguridad y reducción de brechas de acceso. Con esta
estructura, la institución pasa de un uso informal de IA generativa a un modelo gobernado,
pedagógicamente coherente y éticamente defendible (Proctor y otros, 2023).
Triangulación de resultados
La triangulación de resultados ha permitido tener una idea significativa entre las
percepciones de las autoridades, docentes y estudiantes, en relación al uso de la inteligencia
artificial generativa en la educación superior. En primera instancia los estudiantes tienen una
percepción positiva del uso de la I.A resaltando el aporte del aprendizaje autónomo y la calidad
de los trabajos académicos, y reconocen los riesgos asociados al plagio y la falta de originalidad
en sus trabajos. Los docentes consideran que la I.A es una herramienta de ayuda didáctica y
pedagógica utilizada principalmente en la planificación y elaboración de materiales para el
aprendizaje, en este contexto los docentes también se encuentran preocupados por la integridad
académica que representa el mal uso de la I.A. Coincidiendo con los actores anteriores las
autoridades manifiestan que la I.A es una oportunidad para afianzar los procesos de enseñanza
aprendizaje, sin embargo concuerdan que es necesario establecer normas claras para garantizar el
uso adecuado de estas herramientas.
Por lo expuesto, estos resultados confirman que la inteligencia artificial generativa es
ampliamente aceptada en la comunidad universitaria, pero su uso no tiene la normativa ni las
regulaciones institucionales que garanticen su manejo.
Tabla de contingencia
El presente trabajo analiza la relación entre la institución de pertenencia y la frecuencia de
uso de herramientas de inteligencia artificial generativa, como ChatGPT, Copilot y Gemini. Para
ello, se utilizó una base de datos de 306 observaciones, a partir de la cual se elaboraron tablas de
contingencia, probabilidades y porcentajes. Además, se aplicó la prueba chi-cuadrado de
independencia para determinar si existe asociación significativa entre ambas variables.
H0: La frecuencia de uso de herramientas de inteligencia artificial generativa es
independiente de la institución de pertenencia de los encuestados.
H1: La frecuencia de uso de herramientas de inteligencia artificial generativa depende de
la institución de pertenencia de los encuestados.

Vol. 13/ Núm. 1 2026 pág. 3510
Prueba de independencia
Tabla 5
Prueba de independencia chi-cuadrado entre institución y frecuencia de uso de IA generativa
Prueba χ² gl p-valor
Chi-cuadrado de Pearson 7.6279 4 0.1062
Nota. La aproximación chi-cuadrado puede ser imprecisa debido a frecuencias esperadas bajas en al menos una
categoría, especialmente en “Nunca”.
Interpretación
La prueba de independencia de Pearson mostró un valor de χ²(4) = 7.6279, p = 0.1062,
por lo que no se encontró evidencia estadísticamente significativa para afirmar una asociación
entre la institución de pertenencia y la frecuencia de uso de IA generativa, al nivel de significancia
de 0.05. En términos inferenciales, las diferencias observadas entre el Instituto Superior
Tecnológico Universitario Edupraxis y La Universidad Técnica de Cotopaxi (UTC) pueden
atribuirse al azar muestral. Sin embargo, este resultado debe interpretarse con cautela, ya que la
advertencia del modelo indica que la aproximación chi-cuadrado puede no ser completamente
adecuada debido a valores esperados bajos en algunas celdas.
Decisión
No se rechaza H0, porque el valor p es mayor que 0.05. En conclusión, no se encontró
evidencia estadísticamente significativa de relación entre la institución y la frecuencia de uso de
IA generativa.
Tabla 6
Frecuencia de uso de IA generativa según institución de pertenencia
Institución A veces Frecuentemente Nunca Rara vez Siempre Total
Edupraxis 52 40 0 14 8 114
UTC 99 75 1 10 7 192
Total 151 115 1 24 15 307
Nota. Elaboración propia a partir de la base de datos de 307 observaciones.
Interpretación
La categoría de respuesta con mayor frecuencia en ambas instituciones fue “A veces”,
con 151 casos del total de la muestra, seguida de “Frecuentemente” con 115 casos. En Edupraxis
se registraron 52 respuestas en “A veces” y 40 en “Frecuentemente”, mientras que en la UTC se
observaron 99 y 75 casos, respectivamente. La categoría “Nunca” presentó una frecuencia
prácticamente nula, con un solo caso en toda la muestra. En términos descriptivos, se evidencia
que el uso de IA generativa se concentra principalmente en niveles intermedios de utilización.

Vol. 13/ Núm. 1 2026 pág. 3511
Tabla 7
Porcentajes respecto del total de la muestra del uso de IA generativa según institución
Institución A veces Frecuentemente Nunca Rara vez Siempre
Edupraxis 16.99% 13.07% 0.00% 4.58% 2.61%
UTC 32.35% 24.51% 0.33% 3.27% 2.29%
Nota. Los porcentajes fueron calculados sobre el total de la muestra (N = 307).
Interpretación
Al considerar el total de participantes, la mayor proporción corresponde a
docentes/profesionales de la UTC que reportan usar IA generativa “A veces” (32.35%), seguido
por quienes indican usarla “Frecuentemente” (24.51%). En Edupraxis, las proporciones
equivalentes fueron 16.99% y 13.07%, respectivamente. Esto sugiere que, en términos absolutos
y relativos al total de la muestra, la UTC aporta la mayor cantidad de respuestas en los niveles
más frecuentes de uso, lo cual también se relaciona con su mayor tamaño muestral.
Tabla 8
Distribución porcentual del uso de IA generativa dentro de cada institución (porcentajes por fila)
Institución A veces Frecuentemente Nunca Rara vez Siempre Total
Edupraxis 45.61% 35.09% 0.00% 12.28% 7.02% 100%
UTC 51.56% 39.06% 0.52% 5.21% 3.65% 100%
Nota. Los porcentajes por fila muestran la distribución interna del uso de IA dentro de cada institución.
Tabla 9
Distribución porcentual de la institución dentro de cada categoría de uso de IA generativa
(porcentajes por columna)
Institución A veces Frecuentemente Nunca Rara vez Siempre
Edupraxis 34.44% 34.78% 0.00% 58.33% 53.33%
UTC 65.56% 65.22% 100.00% 41.67% 46.67%
Nota. Los porcentajes por columna muestran cómo se distribuye la institución dentro de cada categoría de frecuencia
de uso.
Interpretación
Del total de personas que respondieron “A veces”, el 65.56% pertenece a la UTC y el
34.44% a Edupraxis. Algo similar ocurre en “Frecuentemente”, donde 65.22% corresponde a la
UTC y 34.78% a Edupraxis. En cambio, en la categoría “Rara vez”, Edupraxis concentra el
58.33% de las respuestas. Estos resultados indican que la UTC aporta una mayor proporción de
respuestas en las categorías de uso más habituales, aunque esta diferencia debe interpretarse
considerando que la UTC también posee un mayor número de observaciones en la muestra.
La figura muestra que en ambas instituciones predominan las categorías “A veces” y
“Frecuentemente”, lo que confirma un patrón de uso moderado y recurrente de la IA generativa.

Vol. 13/ Núm. 1 2026 pág. 3512
Visualmente, la UTC presenta una mayor proporción en estas categorías, aunque las diferencias
no alcanzan significancia estadística según la prueba chi-cuadrado aplicada.
Figura 7
Proporción de uso de IA generativa por institución
DISCUSIÓN
Varios autores coinciden con los resultados obtenidos respecto a la inteligencia artificial
generativa en la educación superior, así, se destaca las apreciaciones de los estudiantes que
enfatizan que la I.A ayuda en su desenvolvimiento académico, y agiliza la presentación de las
tareas, esto lo corrobora (Borja, 2025) quien señala que éstas tecnologías potencian la autogestión
del aprendizaje y aportan con la motivación estudiantil cuando se lo usa como una herramienta
complementaria al proceso de enseñanza aprendizaje. Asimismo los resultados obtenidos enfatiza
el uso de la I.A respecto a la originalidad de los trabajos académicos presentados y el riesgo de
plagio, concordando con lo que manifiesta (Perezchica et al, 2024), quienes manifiestan su
preocupación por que los estudiantes utilicen la I.A para solucionar problemas sin antes
desarrollar sus procesos cognitivos propios.
Lo mismo plantea (Vera, 2023) quien manifiesta que la inteligencia artificial en la
educación superior plantea dilemas éticos significativos, especialmente en relación con la
autenticidad y veracidad de los trabajos académicos. Por otra parte (Chavez et al, 2023), plantea
que la I.A generativa es una oportunidad y al mismo tiempo un dilema para el sistema educativo,A veces Frecuentemente Nunca Rara vez Siempre
Siempre
Rara vez
Nunca
Frecuentemente
A veces
Proporción de uso de IA por institución
Institución
Proporción
0.0 0.2 0.4 0.6 0.8

Vol. 13/ Núm. 1 2026 pág. 3513
debido a su capacidad para automatizar todos los procesos lo que puede afectar la manera como
se construye el conocimiento.
(Gallent, 2023), afirma que la IAG (Inteligencia Artificial Generativa) ha transformado los
procesos educativos del aprendizaje al ofrecer herramientas que facilitan la generación de
contenidos, esta afirmación concuerda con los resultados obtenidos en la investigación.
De la misma manera piensa (García, 2024) quien afirma que la inteligencia artificial
representa una tecnología disruptiva con un enorme potencial educativo, sin embargo también
presenta limitaciones debido a su naturaleza probabilística, lo que supone que puede generar
información equivocada.
Po lo expuesto los hallazgos de este estudio guardan relación con varias investigaciones
previas respecto a la IAG en la educación superior, por lo que el desafío no está en la forma como
se la usa ni para que se usa, sino en cómo se integra la I.A de manera responsable en los procesos
educativos.
Propuesta del marco socio-técnico
Pilar normativo y gobernanza
• Objetivo: Establecer reglas y responsabilidades para un uso institucional coherente.
• Acciones clave: Establecer lineamientos de usos permitidos y restringidos; criterios de
transparencia y autoría; comité o responsable; protocolo de incidentes y actualización
periódica.
• Responsable: Consejo académico / Aseguramiento de calidad / Autoridades
• Indicador: Documento vigente; adopción por carreras; número de incidentes y tiempos de
gestión; actualizaciones por periodo.
Pilar pedagógico y evaluación
• Objetivo: Proteger aprendizaje auténtico sin bloquear la innovación.
• Acciones clave: Guías por tipo de tarea; rediseño de evaluaciones; rúbricas centradas en
razonamiento y proceso; defensa oral o evidencia de proceso en tareas críticas.
• Responsable: Coordinaciones académicas / Docentes.
• Indicador: Rúbricas y evaluaciones ajustadas; percepción de justicia evaluativa;
coherencia entre asignaturas.
Pilar Formación y cultura de integridad
• Objetivo: Desarrollar criterios de uso responsable y fortalecer originalidad académica.
• Acciones clave: Capacitación obligatoria breve; casos y ejemplos; acuerdos de aula;
estrategias preventivas antes de sanción en casos leves.
• Responsable: Bienestar Institucional / Talento humano / Docentes
• Indicador: Cobertura de capacitación; evaluación de la capacitación; nivel de
conocimiento de normas; reducción de dudas e infracciones.

Vol. 13/ Núm. 1 2026 pág. 3514
Pilar Tecnología, privacidad y seguridad
• Objetivo: Minimizar riesgos técnicos y de datos en el uso de IA.
• Acciones clave: Reglas y herramientas de protección de datos; criterios de seguridad;
orientación sobre información sensible.
• Responsable: Departamento de TI / Sistemas.
• Indicador: Lista de herramientas aprobadas; protocolo de datos; incidentes de seguridad;
cumplimiento de uso institucional
Pilar Equidad y transparencia académica
• Objetivo: Evitar brechas y normalizar la declaración del uso de IA.
• Acciones clave: Alternativas gratuitas o licencias; pautas de declaración de uso y citación;
criterios para no penalizar desigualdad de acceso.
• Responsable: Autoridades / Departamento de TI / Sistemas / Docentes
• Indicador: Porcentaje de trabajos con declaración; medidas de acceso implementadas;
percepción de equidad; brechas de uso por grupo
CONCLUSIONES
Como conclusiones podemos afirmar que la IAG en la educación superior está en auge,
crece y se consolida en todos los niveles educativos. Tanto estudiantes como docentes e incluso
las autoridades institucionales utilizan esta herramienta como apoyo para sus actividades
académicas. Su uso es moderado y alto, lo que evidencia la relevancia como un recurso
tecnológico en el contexto educativo en la educación superior ecuatoriana.
Respecto a los beneficios que el uso de la inteligencia artificial supone, los resultados
evidencian una percepción positiva respecto al aprendizaje autónomo y a la calidad de los trabajos
académicos. Esta afirmación se evidencia en la correlación significativa entre ambas variables, lo
que significa que el uso de estas herramientas ayuda a fortalecer los procesos académicos
institucionales. Así mismo los involucrados reconocen el gran potencial que tiene la I.A
especialmente en la rapidez en la generación de contenidos.
No obstante, la investigación revela la existencia de riesgos asociados al uso de estas
tecnologías, principalmente aquellas que tienen que ver con la integridad académica, la
originalidad de las tareas, y el riesgo inminente de plagio, estas preocupaciones son compartidas
por los tres factores involucrados (docentes, estudiantes y autoridades), lo que refleja una
preocupación generalizada sobre la ética y el uso incorrecto de la I.A.G.
Otra preocupación evidente es la ausencia de normativas institucionales que ayuden a
regular el uso correcto de la inteligencia artificial en los espacios educativos, este vacío legal
ocasiona incertidumbre en la comunidad académica e impide la implementación de estrategias
orientadas al uso adecuado de estas tecnologías.
Vol. 13/ Núm. 1 2026 pág. 3515
Por lo expuesto se concluye que un marco socio técnico debe ser implementado para
garantizar el uso responsable de la I.A.G, el mismo debe incluir normativas pedagógicas, técnicas,
y éticas que promueva una cultura digital integral. Finalmente, los resultados confirman la
hipótesis planteada, evidenciando que el uso de la inteligencia artificial generativa influye
significativamente en el proceso enseñanza aprendizaje y en la integridad académica. Es decir, el
desafío no está en restringir su uso, sino en regularlo de tal manera que se convierta en una
herramienta importante que impulse el aprendizaje.

Vol. 13/ Núm. 1 2026 pág. 3516
REFERENCIAS
Amén, P., Zavala, D., Moran, N., & Intriago, A. (2024). Desafíos éticos y de privacidad en la
implementación de la inteligencia artificial en la educación superior. REICOMUNICAR,
7(14), 613–628.
Barragán Martínez, X. (2023). Situación de la inteligencia artificial en el Ecuador en relación con
los países líderes de la región del Cono Sur. FIGEMPA: Investigación y Desarrollo,
16(2), 23–38. https://doi.org/10.29166/revfig.v16i2.4498
Campuzano, J., Murillo, N., & Sarango, D. (2025). Uso de la inteligencia artificial en la educación
superior: Estudio de caso Universidad Técnica de Machala. INNOVA Research Journal,
10(2), 24–45. https://doi.org/10.33890/innova.v10.n2.2025.2754
Chavez et al. (2023). Inteligencia artificial generativa para fortalecer la educacion superior.
Latam, 767 - 784. https://doi.org/10.56712/latam.v4i3.1113
Chávez, R. (2025). Ética e integridad académica en el uso de la inteligencia artificial generativa
en la educación superior. Revista Científica Multidisciplinar G-nerando, 6(1).
https://doi.org/10.60100/rcmg.v6i1.392
Cotton, D., Cotton, P., & Shipway, J. (2024). Chatting and cheating: Ensuring academic integrity
in the era of ChatGPT. Innovations in Education and Teaching International., 61(2), 228-
239. https://doi.org/10.1080/14703297.2023.2190148
Esquivel, J. (2025). Saturación de la información. Tamaño de muestra según diseños de
investigación cualitativa. EDUTECH REVIEW. International Education Technologies
Review / Revista Internacional de Tecnologías Educativas, 10(1), 1-9.
https://doi.org/10.62701/revedutech.v10.5460
Félix et all. (2025). Evaluación formativa e inteligencia artificial: marcos de. Revista de educación
Simón Rodriíuez, 5(10), 499-516. https://doi.org/10.62319/simonrodriguez.v.5i10.80
Finkel et al. (2024). ChatGpt como fuente de información en la Educacion Superior: valoración
de los resultados que proporciona la IA generativa. Profesional de la Información, 1-24.
https://doi.org/10.3145/epi.2024.0604
Gallent, C., Zapata, A., & Ortego, J. (2023). El impacto de la inteligencia artificial generativa en
educación superior: una mirada desde la ética y la integridad académica. Relieve, 1 - 22.
https://doi.org/10.30827/relieve.v29i2.29134
García, F., Llorens, F., & Vidal, J. (2024). Las nuevas realidades de la educación ante los avances
de la inteligencia artificial. Ried, Revista Iberoamericana de Educación a Distancia, 1-
24. https://doi.org/10.5944/ried.27.1.37716
Guaman, R. (2025). Ética e integridad académica en el uso de la inteligencia artificial generativa
en la educación superior. Revista Científica Multidisciplinar G-Nerando, 6(1).
https://doi.org/10.60100/rcmg.v6i1.392

Vol. 13/ Núm. 1 2026 pág. 3517
Hernández et al. (2024). Ventajas y riesgos de la inteligencia artificial generativa desde la
percepción de los estudiantes de educación superior en México. Epsir, 1-18.
https://doi.org/10.31637/epsir-2024-495
Michay, G. (2026). Gobernanza de la inteligencia artificial en la gestión académica de la
educación superior: un enfoque desde la innovación abierta. Revista Multidisciplinaria
Investigación Contemporánea, 4(1). https://doi.org/10.58995/redlic.rmic.v4.n1.a191
Navarrete et al. (2025). La inteligencia Artificial y el aprendizaje automático en la educación
superior del Ecuador. Tesla Revista Científica, 1-13.
https://doi.org/10.55204/trc.v5i2.e515
Oncioiu, I., & Bularca, A. (2025). Artificial Intelligence Governance in Higher Education: The
Role of Knowledge-Based Strategies in Fostering Legal Awareness and Ethical Artificial
Intelligence Literacy. Societies, 15(6), 144. https://doi.org/10.3390/soc15060144
Otzen, T., & Manterola, C. (2017). Técnicas de muestreo sobre una población a estudio.
International Journal of Morphology, 35(1), 227-232. https://doi.org/10.4067/S0717-
95022017000100037
Padilla, J., & Martín, M. (2024). Impacto y perspectivas de la inteligencia artificial generativa en
la educación superior: un estudio sobre la percepción y adopción docente usando el
modelo AETGE/GATE. Epsir, 1-21. https://doi.org/10.31637/epsir-2024-595
Pérez et al. (2024). La incidencia de la inteligencia artificial en la educación superior del Ecuador.
Polo del Conocimiento, 822-837. https://doi.org/10.23857/pc.v9i5.7158
Perezchica, J., Sepúlveda, J., & Román, A. (2024). Inteligencia artificial generativa en la
educación superior: usos y opiniones de los profesores. Epsir, 1-20.
https://doi.org/10.31637/epsir-2024-593
Proctor, E., Landes, S., Aarons, G., Chambers, D., Glisson, C., & Mittman, B. (2023). Ten years
of implementation outcomes research: a scoping review. Implementation Science, 18(31).
https://doi.org/10.1186/s13012-023-01286-z
Roca Petitjean, S. J. (2023). Gestión de proyectos de ciencia abierta. Un enfoque sociotécnico.
Paakat: Revista de Tecnología y Sociedad, 13(25).
https://doi.org/10.32870/pk.a13n25.798
Romeu et al. (2025). Desafíos de la inteligencia artificial generativa en la educación superior:
fomentando su uso crítico en el estudiantado. RIED Revista iberoamericana de educación
a distancia, 209-231. https://doi.org/10.5944/ried.28.2.43535
Rossalyn, H. (2025). Inteligencia artificial generativa como tutor personalizado en la educación
superior. Innovarium, 1-12. https://doi.org/10.17163/alt.v20n2.2025.01
Sanabria, J., Silveira, Y., Pérez, D., & Cortina, M. (2023). Incidencias de la inteligencia artificial
en la educación contemporánea. Comunicar, 31(77), 97–107.
https://doi.org/10.3916/C77-2023-08

Vol. 13/ Núm. 1 2026 pág. 3518
Sigudla, J., & Maritz, J. (2023). Exploratory factor analysis of constructs used for investigating
research uptake for public healthcare practice and policy in a resource limited setting,
South Africa. BMC Health Services Research, 2-8. https://doi.org/10.1186/s12913-023-
10165-8
UNESCO. (2021). Recomendación sobre la ética de la inteligencia artificial. Obtenido de
https://unesdoc.unesco.org/ark:/48223/pf0000380455_spa
UNESCO. (2024). Guia para el uso de la I.A generativa en la educación e investigación. Paris:
Unesco.
Vera, F. (2023). Integración de la inteligencia artificial generativa en la educación superior.
Obtenido de https://www.revistatransformar.cl/index.php/transformar/article/view/108
Zawacki, O., Marín, V., Bond, M., & Gouverneur, F. (2019). Systematic review of research on
artificial intelligence applications in higher education—Where are the educators?
International Journal of Educational Technology in Higher Education, 1, 16.
https://doi.org/10.1186/S41239-019-0171-0