Riesgos éticos en el uso de inteligencia artificial en decisiones automatizadas dentro del software empresarial
DOI:
https://doi.org/10.69639/arandu.v12i2.1115Palabras clave:
IA, riesgos, decisiones, mejoría, PRISMAResumen
La tecnología, especialmente la inteligencia artificial (IA), ha transformado significativamente la vida cotidiana, mejorando la calidad de vida y facilitando el aprendizaje y la toma de decisiones. Sin embargo, el uso de la IA en la toma de decisiones empresariales plantea riesgos éticos importantes que deben ser analizados para comprender sus implicaciones y encontrar soluciones. Entre los principales problemas se encuentran el fenómeno de la caja negra y la falta de entrenamiento adecuado de los algoritmos. Aunque varios estudios han elogiado los beneficios de la IA, pocos han explorado los riesgos asociados a su uso, lo que hace necesario un análisis equilibrado. Este artículo se enfoca en evaluar esos riesgos éticos y en comprender cómo pueden afectar a las organizaciones. Para ello, se realizó una revisión sistemática basada en la metodología PRISMA, utilizando fuentes académicas como Google Académico, Redilat y Scielo, con un criterio de inclusión relacionado con la toma de decisiones empresariales y un rango temporal de 2020 a 2025. Los resultados de la investigación muestran que, aunque la IA mejora los procesos, la falta de transparencia y responsabilidad sigue siendo un desafío, especialmente cuando se utiliza en contextos organizacionales donde la intervención humana es limitada. Se concluye que es esencial realizar un análisis más profundo sobre el impacto ético de la IA en las empresas para garantizar su uso responsable y transparente.
Descargas
Citas
Andrea. (31 de Agosto de 2023). Ailabschool. Obtenido de ¿Qué peligros tiene la IA?: https://ailabschool.com/que-peligros-tiene-la-ia/
Diestra, N., Alexandra, C., & Caren, C. (2021). La inteligencia artificial y la toma de decisiones gerenciales. Valor Agregado. doi:10.17162/riva.v8i1.1631
Herrera Triguero, F. (29 de Diciembre de 2024). BBC. Obtenido de Qué se espera en 2025 de la inteligencia artificial, el avance que marcó un antes y un después en la historia de la tecnología: https://www.bbc.com/mundo/articles/c4gxzx0kpp6o
IBM. (s.f.). IBM. Obtenido de ¿Qué es la IA empresarial?: https://www.ibm.com/es-es/think/topics/enterprise-ai
KlymChuk, T. (13 de Mayo de 2024). The Conversation. Obtenido de Los fallos de la IA: de algoritmos sesgados a decisiones trágicas: https://theconversation.com/los-fallos-de-la-ia-de-algoritmos-sesgados-a-decisiones-tragicas-226196
Medina, M. E., Valenzuela, R., & Uyasan, R. (2024). Riesgos de la inteligencia artificial generativa en la producción de la información para la toma de decisiones. EAN. Obtenido de
Ordóñez, A. (16 de Agosto de 2023). CESCE. Obtenido de Los grandes riesgos de la inteligencia artificial para la humanidad y para las empresas: https://www.cesce.es/es/w/asesores-de-pymes/riesgos-inteligencia-artificial
Páez, R. A. (2023). Impacto de la Inteligencia Artificial en la toma de decisiones financieras corporativas. Editorial Ingenioglobal. doi: https://doi.org/10.62943/rig.v2n1.2023.61
Sánchez, F. (27 de Febrero de 2024). Nomad Webs. Obtenido de La ética de la inteligencia artificial: ¿Quién responde por las decisiones de las máquinas?: https://nomadwebs.com/la-etica-de-la-inteligencia-artificial-quien-responde-por-las-decisiones-de-las-maquinas/
Simöes, C. (3 de Octubre de 2024). ITDO. Obtenido de Responsabilidad en la IA: ¿Quién da la cara cuando falla el algoritmo?: https://www.itdo.com/blog/responsabilidad-en-la-ia-quien-da-la-cara-cuando-falla-el-algoritmo/
Torres Cadillo, R. I. (2023). Los riesgos y los desafíos que enfrentan los trabajadores frente al uso de la inteligencia artificial en el trabajo. Revista de Derecho Procesal del Trabajo. doi: http://dx.doi.org/10.47308/rdpt.v6i7.778
Publicado
Cómo citar
Número
Sección
Licencia
Derechos de autor 2025 Gonzalo Daniel Chicaiza Manosalvas , Jhon Valdemar Romero Navarrete, Carlos Eduardo Salazar Guaña

Esta obra está bajo una licencia internacional Creative Commons Atribución 4.0.















