Ingeniería de Sistemas
Permanent URI for this collection
El Ingeniero de Sistemas de la Corporación Universitaria Remington es un profesional con un alto sentido de responsabilidad social, humanista, competente e idóneo, con gran capacidad de análisis, diseño, y gestión de sistemas de información debido a su formación integral en las áreas de las ciencias básicas y computacionales, aplicando estándares internacionales y las mejores prácticas empleadas en la ingeniería del software permitiendo alcanzar el logro de los objetivos estratégicos en las organizaciones, desde una visión ética y responsable con el medio ambiente, a través del uso racional de recursos y la optimización de procesos empresariales.
Browse
Recent Submissions
Publication Implementación de outsourcing de servicios TI para PYMES como estrategia para optimizar costos, disponibilidad y seguridad tecnológica(Corporación Universitaria Remington, 2025) Trujillo Orjuela, Brayhan Daniel; Orrego Valencia, Brayhan Stiven; Ramírez Charon, Andrey Felipe; Sepúlveda Castaño, Jorge MauricioEl presente informe técnico tiene como propósito analizar la implementación del outsourcing de servicios de Tecnologías de la Información (TI) como una estrategia viable y eficiente para pequeñas y medianas empresas (PYMES) que cuentan como objetivo el optimizar su operación tecnológica, generar una reducción de costos y fortalecer sus procesos de transformación digital. A partir de los contenidos abordados en el seminario “Transformación Digital y Outsourcing Inteligente en TI”, se estudian los principales conceptos, modelos y buenas prácticas asociados a la tercerización de servicios tecnológicos y su impacto en la continuidad operativa de las organizaciones. El análisis tiene como origen la identificación de un problema común en las PYMES: la falta de personal especializado para gestionar incidentes, mantenimiento de la infraestructura tecnológica, garantías de la seguridad de la información y asegurar la disponibilidad de los sistemas. Se examinan los fundamentos del outsourcing TI, las prácticas ITIL aplicadas a la gestión de servicios, y la relevancia de los Acuerdos de Nivel de Servicio (SLA) como un mecanismo de control y garantía de calidad. Posteriormente, se presenta un caso aplicado en el contexto de una PYME representativa, donde se evalúa el estado actual de su infraestructura, se identificaron sus necesidades tecnológicas y se presenta la adopción de un proveedor externo de servicios TI. A partir de esta implementación, se analizan resultados cuantitativos y cualitativos que evidencian mejoras en disponibilidad, tiempos de respuesta, reducción de incidentes y disminución de costos operativos asociados al manejo tradicional de TI interno. Los resultados permiten concluir que el outsourcing de servicios TI representa una alternativa estratégica para las PYMES, al permitirles acceder a personal especializado, adoptar estándares internacionales de gestión, mejorar su seguridad tecnológica y avanzar en su proceso de transformación digital. Finalmente, el informe presenta las conclusiones más relevantes y las referencias teóricas que sustentan el análisis desarrollado.Publication Mitigación de riesgos de seguridad y protección de propiedad intelectual en la externalización de desarrollo de software(Corporación Universitaria Remington, 2025) Ynfante Valero, Surelys Adriana; Sepúlveda Castaño, Jorge MauricioEste documento analiza los riesgos críticos de ciberseguridad inherentes al modelo de outsourcing tipo "Fábrica de Software". Si bien la externalización ofrece eficiencia operativa y acceso a talento especializado, introduce vectores de ataque específicos que difieren del BPO tradicional: la exfiltración de propiedad intelectual (IP) y la inclusión de vulnerabilidades en el código fuente entregado. Se propone un marco de gestión basado en la metodología DevSecOps, integrando controles automatizados (SAST, DAST, SCA) y cláusulas contractuales de "Quality Gates". El objetivo es transicionar de un modelo de confianza ciega a uno de verificación continua, mitigando la exposición a fugas de información y ataques a la cadena de suministro digital.Publication Gestión de ciberseguridad en entornos organizacionales modernos(Corporación Universitaria Remington, 2025) Gamboa Cardozo, Lorena; Vargas Cardenas, Karol Ximena; Sepúlveda Castaño, Jorge MauricioLa transformación digital ha impulsado a las organizaciones a la adopción de nuevas tecnologías orientadas a la optimización de procesos, el incremento de la productividad y el apoyo en la toma de decisiones basadas en datos. Al mismo tiempo, el avance de la tecnología también ha generado consigo una mayor complejidad de las amenazas cibernéticas. En este sentido, la ciberseguridad se ha convertido en un elemento estratégico que garantiza la protección de la información, la continuidad operativa y la confianza de los clientes, usuarios y socios. Este documento técnico, del cual se deriva este resumen, se está desarrollando de acuerdo con directrices internacionales, utilizando estándares, marcos de referencia y mejores prácticas que son ampliamente aceptados en el dominio de la Tecnología de la información. Además, incorpora el conocimiento adquirido del seminario Transformación Digital y Outsourcing Inteligente, el cual se centró en los Desafíos Contemporáneos y las Soluciones Emergentes en la Gestión de Seguridad y Tecnología, a lo largo del documento encontramos el marco teórico que proporciona los conceptos fundamentales de la ciberseguridad y transformación digital. Posteriormente, se presenta un enfoque estructurado orientado a la identificación de riesgos con el objetivo de ayudar a las organizaciones a identificar las amenazas que pueden afectar sus recursos tecnológicos, sus datos y su operación en su conjunto. Este análisis se completa con el diseño de un modelo integral de gestión de ciberseguridad.Publication Outsourcing de servicios TI y su impacto en ciberseguridad, protección de datos, mesa de ayuda, capacitación empresarial y planes de contigencia(Corporación Universitaria Remington, 2025) Sanguino Quintero, Jefferson; Sepúlveda Castaño, Jorge MauricioEl presente trabajo profundiza en el concepto de outsourcing, entendiendo este como la externalización estratégica de servicios y funciones TI hacia proveedores especializados, con el propósito de mejorar eficiencia, reducir costos operativos y garantizar calidad en servicios críticos. Se abordan los vínculos entre outsourcing y temas transversales como ciberseguridad, gestión de datos, relación proveedor–cliente, capacitación empresarial, mesas de ayuda (help desk), checklists operativos y planes de contingencia. Además, se presentan instrumentos prácticos para planear, implementar y evaluar estas iniciativas en contextos reales. Se destaca cómo una empresa puede estructurar estos componentes de forma integral para asegurar continuidad operativa, cumplimiento normativo, satisfacción del cliente y mitigación de riesgos tecnológicos y humanos.Publication Recomendaciones para la selección y auditoría de proveedores de outsourcing TI(Corporación Universitaria Remington, 2025) Niño Navarro, Kevin Alexander; Sepúlveda Castaño, Jorge MauricioEste documento establece recomendaciones orientadas a la selección y auditoría de proveedores de outsourcing TI, que posibiliten contar con servicios de outsourcing que sean eficientes y seguros. Para ello, se analizaron enfoques tales como la norma ISO/ IEC 20000 y otros estándares internacionales en la gestión de servicios de terceros. A partir de estos, se construyeron perfiles en varias dimensiones como técnica, económica, legal y de seguridad, necesarias para el análisis de proveedores de servicios en el outsourcing. Se definieron y analizaron los principales riesgos y se construyeron, a partir de estos, indicadores de control y mecanismos para auditar la calidad de los servicios proporcionados, a nivel contractual vigente. Se estructuró de modo integral una metodología que construye acuerdos de nivel de servicios (SLA), elaboración de matrices de evaluación de riesgos, y propone un diseño sistemático de selección y supervisión en la etapa de gerencia de proveedores. Con ello, se logran facilitar la definición de decisiones estratégicas, minimizar el riesgo de la gestión en los procesos y los proveedores de outsourcing TI sean de calidad para la entidad.Publication Implementación de un modelo de outsourcing tecnológico para la generación, validación y reporte de RIPS JSON en cumplimiento de la Resolución 2275 de 2023(Corporación Universitaria Remington, 2025) Lara Martínez, Carlos Javier; Trespalacios Agudelo, Miguel Ángel; Sepúlveda Castaño, Jorge MauricioEl presente informe técnico detalla el diseño e implementación de una solución de software en modalidad de Outsourcing para la gestión de los Registros Individuales de Prestación de Servicios de Salud (RIPS). El proyecto nace de la necesidad de dar cumplimiento a la Resolución 2275 de 2023 del Ministerio de Salud y Protección Social, la cual exige la transición de formatos planos a estructuras JSON y la validación en tiempo real para la obtención del Código Único de Validación (CUV). La solución integra una "malla validadora" robusta que audita la calidad del dato antes del envío, minimizando el riesgo de glosas y sanciones. Se aplicaron metodologías ágiles (Scrum) para el desarrollo y se definió una arquitectura orientada a servicios (SOA) para garantizar la interoperabilidad con la plataforma del Ministerio. El resultado es un servicio tercerizado que asegura la continuidad del negocio, la integridad de la información y la eficiencia operativa de las IPS contratantes.Publication Servicio de ciberseguridad bajo modelo de outsourcing Oasis Alimentos S.A.S(Corporación Universitaria Remington, 2025) Ibañez Daguer, José Elías; Macea Caballero, Henry David; Ramos Lizarazo, Andrés Santiago; Sepúlveda Castaño, Jorge MauricioEste informe técnico tiene como finalidad analizar la puesta en marcha de un servicio de ciberseguridad de tipo outsourcing para una empresa del sector alimentario, en este caso para la empresa Oasis Alimentos S.A.S. Esta empresa colombiana del sector de alimentos ha crecido, junto con su infraestructura tecnológica, y ha aumentado de esta manera su exposición a amenazas informáticas. La finalidad del informe técnico es determinar las necesidades de protección digital de la empresa, así como describir la adopción del servicio tercerizado administrado por un proveedor de seguridad informática (MSSP - Managed Security Service Provider). El informe técnico describe el marco conceptual del outsourcing, de la ciberseguridad, de la gestión del riesgo, de los marcos normativos como ISO/IEC 27001, NIST Cybersecurity Framework, CIS Critical Security Controls y su aplicación práctica al contexto organizacional. A continuación, se contextualiza el estado tecnológico de la empresa Oasis Alimentos S.A.S., donde se presentan problemáticas como un bajo nivel de madurez en cuanto a la seguridad, falta de un monitoreo centralizado, políticas incompletas, carencia de respaldos estructurados, y amenazas a las que están expuestas como el phishing, el malware y el ransomware. Tal como se evidencia en el diagnóstico realizado, se detallan el proceso de escogencia, la contratación y la implementación del servicio tercerizado en seguridad, mostrando actividades como el inventario de los activos críticos, la evaluación de vulnerabilidades, la implementación del EDR, el refuerzo de políticas, la creación de planes para la respuesta a incidentes y la capacitación del personal. Finalmente se muestran los resultados y las conclusiones alcanzadas de acuerdo con el contenido del seminario de outsourcing y seguridad.Publication Evolución y calidad de las mesas de ayuda externalizadas : análisis comparativo entre Telefónica y una empresa en etapa inicial de gestión TI(Corporación Universitaria Remington, 2025) Gelpud Gelpud, Heiman Andrés; Sepúlveda Castaño, Jorge MauricioEl presente informe técnico analiza la evolución y la calidad de las mesas de ayuda externalizadas en Colombia, considerando la creciente demanda de servicios de soporte TI y la adopción de modelos de outsourcing como estrategia para optimizar recursos y mejorar la eficiencia operativa de las empresas. Se toma como referencia el modelo consolidado de la mesa de ayuda de Telefónica, ampliamente reconocida por su madurez operativa, estandarización bajo ITIL v4 y altos niveles de automatización. Este modelo se compara con una empresa que inicia su proceso de outsourcing, permitiendo evidenciar las diferencias en capacidades, cumplimiento de SLA, uso de métricas, gobernanza tecnológica y procesos de mejora continua. Este análisis se fundamenta en los marcos teóricos como ITIL, COBIT e ISO/IEC 20000, junto con un estudio contextual del sector TI en Colombia. A partir de esta comparación, se identifican brechas significativas en la madurez, estructura y gestión del servicio, al mismo tiempo que se proponen recomendaciones orientadas a optimizar la operación en organizaciones emergentes. Estos resultados permiten concluir que la adopción adecuada del outsourcing combinada con una gestión basada en buenas prácticas, también pueden mejorar la calidad del soporte técnico y las experiencias positivas con el usuario final. La creciente transformación digital que atraviesan las organizaciones actuales a nivel global y nacional ha impulsado cambios muy significativos en la manera en que se gestionan los servicios tecnológicos, especialmente aquellos relacionados con la atención de soporte al usuario final. En el contexto, las mesas de ayuda se han consolidado como un componente estratégico dentro de la gestión de servicios de TI, al servir como el primer punto de contacto entre los usuarios y el área tecnológica. Su correcta implementación impacta directamente la continuidad operativa, la satisfacción del cliente y el desempeño organizacional. Ante las demandas, estas empresas optan por externalizar los servicios a proveedores especializados los cuales buscan mayor eficiencia, reducción de costos y estandarización en la calidad de soportes. Este informe técnico analiza, con un enfoque tanto académico como practico, el desarrollo y el nivel de desempeño de las mesas de ayuda que operan bajo esquemas de tercerización, tomando como eje central una comparación entre dos realidades opuestas: por un lado, Telefónica, una organización con un modelo de outsourcing bastantemente maduro con procesos sólidos, automatización avanzada y cumplimiento riguroso de estándares internacionales; y por otro lado, una empresa que apenas está iniciando su proceso de tercerización, con estructuras básicas, ausencia de métricas, dependencia del proveedor y un enfoque reactivo en la atención de incidentes e instalaciones. Este contraste permite identificar brechas críticas, factores de éxito, desafíos comunes y oportunidades de mejora que pueden guiar a las empresas que inician hacia modelos más eficientes y competitivos. A través de este análisis técnico, el informe busca evidenciar cómo la adopción progresiva de buenas prácticas, la definición formal de SLA, la selección adecuada del proveedor, el uso de herramientas de tickets y la implementación de procesos de mejora continua pueden transformar radicalmente la calidad del servicio de soporte. Asimismo, se resalta la importancia de establecer mecanismos de gobernanza tecnológica, auditorías de desempeño y modelos de control que garanticen una relación transparente y estratégica con el proveedor externalizado. En conclusión, este informe contribuye a la comprensión integral de los papeles que desempeñan las mesas de ayuda externalizadas en el entorno empresarial colombiano, ofreciendo una visión crítica que permite fundamentar decisiones y diseñar modelos de soporte alineados con los objetivos de negocio y las mejores prácticas internacionales en gestión de servicios de TI.Publication Desarrollo de un sistema web “Micro-SmartStock” para la gestión básica de inventario de productos en microempresas(Corporación Universitaria Remington, 2025) Contreras Molina, Holger Stiven; Córdoba Castrillón, Mónica MaríaEl presente proyecto de grado tiene como objetivo desarrollar un sistema web orientado a la gestión básica de inventario de productos para microempresas. La propuesta busca facilitar el control eficiente de existencias, así como el registro de entradas y salidas de productos, la generación automática de reportes y la emisión de alertas en casos de bajo stock. La solución está pensada para microempresarios que requieren herramientas digitales accesibles y fáciles de usar, permitiendo optimizar sus procesos internos y reducir errores en la administración del inventario. El sistema será implementado utilizando tecnologías web como PHP (Hypertext Preprocessor), HTML (HyperText Markup Language) y TailwindCSS para el desarrollo de la interfaz de usuario y la lógica de negocio, apoyado en una base de datos relacional para garantizar el almacenamiento seguro y ordenado de la información. A través de este proyecto, se pretende contribuir al fortalecimiento de la gestión administrativa de los pequeños comercios, fomentando la digitalización y el uso de tecnologías de información en el sector. Finalmente, se espera que la herramienta permita mejorar la toma de decisiones y el control de inventarios, aportando valor a la gestión de recursos en las empresas beneficiadas.Publication Medición y optimización de la capacidad operativa en un almacén de despacho de mercancías(Corporación Universitaria Remington, 2025) Baena Ramírez, Brayan; García Henao, Elkin Jovany; Suárez Patiño, Laura VanessaLa presente investigación tiene como finalidad medir la capacidad operativa de un almacén de despacho, para así lograr optimizar y mejorar en cuanto al rendimiento de los procesos logísticos y aportar significativamente al crecimiento eficiente de la cadena de suministro. Este estudio se da a partir de la necesidad de contar con herramientas de análisis y de planificación para lograr gestionar el almacén de despachos eficientemente y poder cumplir con entregas en los tiempos establecidos, lo que se traduce en el aprovechamiento de los recursos con los que se cuenta. Para este estudio se emplea una metodología tipo cuantitativo y con diseño no experimental y transversal donde se apoya en datos históricos que se obtienen de un almacén real ubicando en el oriente antioqueño. Se aplica un estudio de caso que permite el análisis de las variables relacionadas con el despacho de cajas y el volumen manipulado al momento de la salida del almacén por los operarios y los tiempos de ejecución de la labor, con el fin de identificar patrones de comportamiento, factores que limitan la operación y oportunidades para mejorar. La metodología empleada se da en tres fases, donde se identifican factores que limitan la capacidad operativa y se propone una línea base de rendimiento. También, se determina la capacidad operativa con una fórmula que permite establecer un programa de gestión para los despachos. Por otro lado, se tiene la programación de los despachos a través de un software que permite la automatización, el cálculo de la capacidad operativa y la generación de indicadores de rendimiento en tiempo real. Los resultados permiten evidenciar que la capacidad operativa del almacén tiene variaciones en el tiempo a través de los meses analizados y los picos de sobrecarga que se dan en varios periodos del año. La implementación del software permite reducir estos picos y optimizar los recursos para mejorar la toma de decisiones en la operación. En conclusión, el proyecto permite demostrar que la integración de herramientas tecnológicas y metodológicas aumentan la productividad en los procesos logísticos especialmente en un almacén de despachos de mercancía.Publication Implementación de Big Data para optimizar la calidad de atención en salud del municipio de Caucasia, Antioquia(Corporación Universitaria Remington, 2025) Arcila Cano, Mauricio; Palacios Sánchez, Davinson; Lozano Montiel, Levis Lucía; Vélez Uribe, Juan PabloA causa de la considerable necesidad de servicios, los prolongados periodos de espera en los departamentos de urgencias, la dispersión de la información clínica, la recurrente falta de medicamentos y la ausencia de interoperabilidad entre el Hospital César Uribe Piedrahita (CUP) y los proveedores de atención médica de la región, el municipio de Caucasia, ubicado en Antioquia, está enfrentando una presión significativa en su sistema de salud. Estas dificultades están amenazando la continuidad de la atención médica, intensificando la saturación hospitalaria y limitando la capacidad de respuesta ante eventos epidemiológicos y enfermedades de gran magnitud en la localidad. El Big Data aparece como un cambio de juego para una transformación en el sistema de salud. Raghupathi y Raghupathi (2014) sostienen que el Big Data es un recurso clave en la atención médica. Se pueden utilizar modelos analíticos para detectar patrones que predicen un pico de demanda, automatizar alertas y contribuir al aumento de la eficiencia operativa del hospital y de las EPS más prominentes en Caucasia, como Savia Salud, Nueva EPS, Sura, Coosalud y Mutual Ser. En este documento, discutimos las formas en que se puede aprovechar el Big Data para mejorar el servicio, la seguridad del paciente y la continuidad de la atención en Caucasia. Con este fin, se propone un marco que es tanto nuevo como actualizado, un diagnóstico del contexto para el municipio, una investigación sobre los problemas únicos del Hospital César Uribe Piedrahita y un modelo metodológico que integra herramientas de análisis, paneles de control, proyecciones estadísticas y técnicas de pronóstico sobre la situación local. Los resultados esperados de nuestro trabajo incluyen la reducción de los tiempos de espera, flujos de emergencia optimizados, mejor gestión del triaje, reducción de escasez, detección temprana de riesgos epidemiológicos y mejora de la interoperabilidad entre las EPS en el municipio. El proyecto contribuye a la transformación digital del sistema de salud de Caucasia: es más eficiente, transparente, conectado y centrado en el paciente.Publication Evaluación de la movilidad y seguridad vial en Bogotá(Corporación Universitaria Remington, 2025) Valero Bejarano, Yeri Andrey; Jaramillo Tame, Jheshua Jhosehp; Mejía Santamaría, Daniel Esteban; Vélez Uribe, Juan PabloBogotá, la capital de Colombia, es una ciudad de más de 8 millones de habitantes y uno de los principales centros económicos, culturales y políticos del país. Su tamaño, densidad poblacional y concentración de actividades generan una alta demanda de movilidad tanto de vehículos privados como de transporte público, bicicletas y peatones. La ciudad enfrenta retos significativos en términos de congestión vehicular, siniestralidad vial y planificación urbana, lo que convierte al estudio de la movilidad en un tema crítico para la gestión urbana y la seguridad ciudadana. El sistema de transporte en Bogotá es complejo e incluye múltiples modalidades: • Transporte público masivo, como TransMilenio y buses alimentadores. • Vehículos particulares, que contribuyen significativamente a la congestión en horas pico. • Movilidad activa, incluyendo peatones y ciclistas, que ha aumentado gracias a la expansión de ciclorutas y programas de bicicletas compartidas. La ciudad cuenta con un Observatorio de Movilidad y un portal de datos abiertos, donde se recopilan y publican datos sobre accidentes de tránsito, comparendos, aforos vehiculares, transporte público y uso de bicicletas. Estos datos permiten realizar análisis cuantitativos y cualitativos, fundamentales para la toma de decisiones, la planificación de políticas públicas y la implementación de estrategias de movilidad sostenible y segura. En este contexto, el presente trabajo busca aprovechar la información disponible para analizar patrones de movilidad y siniestralidad, identificando zonas críticas, tendencias y comportamientos de los diferentes actores viales, con el fin de aportar conocimiento útil para la gestión urbana y la seguridad vial en Bogotá.Publication Implementación de un sistema de analítica Big Data para el análisis descriptivo y predictivo de ventas e inventarios en un supermercado colombiano(Corporación Universitaria Remington, 2025) Zapata Velandia, Fabio; Restrepo García, Mauricio Andrés; Vélez Uribe, Juan Pablo“El sector retail en Colombia tiene una presencia sólida, es dinámico y crece de manera constante, adaptándose con rapidez a los entornos digitales, como lo muestran análisis recientes del mercado retail colombiano (Mall & Retail, 2025). Los supermercados dominan gran parte del mercado y el e-commerce ha desempeñado un papel fundamental en su expansión. Esto ha generado grandes volúmenes de datos, tanto transaccionales como comportamentales, que pueden ser analizados mediante técnicas de Big Data para mejorar la toma de decisiones y la competitividad empresarial (McAfee & Brynjolfsson, 2012).” La aplicación de estas técnicas permite identificar no solo los aspectos en los que existen dificultades, sino también las áreas con potencial de mejora que puedan impulsar el crecimiento económico y fortalecer el posicionamiento de marca. Esto puede traducirse en la optimización de campañas de marketing, la incorporación de nuevos productos o la implementación de estrategias más efectivas para incentivar a los clientes (Davenport, 2014; Kotler et al., 2018). El propósito de este documento es presentar al Supermercado La 2000 un análisis descriptivo sobre sus ventas del mes de noviembre del año 2025 las cuales fueron analizadas por hora para tratar de dar respuesta a preguntas como: ¿Qué productos están o pueden estar representando perdidas ?, ¿Qué productos tienen una mayor rotación? O ¿Cuáles son los días del mes que presentan un incremento en ventas? Al dar respuesta a estas preguntas se tendrá un panorama más claro del negocio y se puedan implementar estrategias que mejoren temas como, el abastecimiento de los productos más vendidos, reducir los costos en productos de baja rotación y crear estrategias de marketing enfocadas en los días de menor venta, dando a conocer indicadores relevantes sobre sus ventas e inventario.Publication Predicción de riesgo prioritario en pacientes con cáncer a partir de datos de morbilidad utilizando Big Data y Deep Learning en Colombia(Corporación Universitaria Remington, 2025) Rivera Potosi, Jeckson Armando; Vélez Uribe, Juan PabloEste proyecto de grado se centra en el cáncer en Colombia, pero no solo como una enfermedad que afecta a las personas, sino como un gran problema para la salud de todos, con diferencias importantes según dónde vivan y cómo sea su situación económica. Lo que queremos es crear un modelo que prediga quién tiene más riesgo de sufrir complicaciones, usando técnicas de Deep Learning y Big Data para clasificar a los pacientes en niveles de riesgo alto o bajo. Así, los médicos pueden dar prioridad a quienes más lo necesitan. Para lograrlo, analizamos 25,000 registros de salud del Sistema Integral de Información de la Protección Social (SISPRO). Un desafío importante es que los datos no están equilibrados, algo que suele pasar en salud pública. Para solucionarlo, usamos el algoritmo SMOTE, que nos ayuda a equilibrar la muestra y a que la red neuronal identifique bien los casos de alto riesgo, que son los menos comunes. El modelo se construye con Python, TensorFlow y Keras, y logra una precisión y una puntuación F1 del 100%. Esto demuestra que el aprendizaje profundo es muy útil para encontrar patrones complejos en los datos de salud. Después, los resultados se procesan y organizan en bases de datos SQL para analizarlos con Power BI. Las visualizaciones indican cosas muy importantes e interesantes, vemos que muchos casos de alto riesgo se concentran en las ciudades y en personas con régimen contributivo, lo que indica que hay problemas para acceder a la salud y que faltan registros en zonas rurales y en personas con seguro subsidiado. En resumen, el proyecto muestra que la ingeniería de datos y la inteligencia artificial son herramientas muy útiles para que la salud sea más justa, identificando a personas que necesitan ayuda y que no siempre son visibles, y dando información científica para que los gobiernos tomen mejores decisiones.Publication Clasificación de opiniones en redes sociales mediante métodos de minería de texto(Corporación Universitaria Remington, 2025) Mancilla Garzón, Juan Sebastián; Alfonso Bayona, Lizbeth Ximena; Vélez Uribe, Juan PabloEl presente proyecto aborda el análisis de sentimientos en redes sociales como una herramienta fundamental dentro del ámbito del Big Data y el Procesamiento del Lenguaje Natural. En la actualidad, millones de usuarios expresan sus opiniones, percepciones y emociones sobre productos, servicios, marcas, eventos o figuras públicas a través de plataformas como Twitter, Este enorme flujo de información representa una fuente valiosa de datos que, procesados adecuadamente, permiten identificar tendencias, medir percepciones colectivas y apoyar la toma de decisiones estratégicas en múltiples sectores. El análisis de sentimientos se centra en determinar si un texto expresa una opinión positiva, negativa o neutra, permitiendo comprender cómo reaccionan los usuarios ante un determinado tema. Sin embargo, trabajar con grandes volúmenes de datos no solo consiste en recolectar comentarios, sino también en transformarlos, limpiarlos y analizarlos a profundidad. Para realizar este proceso de forma eficiente, el proyecto utiliza técnicas de minería de texto, algoritmos de clasificación y librerías especializadas de Python. La investigación inicia con la recopilación de datos a través de APIs oficiales o métodos permitidos de extracción, reuniendo cientos o miles de comentarios publicados por usuarios reales. Estos datos suelen contener ruido, como URLs, emojis, hashtags o errores ortográficos, lo cual requiere aplicar un proceso exhaustivo de preprocesamiento. Esta etapa incluye limpieza textual, normalización, tokenización y eliminación de elementos irrelevantes, asegurando que el modelo interprete correctamente el contenido escrito. Posteriormente, se aplica el algoritmo de análisis de sentimientos, que se encarga de evaluar la polaridad y subjetividad del texto. La polaridad indica si la opinión es positiva, negativa o neutra, mientras que la subjetividad identifica si el comentario es emocional u objetivo. Estos resultados se organizan y analizan estadísticamente para permitir una interpretación profunda del comportamiento de los usuarios. El proyecto también incorpora técnicas de visualización de datos, creando gráficos de barras, diagramas circulares y nubes de palabras que permiten observar patrones repetitivos, colores emocionales predominantes y temas frecuentes en las publicaciones analizadas. Además, se comparan diferentes cuentas, publicaciones o marcas con el propósito de descubrir cuál genera reacciones más positivas o negativas entre la audiencia. Este trabajo demuestra que el análisis de sentimientos no solo es una herramienta técnica, sino también un recurso estratégico para empresas, instituciones y creadores de contenido que desean conocer la opinión pública de manera rápida y precisa. La capacidad de interpretar grandes cantidades de datos textuales permite anticipar tendencias, mejorar estrategias de comunicación, reforzar la imagen de marca o actuar de manera oportuna ante crisis de reputación.Publication Análisis de patrones de consumo de contenido en Instagram en Colombia mediante técnicas de Big Data(Corporación Universitaria Remington, 2025) Champutiz Vera, Angie Carolina; López Chagres, Walter Gilberto; Rojas Pantoja, Edwin Arturo; Vélez Uribe, Juan PabloEl rápido crecimiento de las redes sociales ha dado lugar a una avalancha de datos que nos permiten entender mejor el comportamiento de los consumidores digitales. En este escenario, Instagram se ha establecido como una de las plataformas más utilizadas e interactivas, generando a diario una gran cantidad de información relacionada con visualizaciones, "me gusta", comentarios, compartidos y preferencias de contenido de millones de usuarios. Este trabajo tiene como objetivo analizar los patrones de consumo de contenido en Instagram utilizando conceptos de Big Data, con el propósito de identificar qué tipos de publicaciones, formatos y temáticas generan más interacción y participación de la audiencia, para así proponer usos estratégicos de esta información. La elaboración de este estudio se basa en información secundaria recopilada por fuentes especializadas, que organizan y procesan los enormes volúmenes de datos generados cada día por los usuarios de Instagram. A partir de estos informes y estadísticas oficiales, se adoptó una metodología analítica que combina conceptos de Big Data, el análisis de métricas de interacción y la observación de tendencias digitales, lo que permitió identificar patrones de consumo y comportamientos recurrentes de la audiencia. Los resultados muestran una clara preferencia por formatos de contenido visual y dinámico, especialmente los videos cortos, así como una mayor interacción con contenidos relacionados con entretenimiento, educación breve y recomendaciones de productos. Con base en estos hallazgos, el estudio sugiere posibles usos estratégicos de la información analizada para la toma de decisiones en marketing digital, comunicación estratégica y análisis del comportamiento del consumidor, resaltando el valor del Big Data como una herramienta clave en los entornos digitales actuales.Publication Aplicación de técnicas de aseguramiento de calidad y pruebas funcionales en la plataforma web(Corporación Universitaria Remington, 2025) Sánchez Jaramillo, Dhayanna Alexandra; Menjura Mendieta, Yeison Fabián; Montenegro Mora, Fabián Alberto; Grisales Morales, Fabio LeónEste trabajo se desarrolló para un proceso de aprendizaje del área de calidad (Pruebas Qa) Fue aplicado a una aplicación web de comercio electrónico, se ejecutaron las etapas de planeación, análisis, diseño, implementación, ejecución y cierre de pruebas siguiendo buenas prácticas de IEEE 829 e ISTQB. Se realizó la planeación con una definición de alcance de 8 historias de usuario, que son Catálogo de productos, búsqueda y filtros, carrito de compras, inicio de sesión/ registro, compra/pasarela de pago, gestión financiera/Bd, notificaciones transaccionales(mail), recuperación de contraseña, para cada una de esas historias de usuario se realizó una matriz de riesgos con plan de contingencia correspondiente para poder mitigarlos. Durante el análisis y diseño de pruebas, se construyeron los casos de prueba utilizando técnicas formales como partición de equivalencia, valores límite y análisis de tablas de decisión. Posteriormente, en la fase de ejecución, se realizaron y verificaron los 70 casos de prueba definidos, capturando las evidencias correspondientes según el resultado. Realizamos la ejecución de cada caso de prueba, tomando las evidencias correspondientes según el resultado obtenido en cada uno de ellos. Además, se elaboró y relacionó el documento de bugs encontrados durante la ejecución. El documento de cierre de pruebas consolidó los resultados, concluyendo que, si bien se ejecutó el 100% de las pruebas críticas definidas, el producto final no se encuentra en condiciones de operación.Publication Plan de calidad para E-commerce(Corporación Universitaria Remington, 2025) Medrano Álvarez, Duvan José; Mazo Nieto, Mateo; Luna Jiménez, Kevin; Grisales Morales, Fabio LeónEl presente informe describe la aplicación de un plan de pruebas de software para un aplicativo web de comercio electrónico dedicado a la venta de ropa y accesorios. El trabajo se basa en los conceptos de aseguramiento de la calidad de software, utilizando una estrategia de pruebas orientada a riesgos y pruebas End-to-End (E2E) para validar los flujos críticos del sistema. Se abordan actividades como la definición del alcance, la identificación de riesgos, la estimación del esfuerzo, la ejecución de pruebas funcionales y la gestión de defectos mediante un bugtracker. Los resultados obtenidos permiten identificar fallos relevantes en funcionalidades clave, evidenciando la importancia de una adecuada planificación y control del proceso de pruebas para garantizar la calidad del software y la satisfacción del usuario final.Publication Análisis y cierre del proceso de pruebas de software(Corporación Universitaria Remington, 2025) Mina Muñoz, Michael Steven; Vergara Meza, Nubia Milena; Jiménez Díaz, José Daniel; Grisales Morales, Fabio LeónEl presente trabajo corresponde al informe de cierre del proceso de pruebas de software realizado como parte de la opción de grado Seminario–Diplomado. El objetivo principal del proyecto fue validar el correcto funcionamiento de un sistema de información mediante la ejecución de diferentes tipos de pruebas, tomando como base las historias de usuario (tabla 1) definidas durante la etapa de planeación. En el plan de pruebas se estableció inicialmente la validación de catorce historias de usuario. Sin embargo, durante el desarrollo del proyecto se logró validar un total de cuatro historias, priorizando aquellas que tenían mayor impacto en el funcionamiento del sistema. Esta diferencia entre el alcance estimado y el alcance real se presentó principalmente por limitaciones de tiempo, ajustes realizados durante la ejecución, la disponibilidad de los integrantes del equipo y la falta de experiencia previa en la realización de pruebas de software. Durante la ejecución del proyecto también se evidenció una diferencia importante entre los tiempos estimados y los tiempos reales. Aunque inicialmente se habían planeado 266 horas para el desarrollo de las actividades, el tiempo real invertido fue de aproximadamente 524 horas. Esta situación se debió a la subestimación de algunas tareas, a los reprocesos generados por los defectos encontrados, al proceso de aprendizaje en el uso de las herramientas de pruebas y al tiempo requerido para la elaboración de la documentación final. A pesar de estas dificultades, el uso de herramientas como el plan de pruebas, el bugtracker (tabla 2) y la matriz de riesgos (tabla 3) permitió llevar un control más organizado del proceso. Finalmente, este proyecto permitió identificar lecciones aprendidas y oportunidades de mejora relacionadas con la planificación, la gestión del tiempo y el trabajo en equipo, las cuales serán de gran utilidad para futuros proyectos de pruebas de software.Publication Custom Flow QA(Corporación Universitaria Remington, 2025) Alzate García, Jhon Mauricio; Henao Montoya, Yeimer Ferney; Grisales Morales, Fabio LeónEl trabajo de grados muestra el proceso y los resultados de diseño y documentación completa del Plan de Pruebas Funcionales realizado por la empresa Customer Flow QA para una plataforma web de comercio electrónico enfocada en la venta de ropa y accesorios. El objetivo principal fue garantizar que cada módulo del sistema cumpliera correctamente con los requerimientos definidos, asegurando una experiencia estable, funcional y confiable para el usuario final. Durante el desarrollo del proyecto, se realizó un análisis detallado de las historias de usuario, el alcance del sistema y los riesgos asociados. A partir de este estudio, se elaboró una estructura organizada de prueba que incluye: definición del alcance, análisis de riesgo, estrategias de pruebas, identificación de los tipos de pruebas necesarios y la construcción de una matriz de 58. Casos que cubren los procesos claves del sistema. Como visualización del catálogo, registro, inicio de sesión, manejo de carrito, validación del checkout, confirmación de compras, generador de PDF. Historial de compras y recuperación de contraseñas. Cada caso de prueba fue diseñado con un enfoque práctico, siguiendo la trazabilidad entre alcance e historia de usuario. Confirmaciones Caso de prueba, garantizando que cada funcionalidad crítica estuviera correctamente validada. Este trabajo no solo permitió evaluar la calidad del sistema, sino que también aplicó de manera directa lo aprendido en el seminario, integrando conocimiento sobre análisis funcional, metodología de aseguramiento de calidad, redacción técnica y documentación profesional. En conjunto, este proyecto representa la base estructurada para asegurar la calidad del sistema, permitiendo detectar fallos antes de una puesta en producción y fortaleciendo la confiabilidad del software; además, demuestra la importancia de un plan de pruebas sólido como parte esencial en el desarrollo de aplicaciones web actuales.