Ingeniería de Sistemas
Permanent URI for this collection
El Ingeniero de Sistemas de la Corporación Universitaria Remington es un profesional con un alto sentido de responsabilidad social, humanista, competente e idóneo, con gran capacidad de análisis, diseño, y gestión de sistemas de información debido a su formación integral en las áreas de las ciencias básicas y computacionales, aplicando estándares internacionales y las mejores prácticas empleadas en la ingeniería del software permitiendo alcanzar el logro de los objetivos estratégicos en las organizaciones, desde una visión ética y responsable con el medio ambiente, a través del uso racional de recursos y la optimización de procesos empresariales.
Browse
Browsing Ingeniería de Sistemas by Title
Now showing 1 - 20 of 248
Results Per Page
Sort Options
Publication Algoritmo computacional para el análisis y toma de decisiones de puntos calientes en el año 2021 y 2022 utilizando estrategias de machine learning(Corporación Universitaria Remington, 2024) Cruz Santos, Edwin Ferney; Briñez de León, Juan CarlosDurante la ejecución del proyecto actual de Machine learning en tiempo de datos, se inicia con la identificación de variables para su análisis, recurriendo a los historiales de empresas u organizaciones dedicadas a recopilar la información necesaria en formato de conjuntos de datos. Estos conjuntos de datos son esenciales para facilitar el aprendizaje del modelo y la toma de decisiones adecuadas, así como para fomentar un aprendizaje continuo a partir de la información que se recopila diariamente. Para llevar a cabo este proceso, se han seleccionado las condiciones climáticas que podrían haber desencadenado posibles incendios forestales en Colombia durante el año 2022. A partir de estos mismos datos, es posible identificar las zonas más afectadas durante el período mencionado. Esto, a su vez, permite desarrollar estrategias para abordar la situación en dichas zonas, teniendo en cuenta la magnitud del impacto. La extensión geográfica de los incendios y su intensidad son variables clave que se tienen en cuenta al diseñar acciones preventivas y de respuesta. Es importante destacar que el análisis de datos no se limita únicamente a la identificación de áreas afectadas, sino que también implica la evaluación de factores subyacentes que contribuyen a la propagación y la severidad de los incendios forestales. Esto puede incluir factores como la densidad forestal, la presencia de vías de acceso, la disponibilidad de recursos para combatir incendios y las condiciones climáticas locales. En resumen, el proyecto actual de Machine learning en tiempo de datos se centra en la identificación y análisis de variables clave relacionadas con los incendios forestales en Colombia en el año 2022, con el objetivo de desarrollar estrategias efectivas para la prevención y respuesta ante futuros eventos similares. Este enfoque integrado, que combina la recopilación y análisis de datos con Técnica profesionals avanzadas de modelado predictivo, es fundamental para mejorar la capacidad de anticipación y gestión de riesgos en el contexto de la gestión forestal y la protección del medio ambiente.Publication Algoritmo computacional para el análisis y toma de decisiones en compra y producción de hilos en Fabricato, utilizando estrategias de machine learning(Corporación Universitaria Remington, 2024) Rojas Orozco, Rafael Andrés; Briñez de León, Juan CarlosEste proyecto busca mejorar la gestión de la demanda de hilos en la empresa textil Fabricato mediante el uso de métodos de machine learning. El objetivo principal es optimizar la cadena de suministro, reducir costos y mejorar la planificación de compras y producción a través de una predicción precisa de las cantidades necesarias. Este proyecto implica recopilar y depurar una base de datos que consta aproximadamente de 6,335 registros internos de Fabricato, los cuales incluyen información sobre explosión de hilos, adquisiciones de materias primas y pedidos de clientes. La calidad y consistencia estos datos son esenciales para un análisis posterior. Una vez recopilados y procesados, se emplearán algoritmos de aprendizaje automático, como regresión para analizar los datos y lograr extraer información relevante sobre tendencias, estas Técnica profesionals abarcan normalización de los datos, eliminación de valores atípicos e imputación valores de faltantes. Asimismo, se realizarán pruebas de validación y ajustes para garantizar la robustez del modelo desarrollado. La aplicación de modelos predictivos permitirá a Fabricato prever la demanda de hilos en los próximos meses, teniendo en cuenta las fluctuaciones del mercado y los plazos de entrega de la materia prima. Esta anticipación es vital para mantener un flujo óptimo en el proceso productivo, evitar excesos de inventario y disminuir los costos asociados a la gestión de materiales innecesarios. Además de pronosticar la demanda, el proyecto también se enfocará en evaluar la efectividad y precisión del software desarrollado mediante indicadores clave de rendimiento. Estas métricas abarcarán la reducción de gastos por excedentes en inventario, el perfeccionamiento en la planificación de compras y la optimización de la cadena de suministro de hilos. La digitalización y aplicación de algoritmos basados en aprendizaje automático han sido cruciales para optimizar los procesos y facilitar la toma decisiones dentro del ámbito del suministro textil. La recopilación detallada y análisis exhaustivo de los datos, junto con estrategias avanzadas de regresión y clasificación, han contribuido significativamente a mejorar el desempeño global de Fabricato.Publication Algoritmo computacional para el análisis y toma de decisiones en datos de ataques cibernéticos y ciberseguridad a compañías pull de abogados en Colombia, utilizando estrategias de machine learning(Corporación Universitaria Remington, 2024) Mora Alvarado, Jeyson Esneyder; Briñez de León, Juan CarlosEn un entorno donde la seguridad de la información se vuelve cada vez más importante, la realización de una investigación tipo tesis centrada en el análisis de brechas de ciberseguridad y vectores de ataques dirigidos específicamente a bufetes de abogados representa un área de estudio crucial. Los bufetes de abogados se convierten en objetivos potenciales para los ciberataques porque manejan datos confidenciales y sensibles de sus clientes, lo que resalta la importancia de comprender y mitigar las vulnerabilidades en sus sistemas de información. La investigación se centrará en identificar y analizar las brechas de seguridad en los sistemas de TI utilizados por los bufetes de abogados. Esto requeriría un examen completo de la infraestructura de TI, que incluye redes, sistemas de almacenamiento de datos, aplicaciones y dispositivos utilizados en la comunicación con clientes y la gestión de casos legales. Se pueden encontrar puntos débiles potenciales que los actores malintencionados podrían explotar mediante el uso de Técnica profesionals de evaluación de vulnerabilidades y análisis forense digital. La investigación también se enfocaría en comprender los vectores de ataques más comunes dirigidos a los bufetes de abogados, además del análisis de brechas de seguridad. Esto implica investigar cómo los ciberdelincuentes afectan la seguridad de la información en este sector. Estos vectores de ataque podrían incluir ataques de phishing destinados a obtener credenciales de acceso, ransomware destinado a cifrar datos confidenciales y exfiltración de información a través de fallas en aplicaciones o sistemas de almacenamiento.Publication Algoritmo computacional para el análisis y toma de decisiones en datos de entradas de vehículos eléctricos al país, utilizando estrategias de machine learning(Corporación Universitaria Remington, 2024) Casas Ramírez, Carlos Arturo; Briñez de León, Juan CarlosEste proyecto aborda la transformación digital en las organizaciones y su impacto en la recopilación de datos, destacando el problema del cambio climático y las emisiones de CO2 en Colombia. Se plantea el uso de algoritmos de machine learning para predecir el aumento de matrículas de vehículos eléctricos en Colombia, utilizando datos del gobierno. Se describen diferentes tipos de aprendizaje automático y se establecen objetivos para implementar un algoritmo de machine learning. El análisis visual de datos revela tendencias en las matrículas de vehículos eléctricos, y se detalla el proceso de desarrollo e implementación del aprendizaje automático, incluyendo la modelización de regresión y la aplicación en situaciones reales, con resultados adicionales sobre la predicción del crecimiento de matrículas de vehículos eléctricos en el país.Publication Algoritmo computacional para el análisis y toma de decisiones en datos de la migración de venezolanos en Pamplona, utilizando estrategias de machine learning(Corporación Universitaria Remington, 2024) Bayona Solano, Sergio Andrés; Briñez de León, Juan CarlosEl actual proyecto implementa el machine Learning sobre una base de datos de migrantes venezolanos en el municipio de Pamplona, con el propósito de mejorar el proceso de toma de decisiones de una ONG. Este entrenamiento se lleva a cabo gracias al modelado de los datos para ser de fácil comprensión por el modelo, ayudándole a identificar tendencias, con un menor consumo de recursos, para su posterior análisis mediante el método de aprendizaje automático clustering, el cual es especial para estos problemas donde se necesita la agrupación de datos. Todo esto se desarrolla en empatía con el pueblo venezolano quien enfrenta una situación complicada y Norte de Santander se ha visto afectada por este contexto, pero en especial Pamplona al ser una ciudad de paso obligado para los migrantes pero que por sus condiciones demográficas complican la situación para ambas partes. Por lo cual con este proyecto se contribuye a la toma de decisiones efectivas en ámbitos de elaboración de planes y focalización de recursos de la ONG involucrada.Publication Algoritmo computacional para el análisis y toma de decisiones en datos de la predicción ICFES 2024, utilizando estrategias de machine learning(Corporación Universitaria Remington, 2024) Correal Rodríguez, Wilson Andrés; Pérez Cubides, Marlon Yair; Briñez de León, Juan CarlosEl examen Saber 11 es una prueba desarrollada por el Ministerio de Educación Nacional para medir la calidad de la educación secundaria. Este examen se administra a nivel nacional y su desempeño es un requisito para que los estudiantes puedan finalizar su secundaria. El estudio utilizó los resultados de las últimas pruebas Saber 11 realizadas el 2023 por estudiantes de Colombia. Los datos se obtuvieron de https://www.datos.gov.co para predecir los resultados globales para 2024 basándose en el modelo de aprendizaje MLP supervisado por MLP. Según lo anterior este estudio aprovechará los datos, basado en los resultados del algoritmo de puntaje global de 2023. Se utilizaron 500. Se tomaron seis pasos para construir un modelo. 1) Identificación de problemas de aprendizaje de automóviles (explicaciones, objetivos y variables (investigación, limpieza, variable de categoría), 3) correlación entre funciones (correlación y gráficos académicos de variables, 4) modelo educativo (implementación) Modelo seleccionado 5) Prueba de clasificación. (Simulación para ilustrar cómo el modelo puede predecir la puntuación general comparando el modelo seleccionado con el conjunto de datos original utilizando las variables de entrada y promediando los cinco componentes evaluados en la Prueba de conocimientos 11). Como resultado el modelo dio los datos requeridos por nosotros.Publication Algoritmo computacional para el análisis y toma de decisiones en datos de predicción de la calidad de la leche, utilizando estrategias de machine learning(Corporación Universitaria Remington, 2024) Alzate Alzate, Santiago; Briñez de León, Juan CarlosEn este escrito, se destacan resultados y análisis sobre la predicción de la calidad de la leche, un líquido fundamental para garantizar la calidad alimentaria de los consumidores. La importancia de este análisis radica en su capacidad para evaluar diversos factores que influyen en la producción de leche y, a partir de ahí, identificar herramientas y medidas que permitan mejorar los estándares de calidad de este producto. La intención detrás de esta investigación y análisis es doble: por un lado, se busca comprender y prever la calidad de la leche, lo cual es crucial para garantizar la seguridad alimentaria y la satisfacción del consumidor. Por otro lado, se persigue identificar áreas de mejora en los procesos de producción láctea, con el fin de optimizar la eficiencia y la calidad del producto final. Al evaluar los factores que afectan la producción de leche, se pueden identificar posibles puntos de intervención para mejorar la calidad del producto. Esto puede incluir aspectos como la alimentación y manejo del ganado, las condiciones sanitarias de las instalaciones de producción, los procesos de pasteurización y almacenamiento, entre otros. La toma de decisiones basada en estos análisis puede conducir a la implementación de medidas correctivas y preventivas que mejoren la calidad y seguridad de la leche producida. Los posibles impactos en la cadena de productividad también son importantes de considerar. Mejorar la calidad de la leche puede tener efectos positivos en toda la cadena de producción láctea. Por ejemplo, al reducir la incidencia de contaminación o enfermedades en el ganado, se pueden evitar pérdidas económicas y mejorar la eficiencia en la producción. Asimismo, una leche de mayor calidad puede aumentar la satisfacción del consumidor, lo que a su vez puede llevar a un incremento en la demanda y, por ende, en la rentabilidad de los productores y empresas lácteas.Publication Algoritmo computacional para el análisis y toma de decisiones en datos de riesgo de obesidad, utilizando estrategias de machine learning(Corporación Universitaria Remington, 2024) Calderón González, Dahiana; Briñez de León, Juan CarlosSegún la OMS la tasa de niveles de obesidad entre jóvenes y adultos se ha ido incrementando con el paso del tiempo. por esto, se ha dado la tarea de la implementación de un algoritmo de machine Lear Ning de aprendizaje supervisado enfocado en el ámbito de la salud de los usuarios, este algoritmo se centra en desarrollar métodos que agilicen los diagnósticos médicos en pacientes que lo requieran, sin la necesidad de presentarse en un centro médico. Este sistema cuenta con la facilidad de entender los valores que se le brinden, buscando así predecir si un usuario cuenta con obesidad según su peso, altura, y su manejo de hábitos diarios. Estos datos obtenidos por los individuos serán tomados en cuenta para identificar en que nivel de obesidad se encuentra. Este algoritmo implementado en este trabajo, cuenta con la información de 20758 datos de personas jóvenes, adultos- jóvenes y adultos con la finalidad de dar a conocer que la obesidad es una enfermedad crónica que se debe tener en cuenta y no dejarla pasar por desapercibido.Publication Algoritmo computacional para el análisis y toma de decisiones en datos sobre intentos de suicidio en Rionegro entre los años 2016 - 2021, utilizando estrategias de machine learning(Corporación Universitaria Remington, 2024) Monsalve Botero, Mauricio; Morales Henao, Andrés Camilo; Briñez de León, Juan CarlosEl proyecto titulado "Algoritmo Computacional para el Análisis y Toma de Decisiones en Datos sobre Intentos de Suicidio en Rionegro entre 2016 y 2021, empleando Estrategias de Aprendizaje Automático", tiene como objetivo utilizar métodos de aprendizaje automático para analizar información acerca de los intentos de suicidio en la zona de Rionegro a lo largo de seis años. La meta principal consiste en descubrir tendencias, identificar factores de riesgo y posibles indicadores de intentos de suicidio, con la finalidad de desarrollar un sistema capaz de prevenir y detectar estos eventos de manera temprana. Este proyecto involucra la recolección y depuración de datos históricos relacionados con los intentos de suicidio en Rionegro durante el período comprendido entre 2016 y 2021. Posteriormente, se utilizarán algoritmos de aprendizaje automático, tales como clasificación y regresión, para analizar estos datos y extraer información relevante. Se explorarán diversas Técnica profesionals de preprocesamiento de datos, selección de características y modelado con el objetivo de obtener los mejores resultados posibles. Además, se llevará a cabo una evaluación exhaustiva de los modelos desarrollados, utilizando métricas de desempeño apropiadas para problemas de clasificación y regresión. Se ajustarán los modelos según sea necesario y se realizarán pruebas de validación cruzada para asegurar su robustez y generalización. Como resultado final, se espera obtener un algoritmo computacional capaz de analizar datos sobre intentos de suicidio en Rionegro, proporcionando información valiosa para la toma de decisiones en políticas de salud mental y programas de prevención. Este algoritmo tiene el potencial de contribuir significativamente a la identificación y atención temprana de personas en riesgo de suicidio en la región.Publication Algoritmo computacional para el análisis y toma de decisiones en la clasificación de datos sobre el crecimiento de las plantas, utilizando estrategias de machine learning(Corporación Universitaria Remington, 2024) Rodríguez Salazar, Juan Nicolas; Briñez de León, Juan CarlosEn este conjunto de datos la tarea de predicción normalmente implicaría predecir o clasificar el hito de crecimiento de las plantas en función de los factores ambientales y de gestión proporcionados. En concreto, se intentará predecir la etapa o el hito de crecimiento que alcanza una planta en función de variables como el tipo de suelo, las horas de luz solar, la frecuencia de riego, el tipo de fertilizante, la temperatura y la humedad. Esta predicción puede ayudar a comprender cómo las diferentes condiciones influyen en el crecimiento de las plantas y puede ser valiosa para optimizar las prácticas agrícolas o la gestión de invernaderos.Publication Algoritmo computacional para el análisis y toma de decisiones en la generación de energías renovables, utilizando estrategias de machine learning(Corporación Universitaria Remington, 2024) Cuellar Medina, Yeimy Mireya; Soto Rojas, Bryan Stiwart; Briñez de León, Juan CarlosLa energía es la fuente de la vida, así como nuestro sistema nervioso central provee pequeñas descargas que permiten movimientos musculares y reacciones indispensables para el diario vivir. La ingeniería en su evolución descubrió la importancia de los mecanismos para facilitar las tareas diarias en la vida del hombre que posteriormente añadiéndoles una fuente de energía, se puede convertir un mecanismo simple en un mecanismo sofisticado con autonomía de movimiento y reacciones que ha sido de gran ayuda para el desarrollo del mundo moderno, como nuestros teléfonos celulares, ordenadores, vehículos y demás herramientas que complementan las tareas y que muchas veces sirven incluso como un asistente personal, permitiendo al hombre que sabe hacer uso de ellas, proyectar sus metas a objetivos más altos ya que mucha de su carga se aliviana gracias a la energía. La energía es producida a través de movimientos mecánicos que se pueden dar por la quema de hidrocarburos, por la separación de átomos o incluso por el esfuerzo de la tracción humana o animal, sin embargo se puede notar que estos recursos son limitados y que en cualquier momento los niveles de producción pueden reducirse hasta su extinción. ¿Qué pasaría si logramos producir energía de una fuente autorrenovable y autosustentable? En el presente documento se puede evidenciar como las energías renovables además de cumplir su propósito en las labores del hombre, conservan el cuidado del medio ambiente y reducen la necesidad de inversión, ya que, fuentes tan sencillas como un río con buen cauce es algo que se encuentra en la naturaleza y por lo que no se cobra. Mantener una relación simbiótica con los recursos naturales no solo debe ser una tarea u obligación, también debe ser considerado un lujo, ya que es más lo que se obtiene que su inversión.Publication Algoritmo computacional para el análisis y toma de decisiones en la generación de energías renovables, utilizando estrategias de machine learning(Corporación Universitaria Remington, 2024) Pulgarín Serna, Elkin; Artunduaga Mendoza, Franklin Yesid; Giraldo Vásquez, Julián Andrés; Briñez de León, Juan CarlosEl trabajo, está basado en analizar la base de datos de los estudiantes de Bangladesh, en 5 áreas específicas (Matemáticas, Ciencias, Ciencias Sociales, inglés y Arte y cultura) en estos podemos encontrar los nombres de cada estudiante los cuales son jóvenes que cursan educación media, y están ad-portas de salir de la institución educativa. Esta base de datos nos muestra los puntajes comparativos entre mujeres y hombres, con los cuales, podemos deducir el nivel académico de cada estudiante. En este trabajo, se ejecutan unos algoritmos que nos permiten modificar los datos de nuestra base estudiantil, para poder realizar el tratamiento de los datos, desarrollando algoritmos tales como “eliminar una columna” o “cambiar datos categóricos a numéricos” o “verificar información de la tabla”, para posteriormente ejecutar algoritmos que nos muestran estadísticas que representan la información más relevante de nuestra base de datos, tales como, matrices de correlación y gráficas de dispersión, de columnas o en torta, para exponer dichas estadísticas. Luego se procede a realizar algoritmos de modelos de regresión en los que se puede observar los márgenes de error dentro de la base de datos, como el modelo KNN y el modelo ANN, en donde se evalúa una métrica de 3 datos que se quieran consultar fuera de los ya relacionados en la base de datos para obtener un promedio deseado con los datos escritos para predecir un promedio final. Nuestra recomendación en este trabajo es analizar el rendimiento académico de cada estudiante para visualizar las posibles falencias o virtudes, para obtener estadísticas que nos permitan identificarlas y así saber que mejoras se pueden efectuar en el programa académico.Publication Algoritmo computacional para el análisis y toma de decisiones en proyecciones violencia doméstica contra la mujer, utilizando estrategias de machine learning(Corporación Universitaria Remington, 2024) Quintero Masmela, Breisen Estiven; Góngora Molina, Nicolás; Briñez de León, Juan CarlosEl trabajo de grado presenta el desarrollo de un algoritmo computacional utilizando estrategias de machine learning para el análisis y toma de decisiones en proyecciones de violencia doméstica contra la mujer. La investigación se enfoca en identificar y analizar el ciclo intergeneracional de la violencia doméstica, considerando factores como la edad, nivel educativo, empleo, estado civil y otros parámetros socioeconómicos. Utilizando datos recopilados en áreas con diferentes niveles socioeconómicos y mediante entrevistas y encuestas a mujeres dispuestas a compartir sus experiencias, el estudio busca comprender la correlación entre estos factores y la violencia doméstica. Los datos, obtenidos de la plataforma Kaggle, fueron procesados y analizados, revelando que las mujeres jóvenes y con ingresos económicos inestables son las más afectadas. Los modelos de machine learning, especialmente LDA y SVM, mostraron una precisión del 74.3% en la predicción de casos de violencia. El objetivo general es implementar un algoritmo para analizar y tomar decisiones informadas a partir de estos datos, contribuyendo a la identificación y prevención de la violencia doméstica.Publication Algoritmo computacional para el análisis y toma de decisiones para prevención de homicidios en la ciudad de Ibagué, utilizando estrategias de machine learning(Corporación Universitaria Remington, 2024) Castillo Santos, Marcos Esteban; Sánchez Bermúdez, Andrés Magiver; Briñez de León, Juan CarlosEl análisis en contexto tiene como componente principal el panorama del delito de homicidio registrado en la jurisdicción de Ibagué, el cual permite identificar los factores generadores que inciden en este fenómeno. En este contexto, es fundamental analizar el comportamiento del delito de homicidio en esta ciudad para comprender sus causas, tendencias y el impacto que tiene en la comunidad. Este análisis permitirá identificar las áreas prioritarias de intervención y diseñar políticas públicas más efectivas para prevenir y reducir este delito. Por tanto, el presente análisis criminológico realiza un seguimiento estadístico comparativo de los años 2023 y 2024, enfatizando el delito de alto impacto social como lo es el homicidio, este se enfocará en examinar las estadísticas de homicidios en Ibagué, las características de las víctimas y victimarios, los móviles más comunes y la distribución de estos hechos.Publication Algoritmo computacional para el análisis y toma dedecisiones en datos de predicción de defunciones por Covid-19, utilizando estrategias de machine learning(Corporación Universitaria Remington, 2024) Padilla Vargas, Devis Kenneth; Briñez de León, Juan CarlosEn este proyecto de Machine Learning en tiempo de datos, es muy necesario saber que Datasets requiere para el ejercicio, de tal manera fueron los datos de contagios en México específicamente las defunciones de los pacientes allegados a varias zonas del país, de acuerdo con lo anterior, se logró percibir o anexar ciertas dificultades que se tuvieron en ese tiempo. Se manifestaron pacientes de diferente índole niños, mujeres en embarazo, adultos de la tercera edad, incluso personas que superaban los 100 años. Es apropiado que con el análisis de datos que se realizó se pueda identificar a corto plazo el COVID 19, aunque ya allá pasado su pandemia, aun se presentan otras versiones al COVID, de acuerdo con el análisis de posibles contagios los pacientes no sufrían padecimiento acerca de esta enfermedad, mientras que otros sí, por otra enfermedad contribuyente, incurre a que el paciente empeore y no tenga las mismas ganas de seguir que un paciente bien o en excelentes condiciones de vida. Con los datos adquirido se logra manifestar que ya muchos pacientes ya habían fallecido, por eso era necesario su análisis completo, desde el cargue de los datos, hasta el registro final que eran los datos que quedaban, además con ayudan de los clasificadores se tuvo mayor precisión al análisis de los resultados, esta es una competencia que ayuda a comprender los estados de las enfermedades, en vista previa se anexaron los datos a Colaboratory de Google, donde se hizo todo el proceso de cargue, eliminación, conteo y resultados.Publication Algoritmo computacional para la predicción de retiros en un entorno hospitalario(Corporación Universitaria Remington, 2023) Agudelo Jiménez, Santiago; Castañeda Arango, Santiago; Vélez Uribe, Juan PabloEl presente trabajo de grado se enfoca en afrontar el desafío significativo que representa la elevada tasa de retiros de personal en un entorno hospitalario. Esta problemática se refleja en la pérdida considerable de tiempo y recursos derivados del constante ciclo de búsqueda, selección y formación de nuevos empleados. Además, repercute directamente en la calidad de la atención médica ofrecida a los pacientes. El objetivo principal abarca no solo comprender las razones subyacentes que impulsan estos retiros laborales, sino también proponer y desarrollar estrategias concretas y eficaces para retener al personal existente. El propósito último es mitigar las salidas laborales mensuales, reduciendo así el impacto negativo en las operaciones diarias de un hospital. El estudio se dirige a investigar las causas profundas de los retiros del personal hospitalario, considerando factores diversos como el ambiente laboral, las condiciones laborales, las oportunidades de crecimiento profesional y otros elementos relevantes que puedan influir en la decisión de los empleados de abandonar sus puestos. Este análisis exhaustivo busca identificar patrones y tendencias que puedan estar contribuyendo a la alta rotación del personal. Además de la identificación de las causas, se plantea el diseño de estrategias de retención del personal basadas en un enfoque proactivo y preventivo. Estas estrategias tienen como objetivo no solo retener a los empleados actuales, sino también promover un ambiente laboral más satisfactorio y estimulante que fomente la permanencia del talento dentro del hospital. Se espera que la implementación de estas estrategias ayude a minimizar la constante rotación de empleados y, en consecuencia, reduzca la interrupción en las operaciones hospitalarias, mejorando así la continuidad y calidad en la atención brindada a los pacientes.Publication Algoritmo computacional, para la predicción de nivel de satisfacción de compra de un usuario, utilizando estrategias de machine learning(Corporación Universitaria Remington, 2024) Aguirre Aristizábal, Daniel David; Briñez de León, Juan CarlosEl presente trabajo se enfoca en brindar una solución a una pequeña cadena de supermercados llamada Merk+, en la predicción de las calificaciones brindadas por sus clientes, en aras de mejorar el servicio brindado y realizar estrategias que permitan a Merk+ tomar mejores decisiones. Dentro del análisis comenzamos con una breve descripción de la situación de Merk+, para posteriormente, con base a la data brindada por la cadena de supermercados; dentro de estos datos podemos encontrar el tipo de datos de nuestras variables, cantidad de personas por género, mapa de correlaciones, gráfico de bigotes, entre otros gráficos y tablas con información, la cual fue previamente limpiada y normalizada con el fin de evitar outliers que puedan afectar nuestro análisis. Con base a nuestro análisis, hemos entregado el uso de algoritmos de clustering y de regresión de datos con múltiples entradas. En el proceso de clustering segmentaremos nuestros clientes o compras, con el fin de poder identificar un factor común que pueda afectar las calificaciones que está entregando los clientes. En cuanto a la regresión de datos con múltiples entradas, le permitirá a Merk+ proyectar la posible calificación por parte del usuario con base a los artículos comprados, método de pago, sucursal de la compra, entre otros. Con esto se busca que Merk+ pueda brindar un mejor servicio para sus clientes y así mismo destacar entre su competencia.Publication Amazon Web Services(Corporación Universitaria Remington, 2024) Medina Suárez, Karol Andrea; Latorre Muñoz, Tatiana Andrea; Benítez Guerrero, Jhon Breinner; Berrío López, Juan PabloEn este proyecto, somos un startup llamada KTB SYSTEM, una plataforma innovadora que ayudara conectar restaurantes con clientes mediante entregas rápidas. Nuestra empresa ha obtenido un rápido crecimiento para así escalar una infraestructura tecnológica, manejar una mayor demanda y poder garantizar la disponibilidad de mejorar los tiempos de respuesta El CTO de FAST FOOD se ha diseñado bajo una arquitectura lo cual necesita de una ayuda para implementar en Amazon Web Services (AWS). La solución debe ser altamente disponible, escalable y estar diseñada para manejar una gran cantidad de trafico de manera eficiente. Implementaremos esta arquitectura en AWS lo cual requiere los siguientes requisitos 1. Balanceador de Carga: Configure un Application Load Balancer (ALB) para distribuir el tráfico entrante a múltiples instancias EC2. 2. Instancias EC2: Implemente al menos dos instancias EC2 en una configuración multizona para garantizar alta disponibilidad. 3. Instancias con Proxy Reverso: Dentro de cada instancia EC2, deben implementar un proxy reverso (por ejemplo, Nginx) para redirigir solicitudes a servicios internos. 4. Auto-escalado: Configure políticas de auto-escalado para aumentar o reducir las instancias EC2 según la carga. 5. Seguridad: Asegure el tráfico utilizando grupos de seguridad adecuados y habilitando HTTPS en el balanceador de carga. 6. Documentación: Toda la documentación debe estar en el formato de trabajo de grado proporcionado.Publication Amazon Web Services(Corporación Universitaria Remington, 2024) Zaac Andrade, Francisco Eduardo; Berrío López, Juan PabloEl objetivo central del seminario es conocer a fondo la colección de los servicios de computación en la nube de Amazon Web Services (AWS) lo que común mente en el área de informática se conoce como computación en la nube que es la disponibilidad a pedido de los recursos de procesamiento como los servicios por internet para que las empresas tengan un mejor rendimiento y administren mejor sus recursos ya que con esto pueden montar sus aplicaciones y solo pagan por lo que están utilizando lo cual también permite conectar y o acceder no solo de forma local desde cualquier dispositivo si no también desde el internet. Ya que los procesos de información y almacenamiento tienen lugar en servidores o centro de datos donde todos los que tengan acceso a sus aplicaciones la pueden configurar de forma local o vía internet. A principios del siglo XXI cuando la palabra internet comenzó a expandirse por el mundo con más auge y con la llegada de los celulares inteligentes, tables, tv inteligentes etc. El uso de una red de servidores conectados a internet para almacenar, administrar y procesar datos en lugar de depender de un servicio físico instalado de forma local ya sea personal o empresarial, se conecta al acceder a una estructura donde tanto el software como el hardware son integral mente virtualizados.Publication Amazon Web Services (AWS)(Corporación Universitaria Remington, 2024) Rivero Henao, Oscar Iván; Mira Sepúlveda, Daniel; Valencia Lemos, Yoleison; Berrío López, Juan PabloEl presente trabajo de grado se centra en el estudio de la plataforma Amazon Web Services (AWS), teniendo en cuenta que es una de las plataformas lideres a nivel mundial de servicios en la nube, resaltando la importancia que tiene en el desarrollo tecnológico de las empresas ofreciendo servicios que ayudan a estas a optimizar sus recursos, mantener segura la información y tener una alta disponibilidad de sus servicios informáticos. En primera instancia se abordaron los orígenes de la virtualización y la computación en la nube, realización de una línea de tiempo con los sucesos más importantes que contribuyeron desde sus inicios hasta la actualidad al desarrollo de estas Tecnológicas, además se muestra en una tabla comparativa los servicios más importantes ofrecidos por las tres principales plataformas de servicios en la nube en la actualidad como son: Amazon web Services (AWS), Microsoft Azure y Google Cloud Platform (GCP). El estudio de la plataforma AWS se realizó elaborando un paso a paso con imágenes descriptivas de cómo se implementan algunos de los servicios más importantes tales como: 1. Creación de Virtual Private Cloud (VPC), Subredes, Instancias EC2, Docker o contenedores dentro de la instancia y configuración para acceder desde un equipo local conectado a Internet de manera directa a través de la instancia a la página de inicio del servidor web de cada contenedor por su nombre de dominio. 2. Conexión a través del Subsistema de Windows para Linux (WSL) a una instancia Linux en AWS, creación de un Bucket en el cual se realiza el cargue de archivos S3 y conexión a una base de datos RDS MySQL. 3. Creación de un balanceador de cargas con 2 Instancias y configuración de un grupo de Autoescalado para que cree o elimine automáticamente las Instancias dependiendo del promedio del uso de CPU de estas.