Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)Guevara Calume, Roberto CarlosSalazar Lagares, Juan FelipeMacias Barreto, Noelia Sofia2024-10-262024-10-262024https://repositorio.uniremington.edu.co/handle/123456789/5124El análisis masivo de datos se ha convertido en un enfoque crítico para permitir la toma de decisiones empresariales basadas en datos en la economía actual. El procesamiento distribuido es una técnica clave que ofrece la capacidad de gestionar y analizar grandes cantidades de datos utilizando nodos interconectados. Entre las numerosas ventajas de este enfoque se encuentran la escalabilidad, la tolerancia a fallos y la posibilidad de mantener la eficiencia a través del procesamiento paralelo. En los tiempos modernos, dada la capacidad de las metodologías Agile Lean Six Sigma para mejorar la calidad de trabajo y, por lo tanto, la eficiencia de procesamiento de Big Data es clave explorar los conceptos básicos del fundamento distribuido, su evolución tecnológica, aplicaciones comerciales e impulsores modernos.11 p.application/pdfspaDerechos Reservados - Corporación Universitaria Remington, 2024Procesamiento distribuidoAnálisis masivo de datosEficienciaBig DataMetodologías modernasAgileLean Six SigmaAplicaciones prácticasEscalabilidadTolerancia a fallosEnfoques modernos para el análisis masivo de datosTrabajo de grado - Pregradoinfo:eu-repo/semantics/openAccesshttp://purl.org/coar/access_right/c_abf2Toma de decisionesCalidad de vida en el trabajoMejoramiento de procesos