Máster de formación permanente en Ingeniería de datos.

Máster Big Data y Data Engineering

Fórmate como profesional de alto nivel en la ingeniería de datos. Diseña y construye infraestructuras de datos

Curso 26/27

4º Edición

El Máster en Big Data y Data Engineering de la UCM es el programa especializado para quienes aspiran a convertirse en los arquitectos de las infraestructuras tecnológicas del futuro. En un mundo donde el volumen de información es masivo, el verdadero reto no es solo analizarla, sino construir los sistemas y tuberías que permitan que esos datos fluyan de manera eficiente, segura y escalable. Este postgrado te sitúa en el núcleo técnico de las organizaciones, enseñándote a diseñar y gestionar ecosistemas de datos complejos que sostienen las operaciones de las empresas líderes a nivel global.

Al cursar este programa en la Universidad Complutense, pasas de ser un usuario de tecnología a ser el profesional que la hace posible. Te especializarás en la creación de pipelines de datos, la integración de sistemas distribuidos y la gestión de entornos cloud, garantizando que la información esté disponible y procesada en tiempo real. Es el camino ideal para perfiles con mentalidad técnica que buscan dominar la ingeniería detrás del Big Data, asegurando que cada estructura diseñada sea capaz de soportar el crecimiento constante del entorno digital. Es, en definitiva, la formación necesaria para ser la pieza fundamental sobre la que se asientan el Data Science y la Inteligencia Artificial.

Información del Master

Universidad

Universidad Complutense de Madrid

Convocatorias / Fechas de inicio

1ª Septiembre / 2ª Febrero

Duración del master

1 Año

Créditos ECTS

60

Ingeniería de datos aplicada al mundo real. Domina la creación de infraestructuras y pipelines de datos con prácticas en entornos Cloud y arquitecturas escalables.

Logo de Microsoft Azure, plataforma cloud para el despliegue de soluciones empresariales de Big Data e IA.

Microsoft Azure

Logo de Snowflake, Data Warehouse en la nube para el almacenamiento y análisis elástico de datos corporativos.

Snowflake

Logo de Kubernetes (K8s), orquestador de contenedores para la gestión y escalado automático de servicios en producción.

Kubernetes

Logo de Docker, plataforma de contenedores para el despliegue de aplicaciones y microservicios de datos de forma aislada.

Docker

Logo de Keras, API de redes neuronales de alto nivel para el desarrollo rápido de modelos de Deep Learning.

Keras

Logo de LangGraph, biblioteca para la creación de flujos de trabajo cíclicos y agentes basados en modelos de lenguaje (LLM).

LangGraph

Logo de Amazon Web Services (AWS), proveedor líder de servicios e infraestructura en la nube para arquitecturas de datos.

AWS

Logo de AWS CloudTrail, servicio de auditoría y monitorización de actividad para la seguridad en entornos cloud de AWS.

AWS Cloud Trail

Logo de Python, el lenguaje de programación principal para Data Science, Machine Learning y automatización.

Python

Logo de Scikit-learn, biblioteca de Python para la implementación de algoritmos de Machine Learning y minería de datos.

Scikit Learn

Logo de Apache Spark, motor de computación distribuida para el procesamiento de grandes volúmenes de datos en tiempo real.

Apache Spark

Logo de Apache Kafka, plataforma de transmisión de eventos para la construcción de pipelines de datos en tiempo real (Streaming).

Apache Kafka

Logo de Git, sistema de control de versiones esencial para el desarrollo colaborativo de proyectos de datos.

Git

Logo de Linux, el sistema operativo estándar para la administración de servidores y entornos de Big Data.

Linux

Logo de MongoDB, base de datos NoSQL documental diseñada para la alta disponibilidad y escalabilidad de datos.

MongoDB

Modalidades del Master

Modalidad Presencial

6.900 €

Modalidad Online

4.755 €

Modalidad Semipresencial

5.830 €

Preinscripción UCM 40€

Programa del Máster

Programa práctico y actualizado

Adquiere un nivel avanzado de Python enfocado puramente a la ingeniería de software. Domina el lenguaje más versátil del sector para programar integraciones robustas, automatizar flujos complejos e interactuar con APIs e infraestructuras. Una pieza clave para orquestar ecosistemas de datos eficientes y sistemas altamente escalables.

Conoce las entrañas de los sistemas masivos de información. Analiza las capas de ingesta, almacenamiento y procesamiento en entornos Cloud. Descubre cómo han evolucionado los patrones arquitectónicos y aprende a diseñar infraestructuras sólidas que soporten todo el ciclo de vida del dato en los principales proveedores de la nube.

Domina los principios técnicos del modelado de información. Como Data Engineer, te enfrentarás a complejas migraciones y redefiniciones de esquemas en bases de datos. Aprenderás a estructurar tablas de forma óptima para garantizar el rendimiento, la integridad y la escalabilidad del almacenamiento en las grandes corporaciones.

Prepárate para administrar volúmenes masivos de información desestructurada. Aprende a implementar y mantener sistemas NoSQL como MongoDB en entornos de alta exigencia. Dominarás las operaciones de lectura/escritura y la optimización de consultas, garantizando la fluidez y velocidad del almacenamiento en arquitecturas tecnológicas modernas.

Construye la autopista central de los datos de tu empresa. Domina Apache Kafka para diseñar sistemas de procesamiento de eventos y streaming en tiempo real. Aprende a conectar y comunicar de forma instantánea múltiples aplicaciones, garantizando que la información circule sin cuellos de botella mediante un gran bus de datos unificado.

Exprime el motor líder en procesamiento masivo. Domina la arquitectura interna de Apache Spark para ejecutar transformaciones complejas sobre clusters distribuidos. Aprende a paralelizar cargas de trabajo y gestionar volúmenes de Big Data a velocidades extremas, asegurando la eficiencia computacional de tus sistemas corporativos.

Construye repositorios analíticos de próxima generación. Diseña arquitecturas de almacenamiento escalables mediante Data Lakes y su evolución técnica, los Lakehouses. Aprenderás a orquestar motores de ingesta eficientes para capturar, limpiar y unificar terabytes de información estructurada y cruda en un entorno centralizado.

Automatiza el flujo de información corporativa. Domina herramientas nativas de Microsoft Azure para orquestar pipelines de datos robustos. Desde la ingesta inicial hasta la transformación final (ETL/ELT), aplicarás tus conocimientos creando conductos seguros, escalables y tolerantes a fallos en entornos cien por cien Cloud.

Conecta el laboratorio de datos con el mundo real. Domina el despliegue técnico de modelos de IA en entornos de producción. Como ingeniero, garantizarás que los algoritmos desarrollados por los científicos de datos funcionen de forma estable, monitorizada y escalable dentro de la infraestructura tecnológica de tu empresa.

Diseña flujos de datos inteligentes y automatizados. Domina la arquitectura de agentes aplicando paradigmas de programación funcional y orientada a objetos. Construye motores de ingesta autónomos capaces de preparar y transformar el dato en tiempo real, estableciendo nuevos estándares de eficiencia en la ingeniería de software.

Descubre el estándar de la industria para empaquetar software. Aprende a crear aplicaciones basadas en contenedores con Docker y a orquestarlas mediante Kubernetes. Diseña arquitecturas de microservicios robustas, portables y altamente escalables que faciliten la integración y el despliegue continuo (CI/CD) en la nube.

Conoce el ciclo de vida algorítmico desde la perspectiva de la infraestructura. Familiarízate con las técnicas de Machine y Deep Learning para entender las necesidades de los científicos de datos. Crea sinergias técnicas entre equipos, optimizando los recursos computacionales para acelerar la entrega de modelos a producción.

Demuestra tu capacidad técnica diseñando una infraestructura de datos completa. Construye un proyecto real de Data Engineering: desde la ingesta en streaming y el modelado en la nube, hasta la creación de pipelines y el despliegue en producción. Valida tu perfil como arquitecto de datos listo para el mercado laboral.

Profesores del Máster

Expertos en activo

El perfil técnico más buscado. Prepárate para construir las «tuberías» de datos que sostienen a las empresas líderes y garantiza su eficiencia operativa.

Más de
+300
alumnos formados

Metodología del master

Clases en la Universidad

A través de una combinación de clases teóricas, estudios de casos y proyectos prácticos, te proporcionaremos una experiencia de aprendizaje completa y orientada a la aplicación real.

Aprenderás las herramientas, técnicas e IAs más actuales en escenarios reales. Gestionarás proyectos de forma práctica con el apoyo del equipo docente.

Plataforma de aprendizaje

Los estudiantes del máster tendrán información actualizada sobre los conceptos que se estén aplicando, enlaces, contenidos adicionales, noticias, artículos, etc.

Salidas profesionales

Actualmente hay una gran demanda en el mercado laboral de profesionales en Ingeniería de datos. Las profesiones más comunes en el sector son:

Data Engineer (Ingeniero de Datos)

Diseña, construye y mantiene arquitecturas escalables y pipelines para el procesamiento masivo.

Arquitecto Cloud Data

Define y despliega la estrategia de infraestructura de datos en plataformas como Azure o AWS.

Especialista en Ecosistemas Big Data

Gestiona clústeres distribuidos y optimiza el rendimiento usando motores como Apache Spark.

Ingeniero MLOps

Automatiza y asegura el despliegue de modelos de Machine Learning en entornos de producción.

Desarrollador ETL / ELT

Crea flujos automatizados para extraer, transformar y cargar datos masivos de forma eficiente.

Arquitecto de Streaming de Datos

Implementa buses con Apache Kafka para procesar eventos y telemetría en tiempo real sin cortes.

Ingeniero de Data Lakes y Lakehouses

Diseña repositorios centralizados para gobernar terabytes de información cruda y estructurada.

Administrador de Bases NoSQL

Despliega, mantiene y optimiza bases de datos no relacionales de alto rendimiento como MongoDB.

Ingeniero DevOps de Datos

Aplica metodologías CI/CD y orquesta ecosistemas analíticos utilizando Docker y Kubernetes.

Lead Data Engineer

Dirige equipos técnicos responsables de construir las «tuberías» de datos de grandes corporaciones.

Preinscripción

Preinscríbete y realiza tu entrevista con un coordinador del máster que te informará y aconsejará.

Dossier informativo

Descarga el dosier informativo del máster de Ingeniería de datos.
Consulta la información del máster de Ingeniería de datos en su sitio web.