Diseñar procesos de ingesta, gestión y gobernanza del dato.
Identificar requisitos de escalabilidad y diseñar arquitecturas para dar soporte al volumen de datos y necesidades computacionales de las soluciones.
Estimar costes de configuración y operativos de infraestructura on premises y Cloud.
Extraer, transformar y analizar datos utilizando entornos de programación como Python y SQL.
Modelar sistemas distribuidos de alto rendimiento transaccional con bases de datos NoSQL y motores de búsqueda (MongoDB, Cassandra, Neo4j, Elasticsearch).
Diseñar e implementar soluciones de almacenamiento y procesamiento de datos escalables con herramientas del ecosistema Hadoop y Spark (HDFS, Hive, Sqoop, Flume, Cloudera, Kafka, NiFi, Airflow).
Operar con los principales proveedores de cloud público
(AWS, Azure, Google).
Desarrollar modelos de analítica avanzada con tecnologías de Machine Learning y Deep Learning.
Rellena el formulario y nosotros nos pondremos en contacto contigo:
El éxito de un proyecto de analítica radica en la calidad de sus datos, por lo que la mayor parte del tiempo se dedica a la adquisición, limpieza y control de calidad de los datos. Es fundamental para el perfil de un ingeniero de datos disponer de herramientas para manipular los datos con soltura para poder enfrentarse a cualquier situación con agilidad.
La mayor cantidad de datos disponibles no responden a los esquemas estructurados tradicionales para procesos transaccionales o de analítica. La aparición de Internet y los procesos que involucran la gestión de datos masivos imponen unos desafíos tecnológicos que deben ser respondidos con un nuevo enfoque en cuanto a la gestión del dato. Profundizaremos en la arquitecturas y estrategias de modelado de datos NoSQL para hacer frente a estas situaciones.
El almacenamiento y procesamiento de datos masivos puede suponer una barrera para la correcta evolución de los objetivos de extracción del conocimiento en una empresa. Para dar respuesta a este problema se han creado nuevas arquitecturas como el Lago de Datos, soportadas por un ecosistema de tecnologías que se sustentan en infraestructuras de cómputo a gran escala. Introduciremos un ecosistema rico en tecnologías y aprenderemos a identificar correctamente el propósito de cada una de ellas sobre problemas de ingesta, almacenamiento y consulta de datos concretos.
La complejidad tecnológica del ecosistema Big Data supone un desafío respecto a los recursos y gestión de infraestructura hardware sin precedente que supone un gran reto, especialmente para las compañías de menor tamaño. El Cloud Computing es un efecto democratizador ya sea en su oferta pública o privada, en el caso de grandes compañías, que cambia radicalmente las necesidades, estrategias de gestión de proyectos e incluso el modelo de negocio. Aprenderemos a explotar el máximo beneficio posible de este nuevo enfoque trabajando con los distintos proveedores del mercado.
El modelado de los datos es la fase que aporta el valor final dentro del ciclo de vida del dato, donde el experto es capaz de amplificar su capacidad de análisis gracias al uso de algoritmos y modelos para extraer el conocimiento. Es un conocimiento complejo que mezcla una teoría y herramientas complejas con la experiencia y visión de negocio que permita una interpretación correcta que genere retorno para las empresas.
El objetivo final de cualquier proceso de análisis de datos es generar un cambio que estimule la creación de beneficio y más datos para continuar el ciclo de valor. Esto no es posible si el científico de datos no es capaz de traducir sus resultados a ideas que estimulen a su entorno a tomar las decisiones correctas. Las habilidades de comunicación de los datos nos permitirán brillar en las últimas fases de nuestros proyectos.
Las necesidades de un proyecto centrado en los datos están dirigidas por los objetivos de negocio y las técnicas de análisis que se haya decidido emplear para conseguirlos. Para tener éxito con técnicas avanzadas de analítica como son Machine o Deep Learning necesitamos poder integrar los procesos de adquisición y calidad y modelado de los datos mediante una estrategia que incluya de manera integral desde el diseño de infraestructura hasta los procesos de experimentación y puesta en producción de los modelos.
Fase 1: Propuesta de negocio
Fase 2: Adquisición, exploración y modelado
Fase 3: Producto mínimo viable
Socio fundador de MBIT School
Director General de Tinámica
CEO at Demosense
CTO Producto Codere
Advisor MBIT School
Analytics Senior Manager Accenture Analytics
Data Scientist in Instituto de Ingeniería del Conocimiento - IIC
Consultora y formadora en Inteligencia de Negocio y Analista de datos. Partner de Microsoft.
Experto en estratégia digital de negocios online. Ha dirigido la transformación digital del grupo PRISA
Profesor Universidad Politécnica de MAdrid. Experto en Machine Learning
Consultor Business Intelligence
Doctor en Machine LEarning por la University of Southern California. Managing Partner en Cognodata
Head of Entreprise Commercial Management en Vodafone Spain Data
En el proceso de admisiñon evaluaremos las capaciades del candidato, además de analizar su perfil. Te realizaremos un assessment para que elijas el programa que se adecúa eficazmente a tu desarrollo profesional. Para ello necesitaremos que nos envíes tu CV actualizado y posteriormente realizar una entrevista. En un plazo máximo de 3 días tendrás respuesta del Comité de Evaluación sobre tu aceptación o no como candidato al programa. A partir de esa comunicación podrás formular tu amtriculación en el programa.
Queremos ayudarte a alcanzar tus retos profesionales para ello desde MBIT School ponemos a tu disposición líneas de financiación alternativas, y te ofrecemos ayudar económicas por realizar una matriculación anticipada bajo pago íntegro. También contamos con ayudas para colectivos y bajo acuerdo con empresas.
Rellena el formulario y nosotros nos pondremos en contacto contigo: