🚀 Objetivo del cargo:
Mantener y optimizar la plataforma central de datos de la organización, facilitando la incorporación de nuevas fuentes de información y asegurando un procesamiento y consumo eficiente de los datos para las distintas áreas del negocio.
🧠 Principales funciones:
Desarrollar, construir, probar y mantener pipelines de datos siguiendo estándares y buenas prácticas.
Diseñar y mantener soluciones de integración y procesamiento de datos utilizando tecnologías como Azure Data Factory, Databricks y Airflow.
Gestionar la ingestión de datos desde múltiples fuentes hacia el Data Lake corporativo.
Optimizar la confiabilidad, eficiencia y calidad de los datos.
Analizar grandes volúmenes de información para resolver problemáticas técnicas y de negocio.
Trabajar de manera colaborativa con usuarios y clientes para comprender requerimientos y proponer soluciones efectivas.
Liderar e impulsar iniciativas de mejora continua relacionadas con la gestión de datos.
🛠️ Requisitos:
Experiencia en Microsoft Azure, especialmente en Azure Data Factory y Databricks.
Conocimiento en Python y Spark.
Experiencia en diseño y optimización de procesos ETL/ELT y arquitecturas de datos.
Manejo de control de versiones mediante Git.
Conocimiento de metodologías ágiles, idealmente Scrum.
⭐ Deseable:
Conocimientos en CI/CD (Azure DevOps, Jira u otras herramientas).
Experiencia en gobernanza y seguridad de datos.
Conocimiento de servicios adicionales de Azure.
🤝 Habilidades y competencias:
Perfil analítico, orientado a la resolución de problemas y mejora continua, con capacidad de autogestión, organización y trabajo colaborativo. Se valora el aprendizaje continuo y la proactividad para proponer soluciones tecnológicas innovadoras.
Postular
Ingrese o cree su cuenta en Nexolaboral para postular