Desarrollar, implementar y dar mantenimiento a la arquitectura y calidad de datos para soluciones analíticas y de visualización de datos.
Responsabilidades:
• Diseñar y darle mantenimiento a ETLs para la automatización de manejo de datos.
• Explorar opciones, diseños y crear canalización de datos adecuados (Data Warehouse / Data Lake) para soluciones analíticas específicas.
• Desarrollar modelos de datos para la toma de decisiones y códigos de programación para manejo de los mismos.
• Trabajar estrechamente con analistas y científicos de datos para garantizar la calidad de los datos y la disponibilidad para el modelado analítico.
• Identificar y solventar problemas de calidad de los datos.
• Desarrollar y mantener el monitoreo de la calidad de los datos.
• Ser el punto de contacto con el cliente interno que solicite o que sea usuario de las visualizaciones o análisis que desarrolle.
Perfil requerido:
• Graduado en Ingeniería de Sistemas, Ciencias de la Computación o Informática.
• Deseable conocimientos en Estadísticas y Matemáticas
• Dominio de SQL, PL/SQL o T-SQL con bases de datos relacionales como Teradata, MS SQL Server, Oracle, etc. en entornos de producción.
• Conocimientos en herramientas de visualización, por ejemplo Microstrategy, Tableau, QlikView y PowerBI.
• Experiencia con lenguajes de programación como Scripting de shell UNIX, Python, Pyspark, SQL, Java y Javascript.
• Experiencia demostrada en plataformas de Big Data (por ejemplo Spark, Beam, Databricks, Hadoop, Map/Reduce, HBase, CouchDB, Hive) es un plus.
Tu proceso de selección simple, inteligente y moderno