Responsabilidades
Diseñar, desarrollar y mantener procesos de ingesta, transformación y almacenamiento de datos en entornos Cloud y On-Premise.
Implementar Data Pipelines para cargas Batch y Streaming.
Administrar y mantener el Data Lake, asegurando calidad, integridad y seguridad de datos.
Desarrollar soluciones de procesamiento en Python / PySpark con librerías asociadas.
Utilizar herramientas y servicios de integración de datos según la nube utilizada (AWS Glue, Azure Data Factory, Google Dataflow, etc.).
Gestionar bases de datos relacionales (SQL Server, PostgreSQL) y no relacionales (Redis, DynamoDB, CosmosDB, etc.).
Trabajar con sistemas de control de versiones (GitLab, GitHub, Azure Repos) y metodologías CI/CD.
Colaborar con equipos de tecnología y negocio para garantizar el acceso oportuno a la información.
Requisitos
+2 años de experiencia como Data Engineer
Experiencia en plataformas de datos Cloud (AWS, GCP o Azure).
Experiencia en desarrollo con Python / PySpark y manejo de librerías.
Experiencia en ingesta y procesamiento de datos en entornos Cloud y On-Premise.
Conocimientos en herramientas de integración y tratamiento de datos (ej. SSIS, Glue, Data Factory, Dataflow).
Conocimientos avanzados en bases de datos relacionales y NoSQL.
Experiencia con CI/CD y control de versiones.
Deseable:
Certificación en alguna nube (AWS, GCP, Azure).
¿Que ofrecemos?
Contrato indefinido por Kibernum
Modalidad 100% remota.
Beneficios corporativos (seguro complementario de salud, bonos, capacitaciones y más).
Oportunidad de crecimiento profesional.
Requerimientos
- Educación mínima: Universitaria / I.P. / C.F.T.
- 2 años de experiencia