Resumen
Estamos buscando un/a Cloud Data Engineer para la Plataforma Global de Datos del grupo, un equipo clave de nuestro ecosistema tecnológico.
Nuestro trabajo consiste en desarrollar y gestionar la plataforma global de datos en la nube del grupo, proporcionando un entorno unificado para que las entidades desplieguen y operen sus capacidades analíticas. La plataforma está diseñada para ingenieros y científicos de datos, permitiendo gestionar todo el ciclo de vida del dato: desde la ingesta de fuentes operacionales hasta la transformación, el procesamiento, el análisis avanzado y la visualización en cuadros de mando. A través de un enfoque centralizado, garantizamos el versionado, las buenas prácticas y la evolución de la plataforma, asegurando su adopción y optimización en cada entidad del grupo.
Estas serán tus principales tareas:
- Desarrollar y mantener aplicaciones de datos utilizando Scala y Python en entornos cloud.
- Diseñar y gestionar flujos de trabajo en GitHub Actions para la automatización de CI/CD en Databricks.
- Implementar y optimizar procesos de ingesta, transformación y procesamiento de datos en Databricks utilizando PySpark y Spark.
- Garantizar la calidad del código mediante pruebas unitarias, gestión de dependencias y buenas prácticas de desarrollo.
Qué esperamos de ti:
Seguro que encajas en el equipo si te gusta la tecnología, quieres entender los riesgos a los que se enfrenta el Banco, aprendes constantemente de nuevas tecnologías y si además de desarrollar tus skills técnicos, también te preocupas de mejorar tus soft skills.
Si tienes el espíritu, estos son los conocimientos indispensables que miraremos en tu CV:
- Desarrollo en Scala y Python – Experiencia sólida en programación funcional y orientada a objetos para el procesamiento de datos.
- GitHub Actions & CI/CD – Conocimiento en la configuración y gestión de pipelines de integración y despliegue continuo.
- Databricks & Spark Development – Familiaridad con el ecosistema Databricks, notebooks, jobs e integración con GitHub.
- Desarrollo en PySpark – Capacidad para desarrollar y optimizar procesos de datos distribuidos en Spark.Despliegue automatizado en Databricks – Capacidad para gestionar y automatizar la publicación de librerías y scripts en Databricks.
- Versionado y gestión de código – Uso avanzado de GitHub para la colaboración y control de cambios.
Sería genial si además…
- Arquitectura de datos y pipelines – Conocimientos en diseño y optimización de flujos de datos en la nube.
- Big Data y procesamiento distribuido – Experiencia con Spark optimizando rendimiento y escalabilidad.
- Optimización de rendimiento en Databricks – Mejora de eficiencia en ejecución de notebooks y clusters.
- Seguridad y gobernanza en datos – Implementación de accesos y controles de seguridad en entornos de datos en Azure.
¡Cómo es la experiencia Be Tech!
- Modelo híbrido de trabajo (teletrabajas unos días y otros te juntas con tu equipo en la ofi).
- Flexibilidad horaria para entrar y salir.
- Posibilidad de viajar (colaboración con países) y colaborar con equipos de esos países.
- Oportunidades internacionales para desarrollarte en diferentes unidades y países.
- Formación continua en temas técnicos e innovadores para siempre estar al día y poder desarrollar tu trabajo.
- Plan de carrera para que crezcas profesionalmente y veas recompensado tu esfuerzo y trabajo.
- Salario y bonus muy competitivo.
- Beneficios financieros (tipos de interés especiales para préstamos, condiciones bancarias preferentes, plan de pensiones, seguro de vida, etc.)
- Beneficios sociales.