Resumen

Estamos buscando un/a Cloud Data Engineer para la Plataforma Global de Datos del grupo, un equipo clave de nuestro ecosistema tecnológico.

Nuestro trabajo consiste en desarrollar y gestionar la plataforma global de datos en la nube del grupo, proporcionando un entorno unificado para que las entidades desplieguen y operen sus capacidades analíticas. La plataforma está diseñada para ingenieros y científicos de datos, permitiendo gestionar todo el ciclo de vida del dato: desde la ingesta de fuentes operacionales hasta la transformación, el procesamiento, el análisis avanzado y la visualización en cuadros de mando. A través de un enfoque centralizado, garantizamos el versionado, las buenas prácticas y la evolución de la plataforma, asegurando su adopción y optimización en cada entidad del grupo.

Estas serán tus principales tareas:

  • Desarrollar y mantener aplicaciones de datos utilizando Scala y Python en entornos cloud.
  • Diseñar y gestionar flujos de trabajo en GitHub Actions para la automatización de CI/CD en Databricks.
  • Implementar y optimizar procesos de ingesta, transformación y procesamiento de datos en Databricks utilizando PySpark y Spark.
  • Garantizar la calidad del código mediante pruebas unitarias, gestión de dependencias y buenas prácticas de desarrollo.

Qué esperamos de ti:

Seguro que encajas en el equipo si te gusta la tecnología, quieres entender los riesgos a los que se enfrenta el Banco, aprendes constantemente de nuevas tecnologías y si además de desarrollar tus skills técnicos, también te preocupas de mejorar tus soft skills.

Si tienes el espíritu, estos son los conocimientos indispensables que miraremos en tu CV:

  • Desarrollo en Scala y Python – Experiencia sólida en programación funcional y orientada a objetos para el procesamiento de datos.
  • GitHub Actions & CI/CD – Conocimiento en la configuración y gestión de pipelines de integración y despliegue continuo.
  • Databricks & Spark Development – Familiaridad con el ecosistema Databricks, notebooks, jobs e integración con GitHub.
  • Desarrollo en PySpark – Capacidad para desarrollar y optimizar procesos de datos distribuidos en Spark.Despliegue automatizado en Databricks – Capacidad para gestionar y automatizar la publicación de librerías y scripts en Databricks.
  • Versionado y gestión de código – Uso avanzado de GitHub para la colaboración y control de cambios.

Sería genial si además…

  • Arquitectura de datos y pipelines – Conocimientos en diseño y optimización de flujos de datos en la nube.
  • Big Data y procesamiento distribuido – Experiencia con Spark optimizando rendimiento y escalabilidad.
  • Optimización de rendimiento en Databricks – Mejora de eficiencia en ejecución de notebooks y clusters.
  • Seguridad y gobernanza en datos – Implementación de accesos y controles de seguridad en entornos de datos en Azure.

¡Cómo es la experiencia Be Tech!

  • Modelo híbrido de trabajo (teletrabajas unos días y otros te juntas con tu equipo en la ofi).
  • Flexibilidad horaria para entrar y salir.
  • Posibilidad de viajar (colaboración con países) y colaborar con equipos de esos países.
  • Oportunidades internacionales para desarrollarte en diferentes unidades y países.
  • Formación continua en temas técnicos e innovadores para siempre estar al día y poder desarrollar tu trabajo.
  • Plan de carrera para que crezcas profesionalmente y veas recompensado tu esfuerzo y trabajo.
  • Salario y bonus muy competitivo.
  • Beneficios financieros (tipos de interés especiales para préstamos, condiciones bancarias preferentes, plan de pensiones, seguro de vida, etc.)
  • Beneficios sociales.