Empresa: CAS TRAINING
Provincia: 100% En remoto
Población:
Descripción:
Cas Training, empresa de referencia con más de 20 años en consultoría tecnológica, outsourcing y formación especializada.
🎯¡Únete a nuestro equipo como DataOps Engineer para el cliente del sector bancario!
📍Cliente: Banca
📍Localización España: 💥Remoto💯%
✔️Funciones:
Diseño e implementación de ETL pipelines preferiblemente con Apache Airflow.
Gestión de arquitectura Apache Airflow (KubernetesExecutor).
Contenerización de aplicaciones (Docker).
Trabajo con bases de datos relacionales (SQL Server, PostgreSQL) y no relacionales (MongoDB).
Uso de Google Cloud Platform (Cloud Run, Cloud Storage como data-warehouse y datalake, gestión de clústers).
Desarrollo Python.
Aplicación de GitFlow en proyectos software.
Desarrollo de REST API´s (FastAPI).
Participación en el ciclo de vida completo de proyectos de analítica: viabilidad, diseño, implementación, despliegue y soporte.
✔️Requisitos:
Familiarizado con la metodología Agile (SCRUM).
Experiencia en Gitlab CI/CD.
Manejo de Kubernetes.
Experiencia en despliegue de aplicaciones.
Experiencia de 2 a 3 años en posiciones similares.
Nivel intermedio de inglés.
Pasión por la tecnología y la innovación.
👉 Ofrecemos:
📝Contratación indefinida.
👨💻Acceso gratuito a nuestro catálogo anual de formación (Somos Partner de Microsoft, Redhat,
Amazon, Google Cloud Platform, Oracle, ITIL, entre otros!)
💰Salario competitivo negociable en base a la experiencia.
✔️Entorno laboral agradable y proyectos estables.
Tecnologías: Apache Airflow, Kubernetes, Docker, SQL Server, PostgreSQL, MongoDB, Google Cloud Platform Cloud Run, Cloud Storage , Python, FastAPI, GitFlow, Gitlab, CI/CD,
Tipo de Contrato:
Indefinido
Salario: Sin especificar
Experiencia: 2 años
Funciones: Arquitecto TIC – Ingenieros/Industria – Jefe de Proyecto
Formación mínima:
Certificado de Profesionalidad
Descubre más: https://www.tecnoempleo.com/dataops-engineer-remoto/apache-airflow-kubernetes-docker-sql-server-postgr/rf-6ef317423241b3240a41