Bigdata Developer para proyecto I+D

Empresa: ZYLK
Provincia: Bizkaia
Población:  Erandio
Descripción: Estamos ampliando nuestro equipo de I+D y buscamos developers que tengan interés en desarrollarse profesionalmente en este área. Nuestro equipo está formado por físicos, ingenieros de telecomunicación, ingenieros de software, economistas, astrofísicos …

Sí valoramos en cambio la experiencia acumulada en las siguientes áreas:
– Soltura con sistemas operativos Linux
– Hadoop Ecosystem: HDFS, Yarn, HBASE, Hive, Nifi, Flume, Kafka, Flink, Spark
– Azure (HDInsight), Amazon
– HTML5, Javascript, Angular
– Apache, Apache Tomcat, MySQL
– Herramientas de desarrollo: Eclipse, Gitlab, Jenkins, Ant, Maven, Nexus
– Metodologías ágiles
– Inglés hablado y escrito
– Participación en proyectos Open Source

En la inscripción te planteamos una serie de preguntas relacionadas con el ecosistema de hadoop. No hay una sola respuesta correcta, son preguntas abiertas. Razona tus respuestas para que podamos ver lo que sabes. Si eres junior, entendemos que no sabrás algunas, no pasa nada.

El trabajo es de Developer y entrarías a formar parte de nuestro equipo de I+D con la posibilidad de trabajar en remoto. Como equipo multidisciplinar que somos, las tareas a realizar son mayormente de desarrollo de código, pero también de análisis, automatización de tests, despliegues, resolución de problemas, creación de piezas intermedias o artefactos técnicos… Lo que verdaderamente nos importa es la capacidad de entender los problemas desde el punto de vista de negocio y técnico, idear soluciones y ser capaces de ponerlas en producción.

Los proyectos que desarrollamos en nuestra área de consultoría van orientados en las siguientes líneas:
– Gestión de clusters de tamaño medio, entre 10 y 50 nodos
– Procesos de ingesta masiva de datos usando NiFi
– Sistemas de procesado de datos en tiempo real usando Flink
– Gobernanza de datos en entornos BigData para su explotación avanzada usando HIVE
– Creación de modelos usando técnicas tanto de ML usando Spark como de DL usando Pytorch y/o Tensorflow
Todo ello usando herramientas del ecosistema apache hadoop como las anteriormente mencionadas o como Druid para el análisis de series temporales por ejemplo, o como Hbase para la creación de aplicaciones (online) de alto rendimiento.

Nos gusta hacer las cosas bien tanto en tecnología como en la en forma de trabajar, por eso toda nuestra metodología de desarrollo está basada en devops, automatizando al máximo para dedicar el tiempo a las cosas importantes (Eclipse, Github, Jenkins, Ant, Maven, Nexus, …). Y como no podía ser de otra forma trabajamos en un entorno ágil y con herramientas colaborativas de última generación (Slack). También nos gusta que nuestro equipo esté bien preparado, por lo que hemos desarrollado workshops formativos relacionados con de cada uno de los productos del ecosistema (desde poner un cluster en producción hasta crear jobs para el streaming de datos) con el objetivo de que empieces a aportar lo más rápido posible.

Y por último, estamos enganchados a publicar en los markets, compartir código y generar conocimiento.

Más ventajas:
* Programa de certificaciones
* Impartición y asistencia a masterclasses
* Asistencia a congresos
* Horario de trabajo semi flexible
* Posibilidad de trabajo en remoto
* Jornada intensiva todos los viernes, víspera de festivos
* Jornada intensiva en verano
* Parada para comer flexible
Tecnologías: Java, Hadoop, Cloudera
Tipo de Contrato: 
A determinar
Salario: Sin especificar
Experiencia: 1 año
Funciones: Analista Programador – Big Data
Formación mínima: 
Licenciado


Publicaciones Similares