Principales responsabilidades
- Diseñar e implementar soluciones de procesamiento de datos en tiempo real utilizando Kafka y Spark Streaming (y posiblemente Flink)
- Colaborar con equipos multifuncionales para garantizar la integración exitosa de soluciones de datos en tiempo real en nuestros productos y servicios
- Optimizar el rendimiento y la escalabilidad de los sistemas de datos en tiempo real
- Mantener y solucionar problemas de clusters Kafka y aplicaciones Spark Streaming
- Mantenerse al día sobre las últimas tendencias y desarrollos en el campo del procesamiento de datos en tiempo real
Requisitos
- Titulación universitaria en Informática o similar
- Nivel de inglés (B2 o superior)
- 1+ años de experiencia en implementación de clusters Kafka y analítica en tiempo real
- 1+ años de experiencia en Spark Streaming
- 2+ años de experiencia en Python
- Sólidos conocimientos de manipulación de datos (especialmente SQL, Spark SQL y la API Dataframe)
- Capacidad para diseñar, desarrollar y mantener soluciones de procesamiento de datos en tiempo real
- Excelentes habilidades de resolución de problemas y capacidad para tomar decisiones informadas en tiempo real
- Buenos conocimientos de Git
- Buenas habilidades de comunicación
- Orientación a resultados, mentalidad autodesafiante
- Ganas de aprender
Se valorará
- Experiencia con Apache Flink
- Experiencia con otros productos Apache relacionados con datos
- Experiencia con clusters Kubernetes o Rancher
- Experiencia con Delta Lake
- Experiencia con Spark en general y el ecosistema Hadoop