Desarrollador PySpark, Madrid
Empresa
WinkAI
Provincia
Madrid
Ciudad
Madrid
Tipo de Contrato
Tiempo Completo
Salario
Entre 30000 Euros y 39000 Euros Bruto/año
Descripción
Desarrollador PySpark
Desarrollador PySpark (STD)
Ubicación: Presencial (en sitio)
Nivel: STD (Standard)
Tipo de contratación: Tiempo completo
Objetivo del rol
Diseñar, desarrollar y optimizar procesos de extracción, transformación y carga (ETL) utilizando PySpark, asegurando el manejo eficiente de grandes volúmenes de datos y su integración en ecosistemas cloud.
Responsabilidades
Desarrollar pipelines de datos utilizando PySpark y Python.
Diseñar y mantener procesos ETL eficientes y escalables.
Optimizar consultas y procesos para garantizar el rendimiento en ambientes distribuidos.
Colaborar con equipos de datos y arquitectura para integrar soluciones en plataformas cloud.
Realizar pruebas y validaciones de calidad sobre los datos procesados.
Documentar procesos y generar buenas prácticas de desarrollo.
Requisitos técnicos
Dominio avanzado de Python orientado a procesamiento de datos.
Experiencia comprobable en desarrollo con PySpark.
Conocimiento en diseño y construcción de ETLs.
Familiaridad con entornos cloud (GCP, AWS o Azure).
Conocimiento básico de almacenamiento en la nube y servicios asociados (BigQuery, S3, Blob Storage, etc.).
Experiencia trabajando con grandes volúmenes de datos en entornos distribuidos.
Habilidades deseables
Conocimientos en herramientas de orquestación (Airflow, Luigi).
Familiaridad con frameworks de data quality o testing de datos.
Experiencia previa en proyectos de migración o modernización de data lakes.
Competencias personales
Pensamiento analítico y orientación a resultados.
Capacidad de trabajo colaborativo en equipos multidisciplinarios.
Proactividad para identificar mejoras y automatizaciones.
Python, PySpark
Desarrollador PySpark (STD)
Ubicación: Presencial (en sitio)
Nivel: STD (Standard)
Tipo de contratación: Tiempo completo
Objetivo del rol
Diseñar, desarrollar y optimizar procesos de extracción, transformación y carga (ETL) utilizando PySpark, asegurando el manejo eficiente de grandes volúmenes de datos y su integración en ecosistemas cloud.
Responsabilidades
Desarrollar pipelines de datos utilizando PySpark y Python.
Diseñar y mantener procesos ETL eficientes y escalables.
Optimizar consultas y procesos para garantizar el rendimiento en ambientes distribuidos.
Colaborar con equipos de datos y arquitectura para integrar soluciones en plataformas cloud.
Realizar pruebas y validaciones de calidad sobre los datos procesados.
Documentar procesos y generar buenas prácticas de desarrollo.
Requisitos técnicos
Dominio avanzado de Python orientado a procesamiento de datos.
Experiencia comprobable en desarrollo con PySpark.
Conocimiento en diseño y construcción de ETLs.
Familiaridad con entornos cloud (GCP, AWS o Azure).
Conocimiento básico de almacenamiento en la nube y servicios asociados (BigQuery, S3, Blob Storage, etc.).
Experiencia trabajando con grandes volúmenes de datos en entornos distribuidos.
Habilidades deseables
Conocimientos en herramientas de orquestación (Airflow, Luigi).
Familiaridad con frameworks de data quality o testing de datos.
Experiencia previa en proyectos de migración o modernización de data lakes.
Competencias personales
Pensamiento analítico y orientación a resultados.
Capacidad de trabajo colaborativo en equipos multidisciplinarios.
Proactividad para identificar mejoras y automatizaciones.
Python, PySpark