Data Analyst, Valladolid
Empresa
Akkodis
Provincia
Valladolid
Ciudad
Valladolid
Tipo de Contrato
Tiempo Completo
Descripción
Data Analyst
Desde AKKODIS seleccionamos para nuestro equipo de Valladolid, un/a Data Analyst para trabajar con un importante cliente del sector Automoción
Colaborarás en el día a día con equipos de negocio así como con otras funciones del Departamento de Arquitectura y Datos (Analistas y Científicos de Datos, arquitectos, etc.), utilizando terabytes de datos (eventos en modo streaming, por lotes y reales), procesamiento de tiempo y llamadas a APIs para, entre otras cosas, potenciar modelos de aprendizaje automático (segmentación de clientes, detección automática de averías de vehículos, etc.).
¿Cuáles serán tus funciones?
Participar en las fases de formulación, MVP y lanzamiento de productos, servicios y API orientados a datos
Argumentar las elecciones arquitectónicas de los proyectos y la plataforma datalake en GCP
Contribuir al valor comercial de los productos orientados a datos basados en Datalake, mediante el establecimiento de cadenas de procesamiento de datos de extremo a extremo, desde la ingestión hasta la exposición de API y la visualización de datos y soluciones ML/DS
Ser responsable de la calidad de los datos transformados en el Datalake, el adecuado funcionamiento de las cadenas de procesamiento y la optimización del uso de los recursos de la nube
Proponer estándares de arquitectura y desarrollo
Ser proactivo, innovador y solidario.
Requisitos
Experiencia en desarrollo Spark, Scala, Python y consultas SQL sobre grandes volúmenes de datos
Apetito por los datos: validación, transformación, análisis, valorización
Experiencia desarrollando y orquestando cadenas ETL complejas a través de Airflow o equivalente
Práctica de metodología ágil (Agile Scrum y/o Kanban)
Haber utilizado servicios en la nube (preferiblemente GCP)
Capacidad para comunicarse en inglés técnico oral y escrito
Spark, Scala, Python, SQL
Desde AKKODIS seleccionamos para nuestro equipo de Valladolid, un/a Data Analyst para trabajar con un importante cliente del sector Automoción
Colaborarás en el día a día con equipos de negocio así como con otras funciones del Departamento de Arquitectura y Datos (Analistas y Científicos de Datos, arquitectos, etc.), utilizando terabytes de datos (eventos en modo streaming, por lotes y reales), procesamiento de tiempo y llamadas a APIs para, entre otras cosas, potenciar modelos de aprendizaje automático (segmentación de clientes, detección automática de averías de vehículos, etc.).
¿Cuáles serán tus funciones?
Participar en las fases de formulación, MVP y lanzamiento de productos, servicios y API orientados a datos
Argumentar las elecciones arquitectónicas de los proyectos y la plataforma datalake en GCP
Contribuir al valor comercial de los productos orientados a datos basados en Datalake, mediante el establecimiento de cadenas de procesamiento de datos de extremo a extremo, desde la ingestión hasta la exposición de API y la visualización de datos y soluciones ML/DS
Ser responsable de la calidad de los datos transformados en el Datalake, el adecuado funcionamiento de las cadenas de procesamiento y la optimización del uso de los recursos de la nube
Proponer estándares de arquitectura y desarrollo
Ser proactivo, innovador y solidario.
Requisitos
Experiencia en desarrollo Spark, Scala, Python y consultas SQL sobre grandes volúmenes de datos
Apetito por los datos: validación, transformación, análisis, valorización
Experiencia desarrollando y orquestando cadenas ETL complejas a través de Airflow o equivalente
Práctica de metodología ágil (Agile Scrum y/o Kanban)
Haber utilizado servicios en la nube (preferiblemente GCP)
Capacidad para comunicarse en inglés técnico oral y escrito
Spark, Scala, Python, SQL