Descripción de la oferta
Overview
Kanguro es una startup de logística de última milla con alto potencial de crecimiento nacida en Barcelona con un propósito claro: liderar la transformación tecnológica de la logística. Operamos una red universal de puntos de recogida en España y estamos en plena expansión a Alemania, Francia y Portugal, combinando IA y tecnología propia para hacer la entrega y recogida de paquetes más eficiente para el carrier, más cómoda para el cliente y más sostenible para todos.
Responsibilities
Data warehouse e infraestructura: diseñar y construir un data warehouse que desacople la capa analítica de la base MySQL de producción.
Implementar pipelines ETL/ELT automatizados para la ingesta y transformación de datos.
Orquestar pipelines con herramientas como Airflow, Prefect, dbt o equivalentes.
Automatizar la ingesta de nuevas fuentes: APIs de carriers, sistemas de tracking, datos de mercado.
Gestionar entornos en Microsoft Fabric y preparar la infraestructura para escalar a ES/DE/FR/PT.
Power BI y modelo semántico: ser owner del modelo semántico de KanguroBI — star schema que cubre paquetería, KanguroPoints, derivaciones, operaciones de voice bot y cuota de mercado.
Escribir y optimizar DAX complejo: CALCULATE, FILTER, iteradores, relaciones inactivas, time intelligence.
Desarrollar y mantener transformaciones en Power Query M entre las fuentes de datos y la capa de reporting.
Gestionar Power BI Service: refresh incremental, permisos, RLS, embedding y schedules.
Construir dashboards operativos para Operaciones, Dirección y stakeholders externos.
Calidad y fiabilidad del dato: ser responsable de que cada número que aparece en un dashboard sea correcto y verificable.
Implementar validaciones y tests de calidad en cada etapa del pipeline y monitorizar la salud de los datos: alertas ante anomalías, latencias o fallos en la ingesta.
Mantener un diccionario de datos completo: cada tabla, columna, medida y transformación documentada.
IA y conexiones con LLMs
Mantener y extender la interfaz de IA que permite a dirección consultar datos en lenguaje natural.
Gestionar conexiones MCP (Model Context Protocol) entre modelos de lenguaje y las fuentes de datos de Kanguro.
Alimentar la capa de conocimiento de IA con definiciones de métricas, contexto de negocio y esquemas actualizados.
Diseñar workflows de reporting automatizado: snapshots diarios, informes de OKRs, feeds a carriers.
Qué perfil buscamos
~4+ años de experiencia como Data Engineer, Analytics Engineer o en un rol similar con pipelines y modelos de datos en producción.
~ SQL avanzado: optimización de queries, CTEs, window functions, índices, particionado.
~ Power BI como herramienta de trabajo habitual: DAX complejo, Power Query M, star schema, PBIP/TMDL, refresh incremental.
~ Python para procesamiento de datos y scripting de pipelines.
~ Experiencia con herramientas de orquestación y transformación (Airflow, Prefect, dbt o similares).
~ Fundamentos sólidos de data modelling: fact vs dimension, slowly changing dimensions, definición de grano, bridge tables.
~ Experiencia con bases de datos relacionales (MySQL/PostgreSQL) y conceptos de data warehousing.
~ Mentalidad de ingeniería: código versionado, tests, documentación, infraestructura reproducible.
~ Obsesión por la calidad del dato — detectas lo que falla antes de que nadie lo reporte.
~ Capacidad de trabajar con autonomía y de comunicar decisiones técnicas a perfiles no técnicos.
~ Valorable: experiencia con Microsoft Fabric, Azure o plataformas cloud de datos.
~ Valorable: familiaridad con LLMs, MCP o integraciones de IA con datos.
~ Valorable: conocimiento del dominio logístico o de integración con APIs de terceros.
~ Castellano fluido. Inglés B2 o superior.
Qué ofrecemos
Contrato indefinido a jornada completa.
Salario de *************€ brutos anuales según experiencia.
Oficina en Sant Cugat del Vallès, delante de la estación de Mirasol (FGC).
Posibilidad de 1 día de teletrabajo a la semana una vez asentado/a en el rol.
Equipo con muy buen ambiente, joven y multidisciplinar.
Trabajar en una empresa donde la inteligencia artificial es parte del día a día, no solo un claim.
Autonomía total sobre la infraestructura de datos — tienes la oportunidad de diseñarla desde la base.
Stack real en producción con herramientas de IA ya integradas — construyes sobre algo que funciona, no desde cero.
¿Cómo aplicar?
El responsable de este proceso de selección es Josep Francesc Cortés. Si te interesa la posición y cumples los requisitos, envía un email a
dirigido a Josep Francesc, adjuntando tu CV y una carta de motivación donde nos cuentes quién eres y por qué te interesa este rol en Kanguro; qué experiencia tienes construyendo infraestructura de datos; y tu disponibilidad.
#J-18808-Ljbffr