Descripción de la oferta
¿QUÉ ES TELEFONICA TECH?
Telefónica Tech es la compañía líder en transformación digital del Grupo Telefónica. Contamos con una amplia oferta de servicios y soluciones tecnológicas integradas de Ciberseguridad, Cloud, IoT, Big Data, Inteligencia Artificial y Blockchain, con la que acompañamos a nuestros clientes en su transformación digital.
Somos un grupo de más de 6200 personas valientes que trabajamos a diario desde distintos puntos del mundo para alcanzar la excelencia, a través de un liderazgo basado en la transparencia y en el espíritu de equipo. Si te identificas con nuestros pilares, estamos deseando conocerte!
www.telefonicatech.com
¿QUÉ HACEMOS EN EL EQUIPO?
En la unidad de AI & Data Platform de Telefónica Tech nos encargamos de la creación de plataformas Big Data diferenciales sobre tecnologías cloud para el procesamiento masivo de datos y la obtención de insights para la construcción de casos de uso sobre ellos que nos permitan tener un papel clave en los servicios que ofrece Telefónica Tech.
¿CÓMO SERÁ TU DÍA A DÍA?
Tu misión será la construcción de servicios en la fase del equipo de ingeniería y Devops de las plataformas Big Data. En tu día a día realizarás principalmente:
Implementación de la infraestructura como código y configuración del código de implementación para ofrecer nuevas plataformas y aplicaciones de datos.
Diseño, arquitectura e implementación de plataformas de Big Data críticas y sensibles en la nube.
Administración en la nube e ingeniería de entornos complejos.
Construcción de activos, procesos y herramientas de DevOps, DataOps e Integración Continua.
Implementación de protocolos, controles y técnicas de Gestión de la Información de Seguridad.
Generación y entrega de datos procesados (insights)
Apoyo a los científicos de datos para construir sus requisitos con el fin de cumplir con los compromisos y contratos del cliente.
Integración de abastecimiento de datos, monitoreo y resolución de problemas.
Gobernanza de datos y flujos de trabajo: Adquisición de datos, inventario, catálogo, consistencia, disponibilidad, control de versiones, propiedad, transformación y carga, ciclo de vida, SLA de datos, políticas de acceso y retención, seguimiento/auditoría...
Procesos de Calidad de Datos
Automatización de procesos complejos de inteligencia artificial y big data
Implementación de lógica de datos y orquestación para construir un canal de ciencia de datos eficiente.
Ajuste de plataformas de datos y trabajos de aprendizaje automático para mejorar el rendimiento o la disponibilidad.
Explorar formas de hacer que los procesos de ciencia de datos sean más eficientes en términos de rendimiento y optimizar los costos de los recursos de la nube.
Soporte nivel 3 para Plataformas Big Data, Entornos Analíticos y Data Feeds.
Construcción de workflows en Airflow, para el procesamiento de datos
Y PARA ELLO, CREEMOS QUE SERÍA IDEAL QUE CONTARAS CON…
Experiencia
+de 2 años de experiencia comprobada en la creación de procesos y modelos de ingeniería de datos, gobernanza de datos, flujos de trabajo de datos y operaciones de datos específicos de TEF.
+de 2 años de experiencia profunda en ingeniería y DevOps para plataformas y soluciones TEF Big Data.
+de 2 años de amplia experiencia trabajando en integración de feeds de datos y técnicas de inspección de datos. Asimismo, debe tener experiencia en la resolución de problemas de incidentes de abastecimiento de datos.
+de 2 años de dominio comprobado en la administración, arquitectura e implementación de aplicaciones de misión crítica de la nube de AWS y soluciones de Big Data.
+de 2 años trabajando en proyectos internacionales y equipos multidisciplinarios
Formación
FP /Grado en Informática.
Valoraremos
Máster en informática o Telecomunicaciones.
Certificaciones en AW
Conocimientos técnicos
Necesitamos que conozcas:
Uso Avanzado de AWS
Conocimientos avanzados en Python a nivel Devops para el tratamiento de logs, procesos y control de errores.
Creación de workflows, DAGs y todo el ecosistema de Airflow.
Conocimientos de PrestoDB.
Y valoraremos tu conocimiento en:
Integración con fuentes externas, procesos de Python
Gestión de incidencias y su seguimiento.
Herramientas de calidad del dato y de visualización de la información.
ElasticSearch
Conocimientos en la arquitectura Kubernetes, uso de pots, y todos los mecanismos de Kubernetes, como charts.
Idiomas
Español: nivel alto
Inglés: nivel medio
Para desempeñar el rol, las skills que encajarían con el equipo y el proyecto serían:
Buscamos un experto en Ingeniería Big Data y Tecnología Cloud entusiasta, altamente motivado, comprometido y proactivo, con ganas de trabajar en un equipo de alto rendimiento y capaz de adaptarse rápidamente a cambios frecuentes y aprender en un entorno tecnológico y empresarial muy dinámico, complejo y exploratorio ambiente.
El candidato debe tener buenas habilidades técnicas e interés específico en la ingeniería de Big Data.
¿QUÉ OFRECEMOS?
Medidas de conciliación y flexibilidad horaria.
Formación continua y certificaciones.
Modelo híbrido de teletrabajo.
Atractivo paquete de beneficios sociales.
Excelente ambiente de trabajo dinámico y multidisciplinar.
Programas de voluntariado.
#SomosDiversos#Fomentamosigualdad
Estamos convencidos/as de que los equipos diversos e inclusivos son más innovadores, transformadores y consiguen mejores resultados. Por ello promovemos y garantizamos la inclusión de todas las personas sin importar género, edad, orientación e identidad sexual, cultura, discapacidad o cualquier otra condición.
¡Queremos conocerte!
#J-18808-Ljbffr