Data Engineer/Architect at Wolters Kluwer


Para acelerar el cambio de su actual portafolio de soluciones hacia una única suite de aplicaciones SaaS, Wolters Kluwer Tax and AccountingEspaña está buscando a un/a Data Engineer/Architect con profunda y práctica experiencia con las tecnologías de Big Data. Las soluciones de Wolters Kluwer se usa para la gestión empresarial en el ámbito fiscal, contable y de nóminas. La persona se incorporará en un nuevo proyecto para la creación de un nuevo entorno informacional en la nube que permitirá la incorporación, procesamiento y acceso a todos los registros conectado con este negocio a través de diferentes formas: informes, dashboards interactivos y APIs. Más adelante se planifica también el uso de inteligencia artificial para aumentar los productos de la casa.

Funciones a desempeñar:

  • Diseño y creación de procesos de transformación y almacenamiento de datos.
  • Crear y mantener una arquitectura de canalización de datos óptima
  • Diseño, creación y uso de sistemas de gestión de los datos maestros
  • Reunir conjuntos de datos grandes y complejos que cumplan con los requisitos comerciales funcionales y no funcionales.
  • Identificar, diseñar e implementar mejoras de procesos internos: automatizar procesos manuales, optimizar la entrega de datos, rediseñar la infraestructura para una mayor escalabilidad, etc.
  • Gestionar el día a día de la infraestructura cloud necesaria para la extracción, transformación y carga óptimas de datos de una amplia variedad de fuentes de datos utilizando tecnologías "big data" de plataformas como Azure.
  • Crear herramientas de análisis que utilicen la canalización de datos para proporcionar información procesable sobre la adquisición de clientes, la eficiencia operativa, la integración con diferentes sistemas y otras métricas clave de rendimiento empresarial.
  • Diseño y creación de APIs.
  • Asegurar la protección de los datos dentro del entorno Cloud.
  • Trabaja con expertos en datos y análisis para conseguir una mayor funcionalidad e interoperabilidad en nuestros sistemas de datos.
  • Trabaja con las partes interesadas, incluidos los equipos ejecutivos, de producto, de datos y de diseño para ayudar con los problemas técnicos relacionados con los datos y respaldar sus necesidades de infraestructura de datos e interoperabilidad.
  • Enseñar a más ingenieras e ingenieros de la casa en la tecnología.

Requisitos

  • Haber completado con éxito una licenciatura en ciencias de la computación, matemáticas o similares y experiencia en la ciencia de los datos (por ejemplo, aprendizaje automático, procesamiento del lenguaje natural, detección de patrones y anomalías, etc.)
  • Experiencia de 2 años o más en el desarrollo profesional de software de manera “Cloud native”, aplicando metodologías agiles, prácticas de seguridad y testing, CI/CD y DevOps
  • Conocimiento de arquitecturas y patrones para Big Data
  • Experiencia en la creación y optimización de conjuntos de datos, arquitecturas y canalizaciones de datos en entornos "big data", preferido en entornos Cloud (Azure) (como ejemplos: Azure Datalake, Azure DataBricks, Azure EventHub, Azure DataFactory, Azure SQL, Azure Synapse o entornos genéricos: Hadoop, Spark, Kafka, etc.)
    • Profunda experiencia en bases de datos relacionados y NoSQL (ejemplos: SQL Server, Oracle, Postgres, … y MongoDB, Cassandra, ...)
    • Fuertes habilidades analíticas relacionadas con el trabajo con conjuntos de datos estructurados y no estructurados
    • Crear procesos que respaldan la transformación de datos, estructuras de datos, metadatos, dependencia y gestión de carga de trabajo
    • Manipulación, procesamiento y extracción de valor de grandes conjuntos de datos desconectados
    • Modelaje y gestión de datos corporativos
    • Experiencia con herramientas de gestión de flujo de trabajo y canalización de datos como: Azure Data Factory, Airflow, …
    • Conocimiento sobre herramientas de integración en cola de mensajes, el procesamiento streaming y los almacenes de datos de "macrodatos" altamente escalables (como, por ejemplo Azure Stream Analytics, Storm, Spark-Streaming, …)
  • Experiencia con lenguajes de programación como, por ejemplo: .Net/C#, Python, Go, …. y lenguajes scripting como: Powershell, bash, …
  • Experiencia en herramientas de analítica y presentación de datos como por ejemplo PowerBi, Qlik, Tableau.
  • Conocimientos base sobre el proceso de Machine Learning (ML), algoritmos, integración en producción de ML.
  • Gran capacidad de explicar y comunicar soluciones complejas entre equipos y clientes.
  • Buen nivel de inglés, para poder colaborar con otros colegas de WK en el ámbito internacional.
  • Capacidad de auto responsabilidad y proactividad, con actitud positiva, mente analítica e inclinación por la resolución de problemas y con ganas de crear un nuevo entorno.

Se valora:

  • Experiencia previa con Azure y todos servicios alrededor de Big Data en esa plataforma.
  • Prácticas de desarrollo ágil de producto, DevOps, y SRE.

Ofrecemos:

  • La posibilidad de ser pieza clave del equipo de datos dentro de WK TAA España.
  • Trabajo 100% remoto durante situación de Covid y con amplias opciones de flexibilidad cuando volvamos a la oficina.
  • Formar parte de una compañía global estable en pleno crecimiento.
  • Salario competitivo y otros beneficios sociales.

Remember to mention that you found this position on GBSB Global CareerGate