BUSCAMOS: Data Architect (Snowflake)
Para importante empresa Sector Tecnología, buscamos un Profesionalcon experiencia contrastada desempeñando el role de Arquitecto de Datos y almenos 4 años con Snowflake
Funciones& Tareas:
●Evaluar y auditar el uso actual de Snowflake y los recursos en la nube paraidentificar oportunidades de reducción de costes.
●Desarrollar e implementar estrategias de optimización de recursos que asegurenun uso eficiente de la capacidad de almacenamiento y procesamiento.
●Configurar y gestionar monitores de recursos y reportes de gastos para unseguimiento proactivo de los costos.
●Planificar y liderar la migración de procesos de SQL Server Integration Services(SSIS), asegurando una transición sin interrupciones.
●Rediseñar y modernizar flujos de trabajo ETL/ELT para mejorar la eficiencia yescalabilidad.
●Colaborar con los equipos de TI y desarrollo para validar que los procesosmigrados cumplan con las normativas de calidad y seguridad.
●Evaluar las necesidades de la empresa y proponer nuevas funcionalidades deSnowflake, como el uso de Snowpark o funciones avanzadas de procesamiento dedatos.
●Configurar y gestionar nuevas herramientas y servicios dentro del ecosistema deSnowflake que optimicen los procesos de negocio y de datos.
●Proporcionar capacitación y documentación para equipos internos sobre lasnuevas funcionalidades implementadas.
●Diseñar soluciones personalizadas que se alineen con las demandas específicasdel sector salud, garantizando el cumplimiento de regulaciones como GDPR yHIPAA.
●Crear scripts y automatizaciones que optimicen los flujos de trabajo y reduzcanla intervención manual en procesos críticos.
●Supervisar y optimizar de forma continua los procesos y el rendimiento de laplataforma para garantizar su estabilidad y eficiencia.
●Resolver problemas técnicos y ajustar la configuración de Snowflake paramantener un rendimiento óptimo.
●Actuar como asesor técnico clave para el equipo de gestión, recomendandomejoras y estrategias de largo plazo en el uso de Snowflake.
●Coordinar con otros consultores y departamentos para alinear las iniciativas dedatos con los objetivos de la organización.
●Asegurar que todas las actividades y procesos cumplan con los estándares deseguridad de datos y las políticas de privacidad exigidas en el sector salud.
●Implementar controles y prácticas de gobernanza de datos que protejan laintegridad y confidencialidad de la información sensible.
Experiencia& Conocimientos Imprescindibles:
● Conocimientossólidos en la configuración, optimización y administración de entornosSnowflake, incluyendo el manejo de almacenamiento, costos de procesamiento ypolíticas de gobernanza de datos.
●Competencia comprobada en la migración de procesos ETL/ELT, especialmente deplataformas legacy como SQL Server Integration Services (SSIS), haciaSnowflake.
●Experiencia en la integración de Snowflake con servicios de Azure, como AzureData Factory, Azure Blob Storage y otros recursos, para optimizar laconectividad y reducir costos asociados.
●Capacidad para identificar y aplicar estrategias de reducción de costos, comoel ajuste de recursos de computación, optimización de pipelines de datos y usode almacenamiento eficiente.
●Comprensión de las arquitecturas cloud y mejores prácticas en la gestión deinfraestructura en la nube para garantizar un enfoque eficiente y rentable.
●Conocimientos en lenguajes como SQL, Python o Shell scripting para automatizarprocesos y mejorar flujos de trabajo en la migración.
●Habilidades para liderar proyectos de migración, coordinar con equipos de TI yusuarios clave, y presentar soluciones y estrategias de ahorro de costos.
●Habilidades de comunicación, negociación y trabajo en equipo
RequisitosDeseables:
●Certificaciones oficiales de Snowflake y de Azure.
●Familiaridad con plataformas como Talend, Informatica, o Apache NiFi.
●Comprensión de prácticas de DevOps y manejo de herramientas de CI/CD.
●Familiaridad con herramientas de monitoreo y análisis de costos, como SnowflakeResource Monitors y Azure Cost Management.
●Entendimiento de las mejores prácticas de seguridad y marcos de cumplimiento(como GDPR, HIPAA).
●Familiaridad con el manejo de grandes volúmenes de datos y su análisis medianteherramientas y frameworks, como Apache Spark o Hadoop.
Idioma
Español
OFRECEMOS:
· Contrato Indefinido (jornada completa)
· Oferta económica: hasta 60k
· Localización: Madrid - Híbrido (2 días presencial oficinas, 3 díasteletrabajo a la semana)
· Incorporación: ASAP
Para poder acceder a las direcciones de correo electrónico / sitio web de la aplicación en este anuncio, primero debe autenticarse en el sitio.
¿Aún no tiene una cuenta en ITJobs?
Acceda here y cree su propia cuenta