- Freelance, self-employedConsultr DevOpsdiciembre de 2023 - Hoy (1 año y 4 meses)Consultor Devops Cliente: BBVA Tareas de asesoramiento, adaptación de metodologías de trabajo SCM y desarrollo DevOps. Trabajo en el equipo DevOps, dando valor y mejora continua para todos los proyectos de la compañía.• SaaS, Onprem (entornos Windows y Linux).• Buenas prácticas y GitFlow.• Configuración y customización del entorno CI/CD (Jenkins, Artifactory, Ansible, Bitbucket, GitLab)• Configuración y desarrollo de los diferentes enforcement que han ido surgiendo en la compañía.• Configuración y desarrollo de pipeline de seguridad, para el enforcement de Chimera (control de vulnerabilidades).• Gestión de recursos de la organización.• Desarrollo e implementación de Pipelines Jenkins.• Soporte de los Proyectos ya incluidos en el Sistema DevOps. Colaboración en el Framework DevOps de la compañía.
- INETUM SOFTWARE FRANCEIngeniero DevOpsAGENCIAS DE SUBCONTRATACIÓNenero de 2021 - diciembre de 2023 (2 años y 11 meses)Madrid, EspañaPara el cliente: Acciona S.A.Líder Técnico de Oficina DevOps, tareas de asesoramiento, adaptación de metodologías detrabajo SCM y DevOps.• Trabajo en el equipo de oficina DevOps de la compañía, dando valor y mejora continua para todos los proyectos de la compañía que están integrados en DevOps.• SaaS, Onprem (entornos Windows y Linux).• Formación Modelo SCM la compañía, buenas prácticas y GitFlow.• Configuración y customización del entorno C/CD (Jenkins, CloudBees, Artifactory, Azure DevOps, GitHub).• Azure, AWS, GCP.• Gestión de recursos de la organización.• Desarrollo e implementación de Pipelines Jenkins y Pipelines Azure DevOps.• Colaboración Framework DevOps de la compañía.=============================Cliente: Thales• Desarrollo e implementación de Pipelines Jenkins.• Migración de Pipelines Jenkins para agentes Windows.
- Freelance, self-employedData Analyst & Data Engineerjulio de 2023 - diciembre de 2023 (5 meses)Data Analyst & Data Engineer Cliente: X-Elio• Tareas de análisis y preparación de fuentes de datos a partir de un Datalake, para su posterior tratamiento (Python) y carga en BD (Snowflake) para su uso mediante Dashboards de Tableau. Todo ello en una infraestructura AWS, con sus correspondientes S3, AWS Glue ETL, Data Catalog.