- GFT IT ConsultingAWS Big Data EngineerAGENCIAS DE SUBCONTRATACIÓNagosto de 2022 - Hoy (2 años y 10 meses)Valencia, EspañaProyecto para la implementacion de una arquitectura en AWS para un importante banco logrando agregar velocidad en la toma de desiciones, usando microservicios nuevos que optimizas el movimiento y la explotacion de datos.
- Grupo GFTMulticloud Big Data Engineeragosto de 2022 - Hoy (2 años y 10 meses)Valencia, Spain● Ayudar a desarrollar e implementar procesos ETL de Glue para la ingestión de tablas transaccionales y de riesgo, logrando disminuir el tiempo de ingestas en torno al 70%.● Diseñar, desarrollar y ejecutar flujos de trabajo de transformación de datos haciendo uso de DBT e integrarlos con GCP (Big Query). Reduciendo el tiempo de documentación y procesamiento de ETLs.● Desarrollar nueva infraestructura para aumentar las capacidades de modelado del equipo de Data Science. Concretamente poniendo a disposición el servicio SageMaker en cuentas Sandbox.● Apoyar en el diseño de la arquitectura necesaria para soportar los eventos que llegan al lago de datos, procesos de ingesta, procesos CDC.● Implementación y mantenimiento de modelos de aprendizaje automático (realizados por el cliente) en producción "MLOps", haciendo uso de Vertex AI.● Virtualización de datos usando Snoowflake y usando IaC como Terraform.● Establecer y mantener relaciones con las partes interesadas internas, además de servir como un socio de pensamiento estratégico para los líderes de toda la empresa (BBVA-Global).● Creación de un datawarehouse en GCP para el cliente FORD capaz de alimentar los modelos de Machine Learning Tech-Stack: LakeFormation, Glue, Athena, SageMaker, Data Wrangler, AWS Lambda, Google Cloud Storage, AWS Amazon S3, Dremio, Databricks, Google Cloud Dataproc, Google Cloud BigLake, Snowflake, DBT, Google Cloud BigQuery, Google Cloud Dataflow, Looker, AWS Quicksight, Qlik, jupyter, Spark, Flink, Parquet
- PwCBig Data Analytics en PWCBANCA & SEGUROSseptiembre de 2019 - Hoy (5 años y 8 meses)Buenos Aires, ArgentinaGeneral objective of the position:To participate in the research and automation of processes, based on the large volume of banking data contained in the client's database and its cross-sectional analysis of correlations with other external data, through the application of Machine Learning techniques such as Linear Regression and Logistics,Clustering and classification, Random trees and forests, Support vector machine and Neural Networks, with the aim of developing solutions that can generate business assets.Achievements- Partner in the design and implementation of a Cloudera cluster, using most of the tools of the Big Data ecosystem (HDFS, Spark, Hive), for the processing of transactional data from the four banks belonging to the client.- Generation of computational models using RStudio and Python, which determine the financial risk of certain clients through the segmentation of variables such as age, demographic zoneand purchasing power.- Apply and analyze data intake tests by stressing the integration platform of the four banks.- Participate in the analysis of the Data Governance tests using Alation (Real-Time Data Lake)- Generation of the Data Dictionary used by the integration platform for the processes ofdata loading (ETL, ELT, Intake).- Integration of Kafka Apache with different environments
- FísicaFacultad de Ciencias2014