You're seeing this page as if you were . The main menu is still yours, though. Exit from immersion
Malt welcome

¡Bienvenido al perfil Malt de Jesus !

Malt te da acceso a los mejores talentos freelance para tus proyectos. Ponte en contacto con Jesus para hablar de tus necesidades o busca otros perfiles en Malt.

Jesus Diaz Guzman Big Data, Machine Learning, Deep Learning, IAJD

Jesus Diaz Guzman

Big Data, Machine Learning, Deep Learning, IA
  • Tarifa aproximada
    200 € /día
  • Experiencia3-7 años
  • Tasa de respuesta100%
  • Tiempo de respuestaAlgunos días
El proyecto se dará por comenzado una vez hayas aceptado el presupuesto de Jesus.
Localización y desplazamiento
Localización
Valencia, España
Puede trabajar en tus oficinas en
  • Valencia y alrededores (hasta 50 kms)
Verificaciones

Código de conducta freelance firmado

Consultar el código
E-mail verificado
Influencia
0Seguidores
7Repositorios
0Gists
Idiomas
Categorías
Estos freelance también tienen todo lo que estás buscando
Agatha FrydrychAF

Agatha Frydrych

Backend Java Software Engineer

Baptiste DuhenBD

Baptiste Duhen

Fullstack developer

Amed HamouAH

Amed Hamou

Senior Lead Developer

Audrey ChampionAC

Audrey Champion

Web developer

Habilidades profesionales (7)
Jesus en pocas palabras
I am a physicist, generating value for more than 3 years as a freelancer for startups and large banking companies as an AI developer, who need to run projects in Deep Learning and Machine Learning, without leaving aside the Data Science.

My skills spectrum includes: Image Processing using different computer techniques framed in Deep Learning. Management and modeling of different algorithms capable of predicting behavior, framed in the Machine Learning and integrate them with Hadoop environments.

I have worked in Cloud projects both from Google and AWS. Handling of languages, libraries or computational techniques such as: Python, R , C, C++, Java, Scala, SQL, Pycharm, Tensorflow, Pytorch, CUDA, Yolo and many more.
Experiencia
  • GFT IT Consulting
    AWS Big Data Engineer
    AGENCIAS DE SUBCONTRATACIÓN
    agosto de 2022 - Hoy (2 años y 10 meses)
    Valencia, España
    Proyecto para la implementacion de una arquitectura en AWS para un importante banco logrando agregar velocidad en la toma de desiciones, usando microservicios nuevos que optimizas el movimiento y la explotacion de datos.
    LakeFormation Glue Athena SageMaker Studio Data Wrangler
  • Grupo GFT
    Multicloud Big Data Engineer
    agosto de 2022 - Hoy (2 años y 10 meses)
    Valencia, Spain

    ● Ayudar a desarrollar e implementar procesos ETL de Glue para la ingestión de tablas transaccionales y de riesgo, logrando disminuir el tiempo de ingestas en torno al 70%.
    ● Diseñar, desarrollar y ejecutar flujos de trabajo de transformación de datos haciendo uso de DBT e integrarlos con GCP (Big Query). Reduciendo el tiempo de documentación y procesamiento de ETLs.
    ● Desarrollar nueva infraestructura para aumentar las capacidades de modelado del equipo de Data Science. Concretamente poniendo a disposición el servicio SageMaker en cuentas Sandbox.
    ● Apoyar en el diseño de la arquitectura necesaria para soportar los eventos que llegan al lago de datos, procesos de ingesta, procesos CDC.
    ● Implementación y mantenimiento de modelos de aprendizaje automático (realizados por el cliente) en producción "MLOps", haciendo uso de Vertex AI.
    ● Virtualización de datos usando Snoowflake y usando IaC como Terraform.
    ● Establecer y mantener relaciones con las partes interesadas internas, además de servir como un socio de pensamiento estratégico para los líderes de toda la empresa (BBVA-Global).
    ● Creación de un datawarehouse en GCP para el cliente FORD capaz de alimentar los modelos de Machine Learning Tech-Stack: LakeFormation, Glue, Athena, SageMaker, Data Wrangler, AWS Lambda, Google Cloud Storage, AWS Amazon S3, Dremio, Databricks, Google Cloud Dataproc, Google Cloud BigLake, Snowflake, DBT, Google Cloud BigQuery, Google Cloud Dataflow, Looker, AWS Quicksight, Qlik, jupyter, Spark, Flink, Parquet
  • PwC
    Big Data Analytics en PWC
    BANCA & SEGUROS
    septiembre de 2019 - Hoy (5 años y 8 meses)
    Buenos Aires, Argentina
    General objective of the position:
    To participate in the research and automation of processes, based on the large volume of banking data contained in the client's database and its cross-sectional analysis of correlations with other external data, through the application of Machine Learning techniques such as Linear Regression and Logistics,
    Clustering and classification, Random trees and forests, Support vector machine and Neural Networks, with the aim of developing solutions that can generate business assets.

    Achievements
    - Partner in the design and implementation of a Cloudera cluster, using most of the tools of the Big Data ecosystem (HDFS, Spark, Hive), for the processing of transactional data from the four banks belonging to the client.
    - Generation of computational models using RStudio and Python, which determine the financial risk of certain clients through the segmentation of variables such as age, demographic zone
    and purchasing power.
    - Apply and analyze data intake tests by stressing the integration platform of the four banks.
    - Participate in the analysis of the Data Governance tests using Alation (Real-Time Data Lake)
    - Generation of the Data Dictionary used by the integration platform for the processes of
    data loading (ETL, ELT, Intake).
    - Integration of Kafka Apache with different environments
    Python R Hadoop Machine Learning Apache Spark MLlib Scala Linux Spark Apache Kafka Clo Cloudera
Recomendaciones externas
Formación
  • Física
    Facultad de Ciencias
    2014