Profilbild von Fabricio Carboni Data Engineering | Big Data | AWS | DevOps | Kubernetes aus Bonn

Fabricio Carboni

verfügbar

Letztes Update: 16.11.2022

Data Engineering | Big Data | AWS | DevOps | Kubernetes

Firma: Geek Cell GmbH
Abschluss: Master Abschluss in Big Data & Data Science
Stunden-/Tagessatz: anzeigen
Sprachkenntnisse: englisch (verhandlungssicher) | französisch (verhandlungssicher) | portugiesisch (Muttersprache)

Schlagworte

Big Data Information Engineering Devops Amazon Web Services Microsoft Azure Business Intelligence Cloud Computing Cloud-Engineering Data Science Informatik

Dateianlagen

FABRICIO_CARBONI_GEEK_CELL_CV_NOV_2022.pdf

Skills

Ich bin Senior Data and Cloud Engineer aus dem Bereich Business Intelligence und Big Data mit mehr als 15 Jahre Erfahrung in der IT-Branche und mehr als 5 Jahre Erfahrung als Senior Data Engineer. In dieser Zeit habe ich Unternehmen wie Telefonica Brazil und die National Bank of Canada bei ihrer Datentransformation unterstützt.

Ich besitze hat einen Bachelor-Abschluss in Computersystemen und Netzwerken vom Centro Universitário Nove de Julho in Brasilien und einen Master-Abschluss in Big Data und Data Science von Fiap - Faculdade de Informática e Administração Paulista in Brasilien.

In den letzten Jahren habe ich außerdem professinelle Erfahrung in den Bereichen Devops und Cloud (AWS, Azure) gesammelt und würde diese gerne weiter ausbauen.

Projekthistorie

11/2022 - bis jetzt
Senior Data & Cloud Engineer
Geek Cell GmbH
  • Experience setting up and running Kubernetes clusters in AWS (preferably), Google Cloud Platform, Azure or on-prem.
  • Proficiency with logging, tracing, proxy, monitoring, and dashboard tools such as the ELK stack, Fluentd, Istio, Envoy, Jaeger, Grafana, Prometheus.
  • IAC Using Terraform, Terragrant and Ansible Experience building and maintaining CI/CD pipelines for packaging and deploying application containers.
  • Excellent troubleshooting skills and high quality standards.

02/2022 - 10/2022
DevOps Engineer
Grid Singularity GmbH
  • EKS(kubernetes), MSK(kafka) and dedicated using EC2 instances, Postgresql(RDS). MongoDB(Atlas and Dedicated(EC2)
  • IAC using Terraform and Ansible
  • CI/CD using Github Actions along with dedicated runners
  • Monitoring: Prometheus / Grafana
  • Github management
  • Python and shell scripting development
  • Create and maintain technical documentation (Confluence)

10/2017 - 01/2021
Senior Big Data Developer / Data Engineer
CGI Canada
Working for our client National Bank of Canada
  • Hortonworks BigData cluster maintenance;
  • SQL Apache Hive query development;
  • Snowflake database procedures and SQL for OLAP processes
  • PySpark development along with Databricks
  • Design ingestion pipelines to make data available to data science team and visualization team (PowerBI);
  • Support team members in terms of data availability and troubleshooting data ingestion problems;
  • Whenever possible develop Python/PySpark/Shell scripts to automate process;

05/2016 - 09/2017
Big Data Specialist / Data Engineer
Telefonica Brazil
Working with one of the biggest Hadoop Cluster in Latin America with 230 nodes (Hortonworks distribution) - ~8 petabytes.
  • Working on the design, development and maintenance of Big Data ingestion solutions in order to help to improve and maintain all data sources in Hadoop environment.
  • Gathering requirements, design, coding, testing and implement new Big Data ingestion solutions to make them available to Data Science team
  • Bash Script for scheduled batches programs to provide alerts in case of any problem
  • Python Development
  • Hadoop / HDFS / Apache Hive Scala / Spark Streaming / Spark Batch
  • Apache HBase for handling aggregated / consolidated data (ingestion of 80b records daily)
  • Java: restful web services to expose user data consumption from HBase

03/2015 - 07/2016
Business Intelligence Specialist
Sky Brazil

07/2015 - 05/2016
Big Data Consultant
Semantix Brazil

01/2014 - 01/2015
(Sabbatical / Travelling / Studying)
N/A

02/2012 - 01/2014
Business Intelligence Consultant
Net Serviços S/A

07/2012 - 01/2012
Business Intelligence Consultant
CDS

08/2007 - 06/2011
Business Intelligence Analyst
Net Serviços S/A

11/2005 - 08/2007
System Analyst / PLSQL Developer
Spread Tecnologia

08/2003 - 10/2005
Technical Analyst (Operations)
.COMDOMINIO

02/1998 - 03/2003
Founder
Eurecanet

Zeitliche und räumliche Verfügbarkeit

  • Mindestprojektdauer: 3 Monate
  • Auslastung 32h (4 Tage) bis 40h (5 Tage) pro Woche
  • Ausschließlich Remote Positionen

Sonstige Angaben

Ich bin offen für Projekte aus (fast) allen Breanchen und freue mich über jegliche Gelegenheit wertvolle und innovative Arbeit zu leisten und dabei zu lernen.

Bitte haben Sie allerdings Verständnis dazu jegliche Anfragen aus den folgenden Industrien/Sektoren prinzipiell abzulehnen:
  • Fossile Brennstoffe/nicht erneuerbare Energien
  • Rüstungs-, Waffen- und Kriegsindustrie
  • Unternehmen, die Menschenrechtlich, Tierrechtlich und/oder in Umweltbelangen unethisch agieren/operien wie z.B. (aber nicht ausschließlich)
    • Abercrombie & Fitch
    • Axel Springer SE inkl. sämtlicher Tocherunternehmen und Marken
    • Meta/Facebook
    • Monsanto
    • Nestle
    • Palantir
Ich bin nicht, war nie und werde nie an einer Arbeitnehmerüberlassung bzw. dem "Schweizer Modell" interessiert sein. Bitte unterlassen Sie jegliche Anfragen in diese Richtung oder Sie werden kommentarlos geblockt.

Kontaktformular

Kontaktinformationen

Profilbild von Fabricio Carboni Data Engineering | Big Data | AWS | DevOps | Kubernetes aus Bonn Data Engineering | Big Data | AWS | DevOps | Kubernetes
Registrieren