Schlagwörter
Cloud Computing
Datenbanken
Datenvisualisierung
Künstliche Intelligenz
Amazon S3
Data Analysis
Automatisierung
Big Data
Continuous Integration
ETL
Datenmodell
Devops
Github
Python
Postgresql
Machine Learning
Mariadb
Microsoft Sql-Server
Mongodb
Mysql
Nosql
Numpy
Power Bi
SQL
Tableau
Talend
Chatbots
Pytorch
Deep Learning
Gitlab
Git
Pandas
Matplotlib
Pyspark
Scikit-learn
Software Version Control
Docker
Jenkins
+ 28 weitere Schlagwörter anzeigen
Dateianlagen
experience-letters_040425.pdf
Talha-Imran-Resume-English_130425.pdf
Der Download dieser Datei ist nur mit einem kostenpflichtigen Business- oder Enterpriseaccount möglich.
Skills
Data Engineering:
Extensive experience with ETL processes using Talend Studio, PySpark, and Matillion. Development and implementation of data pipelines and data warehouses.
Databases:
Expertise in SQL and NoSQL databases, including PostgreSQL, MySQL, MSSQL, MariaDB, and MongoDB. Experience in data modeling and optimization.
Cloud Computing:
In-depth knowledge of cloud data services, especially AWS S3, Lambda, and EC2. Implementation of cloud-based data solutions and architectures.
Data Visualization:
Experience with tools such as Tableau, QuickSight, PowerBI, Periscope, and Matplotlib to create meaningful data visualizations and dashboards.
Programming:
Advanced knowledge of Python, particularly libraries such as NumPy and Pandas for data analysis and processing.
Artificial Intelligence:
Knowledge of classic ML models (Scikit-learn), deep learning (PyTorch), and modern NLP techniques such as Transformers and chatbots.
DevOps and automation
experience with CI/CD tools such as Jenkins and Docker. Knowledge of version control with Git and GitHub/GitLab.
Projekthistorie
Implementierung eines Snowflake-Datenlagers auf AWS, Entwicklung von ELT-Prozessen und automatisiertem CRM-Reporting. Optimierung der Datenaufnahme mit Python und LiveSync.
Entwicklung von Datenpipelines mit Talend Studio, Python (PySpark) und AWS (EC2, S3). Verbesserung der Datenverarbeitungseffizienz und Implementierung von ETL-Workflows.
Automatisierung von Workflows, Entwicklung einer Wissensdatenbank und Implementierung von RESTful APIs. Optimierung der Datenaktualität und Erstellung von Skripten zur Erkennung von Abrechnungsanomalien.