Als passionierter Software Engineer mit Erfahrung in den Themen AI, Big Data & Cloud bringe ich neben meinen Kenntnissen in der agilen Softwareentwicklung das nötige technische Know-how mit, um Ihr Projekt entscheidend voranzutreiben.

Beinahe jedes Muster, das ein Mensch erkennt, kann eine KI erlernen. Ich bin der Ansicht, dass viele Unternehmen das Potenzial ihrer Datenmengen voll entfalten sollten. Dabei helfe ich, Daten zu verstehen und effektiv zu nutzen.

Tätigkeiten und Projekte der letzten Jahre

Data- & Cloud Engineer – Colenet | GEMA / IT4IPM, München

  • Data Engineering
    • Implementierung von ETL-Pipelines (Python, PySpark, Databricks)
    • Implementierung des Databricks Medallion Pattern Library für eine Self-Service Big Data & Analytics Platform (Databricks, Terraform)
    • Migration von über 240 ETL-Pipelines und Datenquellen und Backups (BigQuery, Google Cloud Storage)
  • Cloud Engineering
    • Entwicklung und Inbetriebnahme einer Self-Service Big Data & Analytics Platform
    • Weiterentwicklung der Big Data & Analytics Platform
      • Implementierung eines Scheduling-Mechanismus für das Databricks Medallion-Pattern
      • Weiterentwicklung der CI/CD Pipelines
    • Refactoring  und Umstrukturierung des Infrastructure as Code der Big Data & Analytics Platform (GCP)

Python | Terraform  | ETL | Big Data | Databricks | Google Cloud Platform (GCP) | BigQuery | Google Cloud Storage | Apache Spark | PySpark | Bash | CI/CD | BigTable (Apache Spark) | Git | GitHub | GitHub Actions

Cloud Engineer – Colenet | ING, Frankfurt

  • Software Engineering
    • Weiterentwicklung Java Services (Spring)
    • Weiterentwicklung Python Services (Flask)
    • Unterstützung bei der Migration von Openshift 3.0 auf Openshift 4.0
    • Kontinuierliche Behebung von Incidents für Java, Python und Jupyter-Services (Jupyterhub, Jupyterlab, Dask-Cluster) 
  • Data Engineering
    • Entwicklung und Bereitstellung eines Frameworks zur Ausführung von Machine-Learning Modellen auf Openshift
    • Betreuung von Kunden mit Data Engineering Aufgaben
      • Unterstützung bei Umsetzung von Data Engineering Aufgaben von Kunden
  • Cloud Engineering
    • Azure DevOps
      • Umsetzung eines Pilotprojektes in Azure DevOps für das Team
      • Design und Implementierung eines CI/CD Konzepts für das Team
      • Schulung von Mitarbeitern in Azure DevOps
    • Bereitstellung einer Basisarchitektur für das Team (Azure Container Registry)

Java | Python | Bash | Azure | Azure DevOps | Openshift | Jupyter | Dask | Tensorflow | Pytorch

Professional Software Engineer – OTTO GmbH & Co. Kg, Hamburg

  • Software Engineering
    • Design, Entwicklung & Bereitstellung von Python Bilderkennungs Microservices mit GCP Services (Cloud Run, Cloud Storage, Kubernetes IAM etc.)
      • Bildähnlichkeits-Services
      • Bildklassifizierungs-Services
    • Kontinuierliche Verbesserung von CI/ CD Prozessen. Einführung von GitHub Actions, Implementierung von CI/CD Best Practices. Infrastructure-As-Code Automatisierung
  • Cloud Engineering
    • Management der Infrastruktur des Teams (GCP)
      • Design und Implementierung der zentralen Infrastruktur & eines Sicherheitskonzepts
      • Setup von Infrastructure-As-Code (Terraform)
      • Key-Rotation
      • Monitoring & Alerting (Cloud Monitoring, Cloud Logging)
    • Verbesserung des Machine Learnings Workflows (Datenmanagement, Kostenoptimierung)
  • Data Engineering
    • Durchführung von Datenanalysen (Pandas, Dask)
    • Datenaufbereitung für Machine Learning Prozesse 
    • Design, Entwicklung & Bereitstellung von Big Data ETL Pipelines (Cloud Composer, Cloud Storage, Cloud Monitoring, IAM etc.)

Python | Scala | Terraform | Bash | SQL | Pandas | Dask | GRPC | Docker | Cloud Technologien (Google Cloud Platform) | Apache Airflow | Pytest | Git | GitHub | CI/CD | GitHub Actions

Software Developer – Shopping24 GmbH, Hamburg

  • Software Developer für Java Backend Systeme
  • Entwicklung eines Validierungstools für Datensätze von Kunden (Importfeeds)

Java | Docker | Git | Bitbucket

Software Developer – AdSoul GmbH, Hamburg

  • Software Developer für Java Backend Systeme
  • Training eines Neuronalen Netzes zur Erkennung von Markenbezeichnungen in SEO Texten

Java | Docker | Cloud Technologien (Google Cloud Platform) | Git | GitLab

Qualifikationen

Team Kanban Practitioner
Certifed ScrumMaster (CSM) Badge
Certified Scrum Developer (CSD) Badge

Praxis und Methoden

Python | Bash | JavaScript | TypeScript | Scala Kotlin | SQL | GRPC | REST | Docker | Cloud Technologien (Google Cloud Platform, Amazon Web Services, Azure) | Apache Airflow | Pandas | Dask | Pytest | JUnit | Git | GitHub | GitHub Actions | Scrum | Kanban | Code Reviews | Pair Programming | DevOps | MLOps | Security | Automatisierung | Disaster Recovery | Monitoring | Serverless | Linux | IntelliJ IDEA

Sprachen

Deutsch ●●●●●
Englisch ●●●●●