pascal-debrunner-668680-unsplash
Jürgen Landt - Entwickler, Data Engineer und DevOps

Jürgen Landt

Aufgewachsen in einer idyllischen Gartenstadt
am Rande Berlins.

20+

Jahre Erfahrungen
im IT-Umfeld

Als Entwickler, Data Engineer und DevOps. Im Herzen von Berlin/Germany

Education

Lernen ist wie Rudern gegen den Strom. Hört man damit auf, treibt man zurück.

Laozi

Maschinenbaustudium

Ingenieur

Lehrausbildung

Facharbeiter

Schulausbildung

mittlere Reife

Experience

Freude an der Arbeit lässt das Werk trefflich geraten.

Aristoteles
2006-heute

IT-Unternehmen

Details...

Mitarbeiter in Abteilungen ASP, Projects und Research als Data Engineer, Full-Stack-Developer und System Engineer.

Data Engineering

Als Teamleiter Data Engineering verantwortlich für Deployment, Betrieb und Ausbau eines Java-basierten Webcrawler Stacks (24/7, verteilt, >90.000 Docs/Tag aus bis 1.600 Quellen, 2001–2022). Aufgaben: Monitoring-System-Implementierung, Quellenbewertung (Aufwand-/Nutzen), Demonstratoren, Sales-Statistiken, verschiedene Services und Tools.

Seit 2021 alleiniger Aufbau eines modularen Crawling-Stacks (Python, containerisiert, Wartbarkeit, minimale Abhängigkeiten, 24/7, Monitoring und Notifications) mit NLP/KI-Integration (ohne Performance-Einbußen), Übersetzungsservices und API-Bereitstellung. Datenverarbeitung: Parsing, Transformationen, Persistierung (Dateisystem, DBs, Indizes). Dieser beinhaltet langjährige Erfahrungen des o.g. Crawlers sowie verschiedenste Anforderungen zurückliegender Projekte und Kunden.

Highlights

Medienwirksames Crawling für das Bezirksamt Berlin-Mitte, Datenverarbeitung für das BSI, Suchmaschine für nautische Dokumentation in Form einer massiven Anzahl geparster PDF Dokumente, größter News Index umfasste 31 Mio. Dokumente ...


E-Commerce und CMS

Umsetzung von WordPress- und Shopware-Projekten (Frontend, Backend, Deployment, Betrieb); Shopware-Schulung in Schöppingen.

2001-2006

Freiberufler

Details...

Freelancer-Tätigkeiten für verschiedene Unternehmen und Auftraggeber.

Ausbau bestehender Shops, Implementierung kleinerer Shoplösungen und CMS-Services sowie Erweiterung webbasierter Intranetlösungen.

Bei Bedarf: Domain-Registrierung, Provider-Auswahl und Deployment von Webservices.

1997-2001

Personalberatung

Details...

Mitarbeiter bei einem Headhunting-Unternehmen: von Search Consultant zur technischen Teamleitung.

Als Search Consultant spezialisiert auf Online-Recherche zur Identifizierung von Fachkräften; technische Umsetzung von Print-/Online-Anzeigen sowie Ausbau der Lotus-Notes-basierten Intranetlösung. Optimierung der Rechercheprozesse durch eigene Research-Tools.

Mit Launch der firmeneigenen Online-Karriereplattform Teamleiter des interdisziplinären Entwicklungsteams (direkt dem Geschäftsführer unterstellt), später DevOps-Entwickler mit Fokus auf Service-Implementierung, Frontend/Backend sowie Schnittstellen zu Kundensystemen (Recruitment-Tools, CMS wie InfoPark und Cassiopeia).

Ergänzend: Evaluation von Call-Center-Software als Executive Assistant.

1991-1997

Metallbau

Details...

Mitarbeiter im Bau-Nebengewerbe für Aluminium- und Stahl-Glas-Konstruktionen bei verschiedenen Unternehmen.

Anfangs EDV-gestützte technologische Vorbereitung, CAD-Konstruktion, CNC-Programmierung und Kalkulation in Zusammenarbeit mit Zulieferern und Außendienstmitarbeitern.

Später Konstrukteur, Projektleiter und Team-/Bereichsleiter mit Personal- und Budgetverantwortung.

Schwerpunkt: Fassaden aus Alu-/Stahl-Glas sowie durchschuss- und sprenghemmende Elemente.

Profilsysteme: Sälzer, Schüco, Hartmann, Hueck, Heroal, Jansen. Weiterbildungen: Bauphysik, ELUMATEC/Hilti-Technologien, Profilsystem-Schulungen.

Arbeitsorte ebenfalls Marburg und Steinach (Tirol).

Skills

Erfolg besteht darin, dass man genau die Fähigkeiten hat, die im Moment gefragt sind.

Henry Ford

Ursprünglich befand sich an dieser Stelle lediglich eine Auflistung der verschiedensten Technologien, mit denen ich bisher gearbeitet habe. Selbst wer nur einen grundlegenden Überblick über die IT hat, weiß, dass nahezu täglich neue Technologien und Tools hinzukommen.

Da deren Relevanz je nach Projekt stark variiert, verzichte ich bewusst auf eine detaillierte Aufstellung. Stattdessen konzentriere ich mich in den folgenden Abschnitten darauf, die Schwerpunkte meiner beruflichen Tätigkeit darzustellen.


Agile
Scrum und Kanban; 'scrum master' (2008)
Einsatz von KI
Nutzung verfügbarer NLP‑Services zur effizienteren Umsetzung der täglichen Arbeit; Datenverarbeitung mithilfe von NLP‑Modellen (stand‑alone oder in Verbindung mit Web‑Crawling); experimentelle Personenerkennung in Bildern und Videos.
Betriebssystem
Linux‑basiert; Präferenz für Debian‑basierte Distributionen.
Container-Technologien
Container-Technologien wie z. B. Docker, inkl. eigener Registry
Webserver
Caddy, SWS, Apache, NGINX; Python-Webservers in Docker-Services (REST-APIs etc.); Tomcat und Jetty seltener.
Sprachen
hauptsächlich Python und PHP (Frontends, APIs, CLI-Tools); Bash (CLI); früher LISP sowie Java/JSP.
Crawlertechnologien
Seit einigen Jahren Scrapy; davor 10 Jahre Unternehmenscrawler (Java) inkl. Ökosystem; von kleineren Projekten bis 24/7-Betrieb inkl. Monitoring, Validierungen und Prozessierungen; Schwerpunkt auf Wartbarkeit und Erweiterbarkeit; verteiltes Crawling; unterschiedliche Crawler-Doctrines je nach Projektanforderungen.
Datenprozessierung
Umwandlung unstrukturierter in strukturierte Datenformate; Schemavalidierungen; Anreicherung von Daten auf Basis von NLP sowie eigener Services (z. B. automatisierte Textübersetzungen); Daten-Transformationen etc.
Datenbanken
MySQL/MariaDB, PostgreSQL, wo ausreichend SQLite; früher auch Oracle.
Datenindizierung
Lucene-basierte Indizes wie Elasticsearch und Solr (größter Index bisher: 31 Mio. Docs).
Frontend Technologien
HTML, CSS, JavaScript (gern 'hand-made' für kleinere Projekte); Nutzung ausgewählter Libs mit Reduzierung unnötiger Abhängigkeiten; SEO und Optimierungen; eigener Docker-Service zur automatischen Bildkonvertierung.
Contentmanagement
Hauptsächlich diverse Open-Source-CMS in PHP und Node.js; Auswahl nach Anforderungen mit Reduzierung unnötiger Abhängigkeiten; u. a. Beachtung von Backup-/Restore-Szenarien und Trennung von Content und Layout; früher auch Infopark und Cassiopaia (beides Java).
Logging/Monitoring
Zentralisiertes Logging/Monitoring mit Graylog; InfluxDB + Grafana; Anbindung von Notification-Tools; weitere Open-Source-Tools zur Überwachung von Services.
Test-Tools
K6 (Lasttests); Selenium Grid (vorrangig als skalierbarer Stack in Verbindung mit Webcrawling).
Hosting
Dienstleister des Unternehmens; privater Dienstleister sowie eigenes Hosting verschiedener Services im HomeLab (Datenschutz).
Netzwerk
eigener DNS Server + weitere Services
Kleinserver
3x NAS, 2x Raspberry Pi und Mini-Server.

Blog

Die größten Missverständnisse entstehen nicht durch die Sprache, sondern durch die Art, wie wir zuhören.

Henry David Thoreau

Mein persönlicher digitaler Kosmos

Zwischen Nostalgie, Innovation und Leidenschaft.

Mehr...

Ursprünglich stellte der Blog lediglich eine private Wissenssammlung dar. Im Laufe der Zeit kamen hier und da sporadisch noch kleinere Projekte hinzu.

Der Weg zum Content

Zugegeben, bisher habe ich mehr Zeit in die technische Infrastruktur dieses Blogs investiert als in die eigentlichen Inhalte.

Mehr...

Feinabstimmung der Architektur, das Optimieren der Deployment-Pipeline und das Experimentieren mit verschiedenen Hosting-Lösungen haben meine Aufmerksamkeit dominiert. Der Umbau soll genau das ändern: Künftig wird der Fokus auf der Erstellung und Veröffentlichung von Inhalten liegen.

Die neu gestaltete Infrastruktur ermöglicht nun einen deutlich vereinfachten Workflow:

  • Schnellere Erstellung von Beiträgen
  • Vereinfachte Publikationsprozesse
  • Flexiblere Anpassungsmöglichkeiten
  • Reduzierter technischer Overhead
  • Mehr Sicherheit und Optimierungen

Das Ziel ist klar: Weniger Basteln an der Technik, mehr Teilen von Wissen.

Meine Vision

Ziel ist es, einen Ort zu schaffen, in dem ihr persönliche Erfahrungen und Inspirationen nicht nur aus dem IT Bereich findet.

Mehr...

Womöglich gibt es hier und da noch die eine oder andere Überraschung.

Private Projekte
Einblicke in meine persönlichen Entwicklungen und Experimente
Berufliche IT-Einblicke
Erkenntnisse aus dem professionellen Umfeld
Home Lab Adventures
Ideen und Anregungen für die private Infrastruktur
Nostalgische Momente
Rückblicke und Erinnerungen an die Anfänge
Real-Satire
Gibt es auch im IT-Bereich

Zum Blog

About

Unsere Geschichten machen uns zu dem, wer wir sind.

Madeleine Albright

Meine Nutzung von KI

ermöglicht es mir, erforderliches Wissen zeitsparend und zielgerichtet anzuwenden.

Meine Richtlinie in der IT

erinnert an den Namen einer Hard‑Rock‑Band und besteht aus vier Buchstaben.

Meine privaten Projekte

und mein Homelab vermitteln mir Erfahrungen, die ich auch im beruflichen Umfeld gezielt einsetze.

Mein erster Beta Test

fand Ende der neunziger Jahre statt – ich war einer von nur zwanzig externen Testern eines Computerspiels („Fun‑Race“) aus Gütersloh.

Meine ersten Interneterfahrungen

sammelte ich bereits mit dem Aufkommen der IT‑Blase vor der Jahrtausendwende – und das nicht nur als Anwender.

Mein erstes kompiliertes Programm

entstand im Rahmen meiner Ingenieurarbeit – ein Tool zur Auswertung von CAD‑Zeichnungsdateien (*.dwg).

Mein erstes Betriebssystem

hatte bereits eine Konsole – seitdem ist Konsolenunterstützung für mich ein Muss.

Mein erster Computer

verfügte über sagenhafte 640 kB RAM, eine 35 MB große Festplatte und eine Maus, die über einen selbst gelöteten Adapter angeschlossen war.

Mein erster Programmcode

entstand während meiner Berufsausbildung in Form eines Programms zur Steuerung einer CNC‑Maschine.


Share