Container
Docker-Container für Datenverarbeitung
Custom-Pipeline für deine Daten — Cron-Jobs, Webhooks, REST-API, deploybar auf jedem Docker-Host. ETL, Scraping, Aggregation.
Was du bekommst
Inhalt des Pakets
- Datenimport aus CSV, JSON, Excel, APIs oder Datenbanken
- Verarbeitungs-Logik: ETL, Aggregation, Filterung, Joins
- Cron-basierte oder Webhook-getriggerte Ausführung
- Python (pandas, requests) oder Go (für Performance)
- Datenbank-Anbindung: PostgreSQL, MySQL, MongoDB, ClickHouse
- Docker Compose Setup — ein Befehl zum Starten
- Logging mit structlog, Errors strukturiert in JSON
- Healthcheck-Endpoint (HTTP 200 wenn alles ok)
- Retry-Logik bei API-Fehlern (Exponential Backoff)
- Rate-Limiting wenn Drittanbieter-APIs gerufen werden
- Datenexport in CSV, JSON, Parquet, Excel
- Optional: Webhook bei Pipeline-Ende (z.B. Slack-Notification)
- Deployment-Anleitung für Hetzner/AWS/GCP
- Monitoring-Dashboard via Grafana (optional, +290 EUR)
- 30 Tage Bugfixes nach Launch
Transparent kommuniziert
Was nicht inklusive ist
- ×Frontend / UI für die Daten (separat als Web-App-Paket)
- ×Server / Cloud-Kosten (zahlst du)
- ×Drittanbieter-API-Lizenzkosten
- ×Live-Streaming / Realtime-Pipelines (Kafka etc.) — separat ab 2900 EUR
- ×Über 5 Datenquellen (Stundensatz)
- ×Komplexe ML-Modelle (separat ab 1900 EUR)
- ×DSGVO-konformes PII-Hashing/Pseudonymisierung (separat ab 290 EUR)
Diese Punkte können separat angefragt werden — wir machen ein individuelles Angebot.
Sicherheit & Production-Readiness
Sicher liefern wir immer mit.
Was billige Anbieter weglassen, ist bei uns Standard — auch in diesem Paket:
- HTTPS / SSL mit Auto-Renewal
- Firewall, Fail2Ban & Rate-Limiting
- Dependency-Scan auf bekannte Sicherheitslücken (CVEs)
- Backup-Strategie eingerichtet
- Secrets niemals im Repository
- DSGVO-konformes Cookie-Banner (für EU-Kunden)
- Code-Review durch erfahrenen Entwickler vor Go-Live
- 30 Tage Support nach Launch (Bugfixes inklusive)
Häufige Fragen
Was Kunden meistens fragen
Wie groß können die Daten sein?+
Bis ~10 GB pro Lauf gut handhabbar. Größer: Splitting/Chunking nötig (ab 290 EUR Add-on).
Wie schnell läuft die Pipeline?+
Hängt von Datenmenge + Quelle ab. Beispiel: 100k Zeilen aus CSV importieren + transformieren ~30s. APIs mit Rate-Limit dauern länger.
Was wenn die API der Datenquelle Probleme macht?+
Eingebaute Retry-Logik (3 Versuche, Backoff). Bei dauerhaftem Fail: Alarm via E-Mail/Slack, Pipeline läuft beim nächsten Cron weiter.
Kann ich die Pipeline später erweitern?+
Ja, modular gebaut. Neue Datenquelle: ~290 EUR. Neue Verarbeitungslogik: Stundensatz oder Pauschale.
Wo läuft die Pipeline?+
Empfehlung: Hetzner CX21 (4 EUR/Monat) für kleinere Pipelines. AWS/GCP ebenfalls möglich.
Was ist mit DSGVO?+
Wenn personenbezogene Daten: AVV-Vertrag mit dir, Server in DE/EU, optional PII-Hashing als Add-on (290 EUR).
Wichtiger Hinweis
Der angegebene Preis ist ein unverbindlicher Schätzwert. Der tatsächliche Aufwand wird nach einem kostenlosen Briefing-Gespräch individuell festgelegt und schriftlich angeboten.
Kontakt aufnehmen
Haben Sie ein Projekt?
Lassen Sie uns gemeinsam Ihre Idee in die Tat umsetzen. Wir beraten Sie gerne unverbindlich.
Kontakt aufnehmen →