techlogia

Container

Docker-Container für Datenverarbeitung

ab1.490 €

Custom-Pipeline für deine Daten — Cron-Jobs, Webhooks, REST-API, deploybar auf jedem Docker-Host. ETL, Scraping, Aggregation.

Was du bekommst

Inhalt des Pakets

  • Datenimport aus CSV, JSON, Excel, APIs oder Datenbanken
  • Verarbeitungs-Logik: ETL, Aggregation, Filterung, Joins
  • Cron-basierte oder Webhook-getriggerte Ausführung
  • Python (pandas, requests) oder Go (für Performance)
  • Datenbank-Anbindung: PostgreSQL, MySQL, MongoDB, ClickHouse
  • Docker Compose Setup — ein Befehl zum Starten
  • Logging mit structlog, Errors strukturiert in JSON
  • Healthcheck-Endpoint (HTTP 200 wenn alles ok)
  • Retry-Logik bei API-Fehlern (Exponential Backoff)
  • Rate-Limiting wenn Drittanbieter-APIs gerufen werden
  • Datenexport in CSV, JSON, Parquet, Excel
  • Optional: Webhook bei Pipeline-Ende (z.B. Slack-Notification)
  • Deployment-Anleitung für Hetzner/AWS/GCP
  • Monitoring-Dashboard via Grafana (optional, +290 EUR)
  • 30 Tage Bugfixes nach Launch

Transparent kommuniziert

Was nicht inklusive ist

  • ×Frontend / UI für die Daten (separat als Web-App-Paket)
  • ×Server / Cloud-Kosten (zahlst du)
  • ×Drittanbieter-API-Lizenzkosten
  • ×Live-Streaming / Realtime-Pipelines (Kafka etc.) — separat ab 2900 EUR
  • ×Über 5 Datenquellen (Stundensatz)
  • ×Komplexe ML-Modelle (separat ab 1900 EUR)
  • ×DSGVO-konformes PII-Hashing/Pseudonymisierung (separat ab 290 EUR)

Diese Punkte können separat angefragt werden — wir machen ein individuelles Angebot.

Sicherheit & Production-Readiness

Sicher liefern wir immer mit.

Was billige Anbieter weglassen, ist bei uns Standard — auch in diesem Paket:

  • HTTPS / SSL mit Auto-Renewal
  • Firewall, Fail2Ban & Rate-Limiting
  • Dependency-Scan auf bekannte Sicherheitslücken (CVEs)
  • Backup-Strategie eingerichtet
  • Secrets niemals im Repository
  • DSGVO-konformes Cookie-Banner (für EU-Kunden)
  • Code-Review durch erfahrenen Entwickler vor Go-Live
  • 30 Tage Support nach Launch (Bugfixes inklusive)

Häufige Fragen

Was Kunden meistens fragen

Wie groß können die Daten sein?+

Bis ~10 GB pro Lauf gut handhabbar. Größer: Splitting/Chunking nötig (ab 290 EUR Add-on).

Wie schnell läuft die Pipeline?+

Hängt von Datenmenge + Quelle ab. Beispiel: 100k Zeilen aus CSV importieren + transformieren ~30s. APIs mit Rate-Limit dauern länger.

Was wenn die API der Datenquelle Probleme macht?+

Eingebaute Retry-Logik (3 Versuche, Backoff). Bei dauerhaftem Fail: Alarm via E-Mail/Slack, Pipeline läuft beim nächsten Cron weiter.

Kann ich die Pipeline später erweitern?+

Ja, modular gebaut. Neue Datenquelle: ~290 EUR. Neue Verarbeitungslogik: Stundensatz oder Pauschale.

Wo läuft die Pipeline?+

Empfehlung: Hetzner CX21 (4 EUR/Monat) für kleinere Pipelines. AWS/GCP ebenfalls möglich.

Was ist mit DSGVO?+

Wenn personenbezogene Daten: AVV-Vertrag mit dir, Server in DE/EU, optional PII-Hashing als Add-on (290 EUR).

Wichtiger Hinweis

Der angegebene Preis ist ein unverbindlicher Schätzwert. Der tatsächliche Aufwand wird nach einem kostenlosen Briefing-Gespräch individuell festgelegt und schriftlich angeboten.

Haben Sie ein Projekt?

Lassen Sie uns gemeinsam Ihre Idee in die Tat umsetzen. Wir beraten Sie gerne unverbindlich.

Kontakt aufnehmen