Application

Databricks ist eine Cloud-"Lakehouse"-Plattform, die sowohl Data Warehouse- als auch Data-Lake-Workloads verarbeiten kann. Es ermöglicht Nutzern, Datenpipelines zu erstellen und zu betreiben, Analyse- und Machine-Learning-Modelle zu entwickeln und bereitzustellen usw.

Databricks basiert auf Spark und bietet automatisiertes Clustermanagement sowie iPython-ähnliche Notizbücher (Databricks-Datenpipelines).

Die Integration von Control-M mit Databricks ermöglicht Folgendes:

  • Verbinden Sie sich mit jedem Databricks-Arbeitsbereich mit Databricks Personal Access Token (PAT) zur Authentifizierung.
  • Das PAT-Token kann unabhängig vom Cloud-Anbieter in deinem Databricks-Arbeitsbereich generiert werden.
  • Integrieren Sie Databricks-Jobs mit anderen Control-M-Jobs in eine einzige Planungsumgebung.
  • Lösen und überwachen Sie Ihre Databricks-Jobs und sehen Sie sich die Ergebnisse in der Monitoring-Domäne an.
  • Füge deinem gesamten Databricks-Datendienst einen SLA-Auftrag zu.
  • Führen Sie alle Control-M-Funktionen in Databricks ein, einschließlich fortgeschrittener Terminkriterien, komplexer Abhängigkeiten, quantitativer und Kontrollressourcen sowie Variablen.
  • Führe 50 Databricks-Jobs gleichzeitig pro Control-M/Agent aus.

Control-M-Integration mit Databricks ist für diese Produktversionen verfügbar:

  • Control-M 20.200 und später
  • Control-M SaaS 21 und später

Unterstützende Dokumentation

Für weitere Informationen zu dieser Integration, einschließlich der Erstellung eines Verbindungsprofils und der Definition eines Jobs, besuchen Sie bitte:

Integration von Databricks und Control-M

Integration von Databricks und Control-M SaaS

Thema

Business & IT Automation

Verlag

BMC Software