Aufgrund der Abhängigkeiten zwischen Builds müssen die Builds in Jobs des Speichers für operative Daten in Folge ausgeführt werden.
Alle Jobs sind unter dem Ordner
Jobs definiert, wobei die Jobs des Speichers für operative Daten entsprechend den unterstützten Produkten zusammengefasst sind. Die meisten Jobs des Speichers für operative Daten unterstützen die Wiederverwendung der ETL-Prozessjobs für Datenquellen mit derselben Datenstruktur, daher weisen die Jobs die folgende vergleichbare Struktur auf:
- init node: Zum Abrufen von Ressourcengruppen mit angegebener Kategorie in der Datenquelle und zum Zwischenspeichern des Ergebnisses.
- preparevar: Zum Füllen der Variablen für die aktuelle Ressourcengruppe, bevor ein Build ausgeführt wird.
- Die anderen Knoten bilden eine Schleife und werden für jede Ressourcengruppe in der Reihenfolge nacheinander ausgeführt.
- hasMore: Besitzt einen Bedingungsknoten zum Ermitteln, ob weitere Ressourcengruppen vorhanden sind. Wenn weitere Ressourcengruppen vorhanden sind, wird die nächste Schleife fortgesetzt. Andernfalls ist der Job abgeschlossen.
Einige Jobs besitzen einen Knoten mit dem Namen
SetFinishedTime, der das Ergebnis des Jobs im Data-Warehouse in der Tabelle
config.ETL_INFO aufzeichnet.