Debido a las dependencias entre compilaciones, las compilaciones de los trabajos del almacén de datos operativos se tienen que ejecutar secuencialmente.
Todos los trabajos están definidos debajo la carpeta
Jobs, los trabajos del almacén de datos operativos se organizan de acuerdo con los productos soportados.
La mayoría de los trabajos del almacén de datos operativos permiten reutilizar el trabajo ETL para orígenes de datos con la misma estructura de datos; así, pues los trabajos presentan una estructura similar a la siguiente:
- init node: para obtener grupos de recursos con la categoría especificada en el origen de datos y colocar en memoria caché el resultado
- preparevar: para cumplimentar las variables para el grupo de recursos actual antes de ejecutar una compilación.
- Los otros nodos constituyen un bucle y se ejecutan secuencialmente para cada grupo de recursos de la secuencia.
- hasMore, que es un nodo de condición para determinar si hay más grupos de recursos.
Si hay más grupos de recursos, se continúa hasta el siguiente bucle, de lo contrario, se finaliza el trabajo.
Algunos trabajos tienen un nodo con el nombre
SetFinishedTime, que graba el resultado del trabajo en el depósito de datos de la tabla
config.ETL_INFO.