Principales tâches en arrière-plan de l'application
L'objectif principal de BigFix Inventory consiste à générer des rapports d'audit d'unités de valeur par processeur et d'unités de valeur par ressource sur la base des données collectées. Tous les calculs sont effectués en respectant les règles de tarification des unités de valeur par processeur et des unités de valeur par ressource qui sont décrites dans les documents officiels d'octroi de licences pour capacité partielle.
Agrégation
L'agrégation est la principale tâche de calcul dans BigFix Inventory. Le processus d'agrégation est une tâche en arrière-plan programmée qui s'exécute tous les jours à une heure déterminée. Par défaut, elle a lieu à minuit, heure serveur. La tâche calcule les valeurs en unités de valeur par processeur et unités de valeur par ressource sur la base des données collectées par les agents durant les analyses de logiciels et de capacités.
Nouvelle agrégation
- Un nouveau regroupement d'une instance logicielle depuis un produit vers un autre
- La confirmation du regroupement par défaut
- L'inclusion d'une instance logicielle dans des calculs d'unités de valeur par processeur ou d'unités de valeur par ressource
- L'exclusion d'une instance logicielle de calculs d'unités de valeur par processeur ou d'unités de valeur par ressource
- Le partage d'une instance
Agrégation et nouvelle agrégation
Le processus d'agrégation est conçu pour calculer les données fournies par de nombreux agents pour tous les produits sur une courte période. Par opposition, le processus de nouvelle agrégation a pour objet d'effectuer un nouveau calcul rapide de valeurs en unités de valeur par processeur et en unités de valeur par ressource pour un sous-ensemble de produits qui ont déjà été agrégées. L'agrégation de tous les produits issus de tous les agents est beaucoup (voire jusqu'à des centaines de fois) plus rapide qu'une nouvelle agrégation du même volume de données. Toutefois, lorsque vous devez recalculer les valeurs en unités de valeur par processeur ou en unités de valeur par ressource d'un seul produit, la nouvelle agrégation devrait être plus rapide que l'agrégation précédente. En effet, cette dernière ne pouvait pas recalculer la valeur de rapport d'un seul produit et devait effectuer une nouvelle agrégation pour tous les produits reconnus simultanément.
Générateur d'inventaire
Le générateur d'inventaire est une autre tâche en arrière-plan qui est exécutée périodiquement. Au cours de cette période, l'inventaire des logiciels est établi sur la base de données issue des analyses de logiciels effectuées par l'agent. En d'autres termes, cette tâche transforme une liste des composants logiciels reconnus en une liste de produits logiciels reconnus. Dans la plupart des cas, le regroupement de logiciels initial de composants reconnus par le générateur d'inventaire a un niveau de confiance extrêmement bas.
Aide au regroupement
De la même manière que l'agrégation, l'aide au regroupement est une tâche périodique qui s'exécute en arrière-plan. Elle est strictement associée à la tâche du générateur d'inventaire : l'aide au regroupement démarre aussitôt l'exécution du générateur d'inventaire terminée.
- Importation d'une nouvelle série de références
- Importation d'un nouveau catalogue des logiciels
- Après un nouveau regroupement manuel ou la confirmation manuelle d'une instance de produit, d'autres instances de produit non confirmées peuvent être mieux regroupées en recourant à une partition ou en appliquant des règles de colocation d'infrastructure.
- La détection d'un nouveau composant logiciel simple (un composant qui peut être affecté à un seul produit uniquement) par des agents peut également modifier les calculs pour d'autres instances non confirmées par suite d'une partition ou de l'application de règles d'aide au regroupement de colocation d'infrastructure.
éxtraire, transformer et charger (ETL)
De manière générale, le processus ETL (éxtraire, transformer et charger) portant sur l'utilisation de la base de données combine trois fonctions de base de données qui visent à transférer les données depuis une base de données et à les placer dans une autre. La première étape, éxtraire, implique la lecture et l'extraction de données depuis divers systèmes source. La deuxième, Transformer, convertit les données de sa forme initiale en un format accepté par la base de données cible. La dernière étape, Charger, enregistre les nouvelles données dans la base de données cible, terminant ainsi le processus de transfert de données.
Dans BigFix Inventory, l'étape éxtraire implique l'extraction de données depuis le serveur BigFix. Ces données incluent des informations relatives à l'infrastructure, aux agents installés et au logiciel détecté. ETL vérifie également si le nouveau catalogue des logiciels est disponible, collecte des informations sur l'analyse de logiciels et sur les fichiers présents sur les nœuds finaux et collecte des données depuis les gestionnaires de machine virtuelle.
Les données extraites sont ensuite transformées en un format unique qui peut être chargé dans la base de données BigFix Inventory. Cette étape implique également la mise en correspondance des données d'analyse avec le catalogue des logiciels, le calcul d'unités de valeur par coeur de processeur (PVU), le traitement de l'analyse de capacité et la conversion d'informations contenues dans les fichiers XML.
Une fois extraites et transformées, les données sont chargées dans la base de données et peuvent être utilisées par BigFix Inventory.