Principales tâches en arrière-plan de l'application

L'objectif principal de BigFix Inventory consiste à générer des rapports d'audit d'unités de valeur par processeur et d'unités de valeur par ressource sur la base des données collectées. Tous les calculs sont effectués en respectant les règles de tarification des unités de valeur par processeur et des unités de valeur par ressource qui sont décrites dans les documents officiels d'octroi de licences pour capacité partielle.

Agrégation

L'agrégation est la principale tâche de calcul dans BigFix Inventory. Le processus d'agrégation est une tâche en arrière-plan programmée qui s'exécute tous les jours à une heure déterminée. Par défaut, elle a lieu à minuit, heure serveur. La tâche calcule les valeurs en unités de valeur par processeur et unités de valeur par ressource sur la base des données collectées par les agents durant les analyses de logiciels et de capacités.

Nouvelle agrégation

Si les regroupements de logiciels initiaux sont corrects après la reconnaissance de logiciel et qu'il est inutile de les regrouper à nouveau, l'agrégation est le seul processus de calcul exigé côté serveur BigFix Inventory et les données initialement calculées sont toujours correctes. Toutefois, cela est rarement le cas. Vous devez toujours modifier certaines parties des regroupements initiaux qui sont proposés par BigFix Inventory. Vous devez toujours confirmer lesquels des regroupements sont corrects dans le cas de produits complexes. Un produit complexe est un produit qui peut être regroupé en plusieurs offres logicielles. Une fois le regroupement effectué, les valeurs en unités de valeur par processeur et en unités de valeur par ressource qui ont déjà été calculées doivent être actualisées. Les tâches de nouvelle agrégation sont conçues pour recalculer ou pour actualiser les valeurs en unités de valeur par processeur et en unités de valeur par ressource qui ont déjà été calculées. Les actions manuelles qui pourraient déclencher une nouvelle agrégation des données sont :
  • Un nouveau regroupement d'une instance logicielle depuis un produit vers un autre
  • La confirmation du regroupement par défaut
  • L'inclusion d'une instance logicielle dans des calculs d'unités de valeur par processeur ou d'unités de valeur par ressource
  • L'exclusion d'une instance logicielle de calculs d'unités de valeur par processeur ou d'unités de valeur par ressource
  • Le partage d'une instance
Ces cinq actions sont des opérations très basiques que les utilisateurs d'applications effectuent fréquemment pour ajuster le regroupement des données. Outre les actions manuelles, l'actualisation des données calculées peut également être déclenchée par une aide au regroupement.

Agrégation et nouvelle agrégation

Le processus d'agrégation est conçu pour calculer les données fournies par de nombreux agents pour tous les produits sur une courte période. Par opposition, le processus de nouvelle agrégation a pour objet d'effectuer un nouveau calcul rapide de valeurs en unités de valeur par processeur et en unités de valeur par ressource pour un sous-ensemble de produits qui ont déjà été agrégées. L'agrégation de tous les produits issus de tous les agents est beaucoup (voire jusqu'à des centaines de fois) plus rapide qu'une nouvelle agrégation du même volume de données. Toutefois, lorsque vous devez recalculer les valeurs en unités de valeur par processeur ou en unités de valeur par ressource d'un seul produit, la nouvelle agrégation devrait être plus rapide que l'agrégation précédente. En effet, cette dernière ne pouvait pas recalculer la valeur de rapport d'un seul produit et devait effectuer une nouvelle agrégation pour tous les produits reconnus simultanément.

Générateur d'inventaire

Le générateur d'inventaire est une autre tâche en arrière-plan qui est exécutée périodiquement. Au cours de cette période, l'inventaire des logiciels est établi sur la base de données issue des analyses de logiciels effectuées par l'agent. En d'autres termes, cette tâche transforme une liste des composants logiciels reconnus en une liste de produits logiciels reconnus. Dans la plupart des cas, le regroupement de logiciels initial de composants reconnus par le générateur d'inventaire a un niveau de confiance extrêmement bas.

Aide au regroupement

De la même manière que l'agrégation, l'aide au regroupement est une tâche périodique qui s'exécute en arrière-plan. Elle est strictement associée à la tâche du générateur d'inventaire : l'aide au regroupement démarre aussitôt l'exécution du générateur d'inventaire terminée.

Lorsque la tâche d'aide au regroupement s'exécute, elle détermine les meilleures connexions de regroupement avec toutes les instances de produit non confirmées. Si les nouveaux regroupements qui viennent d'être calculés ont un niveau de fiabilité plus élevé que les regroupements de produits en cours, l'assistant de regroupement regroupe ces instances de produit dans un nouveau produit présentant la meilleure correspondance. Dans la grande majorité des cas, les exécutions suivantes d'aide au regroupement obtiennent le même niveau de fiabilité pour la plupart voire la totalité des instances de produit non confirmées. Cependant, de temps à autre, notamment dans les vastes environnements comportant un pourcentage élevé d'instances non confirmées, ce qui dans la réalité peut se produire fréquemment, le nouveau niveau de fiabilité peut se révéler supérieur à l'ancien. Dans ce cas, l'instance logicielle est regroupée à nouveau. Les raisons les plus courantes pour lesquelles le regroupement automatique est en mesure de regrouper à nouveau un certain nombre d'instances de produit non confirmées sont les suivantes :
  • Importation d'une nouvelle série de références
  • Importation d'un nouveau catalogue des logiciels
  • Après un nouveau regroupement manuel ou la confirmation manuelle d'une instance de produit, d'autres instances de produit non confirmées peuvent être mieux regroupées en recourant à une partition ou en appliquant des règles de colocation d'infrastructure.
  • La détection d'un nouveau composant logiciel simple (un composant qui peut être affecté à un seul produit uniquement) par des agents peut également modifier les calculs pour d'autres instances non confirmées par suite d'une partition ou de l'application de règles d'aide au regroupement de colocation d'infrastructure.
L'aide au regroupement ne remplace pas toutefois le travail manuel qui doit être fait pour confirmer ou pour regrouper toutes les instances de produit non confirmées. Le niveau de fiabilité qui est calculé par l'assistant de regroupement est supposé faciliter le regroupement manuel en offrant les meilleures options de regroupement potentiel pour toutes les instances de produit non confirmées.

éxtraire, transformer et charger (ETL)

De manière générale, le processus ETL (éxtraire, transformer et charger) portant sur l'utilisation de la base de données combine trois fonctions de base de données qui visent à transférer les données depuis une base de données et à les placer dans une autre. La première étape, éxtraire, implique la lecture et l'extraction de données depuis divers systèmes source. La deuxième, Transformer, convertit les données de sa forme initiale en un format accepté par la base de données cible. La dernière étape, Charger, enregistre les nouvelles données dans la base de données cible, terminant ainsi le processus de transfert de données.

Dans BigFix Inventory, l'étape éxtraire implique l'extraction de données depuis le serveur BigFix. Ces données incluent des informations relatives à l'infrastructure, aux agents installés et au logiciel détecté. ETL vérifie également si le nouveau catalogue des logiciels est disponible, collecte des informations sur l'analyse de logiciels et sur les fichiers présents sur les nœuds finaux et collecte des données depuis les gestionnaires de machine virtuelle.

Les données extraites sont ensuite transformées en un format unique qui peut être chargé dans la base de données BigFix Inventory. Cette étape implique également la mise en correspondance des données d'analyse avec le catalogue des logiciels, le calcul d'unités de valeur par coeur de processeur (PVU), le traitement de l'analyse de capacité et la conversion d'informations contenues dans les fichiers XML.

Une fois extraites et transformées, les données sont chargées dans la base de données et peuvent être utilisées par BigFix Inventory.