Préparation des sources de données Apache Hadoop Hive pour Unica Campaign
Suivez la procédure ci-dessous pour préparer les sources de données Apache Hadoop utilisant Hive en vue de leur utilisation dans . Unica Campaign
Pourquoi et quand exécuter cette tâche
Unica Campaign ne prend en charge Apache Hadoop Hive que pour les tables client, non pour les tables système. Pour plus d'informations sur les versions prises en charge, voir le document Recommended Software Environments and Minimum System Requirements.
| Tâche | Description |
|---|---|
Vous pouvez installer le pilote ODBC DataDirect Hive de Progress Software, le pilote ODBC Cloudera Hive de Cloudera ou le pilote ODBC Hortonworks Hive d'Hortonworks, Inc, Inc. | |
La configuration comprend la modification des fichiers .ini et la définition des chemins et des variables d'environnement. Suivez les instructions qui correspondent au pilote installé. | |
C. Mappez les tables HBase existantes à Hive (FACULTATIF) |
Cette étape n'est requise que si vous possédez des tables existantes qui ont été créées dans Apache HBase. |
D. Importez et configurez le modèle de source de données BigDataODBCHiveTemplate dans Unica Campaign |
Utilisez l'utilitaire configTool pour importer le modèle BigDataODBCHive.xml dans Unica Campaign. Puis, accédez à Campaign|partitions|partition[n]| dataSources et créez une source de données à partir du modèle BigDataODBCHiveTemplate importé. |
E. Configurer SSH sur le serveur de programme d'écoute Unica Campaign |
Pour permettre le transfert des fichiers de données entre le serveur (analytique) du programme d'écoute de Unica Campaign et l'instance big data Hadoop utilisant Hive, vous devez configurer la connexion transparente SCP et SSH. |
Le mappage des tables utilisateur est le processus constituant à rendre les sources de données externes accessibles dans Unica Campaign. |