Encyclopédie Wikimonde

Hitachi Content Platform

Aller à : navigation, rechercher
Orientation services de la solution HCP et différenciation technique et conceptuelle basée sur le modèle OAIS
HCP est une solution WORM, pour l'archivage actif, ainsi qu'une solution Cloud Storage orienté services

Hitachi Content Platform, aussi désigné par l'acronyme HCP (anciennement nommé HCAP pour Hitachi Content Archive Platform) est une solution logicielle et matérielle dédiée à l'origine pour l'archivage électronique à valeur probatoire de la société Hitachi Data Systems en réponse à la problématique de stockage WORM logique sur disque. Mais, depuis ses débuts cette solution de Stockage Objet a évolué vers ce qui est nommé le Cloud Storage ou plus précisément STaaS (STorage-as-a-Service) et le Stockage Objet (gestion de métadonnées personalisables). Le service WORM y est présent, mais est mis en œuvre comme une politique de conservation au niveau fichier et non comme une fonctionnalité principale sur toute la plate-forme.

Le terme Fixe Content File System (FCFS) est aussi désigné pour représenter l'utilisation du WORM au sein d'un système de fichiers. Le terme Fixed Content Aware Storage (FCAS) est aussi un vocabulaire employé dans les documentations des sociétés Américaines du stockage, ainsi que par la Storage Networking Industry Association (en) pour désigner le fonctionnement du protocole XAM.

La solution est constituée d'un environnement logiciel (Système distribué de Fichiers POSIX) et matériel (Cluster de serveurs 1U ou 2U en GRID et de stockage physique en RAID-6) répondant aux exigences de partage Web, de Stockage Objet (données et métadonnées), de conservation (gestion de rétentions) des données numériques, de sécurité (Certificat SSL, Tenant/Namespace, AD et LDAP) et d'intégrité de ces mêmes données (standard POSIX - Norme ISO 9660). Les accès en lecture (consultation) et écriture (versement/dépôt) se réalisent à travers le réseau IP local ou étendu via les protocoles principaux NFS, CIFS, SMTP et HTTP(S) (REST API, WebDAV, cURL et Amazon Simple Storage Service - S3).

Cette solution n'est pas unique, mais elle dénote la manière dont les acteurs IT répondent aux besoins d'extension des services autour du concept de Cloud et de volumétries fichiers très importante : solution logicielle, solution matérielle-logicielle (telle que HCP) et solution Web Public (telles que Microsoft Azure ou Amazon S3).

Système d'Archivage Électronique

Le modèle de référence OAIS (Open Archival Information Systems) fonde la base de la conception de la plate-forme HCP développée à l'origine par une Startup nommée Archivas dans les années 2003-2005.

Le moteur logiciel interne délivre des services d'archivage définis au niveau Serveur de Stockage dans le modèle de référence OAIS. Le service consultation est assuré par les protocoles NFS, CIFS et HTTP, mais aussi à travers le moteur d'indexation qui référence le contenu des documents et des métadonnées. Le moteur de recherche propose une interface HTTP. Il est accessible au travers de requêtes XML et propose la génération de liens RSS.

La représentation schématique du modèle OAIS est structurée au travers de règles générales de gestion des objets correspondant à un plan de conservation, mais aussi des règles d'ingestion et de consultation, proposant de garantir une indépendance aux applications, une conservation dans une infrastructure de stockage et une optimisation des recherches et d'indexation.

Si le système d'archivage d'origine est conservé dans le HCP, les services internes ont été développés pour couvrir d'autres domaines. Au niveau IT, la fonction d'archivage au sens conservation au-delà du support technologique tend à se généraliser (lentement). Les environnements métier prennent de plus en plus compte de cette dimension de gestion des données dans le temps. Le grand public est lui-même abordé par cette question et de nombreux services Web sont déjà disponibles pour stocker les documents numériques ou les documents numérisés.

Stockage Objet

Le principe de stockage objet est une représentation classique de fichiers dans une arborescence de répertoires, mais qui ajoute un niveau complémentaire dit de métadonnées. Chaque fichier est donc associé à des métadonnées et forme l'objet. Les métadonnées correspondent principalement à de l'information complémentaire à la donnée source.

Par exemple, une photo qui est accompagnée d'un descriptif est un objet : l'image est la donnée, la description précisant le contenu de la photo est la métadonnée. Ainsi, la photo peut être interprétée par un tiers qui n'est pas l'auteur et donc n'a pas nécessairement la connaissance pour interpréter la représentation de la photo. Un autre exemple : une musique, au format MP3, est constituée de la musique elle-même, mais aussi d'information complémentaire, comme le nom de l'album, l'auteur, le compositeur, l'année d'édition ou les paroles éventuelles. Ces informations peuvent être considérées comme les métadonnées de la musique.

Certains formats de fichiers contiennent donc à la fois la donnée et la métadonnée et d'autres formats proposent uniquement la donnée. Un système de fichiers objet propose donc une association d'un fichier source et d'un complément d'information pour tous types de format. En reprenant l'exemple de la musique, il est donc permis d'ajouter une métadonnée externe même à un fichier MP3. Cette information sera peut-être de nature différente que descriptive du fichier.

Archivage Actif dans le Système d'Information

Intégration IT d'une chaîne de traitement orienté archivage actif
Intégration IT de la solution d'archivage HCP

Dans la chaine de traitement d'une archive, la solution HCP se positionne au niveau stockage. Du fait de sa conception, HCP ne peut être associé directement à la fonction d'un Collecteur. Le Collecteur est le programme de récupération ou de capture des données à partir de l'application métier ou des environnements informatiques. Sa fonction minimale peut être comparée à de la migration, c'est-à-dire un déplacement de données à partir de règles de poids, de valeurs ou tout simplement de dates. Mais cette capacité de collecte est plus ou moins riche en fonction du type d'application et du niveau fonctionnel du Collecteur. Ainsi, le Collecteur peut être classifié depuis la catégorie HSM (Hierarchical Storage Management) à la catégorie Record Management, ou plus largement, la catégorie GED (Gestion Électronique des Documents).

Dans une architecture informatique, le Collecteur est parfois inutile si l'application cible et l'utilisateur sont en charge de cette fonction. Un premier exemple : le module ILM (Information Lifecycle Managment) de SAP se charge, au travers du protocole WebDAV, de transférer ces objets actifs vers le stockage HCP ou compatible, sans nécessiter de passerelle spécifique autre que le protocole. Un second exemple : une solution de messagerie (MS Exchange, Notes, etc.) peut journaliser tous les messages entrant et sortant vers la solution HCP, au travers du protocole SMTP (Simple Mail Transfer Protocol). Ces deux exemples illustrent la non nécessité, au niveau informatique, d'un Collecteur spécifique.

Dans la majeure partie des infrastructures, le Collecteur est bien présent. En effet, son rôle ne doit pas être négligé. Il apporte de réelles réponses en termes de classification et de validation de l'information, mais aussi pour la gestion et la délégation des droits d'accès. La solution HCP propose un certain nombre de services orientés Archivage, mais son positionnement reste axé sur la prise en charge et la gestion du stockage WORM.

Ce positionnement se décline dans HCP par une forte valeur ajoutée sur la prise en charge des archives, de la gestion des rétentions et des métadonnées. Il s'agit d'une déclinaison de services orienté sur le dépôt et la consultation des archives au travers de standards indépendants du constructeur de la solution. Cette orientation de la solution HCP s'accompagne d'une différenciation conceptuelle, qui dès la première version a pour objectif de respecter certaines règles inhérentes à un projet d'archivage :

  • l'indépendance octroyée à l'entreprise, l'utilisateur et l'application métier.
  • la capacité d'évolution d'un point de vue technologie de stockage, mais aussi de volumétrie et de nombre d'archives
  • la prise en compte des métadonnées métier mais aussi système, c'est-à-dire les politiques de conservation, de protection et de sécurité.

Architecture interne

HCP se structure physiquement autour d'un réseau IP privé d'échanges, géré par un Switch IP dédié, et de cellules ou nœuds. De base, HCP est bâti par une unité de stockage disque et deux nœuds (2x2 serveurs en Cluster). Le stockage est soit intégré aux serveurs (architecture RAIN - Redundant Array of Independent Nodes), soit disponible via une ou plusieurs baies de stockage (architecture SAIN - SAN plus Array of Independent Nodes).

Dans le cas d'une architecture SAIN, la liaison entre les serveurs et le stockage est de type accès direct ou en SAN FC. Des Switchs FC complètent l'ensemble en fonction du nombre de serveurs reliés et du niveau de disponibilité requis. Une option de haute disponibilité nommée DAP (Data Access Protection) permet d'augmenter l'accessibilité aux données, par l'installation de deux cartes HBA sur chaque serveur. Ainsi en cas de rupture d'un serveur ou d'une zone de stockage, l'accès matériel est toujours garanti. L'architecture interne du réseau de stockage et de liens avec les serveurs devrait évoluer vers une connectique unique FCoE.

En aperçu général, l'environnement logiciel HCP est composé des services et des fonctionnalités suivantes :

  • Plus de 32 milliards d'objets :
    • Objet HCP : fichier (archive source), métadonnées (système et métier) et politique (rétention, répliqua, date, droits, indexation, etc.).
  • +40 Po et 160 serveurs dans une seule plate-forme répartie
    • Support intégré de baies Hitachi de stockage multiples et de différentes générations.
    • Support de serveurs Hitachi 2U et de serveurs Blade Hitachi avec processeur Intel
  • Environnement ROBO (Remote Office Branch Office)
    • Une extension matérielle, nommé Hitachi Data Ingestor, permet de porter un Cache Disque HCP sur des sites distants et offrir un accès NFS/CIFS au plus près d'utilisateurs. Ce matériel est disponible en Single Serveur, Cluster et image VMware. HDI transfert les données automatiquement vers un HCP via le protocole HTTPs. Il sert alors de NAS local avec un stockage représentant une volumétrie de travail sur les données récentes étendue sur une volumétrie plus importante sur un HCP.
  • Fichier XML définissant des métadonnées aux niveaux :
    • Système - Core : signature, répliqua, droit, rétention (nulle, infinie, date fixe), etc.
    • Métier - Custom : description spécifique au fichier mis en dépôt et compléter par l'utilisateur ou l'application propriétaire (information complémentaire, horodatage, signature externe, etc.).
  • Gestion de répliquas
    • Capacité de gérer automatiquement jusqu'à 4 copies de l'original mis en dépôt.
  • Accès multi protocoles natifs Default Tenant et Multiple Tenant
  • Indexation de contenu – FAST :
    • Plus de 370 formats reconnus sur 77 langues.
    • Capacité de requêtes XML.
  • Autres fonctionnalités embarquées :
    • Empreinte (MD5, SHA-1, SHA-256, SHA-512 et RIPEMD-160) Encodage (AES), Shredding, Réplication, Déduplication, Compression, Quota, etc.
    • Administration, supervision et métriques : GUI Web, MIB SNMP, mode CLI, Logs, REST API (XML et JSON), etc.

Déclinaisons Produit

La solution HCP est proposée en plusieurs déclinaisons :

  • Edition VMware : il s'agit de l'environnement logiciel HCP livré sous la forme de VMs pour être installés sur ESX.
  • Appliance : c'est-à-dire une solution complète embarquant le logiciel, les serveurs de traitement et le stockage interne aux serveurs (HCP 300) ou externe sur une ou plusieurs baie (HCP 500). Le tout pré configuré et câblé en usine. L'administrateur ne gère pas les volumes disques et ne réalise aucune administration et configuration du stockage, qui est intégré au fonctionnel de l'Appliance.
  • Disk Less (DL) : identique à la déclinaison Appliance, mais livrée sans disque. L'entreprise utilise son stockage AMS, USP et/ou VSP Hitachi déjà existant. Il s'agit alors uniquement, d'une intégration de serveurs de traitement et de la solution logicielle. Une déclinaison DL permet un partage de la baie de stockage avec d'autres environnements connectés au réseau SAN FC.
  • La dernière déclinaison est disponible dans les éditions Appliance et Disk-Less, mais apporte un plus au niveau performance (HCP 500 XL). Il s'agit donc d'une solution qui délivre un axe de haute performance supplémentaire. La configuration matérielle est constituée à la fois de stockage interne aux serveurs et à la fois de stockage externe sur une ou plusieurs baies de stockage.

Les serveurs HCP sont de configuration classique 2U, basés sur du matériel Hitachi (Compute Rack 220 ou 210). HCP est une solution dite ouverte par son concept d'architecture, mais aussi par son mode d'accès en lecture et écriture. Ainsi, un certain nombre de protocoles standards sont disponibles sans option et sans concurrence d'accès. C'est-à-dire que l'accès aux données sur HCP est réalisé par le ou les protocoles HTTP(s), S3, SMTP, NFS et CIFS en fonction des besoins de l'architecture métier.

Résumé des fonctionnels

Intégrité

Calcul/vérification d'empreinte Calcul d'une empreinte au choix : SHA, RIP, MD5. Vérification continue et à chaque consultation
Horodatage Lien avec au moins un Serveur NTP. Insertion dans les métadonnées
Sécurisation interne des données Surveillance de non substitution de la donnée.

Réplica de données (DPL) et de métadonnées (MDPL). Signature des données et des métadonnées.

Traces des actions Toutes les opérations sont tracées via Syslog. Une MIB SNMP permet aussi la collecte de Logs.

Confidentialité

Authentification de l'utilisateur et/ou de l'application Authentification des accès via des liens SSL.

Autorisation IP, accès contrôlés via Annuaire

Séparation d'accès aux données et de l'administration Cloisonnement fort entre l'administrateur de la plate-forme et les propriétaires des données.
Segmentation applicative des espaces de données Utilisation du concept de Tenant, afin de segmenter les espaces logiques et aussi les accès.

Pérennité

Évolution de volumes et de puissance Volume jusqu'à 40 Po. Dépôt jusqu'à 64 milliards de fichiers.

Puissance jusqu'à 80 unités centrales.

Mise à jour des versions logicielles Planification automatique de déploiement des évolutions à partir d'une unité centrale.
Intégration de nouvelles technologies Par ajout de nouveaux serveurs ou de capacité volume (baie de stockage et/ou disque).
Cohabitation de technologies anciennes et récentes dans une même plateforme Capacité de mixer différentes générations d'unités centrales et de stockage.
Migration des données vers et depuis la plate-forme HCP Data Migrator : logiciel compris, en mode CLI et GUI, de transfert/migration de données et métadonnées depuis, vers et entre HCP.

Disponibilité

Réplication des données Transfert sélectif, asynchrone et multi directionnel via IP des données avec liens SSL.
Migration de données HCP Data Migrator : GUI et mode CLI.
Disponibilité de la solution Le SLA est de 99,999%
Redondance des éléments matériels Tous les composants matériels sont redondés ainsi que les chemins d'accès internes et externes.
Régénération des données Fonction automatisée via DPL ou réplication.
Monitoring GUI, MIB SNMP, Syslog, Hitachi HiTrack et HCP Management API.

Accessibilité

Écriture NFS, CIFS, FTP, HTTPs (WebDAV, cURL et Amazon S3), SMTP, DICOM, HL7, XDS et XDS-I.
Lecture NFS, CIFS, FTP, HTTPs (WebDAV, cURL et Amazon S3), NDMP, DICOM, HL7, XDS et XDS-I.
Administration HTTPs, SNMP, RADIUS et HCP Management API (M-API).
Indexation et Recherche - interne Metadata Query Engine via HTTPs.
Indexation et Recherche - externe CIFS, NFS & HTTPs.

Réglementation

Conformité française Conforme aux recommandations de la CNIL.

Vis-à-vis de la norme NF Z42-013:2009, HCP est une solution de stockage WORM logique qu'il est possible d'implémenter dans le cadre de la mise en œuvre d'un système d'archivage électronique NF Z42-013:2009. HCP permet d'aider à la mise en œuvre de la norme en tant que composant. À ce titre, HCP est conforme à la norme NF Z42-020:2012 (Composant coffre-fort numérique). Un SAE conforme aux spécifications NF Z42-013 pourra s'appuyer sur le composant HCP classifié dans la catégorie support réinscriptible par la NF Z42-013. Les technologies minimales exigées par la norme sont mises en œuvre par HCP :

  • Shredding
  • Traçabilité-Logs
  • Sécurisation
  • Empreinte
Conformité internationale
  • ISO 8601 : formalisation pour les dates.
  • ISO 9660 : Portable Operating System Interface (POSIX).
  • ISO 14721 : modèle Open Archival Information Systems.
  • ISO/TR 15801 : Electronic Imaging.
  • ISO 27001 : contribution à la confidentialité, c'est-à-dire que l'information est accessible uniquement par ceux dont l'accès est autorisé.
Autres règlementations
  • US DoD 5520-M : Shredding
  • SEC 17a-4 : validation, intégrité, vérification, qualité, disponibilité et audit
  • Sarbanes-Oxley, OSHA, HIPAA, FRCP, DISC PD0008, NASD 2210/3210, …

FAQ - Questions et Réponses Fréquentes

Description du processus d'écriture et de contrôle des données

Tout d'abord l'écriture des données est réalisée via le réseau IP de l'entreprise par l'un des protocoles activés (CIFS, NFS, HTTPs, …). Dès réception complète de la donnée, sa prise en compte par HCP débute par le calcul d'une empreinte avec un des algorithmes du HCP MD5, SHA, etc. L'empreinte est enregistrée dans un premier fichier dédié nommé core-metadata.xml et dans un second fichier nommé hash.txt. Les deux fichiers, non modifiables, sont présents dans l'arborescence Metadata et accessibles, depuis le réseau IP, via l'un des protocoles activés (CIFS, NFS, HTTPs, …). Une fois déposé le nom du fichier et son contenu ne peuvent être changés, même si la date de rétention est nulle ou arrivée au terme de sa conservation. Tout au long de la conservation du fichier, un processus spécifique (nommé Scavenging) interne à la plate-forme HCP effectue des vérifications sur son intégrité. Une vérification est aussi réalisée lors d'un accès en lecture au fichier.

Par exemple, pour la partie accès CIFS, HCP utilise des codes retours associés à ce protocole, comme le NT_STATUS_ACCESS_DENIED. Ce code retour est renvoyé pour refuser les opérations suivantes : renommer un objet ; renommer ou détruire un répertoire qui contient au moins un objet ; écraser un objet ; modifier le contenu d'un objet ; détruire un objet sous rétention ; ajouter un fichier dans la partie métadonnées à l'exception du fichier custom-metadata.xml ; détruire un fichier ou un répertoire Métadonnée et créer un lien. Ces interdictions sont une liste des actions qui permettent de garantir qu'il n'y a aucune possibilité de substitution des données.

Replica - Duplication interne des données

Avec l'utilisation du mode Réplica (Data Protection Level), chaque fichier (archive) déposé est systématiquement dupliqué en interne vers une zone de stockage différente et gérée par un autre serveur. Ainsi le dépôt source et sa copie sont situés sur des Groupes RAID-6 physiques différents, dont l'accès est géré par des serveurs (contrôleurs) différents. En cas d'altération du fichier, HCP reconstruit automatiquement le fichier, et les métadonnées, à partir de sa copie et ajoute une information dans les Logs (début, arrêt avant la fin, violation, fin et succès du traitement).

La partie Métadonnée est aussi prise en charge par les politiques de duplication, mais par défaut est sans aucune politique de DPL, les métadonnées sont toujours doublées.

Détection et non substitution de données

Dès son enregistrement la donnée ne peut être modifiée et ne peut être substituée, même par le propriétaire. Toute opération d'ouverture du fichier en mode écriture est strictement interdite, même si le fichier est au delà de sa période de rétention. Le système de fichiers POSIX de stockage des fichiers est contrôlé directement par HCP. Aucun mécanisme ne permet d'interférer dans la modification ou le remplacement d'un fichier pendant la période de rétention. Après la période de rétention et en fonction des autorisations d'accès, la seule opération autorisée est la suppression définitive du fichier.

En cas de suppression après la rétention, puis copie d'un nouveau fichier dans un objectif de substitution, il sera possible de détecter l'opération, car HCP enregistre la date de dépôt, donc la date du fichier de substitution éventuelle. Cette date de dépôt est enregistrée dans un premier fichier nommée core-metadata.xml et dans un second fichier nommé created.txt. Les deux fichiers sont non modifiables, présents dans l'arborescence Metadata et accessibles, depuis le réseau IP, via l'un des protocoles activés (CIFS, NFS, HTTPs, …). En cas de fichier dit non réparable, c'est-à-dire que le fichier source est détecté comme altéré et que sa restauration par sa copie interne (Replica) échoue, une notification d'alerte est enregistrée (SNMP et Syslog). L'interface graphique d'administration propose aussi une vue spécifique sur ces fichiers corrompus.

Tenue d'un journal d'évènements

Le journal des évènements du système HCP (System Log Events) comprend des informations liées à l'activité de la plate-forme : arrêt, démarrage, suppression de compte, sauvegarde, mot de passe invalide, service spécifique stoppé, lien réseau, serveur de temps inaccessible, etc.

L'accès à ces Logs s'effectue principalement via 4 modes : l'interface d'administration avec les droits Monitor; l'outil Medatdata Query Engine (MQE - interrogation sur les métadonnées via un mode commande CLI, REST API et GUI : fonctionnel livré de base avec la plate-forme) le protocole SNMP et le protocole Syslog.

Syslog est le protocole le plus couramment utilisé. Il s'agit d'un service de journaux d'événements d'un système informatique, mais donne aussi son nom au format d'échange. Ce protocole se compose d'une partie Client et d'une partie Serveur. HCP se comporte comme un client en émettant les informations sur le réseau via le port UDP 514. La partie serveur doit collecter les informations, pour centraliser les journaux d'événements.

Un événement HCP est composé d'un identifiant unique, le numéro de segment du message (un événement Syslog ne peut excéder 1024 caractères, celui-ci peut donc être découpé en plusieurs segments), l'identifiant de l'événement, la date, la sévérité, l'identification du serveur HCP, le volume (stockage) concerné, le nom de l'utilisateur éventuel lié à l'événement, une courte description de l'événement (uniquement pour SNMP ) et le message complet.

En plus des événements systèmes envoyés par les protocoles SNMP et Syslog, HCP maintient des Logs internes. Il s'agit d'enregistrements sur l'activité des composants HCP. Ces Logs internes sont uniquement utiles à diagnostiquer un problème interne par le support Hitachi. Ces Logs internes sont conservés sur une période de 35 jours. Lors d'une récupération par un téléchargement depuis l'interface d'administration, le fichier récupéré est chiffré et ne peut être lu que par le support Hitachi.

Destruction effective des données

La destruction d'un fichier ne peut être réalisée qu'au terme de la rétention. L'ordre de suppression n'est pas réalisé par HCP, mais doit être donnée par l'application Métier (ou Collecteur). Elle se réalise via l'un des protocoles activés (CIFS, NFS, HTTPs, …), comme pour un fichier standard. L'ordre de suppression provoque dans la solution Hitachi Content Platform la suppression du fichier cible, de sa copie interne (Réplica : Data Protection Level) et des métadonnées associées. Cette suppression est accompagnée d'une opération dite de Shredding (suppression sécurisée). C'est-à-dire la mise en œuvre d'une opération de suppression effective des données sur le disque et non uniquement d'une suppression des descripteurs (inodes ou pointeurs). Ce mécanisme normé assure que le contenu du fichier ne pourra être lu même par une lecture physique du disque dur.

Le traitement d'une opération de Shredding peut faire l'objet d'un enregistrement d'évènement pour être collecté via le protocole Syslog.

Capacité de développement logiciel et d'intégration applicative

Le support natif du protocole HTTP embarque l'intégration des accès par WebDAV, REST API, S3 et cURL. Ainsi, en plus des protocoles CIFS et NFS pour un accès direct en mode système de fichiers, il est très aisé d'utiliser les modes d'accès Web pour dialoguer avec la solution HCP, afin d'assurer l'écriture (Upload) et la lecture (Download) de tout type de document ou de positionner des paramétrages ou récupérer des informations (support XML et JSON).

En exemple et pour illustrer la simplification et la facilité de développement sur HCP, la bibliothèque cURL est disponible dans le domaine public en ligne de commande (mode CLI) sur un très grand nombre de systèmes d'exploitation, mais aussi via client REST et le langage PHP.

Via HTTP, le mode Web est privilégié, car il autorise des accès non dépendant d'un réseau local et permet des niveaux de performance en accord avec l'architecture Cloud réparti du HCP, par le traitement parallèle des flux entrants et sortants, car tous les serveurs HCP sont disponibles et travaillent ensemble à la répartition des charges et du stockage des documents. Plus le nombre de serveurs HCP est important plus le nombre de traitement parallèle est possible, tout en accédant à un seul espace de stockage consolidé. SNMP et Syslog contribuent aussi à une intégration avancée et au développement d'application au-dessus de la solution HCP. Le premier au niveau administration de la plate-forme. Le second à la collecte des journaux d'activité et la traçabilité.

Archivage de messagerie électronique

L'archivage des courriels peut-être réalisé à travers des outils de délestage de messagerie qui collectent les courriels et les pièces jointes et effectuent un enregistrement sur le stockage HCP.

Dans le cadre d'un archivage avec une orientation dite Compliant ou Valeur Probante, c'est-à-dire de conservation probante sur un support adapté (WORM logique), il est permis d'envoyer directement les courriels via le protocole SMTP qui est nativement supporté par HCP. Ainsi, un administrateur de messagerie peut définir des règles de transfert vers HCP directement à partir de son application de messagerie. Par exemple, Microsoft Exchange 2010 propose tout un service applicatif, au travers de la journalisation des courriels et leurs pièces jointes sont envoyés sur HCP, pour y être stockés dans une arborescence fichiers et être classifiés automatiquement par date. Le moteur d'indexation HCP peut être utilisé, afin de retrouver les courriels par propriétaire, destinataire ou contenu, même au sein des documents en attachement.

Conservation de Journaux d'Évènements

Le marché du traitement sécurisé des Journaux d'Évènements (Syslog, SNMP, etc.) est une cible pour la solution Hitachi Content Platform. Les journaux d'évènements sont une source de détection et d'analyse d'incidents, de traçabilité et surtout de sécurité, pour comprendre et interpréter une activité afin d'apporter les corrections préventives sur les causes identifiées. Il est nécessaire de conserver ces informations et d'en assurer l'intégrité. Au travers du protocole SMTP disponible de base dans la solution HCP, il est aisé d'envoyer des messages électroniques avec des documents attachés issus de traces (Logs) d'activités de divers systèmes applicatifs et équipements informatiques. L'utilisation du moteur d'indexation interne et des interfaces de recherche de la solution HCP facilite les exigences sur les audits, les métriques et la réalisation de tableaux de bord.

Chaque entreprise est confrontée à la gestion de ce type d'information et, pour une part, à leur conservation réglementée. En dehors du service informatique de base qui consiste à suivre et interpréter la corrélation d'incidents, une bonne gestion et conservation des Évènements permet aussi de répondre à des contraintes de sécurité et de responsabilité avec plus ou moins d'inhérence suivant les secteurs.

Ce marché sera d'autant plus important que la réglementation évolue avec la notion de traçabilité des activités, telle que la conformité à la norme ISO 27001 qui prend de l'ampleur et qui intéresse fortement les RSSI. L'objet de cette norme est de définir les mesures nécessaires à la sécurité des biens sensibles de l'entreprise liés à son système d'information. HCP n'est pas directement « certifié » ISO 27001, mais est un outil informatique s'intégrant et facilitant la mise en œuvre d'une stratégie liée à cette norme pour le Système de Management de la Sécurité de l'Information (SMSI).

Migration de données

Pour faciliter le transfert de fichiers vers le HCP sans application métier, les méthodes possibles sont nombreuses et la plus simple consiste à un copier-coller dans un partage réseau CIFS ou NFS. Mais pour industrialiser certaines opérations de transfert vers ou depuis une solution Hitachi Content Platform, l'outil logiciel HCP Data Migrator, disponible de base avec chaque configuration, propose une interface graphique et une interface mode commande (CLI), de transfert et de copie de données. Par exemple, HCP Data Migrator permet de collecter des fichiers d'une arborescence Windows, Linux et Unix pour les copier vers un Tenant. La copie ou le déplacement (avec suppression de la source) peut être réalisé à la demande ou programmée pour une exécution régulière.

Voir aussi

Références Utilisateurs

Liens internes

Liens externes

Cet article « Hitachi Content Platform » est issu de Wikimonde Plus.

Erreur Lua dans Module:Suivi_des_biographies à la ligne 189 : attempt to index field 'wikibase' (a nil value).