Vue d'ensemble SAP HANA





Blog Language



 

                SAP, le leader mondial des logiciels d'entreprise, a fondé une solution innovante répondant au problème de la manipulation et de l'analyse de gros volumes de données. Par le biais de 1500 professionnels, SAP a donné naissance à ce qui est aujourd'hui la solution ayant la plus grande croissance dans les 40 dernières années de l'entreprise. En conséquence d'une innovation collaborative avec Intel Corporation - qui a écrit des directions basées HANA dans leur dernière génération de puces, en attribuant 400 ingénieurs au projet - le logiciel et le matériel se sont donc améliorés pour fournir une augmentation de vitesse inégalée pour l'analyse complexe de plusieurs milliards d’enregistrements de données. Parce que l'innovation SAP HANA a été conçue depuis le début pour utiliser les « chipsets » de nouvelle génération et des principales architectures mémoire, elle produit un niveau de performance qui dépasse considérablement celui des systèmes de gestion de bases de données classiques.

                SAP HANA est une solution exceptionnelle au problème de gestion de larges volumes de données, parce que la rationalité à appliquer aux données, et toutes les données qui seront sous réserve de l'administration, sont tous deux contenus tous le temps dans la mémoire principale. La mémoire extérieure - dans les unités de disque d'état solide ou filage - ne fait pas partie du chemin de calcul, SAP HANA est une innovation de calcul haute performance qui peut atteindre des vitesses de plusieurs milliers de fois plus hautes que les bases de données classiques. Pourtant, parce qu’elle repose sur des principes ouverts, SAP HANA peut  accélérer considérablement  la vitesse de n’importe quelle implémentation existante ou interface utilisateur tournant déjà dans votre organisation. Les compétences nécessaires pour faire fonctionner l'architecture SAP HANA et de construire un processus d'analyse simple et disponible.

Une solution d'analyse de données

D'un point de vue physique, l'analyse de données se compose de trois piliers : le processeur qui effectue les calculs, le stockage pour stocker les données (calculées) et une technique pour les transferts de données entre les deux. Bien entendu, le plus lent de ces facteurs est le goulot d'étranglement pour le fonctionnement de l'analyse des données numériques. Le goulot d'étranglement actuel est la lenteur du stockage. Plus précisément, ce n'est pas la lenteur de la mémoire vive, mais celle des disques durs. La puissance de traitement ne sert pas à pleine mesure, car les données traitées ne sont pas récupérées assez rapidement à partir des disques. « In-Memory Computing », brièvement, est le déplacement des données, qui  généralement sont stockées sur disques durs vers la mémoire. En se concentrant sur les aspects matériels purs, le temps d'attente est radicalement réduit. Considérant, par exemple, des essais avec la conception Nehalem

d'Intel, la latence de stockage est réduite d'un million de cycles de CPU à une moyenne de 250 cycles de processeur. Par conséquent, le processus d'analyse des données est soumis à une accélération énorme.

Des bases de données particulières sont nécessaires pour déplacer les données en mémoire. Un exemple pour ce type de bases de données est le SAP HANA In-Memory, qui a été publié par SAP.

Contrairement aux offres classiques, les bases de données en mémoire ne sont pas seulement liées à l’exploitation des avantages matériels. Le traitement intelligent des données, la compression  des données,  et un moteur de calcul intégré, ce qui donne des résultats en temps quasi-réel  aux requêtes de données complexes, permettent des performances supplémentaires avancées.

 En outre, ces qualités permettent le traitement à la fois des données analytiques et transactionnelles. Enfin, il devient possible d'utiliser les applications opérationnelles et l'analyse des données en temps réel sur la même base de données. Le cas d'un client expérimental pour SAP HANA démontre le potentiel gain de performance. Le client a réussi à diminuer le temps nécessaire pour l’exécution d’un rapport d'une heure à une seule seconde. C'est 3.600 fois plus vite qu'auparavant.

Dans un procédé à base d'entrepôt de données classique, les données brutes sont stockées dans un « Data Warehouse ». Une partie des données se propage aux « Datamarts » dans le but de la perspective, la pré-agrégation et le pré-calcul spécifiques à l'utilisateur. Les résultats, qui sont enregistrés dans un « Datamart », sont exploités par les applications analytiques de « business intelligence » pour la manipulation et la production des résultats. Comme dans un entrepôt de données classique, les données brutes sont stockées dans un entrepôt de données en mémoire. Néanmoins, les applications de « business intelligence » ne demandent pas des fractions de résultats des « Datamarts», mais les résultats à partir des données de l’entrepôt de données in-Memory. Les résultats sont calculés en temps quasi réel en interrogeant le moteur de calcul intégré. Le but des applications de "Business Intelligence" est réduit à l’affichage approprié des résultats interrogés. Le niveau de « Datamarts» devient obsolète. De plus, les entrepôts de données compatibles  In-Memory  permettent une mise à jour récurrente des données brutes de telle sorte que par exemple, les applications transactionnelles peuvent ouvertement alimenter des données dans l’entrepôt de données In-Memory.



blog comments powered by Disqus