Découvrir l'In-Memory Computing





Blog Language



 

Explorer la technologie

 

D’énormes quantités de données sont produites chaque année, et la rapidité dont votre business s'y adapte décide de votre réussite. Cela devient de plus en plus une énorme préoccupation pour les entreprises.

 

Actuellement, les tendances d'usage vont au-dessus de ce qui est même estimé, à ce que les entreprises se posent la question sur leur pouvoir de supporter leur business. Les professionnels veulent un accès instantané à l'information, que ce soit pour une période de risque ou pour une indication d'une opportunité. Les professionnels veulent des réponses immédiates, précises et disponibles partout et à n’importe quel moment.

 

Ces nouveaux changements positionnent l’ « IT » dans une situation difficile. L’ « IT » n'est plus en mesure de fournir tout ce dont l'entreprise a besoin. Pourquoi ? Parce que le coût du contrôle de la croissance des données est trop élevé. Parce qu'il n’existe pas de moyen éprouvé permettant d'analyser immédiatement tout ce qui se passe par rapport à l’entreprise. L’IT peut fournir une partie de l’information. La tranche la plus critique de l'information peut être livrée en temps réel. Mais cela n’est pas assez suffisant. Les volumes des données augmentent de plus en plus et ainsi va la demande. Nous devons trouver un moyen de faire face à cela,  un moyen de traiter et d'analyser les quantités de données massives en temps réel. Tel est le rôle de l' « In-Memory Computing ». 

 

Création de la valeur

 

L’idée de l’ « In-Memory » est une innovation futuriste principale aux yeux du monde de l'entreprise. Il est prévu que 30 pour cent de toutes les organisations d'affaires auront une ou plusieurs applications situées sdes systèmes de base de données en mémoire au cours des cinq années à venir. L'informatique en mémoire est l'une des innovations tactiques les plus hautes et labélisée comme une technologie ayant le potentiel d’un impact significatif sur l'entreprise au cours des prochaines années. Les innovations de l’informatique en mémoire marquent un point d'inflexion pour les applications d’entreprises, et cette technologie conduira fondamentalement à des processus métiers améliorés, à une meilleure prise de décision et à de nouvelles normes de performance pour les applications d’entreprise. Néanmoins, alors que l'idée derrière l'informatique en mémoire peut être mature, certains experts affirment qu'il y a une carence dans les types de connaissances nécessaire pour appréhender la valeur commerciale de l'innovation en mémoire.

 

L'objectif principal de l'informatique en mémoire est résumé dans la gestion des données et des applications qui sont stockées dans la mémoire principale de l'ordinateur, dans le but d’éviter les accès Entrés/Sorties très lents vers le disque dur physique. Ce procédé aboutit à une augmentation significative de la capacité de traitement des données. Par exemple, SAP annonce une augmentation de la vitesse des transactions par des facteurs allants jusqu'à 100 000 pour sa solution « In-Memory  HANA » (High-performance Analytic Appliance). 

 

Outre les considérations techniques, des scénarii d'application dans le monde réel pour démontrer la valeur commerciale tangible de la technologie en mémoire ne sont pas encore assez nombreux. L’augmentation de la vitesse de traitement des transactions seule pourrait ne pas payer, compte tenu des investissements importants nécessaires pour mettre en œuvre la nouvelle technologie.  Les bases technologiques de l'informatique en mémoire ont été développées depuis quelques années, mais seulement les développements récents dans le domaine de l’informatique « Hardware » ont rendu l'utilisation de ces technologies économiquement viable.

 

                               Evolution de l’ « In-Memory Computing »

 

Comme résultat de ces développements (principalement l’augmentation de la taille de la mémoire principale et de la puissance du calcul à des prix abordables), de nombreux fournisseurs de logiciels d'entreprise (par exemple : IBM, Oracle, QlikTech, SAP, TIBCO) ont commencé la construction de la technologie en mémoire dans leurs systèmes d’applications. Ces nouvelles offres défient les décideurs dans les services de l’informatique et de l’industrie logicielle à déterminer l’étendue des applications basées « In-Memory » et leur valeur commerciale ajoutée.

 

L’impact de la technologie sur les entreprises

L'impact de la technologie en mémoire peut être décrit en termes de cinq caractéristiques primaires. Tout d'abord, les données sont stockées entièrement dans la mémoire principale de l'ordinateur plutôt que sur des disques durs, ce qui permet une diminution spectaculaire dans le temps d’accès aux données. En raison de la disponibilité de grandes capacités de la mémoire principale et de la baisse des prix pour des capacités supplémentaires, des bases de données entières peuvent  être déplacées de  façon permanente vers la mémoire principale du serveur. De tels systèmes sont appelés les systèmes de gestion de bases de données « In-Memory » ou « IMDBMS » (In-Memory DataBase Management Systems).

La deuxième caractéristique de la technologie en mémoire est que plusieurs processeurs peuvent traiter en parallèle les requêtes, en utilisant ainsi entièrement les ressources informatiques disponibles. L'utilisation du parallélisme par plusieurs unités de traitement permet aux algorithmes de diviser pour présenter plusieurs unités de calcul et de nombreuses opérations à exécuter en même temps.

Troisièmement, une approche mixte de stockage orientée ligne et colonne est appliquée dans « IMDBMS » au lieu de l'approche basée sur les lignes seules mise en œuvre dans les systèmes traditionnels de gestion de bases de données relationnelles (SGBDR). Le stockage par rangée permet de lire les enregistrements uniques rapidement, mais n’est pas bien adapté à la lecture d'un ensemble de résultats d'une seule colonne. D'autre part, les bases de données en colonnes sont bien adaptées aux calculs, comme les agrégats exécutés sur une seule ou seulement quelques colonnes. Le stockage orienté colonne fournit des avantages significatifs pour les processeurs modernes plus que les SGBDR traditionnels orientées ligne, comme il améliore la compression des données et permet un traitement parallèle massif et un accès efficaces à la mémoire.

Quatrièmement, « IMDBMS » offrent des techniques de compression comme l’encodage dictionnaire et l’encodage à longueur d’exécution qui réduisent considérablement la taille des données. On compte une compression de 35 Go pour une table de base de données orientée en ligne en 8 Go pour une table orientée colonne en raison de la compression verticale efficace le long des colonnes.

Cinquièmement, « IMDBMS » adopte une approche d'insertion seule, donc une base de données ne permet pas à des applications d’effectuer des mises à jour ou des suppressions sur des enregistrements de données stockées physiquement. Par conséquent, les changements d’enregistrements doivent être marqués comme valide ou non valide, soit par l'intermédiaire d'une représentation du point, qui utilise un unique horodatage et ne stocke que les différences entre les nouveaux enregistrements et les anciens. Ou par la représentation d'intervalle, qui stocke l’enregistrement entier ainsi que toute autre information nécessaire pour déterminer combien de temps il est valide.

 

 

architecture des systèmes de gestion en mémoire

 

Ces cinq caractéristiques sont essentielles pour une augmentation significative de la performance de gestion des données. Des études qui examinent les possibilités offertes par cette augmentation se réfèrent aux concepts de l'informatique en temps réel et de l’informatique à haute performance, qui ont tous deux fait l'objet de recherches en sciences informatiques depuis des décennies.

L'objectif de l’informatique à haute performance est de minimiser la moyenne du temps de réponse d'une tâche. 

Le vrai terme indique que la réaction d'un système en temps réel à des événements externes doit avoir lieu au cours de ces événements, bien qu'une distinction entre les systèmes en temps réel dits « hard » et ceux dits « soft »  peut être faite. Manquer un délai de tâche dans les systèmes en temps réel « soft » conduit « seulement » à une perte de valeur commerciale, mais manquer une date limite de la tâche dans les systèmes en temps réel « Hard » résulte souvent en des conséquences catastrophiques menant ainsi à l'échec total d'un système (par exemple, un système de contrôle de trafic aérien).

Originaire dans les produits logiciels de « business intelligence », la technologie en mémoire a été intégrée dans les applications de la plupart des fournisseurs de systèmes d'entreprise. Un des exemples est la solution en mémoire « HANA » produite par SAP. Oracle avait d'abord une vision critique de la technologie en mémoire, avec le fondateur d'Oracle et chef de la direction Larry Ellison qui avait décrit l'idée comme « ridicule ». Aujourd'hui, cependant, même Oracle est entré sur le marché avec une solution en mémoire appelée « In-Memory Oracle Exalytics ».

À la lumière de ces évolutions du marché et de l'intérêt de trouver des idées supplémentaires pour l’entreprise grâce à des initiatives Big Data, les systèmes d'application en mémoire ont acquis une importance croissante pour les décideurs dans le domaine des systèmes d'information d'entreprise. Pourtant, des avantages spécifiques en termes de création de valeur économique ne sont pas encore tout à fait compris, donc les directeurs informatiques restent préoccupés par la mesure dans laquelle les systèmes d'information de leurs organisations peuvent bénéficier d'un investissement dans la technologie en mémoire. Idem pour les fournisseurs de logiciels, qui cherchent à comprendre les principes de création de valeur grâce à la technologie en mémoire.

 



blog comments powered by Disqus