IBM : les bandes magnétiques sont l’avenir du stockage de données

NOVIRENT vous propose cet article très instructif à propos de l’avenir du stockage sur Bande par Bastien L 8 août 2019 Analytics, Data Analytics

Les bandes magnétiques resteront le principal support de stockage de données pour la prochaine décennie au détriment des disques durs et autres technologies. C’est ce que prédit Dong Xie, le CTO d’IBM dans le cadre d’un forum organisé à Taipei, Taïwan.

Alors que le volume mondial de données représentait 33ZB en 2017, Seagate estime qu’il atteindra 175ZB en 2025. Ceci représente une augmentation de 500% en huit ans. Cette explosion du volume de données est notamment liée à l’essor de la 5G, de l’internet des objets ou encore des véhicules autonomes. 

Face à cet essor, il est nécessaire de trouver de nouvelles solutions de stockage de données. Certains misent par exemple sur le stockage de données dans l’ADN. De son côté, le CTO d’IBM Greater China, Dong Xie, estime que les bandes magnétiques vont connaître un retour en force et deviendront le principal support de stockage. 

Depuis leur création il y a plus de 50 ans, les bandes magnétiques sont toujours utilisées pour le stockage de données parce qu’elles sont moins chères que les disques durs et plus durables. On estime que les données peuvent y être conservées pendant 30 à 50 ans.

IBM : la capacité de stockage des bandes magnétiques augmentera de 30% par an

Même si les disques durs sont de plus en plus adoptés, environ 70 à 80% des données entreposées dans les Data Centers sont stockées sur des bandes magnétiques. Elles sont notamment privilégiées pour les fichiers de backup de données. 

Cependant, pour répondre aux nouveaux besoins en matière de stockage de données chaudes ou froides, Xie prédit que de nouvelles architectures se démocratiseront au fil des années à venir. On peut notamment citer le FLAPE, combinaison entre bandes magnétiques et stockage flash.

Si Dong Xie est convaincu de la prédominance des bandes magnétiques pour la prochaine décennie, c’est parce que leur capacité de stockage va augmenter de 30% par an contre seulement 10% par an pour les disques durs. 

Dans les années 1990, IBM a créé le standard technologique LTO (Linear Tape Open) en partenariat avec HP et Seagate. Aujourd’hui, la LTO-8 est la principale technologie de bandes magnétiques. En outre, IBM et Sony se sont associés afin de surpasser les limites de densité des bandes magnétiques. Ensemble, ils sont parvenus à stocker 330 TO de données sur une cassette en 2017.

https://www.novirent.com/produits/Location-Vente-IBM-System-Storage-TS3500—System-de-stockage-sur-Bandes

https://www.ibm.com/downloads/cas/YPREARGB

Publicité

NOVIRENT cette semaine vous propose un coup d’œil sur le stockage Flash

Mémoires Flash et stockage de données

SOLUTIONS NOVIRENT

L’irruption des technologies de stockage à base de mémoire Flash est en passe de révolutionner le stockage de données, avec, à la clé, un bond significatif des performances applicatives.

par Christophe Bardy, Responsable infrastructures

Les technologies de stockage à base de silicium comme la mémoire Flash sont en train de bouleverser en profondeur le monde du stockage et se traduisent par une refonte en profondeur des architectures de stockage. Ce travail, largement entamé par les constructeurs en 2011 commence à avoir un impact profond sur l’ensemble de la chaîne informatique, des serveurs aux baies de stockage. Les caractéristiques et les performances de la mémoire Flash sont en effet de nature à bouleverser la façon dont les serveurs accèdent aux données et les performances des infrastructures de datacenter.

Le principal attrait de la mémoire Flash tant pour les entreprises que pour les constructeurs s’explique par ses performances. Depuis de nombreuses années, l’évolution des performances des processeurs et de la mémoire s’est faite à un rythme très supérieure à celle des disques durs, qui historiquement ont été les composants essentiels des systèmes de stockage. La Flash du fait de ses caractéristiques vient combler le trou qui s’est creusé entre les performances de la mémoire et celle des disques durs.

La Flash, chaînon manquant entre la mémoire et les disques durs

Pour faire simple, la performance des processeurs a progressé bien plus rapidement que celle des mémoires et surtout que celle du stockage au cours des 30 dernières années. Selon des estimations du professeur David A. Paterson de l’Université de Berkeley, la performance moyenne des processeurs a progressé à un rythme moyen de 50 % par an, tandis que la bande passante mémoire progressait de 27 % par an et que celle des disques durs progressait de 28 % par an.

EMC

L’écart de performance entre les processeurs et les disques durs n’a cessé de se creuser au cours des dernières années. Le stockage Flash vient combler l’écart.

Plus grave, la performance en nombre d’opérations par seconde des disques durs n’a guère évolué au cours des 10 dernières années. Ainsi un disque d’entreprise à 10 000 tr/mn reste péniblement sous la barre des 150 IOPS (opérations d’entrées/sorties par seconde) en accès aléatoires, et un disque SATA peine à franchir la barre des 70 à 80 IOPS. Or, pendant que la performance des disques stagnait, celle des processeurs a été multipliée par 100 au cours des dix dernières années.

Autre point d’achoppement, les gains en latence des disques durs ont été ridicules au cours des 25 dernières années. Seagate note ainsi qu’un disque d’entreprise avait un temps d’accès de 60 ms en 1987. Depuis, on est passé à 5 ms pour les disques d’entreprise à 15 000 tr/mn, mais toujours à environ 9 ms pour un disque SATA 7 200 tr/mn. Cette amélioration d’un facteur de 6 à 12 fois peut paraître impressionnante. Sauf que dans le même temps, la latence d’accès à la mémoire a été divisée par plus de 100 000 (pour passer sous la barre de la nanoseconde) et la performance unitaire des processeurs (mesurée en Flops) a été multipliée par plusieurs dizaines de millions de fois.

Le résultat est un déséquilibre croissant : d’un côté, des processeurs capables de performances théoriques croissantes et de l’autre, des goulets d’étranglement terribles en matière d’accès aux données du fait des faibles performances des disques durs.

Lors d’une discussion avec leMagIT fin 2012, Sébastien Verger, le CTO d’EMC France, avait tenté de mettre en perspective ces notions de nano, micro ou millisecondes, qui parlent peu à l’utilisateur moyen. Selon lui, il faut les ramener à des échelles plus courantes pour mieux comprendre le problème. Si l’on ramène ainsi le temps d’accès de la mémoire vive DDR3 (environ 2 nanosecondes) à une seconde, alors celui d’une mémoire Flash est proche de 30 secondes tandis que celui d’un disque dur SAS est de 28 jours et 23 heures. Cela veut dire qu’au lieu d’attendre une seconde pour atteindre une donnée en mémoire vive, le processeur doit attendre 30 secondes, s’il doit la chercher dans une carte flash locale et près d’un mois s’il lui faut aller la lire sur un disque dur… Or pendant qu’il attend des données, le processeur ne travaille pas. Conclusion : en ajoutant de la Flash dans les architectures de stockage, on dope certes la performance du stockage, mais surtout, on dope de façon encore plus intéressante celle d’une architecture informatique complète. En fait, il est parfois plus rentable et moins cher de repenser son architecture de stockage en y insérant un étage de Flash que de remplacer ses serveurs par des modèles plus récents.

La Flash transforme les baies de stockage

Les caractéristiques uniques de la mémoire Flash ont jusqu’à présent contraint les constructeurs de systèmes de stockage à un exercice bien périlleux d’intégration dans leurs architectures existantes. Sans surprise, tous les constructeurs ont commencé par supporter l’insertion de disques à mémoire Flash (ou SSD) dans leurs baies de stockage. Une intégration facile mais qui se fait parfois dans des systèmes dont les architectures internes ne sont pas adaptées à la performance des SSD. La première réponse de la plupart des constructeurs a été d’intégrer l’étage de Flash dans leurs baies à leur architecture de cache dopant ainsi l’espace de cache des baies de stockage et donc leurs performances. La plupart des constructeurs ont aussi ajouté des fonctions de tiering à leurs baies de stockage – les données les moins utilisées sont automatiquement migrées vers des disques durs tandis que les plus utilisées et les plus sensibles sont migrées sur des SSD.

La combinaison de ces techniques permet de réduire les coûts d’achat et d’exploitation des baies en réduisant le nombre de disques durs, tout en dopant les performances. Par exemple, l’usage d’une dose faible de Flash dans des baies de stockage (2,5 à 10% de la capacité, selon la nature des transactions) permet de réduire de façon significative le nombre de disques durs rapides et donc de proposer des baies plus compactes et plus économiques tout en accroissant les performances. Une large majorité des baies de stockage modernes intègrent ainsi un étage de flash pour le cache ou le tiering.

Mais ces adaptations des architectures de baies existantes ont des limites, du fait des capacités des algorithmes de cache mais aussi des limites inhérentes au tiering. Ainsi si une donnée qui aurait besoin de performance n’est pas dans l’étage Flash mais dans l’étage de disque durs SATA de la baie, les performances deviennent immédiatement calamiteuses, et il faudra quelques minutes ou quelques heures pour que ces données migrent dans l’étage rapide, ce qui peut avoir des conséquences pour certaines applications. Les constructeurs de baies de stockage ont donc commencé à réfléchir à de nouvelles générations de baies 100% Flash aux architectures spécifiquement adaptées à ce support.

2013 année des baies 100% Flash

Chez les grands constructeurs, EMC a ainsi lancé au premier semestre 2013 sa baie XtremIO, née du rachat de la start-up éponyme. NetApp a entamé le développement de sa baie FlashRay, désormais attendue pour la fin 2014. HP a quant à lui adapté son architecture 3Par pour produire une baie 3Par StorServ 100% Flash (la 7450). Et des start-ups comme Pure Storage, SolidFire, Kaminario ou Violin se sont aussi lancées à l’assaut des géants du marché avec de nouvelles architectures adaptées à la Flash.

La plupart de ces baies combinent l’usage de la mémoire Flash comme support de stockage avec un usage systématique de technique d’optimisation de données (compression et déduplication) afin de minimiser l’usure de la Flash mais aussi d’optimiser l’usage de la capacité, donc le coût par Go – avec la baisse des prix de la Flash, certaines de ces baies affichent d’ailleurs des coûts au gigaoctet assez proches de ceux des baies traditionnelles des grands constructeurs. Toutes proposent des services avancés de données basés sur une gestion fine et intelligente des métadonnées (notamment pour optimiser les snapshots, la réplication, la gestion de la qualité de service…). Selon les fournisseurs, les performances vont de plusieurs centaines de milliers d’IOPS à plusieurs millions d’IOPS avec des temps de latence fréquemment sous la barre de la milliseconde.

La Flash de bout en bout

La mémoire Flash n’affecte toutefois pas que les baies de stockage. Elle s’insère dans l’ensemble de la chaîne reliant les serveurs au stockage. C’est Fusion-IO (depuis racheté par SanDisk, l’un des géants de la Flash) qui a notamment initié cette tendance avec ses cartes PCI-e avant d’attirer l’attention d’EMC qui a introduit à l’été 2012 les cartes VFCache. Depuis, la plupart des constructeurs ont suivi avec des offres plus ou moins similaires. Récemment la consolidation s’est accélérée sur le marché avec le rachat récent des activités Flash de LSI (et notamment sa ligne de cartes PCI-e et de disques SSD à interface PCI-e par Seagate), celui de l’activité carte Flash PCIe de Violin par Hynix et un peu plus tôt celui de Virident (fournisseur OEM des cartes VF Cache d’EMC) par Western Digital, et celui d’OCZ par Toshiba.

Les cartes PCI-express Flash s’installent directement dans les serveurs qui accèdent aux données, et offrent des performances optimales car le bus sur lequel elles sont installées (PCI-express) a une latence bien inférieure aux connexions SAN. Elles peuvent être utilisées à la fois comme un étage de stockage local à très hautes performances ou comme un cache vers les données stockées sur les baies de stockage (dans ce cas un pilote logiciel adapté gère le cache à l’échelle du serveur ou d’un cluster de serveurs équipés de cartes Flash). La proximité de la Flash du processeur permet notamment de minimiser la latence d’accès et de répondre aux besoins des applications les plus sensibles à la latence comme les applications transactionnelles, les bases de données…

Pour tirer parti de ces cartes, plusieurs éditeurs ont aussi développé des solutions de gestion de cache distribuées qui permettent à un cluster Hyper-V ou VMware de s’appuyer sur plusieurs cartes PCI-e installées dans certains serveurs, pour optimiser les temps d’accès en lecture et en écriture vers les baies de stockage. Ces logiciels ont l’avantage de permettre aux serveurs de tirer parti de la faible latence des cartes PCI-e et donc de bénéficier de performances optimales, tout en continuant à permettre de s’appuyer sur les fonctions et services des baies pour le stockage en « back-end ».  L’une des solutions les plus remarquables en la matière est celle de Pernix Data, une société fondée par des anciens de l’équipe de stockage VMware et qui fonctionne comme un pilote intégré au noyau de VMware pour doper les performances d’accès au SAN des cluster vSphere. L’une des moins coûteuses est celle d’Infinio, limitée toutefois au cache en lecture et aux baies NAS.

Notons pour terminer que la Flash n’est pas la dernière étape dans la course aux performances. De nouvelles technologies de stockage non volatiles à base de mémoire sont en effet en cours de développement telles que la mémoire à changement de phase (ou PCM) par des constructeurs comme IBM, Micron et Samsung ou le Memristor (HP et Hynix), qui promettent des performances encore meilleures et une consommation d’énergie réduite. Pas de quoi sonner le glas des disques durs, qui resteront durablement le moyen de stockage en masse des données, mais de quoi accélérer encore un peu plus le développement d’un étage de stockage ultra rapide, dans des baies ou dans des serveurs, pour faire face aux besoins des nouvelles applications gourmandes en performances dans le domaine du cloud, du HPC, du Big Data et de l’analytique.

Solutions Hardware pour une informatique vieillissante

Il n’est pas toujours possible ou utile de passer sur les dernières technologies,

Vos serveurs, baies de stockage, matériels réseaux ont plus de 3 ans, vous souhaitez faire évoluer votre informatique et rester sur la même génération de matériels.

Nous disposons de 3 outils pour vous y aider :

1/La location courte pour effectuer les tests.

2/La vente en reconditionné

3/La maintenance

https://www.novirent.com/produits/Location-et-Vente-occasion-Serveur-DELL-PowerEdge-R730

AMÉLIORER LA PLANIFICATION DE VOTRE MAINTENANCE

En informatique, on parle souvent de maintenance corrective (ou MCO pour Maintien en Conditions Opérationnelles), mais beaucoup plus rarement de la notion de maintenance préventive. Cependant, la maintenance préventive a toute sa place dans la vie d’une entreprise. Petite explication de ce que ça peut donner dans le cadre d’un projet informatique.

La maintenance préventive ?

La maintenance préventive consiste à anticiper les problèmes qui pourraient affecter un système ainsi donc à intervenir sur un équipement à intervalles réguliers ou en fonction de critères prédéfinis.

Selon l’enquête 2018 de  Plant Engineering sur la maintenance  préventive est favorisée par 80% du personnel de maintenance. Dans l’industrie, il s’agit par exemple de changer une pièce avant que l’appareil tombe en panne, ou bien d’arrêter une ligne de production pour inspecter et réparer ce qui doit l’être. C’est un entretien courant que l’on effectue naturellement pour de nombreux produits.

Pour différentes raisons (probablement liées aux coûts, à la nouveauté et à l’inexpérience), la maintenance préventive est beaucoup moins utilisée dans le cadre des projets informatiques. Lors de la construction des projets, on parle souvent de la notion de risques. Une fois le projet mis en exploitation, on parle de maintenance corrective pour les aspects logiciels et d’infrastructure pour les aspects matériels . Mais au-delà de ça, on parle rarement de maintenance préventive.

Globalement, les problèmes applicatifs qui peuvent survenir durant son exploitation sont liés à différentes évolutions :

  • Des évolutions technologiques provoquant :
    • Un décalage entre le besoin et la solution apportée ;
    • L’impossibilité de répondre à certaines demandes nouvelles ;
    • Un déficit de compétences sur la technologie ;
  • Des évolutions réglementaires ;
  • Des évolutions de pratiques et méthodes de développements :
  • Des évolutions d’intervenants :
    • Je n’ai plus la compétence nécessaire pour faire évoluer le projet ;
    • Les intervenants sont difficiles à trouver, leur coût explose ;
  • Des découvertes de failles qui impactent la sécurité du système.

Certains problèmes ont une très forte probabilité de survenir durant la vie du projet. La technologie évolue très rapidement et il est fort probable que celle utilisée pour le développement initial du projet soit complètement obsolète dans 5 ou 10 ans, si elle n’est pas régulièrement mise à jour.

Pour pallier à ces problèmes potentiels, la maintenance préventive apporte des solutions. L’idée est de consacrer deux budgets complémentaires :

  • le budget de Maintenance Corrective pour corriger / faire évoluer le système afin de répondre plus finement aux besoins ;
  • le budget de Maintenance Préventive pour anticiper les problèmes.

Qu’est-ce qu’on y gagne finalement ?

En réalité, la maintenance préventive n’apporte pas de valeur ajoutée directe au projet. En revanche, elle permet d’allonger sa durée de vie ainsi que sa capacité à d’adapter aux évolutions. C’est donc cette durée de vie qui détermine le budget adéquat à investir dans une maintenance préventive. Vous prévoyez de jeter le projet dans 6 mois ? A quoi bon investir… En revanche, si vous vous projetez sur du moyen terme (ou s’il y a un risque pour que le projet que vous deviez jeter dans 6 mois devienne pérenne), alors il n’est pas inutile d’investir dans ce domaine.

Qu’est-ce qui bloque la mise en œuvre d’une maintenance préventive ?

Le syndrome du « ça fonctionne donc on n’y touche plus » est votre ennemi. C’est tentant et très facile mais en y cédant vous perdrez la connaissance technique de votre application. Un système qui évolue bien est un système que l’on analyse, que l’on inspecte, que l’on améliore en permanence, même si ça ne se voit pas.

L’absence de tests automatisés sur votre application est également un frein particulièrement puissant. En effet, comment garantir que vous n’intégrerez pas de régression lors de votre phase de maintenance ? Les tests manuels sont une solution mais vous coûteront très chers à la longue. A méditer lorsque vous refuserez le surcoût initial des tests unitaire automatisés lors de la phase d’avant-vente…

Toujours selon le sondage 2018 de l’organisme Plant Engineering, il a été montré que l’utilisation de la maintenance préventive était passée de 47% à 51% et que le fonctionnement des équipements au point de défaillance était passé de 61% à 57%. Preuve que la maintenance préventive est un réel challenge des années à venir, surtout pour les structures n’ayant pas encore passé le virage technologique comme pour les autres

Source : Upkeep

Bibliothèques de bandes et lecteurs de bandes magnetiques

Vous recherchez une librairie de bandes reconditionnée ?

NOVIRENT dispose d’une gamme complète de robots de sauvegarde librement configurables, allant des systèmes à 8 emplacements de cassettes jusqu’aux librairies Enterprise IBM 3584 et Oracle SL8500Vous recherchez une librairie de bandes reconditionnée ? NOVIRENT dispose d’une gamme complète de robots de sauvegarde librement configurables, allant des systèmes à 8 emplacements de cassettes jusqu’aux librairies Enterprise IBM 3584 et Oracle SL8500.

NOVIRENT vous propose aussi des lecteurs de bandes.

Nous proposons les lecteurs les plus récents comme les LTO-7, mais également tous les DAT, DDS, DLT, SDLT, AIT, SAIT, 8mm, 3592, T10000, 9840 et 9940, Magstar, MLR, SLR.

Découvrez les solutions de NOVIRENT

location@novirent.com ou par tél. : + 33 (0)1 69 47 13 41

Au cœur de la maintenance Informatique

L’informatique est aujourd’hui une entité indispensable au sein d’une entreprise, on l’a retrouve à tous les niveaux . Sachant que l’entreprise est constamment dans une démarche d’amélioration continue elle est donc sujette à un ensemble de changements auxquels l’informatique doit continuellement s’arrimer. Dès lors la maintenance informatique devient une priorité pour maintenir un parc en état et surtout pour ce qui est de l’ensemble des données engendrées et stockées au fil des années.

Si l’informatique permet d’automatiser de nombreux process, il ne faut pas oublier que l’être humain aura toujours une place à jouer pour contrôler et maîtriser un capital machine au sein de l’entreprise. Si des métiers disparaissent, d’autres apparaissent et demandent ainsi de nouvelles connaissances et de nouvelles compétences. 

De nombreux postes de travail sont aujourd’hui munis d’un ordinateur ou d’un PDA (Personnal Digital Assistant ou encore Assistant Electronique de Poche).

Qu’il soit mobile ou statique, installé dans un bureau d’où il ne bouge pas ou bien placé dans les poches d’un technicien qui va le sortir à plusieurs reprises chaque jour, ce matériel informatique contient des éléments qui, avec le temps peuvent avoir tendance à s’abîmer ou à moins bien fonctionner.

Il ne s’agit ni plus ni moins que de machines et aucune d’entre elles n’est fabriquée de façon à durer une éternité. Il est donc important de faire intervenir une société capable de gérer la maintenance informatique afin qu’elle puisse prendre le pouls de ces machines, de vérifier si elles fonctionnent de façon optimale ou à l’inverse, s’il est nécessaire d’en remplacer certains composants.

Faire intervenir un prestataire en maintenance informatique est une obligation aujourd’hui pour toute société qui emploie des ordinateurs, qui servent à réaliser le travail lui-même ou bien à stocker et à gérer des données sensibles relatives à son activité.

En effet il est inenvisageable d’attendre que les machines cessent de fonctionner pour réagir, il en va de la santé de l’entreprise. Si un ordinateur est en panne, c’est une partie de l’activité de la société qui est freinée, voire au point mort. C’est donc une perte de productivité comme d’argent qui peut devenir conséquente, en fonction de la panne et de son ampleur.

Si l’informatique a introduit une certaine fragilité dans le stockage des données et leur conservation, il faut également voir le bond technologique des supports en parallèle. Si l’on n’a pas accès à des informations cruciales pour le fonctionnement d’un service, celui-ci devra chômer tout le temps que prendra la réparation. Or un contrôle régulier du fonctionnement de chaque machine permet d’éviter ce type de crise. De plus quand cela est nécessaire il faut également prévoir les mises à jour des mécanismes équipant l’ensemble de ces machines en entreprise.

L’informatique est aujourd’hui une entité indispensable au sein d’une entreprise, on l’a retrouve à tous les niveaux . Sachant que l’entreprise est constamment dans une démarche d’amélioration continue elle est donc sujette à un ensemble de changements auxquels l’informatique doit continuellement s’arrimer. Dès lors la maintenance informatique devient une priorité pour maintenir un parc en état et surtout pour ce qui est de l’ensemble des données engendrées et stockées au fil des années.

Si l’informatique permet d’automatiser de nombreux process, il ne faut pas oublier que l’être humain aura toujours une place à jouer pour contrôler et maîtriser un capital machine au sein de l’entreprise. Si des métiers disparaissent, d’autres apparaissent et demandent ainsi de nouvelles connaissances et de nouvelles compétences.  On le constate au quotidien et plus encore avec les 

De nombreux postes de travail sont aujourd’hui munis d’un ordinateur ou d’un PDA (Personnal Digital Assistant ou encore Assistant Electronique de Poche).

Qu’il soit mobile ou statique, installé dans un bureau d’où il ne bouge pas ou bien placé dans les poches d’un technicien qui va le sortir à plusieurs reprises chaque jour, ce matériel informatique contient des éléments qui, avec le temps peuvent avoir tendance à s’abîmer ou à moins bien fonctionner.

Il ne s’agit ni plus ni moins que de machines et aucune d’entre elles n’est fabriquée de façon à durer une éternité. Il est donc important de faire intervenir une société capable de gérer la maintenance informatique afin qu’elle puisse prendre le pouls de ces machines, de vérifier si elles fonctionnent de façon optimale ou à l’inverse, s’il est nécessaire d’en remplacer certains composants.

Faire intervenir un prestataire en maintenance informatique est une obligation aujourd’hui pour toute société qui emploie des ordinateurs, qui servent à réaliser le travail lui-même ou bien à stocker et à gérer des données sensibles relatives à son activité.

En effet il est inenvisageable d’attendre que les machines cessent de fonctionner pour réagir, il en va de la santé de l’entreprise. Si un ordinateur est en panne, c’est une partie de l’activité de la société qui est freinée, voire au point mort. C’est donc une perte de productivité comme d’argent qui peut devenir conséquente, en fonction de la panne et de son ampleur. Si l’informatique a introduit une certaine fragilité dans le stockage des données et leur conservation, il faut également voir le bond technologique des supports en parallèle. Si l’on n’a pas accès à des informations cruciales pour le fonctionnement d’un service, celui-ci devra chômer tout le temps que prendra la réparation. Or un contrôle régulier du fonctionnement de chaque machine permet d’éviter ce type de crise. De plus quand cela est nécessaire il faut également prévoir les mises à jour des mécanismes équipant l’ensemble de ces machines en entreprise.

Il est grand temps que les décideurs prennent conscience des enjeux de la maintenance informatique en entreprise et qu’un budget lui soit spécifiquement affecté. Si une TPE ou PME ne dispose pas des ressources suffisantes à la création d’un poste en interne, le choix le plus judicieux est de confier la maintenance informatique à un prestataire spécialiste de l’infogérance. Les entreprises peuvent ainsi se consacrer pleinement à leur coeur de métier tout en disposant d’une informatique fiable et performante. Confier la maintenance informatique en entreprise à une société spécialisée est une manière d’améliorer la sécurité et la productivité de votre entreprise tout en maîtrisant les coûts

Si l’informatique a introduit une certaine fragilité dans le stockage des données et leur conservation, il faut également voir le bond technologique des supports en parallèle. Si l’on n’a pas accès à des informations cruciales pour le fonctionnement d’un service, celui-ci devra chômer tout le temps que prendra la réparation. Or un contrôle régulier du fonctionnement de chaque machine permet d’éviter ce type de crise. De plus quand cela est nécessaire il faut également prévoir les mises à jour des mécanismes équipant l’ensemble de ces machines en entreprise.

Pour tous vos besoins en maintenance du matériel informatique NOVIRENT écrivez-nous à l’adresse : location@novirent.com

COMMENT REUSSIR SON POC AVEC LA LOCATION COURTE DUREE ?

Le POC est une preuve de concept (de l’anglais : proof of concept), ou encore démonstration de faisabilité, une réalisation d’une certaine méthode ou idée pour démontrer sa faisabilité. La preuve de concept est habituellement considérée comme une étape importante sur la voie d’un prototype pleinement fonctionnel.

Un constructeur vise à démontrer qu’une configuration donnée peut atteindre un certain résultat pour déterminer une solution chez son client, ou aider à une intégration de plusieurs systèmes.

Un éditeur de logiciel vise à utiliser une preuve de concept pour déterminer si un système répond aux aspects pour lequel il a été conçu. Une fois le développeur satisfait par le résultat, un prototype est développé pour être utilisé dans la recherche de fonds ou pour effectuer des démonstrations auprès des clients potentiels. 

Une des problématiques du POC est de devoir recréer un environnement hardware approprié.  Problème qui peut sembler ardu, car Il faut donc trouver pour une période de 1 ou 3 mois, serveurs ou baies de stockage ou matériels réseaux et ce dans différentes marque (IBM, HP, DELL, ORACLE, NETAPP, EMC, CISCO, BROCADE …)

« La Location Courte Durée NOVIRENT permet ainsi de répondre à cette problématique du POC, de façon simple et rapide en fournissant ces matériels pour 1 ou 3 mois. »

CHOISIR SON ONDULEUR

Choisir le bon onduleur pour votre réseau. Difficile ????…

Depuis quelques années, la technologie a considérablement évolué. On trouve sur le marché un vaste choix d’onduleurs répondant à tous les types d’environnements et de systèmes informatiques.

L’utilisateur n’a plus seulement le choix entre le on-line  et le off-line. Il existe aujourd’hui une solution hybride les onduleurs line interactive. Pour décider du type d’onduleur leur offrant la protection optimale, les responsables informatiques doivent tenir compte d’un certain nombre de paramètres: le degré d’immunité,

la taille de la charge et la durée d’autonomie de la batterie, les communications et la configuration du réseau et enfin la topologie des onduleurs.

Degré d’ Immunité

Le premier point devant être pris en compte par les responsables informatiques est l’importance des ordinateurs concernés, la question étant:

Quelles seraient, pour l’entreprise, les conséquences d’une panne ou d’une perturbation du secteur entraînant l’immobilisation du réseau?

La réponse dépend du type de réseau informatique et des applications utilisées. La perte de certaines applications peut paralyser une entreprise et la perte d’autres ne représenter qu’une gêne temporaire.

Pour les premières, le bon choix est un onduleur On-line.

Encore ne suffit-il pas de protéger le serveur Les hubs, routeurs, stations de travail, PC et périphériques doivent l’être également. Même s’ils ne jouent pas un rôle fondamental. Une panne imprévue peut, en ayant un effet de domino, entraîner l’immobilisation de tout un réseau.

Un line interactive peut se révéler une alternative économique pour la protection de nœuds spécifiques. Cependant il ne sait pas que résoudre les problèmes de coupures :il renforce également la résistance contre les baisses de tension.

Outre les problèmes survenant au niveau des centrales électriques, des phénomènes atmosphériques, comme la foudre, les tempêtes ou les chutes de neige, peuvent provoquer des perturbations du secteur.

Face â la consommation électrique croissante, il n’existe aucune garantie d’amélioration de la qualité du secteur dans l’avenir.

Pour de nombreuses entreprises, l’essentiel est de se prémunir contre les défaillances de ce dernier.

Toutefois, même dans ce cas, l’alimentation des appareils n’est pas à l’abri de facteurs internes comme un câblage défectueux ou des interférences en provenance d’équipements de bureau et de production.

Par exemple, un ascenseur entre deux étages peut provoquer des baisses ou des pics de tension.

Plus votre réseau est important et complexe, plus grand sera le risque de perturbations internes, et ce risque sera encore accentué par le nombre de connexions externes type modems, hubs, routeurs et lignes de données multiplexées.

TAILLE DE LA CHARGE  ET AUTONOMIE DE LA BATTERIE

Pour construire un système d’onduleurs efficace, il ne suffit pas d’évaluer la consommation en watts de vos équipements.

Chaque réseau a ses propres besoins en puissance. Un type d’onduleur idéal pour une configuration constituée de micro-ordinateurs ne conviendra pas à un environnement industriel. De même, un réseau de plusieurs centaines de nœuds ne nécessitera pas le même type de protection qu’une activité de télémarketing interne. La taille et la configuration d’un réseau informatique sont appelées à évoluer au cours d’une année.

Pour faire face à l’importance croissante des charges, les problèmes de conflits éventuels doivent être pris en compte lors de la planification de l’achat d’un système d’onduleurs. Pour évaluer la charge totale à protéger, chaque entreprise devrait additionner la puissance nominale en VA inscrite au dos de chaque appareil, puis sélectionner un système d’onduleurs couvrant 1,5 fois ce total. Cette capacité supplémentaire servira à couvrir les  »n » pics de consommation survenant lors de la mise sous tension de chaque équipement.

Quant à l’autonomie de la batterie, Si les besoins se limitent à fermer à temps le réseau informatique en cas de panne secteur, cinq minutes suffisent. Mais Si vous devez assurer la continuité complète de vos activités informatiques, il vous faudra prévoir une autonomie bien plus importante, voire des groupes électrogènes.

A noter toutefois, la température et les autres conditions environnementales peuvent avoir une incidence sur la vie d’une batterie. Le test constant de la charge de la batterie constitue un bon critère de sélection d’un onduleur La pire des situations serait une coupure de secteur survenant alors que la batterie n’a pas eu le temps de se recharger.

COMMUNICATIONS

Dès le départ, les onduleurs doivent faire partie intégrante de la stratégie de mise en place d’un réseau informatique. Il est primordial que leur surveillance et leur contrôle puissent être assurés par le responsable de réseau.

Les solutions peuvent aller d’un logiciel fermant le réseau de façon structurée à des communications pleinement interactives avec le protocole SNMP (Simple Network Management Protocole) et intégrant les onduleurs comme une partie intelligente du réseau.

Dans ce dernier cas, le directeur informatique ou le responsable réseau contrôle les conditions d’alimentation et est alerté instantanément de tout problème potentiel. Ce type de logiciel doit être simple à utiliser, à installer et pouvoir s’insérer de façon transparente dans les systèmes d’exploitation de réseau existants.

Les constructeurs ont développé leurs propres gammes de logiciels et d’interfaces sophistiquées autorisant la surveillance et le contrôle à distance des alimentations d’un réseau et permettant d’anticiper les conditions de défaillance éventuelles.

 Dans le cas d’une coupure du secteur les logiciels ferment automatiquement, et par étapes contrôlées, le système d’exploitation du réseau. Il transmet des messages aux utilisateurs, génère des graphiques des conditions d’alimentation, et réamorce rapidement le système dès le retour de la tension secteur et plus encore.

SiteNet SNMP Manager, actuellement en cours de développement, contrôlera et gérera tous les onduleurs Liebert intégrés à un réseau informatique, au même titre que tout autre équipement. Cette application de gestion de réseau, facile à mettre en œuvre, propose la surveillance des onduleurs via un système d’écrans ergonomique. Son installation est simplifiée par un dispositif de n détection automatique qui identifie, configure et libelle tous les systèmes d’onduleurs Liebert installés sur le réseau informatique.

CONFIGURATION DES SYSTÈMES

Il existe quatre catégories de solutions conçues pour répondre aux besoins de protection de la plupart des réseaux: protection de charges individuelles, de charges groupées, protection intégrée, protection étendue à toute l’entreprise.

Charges individuelles: chaque nœuds doit protéger son propre onduleur. Par rapport aux stations de travail et aux périphériques, le serveur dispose d’un onduleur plus important et plus sophistiqué, mais le niveau de protection reste individuel.

Charges groupées : tous les nœuds de réseau, ou tous les serveurs (et autres équipements informatiques) sont réunis en grappe dans un même local, sous la protection d’un onduleur de grande taille.

Protection intégrée: l’ensemble des dispositifs de protection est  intégré  à l’intérieur d’une armoire ou sous un plancher surélevé. Le terme  intégré  fait référence à la réunion de tous ces dispositifs (fonctions de contrôle/surveillance du réseau informatique, climatisation, sécurité. testeurs de câbles, détecteurs de fumée, alarmes d’incendie) dans un même système.

Protection étendue à toute l’entreprise : Si chaque utilisateur est équipé de son propre ordinateur, et si les serveurs de réseaux et les nœuds sont répartis à travers toute l’entreprise, la solution est un onduleur de grande taille couvrant tout un étage ou un bâtiment complet. La construction d’une nouvelle installation ou la rénovation d’une installation existante est le moment idéal pour mettre en place ce type de structure.

TOPOLOGIE DES ONDULEURS

Il existe trois types de topologies d’onduleurs, sous les appellations  off-line ,  on-line et  Line interactive

ONDULEUR OFF-LINE

Certains ordinateurs intègrent maintenant ce qu’on appelle des alimentations à découpage permettant de taire face à de brèves coupures secteur car elles disposent de grands condensateurs qui conservent un certain taux de charge après une coupure. Ceci signifie que ces systèmes informatiques peuvent dépendre d’onduleurs  off-line, car ils compensent le bref temps de commutation (quelques millisecondes) entre la coupure secteur et le transfert à la batterie de l’onduleur.

Se situant presque tous dans le bas du spectre de puissance des onduleurs, les onduleurs off-line représentent l’option la plus simple et la plus économique. Ils filtrent partiellement la tension alternative délivrée à la charge (évitant ainsi pratiquement tout conditionnement de puissance) mais conservent une batterie de secours chargée. En cas de baisse du secteur en dessous d’un niveau prédéfini, un commutateur interne relie la batterie à un onduleur. Celui-ci convertit la tension continue de la batterie en tension alternative qui alimente le système informatique.

Un inconvénient toutefois : le temps de passage du secteur à la batterie, qui est susceptible d’affecter les charges sensibles. Toutefois, la plupart des micro-ordinateurs compensent les deux ou trois millisecondes nécessaires à la batterie et à ‘onduleur pour délivrer de la tension alternative. 

En termes d’applications, les onduleurs off-line trouvent leur meilleur emploi auprès des équipements réseau consommant peu de puissance et ne jouant pas un rôle vital pour le fonctionnement de l’entreprise.

ONDULEURS ON-LINE

Par opposition aux précédents, ces onduleurs garantissent l’absence totale de coupures, même en présence de perturbations du secteur Ils utilisent pour cela une technique de double conversion:

l’alimentation secteur est convertie en permanence en une alimentation continue (également reliée à une batterie), avant d’être retransférée à un onduleur qui la convertit de nouveau en alimentation alternative.

Cette technique présente l’avantage d’éliminer entièrement le temps de commutation (entre onduleur et batterie) en cas de coupure du secteur. De plus, les baisses de tension (imparables dans le cas de la technologie off-line) sont automatiquement corrigées.

Dans la majeure partie des cas, il n’y a pas de chute brutale du secteur car elle s’effectue sur un certain nombre de cycles. Lorsque survient la coupure, la batterie de l’onduleur assure le relais. L’onduleur ne détecte aucune différence de tension en entrée, même

Si cette dernière est une suite de tensions continues dérivées du secteur et de la batterie. Lorsque la coupure survient, l’alimentation est entièrement assurée par la batterie. L’ordinateur ne perçoit de son côté aucune différence d’alimentation et la sortie sinusoïdale est en parfaite synchronisation avec le réseau. 

Certaines technologies off-line tentent de résoudre le problème des baisses de tension en recourant à des survolteurs qui génèrent des signaux alternatifs en direction de la charge. Toutefois, ils finissent par s’épuiser et la commutation onduleur-batterie survient tout de même.

Un véritable onduleur on-line à double conversion dispose d’une batterie reliée en permanence au bus de tension redressé, par l’intermédiaire d’une diode ou d’un autre composant similaire.

Ce critère a été adopté par l’ensemble du marché pour définir un onduleur on-Line. Toutefois, la majorité des fabricants n’a pas suivi la tendance. Bien que recourant à la technique de double conversion, ils utilisent également un contact ou un relais pour la liaison de la batterie à l’onduleur. En cas de coupure secteur, un relais met plusieurs millisecondes à se fermer. D’où un risque de baisse subite de tension en sortie.

Un autre problème de tension posé aux onduleurs concerne la mise en service du générateur durant la période de chauffe de ce dernier sa sortie peut accuser des variations brutales de fréquence et de tension. Un onduleur on-line a corrige ces variations grâce à son processus de double conversion (alternatif-continu et continu-alternatif), pour donner en sortie un signal alternatif pur; un onduleur off-line doit procéder à de fréquentes commutations entre la batterie et le secteur.

Un véritable onduleur on-line convertit comme il se doit, la tension alternative en tension continue. Il protège ainsi un ordinateur de pratiquement toutes formes de bruit électrique : pointes de tension provoquées par la foudre, par des groupes électrogènes ou distorsions de signaux causées par un autre équipement relié au secteur

Les technologies off-line recourent souvent à des filtres pour tenter d’éliminer ce type de problème: les pointes de tension sont filtrées et rabattues mais elles ne sont pas entièrement éliminées. Parmi les technologies off-line les plus avancées, certaines parviennent à supprimer les effets des surtensions mais d’autres les transmettent directement à la charge.

ONDULEURS LINE INTERACTIVE

Ce type d’onduleur est un hybride des technologies on-line et off-line, auxquelles il ajoute un conditionnement du réseau pour éliminer les pointes de tension et les problèmes de signaux en sortie. La batterie est chargée en inversant le fonctionnement de l‘onduleur durant les périodes d’activité normale du secteur En cas de coupure, un contact de transfert s’ouvre et la puissance est transférée de la batterie à la sortie de l’onduleur En outre, l’onduleur étant relié en permanence à la sortie, il loue le rôle de filtre et élimine ainsi les commutations onduleur-batterie consécutives aux baisses de tension, principal défaut des onduleurs off-line. Ces facteurs font de la technologie line interactive un meilleur choix que la technologie off-line et l’onduleur me interactive devient une alternative économique, là où le conditionnement de puissance n’est pas un critère fondamental.

En sommes nous devons savoir que la sélection d’un système d’onduleurs exige une analyse approfondie. Pour trop d’utilisateurs, l’onduleur n’est qu’un investissement type  boîte noire, et ils se basent sur des critères de prix plus que de performances et d’adaptation à leurs systèmes informatiques. Bien des facteurs sont à prendre en compte.

Les onduleurs off-line représentent une solution économique à condition que les systèmes concernés ne louent pas un rôle vital dans l’entreprise.

Pour protéger les alimentations de vos systèmes critiques des défaillances du secteur, il est préférable de choisir de véritables onduleurs on-line qui soient également bien adaptés à la taille et à la configuration de votre réseau

Source : Onduleur.fr

Comment Protéger son Datacenter des défaillances électriques

La sécurisation de l’alimentation électrique commence bien évidemment par celle de l’approvisionnement, explique Christian Balzer. « La bonne pratique pour les grands acteurs du datacenter est de profiter de la configuration Enedis la plus sécurisée, qui est celle de la double dérivation ».

Opter pour le mécanisme d’approvisionnement le plus robuste

Ce mécanisme consiste à raccorder le datacenter à un poste source via deux câbles dont l’un dit de travail et l’autre de secours. Cette configuration est aujourd’hui l’offre standard d’Enedis pour les consommateurs critiques. Elle est un recul par rapport à ce qui existait encore, il y a quelques années. EDF proposait alors une configuration encore plus sécurisée, dans laquelle le câble de travail et le câble de secours étaient raccordés à des postes source différents ». 

Pour mémoire, un poste source a pour but d’assurer l’alimentation en électricité d’un secteur. Il se situe à l’intersection du réseau très haute tension (225 000 à 63000 volts) et du réseau moyenne tension (20 000 volts) et fournit les transformateurs qui assurent l’abaissement de la tension de l’électricité. Le poste source assure aussi la protection du réseau contre les incidents.

Comme l’indique Christian Balzer, l’ancienne configuration qui n’est plus proposée par Enedis avait un grand avantage. Elle protégeait les clients contre une défaillance majeure sur un poste source, même si de tels incidents sont très rares. Mais elle posait un problème majeur à Enedis, celui d’immobiliser potentiellement 50% de la capacité d’un poste source dans l’attente improbable d’une panne.

« L’explosion de demandes de puissance pas toujours très raisonnables de la part de beaucoup d’acteurs du datacenter a contraint Enedis à mener une réflexion de fond sur les datacenters et la configuration double sur deux postes sources a disparu », explique Christian Balzer. Il faut dire que la planification et la réalisation d’un poste source peuvent nécessiter entre cinq et dix ans, puisque l’on parle d’infrastructures industrielles et donc d’investissements importants pour EDF et Enedis.

Il est à noter que pour les infrastructures les plus critiques, Enedis propose toujours la possibilité de disposer de plusieurs postes de livraison dans le datacenter, desservis par des câbles séparés [les postes de livraison assurent l’entrée électrique dans le bâtiment et effectuent la transformation de la moyenne tension en basse tension, N.D.L.R]. L’opérateur de datacenter peut ainsi se protéger à la fois d’une rupture de câble, mais aussi d’une éventuelle défaillance d’un poste de livraison.

Se protéger des défaillances d’alimentation

Une fois la question de l’approvisionnement gérée, les opérateurs de datacenters doivent ensuite se protéger contre une éventuelle rupture de cet approvisionnement. En France, ce type d’incident se compte sur les doigts d’une main chaque année explique Christian Balzer, mais c’est justement ce à quoi les datacenters doivent se préparer.

« Dans une configuration de type double dérivation , si le câble principal vient à être endommagé ou s‘il y a un problème, le disjoncteur s’ouvre côté Enedis. Mais la bascule vers le câble de secours nécessite une intervention manuelle. Pour des raisons de sécurité, les disjoncteurs ne sont pas fermés sur les deux câbles. Il n’y a pas de mode automatique. Le réapprovisionnement par le câble de secours demande donc un certain temps. C’est pour cela que les datacenters doivent s’armer contre les défaillances d’approvisionnement ».

Tous les datacenters sont ainsi équipés de groupes de générateurs électriques (généralement au diesel) ainsi que d’onduleurs avec des batteries massives. Ces derniers doivent notamment assurer l’alimentation électrique du site en attendant le démarrage des groupes électrogènes.

Comme l’indique le directeur des opérations d’Equinix, les systèmes électriques du datacenter sur la partie courant fort sont conçus pour assurer la continuité de service quand tout marche bien. Mais ils ont aussi malheureusement autant de potentiels de pannes et de dysfonctionnement. « Le fait qu’un automate n’arrive pas à transmettre l’ordre de démarrage d’un groupe électrogène de secours fait partie de ce sur quoi l’effort de conception doit porter pour qu’un tel problème ne se traduise pas par l’arrêt d’un datacenter ». Selon lui, c’est l’un des points sur lesquels il y a eu d’importantes évolutions de conceptions au cours des dix dernières années. « Il y a eu une période où l’on avait tendance à déployer pas mal d’automates dans les datacenters pour piloter des séquences de basculement. On en est revenu, car on a fait l’expérience que ces automates sont une source importante de dysfonctionnements ».

D’après Christian Balzer, Equinix est revenu à des basiques en faisant moins appel à des automates ou pas de la même manière : « On avait des conceptions avec des centrales de groupes électrogènes, c’est-à-dire plusieurs groupes fonctionnant comme une seule entité avec des redondances N+1 ou N+2. À l’évidence, si en amont un automate dysfonctionne, c’est l’ensemble de la centrale qui ne démarre pas et donc l’ensemble du datacenter qui se retrouve privé d’énergie ».  

Désormais, l’opérateur de datacenter est passé à une conception dite « block redondance », qui au lieu d’avoir des ensembles aussi imposants réunit un groupe électrogène, un système ondulé et un transformateur. « Tout cela fonctionne comme un système intégré qui alimente une voie d’alimentation pour les serveurs clients. De la même façon, on a un autre bloc qui traite l’autre voie électrique. Et chacun de ces blocs a son propre automate.  Même si un automate dysfonctionne , l’impact du dysfonctionnement est mitigé puisque l’on a toujours une voie d’alimentation qui est approvisionnée ».  

Une autre bonne pratique est de découper le datacenter en tranches ce qui permet de compartimenter le risque mais a aussi une logique économique. Comme le rappelle Christian Balzer, on ne construit plus un datacenter en bloc, comme il y a vingt ans. L’approche est beaucoup plus modulaire: « Désormais, on construit au fil de l’eau, par salle, ce qui permet aussi de lisser l’investissement que représente la construction d’un datacenter ».

Mettre en place des architectures IT résilientes

Cette compartimentation croissante du risque n’est toutefois pas une garantie absolue et il peut arriver qu’en dépit de ces précautions, une salle ou plusieurs salles d’un datacenter subissent une défaillance. C’est là que les architectes SI dans les entreprises ont aussi leur rôle à jouer.

Comme l’explique Christian Balzer, « nos clients s’organisent pour que sur nos plates-formes, ils ne mettent pas tous leurs œufs dans le même panier. Ils peuvent organiser la répartition de leurs actifs, organiser la mise en miroir de leurs infrastructures entre plusieurs salles, voire plusieurs datacenters. Il y a des vrais choix de conception à effectuer pour limiter l’impact d’un incident en termes de volume ». Il est ainsi souhaitable pour les productions les plus critiques d’avoir des infrastructures indépendantes réparties sur des sous-ensembles de datacenter .

À cette fin, Christian Balzer indique qu’Equinix est transparent avec ses clients sur ses infrastructures et sur les risques existants afin que ceux-ci puissent prendre les mesures nécessaires en matière de placement de leurs éléments de système d’information. Cette transparence est nécessaire, explique-t-il car « de notre point de vue, un client dont la production n’est pas coupée est un client satisfait ». Il note toutefois que toutes les entreprises ne se préoccupent guère du sujet tant qu’elles n’ont pas fait face à un incident, mais que, par ailleurs, certains clients sont très proactifs sur ces sujets et « mènent des audits très fouillés sur nos infrastructures avant de faire leur choix ».

Terminons par une note positive : s’il est important de concevoir des infrastructures à forte tolérance aux pannes, la France a l’avantage d’offrir un service électrique qui reste de grande qualité. Comme l’explique Christian Balzer, Equinix enregistre environ 2 pannes d’alimentation par an sur ses datacenters – et encore de très faible durée -, alors qu’en Italie, à Milan, l’opérateur doit faire face à plusieurs interruptions par mois. Le risque d’interruption est donc faible, même si la prudence veut que l’on fasse tout ce qui est possible pour s’en prémunir…

LA FÊTE DE LA MUSIQUE

Peut-être ne le saviez-vous pas mais la fête de la musique tire son origine réelle de de Maurice Fleuret qui en 1981 est le directeur de la Musique et d la Danse.

En ce temps, un jeune sur deux jouait d’un instrument de musique, ayant constaté l’engouement des jeunes pour cet art il propose donc de faire jouer des musiciens amateurs dans la rue afin de promouvoir la musique.

Partant de là il communique son idée à Jack Lang qui à l’époque dirige cette initiative auprès du ministère de la culture.

C’est ainsi que la fête de la musique est lancée quelques semaines plus tard et très exactement le 21 juin 1982 entre 20h30 et 21h.

Aujourd’hui l’engouement est tel qu’elle est célébrée dans toute l’Europe et dans d’autres continents aussi bien par des professionnels que par des amateurs.

La musique aujourd’hui est comme un territoire neutre sur lequel divers horizons peuvent se rencontrer alors n’hésitez pas à vous ECLATER. 😉

Profitez bien de votre journée, vibrez aux sons qui vous plairont entre soleil et musique quel duo  !!!!