Espace membre :
Clubic Pro

Tendances IT 2013 : cloud et big data bien sûr... oui mais comment ?

Publié par Alexandre Laurent le vendredi 04 janvier 2013
L'inévitable exercice qui consiste à prédire les grandes tendances à observer pour l'année à venir aboutit sans surprise à des poncifs tels que l'essor du cloud computing ou l'avènement du Big Data. Reste à voir comment, plus précisément, les acteurs de la sphère IT envisagent la chose.

Analystes éclairés et acteurs intéressés se prêtent chaque année à l'exercice qui consiste à prédire quelles seront les grandes tendances qui animeront le marché de l'IT au cours des douze mois à venir. Au doigt levé, quiconque suit d'un oeil l'actualité du secteur peut lui aussi tenter sa chance : Big Data et explosion des données, cloud computing, essor de la mobilité, réunion des environnements pro et perso... ces « tendances 2013 » relèvent bien souvent du truisme.

Parce qu'elles recèlent tout de même matière à réflexion, pour peu que l'on prenne le temps de dépasser les grandes généralités introductives, et parce qu'il ne peut pas faire de mal de confronter quelques instants ses problématiques quotidiennes aux grands axes suivis par le marché, nous vous proposons ici un rapide passage en revue des tendances incontournables de 2013, étayées du point de vue - plus précis bien qu'orienté, forcément - d'un certain nombre des acteurs concernés.

Cloud computing : une évidence de plus en plus complexe

Qualifier le cloud de tendance n'est plus un truisme, c'est une lapalissade inscrite dans la durée. Reste à voir concrètement quelles sont les pistes de réflexion qui mobiliseront pendant les prochains mois les entreprises, toutes confrontées de près ou de loin au phénomène ? Du côté des infrastructures, les sorties produit et les déclarations de circonstance révèlent quelques lignes de convergence : virtualisation galopante, infrastructures hybrides et appropriation d'usages un temps dévolu aux départements IT par l'ensemble des collaborateurs.

« Le Cloud Hybride sera sans doute en 2013 l'approche privilégiée, comme un compromis entre deux alternatives qui jusqu'à présent s'opposent », fait par exemple valoir Thomas Luquet, responsable des solutions de convergence, cloud computing et datacenters sur la zone EMEA chez NEC, dans la mesure où il « permettra de proposer aux entreprises une extension sécurisée de leur réseau interne, pour conserver les systèmes ou données sensibles au sein de l'entreprise et externaliser naturellement tout ce qui peut l'être, tout en bénéficiant de cette capacité d'adaptabilité, de flexibilité et de scalabilité qu'offre le Cloud ».

Certainement plus hybride, le cloud deviendrait plus « personnel », pour reprendre l'expression de Yacine Mahfoufi, directeur marketing France d'Alcatel-Lucent Enterprise, dans la mesure où les usages liés aux services en ligne font désormais partie de la vie courante. « Les attentes vis-à-vis des directions informatiques se centrent désormais sur les modèles de mise à disposition des services - de plus en plus à la demande - plutôt que sur la mise à disposition d'un service en particulier sur un terminal spécifique », fait-il ainsi valoir, ramenant à l'essor du fameux Bring Your Own Device (BYOD, voir notre dossier).

« La nécessité de créer, stocker et d'accéder aux données, à partir de solutions mobiles ou d'un poste de travail plus classique rend aujourd'hui les solutions de stockage et de protection des données traditionnelles obsolètes, rigides et chères. Si les départements informatiques ne fournissent pas ces fonctionnalités à l'utilisateur final, ce dernier outrepassera les responsabilités du service informatique pour les obtenir lui-même », renchérit Alan Laing, vice-président EMEA d'Acronis, spécialiste de la protection des données qui lui aussi croit à l'inévitable montée des environnements hybrides dans l'univers du stockage.

L'année du software defined ?

De quoi sans doute changer la donne au delà des serveurs proprement dits, qui depuis quelques temps n'ont plus l'apanage de la virtualisation ? Que l'on pense au réseau, aux logiciels ou aux services, l'accent est désormais mis sur le software defined, soit « défini par le logiciel », que Chuck Hollis, directeur des technologies chez EMC, définit dans ses propres prévisions pour 2013 comme « un concept d'architecture idéale où les ressources informatiques seraient immédiatement disponibles puisque distribuées de manière dynamique, sous forme d'instances virtuelles ».

Logo BigData
Ce software defined fait aussi l'objet de nombreuses attentions dans l'univers du réseau, où revient immanquablement en cette fin d'année l'acronyme SDN (software defined network). Progressivement mis en place par les fournisseurs de service, celui-ci permet « d'adapter directement le réseau aux besoins applicatifs des utilisateurs et aux couches de supervision » pour Philippe Tiennot, directeur général France de Brocade, et devrait donc logiquement se démocratiser, en ces temps où il convient de redonner de la valeur au tuyau.

Big Data : apprentissage et performances

Si le cloud sonne pour beaucoup comme une notion galvaudée, le Big Data (voir notre dossier) suivra à n'en pas douter le même chemin en 2013. Il n'en reste pas moins des plus observés, dépassant largement le simple prisme de la Business Intelligence (BI). Tous s'y sont mis d'une façon ou d'une autre, d'Oracle à Software AG en passant par IBM, HP, Microsoft ou SAP, chez qui des annonces relatives au développement de HANA sont attendues en début d'année. Le terme devrait d'ailleurs revenir en tant que baseline dans la plupart des grandes conventions organisées par les grands noms de l'IT. « Go Big. IT with Impact ! », promet par exemple CA Technologies pour son évènement annuel.

Sans surprise, la machine suit et dope la cadence, avec d'un côté la multiplication de références serveurs dédiés au Big Data, capables de stocker plusieurs Po d'information, et de l'autre l'essor du modèle In Memory, où l'on construit des silos à base de mémoire vive, avec des temps de réponse ramenés à l'échelle de la nanoseconde. Entre les deux, le stockage à base de mémoire Flash (SSD) aujourd'hui souvent utilisé comme appoint, veut réunir le meilleur des mondes, et devrait continuer à se démocratiser dans les serveurs, supplantant parfois pour de bon le vénérable disque dur.

Si le Big Data consiste bien à traiter de très grands volumes de données - 2013 devrait au passage confirmer, s'il en était besoin, la place de choix du GPU en la matière, il « implique le recours à des méthodes d'analyse heuristiques relevant, entre autres, du traitement de langue et de l'apprentissage statistique », souligne François Chahuneau, directeur des technologies de Numen. Au delà des volumes, il faut en effet apprendre à manipuler des données de plus en plus hétéroclites, et de moins en moins structurées. De quoi favoriser, selon lui, l'émergence de nouvelles méthodes d'analyse, qui demanderont « des informaticiens d'un nouveau type, rompus aux méthodes d'analyse des données plus qu'à l'informatisation des process ».

A voir aussi :
Chargement des commentaires...
( les afficher maintenant )

Les offres d'emploi

Partenaire Clubic.com

Partenaire Clubic.com

BE GEEK ! Avec

flechePublicité