« Patience et longueur de temps » est certainement la devise de Microsoft. Car si le géant américain dispose de moyens sans limite, Rome ne peut pas toujours se faire en un jour. Il faut parfois laisser le marché maturer. Et plutôt utiliser ses ressources marketing et techniques pour se placer en position de force. Afin de dégainer le moment venu. Un exemple ? Utiliser Teams pour basculer la téléphonie d’entreprise des PME…

Il y a plus ou moins 5 années en arrière, le monde découvrait le Covid-19. Et une période d’incertitude comme l’histoire récente n’en avait pas connue s’ouvrait devant nous. Mais le grand public découvrait aussi par la même occasion Teams, l’outil de collaboration de Microsoft. Ce produit, issu du rachat de Skype for Business quelques années plus tôt, aura permis, entre autres, au monde professionnel de continuer à travailler. Et accessoirement aux particuliers d’organiser des soirées virtuelles.

Un peu d’histoire

Si cette émergence peut paraître anecdotique, il est utile de rappeler que Teams n’avait été lancé officiellement qu’en 2016, et qu’il remplaçait tout aussi officiellement Skype for Business en 2017. Soit environ 2 années avant que la pandémie ne frappe à notre porte. Si ces échelles de temps sont relativement longues dans le monde informatique, il en va autrement quand il s’agit d’imposer à un produit à l’échelle mondiale. Avec le recul, on peut dire que la percée de Teams a été rapide. Très rapide.

A peu près à la même époque, Teams avait été déclaré apte à traiter les appels téléphoniques. Après tout, quoi de plus normal : l’outil était capable, comme ses concurrents, de gérer des appels audio et vidéo sur Internet, entre plusieurs participants. Ajouter des fonctions de téléphone revenait à s’interfacer avec le réseau téléphonique public, que ce soit pour passer ou recevoir des appels. Ou autrement dit, il suffisait de faire le pont entre deux technologies existantes.

Si le service a eu peu de succès au début, les choses se sont accélérées depuis deux ou trois ans. Il faut dire que la qualité n’était pas forcément au rendez-vous pour les premiers clients à opter pour ce service. Et la difficulté apparente de porter ses numéros d’entreprise n’aidait pas non plus : Microsoft préférait proposer ses propres numéros, ce qui ne fait pas de sens pour une PME. Dernier écueil : les tarifs des communications n’étaient pas attractifs. Alors comment expliquer un tel revirement ?

Teams, ou la téléphonie d’entreprise réinventée

Ce sont les opérateurs téléphoniques eux-mêmes qui ont donné ses lettres de noblesse à Teams Phone. Tout autant attirés par un nouveau marché que par la crainte de voir leurs clients existants fuir vers d’autres horizons. Ils ont donc poussé progressivement cette alternative vers leur clientèle, afin de ne pas se faire déborder par une nouvelle concurrence. Quitte à y laisser quelques plumes : déplacer la téléphonie d’entreprise sur Teams revenait à abandonner la gestion de ce service à l’IT. Et à être réduit à faire le passe-plat des minutes de communication.

Car le marché de la téléphonie fixe professionnelle a toujours été très lucratif. Que ce soit pour les électriciens, qui ont longtemps sélectionné et installé le matériel sur site. Quitte à faire payer extrêmement cher le moindre changement de configuration. Ou pour les opérateurs, qui avaient développé des centraux téléphoniques virtuels dans le Cloud, regroupant ainsi les appels et l’intelligence dans leurs centres de données en remplacement des équipements déployés habituellement chez les clients.

Les clients eux-mêmes n’ont pas été étrangers à cette transition. Avec l’avènement de Teams en entreprise, ils ont progressivement exprimé le besoin de traiter leurs appels avec un outil de communication qu’ils connaissaient bien. Et surtout, avec un outil disponible sur une multitude d’appareil. A la clé : de la flexibilité pour les utilisateurs, qui pouvaient appliquer à la téléphonie le choix de leur appareil préféré (smartphone, PC). Et pour les entreprises, la perspective de ne pas remplacer des combinés téléphoniques vieillissants et coûteux.

Un développement à marche forcée

Reste la question des fonctionnalités. Et c’est là que la puissance de Microsoft évoquée en introduction a fait toute la différence. Car si des arguments financiers ou liés à la praticité pouvaient peser dans l’équation, les clients n’auraient pas fait le pas en cas de perte des fonctions rendues jusqu’à maintenant fidèlement par leur bon vieux PABX. Transferts d’appel, files d’attente, message d’accueil, gestion des plages horaires, distribution des appels entrants : l’absence des ces caractéristiques auraient constitué un frein indéniable au passage sur Teams.

Microsoft a donc progressivement enrichi son outil. Quitte à dépasser la concurrence. En tout cas sur le strict plan du rapport prix/prestation. Un exemple ? Il est possible désormais de mettre en place un message d’accueil textuel qui sera lu par une synthèse vocale tout à fait convaincante. Et ceci sans aucun surcoût. Avec la possibilité de gérer soi-même ces messages tout comme la configuration complète du central ou des lignes associées aux utilisateurs, le client a repris le contrôle de sa téléphonie. Et tout ceci pour le prix d’une licence mensuelle.

A partir de cet instant, la partie était plus ou moins pliée. La combinaison de coûts faibles, de fonctions avancées et d’une flexibilité extrême a amené les clients à avancer sur ce qui était désormais un terrain connu. Et à délaisser progressivement leur infrastructure téléphonique, qu’elle soit standard ou virtuelle. Microsoft, qui avait planté les graines de ce succès quelques années auparavant, n’avait désormais plus qu’à récolter les fruits de sa patience.

Emmanuel Dardaine

emmanuel dardaine expert cloud

Et vous, êtes-vous prêt à passer sur Teams pour votre téléphonie d’entreprise ? Demandez-nous une démo pour finir de vous convaincre !

Petite entreprise rime généralement avec flexibilité et polyvalence. Chaque collaborateur y déploie de nombreuses compétences, en lien avec le métier. Mais pas en informatique, ou sinon à la marge. Alors que la majorité des fonctions est internalisée, l’IT reste un morceau trop gros à avaler. Surtout à l’heure où la cybersécurité doit se renforcer. Ce qui justifie le passage à l’infogérance. Un choix sensé par nature.

Mais que signifie au juste « infogérance » ? Il s’agit tout simplement de confier la gestion de son infrastructure à un prestataire tiers. Cette gestion recouvre différents modes de fonctionnement, nous y reviendrons. Car il y a gestion et gestion. Mais quel que soit le périmètre du mandat, externaliser cette fonction revient à confier les rênes à un professionnel. Qui aura pour mandat de maintenir à niveau votre parc informatique et la sécurité qui va avec. Voyons pourquoi cela reste la solution privilégiée des PME.

Parce que vous n’avez pas les compétences

L’informatique est devenue incroyablement compliquée. Multiplication des appareils et des applications, mais aussi mobilité et intrication avec les appareils privés : autant de facteurs qui rendent les choses complexes. Et c’est sans compter sur le facteur de la cybersécurité, devenu un enjeu majeur dans le monde des petites entreprises. Par définition, se maintenir à niveau est un travail à plein temps. Que les PME ne peuvent assumer, n’ayant en général pas la taille critique pour justifier un emploi dédié.

Il est donc plus que préférable de s’appuyer sur un professionnel, si possible spécialisé dans les petites entreprises. Il sera d’autant plus efficace qu’au contraire de vous, il ne fait que cela, et forme son personnel en continu. Et qu’il capitalise son expérience sur un parc de clients important, dans différents secteurs d’activité. Cette diversité est un atout car elle permet de multiplier les cas d’usage, et donc de valider des configurations standards dans différents environnements. Là où vous n’auriez tendance qu’à faire du sur-mesure en vous considérant comme un cas unique.

Avec le temps, les choses ne s’arrangeront pas. Et les petites entreprises qui auraient, malgré tout, fait le pari de l’internalisation seront rattrapées par la réalité du terrain. Ce qui leur vaudra finalement de confier les clés du camion à un tiers. Un mouvement d’externalisation qui n’est pas simple à effectuer. Et qui s’anticipe. Agir le plus tôt possible vous évitera de vous retrouver au pied du mur.

Parce que l’infogérance est un atout

S’appuyer sur un professionnel constitue surtout un avantage de taille pour votre PME. Comme je l’ai évoqué plus tôt, les petites entreprises se doivent d’être flexibles et polyvalentes par nature. Et cela vaut tout autant pour leur informatique. Un simple maintien en conditions opérationnelles n’est aujourd’hui pas suffisant. Dans notre quotidien, nous rencontrons des organisations qui, au mieux, ont un système vétuste, mais à jour. Et au pire, un système qui n’est pas maintenu.

L’IT est un pilier majeur du bon fonctionnement des PME. Leurs dirigeants se contentent pourtant de considérer que la fiabilité est un objectif suffisant. Ce qui aboutit à exploiter un système qui vieillit et finit par se scléroser. Autrement dit : tant que cela fonctionne, on ne touche à rien. Pourtant, les conditions du marché tout comme les besoins des collaborateurs évoluent. Comment y faire face avec une informatique statique ?

Opter pour l’infogérance, c’est aussi bénéficier des évolutions que pourra vous proposer votre prestataire. Sa connaissance du marché informatique et des évolutions technologiques vous permettra d’envisager des mises à niveau que vous n’auriez peut-être pas considérées par vous-même. Tout en gardant le choix d’aller de l’avant ou pas. Plutôt que de réagir en fonction des demandes internes ou des défis imposés par vos clients, vous capitalisez sur l’expérience de votre infogérant pour avoir déjà en tête les solutions aux problèmes qui ne vous ont pas encore été posés.

Parce que les services managés sont aussi de l’infogérance

Dans les faits, l’infogérance peut recouvrir plusieurs formes. Dans sa plus simple expression, l’externalisation peut se limiter à donner les accès sur votre infrastructure à votre prestataire, qui en prendra le contrôle mais se contentera d’intervenir à la demande. Autrement dit : sa gestion se limitera à réparer ce qui doit l’être lorsque vous signalerez des dysfonctionnements. Le paiement, lui, se fera à l’avance sous la forme de carnets d’heures.

Autant le dire tout de suite : ce type d’infogérance n’est ni avantageux, ni sérieux. Ne serait-ce que si l’on considère le rythme effréné des mises à jour – corrélé avec celui non moins effréné des découvertes de failles de sécurité. Par ailleurs, l’utilisation d’heures de service prépayées ne vous inscrit pas dans un cercle vertueux, puisque l’infogérant n’est pas incité à être efficace : si le système n’est pas maintenu de manière proactive, vous serez amené à consommer les heures. Et si le prestataire n’est pas assez efficace, vous les consommerez en masse. Ce qui rapprochera d’autant plus vite le moment d’en recommander.

A l’autre extrême du spectre, les services managés sont la forme d’infogérance la plus vertueuse. Souscrits sous la forme d’un forfait mensuel fixe, ils comprennent la maintenance proactive et réactive, mais aussi le support. Le prestataire assume alors le risque des pannes. Son intérêt consiste alors à s’assurer que les systèmes sont maintenus en conditions opérationnelles en permanence. Ce qui diminuera les risques de panne, et donc la charge d’exploitation (support, maintenance réactive), tout en apportant un niveau de satisfaction plus grand au client.

Cette forme de relation gagnant-gagnant constitue le meilleur de ce que vous pourrez obtenir de l’infogérance. Elle vous garantira que votre système sera à jour et sécurisé, tout en étant apte aux évolutions requises par votre marché et votre activité. Surtout, elle gardera sous contrôle votre budget, tout en vous évitant d’acquérir des compétences ou de devoir procéder à une veille technologique chronophage. Raisonnable, pour une PME, non ?

Emmanuel Dardaine

emmanuel dardaine expert cloud

Envie de savoir à quoi ressemble notre infogérance à base de services managés ? Contactez-nous pour une présentation complète.

SB SwissBusiness est une société fiduciaire basée à Bussigny. Active depuis 20 ans, elle accompagne les PME au long de leur existence en fournissant des prestations d’expertise fiscale, d’audit, de conseil stratégique, de comptabilité et de gestion financière. Pour la remise à niveau de son infrastructure de bureau virtuel d’entreprise, elle s’est tournée vers Steel Blue et Azure Virtual Desktop. Récit.

Jusqu’à maintenant, l’entreprise exploitait un serveur de sessions Windows distantes hébergé dans la région de Lausanne. La solution du bureau virtuel d’entreprise n’était donc pas une nouveauté pour SB SwissBusiness. Mais des difficultés d’exploitation, un serveur devenu obsolète et une dégradation du service du prestataire, notamment en termes d’assistance, ont forcé la fiduciaire à entamer un processus de migration. L’occasion non pas de simplement remplacer son serveur par un autre, mais de faire un vrai saut technologique, comme nous l’explique M. Moulin, Directeur et Associé :

« Nous exploitions dans l’entreprise un serveur de bureau virtuel depuis plusieurs années. SB SwissBusiness a toujours privilégié cette solution afin de centraliser les données, et éviter tout risque de fuite en cas de perte ou de vol d’un appareil. Nous ne gardons rien sur nos PC et nous nous efforçons de tout placer sur le serveur. La localisation du serveur en Suisse était aussi un enjeu pour nous, que ce soit pour des raisons réglementaires mais aussi pour rassurer nos clients. Le manque de réactivité du prestataire ainsi que des soucis de performance nous ont amenés à revoir notre copie et tenter de trouver un autre fournisseur. Steel Blue nous est apparu comme un candidat idéal, du fait de leur maîtrise des serveurs Cloud virtuels. »

Windows Server 2016, Office 2010 : autant de technologies dépassées qui justifiaient la remise à niveau de l’infrastructure. Mais les besoins ne s’arrêtaient pas là : le serveur existant ne permettait tout simplement pas de profiter de Teams pour réaliser des visioconférences depuis les bureaux virtuels. Si bien que ces séances virtuelles étaient réalisées depuis les PC eux-mêmes, remettant en cause le choix de la centralisation. Et la mise à niveau des applications de déclaration fiscale, souvent régulière en période de bouclement, nécessitait des temps de réaction que SB SwissBusiness ne pouvait pas espérer en l’état. Il était donc temps de devenir un peu innovant.

« Nous avions conscience de la vétusté de notre plateforme. Plutôt qu’une simple remise à niveau, Steel Blue nous a proposé un tout nouveau modèle. En passant sur Azure Virtual Desktop, nous avons pu basculer sur Windows 11, ce que ne peuvent pas proposer les autres technologies. Et pour ce qui est des mises à jour des logiciels, ils ont mis en place un système d’élévation de droits qui est parfait : avec une clé d’authentification physique FIDO2, je peux profiter pendant un court laps de temps des permissions nécessaires pour mettre à jour nos applications de déclaration comptable. Nous sommes donc autonomes et nous n’avons pas à attendre que Steel Blue fasse les modifications, sans mettre toutefois en péril la sécurité de la machine. Last but not least, notre serveur nous permet de lancer des séances audio et vidéo avec Teams directement depuis le bureau virtuel d’entreprise, en utilisant les périphériques du PC qui nous y connecte. Pour nous, c’est une révolution !”, confie M. Moulin.

Ainsi outillé, SB SwissBusiness pouvait donc aller de l’avant et reprendre sereinement l’exploitation de ses logiciels métier, tels que Crésus. La migration aura permis de récupérer l’entier des fichiers depuis l’ancien serveur. Mais aussi de migrer les emails vers Microsoft 365, ce qui n’était initialement pas prévu. Heureusement, les performances des machines Azure Virtual Desktop permettent de réaliser ces tâches dans des délais extrêmement courts, grâce aux débit disponibles. Débits qui ont aussi constitué une agréable surprise pour le client.

« Le transfert de nos boîtes email vers Microsoft 365 était prévu depuis longtemps, mais nous n’avions pas pu planifier ce projet. Steel Blue a donc intégré cette phase dans son planning, malgré des délais très courts. Nous bénéficions maintenant d’un environnement 100% Microsoft, entièrement fourni et géré par Steel Blue sous la forme d’un service managé, et dont les performances dépassent nos attentes. A titre d’exemple, nous atteignons des vitesses de 5Gbps en téléchargement, et à peine moins en téléversement, sur des sites de test classiques. Comme le dimensionnement du serveur est à l’unisson, les problèmes de lenteur sont maintenant derrière nous, et nous pouvons nous concentrer sur notre activité », conclut M. Moulin.

Et pour la suite ? SB SwissBusiness est maintenant à même de monter en puissance avec les outils Microsoft. Si le transfert des fichiers sur l’environnement Cloud SharePoint de Microsoft a été écarté au moment de la migration, il pourra être réévalué au bout de quelques mois. Notamment puisque les données des clients suisses restent hébergées sur le sol de la Confédération, et que les outils de contrôle de connexion permettent de garantir que les données ne seront utilisables que depuis le serveur de bureau virtuel d’entreprise. Surtout, la montée en puissance du client sur l’outil de collaboration d’entreprise Microsoft Teams apparaît comme la suite logique du renouvellement informatique de SB SwissBusiness. Tout comme la publication d’applications distantes en lieu et place de bureaux complets, afin que les clients de la fiduciaire puissent accéder aux programmes de gestion sans avoir à quitter leur propre session. Vous avez dit « moderne » ?

Emmanuel Dardaine

emmanuel dardaine expert cloud

Vous aussi vous recherchez une solution de bureau virtuel ? Contactez-nous pour une présentation complète.

Vous avez probablement croisé ses véhicules dans la région genevoise. Joseph Menu est une entreprise familiale basée à Plan-les-Ouates, spécialisée dans l’aménagement et l’entretien des espaces verts. Au moment de renouveler son informatique, elle a choisi l’externalisation Cloud complète chez Steel Blue. Histoire de se débarrasser de son vieux serveur. Un cas d’école, que nous relate sa directrice, Marie-Jeanne Febvay-Menu. 

Jusqu’à maintenant, l’entreprise exploitait une informatique qu’il n’est pas irrespectueux de qualifier de « classique ». Avec son serveur sur site, équipé d’une solution de virtualisation, elle disposait de plusieurs instances. Ceci afin d’assurer le stockage et le partage des fichiers. Mais aussi l’authentification des utilisateurs, la gestion des impressions et l’hébergement d’applications. Cette solution aurait pu perdurer dans le temps, comme c’est le cas pour nombre de PME du canton. Mais le Covid-19 et l’évolution des besoins sont passés par-là, comme nous l’explique Mme Febvay-Menu. 

« Lorsque les employés se sont retrouvés en télétravail pendant la pandémie, nous avons dû composer avec notre infrastructure informatique. Nous n’étions pas prêts à basculer dans un mode de travail majoritairement distant. En particulier, l’accès aux fichiers et aux applications était particulièrement peu pratique. Nous avons dû déployer en urgence des ressources pour faciliter les accès depuis la maison via un serveur de sessions. Mais malgré tout, la solution n’était pas satisfaisante. Le vieillissement de notre parc informatique, et l’absence de solutions efficaces de notre prestataire informatique ont fait le reste. Il était temps de tout revoir de fond en comble. »

Dans ce contexte, l’absence de réactivité et de propositions simples de l’assistance technique, tout comme le défaut d’entretien des infrastructures ont pesé lourd dans la balance ayant conduit au changement. Mais pas uniquement. L’obsolescence du matériel, que ce soit le serveur ou les postes, ont également contribué au mouvement. Dans ces conditions, Joseph Menu a pris contact avec Steel Blue sur les conseils d’un de nos partenaires. Et nous avons pu proposer notre modèle d’externalisation informatique complète, mêlant la fourniture des infrastructures Cloud et le service de gestion tout inclus.

« Dès nos premiers échanges avec Steel Blue, ils nous ont proposé un service informatique managé basé sur le Cloud Microsoft 365. Le stockage des fichiers tout comme la messagerie d’entreprise sont externalisés dans le Cloud. Nous avons saisi l’opportunité que représentait ce changement et la suppression de notre serveur, nous offrant ainsi une plus grande souplesse pour l’organisation de notre temps de travail. Mais surtout, la gestion, la maintenance et le support faisaient partie du même forfait que celui des services en ligne, sans limite de temps et sans risque de débordement. Ce qui nous donnait des garanties concernant le niveau de service, car en la matière, nous partions de loin. »

Evidemment, une telle remise à plat de son informatique a incité Joseph Menu à mettre à niveau son parc de PC. Quelques machines tournaient encore sur Windows 10, dont l’échéance est fixée à octobre 2025. D’autres machines étaient à bout de souffle ou incapables de faire la mise à niveau vers Windows 11. Surtout, le service d’externalisation informatique proposé incluait aussi la gestion et la protection des appareils, basées de préférence sur l’édition Pro de Windows. Joseph Menu se devait donc de disposer d’un parc homogène pour que les outils de supervision et de configuration à distance puissent fonctionner sans obstacle. Mme Febvay-Menu nous explique les bienfaits de ce choix : 

« L’externalisation de notre informatique, et son évolution vers plus de nomadisme, nous a fait opter majoritairement pour des ordinateurs portables. Et comme toutes les petites entreprises, nous accédons aux emails sur nos téléphones. Steel Blue nous a expliqué l’enjeu que constitue la protection de ces appareils. Logiquement, leur service managé de gestion inclut la configuration, la sécurisation et la supervision de tous les appareils. C’est d’ailleurs aussi vrai pour les postes fixes. Ce qui nous donne au final beaucoup de sérénité, puisque le choix du matériel se fait en fonction de nos besoins, et non pas du niveau de sécurité souhaité. Celui-ci est homogène à travers tous notre parc d’appareils. »

Et côté qualité de service ? Au-delà de la suppression du serveur et de la remise à niveau de ses ordinateurs, Joseph Menu nous attendait au tournant du service après-vente, que ce soit pendant la phase de migration mais aussi pendant les premières semaines d’utilisation, lorsque le client s’approprie sa nouvelle solution informatique et fait face au changement pendant lequel il doit être accompagné. Mme Febvay-Menu nous explique ce qui a fait la différence pendant ces phases cruciales, mais aussi après. 

« Le contrat avec notre prestataire précédent a imposé des délais de migration courts. Mais la gestion de projet solide de Steel Blue nous a permis de disposer d’un plan clair et d’un planning compatible avec cette exigence. La migration en tant que telle n’a duré qu’une grosse demi-journée, après laquelle nous avions retrouvé notre autonomie, nos fichiers, nos emails, nos ordinateurs et nos applications à disposition. Malgré l’appréhension naturelle due à ce type de transformation, nous avons trouvé rapidement nos marques. Malgré un changement de modèle informatique conséquent, il n’a finalement impacté que modérément notre utilisation au quotidien. La fiabilité des services a fini de nous rassurer, tout comme la réactivité du support Steel Blue, que nous louons au quotidien. Nous ne faisons pas souvent appel à eux, après quelques mois d’exploitation, mais il est important que nous ne restions pas coincés par des questions, mêmes basiques. »

Prochaine étape pour Joseph Menu ? La migration de leur outil de comptabilité et de gestion des devis et factures. Cette phase est déjà bien entamée et, même si elle ne concerne pas directement Steel Blue, elle aura un impact sur l’ancienne infrastructure qui pourra être définitivement et totalement arrêtée. Surtout, l’externalisation informatique ne s’arrête pas là, puisque c’est au réseau et au système d’impression d’être mis à niveau. Toujours en mode service managé pour PME, incluant infrastructures et service tout compris, et loués via des forfaits fixes mensuels. Histoire de ne pas changer une combinaison qui convient à Joseph Menu. 

Emmanuel Dardaine

emmanuel dardaine expert cloud

Envie d’en savoir plus sur notre services d’externalisation informatique ? Contactez-nous pour une présentation complète.

Dans le secteur des PME, gérer l’informatique s’apparente à un casse-tête. Entre volonté d’internaliser, et désir de s’en remettre à un spécialiste, le cœur des dirigeants balance. Car donner les clés du camion n’est pas une décision simple. Surtout quand elle s’accompagne d’une dématérialisation IT, où abandonner machines et compétences à un tiers peut effrayer. Pourtant, les services informatiques managés, en particulier dans le Cloud, apparaissent comme un choix gagnant pour les PME.

Nombreuses sont les petites entreprises qui s’en remettent encore à une informatique classique, basée sur des serveurs informatiques physiques hébergés dans leurs locaux. Dans l’inconscient des décideurs, cette solution reste la meilleure, puisqu’elle permet d’avoir matériel et données sous la main. Pourtant, la compétence de gestion est en général déjà externalisée, sous la forme de carnets d’heures. Pour le dire autrement, un prestataire intervient à la demande sur le matériel sur site, soit pour apporter des modifications de configuration spécifiques, soit pour corriger des dysfonctionnements. Et fait payer ces prestations à l’acte. Ou plutôt : au temps passé.

Les défauts d’une absence de proactivité

Ce fonctionnement engendre toutefois plusieurs biais. A commencer par la gestion du matériel. S’il est rassurant d’avoir physiquement son serveur sous les yeux, l’absence de personnel de maintenance sur site ne facilite ni le maintien en conditions des machines, ni même celui de l’environnement dans lequel elles tournent. Autrement dit, personne ne s’en soucie vraiment. Jusqu’au moment de la panne subite, puisque personne n’aura prêté attention à ce petit bruit suspect. Vous savez, celui qui annonce des jours pas vraiment meilleurs. L’absence de toute action préventive met donc l’informatique en péril. Et peut engendrer des pannes dont la résolution sera d’autant plus longue que le mal aura couvé longtemps.

Cette gestion uniquement réactive est en effet le deuxième effet néfaste de l’externalisation du service à coups de carnets d’heure. Puisque le prestataire n’a pas de mandat pour choyer vos serveurs régulièrement, il n’y a pour ainsi dire pas de suivi ou de gestion des infrastructures. Seules les pannes ou les demandes du client déclenchent des interventions. Avec plus ou moins de bonheur, puisque l’absence de suivi induit aussi une perte de connaissance sur les infrastructures en place. Et donc un manque flagrant d’efficacité au moment de l’intervention. Dommage, car les carnets d’heures, eux, sont payés à l’avance. Et ils n’incitent donc pas à l’efficacité : plus le temps passé sera long, et plus vous devrez repasser à la caisse rapidement.

Dernier écueil : le manque d’évolution. Une fois installé, le serveur informatique, en l’absence de service proactif, vit sa vie. Et vieillit. Ce qui finira par le rendre obsolète. Mais si personne n’assure de suivi régulier de la machine, qui vous indiquera que celle-ci est devenue vétuste ? Du point de vue de l’utilisateur, tant que tout fonctionne, ou que tout est réparé, la vie continue, et l’obsolescence du matériel n’est pas tangible. Ainsi, on découvre régulièrement dans le parc informatique de petites entreprises des versions de Windows Server plus maintenues depuis des années. Comprenez par-là : il n’y a plus de mises à jour, et les failles de sécurité restent sans correctif. Problématique, non ?

Services informatiques managés : une approche gagnante pour tous

Personne n’aurait l’idée de ne jamais faire le service de sa voiture. Et c’est cette approche que reproduisent les services informatiques managés. Il s’agit de la gestion intégrale de ressources informatiques, couvrant aussi bien la maintenance préventive et le suivi, que la réparation et le service aux utilisateurs. Et si possible sans limite de temps, afin que le cercle soit vertueux. En effet, si le prestataire assume de passer le temps nécessaire à la correction des dysfonctionnements, sans surcoût pour le client, il sera d’autant plus incité à les éviter. Et donc à s’assurer que les infrastructures soient en parfait état de fonctionnement.

Reste la question du matériel. Car si un tiers se charge de la gestion de informatique, le serveur sur site reste la propriété de l’entreprise. Qui doit alors en assurer les risques : panne, remplacement des pièces, intervention sur site, contrats de garantie, etc. C’est là que la combinaison d’un service externalisé avec une infrastructure dématérialisée prend tout son sens.

Non seulement, vous profitez d’une gestion proactive de qualité. Mais vous vous affranchissez des contraintes du matériel en l’externalisant dans le Cloud et en le louant avec le service de maintenance. C’est alors le prestataire qui vous fournit vos « machines », et assume ce risque. Risque minimisé dans le Cloud, puisqu’on y remplace un matériel défaillant par un autre en quelques clics. On est alors loin de la situation évoquée en préambule, celle du boîtier placé sous le bureau et des embêtements qui vont avec.

Les dirigeants d’entreprise qui optent pour cette solution perdent-ils pour autant le contrôle de leur informatique. Pas sûr… Si un tiers fournit maintenance et matériel dans le cadre de services informatiques managés, le client ne perd pour autant pas le principal : la propriété des données. Car, soyons honnêtes, les responsables qui ne jurent que pas l’informatique sur site sont avant tout inquiets de voir leurs données leur échapper. Pas leurs machines. La propriété des données et les conditions de leur restitution sont finalement les seuls points critiques qui devraient attirer votre attention lors de la souscription d’un contrat de service managé. Pour le reste, il n’y a pas de raison objective de s’en passer.

Emmanuel Dardaine

emmanuel dardaine expert cloud

Contactez-nous pour connaître l’étendue de nos services informatiques managés pour PME, ou retrouvez-les en ligne sur notre site.

Si la technologie de bureau virtuel n’est pas nouvelle, elle n’a jamais eu autant le vent en poupe. Surtout au sein des PME de tout poil. Le Cloud est passé par-là, qui met à disposition cette solution sans nécessiter les capacités d’investissement d’une multinationale. La percée de la solution de Microsoft, Azure Virtual Desktop, en est un exemple flagrant. Pourquoi et comment ? C’est ce que nous allons voir.

Un bureau virtuel, Azure ou autre, répond toujours à la même définition. Il s’agit d’un environnement de travail informatique centralisé, généralement sous Windows, que les utilisateurs accèdent à distance. A l’opposé d’un ordinateur individuel, le bureau virtuel est donc éloigné et repose sur une infrastructure partagée. Centralisé, il est impossible à voler, et permet de concentrer les données et donc de les protéger.

Surtout, il partage aussi naturellement les ressources informatiques – mémoire et puissance de calcul, ce qui conduit à des économies d’échelle. Avec pas mal d’avantages à la clé. Dans le cadre d’Azure Virtual Desktop, ils sont encore plus nombreux, car Microsoft a su mitonner une solution aux petits oignons particulièrement moderne et adaptée aux petites structures.

Bureau virtuel : un concentré de la puissance de Microsoft et d’Azure

Si Citrix a été pendant longtemps la solution de référence dans le domaine des bureaux virtuels, la donne est en train de changer. Car Microsoft, éditeur de Windows, s’est octroyé un avantage majeur : la possibilité d’utiliser Windows 11 dans un environnement Cloud mutualisé. Là où les autres doivent se contenter de Windows Server, affublé d’une interface vieillissante, Microsoft est le seul autorisé à exploiter Windows 11, dans sa version « multisession ».

Et ça change quoi ? Tout ! Le bureau virtuel Azure devient donc un complément idéal d’un parc de PC, fixes ou portables. Pour l’utilisateur, il n’y a pas de différence entre les deux environnements, si bien que passer de l’un à l’autre se fait naturellement. Et sans changement d’habitude. Pour l’exploitant informatique, les mêmes outils de gestion et de protection des appareils informatiques s’appliquent, ce qui n’est là encore pas possible avec Windows Server.

Bureau virtuel - Session Azure Virtual Desktop sur un laptop Windows 11

Session Azure Virtual Desktop ouverte depuis un ordinateur Windows 11

Pour une PME, la flexibilité est sans égal. Elle peut choisir d’équiper ses commerciaux de laptops, mais orienter ses utilisateurs administratifs sur un bureau virtuel Azure Virtual Desktop. Et ceci sans avoir à démultiplier les outils de gestion, ou former les utilisateurs sur des environnements différents. Cerise sur le gâteau : les licences Microsoft 365 peuvent être utilisées indifféremment sur les ordinateurs physiques ou sur la solution virtuelle de Microsoft, sans sortir des clous. Basculer ses utilisateurs n’a jamais été aussi simple.

Des usages à tous les étages

Et côté finances ? Pour des usages simples, tels que la bureautique, le bureau virtuel est idéal, car il tire le maximum de bénéfice de la mutualisation des ressources. Dans les faits, vous faites tourner une seule machine partagée entre plusieurs utilisateurs. Le système en tant que tel n’est pas démultiplié, et seules les applications lancées par les utilisateurs viennent consommer des ressources supplémentaires. Assez logiquement, plus vous additionnez les sessions sur une machine, plus l’effet de mutualisation joue.

Mais Azure Virtual Desktop ne se limite pas aux usages basiques. Car Microsoft a encore su tirer avantage de sa maîtrise de Windows et des logiciels Office. Les observateurs les plus perspicaces auront remarqué l’arrivée récente d’optimisations VDI (Virtual Desktop Infrastructure) dans Teams. Ce qui signifie que le logiciel leader de la collaboration s’intègre parfaitement sur Azure Virtual Desktop. Et fait sauter une des limitations propres aux bureaux virtuels : l’impossibilité de faire des visio-conférences confortables.

La mise à disposition encore plus récente d’instances « GPU » (dotées de processeurs graphiques puissants) ouvre même la voie à des usages extrêmes, impensables il y a encore quelques années. A moins d’avoir un budget IT conséquent et des connaissances en rapport. Combinées à des performances réseau de premier ordre, avec des latences si faibles que la réactivité des bureaux se rapproche de celle de postes physiques, le champ des possibles semble sans limite.

Pour parachever ce tableau, Microsoft a produit un effort particulier pour améliorer la fameuse « expérience utilisateur ». Ceux d’entre vous qui ont déjà eu l’occasion de travailler avec ces technologies ont probablement expérimenté le logiciel Bureau à Distance de Windows. Vieillot, peu pratique, il fallait faire avec. Mais ça, c’était avant. Avec Windows App, l’accès à des bureaux virtuels devient simple et efficace. Et fonctionne de manière similaire sur toutes les plateformes : PC, Mac, Android, iPhone/iPad. Et avec la même protection.

Bureau virtuel - Windows App connecte Azure Virtual Desktop

L’application Windows App en action

Résistance, fiabilité et sécurité

C’est en effet le dernier point qui fait du bureau virtuel Azure un incontournable : la sécurité. Primo, la solution intègre de facto la double authentification MFA de Microsoft. Sans option, sans coût supplémentaire, et de façon uniforme. Vous fixez ainsi les mêmes prérequis de sécurité, peu importe que vous utilisiez un appareil physique ou un bureau virtuel. Deuzio, Azure Virtual Desktop est un service géré en partie par Microsoft. Ce qui fait que le point d’accès à ce service (là où votre application se connecte) est géré et surveillé par Microsoft. Avec l’armée d’ingénieurs et la puissance d’IA nécessaires pour cela.

Enfin, Azure Virtual Desktop ajoute une dose de fiabilité et de flexibilité sans égal. En particulier, vos serveurs de bureaux virtuels peuvent être répliqués automatiquement entre deux régions, vous mettant à l’abri d’une panne majeure dans un centre de données. Et si j’emploie le terme « vos serveurs », c’est à juste titre : la plateforme intègre aussi des mécanismes de mise à l’échelle, qui augmentent ou diminuent le nombre de serveurs nécessaires en fonction de la charge. Automatiquement. Ce genre de fonction est particulièrement attractive pour absorber des pics d’utilisateurs, dans l’événementiel par exemple.

On passera sur les facilités de gestion offertes par Azure Virtual Desktop, qui ne regardent finalement que l’exploitant et pas l’utilisateur final. Et qui pourtant font aussi la différence. Non, gardons plutôt en tête l’essentiel. Qu’on soit fan ou pas de Microsoft, il faut admettre leur capacité à développer des solutions qui ont du sens. Et in fine à orienter le marché vers celles-ci. Tout en redéfinissant les standards en termes d’usage, de sécurité, de flexibilité et de coûts. A ce titre, l’offre de bureau virtuel Azure Virtual Desktop est un exemple criant.

Emmanuel Dardaine

emmanuel dardaine expert cloud

Les screenshots, c’est bien. Une vraie démo, c’est mieux. Contactez-nous pour en avoir le coeur net !

Depuis qu’Internet existe, ce réseau mondial exploite des noms de domaine pour faciliter la vie des utilisateurs. Les entreprises s’en sont progressivement emparées pour assoir leur présence sur la toile. E-mails, sites Web, commerce en ligne : toute l’activité numérique repose aujourd’hui sur les noms de domaine. Cette ressource semble donc cruciale. Alors qu’arriverait-il en cas de piratage ?

Avez-vous déjà rencontré le terme DNS au gré de vos lectures ou de conversations avec votre informaticien ? Ce terme (Domain Name System) désigne le système qui permet de répondre aux requêtes adressées à un nom de domaine. Il est présent à l’échelle mondiale, puisque tout nom de domaine doit pouvoir être accessible depuis n’importe quel point du globe : j’exclus ici quelques pays à l’Internet exotique, tels que la Chine ou la Corée du Nord.

Nom de domaine : le B-A-BA

Concrètement, lorsque vous choisissez un nom de domaine, vous commencez par vérifier qu’il est disponible. S’agissant d’un système global, chaque nom est unique. Puis vous le réservez, ce qui fait de vous son propriétaire. Il n’est alors plus réservable par qui que ce soit d’autre. Mais pour l’exploiter, vous devez alors le faire héberger. C’est à ce stade que le système sait que votre nom de domaine existe, et où il se trouve.

Cet hébergement sera en charge de répondre aux requêtes, par exemple pour atteindre votre site web sur www.monnomdedomaine.ch, en traduisant un nom intelligible en une adresse IP ou toute autre information technique. Evidemment, vous ne faites pas ces requêtes manuellement, les logiciels que vous utilisez le font pour vous, de manière transparente. Les informaticiens, eux, lancent parfois ces requêtes à la main pour des investigations techniques. Mais ces informations sont accessibles à tout le monde.

Sous Windows, la manipulation est simple : touches Windows + R, commande « cmd » puis Entrée, puis commande « nslookup www.steel-blue.ch » pour savoir où se trouve notre site Web !

L’hébergement d’un nom de domaine contient de nombreuses informations, en relation avec les services que vous exploitez sur Internet. On y trouve donc l’adresse de votre site Web, mais aussi la localisation de votre serveur de messagerie, ou des informations de protection des emails. Autrement dit, ce système est vital pour votre entreprise. Et en fait, il est vital pour tout Internet. En 2021, les serveurs DNS de Facebook sont devenus inaccessibles, provoquant une panne mondiale de cette application.

Un piratage aux conséquences lourdes

Si l’hébergement DNS de votre nom de domaine était lui aussi en panne, vous seriez probablement incapable de travailler. Cet hébergement est donc primordial pour la bonne marche de vos services numériques. Et la fiabilité de votre hébergeur est donc critique en la matière, Mais son piratage peut conduire à des conséquences encore plus graves. Car vos services, et donc les informations qui s’y trouvent, pourraient tout simplement être détournés. Comment ?

Imaginons que vous n’ayez pas protégé correctement le compte qui vous permet de gérer votre nom de domaine, chez Infomaniak ou tout autre hébergeur. En négligeant la mise en place d’un mot de passe fort ou d’une double authentification par exemple. Un pirate pourrait donc en prendre le contrôle facilement, et modifier votre nom de domaine. En redirigeant votre site Web ou vos e-mails, au moins temporairement.

Détourner un simple nom de domaine permet de s’emparer de tous vos services – site Web ou e-mails – et donc d’usurper l’identité de votre société et de vos utilisateurs

Quel intérêt ? Supposons que je prépare une attaque sur le détenteur de mononmdomaine.ch. Et que le but de cette attaque consiste à lancer des ordres de virement bancaires frauduleux. Je vais commencer par collecter le plus d’informations possibles sur ma cible, afin de rendre les ordres plausibles. Et le moment venu, le contrôle sur le nom de domaine me permettra de détourner les e-mails et le site Web là où je veux, en usurpant le propriétaire au moins temporairement. Et d’envoyer ou de recevoir des messages à son nom.

Une protection parfois oubliée

La prise de contrôle de l’hébergement d’un nom de domaine peut donc permettre la collecte frauduleuse de données ou l’exploitation illégale des services Internet d’une entreprise. Mais aussi servir de support à des attaques par hameçonnage, en les rendant d’autant plus crédibles que le véritable nom de domaine est utilisé. N’oublions pas que la meilleure façon d’identifier une attaque de phishing consiste à vérifier les adresses e-mail ou les liens contenus dans le message, qui s’appuient souvent sur des noms de domaine farfelus. Mais pas dans le cas qui nous intéresse, ce qui rend la détection plus complexe.

Pirater l’hébergement d’un nom de domaine apparaît clairement comme une porte d’entrée accessible et efficace pour attaquer une entreprise. Mais des parades existent. Evidemment, il faudra commencer par sécuriser le compte d’accès à votre hébergement : mot de passe unique et complexe, activation de la double authentification. Les hébergeurs mettent aussi en place des garde-fous, comme les messages de notification ou de validation des connexions à leur hébergement.

Si elle est souvent négligée, la sécurité des noms de domaine ne doit donc pourtant pas être prise à la légère. Un piratage peut non seulement perturber vos opérations, mais aussi nuire à la réputation de votre entreprise ou impliquer des conséquences financières sévères. En mettant en place des mesures de sécurité robustes et en surveillant régulièrement vos systèmes, vous pouvez protéger efficacement vos actifs numériques et maintenir la confiance de vos clients. Et éviter de perdre votre nom de domaine.

Emmanuel Dardaine

emmanuel dardaine expert cloud

Faites le tri dans vos noms de domaine. Contactez-nous !

L’avènement des PC puis, plus récemment, des smartphones a individualisé l’usage des nouvelles technologies. Chacun adopte son matériel, ses outils, ses habitudes, et sa propre façon de travailler. Les entreprises doivent s’adapter à cette nouvelle règle. Mais comment garder un IT sous contrôle tout en laissant le choix aux employés ? La réponse tient en 3 mots : informatique hybride des PME.

Il n’est pas rare que certains clients nous montrent des fonctions, ou des moyens d’y accéder, que nous ne connaissions pas. A notre décharge, les environnements informatiques sont devenus tellement riches que chacun développe ses propres connaissances et compétences… et s’y tient. Ce qui implique de ne pas connaître d’autres alternatives, même plus efficaces. Ce constat est représentatif : en entreprise aussi, il n’y a plus une informatique, mais l’informatique de chacun.

Prenons un exemple simple : l’ouverture d’un fichier Word sous Windows 11. A première vue, il n’y a probablement pas moins de 10 façons de le faire. On peut ouvrir Word, puis sélectionner Fichier + Ouvrir, ou encore cliquer sur l’historique. On peut ouvrir l’explorateur de fichiers, puis passer par l’historique de l’accueil, ou encore les favoris, ou parcourir les dossiers. Vous êtes un accroc du clavier ? Enfoncez la touche Windows et entrez le nom du fichier pour faire une recherche, ou parcourez le menu de démarrage pour accéder à l’historique. J’arrête là.

Trouver chaussure à son pied

Ce descriptif est symptomatique. Et peut s’étendre facilement à tous les usages de l’informatique. Vous êtes plutôt PC ou Mac. Vous ne travaillez que sur smartphone et tablette. Vous êtes mobile et vous ne pouvez pas vous passer de votre laptop. Vous travaillez autant au bureau ou à la maison, mais uniquement sur un poste fixe, pour plus de confort. Vous avez besoin de puissance pour des travaux graphiques lourds, ou plutôt d’une machine rapide et efficace pour de la bureautique.

Les entreprises qui veulent garder de l’efficacité doivent prendre en compte cette diversité, afin de capitaliser sur l’expérience des utilisateurs dans leur environnement de prédilection. Et obtenir le plus de productivité informatique possible. Oui mais voilà, elles ont tendance en général à choisir une plateforme ou une solution, ce qui revient à contraindre les utilisateurs. Ou en tout cas une partie d’entre eux : ceux qui ne sont pas à l’aise avec le choix fait par l’entreprise.

Contraindre les utilisateurs peut aboutir à en laisser au bord du chemin. Alors que les laisser utiliser leur plateforme favorite est un vecteur de motivation.

Si on y regarde de plus près, et en simplifiant un peu les choses, quel est le cahier des charges informatique d’une PME ? Fournir et gérer des moyens digitaux, avec le plus de sécurité possible, pour réaliser des travaux de bureautique et exploiter des applications métier, si possible depuis n’importe où. Certes, cela s’apparente un peu à la quadrature du cercle. Mais si votre logiciel préféré est disponible aussi bien sur PC que sur Mac, est-ce que cela change quelque chose, tant que ce cahier des charges est rempli ?

Informatique hybride des PME : la gestion IT sécurisée et uniformisée

L’informatique hybride des PME répond justement à ces critères. Et elle peut se résumer en quelques mots : choisissez votre façon de travailler, votre IT s’y adaptera. PC, Mac, Android, iPhone, laptop, poste fixe, poste virtuel : ça n’est plus le matériel, et donc vos habitudes, qui fait la différence, mais la façon dont vous le gérez. Et celle dont vous le sécurisez. Du point de vue du cycle de vie des appareils, cela revient à traiter 5 étapes : configurer, protéger, mettre à jour, superviser, recycler.

Dans le détail, un appareil neuf doit tout d’abord être équipé de ses programmes. Puis sécurisé, en forçant un minimum de paramètres – mot de passe, complexité de celui-ci, cryptage des données, présence d’un antivirus, etc. Une fois en service, vous devrez vous assurer que ces paramètres de sécurité ne sont pas altérés, afin de garantir que votre appareil reste sain et protégé. Ce qui inclut aussi l’application des mises à jour. En fin de vie – ou si ses performances le justifient – vous pourrez faire une remise à zéro. Et le ramener à la première étape du cycle.

Si vous disposez d’une solution qui gère ces étapes indépendamment du matériel, alors vous aurez tout gagné. L’approche de l’informatique hybride vous permet justement de laisser le choix aux utilisateurs. Et donc de leur garantir la liberté de travailler plus efficacement. Sans défiance vis-à-vis des choix de l’entreprise. Une sorte de compromis gagnant-gagnant en quelque sorte, où les habitudes des utilisateurs sont respectées sans remettre en cause la sécurité des données et des appareils. En bref, sans péjorer leur gestion.

Services managés en prime

D’un point de vue budgétaire, l’informatique hybride en PME ne fait pas de distinguo entre les différents types d’appareils. J’entends par-là que le coût du système de gestion informatique ne diffère d’une plateforme à l‘autre. Cela qui ne préjuge en rien de la différence de coûts entre les appareils eux-mêmes : classiquement, un PC sous Windows sera toujours moins cher qu’un Mac équivalent. Là encore, l’entreprise est gagnante puisqu’elle conserve elle aussi le choix. Y compris le choix budgétaire.

Bien évidemment, tout n’est pas rose. Car si multiplier les types d’appareil permet de satisfaire les employés et de laisser l’entreprise faire des choix basés sur les coûts, il complexifie aussi les tâches d’assistance aux utilisateurs. Le système de gestion, même hybride, ne peut pas tout. En revanche, vous devrez probablement fournir moins d’assistance à des utilisateurs qui travaillent dans un environnement qu’ils connaissent et maîtrisent mieux. Mais tout de même : le responsable de la plateforme de gestion devra acquérir des compétences supplémentaires.

Cet inconvénient ne pèse pas lourd dans la balance. Il ne semble en tout cas pas insurmontable. D’autant plus si, évidemment, vous décidez de confier la gestion de votre informatique à un tiers. Sous la forme de services managés par exemple. C’est alors le prestataire qui sera en charge de développer les compétences sur les différents types de plateforme. Le tout pour un prix forfaitaire mensuel pour chaque utilisateur. La PME qui opte pour un tel service est alors libre de sélectionner son matériel et de le faire gérer en tout simplicité. Au bénéfice de sa sécurité et de ses utilisateurs.

Emmanuel Dardaine

emmanuel dardaine expert cloud

Vous aussi, profitez d’une gestion de parc informatique hybride en mode managé. Contactez-nous !

Le saviez-vous ? Windows 10 ne sera plus supporté par Microsoft dès octobre 2025. Ce qui signifie : plus de mises à jour. Et notamment plus de correctifs de sécurité. Les pirates de tout poil se rueront probablement sur l’occasion. Car cette version, malgré son âge, reste le système le plus utilisé dans le monde. Rien que ça. La fin de Windows 10 pourrait donc avoir des conséquences lourdes.

Les derniers chiffres sont révélateurs. En septembre 2024, Windows demeurait l’OS le plus populaire dans le monde, avec près de trois quarts des ordinateurs personnels de la planète. Mais derrière cette statistique se cache une autre réalité : près des deux tiers des machines motorisées par la firme de Redmond font encore tourner le version 10, lancée en juillet 2015.

Windows au fil des versions

Il faut dire que, fidèle à son habitude de rater une version sur deux, Windows 10 fait partie des succès de Microsoft. En succédant à Windows 8 / 8.1, la barre n’était pas très haute : cette version a été un échec total, que ce soit du point de vue de l’interface que des fonctionnalités et de la stabilité. Tout utilisateur de Windows qui aura vu passer dans sa vie l’affreux système de tuiles s’en souviendra sans regret. Pour l’anecdote, Windows 8 avait été lancé à la même époque que les Windows Phone, dans un effort désespéré de conquérir le marché du mobile et d’uniformiser les interfaces utilisateur.

Windows 10 a donc assez facilement et naturellement trouvé son public. Interface rajeunie, claire et moderne, performances à la hauteur, simplicité d’emploi : tout plaidait en faveur de cette nouvelle mouture. Avec à la clé, et au fil des années, une prédominance sur le marché. Notamment dans le domaine des entreprises, qui ont largement plébiscité cette version. Au final, Windows 10 est exploité encore par près de 65% des postes sous Windows dans le monde.

Cette part de marché est en recul régulier, compensé de manière symétrique par la progression de Windows 11. On peut facilement imaginer que le remplacement de machines anciennes par de nouvelles, livrées de facto avec Windows 11, ne soit pas étranger à ce phénomène. Et on comprendra aussi aisément que des utilisateurs contents de leur système ne prennent pas le risque de la mise à niveau.

Des prérequis toujours plus contraignants

Mais la seule réticence des utilisateurs n’explique pas tout. Car la configuration nécessaire pour utiliser Windows 11 est un tant soit peu plus exigeante que celle de Windows 10. En termes de mémoire, la mise à niveau n’échappe pas à l’habituelle nécessité de la doubler. Surtout, Windows 11 apporte un renforcement de la sécurité basé sur une puce dédiée – baptisée TPM, Trusted Platform Module – dont tous les PC ne disposent pas. A tel point que Microsoft a mis à disposition un outil de vérification de la compatibilité du matériel pour valider le passage à Windows 11.

Dans bien des cas, les utilisateurs seront pris entre le marteau et l’enclume : un matériel obsolète d’un côté, et un système bientôt plus mis à jour de l’autre. Au final, il faudra probablement opter pour le remplacement complet des ordinateurs qui ne passeront pas la rampe. Sous peine de subir des attaques assez rapidement dès la fin du support par Microsoft.

Les pirates adorent ces phases de fin de support, qui sont une chance inouïe de disposer de portes d’entrées faciles sur de très nombreux systèmes en fin de vie.

Vous en doutez ? En 2015, année de naissance de Windows 10, Microsoft avait mis fin au support d’un autre système, Windows Server 2003, très largement utilisé pour faire tourner les serveurs des entreprises. Dès la date passée, des failles critiques avaient été révélées et exploitées par des hackers, qui n’attendaient que cela. Le nombre de systèmes compromis avait été suffisamment important que pour Microsoft déroge à sa propre règle et publie un correctif dans les semaines suivantes.

La virtualisation comme solution à la fin de Windows 10

Quelles sont les alternatives ? Tout d’abord, commençons par la bonne nouvelle : vous avez un an pour agir et définir votre stratégie. Si malheureusement votre matériel n’est pas compatible, vous devrez donc le changer. A moins de décider de vivre dangereusement. Ou alors, cette situation constituera le bon moment pour envisager un changement radical en basculant sur un poste virtuel.

N’oublions en effet pas que disposer d’un PC Cloud est certainement le meilleur moyen de procéder à des mises à niveau sans aucun coût et sans devoir changer votre matériel. En accédant au travers de clients léger – Dell Wyse ou HP par exemple, vous décorrélez le matériel d’un côté et l’environnement de travail sous Windows de l’autre. Et vous profitez d’une mise à niveau de votre parc complet sans racheter de licences ou changer vos appareils. En quelques clics seulement.

Cela vaut aussi évidemment si vous exploitez une infrastructure de bureaux virtuels, telle qu’Azure Virtual Desktop, qui centralise et partage vos espaces de travail. Utiliser un tel environnement permet de procéder à une seule mise à jour sur votre serveur et en faire bénéficier tous vos utilisateurs. Les solutions existent donc pour préparer ce changement majeur de votre parc informatique. La virtualisation étant probablement celle qui sera la plus pérenne dans le temps. Car Windows 11 sera tôt ou tard concerné par la fin de support. Histoire de repartir pour un tour.

Emmanuel Dardaine

emmanuel dardaine expert cloud

Venez donc faire un inventaire de vos machines sous Windows 10 avec nous pour savoir quoi en faire !

Si vous êtes utilisateur d’Outlook pour accéder à votre messagerie, il ne vous aura pas échappé. Quoi ? Ce petit bouton, là, en haut à droite, qui vous incite à essayer le « nouveau Outlook ». Et si vous n’avez pas encore cliqué, voici quelques éléments pour comprendre de quoi il s’agit. Et qui vous aideront à vous décider. Ou à surtout ne pas cliquer, c’est au choix.

Passons sur la dénomination du produit. Il en va des logiciels comme des dossiers et des fichiers : le terme « nouveau » n’est valable qu’un à un instant donné, et ne tient pas dans le temps. Microsoft avait déjà fait le coup avec le « nouveau Teams ». L’avantage est de bien marquer la différence et d’annoncer un vrai changement. Mais que se passera-t-il pour le nouveau nouvel Outlook ? Il faudra trouver autre chose… et l’argument de la nouveauté tombera alors de lui-même.

D’ailleurs, le nouveau Teams  avait aussi eu droit à sa propre icône, avec un petit logo « New » du plus bel effet. Qui a disparu depuis, en même temps que le Teams tout court a été renommé en Teams « classic » et que le nouveau Teams lui a pris sa place. Vous suivez ?

Un Outlook pas si nouveau que cela en apparence

Bis Repetita, nous avons donc droit à un nouvel Outlook. En quoi est-il si novateur que cela ? D’un point de vue visuel, il y a des différences subtiles, qui le rapprochent de la version en ligne (celle que vous accédez au travers d’un navigateur) et de celle disponible sur Mac. C’est certes un peu plus moderne, mais on retrouve assez rapidement ses petits. En tout cas, il y a un réel effort d’harmonisation entre les plateformes, ce qui est louable.

Cette homogénéisation perceptible cache une réalité technique bien plus importante, et bien cachée, elle. Car sous son aspect actualisé, c’est le moteur même d’Outlook qui évolue en profondeur. Pour faire simple, Outlook devient une sorte de gros navigateur Internet qui affiche des pages Web. A l’instar de ce qui a été fait pour Teams, cette approche permet à Microsoft de ne plus développer qu’une version de l’interface utilisateur, dont le rendu est assuré par ce pseudo-navigateur sur PC ou Mac.

C’est cette approche qui permet donc de fournir une expérience similaire, quelle que soit la façon dont vous vous connectez. Pour Teams, Microsoft avait promis des performances en hausse et des besoins en ressources en baisse. Pour Outlook, la question ne se pose pas encore, mais on peut imaginer que l’application sera probablement allégée. Ce qui constitue déjà un premier critère de choix, car le programme de messagerie n’est pas un modèle de légèreté.

Réfléchir à deux fois avant de cliquer

Pour autant, est-ce suffisant pour cliquer le petit bouton et passer dans un autre monde ? Pas si sûr… En l’état, le nouvel Outlook a perdu quelques fonctions, qui n’incitent pas à franchir le pas. Au premier rang desquelles figure la mise en favoris des boîtes partagées. Est-ce anodin ? Pas tant que ça, car devoir dérouler une liste interminable de dossiers pour atteindre la boîte de réception de votre adresse « info » ou « contact » devient rapidement assez pénible. A en croire les forums Microsoft, ce sentiment est plus que partagé.

La tentation est grande de « tester » cette nouvelle version. Mais gare aux conséquences !

Autre point noir : le nouvel Outlook ne supporte pas le mode hors-ligne. Si cela peut être compréhensible d’un point de vue technique – rappelez-vous, Outlook est un navigateur Web, ce qui implique l’accès aux données en ligne – c’est une aberration pour tout un chacun. Surtout ceux habitués à travailler dans un avion par exemple. Cette limitation sera levée dans les prochaines semaines, mais on peut légitimement se demander comment Microsoft a pu lancer cette nouvelle version en éludant cette fonction primordiale.

Enfin, « choisir la pilule bleue » entraîne l’installation d’un tout nouveau programme sur votre machine. Avec des intrications fortes sur des librairies du système d’exploitation. Si cela ne vous parle pas, gardez seulement à l’esprit que le retour en arrière, qui semble aussi simple que de cliquer une nouvelle fois sur le bouton magique, ne se fera pas sans douleur. Avec à la clé un Outlook standard qui ne fonctionnera probablement plus aussi bien. Et surtout son intégration avec le nouveau Teams. Conséquence : il sera peut-être nécessaire de réinstaller votre machine, rien que ça…

Tester en ligne pour se faire une idée

Finalement, le meilleur moyen de tester le nouvel Outlook, sans installer quoi que ce soit, reste celui de passer en ligne via votre navigateur préféré. Car la version Web d’Outlook est déjà le « nouvel » Outlook depuis des mois. Vous aurez ainsi la chance de vous familiariser avec la nouvelle interface, et de vous faire votre propre opinion. Et notamment de goûter aux joies de l’intégration dans ce nouvel opus de Copilot, le moteur d’intelligence artificielle de Microsoft.

Comme toujours, il est urgent de prendre son temps. Mais pas tant que ça : Microsoft presse ses utilisateurs de passer à la nouvelle version. En trois étapes : dans un premier temps, vous êtes incité à tester. Puis le nouvel Outlook devient la version par défaut mais avec la possibilité de revenir en arrière. Et ceci jusqu’à la fin de l’année 2024, date à laquelle il ne sera plus possible d‘utiliser l’ancien Outlook. Si on y regarde de près, c’est un timing assez serré, qui impose à Microsoft de rajouter rapidement les fonctions qui font défaut. A tel point qu’on peut douter de la qualité de celles qui seront fournies dans les prochaines semaines…

Pour nos clients, nous avons pris le parti de ne pas autoriser cette mise à jour pour le moment. Le temps que les fonctions manquantes arrivent, et que nous puissions les tester au quotidien. Avant de forcer la mise à jour une fois celle-ci validée, et surtout avant que Microsoft ne prenne les commandes de cette transition. Vous voilà donc prévenus ! Ne reste plus qu’à faire votre propre expérimentation et anticiper un peu la marche forcée imposée par le géant des logiciels.

Emmanuel Dardaine

emmanuel dardaine expert cloud

Besoin de conseils sur Outlook et Microsoft 365 en général ? Faites appel à nos experts Cloud.