L’avènement des PC puis, plus récemment, des smartphones a individualisé l’usage des nouvelles technologies. Chacun adopte son matériel, ses outils, ses habitudes, et sa propre façon de travailler. Les entreprises doivent s’adapter à cette nouvelle règle. Mais comment garder un IT sous contrôle tout en laissant le choix aux employés ? La réponse tient en 2 mots : informatique hybride.

Il n’est pas rare que certains clients nous montrent des fonctions, ou des moyens d’y accéder, que nous ne connaissions pas. A notre décharge, les environnements informatiques sont devenus tellement riches que chacun développe ses propres connaissances et compétences… et s’y tient. Ce qui implique de ne pas connaître d’autres alternatives, même plus efficaces. Ce constat est représentatif : en entreprise aussi, il n’y a plus une informatique, mais l’informatique de chacun.

Prenons un exemple simple : l’ouverture d’un fichier Word sous Windows 11. A première vue, il n’y a probablement pas moins de 10 façons de le faire. On peut ouvrir Word, puis sélectionner Fichier + Ouvrir, ou encore cliquer sur l’historique. On peut ouvrir l’explorateur de fichiers, puis passer par l’historique de l’accueil, ou encore les favoris, ou parcourir les dossiers. Vous êtes un accroc du clavier ? Enfoncez la touche Windows et entrez le nom du fichier pour faire une recherche, ou parcourez le menu de démarrage pour accéder à l’historique. J’arrête là.

Trouver chaussure à son pied

Ce descriptif est symptomatique. Et peut s’étendre facilement à tous les usages de l’informatique. Vous êtes plutôt PC ou Mac. Vous ne travaillez que sur smartphone et tablette. Vous êtes mobile et vous ne pouvez pas vous passer de votre laptop. Vous travaillez autant au bureau ou à la maison, mais uniquement sur un poste fixe, pour plus de confort. Vous avez besoin de puissance pour des travaux graphiques lourds, ou plutôt d’une machine rapide et efficace pour de la bureautique.

Les entreprises qui veulent garder de l’efficacité doivent prendre en compte cette diversité, afin de capitaliser sur l’expérience des utilisateurs dans leur environnement de prédilection. Et obtenir le plus de productivité informatique possible. Oui mais voilà, elles ont tendance en général à choisir une plateforme ou une solution, ce qui revient à contraindre les utilisateurs. Ou en tout cas une partie d’entre eux : ceux qui ne sont pas à l’aise avec le choix fait par l’entreprise.

Contraindre les utilisateurs peut aboutir à en laisser au bord du chemin. Alors que les laisser utiliser leur plateforme favorite est un vecteur de motivation.

Si on y regarde de plus près, et en simplifiant un peu les choses, quel est le cahier des charges informatique d’une PME ? Fournir et gérer des moyens digitaux, avec le plus de sécurité possible, pour réaliser des travaux de bureautique et exploiter des applications métier, si possible depuis n’importe où. Certes, cela s’apparente un peu à la quadrature du cercle. Mais si votre logiciel préféré est disponible aussi bien sur PC que sur Mac, est-ce que cela change quelque chose, tant que ce cahier des charges est rempli ?

Informatique hybride : la gestion IT sécurisée et uniformisée

L’informatique hybride répond justement à ces critères. Et elle peut se résumer en quelques mots : choisissez votre façon de travailler, votre IT s’y adaptera. PC, Mac, Android, iPhone, laptop, poste fixe, poste virtuel : ça n’est plus le matériel, et donc vos habitudes, qui fait la différence, mais la façon dont vous le gérez. Et celle dont vous le sécurisez. Du point de vue du cycle de vie des appareils, cela revient à traiter 5 étapes : configurer, protéger, mettre à jour, superviser, recycler.

Dans le détail, un appareil neuf doit tout d’abord être équipé de ses programmes. Puis sécurisé, en forçant un minimum de paramètres – mot de passe, complexité de celui-ci, cryptage des données, présence d’un antivirus, etc. Une fois en service, vous devrez vous assurer que ces paramètres de sécurité ne sont pas altérés, afin de garantir que votre appareil reste sain et protégé. Ce qui inclut aussi l’application des mises à jour. En fin de vie – ou si ses performances le justifient – vous pourrez faire une remise à zéro. Et le ramener à la première étape du cycle.

Si vous disposez d’une solution qui gère ces étapes indépendamment du matériel, alors vous aurez tout gagné. L’approche de l’informatique hybride vous permet justement de laisser le choix aux utilisateurs. Et donc de leur garantir la liberté de travailler plus efficacement. Sans défiance vis-à-vis des choix de l’entreprise. Une sorte de compromis gagnant-gagnant en quelque sorte, où les habitudes des utilisateurs sont respectées sans remettre en cause la sécurité des données et des appareils. En bref, sans péjorer leur gestion.

Services managés en prime

D’un point de vue budgétaire, l’informatique hybride ne fait pas de distinguo entre les différents types d’appareils. J’entends par-là que le coût du système de gestion informatique ne diffère d’une plateforme à l‘autre. Cela qui ne préjuge en rien de la différence de coûts entre les appareils eux-mêmes : classiquement, un PC sous Windows sera toujours moins cher qu’un Mac équivalent. Là encore, l’entreprise est gagnante puisqu’elle conserve elle aussi le choix. Y compris le choix budgétaire.

Bien évidemment, tout n’est pas rose. Car si multiplier les types d’appareil permet de satisfaire les employés et de laisser l’entreprise faire des choix basés sur les coûts, il complexifie aussi les tâches d’assistance aux utilisateurs. Le système de gestion, même hybride, ne peut pas tout. En revanche, vous devrez probablement fournir moins d’assistance à des utilisateurs qui travaillent dans un environnement qu’ils connaissent et maîtrisent mieux. Mais tout de même : le responsable de la plateforme de gestion devra acquérir des compétences supplémentaires.

Cet inconvénient ne pèse pas lourd dans la balance. Il ne semble en tout cas pas insurmontable. D’autant plus si, évidemment, vous décidez de confier la gestion de votre informatique à un tiers. Sous la forme de services managés par exemple. C’est alors le prestataire qui sera en charge de développer les compétences sur les différents types de plateforme. Le tout pour un prix forfaitaire mensuel pour chaque utilisateur. La PME qui opte pour un tel service est alors libre de sélectionner son matériel et de le faire gérer en tout simplicité. Au bénéfice de sa sécurité et de ses utilisateurs.

Emmanuel Dardaine

emmanuel dardaine expert cloud

Vous aussi, profitez d’une gestion de parc informatique hybride en mode managé. Contactez-nous !

Le saviez-vous ? Windows 10 ne sera plus supporté par Microsoft dès octobre 2025. Ce qui signifie : plus de mises à jour. Et notamment plus de correctifs de sécurité. Les pirates de tout poil se rueront probablement sur l’occasion. Car cette version, malgré son âge, reste le système le plus utilisé dans le monde. Rien que ça. La fin de Windows 10 pourrait donc avoir des conséquences lourdes.

Les derniers chiffres sont révélateurs. En septembre 2024, Windows demeurait l’OS le plus populaire dans le monde, avec près de trois quarts des ordinateurs personnels de la planète. Mais derrière cette statistique se cache une autre réalité : près des deux tiers des machines motorisées par la firme de Redmond font encore tourner le version 10, lancée en juillet 2015.

Windows au fil des versions

Il faut dire que, fidèle à son habitude de rater une version sur deux, Windows 10 fait partie des succès de Microsoft. En succédant à Windows 8 / 8.1, la barre n’était pas très haute : cette version a été un échec total, que ce soit du point de vue de l’interface que des fonctionnalités et de la stabilité. Tout utilisateur de Windows qui aura vu passer dans sa vie l’affreux système de tuiles s’en souviendra sans regret. Pour l’anecdote, Windows 8 avait été lancé à la même époque que les Windows Phone, dans un effort désespéré de conquérir le marché du mobile et d’uniformiser les interfaces utilisateur.

Windows 10 a donc assez facilement et naturellement trouvé son public. Interface rajeunie, claire et moderne, performances à la hauteur, simplicité d’emploi : tout plaidait en faveur de cette nouvelle mouture. Avec à la clé, et au fil des années, une prédominance sur le marché. Notamment dans le domaine des entreprises, qui ont largement plébiscité cette version. Au final, Windows 10 est exploité encore par près de 65% des postes sous Windows dans le monde.

Cette part de marché est en recul régulier, compensé de manière symétrique par la progression de Windows 11. On peut facilement imaginer que le remplacement de machines anciennes par de nouvelles, livrées de facto avec Windows 11, ne soit pas étranger à ce phénomène. Et on comprendra aussi aisément que des utilisateurs contents de leur système ne prennent pas le risque de la mise à niveau.

Des prérequis toujours plus contraignants

Mais la seule réticence des utilisateurs n’explique pas tout. Car la configuration nécessaire pour utiliser Windows 11 est un tant soit peu plus exigeante que celle de Windows 10. En termes de mémoire, la mise à niveau n’échappe pas à l’habituelle nécessité de la doubler. Surtout, Windows 11 apporte un renforcement de la sécurité basé sur une puce dédiée – baptisée TPM, Trusted Platform Module – dont tous les PC ne disposent pas. A tel point que Microsoft a mis à disposition un outil de vérification de la compatibilité du matériel pour valider le passage à Windows 11.

Dans bien des cas, les utilisateurs seront pris entre le marteau et l’enclume : un matériel obsolète d’un côté, et un système bientôt plus mis à jour de l’autre. Au final, il faudra probablement opter pour le remplacement complet des ordinateurs qui ne passeront pas la rampe. Sous peine de subir des attaques assez rapidement dès la fin du support par Microsoft.

Les pirates adorent ces phases de fin de support, qui sont une chance inouïe de disposer de portes d’entrées faciles sur de très nombreux systèmes en fin de vie.

Vous en doutez ? En 2015, année de naissance de Windows 10, Microsoft avait mis fin au support d’un autre système, Windows Server 2003, très largement utilisé pour faire tourner les serveurs des entreprises. Dès la date passée, des failles critiques avaient été révélées et exploitées par des hackers, qui n’attendaient que cela. Le nombre de systèmes compromis avait été suffisamment important que pour Microsoft déroge à sa propre règle et publie un correctif dans les semaines suivantes.

La virtualisation comme solution à la fin de Windows 10

Quelles sont les alternatives ? Tout d’abord, commençons par la bonne nouvelle : vous avez un an pour agir et définir votre stratégie. Si malheureusement votre matériel n’est pas compatible, vous devrez donc le changer. A moins de décider de vivre dangereusement. Ou alors, cette situation constituera le bon moment pour envisager un changement radical en basculant sur un poste virtuel.

N’oublions en effet pas que disposer d’un PC Cloud est certainement le meilleur moyen de procéder à des mises à niveau sans aucun coût et sans devoir changer votre matériel. En accédant au travers de clients léger – Dell Wyse ou HP par exemple, vous décorrélez le matériel d’un côté et l’environnement de travail sous Windows de l’autre. Et vous profitez d’une mise à niveau de votre parc complet sans racheter de licences ou changer vos appareils. En quelques clics seulement.

Cela vaut aussi évidemment si vous exploitez une infrastructure de bureaux virtuels, telle qu’Azure Virtual Desktop, qui centralise et partage vos espaces de travail. Utiliser un tel environnement permet de procéder à une seule mise à jour sur votre serveur et en faire bénéficier tous vos utilisateurs. Les solutions existent donc pour préparer ce changement majeur de votre parc informatique. La virtualisation étant probablement celle qui sera la plus pérenne dans le temps. Car Windows 11 sera tôt ou tard concerné par la fin de support. Histoire de repartir pour un tour.

Emmanuel Dardaine

emmanuel dardaine expert cloud

Venez donc faire un inventaire de vos machines sous Windows 10 avec nous pour savoir quoi en faire !

Si vous êtes utilisateur d’Outlook pour accéder à votre messagerie, il ne vous aura pas échappé. Quoi ? Ce petit bouton, là, en haut à droite, qui vous incite à essayer le « nouveau Outlook ». Et si vous n’avez pas encore cliqué, voici quelques éléments pour comprendre de quoi il s’agit. Et qui vous aideront à vous décider. Ou à surtout ne pas cliquer, c’est au choix.

Passons sur la dénomination du produit. Il en va des logiciels comme des dossiers et des fichiers : le terme « nouveau » n’est valable qu’un à un instant donné, et ne tient pas dans le temps. Microsoft avait déjà fait le coup avec le « nouveau Teams ». L’avantage est de bien marquer la différence et d’annoncer un vrai changement. Mais que se passera-t-il pour le nouveau nouvel Outlook ? Il faudra trouver autre chose… et l’argument de la nouveauté tombera alors de lui-même.

D’ailleurs, le nouveau Teams  avait aussi eu droit à sa propre icône, avec un petit logo « New » du plus bel effet. Qui a disparu depuis, en même temps que le Teams tout court a été renommé en Teams « classic » et que le nouveau Teams lui a pris sa place. Vous suivez ?

Un Outlook pas si nouveau que cela en apparence

Bis Repetita, nous avons donc droit à un nouvel Outlook. En quoi est-il si novateur que cela ? D’un point de vue visuel, il y a des différences subtiles, qui le rapprochent de la version en ligne (celle que vous accédez au travers d’un navigateur) et de celle disponible sur Mac. C’est certes un peu plus moderne, mais on retrouve assez rapidement ses petits. En tout cas, il y a un réel effort d’harmonisation entre les plateformes, ce qui est louable.

Cette homogénéisation perceptible cache une réalité technique bien plus importante, et bien cachée, elle. Car sous son aspect actualisé, c’est le moteur même d’Outlook qui évolue en profondeur. Pour faire simple, Outlook devient une sorte de gros navigateur Internet qui affiche des pages Web. A l’instar de ce qui a été fait pour Teams, cette approche permet à Microsoft de ne plus développer qu’une version de l’interface utilisateur, dont le rendu est assuré par ce pseudo-navigateur sur PC ou Mac.

C’est cette approche qui permet donc de fournir une expérience similaire, quelle que soit la façon dont vous vous connectez. Pour Teams, Microsoft avait promis des performances en hausse et des besoins en ressources en baisse. Pour Outlook, la question ne se pose pas encore, mais on peut imaginer que l’application sera probablement allégée. Ce qui constitue déjà un premier critère de choix, car le programme de messagerie n’est pas un modèle de légèreté.

Réfléchir à deux fois avant de cliquer

Pour autant, est-ce suffisant pour cliquer le petit bouton et passer dans un autre monde ? Pas si sûr… En l’état, le nouvel Outlook a perdu quelques fonctions, qui n’incitent pas à franchir le pas. Au premier rang desquelles figure la mise en favoris des boîtes partagées. Est-ce anodin ? Pas tant que ça, car devoir dérouler une liste interminable de dossiers pour atteindre la boîte de réception de votre adresse « info » ou « contact » devient rapidement assez pénible. A en croire les forums Microsoft, ce sentiment est plus que partagé.

La tentation est grande de « tester » cette nouvelle version. Mais gare aux conséquences !

Autre point noir : le nouvel Outlook ne supporte pas le mode hors-ligne. Si cela peut être compréhensible d’un point de vue technique – rappelez-vous, Outlook est un navigateur Web, ce qui implique l’accès aux données en ligne – c’est une aberration pour tout un chacun. Surtout ceux habitués à travailler dans un avion par exemple. Cette limitation sera levée dans les prochaines semaines, mais on peut légitimement se demander comment Microsoft a pu lancer cette nouvelle version en éludant cette fonction primordiale.

Enfin, « choisir la pilule bleue » entraîne l’installation d’un tout nouveau programme sur votre machine. Avec des intrications fortes sur des librairies du système d’exploitation. Si cela ne vous parle pas, gardez seulement à l’esprit que le retour en arrière, qui semble aussi simple que de cliquer une nouvelle fois sur le bouton magique, ne se fera pas sans douleur. Avec à la clé un Outlook standard qui ne fonctionnera probablement plus aussi bien. Et surtout son intégration avec le nouveau Teams. Conséquence : il sera peut-être nécessaire de réinstaller votre machine, rien que ça…

Tester en ligne pour se faire une idée

Finalement, le meilleur moyen de tester le nouvel Outlook, sans installer quoi que ce soit, reste celui de passer en ligne via votre navigateur préféré. Car la version Web d’Outlook est déjà le « nouvel » Outlook depuis des mois. Vous aurez ainsi la chance de vous familiariser avec la nouvelle interface, et de vous faire votre propre opinion. Et notamment de goûter aux joies de l’intégration dans ce nouvel opus de Copilot, le moteur d’intelligence artificielle de Microsoft.

Comme toujours, il est urgent de prendre son temps. Mais pas tant que ça : Microsoft presse ses utilisateurs de passer à la nouvelle version. En trois étapes : dans un premier temps, vous êtes incité à tester. Puis le nouvel Outlook devient la version par défaut mais avec la possibilité de revenir en arrière. Et ceci jusqu’à la fin de l’année 2024, date à laquelle il ne sera plus possible d‘utiliser l’ancien Outlook. Si on y regarde de près, c’est un timing assez serré, qui impose à Microsoft de rajouter rapidement les fonctions qui font défaut. A tel point qu’on peut douter de la qualité de celles qui seront fournies dans les prochaines semaines…

Pour nos clients, nous avons pris le parti de ne pas autoriser cette mise à jour pour le moment. Le temps que les fonctions manquantes arrivent, et que nous puissions les tester au quotidien. Avant de forcer la mise à jour une fois celle-ci validée, et surtout avant que Microsoft ne prenne les commandes de cette transition. Vous voilà donc prévenus ! Ne reste plus qu’à faire votre propre expérimentation et anticiper un peu la marche forcée imposée par le géant des logiciels.

Emmanuel Dardaine

emmanuel dardaine expert cloud

Besoin de conseils sur Outlook et Microsoft 365 en général ? Faites appel à nos experts Cloud.

Dans bien des PME, il y a cette machine, cachée dans un coin des bureaux. Un peu vieillotte, il faut la garder car elle contient une application vitale. Que ne peut plus être mise à jour, pas plus que le système qui la fait tourner. Oui mais alors, que se passerait-il si elle venait à tomber en panne ? Voici quelques pistes pour lui assurer une seconde vie avec Bare Metal Recovery. 

Avouons-le, nous avons tous pu observer cette situation. Le programme que cette machine fait tourner n’a jamais été mis à jour pour Windows 10 ou Windows 11, et on ne le trouve même pas sur Internet. D’ailleurs Windows 10 n’en a plus pour longtemps non plus. Cela rend d’autant plus vulnérable la machine, qui ne reçoit plus de mises à jour de sécurité. Oui mais voilà : que ce soit pour des raisons opérationnelles ou des contraintes légales, vous devez garder cette application accessible, coûte que coûte. 

En cas de panne matérielle, vous serez confrontés à plusieurs problèmes. En premier lieu, l’absence des sources pour installer à nouveau le programme. Pire : si sa licence a aussi disparu, vous ne pourrez jamais l’activer. Ensuite, il faudra trouver une version de Windows qui soit compatible. Et là encore, la question de la licence se posera. Idéalement, il faudrait disposer d’une copie conforme de cette machine, que vous pourriez activer à la demande… 

Bare Metal Recovery : simple et efficace

C’est justement là qu’intervient la technologie Bare Metal Recovery. Au sens propre du terme, elle vous permet de partir d’une machine nue, et de la transformer en votre bon vieux PC sous un Windows antédiluvien. Le principe est simple : il s’agit de réaliser une copie de la machine et de la stocker dans le Cloud. Jusqu’au moment où vous en aurez besoin, et que vous procéderez à une remise en ligne de cette image. 

Cette technique a plusieurs avantages. Tout d’abord, vous pourrez figer dans le temps une version du poste en question : idéal s’il s’agit d’une archive. Mais vous pourrez choisir de procéder à des sauvegardes régulières de la machine source si des modifications y sont apportées régulièrement. Afin de récupérer la dernière version en date. Et vous pouvez décider de créer la machine doublon dès le début, ou uniquement quand vous en aurez besoin (en cas de crash donc). 

La remise en ligne de la machine s’opère de différentes façons. Soit directement par un téléchargement de l’image depuis le Cloud à l’instant t. Ou via une clé USB. Dans tous les cas, vous aurez besoin d’un tel support pour « booter » la machine nue, puis y installer l’image qui se trouve aussi sur la clé ou la télécharger directement via Internet. Une fois l’image copiée, la machine redémarre, et miracle ! Votre vieux Windows reprend vie. 

Utile aussi pour les tests

Bare Metal Recovery peut aussi couvrir des cas annexes à la simple sauvegarde d’une machine en fin de vie. Supposons que vous souhaitiez savoir comment résiste votre programme à une mise à niveau vers Windows 11. Il suffit de créer une machine clone, et de tenter cette mise à niveau pour en observer les conséquences. 

Idem pour la remise à niveau du matériel : plutôt que d’attendre la panne, vous pouvez anticiper un renouvellement de la machine, et voir comment votre vieux Windows s’y comporte. Car évidemment, les vieilles versions du système d’exploitation de Microsoft ne supportent pas toujours les composants des PC récents. 

Bare Metal Recovery est une technique simple et rapide pour valider des scénarios de mise à jour

Dernier avantage : vous pouvez aussi décider de ne pas racheter de matériel et de remettre votre machine en ligne dans le Cloud, sur un PC virtuel. Bare Metal Recovery vous laisse ce choix, d’autant plus utile si la machine n’est qu’une archive, car vous aurez la possibilité de l’activer uniquement à la demande. Et donc de n’en supporter les coûts d’exploitation qu’au moment de son utilisation. 

Attention aux licences

Dans tous les cas, vous devrez prendre soin de vérifier les conditions imposées par Microsoft sur ses licences. Pour rappel, il n’est pas possible d’utiliser n’importe quelle version de Windows sur n’importe quelle machine. Dans la plupart des cas, les machines Windows viennent avec leur propre licence, qui leur est attachée. Ce mode de souscription (OEM, Original Equipment Manufacturer) ne permet pas d’utiliser la licence sur une autre machine. Vous devrez donc en trouver une autre. 

Et l’utilisation sur un PC Cloud est aussi contraignante. A date, Windows 10 et Windows 11 ne sont autorisés à être utilisés dans un Cloud Public mutualisé que sur des infrastructures… Microsoft. Sauf à disposer de parcs importants et d’accords de licences spécifiques avec le géant de Redmond. Vous prendrez donc soin de vérifier de ne pas vous mettre hors des clous. Car même si l’utilisation ne sera que ponctuelle, la mise en conformité de vos licences n’est pas une question anodine. 

Dernière bonne nouvelle : le stockage de volumes de données importants dans le Cloud n’est pas onéreux. Si bien que vous pouvez conserver vos images pendant plusieurs années pour un coût dérisoire. Notre service de backup Cloud managé démarre à 45.- CHF /mois pour 100GB. Capacité qui dépasse généralement celle des vieilles machines. Il ne vous reste donc plus qu’à tester pour mettre à l’abri vos vieux tromblons.

Emmanuel Dardaine

emmanuel dardaine expert cloud

Laissez vous convaincre par la remise en ligne de vos PC sur des machines nues et demandez-nous un test en conditions réelles.

L’authentification informatique sans mot de passe est désormais une réalité. Intégrée sur les appareils récents, elle n’est pourtant pas toujours à la portée du premier venu. Appareils vétustes, refus d’utiliser un appareil privé pour des activités professionnelles : les cas sont nombreux où « passwordless » restera un vain mot. A moins que vous n’optiez pour une clé Yubikey.

Ceux qui nous suivent – régulièrement – le savent, l’authentification sans mot de passe est maintenant un sujet connu. Pour les autres, un petit rappel s’impose : sorte de version ultime de la double authentification, elle vous offre de vous connecter chez les grands acteurs du Web sans même saisir un code secret. Pour cela, votre appareil doit disposer de fonctions biométriques – reconnaissance faciale ou d’empreinte. Et vous devrez avoir utilisé une dernière fois votre compte pour enregistrer ledit appareil.

Les clés Yubikey au secours de vos vieux appareils

Bien. Mais comment faire pour généraliser l’emploi de cette technologie révolutionnaire lorsque les conditions ne sont pas remplies ? Il n’est pas rare que l’appareil utilisé pour se connecter – que ce soit un PC, un Mac ou un smartphone – ne dispose pas d’un capteur biométrique compatible. Pour les ordinateurs et mobiles les plus anciens, c’est souvent le cas. Aussi, certains utilisateurs refusent catégoriquement que leur téléphone mobile personnel soit utilisé pour procéder à ce type d’authentification dans un cadre professionnel – à tort ou à raison, c’est un autre débat.

L’utilisation d’appareils privés dans le cadre professionnel reste un sujet de débat. Que vous pouvez désormais éviter.

Pourtant, par souci de sécurité, vous envisagez de généraliser dans votre PME la double authentification 2FA/MFA (2/Multi Factor Authentication) avec passwordless qui, en plus de protéger les comptes de manière ultime, les met à l’abri des campagnes de phishing. Il est donc nécessaire de fournir aux utilisateurs qui en sont dépourvus un dispositif compatible, professionnel, et peu contraignant. C’est là que les clés Yubikey interviennent.

Commençons par lever une ambiguïté : Yubico est la marque qui fabrique les clés Yubikey, et elle n’est pas la seule sur ce marché. D’autres acteurs, tels que RSA ou Duo, fournissent aussi ces dispositifs. Tous répondent au standard FIDO2, dernière version d’un protocole d’authentification public. Les clés Yubikey ont l’avantage d’exister dans de très nombreuses variantes, couvrant ainsi de multiples cas d’usage. Elle sont aussi bon marché. C’est pourquoi nous nous concentrerons sur elles, fin de la parenthèse.

Un modèle pour chaque usage

Les modèles de clés Yubikey sont variés : biométriques ou pas, avec connecteurs USB (type A ou C), Lightning (pour les accros Apple), sans connecteur mais compatibles NFC, double compatibilité NFC + USB ou USB + Lightning. Quel que soit le type, elles ne mesurent que quelques centimètres, et trouvent aisément leur place sur un porte-clé.

Les versions biométriques disposent d’un scanner d’empreinte intégré dans le corps de la clé, qui reste pourtant épais de seulement quelques millimètres. Mais il vous faudra un appareil dans lequel l’enficher, et disposant du port idoine (USB-A/C ou Lightning). C’est la version idéale pour transformer un PC ou un Mac sans dispositif biométrique. Et sécuriser un parc existant à moindres frais.

Yubikey Portfolio

La gamme de clés Yubikey 5 Series

Pour les smartphones qui ne disposent pas de ports compatibles ou de lecteur biométrique, une version NFC existe. Cette technologie d’appairage par proximité nécessite toutefois un téléphone compatible, qui servira de relais pour la phase d’authentification. Approchez la clé du téléphone, et le tour est joué. Et pour les plus gourmands, une version NFA + USB-A existe, qui permet l’emploi combiné sur ordinateur et smartphone.

Un rapport coût bénéfice favorable

Et le coût me direz-vous ? Comptez quelques dizaines de francs à l’achat pour les modèles les plus simples. Ca reste raisonnable, et cela sera toujours moins cher que de racheter un ordinateur ou un smartphone. Surtout, vous levez toutes les réticences pour l’utilisation d’appareils privés pour réaliser la double authentification. Et enfin, vous vous ouvrez les portes du déploiement de l’authentification sans mot de passe pour protéger vos comptes.

Pour autant, vous devrez gérer un parc d’appareils supplémentaire. Car le management de ces clés n’est pas anodin. En particulier, vous aurez l’obligation de maintenir un inventaire matériel, et de disposer de processus d’entrée et de sortie de vos collaborateurs intégrant la remise et la récupération de ces clés. Car le revers de la médaille existe : une clé utilisée sur un autre appareil, privé par exemple, permettra une connexion sans mot de passe si vous ne l’avez pas récupérée après le départ de cet employé.

En tout état de cause, cela reste bien minime en comparaison des avantages apportés par les clés FIDO2 telles que les Yubikey. Car la double authentification, et encore plus la gestion des mots de passe, restent le petit caillou dans la chaussure de la plupart des PME. Pour un coût financier et organisationnel modique, ces difficultés peuvent être adressées à satisfaction. Alors, prêt à faire le pas ?

Emmanuel Dardaine

emmanuel dardaine expert cloud

Faites le parie des Yubikey et demandez nous une démonstration dans vos locaux.

Ah ! les mots de passe… On aimerait tellement s’en passer. Mais pour continuer à utiliser nos applications préférées, comment faire sans ? La réponse est pourtant déjà là, qui se généralise progressivement. Avec les Passkey, l’authentification sans mot de passe devient une réalité. Que vous pouvez d’ores et déjà exploiter sur de nombreux comptes. Et voici comment.

Faites l’exercice à l’occasion : demandez autour de vous ce qui est le plus pénible à gérer en informatique. Invariablement, la réponse tournera autour des mots de passe. La numérisation des activités requiert d’enregistrer un compte pour chaque système ou site que vous visitez. Et donc de créer un mot de passe. Le renforcement de la sécurité implique dorénavant de gérer une double authentification. Ce qui sécurise vos comptes – et c’est tant mieux, mais ce qui complexifie encore les choses : il faut au pire donner son numéro de mobile et saisir un code, ou utiliser une application tierce pour valider l’authentification.

Alors oui, des outils existent, qui simplifient la gestion des mots de passe, et la vie par la même occasion. Mais leur mise en place requiert un effort non négligeable. Ce qui fait que le petit carnet à spirales rempli de codes inintelligibles a encore de beaux jours devant lui. Tout de même, avec autant de technologie à disposition, est-ce qu’il ne serait finalement pas possible de se passer définitivement des mots de passe ? La solution viendra peut-être des Passkey, ou clé d’accès en bon français. Voyons comment.

Passkey : un mot de passe… en plus simple

Commençons par quelques (simples) explications techniques. Le mot de passe est un élément d’authentification que vous connaissez (« ce que je sais »). Lorsque vous vous connectez sur un système, il lui est transmis pour vérification et comparaison avec celui que vous avez saisi lors de la création du compte. Il n’y est pas est stocké en clair, mais codé, et c’est le même mécanisme de codage du mot de passe saisi à la connexion qui est utilisé avant la comparaison.

La double authentification repose en général sur d’autres facteurs, différents du mot de passe. Par exemple « ce que je possède », comme un téléphone mobile ou une clé d’authentification physique. Ou encore « ce que je suis » dans le cas d’une authentification biométrique. Cette combinaison rend l’authentification plus sûre. Mais elle repose toujours sur le fait que vous envoyez des informations au système auquel vous vous connectez, pour comparaison.

La double authentification repose toujours sur l’envoi de données liées au compte, et non pas à l’appareil

Les Passkey fonctionnent différemment. Elles utilisent les mêmes ressorts que la double authentification pour leur création : vous devez saisir votre mot de passe puis exploiter un dispositif tiers (application, appareil biométrique). Mais une fois que c’est fait, c’est seulement ce dispositif qui sera utilisé, rendant le mot de passe inutile. Par quel miracle ? La clé d’accès est en fait double et crée une relation entre votre appareil et le site auquel vous vous connectez : une clé privée réside sur votre appareil, et une clé publique est envoyée lorsque le compte est créé, et stockée sur le site.

Une relation unique avec vos appareils

Lorsque vous vous connectez avec une Passkey, il faut que cette relation entre l’appareil et le site existe. Si le site ne connaît pas votre appareil, la connexion sans mot de passe ne fonctionnera pas. Autrement dit : vous pouvez configurer votre compte avec un code aléatoire très complexe pour le protéger, car vous ne l’utiliserez pas. L’utilisation de la clé d’accès le remplacera. Et surtout, ce mot de passe n’est plus transmis par le réseau, car seule la concordance des deux clés, publique et privée, entre votre appareil et le site en question permettra de se connecter.

Vous aurez noté que la création de la clé d’accès et son utilisation sont soumises à l’utilisation d’un dispositif tiers. Et c’est justement là que les choses deviennent intéressantes. Ce dispositif peut être une application sur mobile, une clé biométrique, ou… un logiciel compatible. Sur Windows, cela s’appelle tout simplement Windows Hello. Ce programme gère depuis des années l’authentification des utilisateurs sur le système le plus répandu dans le monde. Et il est compatible avec des dispositifs biométriques intégrés à votre PC, tels que lecteur d’empreinte digitale ou reconnaissance faciale. Avec quels avantages ?

Quelques clés FIDO2 de Yubikey

Imaginez un peu : une fois le lien entre votre appareil et le site créé, l’authentification est résumée à regarder la caméra ou à toucher le lecteur d’empreinte. La Passkey fait le reste : la connexion au site reconnaît l’appareil, celui-ci vous propose de vous authentifier avec un facteur biométrique, Windows va chercher la clé privée dans le magasin des clés d’accès, l’envoie au site pour corrélation, et le tour est joué ! Magique, non ? Autre atout : puisque vous ne saisissez plus de mot de passe, vous êtes moins exposé aux attaques par phishing, qui restent le moyen de piratage le plus répandu aujourd’hui.

Le futur, c’est maintenant

Vous pouvez déjà faire l’expérience sur quelques applications compatibles. Car c’est une limitation évidemment : le site ou le système doivent supporter les clés d’accès. C’est heureusement le cas chez les grands acteurs du Web : Amazon, Microsoft, Google, etc. Comme les systèmes d’authentification se standardisent et utilisent majoritairement le Web, le nombre de ces sites augmentera rapidement. Et si vous n’êtes pas sous Windows (ça arrive), pas de panique, d’autres solutions existent : Mac est évidemment compatible avec les Passkey (via FaceID et TouchID), et vous pouvez sinon utiliser un dispositif physique tel qu’une clé Yubikey au standard FIDO2.

Si vous utilisez plusieurs appareils, chaque appareil devra créer et gérer sa propre clé, ce qui rend les choses un peu plus contraignantes, en tout cas au départ. Et pour autant, vous ne pourrez pas faire l’impasse sur le gestionnaire de mots de passe : s’il n’est plus utilisé une fois les clés d’accès en place, le mot de passe restera le facteur initial nécessaire à la création de tout compte. Mais après cela, vous oublierez rapidement cette petite contrainte initiale. Alors, prêt à faire le saut et tordre le coûts à ces satanés mots de passe ? Soyons honnêtes, vos Post-It et votre petit cahier n’ont plus de raison d’être.

Emmanuel Dardaine

emmanuel dardaine expert cloud

Prêt à vous passer des mots de passe ? On imagine que oui… contactez-nous pour savoir comment faire !

 

Lieu emblématique du Canton de Genève, le Kiosque des Bastions est un point de passage incontournable dans le paysage de la cité du bout du lac. Monument historique de la Belle Epoque, il a rouvert en 2022 après de longs mois de travaux. L’arrivée d’une nouvelle équipe en 2024 était l’occasion de faire également peu neuve… au niveau réseau !

C’est le groupe Little Big Food qui a repris la gestion de ce restaurant, idéalement situé au cœur d’un des parcs mythiques de Genève. Le groupe fait partie de la galaxie d’Olivier Plan, qui dirige aussi Immosynergies, client de Steel Blue depuis plusieurs années. Pour Jean-Stéphane Riber, responsable IT d’Immosynergies, faire appel à Steel Blue pour mettre à niveau le réseau du Kiosque était une évidence.

« Le changement d’équipe de direction impliquait un changement qualitatif que nous souhaitions transposer dans toutes les strates du lieu. C’était donc tout autant un impératif au niveau technique. Avec Steel Blue, nous avions déjà mis en place les ressources du restaurant Fresha à Plan-les-Ouates, ce qui nous apporte une réelle satisfaction au quotidien. Nous souhaitions renouveler l’expérience au Kiosque des Bastions, afin de supporter l’équipe en charge du service aussi bien que de fournir un service de qualité à nos clients.”

L’infrastructure sur site était vieillissante, sans grand contrôle et ne donnait pas entièrement satisfaction. En particulier, le réseau WiFi public, essentiel dans un lieu de loisirs et de plaisir, n’était pas à la hauteur des attentes du nouveau gestionnaire. L’arrivée de briques techniques supplémentaires, telles que la téléphonie par Internet, un système de prise de commande par tablettes ou la diffusion de musique en streaming, à renforcé le besoin de reprise de contrôle sur le réseau, comme nous l’explique Jean-Stéphane Riber :

« Il était essentiel que les différents services que nous souhaitions intégrer fonctionnent sans se perturber les uns les autres. La téléphonie devait être prioritaire pour assurer une qualité audio et une disponibilité hors pair. La couverture WiFi devait être complète afin de couvrir l’entier du Kiosque mais aussi de la terrasse. Les visiteurs devaient être authentifiés par SMS pour assurer l’obligation légale de traçage des connexions dans un lieu public. Et surtout, la sécurité du réseau et des appareils qui s’y trouvent devait être sans faille.”

Forte de son expérience avec le matériel Meraki, Steel Blue a donc conçu un réseau répondant à ces exigences. Constitué d’un firewall d’entreprise, d’un switch 24 ports PoE (afin d’alimenter les téléphones), et de 2 antennes WiFi (dont une renforcée pour l’extérieur), ce réseau a été monté et activé en l’espace d’une demi-journée. Grâce à une configuration standardisée, les briques techniques sont venues s’y greffer sans souci, si bien que le planning du projet de déploiement a été respecté. Tout en garantissant au client une exploitation aux petits oignons.

« Nous savons comment Steel Blue travaille, et cela correspond à nos standards de qualité. Plus que le simple déploiement et la mise en service des équipements, c’est surtout leur exploitation au quotidien qui nous séduit”, nous confie Jean-Stéphane Riber. « Leur supervision en temps réel des équipements et de leur comportement, tout comme leur réactivité en cas de besoin, tellement essentielles dans un lieu comme le Kiosque au moment du coup de feu, nous permettent de nous concentrer sur le reste et d’assurer la mission du restaurant : faire passer un moment inoubliable à nos clients !”

Alors que le pic de la période estivale s’éloigne gentiment, il est possible de tirer un premier bilan pour le Kiosque des Bastions après 2 mois d’exploitation. Et le pari semble réussi, puisque le réseau à rempli toutes les attentes du client pendant les quelques semaines les plus actives de l’année. Les clients ont pu profiter de la terrasse ensoleillée avec une connexion stable sur leurs téléphones, alors que l’équipe du restaurant pouvait compter sur la fiabilité de ses nouvelles ressources informatiques pour assurer la prise de commande et la facturation. Pari payant donc pour le groupe Little Big Food et son équipe dirigeante.

Emmanuel Dardaine

emmanuel dardaine expert cloud

Et dans votre établissement, comment se porte le WiFi ? Demandez-nous une évaluation !

Comme la majorité des personnes, vous utilisez un câble pour recharger votre smartphone. Parfois dans des espaces publics. Cependant il serait prudent d’arrêter. Car aussi inoffensif qu’il puisse paraître, un câble de recharge USB peut être un vrai aspirateur à données personnelles. Comment ? La suite devrait vous intéresser.

Il y a fort à parier que vous ayez déjà trouvé, aperçu, voire utilisé un câble de recharge USB dans un lieu public. Que ce soit pour imprimer vos photos dans votre centre commercial préféré ou alors recharger votre smartphone à la gare ou à l’aéroport. Cette pratique anodine ne l’est en fait pas vraiment. Et voici pourquoi il faut mettre un coup de frein et stopper cette (mauvaise) habitude. 

De la clé USB au câble de recharge

Les pirates informatiques se sont quelques peu trituré le cerveau pour trouver une nouvelle façon de voler vos données personnelles. En mêlant ingéniosité et malice, ils ont inventé le câble O.MG et toutes ses alternatives. Ce câble, bien qu’il ressemble à un câble ordinaire, vous l’aurez deviné n’en est pas un. Il permet – une fois branché à votre smartphone – de piocher dans vos données personnelles et de les envoyer au hacker. 

Comment ? Je vous l’ai dit, les pirates sont très ingénieux. Le câble se comporte comme un point d’accès WiFi longue distance, ce qui permet au pirate se trouvant plus loin (90 mètres au maximum) d’agir sur votre smartphone. Et à votre insu évidemment, puisque le câble qui remplit votre batterie est aussi celui qui permet d’accéder à l’appareil. Pour couronner le tout, cela fonctionne également sur votre PC. Pourquoi faire moins quand on peut faire plus. 

Cela pourrait paraître logique – voire évident – mais la solution est de ne pas utiliser de câbles se trouvant dans un lieu public. Tout simplement. Même si vous ramassez un câble dans la rue – qui dans un premier lieu semble flambant neuf – ne le prenez pas (ou jetez-le à poubelle au moins). S’il est arrivé ici, ce n’est peut-être pas un hasard. Dans le doute, mieux vaut ne plus avoir de batterie, plutôt que de laisser un pirate soutirer vos données personnelles ainsi que celles de votre entreprise. 

Pour parer la menace : une gestion efficace des appareils 

La première solution, sans doute la plus efficace, consiste à bloquer la lecture des supports de stockage amovibles. Oui, c’est possible mais pour peu qu’on dispose de règles de gestion informatique dignes de ce nom. 

En guise de seconde solution, vous pouvez opter pour l’utilisation d’un poste de travail virtuel pour vos sessions de travail. Cela permet de ne copier aucune donnée d’entreprise localement sur votre PC évitant ainsi toute fuite de celles-ci. 

Evidement ces solutions nécessitent une configuration particulière de vos appareils et c’est précisément ici que Steel Blue intervient. Grâce à la mise en œuvre des règles de sécurité standards pour l’ensemble de nos clients, nous sommes à même de garantir un niveau de sécurité maximum sur les appareils. Et ce, de manière indifférenciée, qu’il s’agisse d’un appareil physique ou virtuel, la protection sera la même. Maximale.

Jonathan De Faria

Jonathan De Faria

Vous êtes à la recherche de sécurité pour vos smartphones ? Contactez-nous !

Impossible d’avoir raté l’information : l’intelligence artificielle a débarqué. Pas une semaine sans une annonce sur le sujet le plus « hype » du moment. Microsoft n’échappe pas à la règle, et fait feu de tout bois avec son produit Copilot. Cette IA générative intègre notamment Microsoft 365 pour aider les PME. Pour quels usages ? Eléments d‘information.

Contrairement aux apparences, l’intelligence artificielle n’est pas nouvelle. Ce concept était simplement cantonné depuis des décennies aux laboratoires de recherche et à quelques applications spécifiques et confidentielles. La vraie nouveauté, c’est sa généralisation dans tous les secteurs d’activité. Pourquoi maintenant ? Parce que la numérisation à fait exploser les données qui nous entourent. Et que nous avons maintenant la capacité de les traiter.

Le bon timing

C’est donc bien la combinaison de ces deux facteurs – le volume des données à disposition et la puissance de calcul – qui permet à l’intelligence artificielle de prendre son envol. Et notamment celle qualifiée de « générative », c’est-à-dire celle capable non seulement d’analyser des données, mais aussi d’en produire de nouvelles.

Si le leader du moment, celui dont tout le monde parle, est ChatGPT, Microsoft se lance évidemment aussi dans la bataille, du haut de sa première marche des éditeurs de logiciel. D’ailleurs, les deux sociétés ne sont pas vraiment concurrentes sur le marché. Rappelons que Microsoft détient une large part d’OpenAI – la société mère de ChatGPT – ce qui lui a valu une enquête de l’Union Européenne au début de l’année 2024.

La sortie du PDG d’OpenAI en début d’année, en direction de Microsoft, a forcément éveillé quelques soupçons. Il est depuis rentré au bercail.

Chez Microsoft, vous interagirez donc avec Copilot. La force réelle de ce produit réside dans le fait qu’il est intégré dans Microsoft 365, la suite d’outils et de services collaboratifs en ligne. Ce qui le rend donc d’autant plus facile d’accès et pratique, puisque les outils où il s’installe sont ceux du quotidien, comme Word, Excel ou Outlook. Mais dans la vie réelle, que peut-on en attendre ? C’est ce que nous allons voir.

Copilot et son « prompt »

Comme toute bonne IA qui se respecte, Copilot interagit avec vous au travers d’un « prompt », c’est-à-dire une invite qui vous permet de définir votre requête. Celle-ci est exprimée avec les mots du quotidien, et il n’est donc pas nécessaire de maîtriser un langage de programmation. Vous formulez votre requête en langue naturelle et Copilot s’exécute. Un exemple ? « Rédige-moi un article de 5000 symboles sur les usages de Copilot dans les PME suisses en respectant la forme des articles de blog de Steel Blue »…

Rassurez-vous, c’est encore un humain qui écrit ces lignes. Mais concrètement, Copilot peut aller assez loin pour vous aider à améliorer votre productivité en réalisant des tâches à faible valeur ajoutée. Au quotidien, vous pourrez lui demander d’analyser et résumer des documents, synthétiser une réunion et en lister les points d’actions, analyser vos emails et identifier les priorités, organiser des réunions en définissant l’ordre du jour, ou analyser des données dans un fichier Excel.

Les possibilités semblent infinies. C’est à la fois intrigant et un peu effrayant.

Copilot peut notamment comprendre des notions complexes, telles que le ton employé dans une communication, si l’on veut qu’il soit formel par exemple. Il peut aussi identifier les questions clés et les points en suspens suite à des échanges d’email. Ou encore demander à ce que la génération de diagrammes dans un fichier soit claire et précise. Et évidemment, vous pouvez affiner votre prompt au fil des requêtes pour aboutir au résultat attendu.

Tout cela signifie que Copilot accède à vos données. Toutes vos données. Et notamment celles que vous stockez dans les services Microsoft. Ca n’est en fait pas nouveau, ne soyons pas naïfs. Mais ce qui peut surprendre, ou inquiéter, c’est la capacité à exploiter ces données. Ce que Copilot, ou toute autre IA générative, nous offre aujourd’hui est utilisé depuis longtemps par ceux qui stockent ces données.

Coût et sécurité en jeu

Une fois l’émerveillement passé, il faut bien se rendre à l’évidence : Copilot pose deux soucis fondamentaux. Le premier concerne la confidentialité, le second la sécurité des données. Si la protection des données a depuis longtemps été mise à mal par les réseaux sociaux, l’utilisation d’une IA générative permet de mieux percevoir l’ampleur du phénomène. Autrement dit : voici ce que permettent de faire toutes les informations que vous avez, sciemment ou pas, abandonnées sur l’autel de la numérisation.

Quant à la sécurité, on peut imaginer que vos données doivent transiter par de nombreux systèmes, où elles se trouvent répliquées pour être ingérées, mâchées, et digérées. Avec des risques évidents de fuite. Sur ce point précis, Microsoft assure que toutes les règles de protection de données que vous auriez mises en place ne sont pas remises en cause par Copilot. Notamment, la gestion d’étiquettes de confidentialité sur vos fichiers est reprise dans l’outil. A voir.

Pour autant, on imagine facilement que Copilot remportera un franc succès. Sa simplicité d’usage, et surtout son intégration poussée dans l’environnement Microsoft faciliteront son adoption dans le monde des PME. Restera la question des coûts. A près de 27 francs par mois par utilisateur – payable d’avance pour 1 an, Copilot est plus onéreux que la licence Microsoft 365 classique des petites entreprise (version Business Premium). Les bénéfices de son usage devront donc être importants et rapides. Et pour le savoir, il n’y a évidemment qu’une solution : le tester. Alors, à vos prompts !

Emmanuel Dardaine

emmanuel dardaine expert cloud

Envie de tester Copilot et ses « prompts » ? Demandez-nous une démonstration !

Vous avez l’habitude de scanner vos documents vers des emails ? Et votre imprimante multifonction n’est plus de toute première jeunesse ? Ce qui suit pourrait vous intéresser. Dans sa lutte sans fin pour renforcer la sécurité de ses comptes, Microsoft serre la vis. Et va désactiver l’envoi d’email par simple authentification sur son service de messagerie Cloud. Avec quel impact ? Demandez à votre scanner !

Il y a des indicateurs qui ne trompent pas. L’annonce de Microsoft 18 mois à l’avance de désactivation d’un service en est un. Car prendre autant de précaution – et d’avance – devrait vous mettre la puce à l’oreille. Lorsque Microsoft anticipe dans ces proportions la dépréciation d’une méthode d’authentification, c’est qu’il y a un loup. Mais où donc ? C’est ce que nous allons vous expliquer.

Une faiblesse vieille comme l’email

De quoi parle-t-on au juste ? Il fut un temps, pas si lointain, où se connecter à sa messagerie d’entreprise était simple comme entrer une adresse et un mot de passe. Peut-être avez-vous vu passer, au gré de la configuration de votre logiciel de messagerie, les acronymes POP, IMAP ou SMTP. Il s’agit en fait des « langages » utilisés pour soit envoyer des emails (SMTP), soit se connecter à une boîte sur un serveur de messagerie (IMAP et POP).

Je vous épargnerai leur description. Mais s’il faut conserver quelque chose en tête, c’est leur âge. Qui doit être à peu près le même que celui d’Internet lui-même. Soit une naissance dans les années 90, un temps béni où les hackers étaient une espèce plutôt rare. Et où la confiance prévalait. Mais ça, évidemment, c’était avant.

La sécurité n’était pas une priorité dans la conception des protocoles de communication au début d’Internet

Le seul souci, c’est que les années ont passé, le trafic sur Internet a explosé, et la menace cyber dans les mêmes proportions. Pour autant, nos trois bons vieux protocoles, eux, n’ont (presque) pas évolué, sorte de dinosaures dans un monde digital en perpétuel mouvement. C’est là justement que le bât blesse : ils n’ont jamais été prévus pour faire face à tant d’insécurité. Et sont donc complètement dépassés.

Les scanners au cœur du débat

Dans le monde de l’entreprise, ils sont aussi très présents. Et si les clients PME basculent majoritairement sur le système Exchange Online de Microsoft, ce dernier a pris soin d’assurer la compatibilité ascendante. Conclusion, si Exchange utilise un protocole d’authentification sécurisé, il a fait en sorte de ne fâcher personne et d’embarquer aussi ces protocoles d’un ancien temps. Dans quel but ? Rester compatible avec tous les appareils et logiciels un peu datés.

Et c’est là qu’on en arrive à nos chers scanners. Ces machines, quoique fort sympathiques, sont parfois un peu âgées. Surtout, s’il s’agit d’appareils d’entrée de gamme, ils ne disposent pas de fonctions avancées ou même de capacité à s’adapter à des protocoles nouveaux. Et lorsqu’ils vous proposent d’envoyer un scan par email, cela passe par SMTP. Vous me voyez venir ?

L’équation est pourtant simple : de vieux appareils, qui utilisent un protocole peu sécurisé et qu’on ne peut pas mettre à niveau, utilisés pour envoyer des scans vers le système de messagerie Cloud Microsoft qui se modernise. On arrive donc à un point de rupture, prévu pour septembre 2025. A cette date, il y a fort à parier que vos scanners ne fonctionnent plus. Et ne rêvez pas : le mouvement est le même chez les autres fournisseurs de messagerie. Vous éviterez donc d’utiliser un compte Gmail dans votre scanner.

Choisir la voie de la sagesse

Quelles alternatives alors ? Vous pouvez envisager de scanner directement vers le dossier d’un ordinateur – un serveur ou un PC. Mais les mêmes causes entraînent les mêmes effets. D’autres protocoles sont en jeu, mais avec des lacunes équivalentes : pas d’authentification renforcée, et des contraintes que Microsoft, qui maîtrise aussi Windows, renforce un peu plus au fil du temps.

Toutes les facettes de votre informatique renforcent progressivement leur sécurité. Il n’y aura donc pas de voie de sortie simple.

La vraie porte de sortie consiste à utiliser une méthode moderne. A savoir : scanner vos fichiers dans le Cloud. Cela permet de bénéficier de la double authentification – MFA pour les intimes – et de bénéficier d’une souplesse sans pareil. Imaginez : à peine numérisé, votre document est disponible sur tous vos appareils personnels connectés à votre Cloud. Instantanément.

La seule difficulté viendra de la compatibilité de votre scanner. Qui n’est souvent rien d’autre que votre imprimante. Et c’est à ce stade que vous comprenez pourquoi Microsoft prend autant les devants. Car il est probable que vous deviez changer d’appareil. Rien que ça. Les plus malins anticiperont le mouvement, bien aidés par les circonstances si leur machine arrive en fin de vie.

Les autres devront faire face à la vague de mise à niveau et de remplacement que les constructeurs d’imprimantes devront affronter dès la mi-2025. Et qu’ils auront probablement toutes les peines à absorber. C’est donc le bon moment de vérifier ce que vous utilisez pour scanner. Et tenter de mettre à niveau votre scanner. Faute de quoi le remplacement sera inévitable. La sécurité a un prix.

Emmanuel Dardaine

emmanuel dardaine expert cloud

Votre vieux scanner va vous faire des soucis ? Contactez-nous pour trouver la bonne alternative !