Avec le développement de l’IoT, l’Edge Computing apporte une réponse pour stocker et traiter les données là où elles sont produites, au plus près des capteurs et objets connectés. Cette nouvelle génération d’architectures distribuées, couplée au modèle centralisé du Cloud Computing, permet de mieux distribuer l’intelligence artificielle, tout en limitant les coûts.
Gérer l’explosion des données d’intelligence embarquée dans les objets connectés
Les projets et les expérimentations autour des objets connectés se multiplient, autour de cas d’usage qui vont du déploiement de capteurs simples, transmetteurs de données brutes (température, flux, vibrations, etc.), à la mise en œuvre de capteurs intelligents, embarquant eux-mêmes de la puissance de calcul (robots, drones, etc.). Par ailleurs, l’objet connecté n’est pas forcément positionné uniquement en début de chaîne, en tant qu’émetteur de données : il peut être amené à exécuter des ordres et à apporter une réponse adaptée en fonction des données qu’il a recueillies.
Par exemple, dans le domaine de la logistique, les photos prises par un robot dans un entrepôt, couplées à ses données de géolocalisation, pourront le conduire à lui faire prendre automatiquement la décision de déplacer une palette, pour des raisons de sécurité, ou d’enclencher un processus opérationnel pour corriger une anomalie.
Dans les projets IoT, le volume de données à traiter et à analyser, grâce à des algorithmes d’intelligence artificielle (IA), pour les contextualiser, requiert de plus en plus d’espace de stockage et de puissance de calcul.
Edge Computing et Cloud Computing : le duo gagnant
Dans ce contexte, les architectures 100 % centralisées ne sont plus efficientes. En effet, si les technologies Cloud sont rapides à déployer et évolutives quant à leur capacité de stockage et de puissance de calcul, le constat est sans appel : le coût au gigaoctet décroît aujourd’hui beaucoup moins vite que le volume de données à stocker. Or, pour être pertinente, l’IA a besoin de beaucoup de datas. D’autre part, dans les phases d’apprentissage (deep learning), le besoin en capacité de calcul est très important, ce qui impacte encore plus les coûts. En outre, dans une architecture 100 % centralisée, se pose également la question de la surcharge du réseau pour faire transiter les données des objets connectés vers le Cloud, et inversement.
En permettant de distribuer l’architecture avec des micro-datacenters (ou mini cloud) déployés localement, l’Edge Computing apporte une réponse à ces enjeux : le stockage et le calcul sont réalisés en local, au plus près des capteurs et objets connectés, tandis que seuls les résultats des calculs et les informations qui nécessitent d’être remontées sont transmises au système d’information central.
Dans notre exemple, les images capturées par le robot sont stockées et analysées en local. Ne sont envoyées dans le Cloud que celles qui présentent une valeur ajoutée pour prendre une décision. En d’autres termes, le système central est amené à ne stocker et à ne traiter que les exceptions ou les anomalies.
Cette nouvelle génération d’architectures distribuées permet d’optimiser l’infrastructure, et les coûts qui y sont associés, et de libérer de la bande passante réseau pour réduire les temps de latence. Toutefois, à l’inverse de ce qui se pratiquait jusqu’au début des années 2000, il ne s’agit pas d’un modèle totalement distribué : la centralisation reste forte autour du Cloud, quel que soit le format Cloud retenu par l’entreprise. En d’autres termes, l’Edge n’a pas vocation à remplacer le Cloud Computing : ils se complètent pour créer une infrastructure globale en adéquation avec les besoins liés aux projets IoT.
Compétences IT, sécurité et mises à jour algorithmiques en local
Si le développement des projets liés aux objets connectés va inéluctablement faire progresser l’Edge Computing, la décentralisation de l’infrastructure nécessite d’exploiter les mini-datacenters sur les différents sites des entreprises. Ce qui implique un renouveau des compétences informatiques, et notamment réseaux, en local. Compétences qui avaient été quelque peu délaissées depuis 15 ans, avec la centralisation des architectures IT.
En matière de sécurité des données, l’Edge Computing limite la quantité d’informations critiques à transférer entre les sites et les serveurs centraux, du fait de leur traitement en local. Les risques sont aussi moins importants en cas d’attaque, car il est plus simple d’endiguer l’exploitation malveillante en isolant le matériel concerné du reste du système d’information. Toutefois, l’Edge a ses limites, propres au modèle distribué. Les serveurs déportés sont une porte d’entrée sur le SI de l’entreprise, ce qui nécessite de contrôler et de sécuriser les accès physiques aux baies informatiques. Il faut aussi sécuriser les transmissions entre les mini-datacenters et les serveurs centraux.
Enfin, le propre de l’IA est d’auto-apprendre. Si bien que les entreprises dont les sites ont des activités ou des contraintes différentes auront, à terme, autant d’algorithmes que de sites, à partir du même algorithme initial.
Par Damien Pasquinelli, CTO, Advanced Solutions, Hardis Group.