00:00:06 Introduction au développement générationnel du machine learning.
00:00:38 1ère génération : algorithmes de prévision statistique des années 50/60.
00:03:26 Transition vers la 2ème génération : modèles non paramétriques de la fin des années 80/90.
00:06:20 Convergence entre la statistique et le machine learning.
00:07:55 L’impact des améliorations technologiques sur l’évolution du machine learning.
00:09:54 L’effet du deep learning sur la prévision, en contraste avec le machine learning standard.
00:11:31 Modèles paramétriques, évitant le surapprentissage du deep learning.
00:13:01 La relation du deep learning avec le matériel, les GPUs, et l’algèbre linéaire.
00:14:50 Le rôle du cloud computing dans le traitement des données par le deep learning.
00:16:01 Les défis liés aux GPUs, les avantages du cloud computing pour la prévision dans la supply chain.
00:17:22 L’avenir du machine learning : l’essor de differentiable programming.
00:19:13 Les investissements en machine learning dans l’industrie de la supply chain, l’adaptation au big data.
00:22:44 Le rythme du changement technologique, l’adaptation des dirigeants supply chain.
00:25:24 Conclusion : l’importance du SaaS et du cloud computing dans l’évolution technologique.
Résumé
Dans une interview, Joannes Vermorel, fondateur de Lokad, a abordé l’histoire du machine learning (ML), depuis ses origines dans les algorithmes de prévision des séries temporelles des années 50 jusqu’à l’avènement du deep learning. Il a souligné les applications du machine learning dans la gestion de la supply chain, domaine de prédilection de son entreprise. Vermorel a décrit la progression, passant de modèles simples et basés sur les données à des modèles statistiques non paramétriques capables d’apprendre n’importe quel motif avec suffisamment de données. La conversation a couvert les jalons clés du machine learning, le rôle de la technologie, et le défi du surapprentissage. Vermorel a prédit les développements futurs du machine learning, incluant differentiable programming, ainsi que l’attention continue portée à la reconnaissance vocale et à la reconnaissance d’images. Il a conclu en préconisant le Software as a Service afin d’aider les dirigeants supply chain à suivre le rythme effréné du changement technologique.
Résumé détaillé
L’interview entre l’animateur Kieran Chandler et Joannes Vermorel, fondateur de Lokad, explore l’évolution et le développement du machine learning, avec une attention particulière portée à son application dans la gestion de la supply chain.
Vermorel suggère que les origines du machine learning remontent aux années 1950 et 1960, avec l’émergence des premiers algorithmes de prévision des séries temporelles. Bien que ces algorithmes n’aient pas été traditionnellement reconnus comme du machine learning à leur conception, ils présentaient les caractéristiques clés du machine learning, telles qu’être basés sur les données, statistiques, et conçus pour apprendre des motifs à partir des données. Vermorel souligne en outre que l’utilisation initiale de ces algorithmes était étroitement liée à l’optimisation de la supply chain, un domaine dans lequel son entreprise, Lokad, est spécialisée aujourd’hui.
En ce qui concerne les méthodes spécifiques utilisées lors de cette phase initiale du machine learning, Vermorel cite plusieurs techniques que les praticiens de la supply chain connaissent bien. Il mentionne notamment les moyennes mobiles, le lissage exponentiel, ainsi que des modèles plus complexes tels que les méthodes Holt-Winters et Box-Jenkins. Il caractérise ces premiers algorithmes comme relativement simples, conçus principalement pour répondre aux capacités de calcul des ordinateurs disponibles à l’époque. Ces premiers modèles devaient être rapides et efficaces, capables de traiter des centaines de données avec des milliers d’opérations, malgré les contraintes d’une puissance de calcul et d’une mémoire limitées.
En orientant la conversation vers la progression du machine learning, Vermorel explique que le prochain bond significatif est survenu à la fin des années 80 et dans les années 90, marqué par l’émergence de modèles statistiques non paramétriques. Cette évolution, passant des modèles paramétriques de la première génération, caractérisés par un nombre fixe de paramètres ajustables (généralement pas plus d’une douzaine), représente un développement crucial.
Les modèles paramétriques, limités par leur nombre fixe de paramètres, ne pouvaient s’adapter qu’à une gamme restreinte de motifs de données. En revanche, les modèles non paramétriques n’avaient pas de forme prédéterminée, ce qui leur permettait d’apprendre potentiellement n’importe quel motif, à condition qu’il y ait suffisamment de données. Ce changement a marqué une avancée majeure dans les capacités et la flexibilité du machine learning, posant les bases des applications de machine learning plus complexes et polyvalentes que l’on voit aujourd’hui.
Vermorel commence par souligner le défi du surapprentissage dans les premiers modèles de prévision, où augmenter le nombre de paramètres pouvait conduire à des modèles s’ajustant parfaitement aux données historiques, sans offrir de capacités prédictives pour l’avenir. Ce fut une énigme majeure dans le domaine pendant des décennies, jusqu’à la fin des années 90, lorsque des solutions satisfaisantes sont apparues avec l’avènement des modèles non paramétriques.
Il aborde ensuite les deux camps qui sont apparus à cette époque dans le domaine : l’apprentissage statistique et le machine learning. Le premier regroupait des mathématiciens pratiquant la statistique avec une utilisation intensive des ordinateurs, tandis que le second était composé de professionnels de l’informatique se dirigeant progressivement vers des algorithmes statistiques. Il note que ces perspectives ont donné naissance à différents styles de modélisation. Par exemple, le camp de l’apprentissage statistique privilégiait les machines à vecteurs de support, un modèle bien compris d’un point de vue mathématique. En revanche, le camp du machine learning était davantage attiré par les réseaux de neurones, qui impliquaient une manipulation numérique importante.
Chandler oriente ensuite la conversation vers le rôle de la technologie dans l’évolution de ces domaines. Vermorel évoque une percée significative à la fin des années 90 : l’idée que plus de données mènent à de meilleurs résultats. Ce concept ne se limitait pas à des séries temporelles plus longues, mais s’étendait également à des ensembles de données plus diversifiés. Initialement, cette approche était un processus lent, nécessitant l’accumulation d’un historique plus conséquent. Cependant, les avancées dans le machine learning et l’apprentissage statistique ont permis de tirer parti des données de davantage de produits, conduisant à des prévisions de demande plus précises.
Vermorel cite l’introduction de modèles tels que les machines à vecteurs de support à la fin des années 90 et les forêts aléatoires au début des années 2000 comme des avancées significatives dans la capture d’informations provenant d’ensembles de données plus vastes et diversifiés.
La discussion se tourne ensuite vers l’avènement du deep learning. Vermorel explique que l’accumulation progressive d’enseignements essentiels a rendu le deep learning nettement différent du machine learning standard. L’un des principaux avantages du deep learning est sa capacité à apprendre des fonctions plus complexes avec moins de données comparé aux algorithmes d’apprentissage superficiel.
Il est intéressant de noter que Vermorel souligne que le deep learning ne surpasse pas nécessairement les algorithmes classiques sur de petits ensembles de données. Toutefois, il excelle lorsqu’il s’agit de très grands ensembles de données, où les algorithmes d’apprentissage superficiel ne parviennent pas à exploiter les informations supplémentaires disponibles.
De manière surprenante, le deep learning a fait réapparaître l’utilisation de modèles paramétriques, certes avec plusieurs millions de paramètres, contrairement aux premiers modèles paramétriques qui comportaient un nombre fixe de paramètres. Le défi consistait ici à éviter un surapprentissage massif, problème qui a été résolu grâce à une série de techniques ingénieuses.
Vermorel a en outre abordé le rôle des Graphical Processing Units (GPUs) dans l’avancement du machine learning. Ces unités sont essentielles pour les tâches de deep learning mais sont coûteuses et gourmandes en énergie. Les plateformes de cloud computing ont atténué ce problème en fournissant des fermes de GPUs à la demande, répondant efficacement aux problèmes de coût et de consommation d’énergie. Cela a été particulièrement bénéfique pour l’optimisation de la supply chain, où les prévisions statistiques s’exécutent généralement une fois par jour, nécessitant une allocation de GPUs pour une durée très courte.
En se tournant vers l’avenir du machine learning, Vermorel a prédit un retour aux modèles non paramétriques dans le domaine du deep learning. Il a évoqué une nouvelle approche, la “differentiable programming”, dans laquelle la structure du modèle de deep learning est ajustée pendant la phase d’apprentissage. Cette approche dynamique pourrait constituer la prochaine phase significative du machine learning et de l’apprentissage statistique.
Interrogé sur l’orientation actuelle des grandes entreprises technologiques, Vermorel a mentionné que la reconnaissance vocale, la synthèse vocale, la reconnaissance d’images et la traduction automatique reçoivent actuellement des investissements importants. Il s’agit de domaines clés de recherche et de développement, qui façonnent l’avenir du machine learning. Cependant, les entreprises de la supply chain, y compris Lokad, accusent un léger retard, car elles ne disposent pas des ressources nécessaires pour investir massivement dans les technologies de machine learning.
L’optimisation de la supply chain présente des défis uniques pour l’application du machine learning, notamment parce qu’elle traite de blocs de données plus réduits comparativement à d’autres domaines comme le traitement d’images. Cela nécessite une utilisation équilibrée des CPU et des GPUs.
Chandler a ensuite soulevé la question de l’évolution technologique rapide et du défi que cela représente pour les dirigeants supply chain, dont les solutions mises en œuvre risquent de devenir rapidement obsolètes. Vermorel a conseillé que le Software as a Service (SaaS) pourrait constituer une solution viable. Il a mis en avant Lokad comme exemple de fournisseur SaaS qui met constamment à jour et optimise ses services, allégeant ainsi la charge de ses clients.
Transcription complète
Kieran Chandler : Aujourd’hui sur Lokad TV, nous allons revenir aux sources et étudier le développement générationnel du machine learning, tout en cherchant à savoir si cette progression graduelle peut nous donner des indices sur l’avenir du machine learning. Alors, Joannes, à quoi ressemblait cette première génération de machine learning ? Quand est-elle apparue ?
Joannes Vermorel : Fait intéressant, je dirais que les premiers algorithmes de machine learning étaient, d’une certaine manière, liés à la supply chain, avec le tout premier algorithme de prévision des séries temporelles apparu dans les années 50 et 60. Il réunissait tous les ingrédients essentiels : il était axé sur les données, statistique, et cherchait effectivement à apprendre des motifs à partir des données. À l’époque, on ne parlait pas de machine learning ; on les considérait simplement comme des algorithmes de prévision. Mais tous les éléments étaient présents.
Kieran Chandler : Alors, quels types de méthodes étaient utilisées ? Je veux dire, la plupart des praticiens de la supply chain les connaissaient, non ?
Joannes Vermorel : Ils connaissaient la moyenne mobile, le lissage exponentiel, et il existait ensuite des méthodes plus sophistiquées de cette époque, telles que le modèle Holt-Winters, les modèles Box-Jenkins, etc. Ainsi, une série d’algorithmes relativement simples a émergé dès l’avènement des ordinateurs. Il est intéressant de constater qu’aussitôt que les entreprises ont eu des ordinateurs, ils ont effectivement été utilisés pour optimiser les supply chains, quoique pour des objectifs relativement modestes.
Kieran Chandler : À l’époque, les choses étaient très différentes dans le domaine de l’analyse computationnelle. Quelle était la principale préoccupation à cette époque ?
Joannes Vermorel : L’objectif principal était d’avoir si peu de puissance de calcul, de mémoire et de capacités pour effectuer de nombreux calculs. Tous ces modèles de première génération, datant des années 60 et 70, étaient conçus pour être extrêmement rapides. Cela signifiait que, si vous aviez 100 points de données à traiter, vous n’auriez que quelques milliers d’opérations à réaliser sur ces points. Ces algorithmes étaient conçus pour des machines disposant seulement de quelques kilooctets de mémoire et de fréquences de processeur inférieures à 1 MHz.
Kieran Chandler : J’imagine qu’à l’époque, beaucoup moins de ressources étaient consacrées à l’analyse computationnelle par rapport à aujourd’hui, où des centaines de milliers de personnes y travaillent. Combien de temps a-t-il fallu pour que la génération suivante émerge ? Ce fut long à attendre ?
Joannes Vermorel : Ce fut une évolution graduelle. Nous avons eu la première vague de modèles qui ont émergé dans les années 60 et 70, et ils étaient tous des modèles paramétriques. Il s’agissait de modèles statistiques avec un nombre fixe de paramètres, généralement pas plus d’une douzaine.
Kieran Chandler : Qu’est-ce que cela signifie, un paramètre ?
Joannes Vermorel : Un paramètre, c’est comme un nombre. Ainsi, votre modèle statistique comportait quelques nombres que vous pouviez ajuster pour que le modèle s’adapte aux données. L’essence de la phase d’apprentissage consiste à trouver ces paramètres. Typiquement, vous aviez environ une demi-douzaine, peut-être jusqu’à une douzaine pour les modèles plus sophistiqués, et c’était tout. Ce qui s’est produit à la fin des années 80 et plus fortement dans les années 90, c’est l’émergence de modèles statistiques non paramétriques. C’était intéressant parce que la première génération de modèles ne pouvait pas s’adapter à n’importe quel type de motifs temporels ou de motifs de demande ; ils avaient un nombre très limité de paramètres, et étaient donc très limités dans ce qu’ils pouvaient apprendre en observant les données historiques.
Kieran Chandler : La deuxième génération, passant des modèles paramétriques aux modèles non paramétriques, a été significative. Si l’on disposait de suffisamment de données, il était alors possible d’apprendre n’importe quel motif. Cette percée à la fin des années 90 a conduit au développement de modèles aux propriétés mathématiques attrayantes. Avec un nombre arbitrairement grand de données, on pouvait se rapprocher arbitrairement du meilleur modèle sans se heurter à un problème de surapprentissage. Le surapprentissage, bien sûr, survient lorsque l’on augmente le nombre de paramètres jusqu’au point que le modèle s’adapte parfaitement aux données historiques, mais perde alors sa capacité prédictive pour l’avenir. Le surapprentissage représente une énigme, celle d’avoir un modèle de prévision précis sur des données que l’on ne possède pas. Ce problème a intrigué les décideurs pendant des décennies, jusqu’à ce que des solutions satisfaisantes émergent avec l’introduction des modèles non paramétriques à la fin des années 90. Avec ces modèles, nous avons commencé à voir l’avènement du machine learning. Comment cela s’est-il produit et quel impact cela a-t-il eu ?
Joannes Vermorel: C’est intéressant. En termes de terminologie, nous avions plusieurs camps. Nous avions le camp de l’apprentissage statistique où des mathématiciens, qui faisaient de la statistique, ont commencé à utiliser massivement des ordinateurs pour soutenir leur travail. D’autre part, le machine learning était à l’opposé. C’était le domaine des informaticiens qui rencontraient ce genre de problèmes et qui ont progressivement adopté des algorithmes statistiques. C’était plus une différence de perspective.
Par exemple, dans le camp de l’apprentissage statistique, il y avait les machines à vecteurs de support, bien comprises d’un point de vue mathématique, qui séduisaient la communauté statistique puriste. De l’autre côté, il y avait les réseaux de neurones, avec beaucoup de manipulations numériques, qui plaisaient à la communauté du machine learning. Il s’agissait de perspectives différentes sur le domaine, et elles ont progressivement convergé.
Kieran Chandler: Quel que soit le camp auquel vous apparteniez, ce qui évoluait autour de vous était la technologie et les capacités de ce que vous pouviez en faire. Alors, quelles ont été les améliorations technologiques significatives et les percées qui ont vraiment aidé dans tout cela ?
Joannes Vermorel: La percée à la fin des années 90 a été l’idée que si l’on disposait de plus de données, on obtiendrait de meilleurs résultats. Et je ne parle pas seulement de séries temporelles plus longues, mais aussi de plus de séries temporelles. Pour la supply chain, cela signifie : pouvez-vous obtenir une prévision de demande plus précise simplement parce que vous disposez de plus d’historique ? Mais le problème est que si vous voulez une année ou plus d’historique de ventes, vous devez attendre une année supplémentaire, ce qui est un processus très lent. De plus, avec new products lancés et certains produits retirés du marché, vous n’obtenez jamais vraiment plus d’historique.
Il y a eu quelques percées permettant de tirer parti de plus de données provenant d’un plus grand nombre de produits. Cela ne s’est pas produit à la fin des années 90 ; c’est venu plutôt dans les années 2000. Ce qui l’a rendu possible, ce sont les avancées dans le machine learning et l’apprentissage statistique, toutes liées à ces modèles non paramétriques.
Il y avait une série de ces modèles statistiques qui représentaient des percées, comme les machines à vecteurs de support, publiées autour de ‘96 avec une implémentation opérationnelle vers ‘98, puis les forêts aléatoires vers 2001. Ces modèles ont commencé à fonctionner très efficacement pour capturer l’information à partir de jeux de données plus volumineux et présentant une plus grande diversité en termes de caractéristiques.
Kieran Chandler: Deep learning, quel en a été l’impact et quelle a été la principale différence entre le deep learning et le simple machine learning ?
Joannes Vermorel: C’est intéressant car le deep learning est la conjonction d’une dizaine d’insights critiques, mais tout cela s’est fait de manière très progressive. En rassemblant toutes ces choses, cela a vraiment fait une grande différence. Un avantage clé du deep learning est la capacité d’apprendre des fonctions plus complexes avec moins de données. Le problème avec les algorithmes de machine learning de deuxième génération, comme le shallow learning, c’est qu’ils peuvent apprendre n’importe quel schéma statistique si l’on leur fournit suffisamment de données, mais en pratique, il faut une quantité énorme de données pour y arriver, ce qui est complètement impraticable. Le deep learning, en un sens, était capable de mieux exploiter des jeux de données très volumineux.
D’abord, le deep learning ne surpasse pas nécessairement les algorithmes classiques sur de petits jeux de données, mais lorsque ceux-ci deviennent très volumineux, les algorithmes de shallow learning n’exploitent pas réellement toute l’information supplémentaire disponible, alors que le deep learning le peut. Alors, qu’est-ce qui rend le deep learning différent ? Nous revenons aux modèles paramétriques, qui étaient utilisés dès les années 1950 ou 1960. Ces modèles possèdent un nombre fixe de paramètres, puis nous sommes passés à des modèles non paramétriques où le nombre de paramètres est dynamique. Ensuite, avec le deep learning, nous revenons aux modèles paramétriques, mais la grande différence est que ces modèles comportent plusieurs millions de paramètres. Nos modèles peuvent comporter jusqu’à 20 millions de paramètres.
Pour éviter un surapprentissage massif, une série d’astuces très ingénieuses a été découverte dans le cadre du mouvement du deep learning. Un autre ingrédient clé était de concevoir des modèles statistiques ayant une affinité maximale avec le matériel informatique dont nous disposions, comme les unités de traitement graphique (GPUs), qui sont très efficaces en algèbre linéaire. L’une des astuces computationnelles du deep learning consiste à ramener le tout à l’algèbre linéaire. En passant des calculs sur CPU aux calculs sur GPU, nous avons gagné deux ordres de grandeur en puissance de calcul, rendant soudainement possibles de nombreuses tâches qui ne l’étaient pas auparavant.
Kieran Chandler: Vous parlez de l’évolution du matériel et de la capacité de traitement, quelles ont été les autres améliorations techniques dans l’industrie qui ont rendu cela possible ? Comment l’avènement du cloud computing s’intègre-t-il dans tout cela ?
Joannes Vermorel: Le cloud computing a vraiment facilité la collecte de toutes les données. Si vous voulez que le deep learning soit réellement intéressant, il faut beaucoup de données. Manipuler des téraoctets de données est en réalité bien plus simple grâce au cloud computing.
Kieran Chandler: Il semble que les plateformes de cloud computing aient simplifié les choses pour tout le monde. Par exemple, vous n’avez plus à gérer des quotas de disque ou à gérer manuellement votre stockage sur plusieurs disques physiques. Est-ce correct ?
Joannes Vermorel: Absolument. Les plateformes de cloud computing ont éliminé une grande partie des processus manuels associés à la gestion du stockage. De plus, elles ont facilité la consolidation de toutes les couches nécessaires pour le deep learning.
Kieran Chandler: Et en ce qui concerne le coût du deep learning et des GPUs ? Ils sont assez chers et consomment beaucoup d’énergie, n’est-ce pas ?
Joannes Vermorel: En effet, les cartes graphiques peuvent facilement consommer environ 400 à 500 watts. Si vous en utilisez plusieurs, cela peut poser un problème électrique. Cependant, le cloud computing a atténué ce problème en proposant des fermes de GPUs à la demande. Dans le cas spécifique de la supply chain, c’est très pratique car, typiquement, il suffit de réaliser votre prévision statistique une fois par jour. Vous pouvez allouer vos GPUs pendant une heure, effectuer tous vos calculs, puis les restituer à votre plateforme de cloud computing préférée, que ce soit Microsoft Azure, Amazon Web Services ou Google Cloud.
Kieran Chandler: Le machine learning s’est développé progressivement au cours des dernières décennies. Peut-on en tirer des indices pour prédire l’avenir du machine learning ? Que pouvons-nous espérer voir ensuite ?
Joannes Vermorel: Fait intéressant, tout va par cycles. Nous avons commencé avec des modèles paramétriques et la prévision des séries temporelles, puis nous sommes passés aux modèles non paramétriques avec les premiers algorithmes génériques de machine learning. Ensuite, nous avons évolué vers des modèles hyperparamétriques avec le deep learning. Aujourd’hui, ce qui émerge, ce sont à nouveau des modèles non paramétriques dans le spectre du deep learning. Ce sont des méthodes de deep learning plus sophistiquées qui ajustent la structure même du modèle pendant la phase d’apprentissage. Si je devais parier sur le mot à la mode de demain, ce serait “differentiable programming”. Cette approche est similaire au deep learning, mais elle est beaucoup plus dynamique dans la façon dont le modèle est construit et évolue pendant la phase d’apprentissage.
Kieran Chandler: Donc, differentiable programming est le nouveau mot à la mode. L’industrie de la supply chain est souvent un peu en retard par rapport aux big four en termes de domaines d’investissement. Dans quoi investissent-ils actuellement en recherche, et quelles grandes évolutions pouvons-nous attendre dans l’année à venir ?
Joannes Vermorel: En ce qui concerne le machine learning, les grands problèmes dans lesquels les géants de la technologie investissent des milliards sont la reconnaissance vocale, la synthèse vocale, la reconnaissance d’images et la traduction en langage naturel. Ce sont des problèmes fondamentaux pour l’apprentissage piloté par l’information et ils sont en avance en termes de recherche et développement. Les supply chains, y compris celles qui développent des logiciels de machine learning, sont un peu en retard. Personne dans la supply chain n’a les ressources pour investir un milliard de dollars par an pour améliorer la demande.
Kieran Chandler: Il y a eu des investissements substantiels dans la prévision, mais il semble que cela représente une petite fraction de ce qui est nécessaire. Cela paraît avoir un retard de quelques années par rapport aux grandes avancées. Qu’en pensez-vous ?
Joannes Vermorel: Vous avez raison. La grande avancée actuellement consiste à adapter les techniques développées dans d’autres domaines, comme le traitement d’images et de la voix, aux situations de supply chain. Cela nécessite une refonte significative. Par exemple, ces grands problèmes disposent généralement de larges volumes de données à traiter. Une image, par exemple, peut faire plusieurs mégaoctets. Par conséquent, elle ne requiert pas une chaîne de traitement sophistiquée pour transférer vos données du CPU au GPU. Votre image est un objet volumineux contenant beaucoup d’informations qui resteront dans le GPU pendant un certain temps avant que le calcul ne soit effectué.
D’autre part, les supply chains ont des exigences différentes. Les objets que vous souhaitez optimiser, comme les storage keeping units, sont petits en termes de données mais nombreux. L’historique complet de vos mouvements pour un SKU tiendra en quelques kilo-octets, mais vous en avez des dizaines de millions. Par conséquent, adapter ces techniques développées pour de gros problèmes de machine learning aux supply chains présente une série de défis. Cela nous oblige à exploiter au mieux à la fois le CPU et le GPU, car il reste encore de nombreux calculs qui sont mieux réalisés sur le CPU.
Kieran Chandler: Il semble que l’industrie évolue et change constamment. Les implémentations tendent à devenir rapidement obsolètes. Comment un cadre supply chain peut-il éventuellement suivre tout cela, et avez-vous des conseils à ce sujet ?
Joannes Vermorel: Le rythme du changement est en effet un défi. Mais cela a toujours été un problème dans le domaine de l’informatique. Ma suggestion est d’opter pour des solutions Software as a Service (SaaS) comme Lokad. Par exemple, nous en sommes à la cinquième génération de notre moteur de prévision, mais nos clients n’ont pas à faire quoi que ce soit de technique pour effectuer la mise à niveau. Nous les mettons à jour d’une version à l’autre en leur nom, dans le cadre du service.
Avec l’avènement des logiciels SaaS, ce problème devient beaucoup plus facile à gérer. Vous n’avez pas à consacrer des ressources uniquement pour suivre le rythme - votre fournisseur s’en charge pour vous. Ce n’était pas le cas avec les logiciels sur site, où la mise à niveau d’une version à l’autre était généralement un gros projet.
D’ailleurs, les plateformes de cloud computing ont résolu ce même problème pour nous. Ainsi, un responsable supply chain utilisant une application SaaS comme Lokad, qui fournit des analyses prédictives avancées pour optimiser votre supply chain, suivra le rythme du changement. Lokad, à son tour, suit le rythme du changement car la plateforme de cloud computing que nous utilisons est Platform as a Service (PaaS), et elle met constamment à jour de nombreux éléments pour nous.
Kieran Chandler: Il semble que tout le monde suive en quelque sorte les avancées technologiques, c’est très instructif. Merci d’avoir partagé vos réflexions, Joannes. Nous poursuivrons cette discussion la prochaine fois. Merci à tous de nous avoir regardés.