00:00:06 Introduction au développement générationnel de l’apprentissage automatique.
00:00:38 1ère génération : algorithmes de prévision statistique des années 1950/60.
00:03:26 Transition vers la 2ème génération : modèles non paramétriques de la fin des années 80/90.
00:06:20 Convergence statistique vs. apprentissage automatique.
00:07:55 Impact des améliorations technologiques sur l’évolution de l’apprentissage automatique.
00:09:54 L’effet de l’apprentissage profond sur la prévision, en contraste avec l’apprentissage automatique standard.
00:11:31 Modèles paramétriques, évitant le surajustement de l’apprentissage profond.
00:13:01 La relation de l’apprentissage profond avec le matériel, les GPU, l’algèbre linéaire.
00:14:50 Le rôle du cloud computing dans le traitement des données de l’apprentissage profond.
00:16:01 Les défis des GPU, les avantages du cloud computing pour la prévision de la supply chain.
00:17:22 L’avenir de l’apprentissage automatique : l’essor de la programmation différentiable.
00:19:13 Les investissements de l’industrie de la supply chain dans l’apprentissage automatique, l’adaptation au big data.
00:22:44 Le rythme du changement technologique, l’adaptation des cadres de la supply chain.
00:25:24 Conclusion : l’importance du SaaS et du cloud computing dans l’évolution technologique.

Résumé

Dans une interview, Joannes Vermorel, fondateur de Lokad, a discuté de l’histoire de l’apprentissage automatique (ML), de ses origines dans les algorithmes de prévision des séries temporelles des années 1950 à l’avènement de l’apprentissage profond. Il a souligné les applications de l’apprentissage automatique dans la gestion de la supply chain, spécialité de son entreprise. Vermorel a décrit la progression des modèles simples basés sur les données vers des modèles statistiques non paramétriques capables d’apprendre n’importe quel motif avec suffisamment de données. La conversation a couvert les principales étapes de l’apprentissage automatique, le rôle de la technologie et le défi du surajustement. Vermorel a prédit les développements futurs de l’apprentissage automatique, notamment la programmation différentiable, ainsi que la focalisation continue sur la reconnaissance vocale et d’image. Il a conclu en préconisant le logiciel en tant que service pour aider les cadres de la supply chain à suivre le rythme du changement technologique rapide.

Résumé étendu

L’interview entre l’animateur Kieran Chandler et Joannes Vermorel, fondateur de Lokad, explore l’évolution et le développement de l’apprentissage automatique, avec une emphase particulière sur son application dans la gestion de la supply chain.

Vermorel suggère que les origines de l’apprentissage automatique peuvent être retracées jusqu’aux années 1950 et 1960, avec l’émergence des premiers algorithmes de prévision des séries temporelles. Bien que ces algorithmes ne soient pas traditionnellement reconnus comme de l’apprentissage automatique à leur conception, ils présentaient des caractéristiques clés de l’apprentissage automatique, telles que l’orientation vers les données, la dimension statistique et la capacité à apprendre des motifs à partir des données. Vermorel souligne en outre que l’utilisation initiale de ces algorithmes était étroitement liée à l’optimisation de la supply chain, un domaine dans lequel son entreprise, Lokad, se spécialise aujourd’hui.

En ce qui concerne les méthodes spécifiques utilisées dans cette première phase de l’apprentissage automatique, Vermorel cite plusieurs méthodes qui seraient familières aux professionnels de la supply chain. Il s’agit notamment des moyennes mobiles, du lissage exponentiel et de modèles plus complexes tels que les méthodes de Holt-Winters et de Box-Jenkins. Il caractérise ces premiers algorithmes comme relativement simples, conçus principalement pour répondre aux capacités de calcul des ordinateurs disponibles à cette époque. Ces premiers modèles devaient être rapides et efficaces, capables de traiter des centaines de points de données avec des milliers d’opérations dans les contraintes de puissance de calcul et de mémoire limitées.

En abordant la progression de l’apprentissage automatique, Vermorel partage que le prochain bond significatif s’est produit à la fin des années 80 et dans les années 90, marqué par l’émergence de modèles statistiques non paramétriques. Cette évolution par rapport aux modèles paramétriques de la première génération, caractérisés par un nombre fixe de paramètres ajustables (généralement pas plus d’une douzaine), représentait un développement crucial.

Les modèles paramétriques, limités par leurs paramètres fixes, ne pouvaient s’adapter qu’à certaines gammes de motifs de données. En revanche, les modèles non paramétriques n’avaient pas de forme prédéterminée, ce qui leur permettait potentiellement d’apprendre n’importe quel motif, à condition qu’il y ait suffisamment de données. Ce changement a marqué une avancée dans les capacités et la flexibilité de l’apprentissage automatique, jetant les bases des applications d’apprentissage automatique plus complexes et polyvalentes que l’on observe aujourd’hui.

Vermorel commence par souligner le défi du surajustement dans les premiers modèles de prévision, où l’augmentation du nombre de paramètres pouvait conduire à des modèles qui s’ajustaient parfaitement aux données historiques mais n’offraient aucune capacité prédictive pour l’avenir. Cela a été un casse-tête majeur dans le domaine pendant des décennies jusqu’à la fin des années 90, lorsque des solutions satisfaisantes ont émergé avec l’avènement des modèles non paramétriques.

Il aborde ensuite les deux courants qui ont émergé à cette époque dans le domaine : l’apprentissage statistique et l’apprentissage automatique. Le premier regroupait des mathématiciens faisant de la statistique avec une utilisation intensive des ordinateurs, tandis que le second était composé de professionnels de l’informatique se tournant progressivement vers des algorithmes statistiques. Il note que ces perspectives ont donné naissance à différents styles de modélisation. Par exemple, le courant de l’apprentissage statistique privilégiait les machines à vecteurs de support, un modèle bien compris mathématiquement. En revanche, le courant de l’apprentissage automatique était plus attiré par les réseaux neuronaux, qui impliquaient beaucoup de manipulations numériques.

Chandler oriente ensuite la conversation vers le rôle de la technologie dans l’évolution de ces domaines. Vermorel mentionne une avancée significative à la fin des années 90, l’idée que plus de données conduisent à de meilleurs résultats. Ce concept s’appliquait non seulement aux séries temporelles plus longues, mais aussi à des ensembles de données plus diversifiés. Initialement, cette approche était un processus lent car elle nécessitait d’attendre que davantage d’historique s’accumule. Cependant, les progrès de l’apprentissage automatique et de l’apprentissage statistique ont permis d’exploiter les données de plus de produits, conduisant à des prévisions de demande plus précises.

Vermorel cite l’introduction de modèles tels que les machines à vecteurs de support à la fin des années 90 et les forêts aléatoires au début des années 2000 comme des avancées significatives dans la capture d’informations à partir d’ensembles de données plus vastes et plus diversifiés.

La discussion se tourne ensuite vers l’avènement de l’apprentissage profond. Vermorel explique que l’accumulation progressive d’informations critiques a rendu l’apprentissage profond considérablement différent de l’apprentissage automatique standard. L’un des principaux avantages de l’apprentissage profond est sa capacité à apprendre des fonctions plus complexes avec moins de données par rapport aux algorithmes d’apprentissage superficiel.

Fait intéressant, Vermorel souligne que l’apprentissage profond ne dépasse pas nécessairement les algorithmes classiques sur de petits ensembles de données. Cependant, il excelle lorsqu’il s’agit de traiter de très grands ensembles de données, où les algorithmes d’apprentissage superficiel échouent à exploiter les informations supplémentaires disponibles.

Dans un revirement surprenant, l’apprentissage profond a réintroduit l’utilisation de modèles paramétriques, bien qu’avec plusieurs millions de paramètres, contrairement aux premiers modèles paramétriques qui avaient un nombre fixe de paramètres. Le défi ici était d’éviter le surajustement massif, ce qui a été surmonté grâce à une série de techniques astucieuses.

Vermorel a ensuite discuté du rôle des unités de traitement graphique (GPU) dans l’avancement de l’apprentissage automatique. Ils sont essentiels pour les tâches d’apprentissage profond, mais ils sont coûteux et consomment beaucoup d’énergie. Les plateformes de cloud computing ont résolu ce problème en fournissant des fermes de GPU à la demande, ce qui permet de résoudre efficacement les problèmes de coûts et de consommation d’énergie. Cela a été particulièrement bénéfique pour l’optimisation de la supply chain, où les prévisions statistiques s’exécutent généralement une fois par jour, nécessitant une allocation de GPU pour une courte durée.

En passant à l’avenir de l’apprentissage automatique, Vermorel a prédit un retour aux modèles non paramétriques dans le spectre de l’apprentissage profond. Il a évoqué une nouvelle approche, “la programmation différentiable”, où la structure du modèle d’apprentissage profond est ajustée pendant la phase d’apprentissage. Cette approche dynamique pourrait être la prochaine phase importante de l’apprentissage automatique et de l’apprentissage statistique.

Lorsqu’on lui a demandé quelles étaient les préoccupations actuelles des grandes entreprises technologiques, Vermorel a mentionné que la reconnaissance vocale, la synthèse vocale, la reconnaissance d’images et la traduction automatique étaient actuellement des domaines qui bénéficiaient d’investissements importants. Ce sont des domaines clés de la recherche et du développement, qui façonnent l’avenir de l’apprentissage automatique. Cependant, les entreprises de la supply chain, y compris Lokad, sont légèrement en retard, car elles ne disposent pas des ressources nécessaires pour investir massivement dans les technologies d’apprentissage automatique.

L’optimisation de la supply chain présente des défis uniques pour l’application de l’apprentissage automatique, notamment parce qu’elle traite de plus petites quantités de données par rapport à d’autres domaines tels que le traitement d’images. Cela nécessite une utilisation équilibrée des CPU et des GPU.

Chandler a ensuite soulevé la question du changement technologique rapide et du défi qu’il pose aux dirigeants de la supply chain, dont les solutions mises en œuvre risquent de devenir rapidement obsolètes. Vermorel a suggéré que le logiciel en tant que service (SaaS) pourrait être une solution viable. Il a cité Lokad comme exemple de fournisseur de SaaS qui met constamment à jour et optimise ses services, allégeant ainsi la charge pour ses clients.

Transcription complète

Kieran Chandler: Aujourd’hui sur Lokad TV, nous allons revenir aux origines et étudier le développement générationnel de l’apprentissage automatique et comprendre si ce progrès graduel peut nous donner des indices sur ce que l’avenir de l’apprentissage automatique nous réserve. Alors, Joannes, à quoi ressemblait cette première génération d’apprentissage automatique ? Quand est-elle apparue ?

Joannes Vermorel: Fait intéressant, je dirais que les premiers algorithmes d’apprentissage automatique étaient, d’une certaine manière, liés à la supply chain avec le tout premier algorithme de prévision des séries temporelles qui est apparu dans les années 50 et 60. Il avait tous les ingrédients essentiels : il était axé sur les données, statistique et en effet, il cherchait à apprendre des motifs à partir des données. À l’époque, on ne parlait pas encore d’apprentissage automatique ; il s’agissait simplement d’algorithmes de prévision. Mais tous les ingrédients étaient là.

Kieran Chandler: Quels types de méthodes étaient utilisées ? Je veux dire, la plupart des praticiens de la supply chain les connaîtraient, n’est-ce pas ?

Joannes Vermorel: Ils connaîtraient la moyenne mobile, le lissage exponentiel, et il y a aussi des méthodes plus sophistiquées de cette époque, comme le modèle de Holt-Winters, les modèles de Box-Jenkins, etc. Il y avait donc une série d’algorithmes relativement simples qui ont émergé dès le début de l’informatique. Il est intéressant de constater qu’à partir du moment où nous avions des ordinateurs dans les entreprises, ils étaient effectivement utilisés pour optimiser les chaînes d’approvisionnement, même si c’était pour des objectifs relativement modestes.

Kieran Chandler: À l’époque, les choses étaient très différentes dans le monde de l’analyse computationnelle. Quel était le principal objectif à cette époque ?

Joannes Vermorel: L’objectif principal était d’avoir très peu de puissance de traitement, de mémoire et de capacité à effectuer de nombreux calculs. Tous ces modèles de première génération, datant des années 60 et 70, étaient axés sur la rapidité. Cela signifie que si vous aviez 100 points de données à traiter, vous n’aviez que quelques milliers d’opérations à effectuer sur ces points de données. Ces algorithmes étaient conçus pour des machines qui ne disposaient que de kilo-octets de mémoire et de fréquences de processeur inférieures à 1 MHz.

Kieran Chandler: J’imagine qu’à l’époque, beaucoup moins de ressources étaient consacrées à l’analyse computationnelle par rapport à aujourd’hui, où des centaines de milliers de personnes y travaillent. Combien de temps a-t-il fallu pour que la génération suivante voie le jour ? A-t-il fallu longtemps pour que cela se produise ?

Joannes Vermorel: C’était une évolution progressive. Nous avons eu la première vague de modèles qui ont émergé dans les années 60 et 70, et ils étaient tous des modèles paramétriques. Il s’agissait de modèles statistiques avec un nombre fixe de paramètres, généralement pas plus d’une douzaine.

Kieran Chandler: Que signifie un paramètre ?

Joannes Vermorel: Un paramètre est comme un nombre. Ainsi, votre modèle statistique avait quelques nombres que vous pouviez ajuster pour que le modèle s’adapte aux données. L’essence de la phase d’apprentissage est de trouver ces paramètres. En général, vous en aviez une demi-douzaine, peut-être jusqu’à une douzaine pour les modèles plus sophistiqués, et c’est tout. Ce qui s’est passé à la fin des années 80 et plus fortement dans les années 90, c’est l’émergence de modèles statistiques non paramétriques. C’était intéressant car la première génération de modèles ne pouvait pas s’adapter à n’importe quel type de motifs de séries temporelles ou de motifs de demande ; ils avaient un nombre très limité de paramètres, donc ils étaient très limités dans ce qu’ils pouvaient apprendre en observant des données historiques.

Kieran Chandler: La deuxième génération, passant de paramétrique à non paramétrique, était significative. Si vous aviez suffisamment de données, vous pouviez potentiellement apprendre n’importe quel motif. Cette percée à la fin des années 90 a conduit au développement de modèles présentant des propriétés mathématiques attrayantes. Avec un nombre arbitrairement grand de données, vous pouviez vous rapprocher arbitrairement du meilleur modèle sans vous retrouver avec un problème de surajustement. Le surajustement, bien sûr, se produit lorsque vous augmentez le nombre de paramètres à un point où le modèle s’adapte parfaitement à vos données historiques mais perd ses capacités prédictives pour l’avenir. Le surajustement est un problème déconcertant, il s’agit d’avoir un modèle de prévision précis sur les données que vous n’avez pas. Ce problème a intrigué les décideurs pendant des décennies, jusqu’à ce que des solutions satisfaisantes émergent avec l’introduction de modèles non paramétriques à la fin des années 90. Avec ces modèles, nous avons commencé à voir l’avènement de l’apprentissage automatique. Comment cela s’est-il produit et quel impact cela a-t-il eu ?

Joannes Vermorel: C’est intéressant. En termes de terminologie, nous avions plusieurs camps. Nous avions le camp de l’apprentissage statistique où les mathématiciens, qui faisaient de la statistique, ont commencé à utiliser massivement les ordinateurs pour soutenir leur travail. D’autre part, l’apprentissage automatique était l’inverse. Ce sont des informaticiens qui ont rencontré ce genre de problèmes et ont commencé à se tourner progressivement vers des algorithmes statistiques. C’était plus une différence de perspective.

Par exemple, dans le camp de l’apprentissage statistique, vous aviez des machines à vecteurs de support qui étaient bien comprises d’un point de vue mathématique, ce qui plaisait à la communauté statistique hardcore. D’un autre côté, vous aviez des réseaux neuronaux, beaucoup de calculs numériques qui plaisaient à la communauté de l’apprentissage automatique. Ce sont des perspectives différentes sur le domaine, et elles ont fini par converger progressivement.

Kieran Chandler: Peu importe le camp auquel vous apparteniez, ce qui évoluait autour de vous était la technologie et les capacités que vous pouviez atteindre avec celle-ci. Alors, quelles étaient les améliorations technologiques et les percées significatives qui ont vraiment aidé dans tout cela ?

Joannes Vermorel: La percée à la fin des années 90 était l’idée que si vous aviez plus de données, vous obtiendriez de meilleurs résultats. Et je ne parle pas seulement de séries temporelles plus longues, mais aussi de plus de séries temporelles. Pour la supply chain, cela signifie que vous pouvez obtenir une prévision de la demande plus précise simplement parce que vous avez plus d’historique. Mais le problème est que si vous voulez un an ou plus d’historique des ventes, vous devez attendre encore un an, ce qui est un processus très lent. De plus, avec le lancement de nouveaux produits et la suppression de certains produits, vous n’obtenez jamais beaucoup plus d’historique.

Il y a eu des percées dans la capacité à exploiter plus de données provenant de plus de produits. Cela ne s’est pas produit à la fin des années 90 ; cela s’est plutôt produit dans les années 2000. Ce qui l’a rendu possible, ce sont les percées dans l’apprentissage automatique et l’apprentissage statistique, toutes liées à ces modèles non paramétriques.

Il y a eu une série de ces modèles statistiques qui ont représenté des percées, comme les machines à vecteurs de support, publiées vers 1996 avec une mise en œuvre fonctionnelle vers 1998, puis les forêts aléatoires vers 2001. Ces modèles ont commencé à bien fonctionner pour capturer des informations à partir de grands ensembles de données avec plus de diversité en termes de caractéristiques.

Kieran Chandler: Le deep learning, quel a été son impact et quelle est la différence clé entre le deep learning et l’apprentissage automatique standard ?

Joannes Vermorel: C’est intéressant car le deep learning est la conjonction probablement d’une douzaine d’observations critiques, mais tout cela s’est fait très progressivement. En mettant toutes ces choses ensemble, cela a vraiment fait une grande différence. Un avantage clé du deep learning est la capacité à apprendre des fonctions plus complexes avec moins de données. Le problème avec les algorithmes d’apprentissage automatique de deuxième génération, comme l’apprentissage superficiel, est qu’ils peuvent apprendre n’importe quel modèle statistique s’ils disposent de suffisamment de données, mais en pratique, il faut une énorme quantité de données pour y parvenir, ce qui est totalement impraticable. Le deep learning, d’une certaine manière, a été capable de mieux utiliser des ensembles de données très volumineux.

Tout d’abord, le deep learning ne surpasse pas nécessairement les algorithmes classiques sur de petits ensembles de données, mais lorsque les ensembles de données deviennent très volumineux, ces algorithmes d’apprentissage superficiel ne tirent pas vraiment parti de toutes les informations supplémentaires qui sont là, tandis que le deep learning le peut. Alors, qu’est-ce qui rend le deep learning différent ? Nous en revenons aux modèles paramétriques, qui ont été utilisés dès les années 1950 ou 1960. Ceux-ci ont un nombre fixe de paramètres, et nous sommes passés à des modèles non paramétriques où le nombre de paramètres est dynamique. Ensuite, avec le deep learning, nous revenons aux modèles paramétriques, mais la grande différence est que ces modèles ont plusieurs millions de paramètres. Nos modèles peuvent avoir jusqu’à 20 millions de paramètres.

Pour éviter le surajustement massif, il y a eu une série de trucs très astucieux découverts dans le cadre du mouvement du deep learning. Un autre ingrédient clé a été de penser à des modèles statistiques ayant une affinité maximale avec le matériel informatique dont nous disposions, comme les unités de traitement graphique (GPU), qui sont très efficaces en algèbre linéaire. L’un des trucs de calcul du deep learning est de tout ramener à l’algèbre linéaire. En passant des calculs sur CPU aux calculs sur GPU, nous avons gagné deux ordres de grandeur de calcul supplémentaires, rendant possible beaucoup de choses qui ne l’étaient pas auparavant.

Kieran Chandler: Vous parlez de l’évolution du matériel et des capacités de traitement, quelles ont été les autres améliorations techniques qui ont été apportées dans l’industrie et qui ont rendu cela possible ? Comment s’inscrit l’avènement du cloud dans tout cela ?

Joannes Vermorel: Le cloud a vraiment aidé à faciliter la collecte de toutes les données. Si vous voulez que le deep learning soit vraiment intéressant, vous avez besoin de beaucoup de données. Déplacer des téraoctets de données est en réalité beaucoup plus facile avec le cloud.

Kieran Chandler: Il semble que les plateformes de cloud computing aient simplifié les choses pour tout le monde. Par exemple, vous n’avez plus à vous soucier des quotas de disque ou de gérer manuellement votre stockage sur plusieurs disques physiques. Est-ce exact ?

Joannes Vermorel: Absolument. Les plateformes de cloud computing ont éliminé bon nombre des processus manuels associés à la gestion du stockage. De plus, elles ont facilité la consolidation de toutes les couches nécessaires pour le deep learning.

Kieran Chandler: Qu’en est-il du coût du deep learning et des GPU ? Ils sont assez chers et consomment beaucoup d’énergie, n’est-ce pas ?

Joannes Vermorel: En effet, les cartes graphiques peuvent facilement consommer environ 400 à 500 watts. Si vous en avez plusieurs, cela peut poser un problème électrique. Cependant, le cloud computing a facilité cela en proposant des fermes de GPU à la demande. Dans le cas spécifique de la supply chain, c’est très pratique car généralement, vous n’avez besoin de faire votre prévision statistique qu’une fois par jour. Vous pouvez allouer vos GPU pendant une heure, effectuer tous vos calculs, puis les rendre à votre plateforme de cloud computing préférée, que ce soit Microsoft Azure, Amazon Web Services ou Google Cloud.

Kieran Chandler: L’apprentissage automatique s’est développé progressivement au cours des dernières décennies. Pouvons-nous tirer des indices de cela pour prédire l’avenir de l’apprentissage automatique ? Que pouvons-nous attendre de voir ensuite ?

Joannes Vermorel: De manière intéressante, tout se fait par cycles. Nous avons commencé avec des modèles paramétriques et des prévisions de séries temporelles, puis nous sommes passés à des modèles non paramétriques avec les premiers algorithmes génériques d’apprentissage automatique. Ensuite, nous sommes passés à des modèles hyperparamétriques avec le deep learning. Maintenant, ce qui émerge, ce sont à nouveau des modèles non paramétriques dans le spectre du deep learning. Ce sont des méthodes de deep learning plus sophistiquées qui ajustent la structure même du modèle pendant la phase d’apprentissage. Si je devais parier sur le mot à la mode de demain, ce serait “programmation différentiable”. Cette approche est similaire au deep learning, mais elle est beaucoup plus dynamique dans la façon dont le modèle est construit et évolue pendant la phase d’apprentissage.

Kieran Chandler: Donc, la programmation différentiable est le nouveau mot à la mode. L’industrie de la supply chain est souvent un peu en retard par rapport aux quatre grands en termes de ce sur quoi ils se concentrent. Dans quoi investissent-ils actuellement leurs recherches et quels grands développements pouvons-nous attendre dans l’année à venir ?

Joannes Vermorel: En ce qui concerne l’apprentissage automatique, les grands problèmes dans lesquels les géants de la technologie investissent des milliards sont la reconnaissance vocale, la synthèse vocale, la reconnaissance d’image et la traduction automatique. Ce sont des problèmes centraux pour l’apprentissage basé sur l’information et ils sont en avance en termes de recherche et développement. Les supply chains, y compris celles qui développent des logiciels d’apprentissage automatique, sont un peu en retard. Personne dans la supply chain n’a les ressources pour investir un milliard de dollars par an pour une meilleure demande.

Kieran Chandler: Il y a eu des investissements substantiels dans la prévision, mais cela semble être une petite fraction de ce qui est nécessaire. Il semble être en retard de quelques années par rapport aux grands développements. Qu’en pensez-vous ?

Joannes Vermorel: Vous avez raison. Le grand développement en ce moment est d’adapter les techniques trouvées dans d’autres domaines, comme le traitement d’image et de voix, aux situations de la supply chain. Cela nécessite un développement important. Par exemple, ces grands problèmes ont généralement de grandes quantités de données à traiter. Une image, par exemple, fera plusieurs mégaoctets. Par conséquent, il n’est pas nécessaire d’avoir un pipeline sophistiqué pour déplacer vos données du CPU au GPU. Votre image est un objet volumineux avec beaucoup d’informations qui resteront dans le GPU pendant un certain temps avant que le calcul ne soit terminé.

D’autre part, les supply chains ont des exigences différentes. Les objets que vous souhaitez optimiser, tels que les unités de stockage, sont plus petits en termes de données mais nombreux. L’ensemble de votre historique de mouvements pour un SKU tiendra dans quelques kilo-octets, mais vous en avez des dizaines de millions. Par conséquent, adapter ces techniques développées pour les problèmes d’apprentissage automatique à grande échelle aux supply chains présente une série de défis. Cela nous oblige à tirer le meilleur parti à la fois du CPU et du GPU car il y a encore beaucoup de calculs qui sont mieux réalisés du côté du CPU.

Kieran Chandler: Il semble que l’industrie évolue et change constamment. Les mises en œuvre ont tendance à devenir rapidement obsolètes. Comment un responsable de la supply chain peut-il suivre le rythme, et avez-vous des conseils à ce sujet ?

Joannes Vermorel: Le rythme du changement est en effet un défi. Mais cela a toujours été un problème en ce qui concerne les ordinateurs. Ma suggestion est d’opter pour des solutions de logiciel en tant que service (SaaS) comme Lokad. Par exemple, nous en sommes à la cinquième génération de notre moteur de prévision, mais nos clients n’ont pas besoin de faire quoi que ce soit de technique pour effectuer la mise à niveau. Nous les mettons à niveau d’une version à l’autre en leur nom, dans le cadre du package.

Avec l’avènement des logiciels SaaS, ce problème devient beaucoup plus facile à gérer. Vous n’avez pas à consacrer de ressources uniquement pour vous mettre à jour - votre fournisseur le fait pour vous. Ce n’était pas le cas avec les logiciels sur site, où la mise à niveau d’une version à l’autre était généralement un gros projet.

Au fait, les plateformes de cloud computing ont résolu ce même problème pour nous. Ainsi, un responsable de la supply chain utilisant une application SaaS comme Lokad, qui offre des analyses prédictives avancées pour optimiser votre supply chain, suivra le rythme du changement. Lokad, à son tour, suit le rythme du changement car la plateforme de cloud computing que nous utilisons est une plateforme en tant que service (PaaS) et elle met constamment à niveau de nombreuses choses pour nous.

Kieran Chandler: Il semble que tout le monde suive essentiellement les avancées technologiques, c’est très instructif. Merci d’avoir partagé vos réflexions, Joannes. Nous poursuivrons cette discussion la prochaine fois. Merci à tous de nous avoir regardés.