00:00:07 導入とサプライチェーンパフォーマンスにおける小さな数の重要性。
00:01:00 小さな数が計算パフォーマンスとコストに与える影響。
00:03:33 金融およびサプライチェーンシステムにおける数値精度の歴史と進化。
00:06:00 データサイズが計算パフォーマンスおよびボトルネックに与える影響。
00:07:44 データサイズ削減による大幅な計算速度向上。
00:08:47 サプライチェーン最適化において技術スタックおよびツールに注目する重要性。
00:10:17 計算コストとより強力な数学モデルとのバランスを取ることで、サプライチェーンの結果を向上させる。
00:12:50 より良い意思決定のための履歴データの分析と予測的サプライチェーンソフトウェアの利用。
00:15:04 データ集約が知覚されるパフォーマンス向上と粒度の低下に与える影響。
00:16:00 サプライチェーンの意思決定統合の課題。
00:17:33 基本的な統計前提と機械的共感の再考。
00:20:01 サプライチェーン管理における機械的共感の重要性。
00:20:58 小さな数の法則からビッグデータの視点への移行。
00:23:20 結論: 特定の状況では少ないデータがより多いこともある。
要約
ジョアンネス・ヴェルモレルは、サプライチェーン最適化ソフトウェア会社Lokadの創業者として、ケイラン・チャンドラーと共に小さな数の法則とそれがサプライチェーンパフォーマンスに与える影響について議論します。ヴェルモレルは、サプライチェーンデータにおける小さな数の重要性と、計算速度とパフォーマンスを最適化するために適切な数を選択する重要性を強調します。この議論は、パフォーマンス向上を達成するためのより高い設計共感の必要性、計算効率と全ての考えられる未来や意思決定を検討することとの間のトレードオフ、そして複雑な小売環境において統計モデルを使用する際の課題を浮き彫りにしています。インタビューでは、計算資源と洗練されたモデリングのバランスをとってサプライチェーンの最適化のパフォーマンスを向上させる重要性が説かれています。
詳細な要約
このインタビューでは、ケイラン・チャンドラーがサプライチェーン最適化に特化したソフトウェア会社Lokadの創設者、ジョアンネス・ヴェルモレルと対話します。彼らは、小さな数の法則とそれがサプライチェーンパフォーマンス向上にどのような可能性をもたらすか、またサプライチェーンデータにおける小さな数の重要性、さらには適切な数を選択することが計算速度と性能に与える影響について議論します。
ヴェルモレルは、サプライチェーンにおいて特に一桁の小さな数が至るところに存在することを説明します。バーコードには多数の桁数がある場合もありますが、それらは数量ではなく識別子として機能します。サプライチェーンで取り扱われる数量は常に非常に小さい数である傾向があり、これはほとんどの統計が大数の法則に基づいているため、驚くべきことです。この観察は、特に処理能力向上のペースが鈍化している現状において、パフォーマンス向上を達成するためにはより高い設計共感が必要であることを示唆しています。
インタビューは、計算における小さな数の影響に次第に焦点を移します。ヴェルモレルは、コンピューターはどんな数でも扱えるが、適切な数を選べば計算が非常に高速に行えると述べています。例えば、正しい数値を選ぶことで、平凡な数値操作が従来の10倍から20倍速くなることもあり、これはサプライチェーン最適化システム全体のパフォーマンスに大きな影響を与えます。
ケイランは、システム間で数値を送信する際の違いと、コンピューターハードウェアの物理的現実について、ヴェルモレルに説明を求めます。ヴェルモレルは、データ処理と解析のコストがサプライチェーン最適化にとって重要であると強調します。コンピューターはその生の処理能力において安価になっており、より強力なアルゴリズムが予測精度の向上とサプライチェーンパフォーマンス改善を実現しています。しかし、計算コストとサプライチェーンパフォーマンスのバランスは極めて重要です。
ヴェルモレルは、生の計算コストが大幅に削減されたとしても、それがコンピューターコストの消失を意味するわけではないと主張します。むしろ、企業は新たに得たリソースを活用してより複雑なモデルを構築し、その結果、計算コストは逆に増加する可能性があるのです。したがって、サプライチェーンパフォーマンスを最適化するためには、小さな数が計算コストに与える影響に細心の注意を払う必要があります。
この議論は、企業システムにおける算術計算の必要性の起源が主に金融の世界から来ていることにも触れています。初期の企業システムは金融計算を念頭に設計され、その歴史はサプライチェーン最適化の文脈において小さな数がどのように利用され理解されるかに影響を及ぼしています。
小さな数の法則は、企業が計算システム内で適切な数値をうまく活用できれば、サプライチェーンパフォーマンスを大幅に向上させる可能性を秘めています。計算コストとサプライチェーンパフォーマンスのバランスに注目することで、企業はより複雑なモデルを開発し、最適化の成果を向上させることが可能となります。
ヴェルモレルは、70年代と80年代に金融・会計業界から採用されたサプライチェーンの手法が、システム内で高精度数値を使用する要因となった経緯を説明します。金融および会計分野での高精度が求められたのは、80年代初頭に発生した一連の詐欺事件―取引ごとに数セントを丸めることで、多額の資金が不正に流用された―に端を発します。
しかし、金融で求められる高い精度は、サプライチェーン管理においては必ずしも必要ではありません。ヴェルモレルは、店舗での取引の80%において、購入される商品の数量がたった1つであると観察しています。つまり、店舗で数量を表現するには平均して約2ビットの精度で十分であるということです。ケイランは、テラバイト級の記憶容量を持つ記憶装置が手頃な価格で提供される状況を踏まえ、サプライチェーン管理におけるデータサイズの重要性に疑問を呈します。
ヴェルモレルは、ほとんどの計算のパフォーマンスはデータサイズによって左右されると明確に述べます。なぜなら、ボトルネックはCPUの処理能力ではなく、データの読み込みや書き出しにあるからです。彼は、データサイズの削減が計算速度において、場合によっては超線形の大幅な向上をもたらすことを強調し、例えばLokadがデータサイズを10分の1に縮小した際、計算速度が50倍に向上したと述べています。
サプライチェーン管理における課題は、高精度を必要とするデータと、そうでなくてもよいデータを区別することにあります。ヴェルモレルは、Lokadのようなプラットフォームがこの問題に対処できると示唆し、IT部門で使用される技術スタックやツールに注意を払うことの重要性を強調します。データ最適化を怠ると、優れた計算ハードウェアを備えていてもパフォーマンスが期待外れになるシステムに陥る可能性があります。
ヴェルモレルはまた、計算効率と、サプライチェーン最適化においてあらゆる可能な未来や意思決定を検証するという目標との間のトレードオフについても言及します。計算を高速化することで、計算コストを大幅に増加させずに、より多くのシナリオを分析できるようになるのです。
彼らはサプライチェーン最適化と、統計モデル使用の課題について議論します。彼は、移動平均やその他の単純なモデルだけでは、ハイパーマーケットなどの複雑な小売環境における季節性やトレンド、その他の要因に対応するには不十分であると強調します。
ヴェルモレルはまた、日々の取引件数が少ない多数の商品を扱う際に生じる「小さな数の法則」の問題を強調します。従来の大数の法則に依存する統計手法は、こうした状況ではしばしば不十分です。これを克服するために、多くの企業は週単位や月単位で売上を集約しますが、この方法は粒度を犠牲にし、サプライチェーンの意思決定が日々行われる現実を鑑みると、意思決定の質を低下させる可能性があります。
この会話は、Lokadのような先進的なサプライチェーンソフトウェアが、履歴データの分析と製品のライフサイクルの考慮を通して、より良い指針を提供できることを示唆しています。このようなツールが小さな数の現実に基づいて設計されることは極めて重要であり、製品寿命の大部分にわたって有効である必要があります。最終的に、インタビューは計算資源と洗練されたモデリングのバランスを取ることでサプライチェーンパフォーマンスを最適化する重要性を強調しています。
創業者は、サプライチェーン最適化において基本的な前提を疑い、適切な統計ツールを活用することの重要性について議論します。彼は、多くの現行の統計手法が大きな数を前提としているため、より小規模なサプライチェーンの意思決定には適さない可能性があると強調します。さらに、ヴェルモレルは、実務家がフォーミュラワンのドライバーが自分の車に示すような「mechanical sympathy」(機械的共感)をサプライチェーンシステムに対して育むべきだと提案し、パフォーマンスの最大化を目指すべきだと述べます。データ収集が増加している一方で、実際に有効なサプライチェーンデータは依然として限定的であり、ビッグデータの視点を適用する際には誤解を招く可能性があると主張します。
完全な書き起こし
Kieran Chandler: 本日のLokad TVでは、小さな数の法則とそれを活用してサプライチェーンパフォーマンスを向上させる方法について議論します。大規模データに特化した企業として、ジョアンネス、今日小さな数について話すのは驚くべきことかもしれません。この考えの背景は何ですか? Joannes Vermorel: 小さな数、つまり大きな数ではなく、サプライチェーンに至るところに存在する数が本質です。ここで言う小さな数とは、本当に重要な数値の選択肢や数量全体を指します。確かに、13桁や14桁のバーコードも存在しますが、それは数量ではなく識別子としての役割を果たすに過ぎません。数量に目を向けると、常に非常に小さい数であることに気づかされ、ほとんどの統計が大数の法則を前提としている現実と対照的です。計算においては無視してよいと思われがちですが、実際は大いに影響するのです。 Kieran Chandler: 計算の面でどのように影響するのか、もう少し詳しく説明していただけますか? Joannes Vermorel: コンピューターにとって、数はただの数にすぎません。しかし、適切な数を選ぶことで、単純な加算や通常の数値操作が従来の10倍から20倍速くなることがあるのです。結果として、計算のパフォーマンスに大きな差をもたらします。 Kieran Chandler: では、コンピューターが情報を送信する際に何が起こるのかをあまり知らない方々のために、「数値を送る」とは具体的にどういう意味で、システム間でどのような違いがあるのでしょうか? Joannes Vermorel: ここでは、私たちが持つコンピューティングハードウェアの物理的現実の詳細に踏み込んでいます。サプライチェーン最適化、あるいは定量的サプライチェーン最適化を行うには、莫大なデータ処理と解析が必要となり、それが費用に直結するからです。コンピューターはかつてよりも格段に安価になっていますが、計算コストと達成可能なサプライチェーンパフォーマンスとの間のバランスは常に存在します。生の計算コストが大きく下がったとしても、それが即コンピューターコストの消失を意味するわけではなく、新たなリソースを活用してより複雑なモデルを構築し、次の段階の予測精度やパフォーマンスを実現するのです。 Kieran Chandler: つまり、それによってパフォーマンスが向上し、結果的に計算コストが増加するということですね。そのため、その点に注意を払う必要があるということです。そして、コンピューター内の小さな数、特に企業システムにおける小さな数に話を戻すと…… Joannes Vermorel: さて、実は80年代初頭に、取引ごとに数セントを丸めるという手法が悪用され、見かけ上は丸められてしまうためにシステム上では検知されないものの、実際には本物のお金が不正に流用されるという非常に派手な詐欺事件が相次ぎました。何十億もの取引の中で、ほんの一銭の端数を自分の口座に流用することで、文字通り数百万ドルが抜き取られていたのです。その結果、金融・会計の世界では、この問題を回避するために非常に高い精度の数値が求められるようになりました。しかし、サプライチェーンでは、店舗での取引の80%において商品の数量はたった1であるというデータが示すように、実際には平均して約2ビットの精度で十分なのです。
Kieran Chandler: しかし、データ送信に使用されるビット数をいったいなぜ気にする必要があるのでしょうか? 全体のサプライチェーンを考えると、本当にそれほど大きな違いがあるのでしょうか?
Joannes Vermorel: つまり、今日では近所のスーパーマーケットでテラバイトのハードドライブが200ドル程度で購入できると思われるでしょう。だから、それは非常に安価だと思われるのです。それを気にする理由は何かというと、実際のところ、ほとんどの計算パフォーマンスはデータのサイズによって左右されるからです。データが大きいほど処理は遅くなります。なぜなら、ボトルネックはCPUではなく、データの読み込みや書き込みにあるからです。もちろん1テラバイトのハードドライブを買うことはできますが、そのハードドライブをデータで埋め尽くそうとすると、ドライブが遅いために1日、いや2日もかかる可能性があります。つまり、単純にディスクにデータを書き込んだり読み込んだりするだけでも非常に時間がかかるのです。もしデータを縮小できれば、実際に処理速度を劇的に上げることができるのです。
Kieran Chandler: それで、ジョアネス、サプライチェーン最適化において、データのサイズが計算速度にどのように影響するのか、もう少し詳しく教えていただけますか?
Joannes Vermorel: 計算速度には大きな影響がありますし、場合によっては超線形の効果が得られることもあります。つまり、データサイズを半分にすると、計算速度が単純に2倍になるのではなく、2倍以上に向上するのです。Lokadでは、データサイズを10分の1に縮小できた場合、計算速度が50倍速くなった事例が多くありました。そして、もう一度数値に戻ると、例えば倍精度の数値は64ビットです。ちなみに、コンピュータサイエンスで「ビット」とは単なる0と1のことです。つまり、64ビットで表現される数値と、たった2ビットで表現される数値を比較すると、文字通り32倍の容量が必要になるのです。一つの数値が32倍も多くのスペースを取るというわけです。ですから、これらの数値を大幅に圧縮して大きなデータをより小さなデータに変換できれば、システムはずっと高速に動作することができるのです。そして、サプライチェーンは依然として、膨大な金融データを取り扱わなければならない取引も抱えているのです。
Kieran Chandler: では、どのようにして小さくすべきデータと大きなままで構わないデータとを区別しているのでしょうか?
Joannes Vermorel: つまり、あなたの supply chain specialist にその点に注意してもらう必要があるのです。Lokadのようなプラットフォーム(恥ずかしながら宣伝ですが)を使って実現するのが理想です。しかし、私のもっと広いメッセージは、誰かが注意を払わなければならないということです。技術スタックに非常に気を使うベンダーであったり、選ぶツールに気を配るIT部門であったり、結局のところ、誰かが責任を持って見守らなければならないのです。もし誰も注意を払わなければ、結果的に莫大な計算ハードウェアを持ちながらも、パフォーマンスは非常に期待外れなシステムになってしまいます。結果が出るまでに数秒かかり、見かけ上は些細な計算であっても非常に長い時間がかかるのです。全ての可能な未来や確率、あらゆる意思決定を考慮するというサプライチェーンのアイデアは、システムが一つのシナリオにさえ対応するのがすでに非常に遅いため、単なる遠い夢に過ぎません。つまり、システムが何百万もの可能な未来に対応するという考えは、完全な狂気と言えるのです。
Kieran Chandler: しかし、もしすべての可能な未来、あらゆる意思決定を見ているのであれば、それは計算コスト削減という本来の目標に反するのではありませんか? すべての可能な未来を考慮するなら、計算コストはそれ以上に何倍にも増加するはずでは?
Joannes Vermorel: はい、しかしそれが私が説明していたトレードオフなのです。計算速度を大幅に向上させたとしても、サプライチェーン全体の運用に、ただ超安価なコンピュータだけを使えば良いというわけではありません。ご存知の通り、もし我々が80年代のサプライチェーン最適化技術を使い続けていたら、スマートフォンでウォルマートを運営できたかもしれません。実際にスマートフォンでウォルマートを運営できるでしょう。しかし、それは全く意味をなさないのです。そして、もしあなたが単にその点を証明しようと挑戦するのであれば…
Kieran Chandler: では、ジョアネス、計算コストが下がると、より強力な数学的または統計的モデルを採用するという考えについて話していたのですね?
Joannes Vermorel: その通りです。計算コストが下がると、より多くの計算資源を消費する代わりに、より良いサプライチェーンの成果をもたらす強力なモデルを採用することが可能になります。これこそがトレードオフなのです。
Kieran Chandler: そして、たとえすべての可能な未来を考慮するとしても、小さい数の法則は依然として適用されるのですね?
Joannes Vermorel: その通りです。たとえすべての可能な未来を考慮したとしても、1店舗で1日に100万本を販売する確率を計算する必要はありません。なぜなら、その確率は事実上ゼロだからです。現実には、フラッグシップ製品でさえ、1日に100ユニット以上売れることは極めて稀であり、大多数の製品はほとんど売れないのです。実際、ハイパーマーケットで取り扱われる製品の約80%は毎日1度も売れておらず、95%の製品については、1日に0、1、2、または3ユニットが売れるかどうかが問題となります。そして、10ユニットに達する確率はすでに極めて低いのです。つまり、小さい数の法則がすべての鍵となるのです。
Kieran Chandler: では、そのようなハイパーマーケットの例では、1日に数千件の取引があり、在庫も膨大です。各個別商品の限界はどのように見極めるのでしょうか?
Joannes Vermorel: ここで必要なのは、過去のデータを分析するための適切なツールです。記録されたデータを参照することで分析が導かれるのはもちろん、優れたサプライチェーンソフトウェア—特に予測型ソフトウェアであるLokad—があれば、初めからいくつかの情報が得られます。ハイパーマーケットで初めてその発見をするわけではありません。確かに多くの取引や製品が販売されますが、各製品ごとに見ると取引件数はそれほど多くはありません。たとえば、ある製品が市場で約3年のライフサイクルを持ち、その後他の製品に取って代わられるとすれば、毎日販売されるわけではないという事実から、全履歴で100ユニットに達するまでにはかなりの期間が必要になるのです。つまり、100という数字が大きいと主張するのは、特に…
Kieran Chandler: つまり、統計的な観点から見ると、それは非常に低いハードルに過ぎません。実際、1年以上かかる可能性があります。つまり、大量の数値を活用できるという考えに基づいて設計された統計ツールを使用しても、そのツールが有効になるまでに1年以上かかるかもしれません。そして、忘れてはならないのは、ここで扱っている製品のライフサイクルがわずか3年程度であるということです。つまり、製品の寿命の3分の1にあたる期間、どんなに優れた統計ツールでも全く役に立たなくなるのです。
Joannes Vermorel: 多くの企業は売上を週単位または月単位で集約していますが、パフォーマンスを追求する場合、どれほど効果があるのでしょうか? データの粒度が若干失われるというトレードオフと比べて、どれほど機能するのでしょうか? これは非常に興味深い点です。前述したように、小さい数の法則の問題はどこにでも存在しますが、問題は古典的なツールがそれを考慮しておらず、むしろ大数の法則に基づいて設計されているということです。では、どうするかというと、データを集約するのです。
Kieran Chandler: そして、なぜ集約するのかと言うと、それが正しい方法だからではなく、結果が完全に機能不全にならない程度に留めるための手段だからです。サプライチェーンにとって賢明かつ関連性のある方法だからではなく、さもなければ平均値に基づく論理が崩壊してしまうから、という理由にすぎないのです。
Joannes Vermorel: 確かに集約は行いますが、例えば意思決定を月次で集約して大きな数値を得たとしても、サプライチェーンの意思決定はやはり日々行われるのが現実です。つまり、全データを集約して月次分析が向上しても、日々の意思決定に関しては何の示唆も得られません。たとえば、1か月で平均100ユニットが消費されるとわかっていても、「今日、店舗に0、1、または3ユニットを供給すべきか?」という判断は月次データからは導き出せないのです。同様の問題は、時間軸ではなくカテゴリー別に集約した場合にも生じます。
Kieran Chandler: つまり、例えば今日、ソーダ類で500ユニットが売れたとしても、それが100の商品参照に分散していれば、実際には何の助けにもなりません。最終的にサプライチェーンでは、例として生鮮食品セグメントのようなカテゴリー単位で意思決定するわけではなく、特定の商品参照ごとに何が起こるべきかを判断するのです。さて、ここから視聴者の皆さんに向けてまとめると、どの点を活用してそのデザインシンフォニーを導入し、手元の処理能力を最大限に活かすべきなのでしょうか?
Joannes Vermorel: まず第一に、統計面で全ての基本的な前提条件を再検討する必要があります。例えば、人々が「私たちはsafety stocksを持っている」と言うとき、確かに正規分布に依拠しています。しかし、本当にその前提でよいのか、自問すべきです。
Kieran Chandler: 私が直面している課題に対して、小さい数の法則に適した統計ツールで問題に取り組んでいるのでしょうか? 現代で使われている多くの19世紀の統計手法は明らかに大数の法則向けに設計されています。ですから、使用しているツールが現状に適していない可能性があることを認識すべきです。そして、これはまた疑似科学や偽合理主義に陥る危険性があるのです。数学的なツールを使えば合理的になる、というわけではありません。もしかすると、あなたの統計フレームワークは、あなたの分野では成立しない基本的な前提に基づいているのかもしれません。ですから、基本に立ち返り、大きな見落としがないか確認しましょう。
Joannes Vermorel: その通りです。そして、機械的シンパシーの観点から言えば、これはフォーミュラワンの偉大なチャンピオンたちに例えられます。彼らのインタビューを見れば、自分の車について非常に詳しいことが分かります。フォーミュラワンカーの作り方を知っているわけではありませんが、機械工学の原理、すなわち「機械的シンパシー」を持っているのです。彼らは車の仕組みを深く理解し、手元のマシンから最大限の性能を引き出せるのです。また、燃焼や共鳴、タイヤの最適な温度、つまり路面への最大限のグリップなどについても非常に詳しく、エンジンの技術的な細部や物理学に精通しています。これが、彼らが真に偉大なドライバーになれる理由です。単に運転が上手いだけでなく、使っているツールを理解しているからなのです。私の考えでは、サプライチェーンもそれに似たものです。サプライチェーンを単なる力任せで運用するのではなく、現在ではコンピューターがその運用を支援しています。しかし、本当に卓越した成果を上げたいなら、フォーミュラワンカーを作り出すようなエンジニアになる必要はありません。パイロットは次世代エンジンを設計できる機械工学者ではなく、むしろそのシステムから最大限のパフォーマンスを引き出す方法を知っている人物なのです。ですから、私の提案は、サプライチェーンを支えるコンピューターシステムについて十分な機械的シンパシーを身につけ、何がそれらを動かしているのか、どうすればその性能を最大限に引き出せるのかを直感的に理解することです。
Kieran Chandler: それは非常に良い比喩ですね。さて、業界で今見られているのは…
Kieran Chandler: つまり、より多くのデータが集められ、意思決定のために活用されるようになっています。このような視点は、従来の小さい数の法則から大規模データの観点へとシフトしていると言えるでしょうか?
Joannes Vermorel: もう一度言いますが、最も重要なデータは常に少数であるという問題があります。はい、ウェブサイト上でトラフィックのために膨大なデータを収集することは可能ですが、もしあまり知られていない製品のトラフィックを見ると、残念ながら、あまり知られていない製品は企業が平均して販売する商品の約80%を占めています。ご存知の通り、これは明らかにその詳細に起因し、結局1日に訪れるウェブユーザーはごく僅かであると気づくでしょう。ですから、クリック数が何百万にも達していても、重要なのは通常1日または1日の中でのデータであるため、実際のタイムスケールに落とし込むとそう大きな数字ではありません。重要なのは、製品という粒度、つまり最も低いレベルの情報、正確なサイズ、正確な色、形、正確なバリアントであり、汎用製品ではありません。サプライチェーンにおいては、汎用のTシャツを生産するという決断は下さず、むしろこの色、このサイズ、この形のTシャツを生産します。ですから、実際に重要なのは最も低いレベルでのデータとなり、結果としてデータ数は限られてしまいます。そういうわけで、多くの人がビッグデータを活用していると言っているものの、実際にサプライチェーンの観点から見ると、データ量はそれほど大きくはないのです。そして、統計学的な視点から見ればもっと楽になるはずなのですが、実際にはそうではありません。混乱しないでください。ビッグデータは「お、百万のデータポイントがあるから大丈夫だ」と誤解を招く非常に危険なものだと私は思います。いや、もう一度言いますが、工場を見た場合、たとえ何百万単位を生産する工場でも、問題となるのは生産しているバッチ数であり、バッチ単位で見ると一桁台であることが多いのです。そして、この生産モードで工場が稼働しているのは過去2年間だけです。つまり、数百バッチの話であり、それ以上ではありません。たとえ膨大なデータを集めたとしても、大したことではないのです。
Kieran Chandler: では、データに関しては「少ないほうが多い」という衝撃的な事実を持っておくことにしましょう。これで今週は全てです。ご視聴いただき誠にありがとうございました。また次回のエピソードでお会いしましょう。ご視聴ありがとうございました。