00:00:00 インタビューの紹介
00:01:00 RinatのLokadでの経験とサプライチェーンの課題
00:03:59 Lokadの進化とシミュレーションの洞察
00:07:07 シミュレーションの複雑さとエージェントベースの意思決定
00:09:15 LLMの紹介とシミュレーションの最適化
00:11:18 ChatGPTの影響とモデルのカテゴリー
00:14:14 LLMを企業の認知ツールとして
00:17:10 LLMによる顧客との対話とリスト作成の向上
00:20:30 サプライチェーン計算におけるLLMの限定的な役割
00:23:07 サプライチェーンにおけるコミュニケーションの改善
00:27:49 データ分析と洞察におけるChatGPTの役割
00:32:39 LLMのテキスト処理と数量データの課題
00:38:37 エンタープライズ検索の改善とAIの洞察の締めくくり

要約

最近の対話で、LokadのConor DohertyがJoannes VermorelとRinat Abdullinと共に、生成型AIがサプライチェーンに与える影響について話し合いました。LokadのCEOであるVermorelと技術コンサルタントであるAbdullinは、時系列予測からChatGPTのような大規模言語モデル(LLM)を活用する進化について議論しました。彼らはLLMがタスクの自動化、生産性の向上、仕事の代替をせずにデータ分析を支援する潜在能力を探求しました。Vermorelは計画におけるLLMの慎重な使用に留意しながらも、両者は専門的なツールとの統合における役割を認識しました。このインタビューは、AIがサプライチェーン管理における変革的な役割とLLMの専門的なツールとの統合の重要性を強調しました。

詳細な要約

最近のインタビューで、Lokadのコミュニケーション責任者であるConor Dohertyが、LokadのCEOで創設者であるJoannes Vermorelと、Trustbitの技術コンサルタントであり、かつてLokadのCTOであったRinat Abdullinとの興味深い議論を行いました。この対話は、生成型AIの新興分野とサプライチェーン管理への影響に焦点を当てていました。

Rinat Abdullinは、Lokadでの経験を振り返りながら、特に技術と顧客のニーズの調整、複雑なサプライチェーンデータの理解可能性と信頼性の確保に直面した初期の課題について語りました。Joannes Vermorelは、Lokadのルーツがサプライチェーン最適化における重要な要素である時系列予測にあることを確認しました。

対話が進むにつれて、AbdullinはLokadの技術の進化について掘り下げ、機械学習モデルの説明可能性とパフォーマンスの緊張関係を強調しました。彼は複雑なシステムを解明するためにシミュレーションを使用した経験を共有し、より最適化された計算方法の道を開きました。

その後、会話は大規模言語モデル(LLM)に移り、Vermorelは最近の人気の高まりを指摘しました。Abdullinは言語モデルの初期の経験とそれらがChatGPTのような使いやすいツールに進化したことを共有しました。彼はLLMの変革的な可能性を強調し、それらを個人のアシスタント部門に例え、文書の起草から大量のデータシロ内での情報検索の自動化まで、さまざまなタスクを実行できると述べました。

Abdullinは、LLMが仕事を置き換えるのではなく、従業員の効率を向上させると主張し、生産性が10倍から100倍に向上した例を挙げました。また、サプライチェーンはLLMの採用が遅れている一方で、マーケティング部門は顧客との対話やコスト削減にLLMを迅速に活用していることを指摘しました。

Joannes Vermorelは、LLMを使用してサプライチェーンパートナーとの開放的なコミュニケーションを自動化する可能性について詳しく説明し、ルーチンのメールにかかる時間を節約し、より複雑なタスクに集中することができると述べました。彼はLLMの言語的な巧妙さを称賛し、人間にとって時間のかかるコミュニケーションのトーン調整のタスクに適していると述べました。

Abdullinは、ChatGPTの高度なデータ分析機能を強調し、ビジネスの意思決定者がプログラミングのスキルを必要とせずに複雑なデータを分析できるようにすると述べました。しかし、Joannes Vermorelはサプライチェーン計画における生成型AIへの懐疑的な姿勢を維持し、LLMは使い捨ての分析やレポートの生成に適していると強調しました。

Rinat Abdullinは、LLMを専門ツールと組み合わせてより良い結果を得るために使用できると提案しました。特に数値、テキスト、コードの領域の交差点での使用に適しています。Joannes Vermorelは同意し、LLMは問題を直接解決するよりもプログラムを作成するために適していると明確に述べました。

最後に、Rinat Abdullinはビジネスが専門ツールと組み合わせることでLLMを受け入れるよう促し、それらが供給チェーン管理の未来を形作る生成型AIのダイナミックな分野に関する洞察を提供したJoannesとRinatに感謝の意を表しました。

フルトランスクリプト

Conor Doherty: Lokad TVへようこそ。過去12ヶ月間の生成型AIの進歩は、技術の進歩の驚異的な偉業です。LLM、または大規模言語モデルは、わずか1年でニッチから主流になりました。ここで、特にサプライチェーンの文脈での意義を説明するために、Lokadの最初のCTOであるRinat Abdullinが登場します。Rinat、Lokadへようこそ。

Rinat Abdullin: 戻ってきて光栄です。私はLokadがまだ大学の小さな部屋で始まったときにいました。そして、私が働いた中で、7つのスタートアップを含むすべての会社の中で、Lokadは私の人生で最も挑戦的で報われる場所でした。

Conor Doherty: Joannesについては何も言わなくてもいいですが、挑戦的だったと言うとき、Lokadを挑戦的にしたのは具体的に何でしょうか?そして、それに対して将来のプロジェクトの難しさはどうでしょうか?

Rinat Abdullin: 当時私たちはスタートアップであり、技術と顧客の要望と実際に必要なもののマッチングを試みるという興味深い組み合わせでした。この三角形のバランスを取ることは常に課題でした。当時の技術はまだ初期段階でした。私たちはAzureの最初の大規模な顧客の1つであり、顧客からの多くの時系列データを処理するためのスケーラブルなライブラリを構築し始めていました。サポートはありませんでした。すべてをゼロから構築する必要があり、その旅は数年にわたり続きました。それはLokadの専門家に力を与えるためのカスタムDSLの作成に続き、現在も進行中です。これが三角形の一部です。二番目の部分は、顧客がより良い数字を求めていることです。彼らは在庫に凍結された資金なしでビジネスを予測可能な方法で運営したいと考えています。同時に、これらの数字が理解できるものであることを望んでいます。魔法の黒箱から出てくる数値を顧客に提供すると、経営陣は「うん、うまくいっている」と言うかもしれませんが、現地のサプライチェーンの専門家は「これらの数字が理解できません。数式を信頼できません。私の10〜20年の経験に基づく直感は、うまくいかないと言うでしょう。だからこれは無視します。」と言うかもしれません。もちろん、誰も解雇することはできません。これらの3つをバランスさせることは、Lokadと私がこれまでに取り組んできたすべての顧客との間で課題でした。

Joannes Vermorel: Rinatの話を聞いていると、私たちは時系列データで作業していたのですか?

Rinat Abdullin: はい、Lokadは文字通り時系列予測サービスとして設立されましたので、私は時系列についてある程度の知識を持っています。ただし、その後数年間はその道から逸れました。私たちは時系列を扱っており、それは非常に基本的なビルディングブロックです。Rinatが説明した説明可能性に関する緊張も、Lokadが設立されてから10年以上経ってからようやく解決されたものです。私たちは差分可能プログラミングを取り入れる必要がありました。そうすることで、機械学習モデルでありながら説明可能なモデルを得ることができました。それは非常に遅く実現しました。数年間、私たちは白箱であるがあまり良くないクラッドモデルと、より良いがブラックボックスであり、多くの運用上の問題を引き起こす機械学習モデルの選択肢がありました。時には、それらは問題のすべての側面において自然に優れているわけではありませんでした。それは非常に困難な戦いであり、Lokadの旅はほぼ10年間の困難な戦いでした。Rinatは最初の半分の10年間の困難な戦いを戦い、その後も他の人々が残りの半分の戦いを続けました。多くの解決すべき大きな問題が連続していました。

Conor Doherty: ありがとうございます、Rinat。あなたに戻りますが、この文脈で機械学習の白箱化を説明しようとするとき、どのようにアプローチしますか?

Rinat Abdullin: 私が国際物流会社のハッカソンの作成を手伝ったときに非常にうまく機能したアプローチの1つは、シミュレーションでした。国際物流について話すと、多くの変数が関与します。複数の場所間で複数の輸送手段を使用して輸送する必要がある貨物があります。トラック会社や他の企業が場所Aから場所Bへの貨物配送のためにオープンマーケットで競争しています。そして、道路や鉄道網、おそらく最後の一マイルの配送など、実際の配送経路があります。トラックがこれらの場所間で貨物を運ぶと、遅延や交通渋滞が発生し、貨物が営業時間外の倉庫に到着することもあれば、倉庫の荷降ろしエリアが混雑していることもあります。

私たちは、この複雑さを、学生や新入社員が理解しやすい方法でモデル化したかったのです。私たちが行ったことは非常に過酷でした。それは、古代の研究者がコインを投げて円周率の数をモデル化しようとした方法に非常に似ているかもしれません。したがって、私たちはヨーロッパの仮想地図を作成しました。この仮想地図では、道路には長さがあり、時間が経過し、トラックが行き来し、トラック会社はどの貨物を選び、時間通りに配送するかを決めることができました。これがハッカソン参加者の入り口でした。彼らは、「私はトラックドライバーAであり、この貨物を場所Aから場所Bに運ぶつもりです。」といったような意思決定をするエージェントをコーディングすることができました。しかし、トラックが貨物を一箇所から別の箇所に運ぶとき、現実世界と同様にお金がかかります。お金を稼ぐためには、税金を支払わなければならず、燃料代を支払わなければならず、ドライバーが休息をとることを確認しなければなりません。

シミュレーションなので、複雑な数式は必要ありません。現実を無理やり再現するだけです。バッチスクリプトをNPCやゲームに順次実行するだけで、紙の上に説明可能なルールをたくさん持つことができます。この世界全体は人々にとって非常に理解しやすかったので、実際に2つの難易度レベルを作成しました。最初のレベルでは、企業は単にトラックを運転してできるだけ多くのお金を稼ごうとするだけでした。2番目のレベルでは、ガソリン価格が少し上がり、企業はCO2排出量の補償をしなければならず、トラックドライバーは疲れることがありました。トラックドライバーが12時間以上または14時間以上運転していると、事故の発生確率が上がります。事故が発生すると、トラックドライバーは休息をとり、そのマシンは何もしなくなり、時間が無駄になります。私たちはこの環境を構築し、参加者は自分のエージェントをコーディングすることができました。そして、高速で離散イベントシミュレーションを実行すると、実際の時間の秒数で経過する仮想の数ヶ月が得られます。

私たちはたくさんのシミュレーションを素早く回すことができ、“チームよ、あなたのエージェントがこの仮想世界で行っていた意思決定は、これがリードタイムの分布であり、これが価格の分布であり、これが利益率であり、これがエージェントが得ていた事故の数でした。“と言うことができました。それは私が複雑な環境を説明しようとするときに通常取るアプローチです。まずシミュレーションから始めるのです。ゲームのようで、ルールを説明するのが簡単で、微分プログラミングを行う必要はありません。しかし、このシミュレーションを実行すると、複雑なシステムの依存関係を追跡するモンテカルロ分析になります。つまり、例えば、いくつかの場合では、外側に単純な分布が得られない場合があります。なぜなら、システムの複数の要素間に干渉があるため、外側の分布に干渉パターンが現れるからです。それはブラックボックスのように見えますが、人々はルールを理解し、プレイのルールを変えることができます。そして、たとえば、会社がこの環境がどのように機能するかを最終的に理解し、シミュレーションから出てくる数字が遅い方法で気に入っている場合、計算を最適化する方法があります。つまり、「OK、これがシミュレーションから得られる数字であり、同じ数字をより速く得るために確率との微分プログラミングに切り替えましょう。」と言うことです。それはパフォーマンスの最適化です。だから、私が通常そうアプローチする方法です。

Joannes Vermorel: 非常に興味深いのは、昨年、新しいクラスのツールであるLLMが利用可能になったことです。これは非常に興味深いことです。なぜなら、これは実際には半世紀ほど前から存在していた完全なクラスの技術であり、それは非常にニッチであり、専門家だけがその潜在能力を理解できるものでした。当時は主に潜在能力に関するものでした。リナット、このLLMのクラスのツールを導入することで何が変わると思いますか?どのように比較しますか?私たちは、企業向けの機械学習のさまざまなクラスのツールを持っていました。分類、回帰、モンテカルロシミュレーションなどです。これらは組み合わせることができるツールのクラスであり、今では完全に異なる別のクラスのツール、LLMがあります。ChatGPT以外のLLMに詳しくない視聴者のために、エンタープライズソフトウェア、エンタープライズワークフローの文脈でどのように理解していますか?あなたの高レベルのビジョンは何ですか?

Rinat: 私は2015年から言語モデルと接触してきました。チャットボットが登場し、人気を博する前からです。言語翻訳、音声認識、スペルエラーの修正や大規模なコーパス内のテキストの検索を支援する言語モデルで使用されることがありました。ChatGPTを通じて登場したことで、彼らの人気は急上昇しました。その理由の1つは、彼らが人々に役立ち、従順に訓練されていたからです。

そして、それが時にイライラする理由でもあります。モデルから結果を得たいと思っているときに、それが繰り返し「ごめんなさい」と謝ると、イライラすることがあります。私の考え方では、大規模なスケールでモデルを2つのカテゴリに分けています。1つのカテゴリは主に数値を扱うモデルで、回帰、モンテカルロ、ニューラルネットワークなどがあります。もう1つのクラスのモデルは、大規模な言語モデルであり、数値を扱いますが、表面的には大規模な非構造化テキストと一緒に作業します。これが彼らのコアの使いやすさの源です。

これらのモデルにより、機械や自動化を直接人間の相互作用に接続することができます。たとえば、回帰や時系列の場合、モデルをビジネスデジタルプロセスの中間にどこかに接続する必要があります。片側にはデータベース、中間には予測エンジン、もう片方にはデータベースやCRM、ERPがあります。最良の場合、レポートが得られますが、それでも数字です。LLMを使用すると、ビジネスプロセスの中間、人間のワークフローの中に直接接続できます。

これにより、10年前には完全に不可能または高価だったものを実装するのに多くの努力が必要ではありません。たとえば、個人的には、LLMを使用しているときに、自分自身のプライベートアシスタント部門を持っているような気分になります。彼らは多言語対応で、フルスタックです。時には素朴ですが、知識があり、決して不平を言いません。たとえば、レイアウト上のボタンを移動したり、ドイツの裁判官に手紙を書き直したりするように頼むと、非常に役立ち、従順で、時には愚かですが、素晴らしいことをすることができます。

私が見てきたLLMの採用のエンタープライズクラスでは、主に「ビジネスデジタル化」と呼ばれるものです。これにより、企業は大規模なコーパス内のテキストを見つけることを中心にワークフローを自動化することができます。たとえば、会社には多くのデータがあり、ナレッジベースがありますが、これらのナレッジベースは基本的には孤立しています。RFC、アンケート、または誰も最新の情報を保持していないウィキペディアなどです。人々は時には曖昧な場所で情報を見つける必要があります。これには時間と労力、特に認知エネルギーが必要です。

LLMは準備作業を行うことができます。記事の起草、企業のプライベートデータに基づいた調査などができます。「企業への回答を編纂するために、会社のワークフローとコード化されたプロンプトに基づいて、これが私の草稿です。」この応答チェックリストの各項目について、情報の取得元を示すことができます。したがって、人はもはやルーチンワークを行う必要がなくなり、モデルが正しい情報を取得したかどうかをチェックするという、より高度な知的な作業に移行することができます。これにより、企業の効率を大幅に向上させることができます。

ChatGPTが登場したとき、人々はLLMとAIが仕事を奪うのではないかと本当に心配していましたが、そうではありません。私は長い間、LLMとMLを活用した製品を作るためにお客様をサポートしてきましたが、人間を置き換えることができるものを作るには多大な努力が必要です。それはほぼ不可能です。しかし、LLMは既存の従業員を効率的にすることができます。場合によっては、10倍から100倍も効率的になります。これらは例外的なケースです。彼らは人々をより効率的にするだけであり、人々を置き換えることはできません。常に人々が関与する必要があります。

Conor: その点について追加で質問させていただければと思います。なぜなら、議論の文脈は生成型AI、サプライチェーンの文脈でのLLMです。Rinatさんが言ったことから、LLMは一般的に生産性を向上させるものと思われますが、サプライチェーン内での特定のユースケースはありますか?それとも、単に「私は多言語を話せるチームがいるので、このRFPを10言語に翻訳する必要があります」というようなものですか?

Rinat: 私の経験では、サプライチェーンはプロセスの中核にLLMを導入するのに少し時間がかかります。LLMはむしろ外部から徐々に浸透してきます。一般的なケースとしては、マーケティング部門が通常最初の導入者です。例えば、会社がユーザーに直面している場合、会社とユーザー、顧客の間のエッジが最も導入されている場所です。例えば、顧客に製品を販売しているマーケットプレイスがあり、この顧客とのインタラクションをより魅力的にし、このインタラクションのコストを削減したいと考えています。

製品カタログを一つずつ自動的にクロールするシステムを作ることはすでにかなり実現可能です。24時間365日、休むことなく、休むことなく、製品を見つけます。「これは製品ですが、サプライチェーンのベンダーが間違って入力しました。」なぜなら、私はインターネットを徹底的に調査し、この製品の仕様を見つけました。これらは類似しており、また、製品の生産者からのPDFの説明も見つけました。そして、私の信念によれば、インターネットの半分はこの番号を正しく持っているということですが、あなたはこの番号を間違っています。これらが参照です。自動的に修正する必要があるかどうかを決定してください。「ああ、ディアマネージャー、私はあなたがこの製品の説明、この製品の特性を修正したことを見ました。更新された番号だけでなく、テキストも含めて製品の説明を再生成する必要がありますか?」それと同時に、3つの製品説明を作成しましたので、適切なものを選んでください。また、SEOマーケティングテキストも作成し、公開エンジンのキーワードも更新し、Twitterの発表とLinkedInの発表も作成しました。

サプライチェーンに接続する顧客と小売業者の間のもう一つのエッジは、マーケットプレイス上の製品リストです。ベンダーであり、多くのマーケットプレイスと連携する必要がある場合を想像してください。カタログは10,000点のアイテムで、車の部品や飛行機の部品などの細かいバリエーションがあります。特に自社の在庫が非常に速く変動する場合、このプロセスを自動化したいと思うでしょう。これはかなり実現可能であり、私はすでにそれを見てきました。例えば、製品のいくつかの画像を取得します。特に再利用製品の場合、特にファッションでは非常にうまく機能します。それらを画像認識に通します。ファッションとスタイリングに特化したトレーニングが最も効果的です。テキスト、説明を取得し、ボックスを選択し、画像を自動的にリサイズし、その中から人々のために説明を生成します。

そして、最も素晴らしい部分の1つがやってきます。LMMによって抽出された意味的な検索に使用されるLLMによって拡張された隠れた説明も作成します。これはどういう意味ですか?ファッションプラットフォームの顧客が洋服の一部を見つけようとするとき、例えば、ドラゴンが描かれたボヘミアンスタイルのシャツで、サイズがMで10ドル以下とは限りません。代わりに、「今夜パーティーに行く予定で、友達がいて、ショーツに合うものを着ることができますか?」と検索するでしょう。製品の説明と意味的な説明がLLMによって抽出され、それらを検索する場合、完全なテキストではなく、埋め込みベースの検索を使用します。これは基本的にベクトルベースの検索であり、テキストの意味に基づいた検索です。つまり、正確な言葉遣いではなく、テキストの意味に基づいてモデルが質問したいことを提案し始めるため、外部から見ると魔法のように見える結果が得られます。

Conor: ありがとうございます、リナット。ジョアネス、あなたの考えは?私がサプライチェーンを観察すると、ほぼ半々でうまく機能していると言えるでしょう。半分の人々はスプレッドシートで話をしており、残りの半分はパートナーやサプライヤー、クライアントなどとの日常的なコミュニケーションです。スプレッドシートは、数量の決定を自動化することに関して本当に重要です。Lokadは10年以上にわたってそれを行ってきました。2番目の部分は、ほとんど自動化されていませんでした。なぜなら、LLMの登場まで、それに対する現実的な解決策となる技術が存在しなかったからです。

Joannes: つまり、コミュニケーションが必要なものは、非常に緻密なワークフローであれば自動化でき、EDIを介して注文を渡すことができました。注文を渡すための橋があり、非テキストの問題があります。しかし、人々が「半分の時間をスプレッドシートに費やし、その半分の時間をパートナーやクライアント、輸送業者、サプライヤーとのやり取りに費やしている」と言うとき、それは正確にはそうではありません。もっと曖昧で開放的なものです。「この注文を早めることはできますか?もしそうなら、どの価格で?」というようなものです。

このエッジケースを取り上げ、ケースについてメールを書いて、意図が何であるか、何が問題であるかを明確にする必要があります。それには30分かかります。それから異なる状況、異なる問題で繰り返し、別のメールを作成します。結局、購買部門では、8時間の労働時間のうち、4時間をスプレッドシートに費やし、20のパートナーに20通のメールを書くことに4時間を費やします。ここで、改善の巨大なポテンシャルを見ることができます。Lokadはすでに最初の部分を自動化していますが、LLMを使用すると、第2の部分を大部分的に自動化することができます。基本的には、人々がパートナーに受け取られる自動作成のコミュニケーションをサポートすることができるようにすることです。LLMは、問題の文脈化されたバージョンとパートナーから期待されるものを提供するために使用されています。

問題の文脈が明確に定義されている場合、EDIがあります。それは完全に機械化されたワークフローの一部になるものです。しかし、私が話しているのは、注文したのが1,000個で、実際には1,050個が納品されたような、完全に整列していないものです。50個多く納品されたからといって注文を拒否するわけではありません。このサプライヤーが好きなので、注文を受け入れて確認し、受け取り、1,000個ではなく1,050個の代金を支払います。しかし、納品先に対して、元の合意である1,000個を送っていただけると嬉しいと丁寧に伝えたいのです。ワークフローを中断したくないのですが、ほぼ正しい状態でありながら、サプライヤーが少し多くの料金を請求できるように常に5%以上納品することは許容できないことを伝えたいのです。

これは、LLMが本当に優れているケースであり、メッセージを伝える必要がある柔軟なコミュニケーションの場合です。フレーズのバランスを取るのに時間がかかるかもしれませんが、パートナーが最初に合意した数量に厳密に従うことを強く希望していることを理解してもらうためのものです。これは、誰かがメールを1時間かけて書くことに悩むようなものであり、現代のLLMでは、それはまさに非常に賢いものではありません。それらのLLMには、言語的な知識があり、適切なトーンを設定したい場合、ほぼ超人的な能力を持っています。彼らは大局を正しく把握するという意味では必ずしも超知能ではありませんが、同じテキストを少し暗くしたい、つまり同じテキストを少し攻撃的にしたり、少し柔らかくしたり、少しサポート的にしたい場合には、彼らは非常に優れています。

半ページについては、20分かかるかもしれませんが、LLMは文字通り数秒でそれを行うことができます。それは、人々が文字通り数時間を費やすようなソフトなタッチにおいて、生産性の大幅な向上が得られる場所です。これを少し高めてみましょう。1日中エッジケースに関するそのような数千のコミュニケーションを持つ会社を想像してみてください。それはLLMがもたらす新しい能力です。ビジネスオーナーやステークホルダーが全体像を把握するには努力が必要ですが、今ではLLMが非構造化テキストの大量をスキャンし、パターンを見つけるのに非常に優れています。LLMが実際に何百ものレポートやメール、やり取りの中から5%以上の余分なものを送らないようにするための要約を提供できるようになりました。そして、その結果をエグゼクティブに簡潔に伝えることができます。「ねえ、先週の間により多くのサプライヤーが私たちにより多くの在庫を送ろうとしているという繰り返しのパターンがあるようです」と。

ChatGPTには、高度なデータ分析という素晴らしい機能があります。これはまさに、データアナリストの部署を自分の制御下に置いているようなものです。彼らはサプライチェーンの専門家ではないので、それにはまだLokadが必要ですが、データベースファイルとExcelファイルを提供して、「分析を実行し、トレンドを把握してください」といった簡単な質問をすることができます。それがオンラインで可能な素晴らしい部分です。ローカルやAPIで実行することはできませんが、ChatGPTは理論を提案し、コードを書き、実行し、エラーが発生したら修正し、結果を出力し、チャートを作成することができます。Excelスプレッドシートと質問を送信してから素敵なチャートが表示されるまでのフローは、完全に自動化されています。自己修正、自己修復が可能で、素晴らしい結果が得られます。これにより、ビジネスの意思決定者は、データが複雑なシステムに格納されていても、PythonやJavaScript、C、SQLを知らなくても、自分自身でデータを分析し、視覚化することができます。これは本当に力を与え、新しいビジネスの機会を生み出し、新しいビジネス価値を創造します。

Conor: 約6ヶ月前、私たちは生成AIとサプライチェーンでの役割について議論し、全体的には多少懐疑的でした。ここ6ヶ月での進歩について説明されていることを聞くと、まだ同じ見方をしていますか、それとも少し柔軟になりましたか?

Joannes: 私の立場は、特定の側面については引き続き懐疑的です。私の懐疑心は、Lokadの競合他社のほとんどが「ChatGPTをテラバイトのトランザクションデータに直接適用するだけで、うまくいく」と言っていることに対する反応でした。私の考えでは、そうではないと思います。私はまだ非常に懐疑的です。なぜなら、それはまさにそれではないからです。もし、いくつかのスキーマを持つテーブルのリストを作成したり、ツールがデータベースのスキーマを自動的に探査して平均バスケットサイズなどの使い捨ての分析を計算することができると言うのであれば、それはまったく異なる提案です。過去には、これはビジネスインテリジェンスチームを通じて実行する必要がありました。平均バスケットサイズは何か、平均的に顧客を維持する期間はどれくらいか、ドイツで何個のユニットを販売したかといった基本的な質問について話しています。大企業では、BI部門には通常、使い捨てのレポートを一日中作成する数十人のスタッフがいます。このようなことについては、LLMが本当に役立つと思いますが、それは私たちの競合他社が提案しているものではありません。彼らは「これらのモデルを持っていて、テラバイトのデータベースを提供し、TwitterやInstagramへのアクセスを提供し、計画や意思決定、すべてを完全に自動化する」と言っています。私はそれには全く近づいていないと言います。私たちはファンタジーワールドにいます。

Rinat: その課題へのあなたの回答について、2つの考えを共有したいと思います。まず、大量のデータを処理するためにLLMを使用するプロセスについてですが、私はかなり長い間さまざまなLLMを使用してきました。顧客が最初にする質問の一つは、ChatGPTのようなものを自分の施設でローカルに実行できるかどうかです。それに答えるには、さまざまな構成でLLMのベンチマークを行い、コストを計算する必要があります。LLMはかなり高価です。予測のために1メガバイトのテキストをLLMに通すと、モデルによっては数ユーロかかることがあります。最高のモデルでローカルに実行したい場合、10ユーロまたは20ユーロかかるかもしれません。

そして、それがGPT-3.5が行っていることです。非常に安価です。しかし、ポイントは、テラバイトやペタバイトのデータをLLMに通すことはできないということです。第二に、LLMは数字には向いていません。LLMに数学的な計算や素数のリストを求めるようなことを頼むのは誤用です。LLMは言語モデルです。彼らは大きな知識ベースを持ち、非常に知的ですが、まだ制限があります。数学の問題をLLMに尋ねるのではなく、問題の言い回しを尋ね、計算は専門のPythonカーネルなどに渡され、LLMにオペレーションを無駄にするよりもはるかに優れた結果を得ることができます。

最も興味深いことは、異なるドメイン間の接点で起こります。例えば、数値のドメイン、テキストやソフトで曖昧なエッジケースのドメイン、そしてコードがあります。コードは数字でもなく、テキストでもなく、構造化されて検証可能です。そして、LLMはそれに非常にうまく対処することができます。これにより、Lokadのようなソリューションの適用範囲がさらに広がる可能性があります。

例えば、LLMの機能外の大量のテキストを解析するために、問題をLLMに提示する方法を応用しています。例えば、世界中の数百ギガバイトの年次報告書からテキストを見つけたり、実際の計算を行わずに数値の問題を解決するのに役立ちます。あなたは賢明であり、背景を知っているので、アプローチ方法の理論を考え出し、これらがあなたに与える制御を知っています。

巨大なデータベースを検索する場合、特定の構文でLLMに尋ねて、埋め込み検索を作成し、停止キーワードのリストやブーストするキーワードのホワイトリストを作成するように依頼します。その後、その依頼を受け取った専用のシステムが、スケールで処理するのに非常に優れているため、この形式のリクエストを実行します。LLMは検索の洗練にも対応できるため、最も良い結果が得られます。

LLMに戻って、「これが私の元の問題です。これがあなたが考えたこと、作成したクエリ、そして返されたジャンクです。調整して適応してください。」と言います。LLMと一緒に作業するのはほぼ無料なので、10回くらい反復するかもしれません。良い決断と悪い決断を含む思考の連鎖、思考の木を作成するかもしれませんが、それによって結果は改善されます。数値のドメインでも同じことが適用されます。例えば、サプライマネージャーは在庫をより良くバランスさせるアイデアを考え出したいと考えています。理論的には、「これはおそらく十分に良い環境の小さなシミュレーションです。これがどのように調整できるかを示します。今、ふわっとした制約解決を行い、在庫のバランスを改善するのに役立つアイデアを考え出してください。」と言うことができます。

これは、複数のドメイン(数値、コード、テキスト)を結びつけ始めるときに開かれる可能性です。そして、それぞれのドメインに最適なツールを使用します。

Conor: ありがとうございます、Rinat。Joannesさん、ご意見はありますか?

Joannes: 観客の皆さんに説明するために、興味深いことは、多くの問題に対してLLMでアプローチする方法は、「問題を解決してください」と言うのではなく、「問題を解決するプログラムを作成してください。それからそのプログラムを学習します。」と言うことです。さらに、プログラムがコンパイルできるかをチェックするためにLLMにコンパイラを与えたり、プログラムを実行して出力が意味をなすかどうかをチェックするツールを与えるなどのトリックもあります。

LLMが直接問題を解決するのではなく、それが仲介されることになります。LLMはプログラムを生成し、それからまだテキストの出力を使用します。なぜなら、コンパイラを使用すると、コンパイラはプログラムをコンパイルしようとします。うまくいかない場合、エラーメッセージが表示されます。LLMはエラーメッセージを処理し、関連する問題を修正することが大好きです。私たちは非常にテキストの領域にいます。

サプライチェーンにおいて、ほとんどの状況は仲介されます。LLMに、私たちがやろうとしていることを解決するプログラムを作成してもらいたいのです。例えば、昨年のベルギーの売上高を1,000,000ユーロ以上の顧客について見つけるという最初の問題では、LLMはデータベースからデータを取得して解決しません。データベース自体で実行されるSQLクエリを作成します。再び、仲介です。

それは企業ソフトウェアにとってどういう意味を持つのでしょうか?少なくとも意思決定レイヤーにおいて、サプライチェーンの実行をサポートするプラットフォームが、プログラムの機能を提供していますか?LLMは生のトランザクションデータを取得して出力を生成するのではなく、問題の文を受け取り、プログラムを生成することができます。しかし、その後、環境内の何かがプログラムを実行する必要があります。LLMに提供できるどのようなプログラミング環境がありますか?

ほとんどのクラシックな企業ソフトウェアは、まったく環境を提供しません。単に使用できる言語を持つデータベースがありますが、在庫を最適化するための大規模なERPとのやり取りを行うためには、製品ごとに最小および最大の在庫レベルまたは安全在庫パラメータを手動で設定する必要があります。LLMは適用する必要のある手順を教えてくれますが、適用する場合は手動でERPの設定を行う必要があります。ERPがAPIを提供している場合、APIを介してスケールできるプログラムを作成することができますが、ネイティブのプログラミングソリューションを持つことと比べて非常に使い勝手が悪いです。それでもフレームワークを介して仲介されます。

それにはいくつかの根本的な変更が必要であり、ソリューションのプログラム可能性を第一級の市民として導入する必要があります。自己顕示的なプラグ、Lokadにはプログラム可能なプラットフォームがあります。私たちはLLMのためにそれを作ったわけではありません。10年前にプラットフォームの中心として、そして第一級の市民としてこのようなプログラム思考を持つためにそれを行ったのですが、それは偶然でした。LLMと10年後に何が起こるかについての先見の明ではありませんでした。

Conor: ありがとうございます、ジョアネス。皆さんの時間を考慮して、締めの言葉としてリナットに戻します。見ている皆さんに伝えたいことはありますか?

Rinat: 過去の歴史にはドットコムバブルや金融バブルのようないくつかのバブルがありました。LLMとAIもバブルかもしれませんし、そうでないかもしれません。私の母親ですらChatGPTについて知っていて、それを使い方を知っているのは興味深いです。Skynetはそんなに簡単には動作しないので、私たちは機械の支配者に恐れる必要はありません。これらのものを本番環境で安定させようとしている人として、それは多くの努力が必要であり、簡単に信頼性を持って動作するものではありません。ですので、まずはLLMを恐れずに、そして次にそれを受け入れてください。LLMと人間、そしてビジネスは、特にLokadの予測のような専門ツールと組み合わせることで、より多くの価値を創造することができます。

Conor: ありがとうございます、リナット。ジョアネス、お時間をいただきありがとうございました。リナット、再度ご参加いただきありがとうございました。そして、ご視聴いただきありがとうございました。次回をお楽しみに。