00:00:00 Введение в интервью
00:01:00 Путь Рината в Lokad и вызовы цепи поставок
00:03:59 Эволюция Lokad и понимание симуляций
00:07:07 Сложности симуляции и принятие решений на основе агентов
00:09:15 Введение в LLM и оптимизация симуляций
00:11:18 Влияние ChatGPT и категории моделей
00:14:14 LLM как когнитивные инструменты в предприятиях
00:17:10 Улучшение взаимодействия с клиентами и листингами с помощью LLM
00:20:30 Ограниченная роль LLM в расчетах цепи поставок
00:23:07 Улучшение коммуникации в цепях поставок с помощью LLM
00:27:49 Роль ChatGPT в анализе данных и получении информации
00:32:39 Обработка текста и количественные вызовы LLM
00:38:37 Улучшение поиска в предприятии и заключительные выводы по искусственному интеллекту

Резюме

В недавнем диалоге Конор Доэрти из Lokad беседовал с Жоаннесом Верморелем и Ринатом Абдуллиным о влиянии генеративного искусственного интеллекта на цепи поставок. Верморель, генеральный директор Lokad, и Абдуллин, технический консультант, обсудили эволюцию от прогнозирования временных рядов к использованию больших языковых моделей (LLM), таких как ChatGPT. Они исследовали потенциал LLM для автоматизации задач, повышения производительности и помощи в анализе данных без угрозы замещения рабочих мест. Верморель оставался осторожным в отношении использования LLM в планировании, но оба признали их полезность в разработке решений. В интервью подчеркивается трансформационная роль искусственного интеллекта в управлении цепями поставок и важность интеграции LLM с специализированными инструментами.

Расширенное резюме

В недавнем интервью Конор Доэрти, руководитель коммуникаций в Lokad, провел интересную дискуссию с Жоаннесом Верморелем, генеральным директором и основателем Lokad, и Ринатом Абдуллиным, техническим консультантом в Trustbit и бывшим техническим директором Lokad. Разговор был посвящен развивающейся области генеративного искусственного интеллекта и его влиянию на управление цепями поставок.

Ринат Абдуллин, вспоминая свое время в Lokad, рассказал о начальных трудностях, с которыми столкнулась компания, особенно в выравнивании технологий с потребностями клиентов и в создании понятных и надежных данных о цепи поставок. Жоаннес Верморель подтвердил, что корни Lokad лежат в прогнозировании временных рядов, что является важным элементом оптимизации цепи поставок.

По мере развития диалога Абдуллин углубился в эволюцию технологии Lokad, подчеркнув напряженность между объяснимостью и производительностью моделей машинного обучения. Он поделился своими опытами использования симуляций для разъяснения сложных систем, что проложило путь для более оптимизированных вычислительных методов.

Затем разговор перешел к большим языковым моделям (LLM), и Верморель отметил их недавний всплеск популярности. Абдуллин поделился своими первыми опытами работы с языковыми моделями и их превращением в удобные инструменты, такие как ChatGPT. Он подчеркнул трансформационный потенциал LLM, сравнивая их с личным отделом помощников, способных выполнять различные задачи, от составления документов до автоматизации поиска информации в больших силосах данных.

Абдуллин ответил на вопросы о том, заменяют ли LLM работы, утверждая, что они повышают эффективность сотрудников, а не заменяют их. Он привел примеры, где производительность увеличилась в десять и более раз. Он также отметил, что в то время как цепи поставок медленно внедряют LLM, отделы маркетинга быстро используют их для взаимодействия с клиентами и снижения затрат.

Жоаннес Верморель расширил потенциал LLM в автоматизации свободного общения с партнерами по цепи поставок, экономя время на рутинных электронных письмах и позволяя сосредоточиться на более сложных задачах. Он похвалил LLM за их лингвистическую изящность в настройке тона общения, что может быть трудоемким для людей.

Абдуллин подчеркнул возможности продвинутой аналитики данных ChatGPT, которая позволяет руководителям бизнеса анализировать сложные данные без необходимости программирования. Однако Жоаннес Верморель сохранял свое скептическое отношение к генеративному искусственному интеллекту в планировании цепи поставок, подчеркивая, что LLM больше подходят для создания одноразовых анализов и отчетов.

Ринат Абдуллин предложил использовать LLM в сочетании с специализированными инструментами для достижения лучших результатов, особенно на пересечении числовых, текстовых и кодовых областей. Жоаннес Верморель согласился, уточнив, что LLM лучше всего подходят для составления программ для решения проблем, а не для их прямого решения.

В заключение Ринат Абдуллин призвал бизнесы принять LLM, так как они могут добавить значительную ценность в сочетании с специализированными инструментами. Конор Доэрти завершил интервью, поблагодарив Жоаннеса и Рината за их понимание динамичной области генеративного искусственного интеллекта и его роли в формировании будущего управления цепями поставок.

Полный текст

Конор Доэрти: Добро пожаловать на Lokad TV. Прогресс, достигнутый в генеративном искусственном интеллекте за последние 12 месяцев, является выдающимся достижением технологического прогресса. Большие языковые модели (LLM) за год перешли от ниши к массовому использованию. Здесь, чтобы объяснить их значение, особенно в контексте цепи поставок, находится первый технический директор Lokad, Ринат Абдуллин. Ринат, добро пожаловать в Lokad.

Ринат Абдуллин: Мне очень приятно и почетно вернуться. Я был в Lokad, когда она только начинала свою работу в маленькой комнате, я думаю, в университете. И из всех компаний, с которыми я работал с тех пор, включая семь стартапов, Lokad была самым сложным и наградным местом в моей жизни.

Конор Доэрти: Вам не нужно ничего говорить о Жоаннесе напрямую, но когда вы говорите, что это было самым сложным, что именно сделало Lokad таким сложным? И в отличие от этого, сложность будущих проектов?

Ринат Абдуллин: Мы были стартапом тогда, и это было интересное сочетание попыток найти соответствие между технологиями и тем, чего хотят и действительно нуждаются клиенты. Балансировка этого треугольника всегда была сложной задачей, потому что технологии тогда были только зарождающимися. Мы были одними из первых крупных клиентов Azure, только начинающих создавать масштабируемую библиотеку для обработки большого количества временных рядов от клиентов. Не было поддержки; все приходилось создавать с нуля, и этот путь занял много лет. Он продолжался созданием пользовательского DSL для усиления экспертов в Lokad, и он все еще продолжается. Это одна часть треугольника. Вторая часть заключается в том, что клиенты хотят лучших цифр; они хотят, чтобы их бизнес работал предсказуемым образом без замороженных денег на складе. В то же время они хотят, чтобы эти цифры были понятными, потому что если вы предоставите клиентам некоторые цифры, которые выходят из волшебного черного ящика, руководители могут сказать: “Да, это работает”, но эксперты по цепочке поставок в местных складах скажут: “Я не понимаю этих цифр. Я не доверяю формулам, и мое интуитивное чувство, основанное на 10-20 летнем опыте, скажет нет, это не сработает, поэтому я буду игнорировать это”. И, очевидно, нельзя уволить всех. Балансировка этих трех аспектов была вызовом как для Lokad, так и для всех клиентов, с которыми я работал с тех пор.

Жоаннес Верморель: Слушая Рината, мы раньше работали с временными рядами, это правда?

Ринат Абдуллин: Да, Lokad буквально была основана как сервис прогнозирования временных рядов, поэтому я знаю немного о временных рядах, даже если мы отошли от этого пути спустя годы. Мы занимались временными рядами, и это очень базовый строительный блок. Напряжение, о котором говорил Ринат, связанное с объяснимостью, также было наконец решено, но более чем через десятилетие после основания Lokad. Нам пришлось принять дифференцируемое программирование, чтобы у нас наконец были модели, которые были машинным обучением, но объяснимыми. Это произошло очень поздно. В течение многих лет у нас был выбор между грубыми моделями, которые были белыми ящиками, но не очень хорошими, или моделями машинного обучения, которые были лучше, но черными ящиками, создавая массу операционных проблем. Иногда они не были естественно лучше с точки зрения всех аспектов проблемы. Это была огромная борьба, и путь Lokad был почти десятилетней серией восходящих битв. Ринат сделал первую половину десятилетия восходящих битв, а затем были другие люди, которые продолжали бороться за остальные. Это была очень долгая серия огромных проблем, которые нужно было решить.

Конор Доэрти: Спасибо, Ринат. Вернемся к вам, когда мы пытаемся объяснить, что делает Lokad, это происходит через серию очень длинных статей, лекций, таких обсуждений. Но когда вы пытаетесь сделать машинное обучение белым ящиком в этом контексте, как вы к этому подходите?

Ринат Абдуллин: Один из подходов, который работал довольно хорошо, когда я помогал создать хакатон для международной логистической компании, был через симуляции. Когда речь идет о международной логистике, в игре много переменных. У вас есть груз, который должен быть доставлен между несколькими местами с использованием нескольких видов транспорта. У вас есть грузовые компании и другие компании, конкурирующие на открытом рынке за доставку грузов из места A в место B. Затем у вас есть фактические пути доставки, такие как дороги, железнодорожные сети, возможно, последний километр доставки где-то. Когда грузовики доставляют груз между этими местами, возникают задержки, пробки, и груз может прибыть на склад вне рабочих часов, или зона разгрузки на складе может быть забита.

Мы хотели моделировать всю эту сложность таким образом, чтобы это было понятно для студентов или новых сотрудников компании. То, что мы сделали, было довольно жестким. Это, возможно, очень похоже на то, как древние исследователи пытались моделировать число пи, подбрасывая монету в симуляции. Мы построили виртуальную карту Европы с основными дорогами, и на этой виртуальной карте дороги имели длину, время шло, грузовики ездили туда и обратно, и транспортные компании могли решать, какой груз они выбирают и доставят ли его вовремя. Это была отправная точка для участников хакатона, потому что они могли писать код агентов, которые принимали решения вроде: “Я - водитель грузовика А, и я возьму этот груз из места А в место Б”. Но был один подвох: когда грузовик перевозит груз из одного места в другое, как и в реальном мире, это стоит денег. Чтобы заработать деньги, нужно платить налоги, платить за топливо, убедиться, что водитель отдыхает.

Поскольку это симуляция, вам не нужны сложные формулы; вы просто брутфорсите реальность. Вы просто выполняете пакетный сценарий для НИПов или для игры последовательно, и у вас может быть множество объяснимых правил на листе бумаги. Этот весь мир был настолько понятен людям, что мы фактически создали два уровня сложности. На первом уровне компании просто водили грузовики, пытаясь заработать больше денег. На втором уровне цены на бензин немного повысились, компании должны были компенсировать выбросы CO2, а водители грузовиков могли уставать. Если водитель грузовика ехал более 12 или 14 часов, то вероятность аварии увеличивалась. Когда происходит авария, водитель грузовика отдыхает, и эта машина ничего не делает, фактически тратя время впустую. Мы создали это окружение, участники могли писать код своих агентов, и когда вы запускаете дискретную событийную симуляцию с ускоренной скоростью, вы получаете месяцы виртуального времени, проходящие за секунды реального времени.

Мы смогли быстро провести множество симуляций и сказать: “Эй, команды, решения, которые ваши агенты принимали в этом виртуальном мире, вот это было распределение времени выполнения, это было распределение цен, это были маржи, это было количество аварий, в которые попадали ваши агенты”. Это, по сути, подход, который я обычно использую, когда мне нужно объяснить сложную среду. Сначала начинаем с симуляции, потому что это похоже на игру, правила легко объяснить, вам не нужно делать дифференциальное программирование. Но когда вы запускаете эту симуляцию, это, по сути, анализ методом Монте-Карло, который отслеживает зависимости в сложных системах. Это означает, что, например, в некоторых случаях вы не получаете простое распределение наружу, но из-за взаимодействия между несколькими элементами системы вы получаете интерференционные узоры на внешних распределениях. Это выглядит как черный ящик, но люди могут понять правила, они могут изменить правила игры, и затем, например, если компания, наконец, понимает, как работает эта среда, и им нравятся цифры, которые получаются медленно, потому что симуляция все еще занимает время, то есть способ оптимизировать вычисления, говоря: “Хорошо, это цифры, которые мы получаем из симуляции, и давайте перейдем к дифференциальному программированию напрямую с вероятностями, чтобы получить те же самые цифры, но быстрее”. Это просто оптимизация производительности. Вот как я обычно подхожу к этому.

Joannes Vermorel: Очень интересно, что за последний год появился новый класс инструментов, LLM, и это очень интересно, потому что это буквально целый класс технологий, которые существуют уже около полувека, но они были очень узкоспециализированными, и только эксперты действительно могли понять их потенциал, потому что на тот момент это было в основном о потенциале. Возможно, Ринат, как вы видите, что изменилось с появлением этого класса инструментов LLM? Как вы сравниваете это? У нас были различные классы инструментов для машинного обучения для компаний, такие как классификация, регрессия, симуляции методом Монте-Карло. Это были классы инструментов, которые можно было объединить, и теперь у нас есть еще один класс совершенно других инструментов, LLM. Возможно, для аудитории, которая, помимо ChatGPT, может быть не знакома с LLM, как вы воспринимаете это в контексте предприятий, рабочих процессов предприятий? Какова ваша общая концепция по этому поводу?

Ринат: Я знаком с языковыми моделями с 2015 года, до того, как появились чат-боты и стали популярными. Вы правы, что они были очень узкоспециализированными. Их использовали в языковых переводчиках, системах распознавания речи и моделях, исправляющих орфографические ошибки или помогающих найти текст в больших корпусах. Когда они появились через ChatGPT, их популярность резко возросла. Одна из причин этого заключается в том, что они были обучены быть полезными и послушными людям.

И вот поэтому они иногда так раздражают, потому что когда вы хотите получить результаты от модели, а она начинает извиняться, говоря ‘Простите’ несколько раз, это может быть раздражающим. Я лично разделяю модели на две крупные категории. Одна категория моделей работает в основном с числами, мы говорим о регрессии, методе Монте-Карло, нейронных сетях. Другой класс моделей, которые являются большими языковыми моделями, да, они работают с числами, но на поверхности они работают с текстом, с большими неструктурированными текстами, и их основная применимость исходит отсюда.

Эти модели позволяют машине или автоматизации напрямую взаимодействовать с людьми. Например, с регрессией или временными рядами вам нужно подключить модель где-то посередине цифровых бизнес-процессов. С одной стороны есть база данных, посередине - прогнозирующий движок, а с другой стороны может быть база данных или CRM или ERP. В лучшем случае вы получаете отчет, но это все равно числа. С помощью LLM вы подключаетесь напрямую к середине бизнес-процесса, к середине рабочих процессов людей.

Это создает так много возможностей, особенно потому, что для реализации того, что раньше было совершенно невозможно или дорого, сейчас не требуется много усилий. Например, лично я, когда работаю с LLM, начинаю чувствовать, что у меня есть собственное отделение помощников. Они многоязычны, они полноценные, иногда наивные, но они также интеллектуальны, и они никогда не жалуются. Например, попросите их переместить кнопку на макете или переписать письмо магистрату в Германии - это очень полезно, очень послушно, иногда глупо, но они могут сделать великие вещи.

В предприятиях, где я видел применение LLM, это в основном связано с цифровизацией бизнеса. Это помогает компаниям автоматизировать рабочие процессы, связанные с поиском текста в больших корпусах. Например, у компании есть много данных, у них есть базы знаний, но эти базы знаний по сути являются изолированными. Это могут быть RFC, анкеты или Википедия, которую никто не обновляет, и людям нужно выполнить некоторую работу, которая иногда требует поиска информации в неизвестных местах. Это требует времени, усилий и особенно когнитивной энергии.

То, что могут делать LLM, это предварительная работа. Они могут составлять статьи, проводить исследования на основе конфиденциальных данных компании и говорить: ‘Хорошо, вы составляете этот ответ для предприятия, исходя из рабочих процессов вашей компании и закодированных подсказок, вот мой черновик’. Для каждого элемента в этом списке ответов они могут показать, откуда они получили информацию. Таким образом, человеку больше не нужно выполнять рутинную работу и может перейти к более интеллектуально сложной работе - проверке правильности модели. Это позволяет масштабировать эффективность компании в огромной степени.

Когда появился ChatGPT, люди очень боялись, что LLM и искусственный интеллект заберут их работу, но это не так. Поверьте мне, я уже довольно долгое время помогаю клиентам создавать продукты, основанные на LLM и машинном обучении, и для того, чтобы создать что-то, что может заменить человека, требуется огромное количество усилий. Это практически невозможно. Но то, что могут делать LLM, это повышать эффективность существующих сотрудников, иногда даже в 10-100 раз. Это исключительные случаи. Они просто делают людей более эффективными, но никогда не могут заменить людей. Всегда должны быть люди в процессе.

Конор: Если я могу продолжить эту тему, потому что снова, контекст обсуждения - это генеративный искусственный интеллект, LLM в контексте цепочки поставок. Исходя из того, что вы только что сказали, Ринат, кажется, что LLM будут повышать производительность в целом. Но вы видите какие-то конкретные случаи использования в рамках цепочки поставок, или это просто, как вы сказали, ‘У меня есть команда полиглотов, мне нужно перевести это RFP на 10 языков’?

Ринат: По моему опыту, цепочки поставок немного медленно внедряют LLM в основу процесса. LLM скорее начинают проникать снаружи. Таким образом, обычный случай заключается в том, что отделы маркетинга обычно являются первыми принимающими. Когда у компании, например, когда они сталкиваются с пользователями, граница между компанией и пользователями, клиентами, это то место, где я видел наибольшее принятие. Например, есть рынки, которые продают своим клиентам продукты, и они хотят сделать эту взаимодействие более приятным и, возможно, снизить стоимость такого взаимодействия с клиентами.

Уже сейчас вполне реально создавать системы, которые автоматически просматривают каталоги продуктов один за другим, неустанно, беспрерывно, 24/7, и они видят: ‘Хорошо, это продукт, но он был введен поставщиком цепочки поставок неправильно.’ Почему? Потому что я просмотрел Интернет, я нашел спецификации этого продукта, которые похожи, я также нашел описание в формате PDF от производителя продукта, и согласно моему мнению, примерно половина Интернета имеет правильный номер, а у вас неправильный. Вот ссылки. Пожалуйста, примите решение, нужно ли автоматически исправить его. ‘О, дорогой менеджер, я видел, что вы исправили это описание продукта, это свойство продукта. Хотите, чтобы я сгенерировал описание продукта с обновленным номером, не только номером, но и текстом?’ И пока вы здесь, я создал три описания продукта, чтобы вы могли выбрать то, что имеет смысл. Я также создал SEO-маркетинговый текст, обновил ключевые слова на вашем публикационном движке, я также создал объявление в Twitter и объявление в LinkedIn.

Еще одна граница между клиентами и розничными продавцами, которые подключаются к цепочке поставок, - это список продуктов на рынках. Представьте, что вы являетесь поставщиком, который должен работать с большим количеством рынков, и ваш каталог состоит из 10 000 товаров с небольшими вариациями, например, автозапчасти или запчасти для самолетов. Вы хотите автоматизировать этот процесс, особенно если ваша собственная инвентаризация меняется достаточно быстро. Это вполне реально, и я уже видел, как это делается. Например, вы получаете несколько изображений продукта, особенно если это товары с повторным использованием, особенно в моде, это работает очень хорошо. Вы передаете их через распознавание изображений, которое работает лучше всего, когда оно обучено моде и стилю. Вы получаете тексты, описания, выбираете коробки, автоматически изменяете размер изображений, и на основе этого создаете описание для людей.

И затем наступает одна из самых приятных частей. Вы также создаете скрытое описание, усиленное LLM, которое используется для семантического поиска. Что это значит? Так, когда клиент модной платформы пытается найти одежду, он не всегда ищет, например, рубашку в стиле бохо с драконами на ней, размером M и стоимостью менее 10 долларов. Он ищет: ‘Привет, я иду на вечеринку сегодня вечером, и мои друзья там, что я могу надеть, чтобы это дополнило мои шорты?’ Если у вас есть описания продуктов и семантические объяснения, которые были извлечены LLM из продукта, и вы ищете их, но не полный текст, потому что кто знает, как люди пишут “бохо”, но вы используете поиск на основе векторов, который по сути является поиском на основе значения текста, а не точного формулирования, то вы получаете результаты, которые снаружи выглядят волшебными, потому что модель somehow начинает предлагать вещи, о которых вы хотели спросить ее, а не о том, что вы сказали.

Конор: Спасибо, Ринат. Йоаннес, ваши мысли? Я имею в виду, когда я наблюдаю за цепочками поставок, я бы сказал, что они работают примерно наполовину. Половина людей общается с помощью электронных таблиц, а остальное - это обыденное общение с партнерами, поставщиками, клиентами и так далее. Электронные таблицы - это в основном автоматизация принятия решений о количестве, именно это делает Lokad уже десять лет. Вторая часть в основном не была автоматизирована, потому что до появления LLM не было реальной технологии, которая была бы правдоподобным ответом на это.

Joannes: Это означает, что то, что требует коммуникации, либо было очень плотным рабочим процессом, и его можно было автоматизировать, и он был автоматизирован, скажем, с помощью EDI для передачи заказа. У нас будет мост, который передает заказ, и у нас есть неписьменная проблема. Но это не совсем то, о чем люди говорят, когда говорят, что люди тратят половину своего времени на электронные таблицы, а половину этого времени управляют партнерами, клиентами, перевозчиками, поставщиками. Это больше похоже на то, “Можете ли вы ускорить этот заказ, и если да, то по какой цене?” Это более неопределенное и открытое.

Нужно взять этот крайний случай и написать письмо по этому случаю, чтобы уточнить, что имеется в виду, что находится под угрозой, и на это уходит полчаса. Затем вы повторяете с другой ситуацией, другой проблемой и создаете другое письмо. В итоге у вас получается отдел закупок, где каждый, в течение восьми часов работы, тратит четыре часа на свою электронную таблицу и четыре часа на написание 20 писем 20 партнерам. Здесь я вижу огромный потенциал для улучшения. Lokad уже полностью автоматизирует первую часть, но с LLM есть огромный потенциал для частичной автоматизации второй части. По сути, позволяя людям, я бы сказал, оказывать поддержку в автоматическом составлении коммуникаций, которые будут получены вашими партнерами. LLM использовался для предоставления разумно контекстуализированной версии постановки проблемы и того, что мы ожидаем от партнера.

Если постановка проблемы имеет четко определенные границы, то у вас есть EDI; это просто становится частью вашего полностью механизированного рабочего процесса. Но я говорю о другом, о том, что не совсем согласуется, например, когда вы заказали 1000 единиц, а они доставили 1050. Вы не будете отклонять заказ, потому что они доставили на 50 единиц больше. Вам нравится этот поставщик, поэтому вы примете и подтвердите заказ, получите его и заплатите за 1050 единиц вместо 1000. Но вы хотите вежливым образом сообщить своему поставщику, что вы предпочли бы, чтобы они придерживались исходного соглашения, согласно которому должно быть отправлено 1000 единиц, а не 1050. Здесь есть некоторая тонкость, где вы не хотите нарушать рабочий процесс; это почти правильно, но вы все же хотите донести, что всегда доставлять на 5% больше, чтобы поставщик мог взять с вас немного больше, это неправильно.

Вот в этом и заключается сила LLM, в таком мягком общении, где вам нужно передать сообщение. Потребуется время, чтобы сбалансировать формулировку так, чтобы она не была слишком агрессивной, но партнер все же понимал, что у вас сильное предпочтение придерживаться исходного количества, о котором было договорено. Это именно то, где человек может мучиться над письмом в течение часа, чтобы написать эту половину, и это именно то, где современные LLM могут справиться с этим. То, что у вас есть в этих LLM, это лингвистический интеллект, и если вы хотите правильно настроить тональность, они обладают почти сверхчеловеческими способностями. Они не обязательно суперинтеллектуальны в смысле правильного понимания общей картины, правильного направления, но если вам нужен просто тот же текст, но немного более агрессивный или немного мягче или немного более поддерживающий, они в этом супер хороши.

Вам может потребоваться, может быть, 20 минут, чтобы сделать это для половины страницы, а LLM может сделать это буквально за секунды. Именно в таких случаях вы можете получить огромный прирост производительности для таких мягких контактов, где люди буквально тратят часы. Если мы поднимем это немного выше, представьте себе компанию, в которой тысячи таких коммуникаций о крайних случаях происходят в течение дня. Это новая возможность, которую предоставляют LLM. Для владельцев бизнеса, для заинтересованных сторон, чтобы получить общую картину, требуется усилие, но теперь у нас есть LLM, которые очень хороши в сканировании огромных объемов неструктурированного текста и поиске паттернов. Представьте себе, что LLM может фактически прочитать сотни отчетов или писем или обратных коммуникаций о том, чтобы не отправлять дополнительные 5%, и в конце дня предоставить краткое резюме руководству, говоря: “Привет, у нас, кажется, есть повторяющийся паттерн, что все больше и больше поставщиков в последнюю неделю пытаются отправить нам больше товаров”.

Как вы знаете, у ChatGPT есть удивительная возможность, называемая расширенной аналитикой данных, и это буквально означает, что у вас есть отдел аналитиков данных под вашим контролем. Они не являются экспертами по цепочке поставок, поэтому вам все равно понадобится Lokad для этого, но то, что вы можете сделать, это задавать им простые вопросы вроде: “Вот мой файл базы данных, вот мой файл Excel, выполните для меня анализ и обнаружьте тренды”. Это удивительная часть, которая в основном возможна онлайн. Вы не можете запустить это локально или в API, но ChatGPT придумает теории, напишет код, выполнит его, возможно, столкнется с ошибками, исправит их, выведет результаты и даже создаст для вас диаграмму. Весь процесс, начиная с момента отправки ему электронной таблицы Excel и вопроса до получения красивой диаграммы, полностью автоматизирован. Он самокорректирующийся, самовосстанавливающийся, и вы получаете хорошие результаты. Это дает руководителям бизнеса возможность анализировать данные самостоятельно, даже если данные хранятся в сложных системах, визуализировать их самостоятельно, не зная Python, JavaScript, C или SQL. Я думаю, что это действительно дает возможность и открывает новые бизнес-возможности и создает новую бизнес-ценность.

Conor: Приблизительно полгода назад мы обсуждали генеративный ИИ и его роль в цепочке поставок, и в целом мы были немного скептически настроены. Когда вы слушаете о том, что было описано о достижениях только за последние шесть месяцев, у вас все еще есть та же точка зрения, или вы немного изменили свое мнение?

Joannes: Мое отношение остается глубоко скептическим по отношению к некоторым аспектам. Мое скептическое отношение было в основном реакцией на большинство конкурентов Lokad, которые говорят: “Мы просто применим ChatGPT напрямую к терабайтам транзакционных данных, и это будет работать”. Я считаю, что нет, я так не думаю. Я все еще очень скептически настроен, потому что это буквально не так. Если вы говорите, что то, что вы можете сделать, это перечислить несколько таблиц с схемами или позволить инструменту автоматически определить схему базы данных для вычисления таких анализов, как средний размер корзины, это совершенно другое предложение. Раньше это должно было выполняться через команду бизнес-аналитики. Я говорю о таких базовых вещах, как средний размер корзины, сколько времени в среднем мы удерживаем клиентов, сколько единиц мы продали в Германии - очень простые вопросы. В больших компаниях обычно есть десятки людей в отделах бизнес-аналитики, которые производят одноразовые отчеты целый день. Для таких вещей я считаю, что LLM действительно может помочь, но это абсолютно не то, что предлагают наши конкуренты. Они говорят: “У вас есть эти модели, вы даете им свою терабайтную базу данных, вы даете им доступ к Twitter и Instagram, и у вас есть ваше планирование, ваше принятие решений, все, и это полностью автоматизировано”. Я говорю нет, даже близко. Мы находимся в мире фантазий.

Rinat: Относительно вашего ответа на этот вызов, у меня есть две мысли, которыми я хотел бы поделиться. Во-первых, о процессе использования LLM для обработки больших объемов данных, я работаю с различными LLM уже довольно долгое время. Одним из первых вопросов, который обычно задают клиенты, является возможность запуска чего-то подобного ChatGPT локально на их серверах. Чтобы ответить на это, требуется провести сравнительный анализ LLM в различных конфигурациях и определить затраты. LLM довольно дорогие. Запуск одного мегабайта текста через LLM для предсказания может стоить несколько евро, в зависимости от модели. Если вы хотите запустить его локально на лучших доступных моделях, это может стоить вам 10 или, возможно, 20 евро.

И это то, что делает GPT-3.5; это очень дешево. Но дело в том, что даже невозможно запустить терабайты или петабайты данных через LLM. Во-вторых, LLM плохо работают с числами. Если кто-то просит LLM выполнить математические вычисления или перечислить простые числа, это неправильное использование. LLM - это лингвистические модели; у них есть большая база знаний и они очень интеллектуальны, хотя у них все еще есть ограничения. Вы не задаете LLM математическую задачу; вместо этого вы просите его сформулировать задачу, а затем вычисление передается специализированному ядру Python или чему-то другому, что сделает это гораздо лучше, чем тратить операцию на LLM.

Самые интересные вещи происходят на стыке разных областей. Например, у нас есть обширная числовая область с одной стороны, текст или мягкие и нечеткие случаи на другой стороне, и код в качестве третьей части. Код не является числом, это не текст, это структурировано, но проверяемо, и LLM отлично справляются с этим. Это создает новые случаи, которые могут быть применимы для цепочки поставок, расширяя применимость решений, подобных Lokad, еще дальше.

Например, один случай, когда я применял LLM для анализа больших объемов текста вне возможностей LLM, заключается в формулировке проблемы для LLM. Например, поиск текста в сотнях гигабайтов ежегодных отчетов по всему миру или помощь в решении числовой проблемы без фактического вычисления. Вы разрабатываете теорию о том, как подойти к этому, потому что вы умны, вы знаете предысторию, и это контроли, которые вы даете вам.

Когда речь идет о поиске по огромной базе данных, я прошу LLM в определенном синтаксисе предложить поиски встраивание, над которыми я буду работать, предложить список стоп-слов или список ключевых слов, которые усиливают. Затем другая система, специализированная на этом и очень хорошо работающая в масштабе, возьмет этот хорошо структурированный запрос от LLM и выполнит его. Именно здесь находится лучшая часть, потому что LLM способны уточнять поиски.

Вы возвращаетесь к LLM и говорите: “Вот была моя исходная проблема, это то, что вы о ней подумали, это запрос, который вы придумали, и это мусор, который он вернул. Пожалуйста, отрегулируйте и адаптируйтесь.” Поскольку работа с LLM практически бесплатна, вы можете сделать десять итераций, может быть, вы проведете цепочку мыслей, может быть, дерево мыслей, с хорошими и плохими решениями, и затем все становится лучше. То же самое применимо к числовым областям. Например, менеджеры поставок хотят придумать идею, как лучше балансировать свои запасы. В теории они могут сказать: “Вот небольшая симуляция моей среды, которая, возможно, достаточно хороша, и вот как вы можете ее настроить. Теперь, пожалуйста, выполните нечеткое решение ограничений и попытайтесь придумать идеи, которые могут помочь мне лучше балансировать свои запасы.”

Это возможность, которая открывается, когда вы начинаете соединять несколько областей: числовую, код и текст, и используете лучшие инструменты, доступные для каждой области вместе.

Конор: Спасибо, Ринат. Йоанн, ваше мнение по этому поводу?

Йоанн: Просто чтобы прояснить для аудитории, интересная вещь заключается в том, что для многих проблем вы хотите подойти к ним с помощью LLM и сказать: “Пожалуйста, составьте программу, которая решит проблему.” Вы не скажете: “Я хочу, чтобы вы решили проблему.” Вы скажете: “Составьте программу, а затем я научусь программе.” Есть и другие трюки, такие как дать LLM компилятор для проверки, компилируется ли программа, или инструмент, который позволяет запустить программу немного, чтобы проверить, что вывод имеет смысл.

Речь не идет о том, чтобы LLM решал проблему напрямую; это посредничество. LLM создает программу, а затем использует что-то еще, что все еще является текстовым выводом, потому что если вы используете компилятор, компилятор попытается скомпилировать программу. Если это не работает, он выдает сообщение об ошибке. LLM очень любят обрабатывать сообщения об ошибках и исправлять связанные проблемы. Мы очень сильно в текстовой области.

В большинстве случаев для цепочки поставок будет характерно посредничество. Мы хотим, чтобы LLM составил программу, которая решит то, что мы пытаемся сделать. Например, с исходной проблемой поиска оборота в Бельгии за прошлый год для клиентов свыше 1 миллиона евро LLM не будет брать данные из базы данных для этого. Он составит SQL-запрос, который будет выполняться вашей базой данных. Опять же, посредничество.

Что это означает для корпоративного программного обеспечения? У вас есть ли в составе вашей корпоративной программной среды платформы, которые поддерживают выполнение вашей цепочки поставок, по крайней мере, уровень принятия решений, с программной возможностью? LLM не будет брать сырые транзакционные данные для получения результата; он возьмет постановку проблемы, составит программу, и он очень гибок в том, какую программу он может составить. Но затем что-то в вашей среде должно выполнить программу. Какую среду программирования вы можете предоставить LLM?

Большинство классического корпоративного программного обеспечения не предоставляет никакой среды. У них просто есть база данных с языком, который вы можете использовать, но единственный способ взаимодействия, скажем, с большой ERP-системой, которая должна позволить вам оптимизировать свой инвентарь, - это ручная настройка параметров минимального и максимального уровней запасов или резервного запаса для каждого продукта. LLM может сказать вам, какую рецептуру вам нужно применить, но если вы хотите ее применить, вам придется пройти через ручные настройки ERP-системы. Если ERP-система предоставляет API, она может составить программу, которая позволит вам делать это в масштабе через API, но это все равно очень громоздко по сравнению с наличием нативного программного решения. Оно все равно будет посредством фреймворка.

Это требует некоторых глубоких изменений и вводит программирование решения как гражданина первого класса. Бесстыдная реклама, у Lokad есть программная платформа. Мы не делали ее для LLM, это была в основном удача, но мы все равно сделали это 10 лет назад, чтобы иметь такое программное мышление в основе платформы и как гражданина первого класса. Это был шанс, а не прозорливое понимание того, что произойдет десять лет спустя с LLM.

Conor: Спасибо, Йоаннес. Я помню о времени каждого, поэтому, как обычно, Ринат, я передам вам слово для заключительной мысли. Есть ли что-то, что вы хотите сказать всем, кто смотрит?

Ринат: В прошлой истории было несколько пузырей, таких как пузырь дот-ком и финансовый пузырь. LLM и искусственный интеллект также могут быть пузырем, а могут и не быть. Даже моя мама знает о ChatGPT и как его использовать, что интересно. Я призываю всех не бояться наших машинных повелителей, потому что Skynet не будет работать так легко. Как человеку, который пытается стабилизировать эти вещи в производстве, это требует много усилий, и оно не работает надежно и легко. Поэтому, во-первых, не бойтесь LLM, а во-вторых, просто примите их. LLM вместе с людьми и бизнесом могут создавать гораздо большую ценность, особенно при поддержке специализированных инструментов, таких как прогнозирование Lokad, которые отлично интегрируются в среду.

Conor: Спасибо, Ринат. Йоаннес, большое спасибо за ваше время. Ринат, большое спасибо за то, что присоединились к нам снова. И спасибо всем за просмотр. Увидимся в следующий раз.