00:00:01 Введение и обсуждение генеративного ИИ.
00:01:11 Исследование генеративной проблемы и ее решений.
00:02:07 Обсуждение эволюции и прогресса генеративного ИИ.
00:03:02 Вехи в машинном обучении и доступность инструментов.
00:04:03 Обсуждение особенностей и результатов инструментов ИИ.
00:05:00 Популярность и доступность генеративного ИИ.
00:06:33 Генерация изображений с помощью Stable Diffusion, становится доступной.
00:07:37 Обсуждение доступности инструментов генератора.
00:08:43 Объяснение генерации объектов высокой размерности.
00:09:38 Проблемы и улучшения в размерностной емкости.
00:10:07 Исследование генерации текста и его ограничений.
00:11:15 Обсуждение последовательности на разных масштабах.
00:12:24 Переход к теме специфичности и универсальности генератора.
00:13:46 Сравнение выходных данных, сгенерированных ИИ, с человеческими.
00:14:59 Обсуждение моделей машинного обучения и генерации языка.
00:15:51 Исследование метода вырезания и вставки в ИИ.
00:16:30 Подчеркивается отсутствие здравого смысла у ИИ.
00:17:26 Упоминание о производительности ChatGPT в IQ тесте.
00:18:45 Обсуждение понимания ИИ и примеров.
00:19:47 Поверхностное понимание ИИ и смешение высокой размерности.
00:20:41 Сложность искусственного интеллекта и его история.
00:21:58 Неизвестные элементы и прогресс интеллекта ИИ.
00:22:25 Обсуждение изменяющегося восприятия интеллекта.
00:23:45 Взгляды на глубокое обучение и искусственный интеллект.
00:24:24 Концепция скрытого знания в человеческих языках.
00:25:59 Понимание вселенной в древние и современные времена.
00:27:02 Введение в концепцию ‘антихрупкости’ из книги Насима Талеба
00:28:01 Антихрупкость в экосистемах и человеческих обществах
00:29:31 Критика способности ChatGPT генерировать ‘интеллектуальный’ дискурс
00:31:05 Рассмотрение применений генеративного ИИ в предприятиях.
00:31:37 Потенциальная роль генеративного ИИ в управлении цепочкой поставок.
00:33:34 Ограниченные возможности ChatGPT в областях с недостатком данных.
00:35:00 Предостережение от использования кода, сгенерированного ИИ, в критических системах.
00:36:04 Преимущества ИИ для цепочки поставок и сопутствующих деятельностей.
00:37:37 Обсуждение тенденции к более широкому корпусу для завершения кода.
00:38:45 Сравнение требований к параметрам: ChatGPT против меньшего генератора.
00:40:45 Последствия генеративного ИИ на предприятие и цепочку поставок.
00:41:19 Обсуждение взглядов Лавкрафта на глубокие истины вселенной.
00:42:01 Связь злоупотребления технологией с программным обеспечением для цепочки поставок.
00:42:56 Опасения по поводу создания и проверки поддельных кейс-стади.
00:44:04 Критика неопределенных маркетинговых утверждений конкурентов Lokad.
00:45:10 Обсуждение ограничений языковой модели ИИ.
00:46:08 Объяснение специфики ИИ в технологии.
00:47:00 Важность конкретной терминологии в ИИ.
00:48:01 Аналогия покупки окон с пониманием ИИ.
00:48:48 Обсуждение проблем интеграции архитектуры программного обеспечения.
00:50:14 Важность основного дизайна в корпоративном программном обеспечении.
00:50:54 Пример основного дизайна в транзакционной базе данных.
00:51:48 Необходимость правильного дизайна и интеграции программного обеспечения.
00:52:52 Советы по оценке технологии поставщика.
00:53:36 Важность публикации достижений в технологии.
00:54:20 ИИ как модное слово и проверка поставщиков.
00:55:25 Заключительные замечания и окончание интервью.

Резюме

В этом интервью Жоанн Верморель, основатель Lokad, обсуждает состояние и влияние генеративного ИИ, особенно сосредоточившись на таких достижениях, как ChatGPT и стабильное диффузионное. Верморель объясняет генеративный ИИ и его историю, подчеркивая постепенный прогресс, достигнутый в генерации изображений и текста. Он упоминает о пользовательской дружелюбности недавних инструментов, таких как Stable Diffusion и ChatGPT, которые улучшили показатели успеха и доступность. Верморель подчеркивает ограничения текущих моделей ИИ в отношении здравого смысла и истинного интеллекта. Он также обсуждает проблемы и потенциал ИИ в управлении цепочками поставок и критикует неопределенные и вводящие в заблуждение утверждения некоторых компаний о своих возможностях ИИ. Верморель подчеркивает важность понимания базовой технологии и призывает к осторожности при оценке решений ИИ.

Расширенное резюме

В интервью между ведущим Конором Дохерти и Жоанном Верморелем, основателем Lokad, они обсуждают текущее состояние и влияние генеративного ИИ, в частности, сосредоточившись на таких достижениях, как ChatGPT для текста и Stable Diffusion для изображений.

Верморель начинает с определения генеративного ИИ как совокупности предложенных решений для генеративной проблемы, которая включает разработку алгоритма или метода для создания еще одного экземпляра цифрового представления коллекции объектов. Он упоминает, что такие проблемы существуют уже десятилетиями и для узких приложений были успешные генераторы. Например, генераторы использовались для создания названий реалистично звучащих мест в Англии или названий для романа Стивена Кинга.

Также, в области генерации изображений, были генераторы, способные создавать карту, которая выглядит как место действия из “Властелина колец”, включая горы, леса, побережья и фантастические названия. Прогресс в этой области, по словам Вермореля, был постепенным с целью сделать генераторы более широкими и все больше зависимыми от входных наборов данных, а не от обширного набора предварительно закодированных правил.

Выделяя два заметных достижения, достигнутых в прошлом году широким сообществом машинного обучения, Верморель ссылается на ChatGPT для текста и стабильное диффузионное изображение. Несмотря на то, что это были значительные шаги вперед, делающие эти инструменты более доступными, он настаивает на том, что они были постепенными, а не прорывными, не представляя новых открытий в статистике, математике или информатике.

Однако факт того, что эти инструменты были упакованы и отполированы достаточно, чтобы любой человек мог начать их использовать в течение нескольких минут, был определенно заметным. Это контрастировало с ранее созданными генеративными инструментами, которые, хотя и способны генерировать впечатляющие изображения или текст, часто имели множество причуд и требовали определенной степени экспертизы для эффективной работы.

Stable Diffusion и ChatGPT выделялись благодаря своей дружественности к пользователю. Например, с помощью стабильной диффузии можно было ввести простой запрос, такой как “красивый замок посреди леса”, и получить правдоподобное изображение в 20% случаев. Хотя это было далеко от совершенства, это представляло собой значительное улучшение по сравнению с предыдущими техниками генерации, которые имели только 1% успеха.

Это означало улучшение на порядок, что нашло отражение, когда Верморель говорит о ChatGPT. Как и в случае со стабильной диффузией, введение ChatGPT означало переход к более дружественным для пользователя, доступным инструментам в области генеративного ИИ.

В этом сегменте интервью Конор Дохерти и Жоанн Верморель, основатель Lokad, обсуждают недавнюю эволюцию и влияние моделей Generative Pre-trained Transformer (GPT). Верморель подчеркивает, что популярная модель ChatGPT не является принципиально новой, а скорее переупакованной и более доступной версией существующей технологии. Он отмечает 2022 год как веху, когда генеративный ИИ стал широко доступен для общественности, в основном благодаря улучшениям в области удобства использования.

Затем разговор переходит к конкретным случаям, когда модели GPT оказали значительное общественное влияние. Верморель обращает внимание на релизы прошлого года, такие как Stable Diffusion и третья итерация ChatGPT. Привлекательность и успех этих моделей, по его словам, заключаются в усилиях, приложенных исследовательскими командами для упаковки этих технологий в удобном для пользователя виде.

Верморель приводит примеры этой доступности. Он отмечает, что стабильная диффузия, инструмент для генерации изображений, была выпущена как программное обеспечение с открытым исходным кодом. Это позволило пользователям с минимальным опытом работы с Python настроить программную среду Python примерно за два часа и самостоятельно изучить инструмент. Верморель подчеркивает, что для использования стабильной диффузии не нужно быть профессиональным программистом на Python; достаточно базового понимания выполнения командной строки.

Он также упоминает о доступности онлайн-уроков и запуске бесплатного пользовательского интерфейса, Dream Studio, который позволяет пользователям генерировать до 100 изображений бесплатно. Для последующих партий изображений пользователям нужно платить плату, модель, которая также применяется к веб-приложению GPT.

Жоанн Верморель изначально объясняет сложность создания изображения высокой размерности, приводя пример изображения 1000x1000 пикселей, которое по сути равно трем миллионам размерностей, учитывая три основных цвета. Он также упоминает, что первые итерации были ограничены емкостью 512x512, хотя улучшения в процессе.

Аналогично обсуждается проблема генерации текста. Верморель объясняет, что размерность в генерации текста возникает из двух направлений. Первое относится к размеру ввода или запроса, который может варьироваться от строки до нескольких абзацев или даже страниц. Второе включает, насколько далеко может продвинуться генерация, прежде чем модель начнет терять последовательность.

Верморель указывает на ограничения текущих моделей, поскольку они не могут производить целую книгу последовательно от начала до конца. Проблемы увеличиваются с размером текста: одно слово требует локальной последовательности, предложение требует последовательности в более крупном масштабе, абзац еще большего, а книга потенциально включает миллионы или десятки миллионов абстрактных размерностей.

Затем разговор переходит к обсуждению аспекта “щедрости” в этих моделях. Верморель трактует это как способность модели решать различные проблемы или генерировать разнообразные результаты. Интересное развитие в последние пять лет, как утверждает Верморель, - это способность сообщества глубокого обучения использовать огромные наборы данных.

Будь то текстовые данные из различных источников, таких как Википедия, веб-форумы или юридические тексты, модели глубокого обучения продвинулись в генерации разнообразных результатов. Теперь они могут производить все, от поэзии до юридического языка, кода или даже геномных последовательностей при правильном запросе. То же самое относится к изображениям, где результаты могут варьироваться от пиксельного искусства до фотореалистичных изображений или различных стилей живописи.

Конор Дохерти спрашивает Жоанна Вермореля о сложности моделей ИИ, таких как ChatGPT, по сравнению с людьми. Верморель развивает понятие сложности, объясняя, что это сложно из-за необходимости определить и прояснить его значение. В ответ на возможное применение теста Тьюринга он заявляет, что текущее состояние моделей ИИ в значительной степени зависит от смешения огромных объемов данных, извлеченных из огромного корпуса текстов.

В какой-то степени он утверждает, что то, что производит ChatGPT, это своего рода продвинутый процесс “вырезать и вставить”, склеивающий фрагменты текста, найденные в интернете. Он признает, что сила модели заключается в способности сшивать эти куски грамматически и синтаксически правильно, определяя высокоуровневые статистические закономерности, которые существуют между словами, фразами и предложениями. Верморель подчеркивает, что полученный текст может звучать как написанный человеком, но это в основном воспроизведение существующего человеческого контента.

Однако Верморель смягчает обсуждение, подчеркивая, что эти модели не обладают здравым смыслом. Он приводит пример из главы AI в Facebook, который утверждает, что даже самые продвинутые модели ИИ не обладают здравым смыслом кошки. Это связано с тем, что ИИ в основном работает на статистических связях и не обладает интуитивным пониманием, которое идет вместе со здравым смыслом. Он иллюстрирует эту точку забавным сценарием, где модель ИИ предлагает маршрут GPS для обхода пробок в середине Атлантического океана, не замечая абсурдность ситуации.

Чтобы дальше осветить ограничения текущего ИИ, Верморель обсуждает эксперимент исследования Amazon, в котором ChatGPT был подвергнут серии тестов на IQ. Результаты показали, что модель ИИ находится примерно на стандартное отклонение ниже нормы, что согласуется с его взглядом на ИИ, в основном склеивающий информацию без врожденного понимания, которым обладают люди.

Однако он подчеркивает, что даже человек с ограниченными когнитивными способностями намного умнее кошки. Это сравнение служит для подчеркивания того, что даже со всеми своими впечатляющими способностями, ИИ далек от соответствия уровню интеллекта кошки, не говоря уже о человеке. Верморель напоминает нам, что несмотря на наше восприятие когнитивных ограничений кошки, мы все еще далеки от создания модели ИИ с сопоставимым интеллектом.

Этот разговор подчеркивает сложность ИИ, процесс создания текста ИИ и текущие ограничения ИИ в отношении здравого смысла и внутреннего понимания. Он дает ценную перспективу на состояние ИИ и его текущие возможности, сдерживая ожидания относительно его непосредственного будущего.

Верморель развивает идею о том, что понимание мира ИИ невероятно поверхностно. Он описывает процессы, которые используют эти модели, как “высокомерное смешение входных данных”. Он также рассматривает возможность того, что с более сложными моделями это может быть достаточно для достижения интеллекта, но он подозревает, что настоящий интеллект может быть более сложным.

По его мнению, путь ИИ больше связан с определением того, что интеллект не является, а не с определением того, что он является. Этот процесс уточнения продолжается уже около 70 лет. Он определяет прорыв глубокого обучения в 2011-2012 годах как значительную веху, которая позволила множеству приложений, приведших к существенным открытиям. Однако он подчеркивает неопределенность в этой области. Он предполагает, что наше понимание интеллекта может потребовать переопределения каждый раз, когда разрабатывается новая техника ИИ.

Затем ведущий задает Верморелю вопросы о улучшении производительности ИИ в разных итерациях, сосредоточившись на ChatGPT. Верморель соглашается, что генеративный ИИ, включая ChatGPT, значительно улучшился со временем, но он отмечает сложность количественной оценки необходимых улучшений для преодоления существующего пробела в понимании ИИ концепций.

В ответ на вопрос Догерти о том, насколько лучше должна быть четвертая итерация ChatGPT, Верморель откровенно признает отсутствие уверенности. Он подчеркивает, что проблема не просто в линейном прогрессе. Основная проблема, по его мнению, заключается в том, что мы не знаем, чего нам не хватает в нашем понимании интеллекта.

С исторической точки зрения Верморель отмечает, что сто лет назад интеллект человека мог оцениваться по его способности выполнять сложные математические задачи, такие как инвертирование матрицы. Однако наше понимание и меры интеллекта значительно изменились с тех пор. Развитие ИИ, как он намекает, может пройти похожие трансформации, поскольку мы продолжаем исследовать и ставить под сомнение наши представления об интеллекте. Сто лет назад способности, такие как инвертирование матриц или вычисление 20 цифр числа пи, считались признаками высокого интеллекта. Сегодня, однако, эти задачи считаются механистическими, достижимыми с помощью простого карманного калькулятора, что вызывает вопросы об их связи с интеллектом. Он отмечает, что компьютеры, несмотря на то, что они во много раз лучше людей в этих задачах, не считаются умными.

Дискуссия Вермореля переходит к возможностям и последствиям ИИ, особенно сосредоточившись на генерации с использованием глубокого обучения. Он предполагает, что ИИ обнаружил множество задач, которые на первый взгляд кажутся невероятно сложными, но могут не отражать интеллекта так, как это изначально предполагалось. В качестве примера он рассматривает способности генерации текста ChatGPT. Вместо демонстрации того, что такое интеллект, Верморель предлагает, что это показывает, что такое интеллект не является. Он видит ChatGPT больше как отражение огромного количества скрытых знаний внутри человеческого языка, чем демонстрацию истинного интеллекта.

Расширяя концепцию скрытых знаний, Верморель описывает их как совокупный итог понимания и знаний человека, которые неявно представлены в языке. Эти скрытые знания часто записываются в структурированных формах, таких как базы данных, карты и другие, содержащие детали, такие как химические свойства, сопротивление материалов и точки плавления. Однако Верморель утверждает, что язык также воплощает значительную часть этих знаний. Он утверждает, что слова и фразы, которые мы используем, отражают наше коллективное понимание вселенной. Например, утверждение, что ‘планеты вращаются вокруг звезд’, предполагает понимание астрофизических концепций.

Эти скрытые знания, как он предполагает, встроены даже в самые простые формы лингвистического выражения, такие как определения словаря, которые могут охватывать большую часть современной науки. Он дальше утверждает, что отсутствие определенных слов или концепций может помешать признанию некоторых форм знания. Чтобы проиллюстрировать это, он ссылается на книгу “Антихрупкость” Нассима Талеба. Он разъясняет концепцию “антихрупкости” - термин, который Талеб придумал, чтобы описать состояние, которое не только сопротивляется хаосу и беспорядку, но и процветает и улучшается в таких условиях. Это контрастирует с чем-то “хрупким”, что разрушается под влиянием беспорядка, или чем-то “прочным”, которое просто выдерживает хаос на более медленном темпе. Верморель считает эту концепцию значимой, поскольку она ввела новую перспективу для понимания различных систем, от экосистем до человеческих обществ.

Их обсуждение распространяется на внутреннюю связь между языком и знанием. Верморель показывает, как введение нового термина или концепции, такой как “антихрупкость”, может значительно обогатить понимание, хотя это может быть сложно для понимания из-за ограничений языка. Он подчеркивает роль языка в выражении и передаче знаний.

Переходя к теме искусственного интеллекта, Верморель обсуждает явление скрытых знаний, присутствующих в языке. Он указывает, что эти скрытые знания играют важную роль в таких приложениях, как ChatGPT от OpenAI, модель, способная генерировать текст, похожий на человеческий. Верморель критически описывает ChatGPT как “генератор банальностей”, приписывая его кажущуюся интеллектуальность его склонности собирать широко принятые идеи или идиомы из огромных, разнообразных наборов данных.

Несмотря на свою критику, Верморель признает впечатляющую способность ChatGPT генерировать связный и контекстуально подходящий контент даже в областях, с которыми пользователь может быть не знаком. Эта особенность, как он предполагает, обусловлена тем, что ChatGPT обучается на сверхмассивном наборе данных, состоящем из миллионов страниц текста из чрезвычайно разнообразных областей.

По мере продвижения разговора они размышляют о практическом применении генеративного AI, такого как ChatGPT, в контексте предприятия и управления цепочками поставок. С точки зрения Вермореля, влияние генеративного AI на управление цепочками поставок вряд ли будет значительным, по крайней мере, в прямом смысле. Однако он также подчеркивает сложность прогнозирования будущего, намекая на то, что область и потенциал генеративного AI могут все еще развиваться и удивлять нас в будущем.

Верморель утверждает, что несмотря на растущее значение и возможности технологий AI, они могут не оказать существенного влияния на оптимизацию цепочек поставок. Он объясняет это тем, что эти модели процветают на больших, свободно доступных источниках информации, таких как веб, где они анализируют изображения и текстовые теги. Однако данные, критические для управления цепочками поставок - история транзакций, например - специфичны для каждой компании и не распространяются открыто или легко доступны. Поэтому текущая форма этих инструментов AI может не иметь необходимой информации для эффективной оптимизации цепочек поставок.

Сосредоточившись на примере продаж дверных рам, Верморель объясняет, что общие данные о дверных рамах менее полезны для планирования цепочек поставок, чем специфическая история продаж дверных рам компании. Он подчеркивает, что эти данные, скрытые в силосе компании, дают более точный прогноз того, что заказывать, производить и запасать. Это подчеркивает тот факт, что технологии AI, такие как ChatGPT, которые работают лучше с широко доступными данными, могут быть менее эффективными, когда релевантные данные скудны.

Однако Верморель признает, что модели языка AI могут быть ценными для некоторых задач. Например, ChatGPT может помочь в генерации фрагментов кода из-за большого количества свободно доступного кода в Интернете, в основном на платформах типа GitHub. Эта доступность позволяет AI генерировать приемлемые фрагменты кода или программы, служа инструментом повышения производительности для программистов. Тем не менее, он предупреждает о необходимости тщательного контроля, поскольку сгенерированный AI код также может быть ошибочным.

Глядя в будущее, Верморель предполагает, что модели языка AI могут помочь в таких областях, как ведение заметок, корректура и составление резюме собраний. Например, они могут быть способны сжать двухчасовое обсуждение на собрании до двухстраничного резюме, сохраняя при этом критические детали. Однако, он предполагает, что в настоящее время инструменты AI, такие как ChatGPT, могут столкнуться с трудностями при выполнении таких задач из-за своих внутренних ограничений. Тем не менее, он верит, что в следующем десятилетии технологии AI будут развиваться для более эффективного выполнения таких задач.

Верморель определяет данные как основную проблему, указывая, что генеративные модели AI не обязательно хорошо справляются с внутренними сложностями данных цепочки поставок. Затем Догерти поднимает идею GitHub Co-pilot, инструмента, разработанного для помощи в кодировании, который даже может автономно производить приемлемое кодирование. Он задается вопросом, не лучше ли это подходит для решения поставленной задачи.

Верморель отвергает это, говоря, что GitHub Co-pilot и ChatGPT-3 имеют почти идентичные технологические основы - оба используют архитектуру Transformer. Различия заключаются в пользовательском опыте, при этом GitHub Co-pilot предлагает автозавершение при каждом нажатии клавиши, в то время как ChatGPT-3 больше ориентирован на диалог. Верморель предсказывает, что лучший инструмент для завершения кода, вероятно, будет использовать более широкий корпус, чем просто код.

Продолжая, Верморель ссылается на недавнюю статью от команды Amazon. В ней обсуждается перспективный генератор, который объединяет изображения и текстовые данные, утверждая сопоставимую, и иногда превосходную, производительность по сравнению с ChatGPT-3, но с меньшим количеством параметров (миллиард по сравнению с сотней миллиардов у ChatGPT-3). Эта идея, говорит Верморель, интригует, потому что она предполагает, что смешивание более разнообразных типов данных может создать модель, которая проще, но более мощная.

Верморель подчеркивает парадоксальное наблюдение в разработке моделей AI: большие модели, как ChatGPT-3, не обязательно лучше. Он ссылается на Stable Diffusion, модель, значительно более стройную и быструю, чем ее предшественник, Generative Adversarial Network, несмотря на то, что она состоит всего из миллиарда параметров. Неясно, говорит Верморель, необходимы ли модели такого большого размера, как ChatGPT-3 (который попадает в диапазон триллионов параметров).

Усиливая эту точку зрения, он снова упоминает исследование команды Amazon, утверждая, что они почти воспроизвели производительность ChatGPT-3 с моделью на миллиард параметров. Этот меньший размер, объясняет он, позволяет работать на обычных графических картах, которые можно найти в современных ноутбуках и рабочих станциях. Это открывает путь к более широкому доступу.

Возвращаясь к начальной теме, Догерти спрашивает, приносит ли генеративный AI сетевые положительные или отрицательные последствия, в частности для предприятий и, более конкретно, цепочек поставок.

Верморель объясняет, что прогресс в науке и технологии в целом хорош, противореча Лавкрафту, который считал, что во Вселенной есть определенные глубокие или глубокие истины, которые настолько жестоки и враждебны человеческому разуму, что если их обнаружить, они сводят его с ума.

Верморель признает, что любой инструмент, начиная с каменного века, может быть использован или злоупотреблен. В контексте программного обеспечения для предприятий в области цепочек поставок, он опасается увеличения путаницы из-за неправильного использования технологии, в частности искусственного интеллекта. По его мнению, поставщики уже переоценивают AI, и это может ухудшиться с созданием их маркетинговыми отделами бесконечных фальшивых кейс-стади. Это может привести к еще более вводящим в заблуждение заявлениям и непроверяемым кейс-стади.

Верморель объясняет, что в прошлом создание фальшивого кейс-стади требовало некоторых усилий, но теперь, благодаря AI, это стало без усилий. Он также указывает, что участники кейс-стади не имеют стимулов говорить, что преимущества, заявленные компанией, являются ложными. Они обычно подтверждают эти преимущества и приписывают некоторый успех себе. Верморель предсказывает, что эти технологии сделают ситуацию более запутанной.

Обсуждая маркетинговую стратегию своих конкурентов, Верморель выражает свое разочарование в ненадежном и неинформативном использовании термина “AI для цепочки поставок”. Он критикует их отсутствие прозрачности и то, как они умудряются писать длинные страницы, наполненные банальностями, не предлагая никакой существенной информации о своем продукте. Это затрудняет его понимание их технологии, ее функции, ее дизайна или принципов, которые ей руководствуют.

Верморель указывает, что подлинные приложения AI в оптимизации цепочки поставок включают в себя высокоспециализированные и технические подходы. Эти приложения основаны на конкретных алгоритмах или структурах, таких как архитектуры Transformer, генеративные сети или иерархические подходы. Он выражает потребность компаний быть точными и подробными о техниках AI, которые они используют. Его аргумент заключается в том, что утверждения о простом ‘использовании AI’ без конкретики часто вводят в заблуждение или вовсе безосновательны.

Чтобы проиллюстрировать свою точку зрения, Верморель сравнивает технологию AI с покупкой окна для дома. При покупке окна покупатель ожидает подробного описания продукта - из чего оно сделано, из дерева, алюминия или пластика? Одинарное или двойное остекление? Аналогично, когда речь идет об AI, Верморель считает, что компании должны предлагать подробное объяснение техник AI, которые они используют, и того, как они приносят пользу цепочке поставок. Он утверждает, что обобщенные или расплывчатые описания можно приравнять к продаже ‘универсальных окон’ без каких-либо конкретных данных.

Верморель расширяет эту аналогию, чтобы сделать критику термина ‘устойчивые окна’. Он утверждает, что такие расплывчатые описания добавляют больше путаницы, чем обеспечивают ясность. В том же духе он критикует компании, которые предлагают ‘отличный свет’ в отношении своих окон, предполагая, что это эквивалентно заявлениям об AI, которые не имеют конкретных доказательств или деталей.

Кроме того, Верморель предвидит, что использование технологий AI, таких как GPT (Generative Pretrained Transformer), увеличит путаницу в отрасли. Хотя эти инструменты могут генерировать маркетинговый материал и быть интегрированы в существующие технологические стеки с относительной легкостью, они могут не внести значительного вклада в общую функцию или оптимизацию цепочки поставок, если архитектура программного обеспечения не была спроектирована с учетом этих возможностей.

По его мнению, этот подход напоминает приклеивание дополнительного элемента к существующей структуре - это может не улучшить структуру или даже не иметь смысла в его применении. Верморель видит риск в дальнейшем злоупотреблении ‘реальными’ технологиями AI, поскольку компании могут интегрировать ценные алгоритмы в свои операции бессмысленными способами, способствуя путанице в отрасли, а не предлагая ценные прогрессивные решения.

Верморель критикует тенденцию к внедрению AI в оптимизацию цепочки поставок таким образом, который является неэффективным и, фактически, бессмысленным. Он указывает, что эти процессы часто не добавляют ценности к решениям, которые они должны улучшить. Чтобы поддержать свою точку зрения, Верморель приводит исторический образец итераций в исследовании операций, добыче данных и науке о данных, предполагая, что текущие тенденции, такие как когнитивный AI, могут быть больше того же самого.

По мнению Вермореля, если компания хочет максимально использовать AI как часть своего корпоративного программного обеспечения, интеграция должна быть на уровне дизайна. Он настоятельно выступает против “приклеивания” AI к существующему программному обеспечению, подчеркивая, что основной дизайн продукта может быть установлен только на стадии его создания. Попытка втиснуть AI в продукт после его создания оказывается чрезвычайно сложной и часто контрпродуктивной.

Когда его спрашивают об примере уровня основного дизайна, на который он ссылается, Верморель обсуждает транзакционные базы данных. Эти базы данных, созданные для обеспечения транзакционной целостности, не предназначены для использования технологий, таких как генераторы изображений или текста. По его мнению, эти разные парадигмы почти несовместимы, и достижение согласованности между ними не является данностью. Это требует тщательных дизайнерских рассмотрений и руководящего принципа, который обеспечивает совместимость внутри архитектуры программного обеспечения.

Верморель признает возможность иметь AI в качестве дополнения, которое находится на стороне существующего продукта, но он утверждает, что такое расположение редко приводит к надлежащей интеграции или синергии. Скорее, это усложняет программное обеспечение, вводя больше движущихся частей и потенциальных ошибок.

Его совет тем, кто рассматривает интеграцию AI в оптимизацию цепочки поставок, - тщательно расспросить поставщиков о их предложениях. Он призывает клиентов убедиться, что поставщик может объяснить свою технологию четко и разумно. Если поставщик не может это сделать, Верморель предполагает, что это может указывать на проблему с продуктом или пониманием поставщиком своей технологии.

Верморель завершает свою часть обсуждения, подчеркивая, что истинные достижения в технологии AI, такие как создание сложных моделей, часто становятся общедоступными через научные статьи и другие публикации. Эта открытость частично обусловлена гордостью разработчиков, достигших чего-то сложного. Он указывает, что эти достижения не являются хорошо укрепленными секретами, но открыто делятся для всего мира, что еще больше подчеркивает важность понимания основной технологии.

Верморель признает заметные достижения, достигнутые определенными компаниями в технологической отрасли. Он указывает, что компании, которым удается достичь определенных технических вех, часто публикуют подробные отчеты, чтобы поделиться тем, как они достигли своих успехов. Он видит это как общую тенденцию в отрасли, подчеркивая, что это признак реального технологического прогресса.

Затем Верморель критически относится к роли и восприятию AI в современном корпоративном мире. Он характеризует AI как модное слово, которое получило значительное распространение на рынке. Несмотря на широкое использование термина, он подчеркивает, что его значение настолько широко и часто неопределенно, что оно может охватывать почти все. Он предостерегает от слепого принятия утверждений поставщиков о своих возможностях AI, особенно когда они не могут предоставить точное описание того, что они предлагают под маркой AI.

Верморель настоятельно советует, что при общении с поставщиками, которые утверждают, что предлагают решения AI, необходимо проявлять бдительность, чтобы понять точный характер их предложений. Он предупреждает против доверия поставщику, чей продавец признает, что не обладает знаниями о технологии, которую они продают, отмахиваясь от этого как от области отдельной технической команды. Верморель считает это ясным индикатором, что компания может не обладать технологическим мастерством, которое она утверждает.

Он развивает эту мысль, предостерегая от попадания на риторику “мы нанимаем лауреатов Нобелевской премии, у нас есть Эйнштейны”. Он утверждает, что такие утверждения обычно являются дымовой завесой, созданной для убеждения потенциальных клиентов в их технической подготовке без каких-либо весомых доказательств. Чаще всего, как он утверждает, эти ситуации подразумевают, что за утверждениями нет ничего действительно новаторского или технологически продвинутого - это просто больше того же самого.

Заканчивая этот сегмент разговора, Доэрти выражает свою благодарность Верморелю за поделенные мысли, подчеркивая, насколько просветительским было обсуждение. Сегмент заканчивается благодарностью Доэрти аудитории за их время и внимание, обещая вернуться с более проницательными беседами в будущем.

Полный текст

Конор Доэрти: Генеративный AI сегодня везде, не только в цепочке поставок. Это плюс или минус? Здесь, чтобы объяснить нам, - Жоаннес Верморель. Добро пожаловать.

Жоаннес Верморель: Здравствуйте, Конор, рад видеть вас.

Конор Доэрти: Итак, если хотите, давайте немного разберемся. Что вообще такое генеративный AI? Какова его цель, ведь он сегодня везде?

Жоаннес Верморель: Да, генеративный AI - это по сути набор, коллекция предложенных решений для очень старой генеративной проблемы. Генеративная проблема возникает, когда у вас есть коллекции объектов в их цифровом представлении, и вы хотите найти алгоритм, метод, рецепт для создания еще одного экземпляра. Такие проблемы существуют уже десятилетия. Для конкретных, узких ситуаций было много генераторов. Например, десятилетиями существовал генератор, который мог создать название реалистично звучащего места в Англии или реалистично звучащее название для романа Стивена Кинга. Если вы хотели создать изображения, были генераторы, которые создавали карту, которая немного напоминала “Властелина колец”. Она несла в себе эту фэнтезийную средневековую атмосферу с маленькими горами, лесами, побережьями и фэнтезийными именами по всей карте. Идея иметь генератор витает уже десятилетия. Прогресс был довольно постепенным, путь состоял в том, чтобы сделать генератор более широким, используя больше входных наборов данных, а не обширный набор предварительно закодированных правил. Вот где мы находимся, десятилетия спустя. В прошлом году сообщество машинного обучения достигло двух очень заметных вех с ChatGPT-3 для текста и стабильной диффузией для изображений. Однако это были вехи с точки зрения доступности этих инструментов, а не обязательно фундаментального прорыва в статистике, математике или информатике. Это были первые продукты, которые были упакованы и отполированы настолько, что любой человек мог начать работать с ними за несколько минут и играть с ними. Что касается изображений, то уже более десятилетия существуют генеративные противоборствующие сети, которые могут создавать очень хорошие изображения. Но эти инструменты были полны капризов. Стабильная диффузия, с другой стороны, позволила пользователям вводить запрос, скажем, “красивый замок посреди леса”, и получать приличное изображение. Не идеальное, но достаточно приличное.

Конор Доэрти: Итак, речь идет о порядке улучшения доступности и удобства использования этих инструментов?

Жоаннес Верморель: Именно, то же самое с ChatGPT. Кстати, тот вид GPT, который стал популярным, на самом деле был моделью, которая уже существовала пару лет. Это было буквально то, что было переупаковано таким образом, что стало гораздо более доступным. Это было вопросом удобства использования. Вехой стал 2022 год, когда генеративный AI стал широко доступным, а не затуманенным. Ничего по-настоящему фундаментального не произошло; это было действительно вопросом чистой удобности использования.

Конор Доэрти: Я помню, когда я рос, были примеры тех генеративных сайтов, как “дайте мне имя Ramones”. Я использую этот знаменитый пример. Я думаю, что музыкант Childish Gambino сгенерировал свое имя через подобный сайт. Но я не был знаком с предыдущими версиями ChatGPT, потому что текущая версия - третья. Итак, что именно в прошлогодних релизах, таких как Stable Diffusion и третья версия ChatGPT, привлекло внимание публики? Они сейчас везде.

Жоаннес Верморель: То, что привлекло внимание публики, были усилия исследовательских команд по упаковке технологии. Stable Diffusion был выпущен как открытое программное обеспечение. Если вы были знакомы с окружением Python, даже если вы не знаете много о Python, вы могли настроить программное окружение примерно за два часа. Вы могли играть со всеми движущимися частями самостоятельно. Вам даже не нужно было быть программистом Python. Вам просто нужно было быть достаточно подкованным, чтобы выполнить серию командных строк. Были различные учебники. Stable Diffusion сделал генерацию изображений доступной, если вы могли играть с командной строкой. Это немного гиковато, но не чересчур. Был даже бесплатный пользовательский интерфейс, Dream Studio, где вы могли играть бесплатно с первыми 100 изображениями. После этого вам пришлось бы заплатить около десяти долларов за генерацию следующих 100 изображений. Open GPT также был веб-приложением. Просто небольшая регистрация и сегодня вам придется заплатить около 20 евро в месяц за доступ. Интересно, что в обоих случаях вы могли получить доступ к генератору в широком смысле за, скажем, час. Вам нужен немного опыта, чтобы начать ощущать инструмент, но это было на порядки меньше по сравнению с тем, что было раньше. С точки зрения истинного прогресса, интересно, что эти генераторы продвигались на два фронта на протяжении десятилетий. Один фронт - это размерность. Вы хотите иметь возможность генерировать объекты высокой размерности в широком смысле. Например, если вы хотите сгенерировать имя для римлянина или местоположение в Англии, это довольно низкоразмерная проблема. Нечто вроде 10 до 20 измерений, в зависимости от того, считаете ли вы количество букв или слогов. Но если вы хотите сгенерировать текст длиной в одну страницу, мы говорим о чем-то вроде нескольких тысяч измерений. Если вы хотите сгенерировать изображение размером тысяча на тысячу пикселей, вы сталкиваетесь с проблемой размером около трех миллионов измерений из-за трех основных цветов. Это значительное увеличение. Первоначальная версия Stable Division была ограничена 512 на 512 с точки зрения емкости. Они улучшают это, но эта высокая размерность была одним из значительных вызовов. Та же самая проблема возникла с текстом. Размерность проявляется в двух направлениях. Это количество текста, которое вы можете использовать в качестве вводного запроса, и оно может варьироваться от одной строки до нескольких абзацев или даже страниц. Затем встает вопрос, насколько далеко вы можете уйти в тексте, прежде чем генератор потеряет любую связность с самим собой. Эти модели ограничены. Они не могут генерировать целую книгу от начала до конца с тем, чтобы конец был согласован с началом. Одним из вызовов генерации текста является навигация по этим более высоким измерениям. Если вы генерируете одно слово, вам просто нужно быть последовательным на локальном уровне. Если вы генерируете предложение, оно должно быть последовательным в более широком масштабе, и так далее. Если это книга, вы имеете дело с, возможно, миллионами или десятками миллионов абстрактных измерений, которые также можно рассматривать как степени свободы или сложность объекта, который вы исследуете. Та же проблема существовала с изображениями. Одно из направлений прогресса - это движение к более высоким измерениям, сохраняя при этом последовательность. Если вы разделите вещь, проще сгенерировать два меньших изображения, чем одно большее и последовательное.

Конор Доэрти: Итак, когда вы говорите о этих больших измерениях, вы имеете в виду, что генератор должен поддерживать последовательность?

Йоаннес Верморель: Да, именно. Цель состоит в том, чтобы поддерживать запутанность и последовательность в сгенерированном объекте, независимо от его размера или сложности. Еще одно направление прогресса - универсальность. Вы говорите о генераторе, который специфичен для узкой проблемы, или это генератор, который может справиться с чем угодно? За последние пять лет сообщество глубокого обучения сделало огромный прогресс в использовании гигантских наборов данных. Если это текст, он охватывает все - Википедию, веб-форумы или любой другой текстовый источник. Таким образом, генератор, когда он правильно подтолкнут, может производить все, от поэзии до юридического языка, до кода, или даже советов по геному. То же самое относится к изображениям. У нас есть генераторы, способные создавать все, от пиксельного искусства до фотореалистичных видов или даже масляных картин. Речь идет о покрытии диапазона сложности и стиля.

Конор Доэрти: Когда вы говорите о размерности этих приложений, насколько сопоставимы выходные данные? Например, в ChatGPT, насколько сопоставимо эссе, сгенерированное через ChatGPT, по сравнению с тем, которое сгенерировано средним, скажем, человеком с образованием университетского уровня? Это сопоставимые уровни сложности? Мы уже там?

Йоаннес Верморель: В терминах сложности, это сложный вопрос. Нам пришлось бы определить и прояснить, что мы подразумеваем под сложностью.

Конор Доэрти: На самом деле, я могу вмешаться здесь. Допустим, мы используем тест Тьюринга так, что вы на самом деле не сможете определить, было ли это сгенерировано ChatGPT или студентом в классе.

Йоаннес Верморель: Это зависит, потому что эти модели, особенно генератор текста, работают путем смешивания огромных объемов корпуса. Некоторые люди проводили тесты, и в большой степени то, что пишет ChatGPT, буквально является вырезкой и вставкой материала, найденного где-то в Интернете. Сила модели заключается в ее способности склеивать эти куски так, чтобы они были грамматически и синтаксически правильными. Но речь идет в основном о выявлении высокоуровневых статистических закономерностей, которые существуют между словами, группами слов и предложениями, чтобы найти вещи, которые подходят друг к другу таким образом, которые статистически вероятны или правдоподобны. Звучит ли это как человек? Много, да. Но реальность заключается в том, что большая часть того, что она генерирует, может быть найдена в Интернете, взята с различных сайтов. Однако прорыв заключается в том, что это возможно, что было невероятно сложно. Речь идет не только о вырезании и вставке фраз. Речь идет о понимании высокоуровневых статистических зависимостей, чтобы они могли быть смешаны вместе таким образом, которые правдоподобны. Однако, когда дело доходит до здравого смысла, как прокомментировал глава AI в Facebook, ни один из этих генераторов не обладает здравым смыслом кошки. Это уровень понимания, с которым мы имеем дело. Это чисто статистические отношения. Например, задайте простой вопрос, такой как “Как мне избежать пробки в середине Атлантического океана?” и он может предложить получить лучший маршрут с более новым GPS, полностью пропустив юмор в вопросе. Речь идет о склеивании кусков текста на основе высокоуровневых статистических отношений.

Конор Доэрти: Я верю, что исследователи в Amazon подвергли ChatGPT серии тестов на IQ и обнаружили, что он примерно на стандартное отклонение ниже нормы, около 83. Это кажется согласуется с тем, что вы здесь говорите, просто склеивая куски информации вместе, которые выглядят так, как будто они принадлежат.

Жоаннес Верморель: Но я думаю, вы упускаете суть. Даже невероятно неинтеллектуальный человек, кто-то, кто не в состоянии комы, все еще намного умнее, чем кошка. Однако, что было предположено, и я склонен соглашаться, это то, что мы даже близко не подошли к чему-то такому умному, как кошка. Мы все еще очень далеки. Вы можете сказать: “О, но моя кошка совершенно неспособна рассказать мне что-нибудь о, скажем, теории относительности”. Однако, ChatGPT способен достаточно хорошо справиться с задачей дать мне пару абзацев введения. Это потому, что ChatGPT буквально будет вырезать и вставлять хорошую сводку этой теории из тысяч примеров, которые можно найти в интернете, смешать их вместе и переварить. Однако это не значит, что он что-то понимает. Даже кошка, например, понимала бы, что если есть что-то… Давайте приведем пример с GPT. Если вы спросите ваш GPT что-то вроде: “Трем машинам нужно два часа, чтобы доехать из города Парижа в город Тур. Если у вас шесть машин, сколько времени это займет?” GPT скажет вам: “Ну, шесть машин - это в два раза больше, чем три, поэтому это займет около четырех часов.” Опять же, если вы подумаете о кошке, и кошка думает: “Если у меня есть друг, я хочу пойти туда”, это займет столько же времени, будь то я или мой кошачий друг. Хотя кошка не будет формулировать вещи таким сложным образом, есть некоторое понимание этих очень базовых вещей о нашей трехмерной вселенной, о течении времени и так далее. Опять же, GPT невероятно впечатляет своей способностью, и то же самое относится к Stable Diffusion. Но вы могли бы видеть, что есть это своего рода невероятно поверхностное понимание, потому что все, что эти модели делают, это высокомерное смешивание входных данных. Возможно, это достаточно. Возможно, если мы продолжим по этому пути дальше с еще более сложными моделями, в интеллекте нет ничего больше, кроме накопления этих рецептов просто в более крупном масштабе. Но я подозреваю, что ситуация сложнее. Я подозреваю, что те осведомленные исследователи имеют много исследований, еще раз демонстрирующих, что вся история искусственного интеллекта - это прояснить, что такое интеллект. И это было как путешествие, путешествие, которое мы совершаем уже около 70 лет.

Конор Доэрти: Ну, я думаю, вы сказали ранее, что текущая версия ChatGPT и Stable Diffusion, или просто генеративный AI, примерно на порядок лучше, чем предыдущие версии. Да. Насколько лучше должна быть четвертая версия ChatGPT, чтобы преодолеть пропасть, которую вы только что описали?

Йоаннес Верморель: Мы действительно не знаем, потому что вот в чем дело. Всякий раз, когда происходит какой-то прорыв, и я верю, что здесь настоящим прорывом было глубокое обучение, а не эти приложения глубокого обучения. Глубокое обучение было прорывом около 2011-2012 года. Это был настоящий математический, концептуальный прорыв. Это приложения и очень сложные инсайты, которые были получены за последнее десятилетие. Но мы все еще действительно не знаем, чего нам не хватает. Это все еще очень открытый вопрос, и вы не должны думать о нем как о линейном прогрессе. Вот в чем проблема с интеллектом - мы не знаем, чего нам не хватает. Как только мы устанавливаем новый вид техники, это позволяет нам даже пересмотреть, что в первую очередь означает интеллект. Если бы мы вернулись на столетие назад и вы спросили: “Как можно установить, что один человек обладает превосходным интеллектом?” Если бы вы спросили профессоров в академии, они могли бы сказать что-то вроде: “Ну, если этот человек может инвертировать матрицу или вычислить первые 20 цифр числа пи, он обладает превосходным интеллектом.” Сегодня люди скажут, что карманный калькулятор может сделать это. Это совершенно механическая задача. В том, чтобы быть способным вычислить первые 20 цифр числа пи, нет никакого интеллекта. У вас есть простые рецепты, которые мы называем алгоритмами. Вы можете запустить их на компьютере и получить тысячи цифр. Это не делает вас умным ни в коем случае. Это была ситуация столетия назад, когда то, что считалось истинным отражением человеческого интеллекта, оказалось легкой частью механизации. Сегодня компьютеры буквально на 10 порядков, или даже на 15 порядков лучше людей в выполнении этих расчетов, но они вовсе не обладают интеллектом. По крайней мере, это общее мнение сейчас. То, что мы обнаружили с этим поколением AI, с глубоким обучением, - это то, что множество задач, которые на поверхности выглядят невероятно сложными или вызывающими, могут не отражать интеллекта так много. Например, ChatGPT больше говорит о том, чего нет в интеллекте, чем о том, что он на самом деле есть. Он говорит о том, что количество скрытых знаний в английском языке и всех человеческих языках огромно. Когда вы говорите “скрытые знания”, это означает, что, скажем, у нас есть это абстрактное, которое является суммой всех человеческих знаний. Есть базы данных, например, которые химики собирали в течение последнего столетия. Эти базы данных подробно описывают свойства каждого химического соединения. Так, у вас есть целая база данных, которая перечисляет сопротивление каждого известного на Земле материала, или точку плавления каждого материала на Земле. У нас есть карты, которые собирают знания в другой форме. Есть также некоторый вид скрытых знаний в самом языке. Слова, которые мы используем, отражают большое понимание, которое у нас есть о вселенной. Если мы говорим, что есть звезды и планеты, и что планеты вращаются вокруг звезд, это означает, что мы уже многое поняли о вселенной. Например, у древних греков было другое понимание того, что такое звезды и планеты. Предположение, что солнце - это звезда, как все другие звезды, теперь принято и является частью словарного запаса. Это часть скрытых знаний. Если бы вы просто посмотрели на определения, данные в словаре, вы бы многое узнали о том, что нужно узнать из современных наук. Сами слова рассказывают вам о состоянии знаний. Наоборот, иногда отсутствие слова мешает некоторому виду знаний даже существовать. Странный пример этой ситуации - книга “Антихрупкость” Нассима Талеба. Основная идея книги заключалась в определении настоящего противоположного хрупкому. Хрупким, по его определению, является то, что ухудшится при хаосе и беспорядке. Он утверждал, что быть прочным, твердым или крепким не делает что-то противоположным хрупкому. Эти характеристики только означают, что при хаосе и беспорядке оно будет разрушаться или деградировать медленнее. Талеб задумался, что будет настоящим противоположным, что-то, что при подвержении хаосу и беспорядку, улучшится. Эта абстрактная перспектива привела его к созданию термина “антихрупкость”, создавая совершенно новую перспективу на то, как смотреть на экосистемы, человеческие общества и многое другое. Введя это одно слово, он обогатил наши знания, хотя это может быть трудно понять, потому что способ, которым мы передаем знания, - это сам язык.

Конор Доэрти: Это возвращает нас к моей исходной точке. Блестящие результаты ChatGPT демонстрируют, что в самом языке содержится огромное количество скрытых знаний. Это объясняет, например, почему политик может дать вам десять модных слов дня, которые соответствуют причинам, которые вы хотите защищать. Они могут развернуть на этом основании целый дискурс и создать видимость того, что они говорят что-то умное, не предоставляя абсолютно никакого содержания.

Йоаннес Верморель: Интересно, что именно это делает ChatGPT. Когда вы даете инструменту подсказку, он склонен собирать все виды широко принятых идей, которые соответствуют здравому смыслу или доминирующей установленной перспективе. Представьте, если бы у вас был кто-то, кто отвечал бы на ваши вопросы только пословицами. ChatGPT делает это, но лучше, связывая банальности буквально из каждой области. Это впечатляет, потому что вы обычно даже не знакомы с тем, что будет банальностью в области, о которой вы ничего не знаете. В этом красота обучения генератора на основе сверхмассивного набора данных, который включает в себя миллионы страниц текста из супер разнообразных областей.

Конор Доэрти: Когда дело доходит до реального применения всего этого, на ваш взгляд или по вашей оценке, есть ли какие-либо полезные применения генеративного ИИ, когда речь идет, скажем, о предприятии или цепочке поставок?

Йоаннес Верморель: Предприятие - это очень широкое поле, поэтому я остановлюсь на цепочке поставок. Для цепочки поставок я бы сказал, что скорее всего нет, по крайней мере, не напрямую. Но предсказать будущее невероятно сложно. Причина, по которой я склонен думать, что эта волна генераторов не окажет массового влияния на цепочку поставок, заключается в том, что сила этих генераторов заключается в том, что они используют огромный объем окружающих знаний, которые в основном представляют собой веб, со всеми этими изображениями и тегами, которые вы можете получить бесплатно. Но когда речь идет об оптимизации цепочки поставок, наиболее релевантными являются ваши транзакционные данные. Если вы продаете, скажем, дверные рамы, вам не очень поможет знать много общих вещей о дверных рамах при планировании цепочки поставок. Ваша история продаж дверных рам в прошлом году говорит вам гораздо больше о том, что именно вы должны заказать, произвести и как вы должны распределить запасы. Таким образом, наиболее релевантные данные не всегда открыто делятся с миром. Они существуют в силосе вашей компании. Компании, в отличие от ChatGPT, искажены тем фактом, что эти инструменты лучше работают при обсуждении вещей, где много материалов доступны публично в Интернете. Если вы обсуждаете вещи, которые не широко публикуются в Интернете, ChatGPT быстро становится невежественным в этом. Очень конкретно, я бы сказал, если вы думаете о методах, которые могут быть использованы для любого вида оптимизации, я не уверен, просто потому что нужные входные данные отсутствуют. Однако эти инструменты могут потенциально стать важными для поддержки вашего развития. Например, ChatGPT действительно довольно хорош в помощи в создании фрагментов кода. Для кодирования, потому что это общий язык, означает последовательность символов, ChatGPT может генерировать теги, но и код. Из-за того, что в Интернете доступно гигантское количество кода, в основном через GitHub, но и многие другие места, у вас есть огромные базы кода, которые доступны для обучения ChatGPT. Таким образом, ChatGPT действительно способен составлять вполне приличные фрагменты кода или программы. В качестве инструмента для повышения продуктивности программистов есть много потенциала. Но, остерегайтесь, код, который генерирует ChatGPT, может быть таким же ложным, как и код, написанный людьми. Я бы не использовал его без тщательного контроля, если вы хотите разработать следующее поколение автопилота для самолета или автомобиля. Кроме того, я подозреваю, что технология, которая появится, будет вещами вроде записей минут собраний. Сейчас я не уверен, что ChatGPT сможет суммировать двухчасовую дискуссию в что-то вроде двух страниц, сохраняя максимальное количество деталей о том, что было сказано. Но, подобные инструменты, я уверен, что в течение следующего десятилетия смогут сделать это. Так что для цепочки поставок будет много преимуществ. Однако, я подозреваю, что большинство из них будут скорее на периферии, вещи вроде облегчения встреч, ведения записей, или лучших систем для проверки документов. Но основные проблемы и вызовы заключаются в данных, и эти генераторы не обрабатывают данные так, как они представляют себя в цепочках поставок.

Конор Доэрти: Разве нет других программ, специально разработанных для кодирования? Я имею в виду, ChatGPT - это текстовый генеративный ИИ, но есть GitHub co-pilot, который разработан для помощи в кодировании, и он сам может производить довольно приличное кодирование, верно?

Йоаннес Верморель: Нет, эти модели почти идентичны, почти взаимозаменяемы. Технология, которая стоит за ними, невероятно похожа. Они используют ту же архитектуру Transformer. Единственные различия - это небольшие вариации в корпусе и пользовательском опыте. GitHub copilot стремится предоставить автозавершение при каждом нажатии клавиши, в то время как ChatGPT больше ориентирован на диалог. Но различия действительно лишь тонкий слой шпона сверху. Внутри они одинаковы. Я подозреваю, что лучший инструмент для автозавершения кода будет построен на корпусе, который шире, чем код. Это иллюстрирует недавняя статья, опубликованная командой из Amazon. Они представили обещающий генератор, который объединяет данные изображений и текста, по сути объединяя их. Они даже утверждают, что превосходят ChatGPT по некоторым показателям, с сопоставимыми результатами по большинству других метрик. Однако относитесь к этому с осторожностью, поскольку определение хорошего генератора - это проблема, столь же сложная, как создание самого генератора. Однако интересно то, что их модель так же эффективна, как ChatGPT, но с миллиардом параметров, в то время как у ChatGPT почти в 100 раз больше параметров. Это предполагает, что, смешивая более разнообразные виды данных, вы можете иметь модель, которая более мощная и проще, что парадоксально. Например, модель ChatGPT гигантская, с диапазоном параметров в триллионах. Но неясно, необходима ли такая огромная модель. На самом деле, одним из прорывов Stable Diffusion по сравнению с другими моделями была модель, которая в два порядка быстрее и стройнее, чем замененная ею Generative Adversarial Network. У Stable Diffusion всего около миллиарда параметров, что делает его очень маленьким по сравнению с ChatGPT. Но недавно команда заявила, что они воспроизвели производительность ChatGPT с помощью модели, которая гораздо меньше, примерно размером с миллиард параметров. Это интересно, потому что это примерно тот же размер, который можно оперировать с графической картой, обычно встречающейся в ноутбуках и рабочих станциях сегодня.

Конор Доэрти: Ну, это в некотором роде возвращает нас к полному кругу к тому, что я сказал прямо в начале или в общем введении, это положительный или отрицательный итог? Теперь, в конкретном контексте предприятия или еще более детальной цепочки поставок, вы видите это, генеративный ИИ, как отвлекающий фактор, благо или проклятие?

Йоаннес Верморель: В общем, мое мнение состоит в том, что любой прогресс в области науки и технологий хорош. У меня нет этой любкрафтовской перспективы, знаете, где есть некоторые глубокие или глубокие истины вселенной, которые настолько жестоки и враждебны человеческому разуму, что если вы их обнаружите, вы сойдете с ума. Мое мнение не любкрафтовское. Я считаю, что в общем, это хорошо. Это определенно лучше, чем невежество. Теперь, как любой инструмент с каменного века, первый молоток мог быть сконструирован для охоты на животное или для убийства своих собратьев-людей. Так что это была проблема с технологией и может быть использована неправильно. Это была проблема тысячи лет. Эти виды технологий также могут быть использованы неправильно. Вероятные злоупотребления в области предприятий поставочной цепи будут увеличивать путаницу из-за шума. Поставщики уже безумно преувеличивают значение ИИ, и теперь они даже смогут настроить это до одиннадцати, позволив своему маркетинговому отделу просто крутить бесконечные поддельные кейсы. В прошлом создание поддельного кейса требовало некоторых усилий. Однако вы могли полностью подделать его, потому что никто никогда не будет проверять ваши утверждения. Большинство ваших утверждений невозможно проверить. И, как я описывал в своей лекции, никто в кейсе не имеет стимула говорить, что все миллионы, которые вы утверждаете, что сэкономили или заработали или сгенерировали, поддельные. У каждого, кто участвует в кейсе, есть огромный стимул сказать: “Да, все эти преимущества правдивы, и это все благодаря мне, по крайней мере, частично, если мы смогли достичь всего этого.” Так что мое мнение состоит в том, что ситуация станет еще более неясной, потому что эти команды собираются сойти с ума и генерировать еще больше ложных кейсов и заявлений и пустых страниц, которые описывают технологию. Я провел некоторое время на веб-сайтах многих конкурентов Lokad. Интересно то, что у вас может быть целые страницы текста, где вы его читаете, и в конце вы ничего не узнали. Они умудряются крутить банальности или вещи, которые ничего не говорят о том, что они на самом деле делают.

Конор Доэрти: Шарлатанство, это то, что мы говорим?

Йоаннес Верморель: Да, именно. Я всегда немного озадачен, когда просматриваю 10-страничную документацию об ИИ для цепочки поставок, и в конце не могу сказать ничего о том, что это такое, что оно делает, почему оно было создано таким образом, или какие видения лежат в основе этого. Это довольно смущает. Подозреваю, что в прошлом маркетинговые команды тратили дни на создание этих пушистых описаний. Теперь, используя генеративный ИИ, такое как ChatGPT, десятистраничное описание можно создать мгновенно. Так что, если вы сомневаетесь в достоверности контента, который утверждает, что в их оптимизации цепочки поставок есть ИИ, я бы сказал, что это в основном подозрительно. Не потому, что ИИ - это чушь, но потому, что он искажается в этом контексте. Когда мы говорим о генеративном ИИ, используются конкретные термины, такие как стабильное диффузионное, трансформерная архитектура и генеративная сеть. У этих техник есть названия. Профессионалы в этой области не просто говорят “Я занимаюсь ИИ”. Они более точны. Им нужны эти термины, чтобы описать свою работу. Эта точность развивается как часть возникающего процесса внутри сообщества. Люди, которые не могут удосужиться описать свою технологию подробно, часто прибегают к неопределенным терминам. Давайте возьмем простой пример. Если вы хотите купить окно для своего дома, продавец укажет материал рамы, количество слоев стекла и так далее. Если продавец просто говорит “Я продаю окна, поверьте мне, они хорошие” без каких-либо конкретных деталей, это вызывает вопросы. Если кто-то не может дать вам технические характеристики и вместо этого использует модные слова, такие как “устойчивый”, это ничего не проясняет. Это добавляет больше загадок. Это аналогично тому, что происходит с ИИ и ChatGPT. Эти инструменты могут генерировать запутанные маркетинговые материалы и дать поставщикам возможность включить их в свой технологический стек без создания чего-то существенного. Интегрировать эти инструменты в существующую архитектуру программного обеспечения довольно просто, но это будет гаджетом, если ваша существующая архитектура программного обеспечения не была спроектирована для оптимизации возможностей технологии. Всегда довольно легко приклеить еще одну деталь к программному обеспечению, но это не значит, что это сделает разницу или будет полезным. Поэтому, я считаю, что эта ситуация создаст дальнейшее путаницу. Это даст еще одну возможность поставщикам подключить какие-то реальные алгоритмы ценности, но такими способами, которые не имеют смысла. В конце концов, это не добавляет никакой ценности к решению, что является еще одной проблемой. Мы уже прошли несколько итераций этого с операционными исследованиями 50 лет назад, затем Data Mining, а затем data science. Теперь будут эти итерации когнитивного ИИ. Однако проблема в том, что если вы хотите максимально использовать эту технологию как корпоративное программное обеспечение, она не может быть просто дополнением. Она должна быть на уровне дизайна вашего продукта. Это основной дизайн, который вы не можете изменить впоследствии. Проблема с основным дизайном продуктов в том, что это то, что вы можете сделать только в начале. Вы не можете просто приклеить это к вашему продукту после того, как факт.

Конор Доэрти: Можете ли вы привести пример уровня основного дизайна, о котором вы говорите?

Йоаннес Верморель: Если у вас есть система, в которой в основе вашей системы у вас есть транзакционная база данных, разработанная для обеспечения транзакционной целостности, это здорово. Но этот дизайн ничего не сделает, чтобы использовать какой-либо генератор изображений или текста. Это полностью противоречит транзакционной перспективе. Вы имеете дело с транзакциями, но наличие какого-то инструмента, который может генерировать текст или изображение, это даже не та же область. Так что то, что я говорю, это то, что наличие чего-то подходящего не является данностью. Обычно это требует тщательного ухода за дизайном и руководящими принципами вашей архитектуры, чтобы вообще что-то подходило. В противном случае вы просто на отдельных путях. В программном обеспечении то, что вводит в заблуждение, это то, что всегда можно иметь продукт, а затем иметь дополнение, которое сидит на стороне. Но это не должным образом интегрировано, не связано, и между ними нет синергии. У вас просто более сложный беспорядок с большим количеством движущихся частей и большим количеством ошибок. Так что, с точки зрения баланса сил, я бы посоветовал не пытаться интегрировать это в оптимизацию цепочки поставок. Но если поставщик выдвигает это, вам действительно нужно исследовать, что именно они делают. Мой прощальный совет для аудитории будет таким: убедитесь, что если вы читаете страницу технологии этого поставщика, это имеет смысл для вас. Вам не обязательно быть экспертом. Если поставщик не способен объяснить так, чтобы это имело смысл, что такое их технология и что она делает, и какие техники она использует, это, скорее всего, красный флаг. Я никогда не видел за всю свою карьеру, чтобы компания, способная достичь чего-то сложного, скрывала это. Напротив, компании, которым удается достичь этой точки, более чем рады выставить свои достижения на всеобщее обозрение. Кстати, это верно для всех этих моделей - Stable Diffusion, ChatGPT и т.д. Эти достижения общественные. О них были опубликованы статьи. Это не хорошо укрываемые секреты. Напротив, компании, которым удается достичь этой точки технического достижения, часто публикуют очень подробные статьи о том, как они это достигли. Это очень типичное поведение. С моей точки зрения, основной совет заключается в том, что, хотя в ИИ есть много ценности, это всего лишь модное слово. Вы можете отнести почти все под этот зонтик. Поэтому, когда к вам подходит поставщик, важно понять, что именно они делают. Если человек, который продает вам, не имеет этого понимания, и если поставщик заявляет о незнании, говоря: “Я просто продавец, это техническая команда знает”, не доверяйте им. Если они говорят такие вещи, это указывает на то, что за их заявлениями нет существенной технологии. Это проверенная временем техника, которая используется на протяжении десятилетий: заявления о том, что они наняли лауреатов Нобелевской премии, хвастовство тем, что у них в задней комнате ‘Эйнштейны’, уверяя вас доверять им, потому что их команда невероятно умна. Однако, если они признают свое незнание о технологии и уверяют вас, что это остальная команда знает, это почти гарантирует, что их заявлениям не придается значение. Это просто больше того же самого.

Конор Доэрти: Ну, на этой ноте, спасибо, Йоаннес. Я многому научился. Спасибо за ваше время, и спасибо всем за просмотр. Увидимся в следующий раз.