sab123: (Default)
SB ([personal profile] sab123) wrote2025-02-16 04:05 pm

ИИ и формализмы

"Transformers Can Do Arithmetic with the Right Embeddings"
https://neurips.cc/virtual/2024/poster/94565

LLMов научили арифметике, как я понимаю, через специальное кодирование чисел. Это интересный трюк, поскольку у обычных ЛЛМов даже счет не получается, и да у людей научиться арифмерике занимает годы. Так что интересно с точки зрения понимания, как оно работает.

Но одновременно у меня возникает вопрос (который, как оказалось, авторам этой бумаги в голову не пришел): накойхер их учить арифмерике, если у них есть под боком компьютер, который может посчитать все то же самое легко и эффективно? Гораздо более продуктивным занятием было ты научить ЛЛМы пользоваться калькулятором. В простейшем варианте, добавить поспроцессинг к выводу ЛЛМа, который выцепит и выполнит вычислительные инструкции, и научить ЛЛМ генерить эти инструкции. Ну вот например, недавно народ активно рассуждал про "посчитать буквы r в слове strawberry". Это задание можно поделить на две части: (1) выцепить буквы r, (2) посчитать их. ИИ мог бы генерить что-то типа

$(wc r r r)

и получить на выходе 3. Ну и то же самое с любой арифметикой.

Интересно, какие возражения такая идея вызывает у учоных: "но ведь разрешать выполнение питонного кода из вывода - небезопасно". То, что можно сделать не Питон, а любой свой безопасный язык, им просто в голову не приходит. На лицо еще один признак большого разрыва между Машинными Учоными и Компьюторными Учоными.

А вот еще интересен такой момент: я спрашивал в разных местах, и у всех генерация машинного кода искусственным интеллектом просиходит совершенно от балды этого ИИ. Но ведь машинный код - формальный язык. Грамматика и семантика его известна. Ничего не мешает генерировать сразу согласно грамматике - проверять каждую следующую лексему на соответствие грамматике, и если соответстие не найдено, то ее отбрасывать и выбирать другую, следующую по весу. Может полученный код и не будет правильно работать, но как минимум всегда будет соответствовать грамматике, и с небольшими дополнительными проверками - компилироваться. В одном из мест я видел примеры кода, сгенерированного моделями различной сложности, с качеством, растущим со сложностью модели. Но простая формальная проверка должна поднять качество кода, сгенерированного даже простыми моделями.
dennisgorelik: 2020-06-13 in my home office (Default)

Как встроить калькулятор в LLM

[personal profile] dennisgorelik 2025-02-17 07:13 pm (UTC)(link)
> В простейшем варианте, добавить поспроцессинг к выводу ЛЛМа

Правильнее добавить нейроны, представляющие калькулятор внутрь нейросети, чтобы эти нейтроны активизировались соответствующими текстовыми запросами, и чтобы эти нейроны могли сформировать посчитанный результат и добавить его в ответ.
dennisgorelik: 2020-06-13 in my home office (Default)

Re: Как встроить калькулятор в LLM

[personal profile] dennisgorelik 2025-02-17 08:36 pm (UTC)(link)
> Если эти нейроны получают в качестве входа текст и возвращают текст, то в чем разница от того, что я описал?

Разница в способе обработки информации.
Нейроны - непосредственная часть нейросети, которая работает с уже распарсенной информацией, которую удобно обрабатывать.

Текст - нужно сначала распарсить и создать контекст, и только потом - думать. После чего - снова преобразовать в текст.
dennisgorelik: 2020-06-13 in my home office (Default)

Re: Как встроить калькулятор в LLM

[personal profile] dennisgorelik 2025-02-17 10:11 pm (UTC)(link)
> В нейронном представлении нет чисел как таковых

Число для калькулятора можно представить одним нейроном, специально созданным для этого.
Также и число из калькулятора можно представить нейроном созданным для этого числа.
И сразу же связать эти нейроны друг с другом и остальным контекстом решаемой задачи.

> можно попробовать пропустить последний этап формирования текста и скармливать в парсер арифмометра непосредсвенно embeddings

Embeddings - это не совсем нейросеть. Embeddings - это лишь проекция нейросети на набор в ~1500 нейронов (dimensions).
dennisgorelik: 2020-06-13 in my home office (Default)

Re: Как встроить калькулятор в LLM

[personal profile] dennisgorelik 2025-02-17 10:30 pm (UTC)(link)
В LLM нейроном совсем необязательно представлять все возможные числа.
Только те числа, которые используются.
Каждый нейрон может быть представлен Int32 ID (up to 4B neurons).

При кодировании числа в нейрон - записывать это число в специальную таблицу NeuronNumber { Id int, Number real}
Ну а когда этот нейрон больше не нужен - удалять из нейросети и удалять из таблицы NeuronNumber.
dennisgorelik: 2020-06-13 in my home office (Default)

Re: Как встроить калькулятор в LLM

[personal profile] dennisgorelik 2025-02-18 08:44 pm (UTC)(link)
> Так тоже не получается, нет ситуаций "нейрон нужен" и "нейрон не нужен".

Как это "нет"?
Если нам нужно что-то посчитать - мы нам нужен новый нейрон с числом и привязкой к калькулятору (через таблицу NeuronNumber).

После того, как посчитали и получили ответ - нужен новый нейрон с результатом из калькулятора.

После того, как результат осмыслен, превращён в текстовый ответ и забыт - этот нейрон больше не нужен.
dennisgorelik: 2020-06-13 in my home office (Default)

Re: Как встроить калькулятор в LLM

[personal profile] dennisgorelik 2025-02-20 03:46 pm (UTC)(link)
Где именно "все нейроны используются постоянно и соединения между ними фиксированные"?

Что мешает удалить ненужный нейрон?
dennisgorelik: 2020-06-13 in my home office (Default)

Переменное количество нейронов

[personal profile] dennisgorelik 2025-02-22 07:57 am (UTC)(link)
> сеть полагается на наличие и извесное действие всех нейронов

Почему ты считаешь, что количество нейронов в нейросети должно быть фиксированным?
dennisgorelik: 2020-06-13 in my home office (Default)

Re: Переменное количество нейронов

[personal profile] dennisgorelik 2025-02-23 12:05 am (UTC)(link)
> Потому что сеть так устроена.

Какие-то нейросети имеют фиксированное количество нейронов.
Нейросеть, которую создавал я - имеет динамическое количество нейронов.

Нейросеть человеческого мозга - имеет динамическое количество нейронов.
dennisgorelik: 2020-06-13 in my home office (Default)

Re: Как встроить калькулятор в LLM

[personal profile] dennisgorelik 2025-02-17 08:40 pm (UTC)(link)
> извлечь этот документ и не сделать по нему еще один проход.

Можно и иногда (когда надо думать внимательнее) - полезно.

> Почему не сделать эту уточняющую фазу автматической?

Автоматической по условию (не всегда) - можно.
Автоматической всегда - не нужно, потому что жрёт ресурсы, а в простых ситуациях пользы от дополнительных прогонов - нет.

> Но есть новомодное направление "агентов", когда ИИ строится из группы "личностей", которые задают друг другу уточнения и формулируют общий ответ.

Да, это перспективное направление, которое может заменить многие профессии.