Большие языковые модели могут писать стихи, писать код, но часто терпят неудачи в начальной математике? Эта проблема наконец-то решена.

Недавно увидел удивительный трюк: исследователь умудрился без потерь (Losslessly) "жестко закодировать" интерпретатор WASM (WebAssembly) в веса модели Transformer!

Это не просто "модель будет использовать инструменты", это фактически запуск настоящего компьютера внутри LLM.

💡 Основная логика: гибридная архитектура, подобная DSP-чипам, как архитектура DSP от TI:


Нейронные сети (ARM): отвечают за логическое рассуждение, семантическое понимание и организацию языка.

Встроенный интерпретатор (DSP): специально предназначен для высокоточных, высокоскоростных детерминированных вычислений.

Когда LLM сталкивается с вопросом, кто больше, 3.11 или 3.8, он больше не полагается на "интуицию" для угадывания следующего токена, а напрямую вызывает внутренний вычислительный движок.



🚀Почему это важно?

100% точность: даже самые сложные судоку можно решить за секунды, полностью устраняя иллюзии вычислений.

Миллион шагов выполнения: программа может выполнять миллионы шагов внутри модели, производительность взрывоопасна.

Применение во всех областях: физическое моделирование, финансовое моделирование, криптографические вычисления... Эти области с высоким требованием к точности, LLM наконец-то смогли выполнить должным образом.

Это больше не просто "генеративный ИИ", это "родной вычислительный ИИ". Человечество на шаг ближе к настоящему общему искусственному интеллекту (AGI)!

#AI #LLM #WebAssembly #Transformer #DeepLearning #AGI