LLMs являются очень мощными имитаторами понимания, а не его носителем

LLMs являются очень мощными имитаторами понимания, а не его носителем.

Нейросети сильны в ассоциативном выводе и анализе паттернов, но слабы в явной причинной модели, манипулируя распределениями вероятностей, а не выстраивая подлинную картину мира, и не оперируя явным причинным графом.

В продолжение начатой темы по архитектурным ограничениям, где собственные позиции во многом пересекаются с концепциями Лекуна (признанного корифея ИИ)

Ранее в августе озвучивал ограничения LLMs:

Фундаментальные ограничения расширения контекстного окна, отсекая саму возможность проведения научно-исследовательских работ и крупных проектов, где требуется учет широкого набора данных и фактов.

Ограничения долгосрочной памяти, исключая возможность самоообучения и накопления опыта.

Проблема стабильности и качества выходных токенов при расширении контекста, как вшитый архитектурный баг системы.

Механизм обучения, основанный на статичных корреляциях, а не динамической картине реального мира.

Статичная архитектура с фиксированными весами. Модель не может динамически создавать новые связи или изменять свою структуру в ответ на новый опыт, как это делает человеческий мозг.

Фундаментальная проблема качества данных и критериев истинности.

Существующие LLMs фундаментально заточены под корреляционное предсказание поверхностных паттернов, а не под построение причинно-следственной модели мира.

В LLMs мир представлен, как последовательность токенов, а не как динамика состояний. Все её «причинные рассуждения» происходят постфактум и в форме предиктивной симуляции на основе предсказаний ветвей решений, а не в форме эксплуатации внутреннего причинного графа через картину мира.

Предсказание ведётся в пространстве наблюдений, а не в пространстве компактных представлений на основе динамичного морфинга опыта. Отсутствует цикл «действие мир новое наблюдение обновление модели».

Физический, непрерывный мир не встроен в архитектуру как основной источник данных и обратной связи.

Нет динамического переключения между задачами, нет внутреннего множества целей и долгосрочного планирования, т.к. архитектурный якорь заключается в минимизации ошибки предсказания следующего токена, замыкая система на последовательность итерационных решений.

Нет автокоррекции ошибок, что принципиально отличает метод «мышления» нейросетей от человека. Никакого давления градиента, которое заставляло бы выделять причинную структуру, а не просто ловить поверхностные корреляции.

Нет эффективного механизма донастройки контекстной выборки. Например, чтобы разобраться в этой гипотезе, мне нужно сделать именно такой эксперимент / задать такой вопрос / собрать такой тип данных. Некоторые модели в режиме «глубокого исследования» симулируют нечто подобное, но это лишь ограниченная симуляция.

Для полноценной эволюции необходимы:

• Режим «активного эксперимента» с поиском новых источников, наборов данных по мере решения задачи;

• Необходим режим «структурной декомпозиции» с разделением задачи на подмодули, необходим расширенный режим «динамической памяти» с обновлением внутренних алгоритмов по мере правильного решения и коррекции дефектных алгоритмических блоков;

• Необходим режим «автокоррекции результатов» по мере отклонения от заданных таргетов;

• Необходим решим «динамической модуляции целей» для умения направить ход эксперимента по альтернативной траектории, если это оправдано;

• Режим «стратегического планирования» для конвергенции ресурсов и постановки задач на разных уровнях выполнения;

Расширенный принцип накопления опыта, как алгоритмический механизм самоэволюции через положительную обратную связь, тогда как сейчас все веса моделей фиксированы, а файн тюнинг происходит в ручном режиме, что не согласуется с концепцией полноценного ИИ.

Ранее указывал широкий спектр применения нейросетей, но концепция AGI архитектурно недостижима в рамках существующей архитектуры.

Продолжение следует…

Источник: Telegram-канал "Spydell_finance"

Топ

Лента новостей