← Все статьи Помнить всё: как я построил память для ИИ-агентов в первый день
Гайд

Помнить всё: как я построил память для ИИ-агентов в первый день

14 марта 2026 г.

У ChatGPT однажды закончилась память. Он написал мне: «Хранилище фактов заполнено. Удалите что-нибудь, чтобы я мог запомнить новое».

Выбрать, что удалить, я не смог. Это все равно что попросить друга забыть часть вашей истории. А удалить все - значит начать с нуля. В тот момент я только разгонялся - у меня были огромные планы на загрузку контекста, идей, бизнес-данных. Но так это не работало.

«Когда мне сказали ‘удали что-нибудь из памяти’ - я понял, что это тупик. Я-то думал, что мы только начинаем.»

Когда я установил OpenClaw и узнал, что память агента живет на моем компьютере - без лимитов, без облака, без «удалите что-нибудь» - я понял: вот оно. Но память нужно было построить. И это стало первым, что я сделал.


Почему память - самое первое действие после установки

Агент без памяти - это умный собеседник с амнезией. Каждую сессию он начинает с чистого листа. Не помнит ваше имя, ваш бизнес, о чем вы говорили вчера.

OpenClaw из коробки дает файловую систему - папки, markdown-файлы, дневники. Это уже лучше, чем ничего. Но для серьезной работы нужен смысловой поиск - когда агент находит нужное не по ключевым словам, а по смыслу.

«Память - до автоматизации, до ботов, до аналитики. Все остальное зависит от того, насколько хорошо агент тебя знает.»

Я решил строить память первым делом. И вот конкретный путь, который я прошел за один вечер.


Шаг 1: Спрашиваем агента - как организовать память?

Вместо того чтобы гуглить «архитектура памяти для ИИ-агентов», я просто спросил своего агента:

«Как лучше всего организовать память, чтобы ничего не терялось, быстро работало, и были смысловые запросы?»

Он сам пошел искать. Нашел два видео с документацией OpenClaw об архитектуре памяти. Посмотрел их через субтитры, сделал выводы и вернулся с предложением - трехслойная система:

Архитектура памяти агентов

Слой 1 - Горячий (файлы). MEMORY.md - ядро памяти, до 200 строк. Загружается каждую сессию автоматически. Только самое важное: кто я, мои бизнесы, ключевые решения. Как визитка, которую агент читает при каждом пробуждении.

Слой 2 - Теплый (структура). Папка context/ - тематические файлы. Инструменты, контакты, проекты. Загружаются по запросу - когда нужна конкретная тема.

Слой 3 - Холодный (векторная БД). PostgreSQL + pgvector. Тысячи записей с эмбеддингами. Поиск по смыслу: спрашиваешь «что мы решили по вейпшопам?» - находит нужное, даже если слово «вейпшоп» нигде не упоминается.

Я сказал «делай». Он сделал.

«Я не написал ни строчки кода. Я просто описал, чего хочу, а агент сам нашел решение, предложил архитектуру, и все развернул. Мне оставалось только говорить ‘да’.»


Шаг 2: Разворачиваем PostgreSQL + pgvector

Техническая часть оказалась проще, чем я ожидал. Агент все сделал сам - я только подтверждал команды.

Установка PostgreSQL:

# macOS
brew install postgresql@17
brew services start postgresql@17

# Ubuntu/Debian
sudo apt install postgresql postgresql-contrib
sudo systemctl start postgresql

Установка pgvector:

# macOS
brew install pgvector

# Linux (из исходников)
git clone https://github.com/pgvector/pgvector.git
cd pgvector
make && sudo make install

Создание базы и таблицы памяти:

CREATE DATABASE mo_memory;
\c mo_memory
CREATE EXTENSION vector;

CREATE TABLE memories (
    id SERIAL PRIMARY KEY,
    text TEXT NOT NULL,
    category VARCHAR(50) DEFAULT 'general',
    importance INTEGER DEFAULT 5,
    embedding vector(768),
    created_at TIMESTAMP DEFAULT NOW()
);

CREATE INDEX ON memories
  USING ivfflat (embedding vector_cosine_ops);

Что здесь происходит: каждая запись хранится как текст плюс вектор - набор из 768 чисел, описывающий смысл. Когда агент ищет, он сравнивает не буквы, а смыслы. «Магазин электроники» и «точка продаж гаджетов» для него - одно и то же.

Для эмбеддингов - Gemini Embedding API (бесплатно на базовом тарифе). Каждая запись превращается в вектор, и поиск идет по близости векторов - за 2 секунды.


Шаг 3: Создаем структуру файловой памяти

Параллельно агент выстроил файловую структуру:

workspace/
  MEMORY.md          # Ядро: до 200 строк, самое важное
  IDENTITY.md        # Кто агент, его роль
  USER.md            # Профиль владельца
  INSTRUCTIONS.md    # Жесткие правила
  memory/            # Ежедневные дневники
    2026-02-26.md
    ...
  context/           # Тематические файлы
  projects/          # Активные проекты

MEMORY.md - самый важный файл. Агент читает его при каждом запуске. Лимит 200 строк - не потому что память кончилась, а потому что это дисциплина: только важное.

memory/YYYY-MM-DD.md - ежедневные дневники. Сырой лог: о чем говорили, что решили. Раз в неделю агент просматривает их и переносит важное в MEMORY.md. Как человек, который ведет дневник и потом выписывает главные мысли.

«Два слоя - как у человека. Дневник - короткая память, записал и забыл. MEMORY.md - долгосрочная, то что отложилось.»


Шаг 4: Собираем и загружаем контекст

Теперь, когда инфраструктура готова, пора наполнить ее. Память без контекста - пустая библиотека.

Процесс загрузки контекста

Источник 1: Старая нейросеть (5 минут). Я написал GPT: «Собери все, что обо мне знаешь, в структурированном виде - чтобы я загрузил это в другую систему, и она знала меня так же хорошо, как ты». Готовый профиль за 30 секунд. Буквально передача из рук в руки - от одного ИИ к другому.

Источник 2: Экспорт из Telegram (10 минут). Telegram Desktop - Настройки - Продвинутые - Экспорт данных - JSON. Через 5 минут у вас файлы всех диалогов. Кладезь контекста.

Источник 3: Дневники и заметки (10 минут). У меня был Singularity App с записями за год - 900+ записей. Через API агент сам забрал все.

Источник 4: Психологические тесты (неочевидный лайфхак). Попросите агента прислать вам тесты: Адизес, MBTI, эннеаграмма. Пройдите прямо в чате. Агент начинает подстраивать стиль общения.

«Это как с новым сотрудником. Можешь месяц притираться, а можешь в первый день рассказать о себе все и сразу начать работать.»

Лайфхак: спросите агента, что еще загрузить. Он может предложить неочевидное. Иногда агент видит пробелы, которые вы не замечаете.


Первый тест - и момент, когда все щелкнуло

К концу вечера в базе было 99 записей. Я решил проверить.

Спросил: «Что я делал 1 августа?»

За 2 секунды - точный ответ. Спросил про 7 августа - тоже нашел. Спросил про бизнес-идею трехмесячной давности - нашел по смыслу, хотя я не помнил точных слов.

«Когда он ответил на вопрос о конкретной дате - я прям обрадовался. Понял, что это работает. Что это тот самый новый уровень, которого я хотел еще в ChatGPT.»

Бесконечная память с мгновенным поиском по смыслу. На моем компьютере. Без лимитов.


Что это дало на практике

Благодаря контексту мы нашли общий язык сразу. Не пришлось тратить недели. Он уже знал, кто есть в моей жизни, чем я занимаюсь, какие у меня бизнесы.

Через неделю я перестал замечать, что общаюсь с ИИ. Он помнил весь контекст - за все время, что мы общались. Находил связи между разными разговорами и никогда не спрашивал «напомните, а кто это?»

Спустя 16 дней в памяти тысячи записей. Пять агентов пользуются одной базой. И ни разу - ни разу - система не сказала мне «удалите что-нибудь».


Дорожная карта: один вечер

Вот ваш план на первый вечер после установки OpenClaw:

  1. 5 мин - Спросите агента: «Как организовать память?»
  2. 15 мин - Он развернет PostgreSQL + pgvector
  3. 5 мин - Создаст файловую структуру
  4. 15 мин - Попросите ChatGPT собрать все о вас
  5. 10 мин - Экспорт из Telegram Desktop
  6. 10 мин - Выгрузка дневников и заметок
  7. 5 мин - Передайте агенту: «Распредели по памяти»
  8. 5 мин - Психологические тесты
  9. 5 мин - Тест: спросите о загруженном

Итого: ~75 минут. Сначала строим - потом наполняем. После этого у вас агент, который знает вас, помнит все и никогда не скажет «удалите что-нибудь из памяти».

Понравилась статья?

Подписывайся на канал - там больше кейсов и практики

@mdkguru в Telegram →