Memori: camada de memória SQL nativa para LLMs e agentes de IA atinge quase 12 mil stars

A
AI Engineering News
· · Atualizado em 4 de fevereiro de 2026 · 6 min de leitura
Memori: camada de memória SQL nativa para LLMs e agentes de IA atinge quase 12 mil stars

O problema de memória em sistemas baseados em LLMs é um dos gargalos mais conhecidos por quem desenvolve chatbots, agentes de IA ou sistemas multi-agentes. Por padrão, modelos de linguagem não "lembram" de interações anteriores — cada chamada é independente. Resolver isso de forma escalável e sem impacto em latência é um desafio de engenharia real.

É exatamente esse problema que o Memori, projeto open-source da MemoriLabs, se propõe a resolver. A biblioteca Python oferece uma camada de memória nativa em SQL para LLMs, agentes de IA e sistemas multi-agentes, com integração direta com os principais provedores de modelos e bancos de dados do mercado.

O projeto está ganhando tração rápida na comunidade: já são quase 12 mil stars no GitHub e mais de mil forks, com atividade recente indicando desenvolvimento ativo.

O QUE FOI ANUNCIADO

O Memori é uma biblioteca Python que funciona como camada de memória persistente para sistemas de IA. O projeto foi criado pela MemoriLabs e está disponível no GitHub desde julho de 2025.

Principais características:

  • Armazenamento de memória em bancos SQL (PostgreSQL, SQLite, MySQL, MariaDB, Oracle, MongoDB, CockroachDB, OceanBase, Neon, Supabase)
  • Integração com múltiplos provedores de LLM (OpenAI, Anthropic, Gemini, Grok, Bedrock)
  • Suporte a frameworks como LangChain e Agno
  • Extração automática de memórias (atributos, eventos, fatos, preferências, relacionamentos, skills)
  • Processamento assíncrono sem impacto em latência
  • Schema em terceira forma normal com suporte a knowledge graph
  • Busca semântica vetorizada em memória

VISÃO TÉCNICA SIMPLIFICADA

Arquitetura de três níveis

O Memori organiza memórias em uma hierarquia de três níveis:

  1. Entity: representa usuários individuais ou agentes
  2. Process: identifica um agente específico, programa ou workflow de interação
  3. Session: agrupa interações dentro de uma relação entity-process

Essa estrutura permite granularidade fina no controle de contexto — você pode ter memórias específicas por usuário, por processo e por sessão.

Schema SQL normalizado

Diferente de abordagens que simplesmente jogam embeddings em um vector store, o Memori usa schema em terceira forma normal (3NF). Isso significa:

  • Eliminação de redundância de dados
  • Integridade referencial garantida pelo banco
  • Queries SQL tradicionais funcionam normalmente
  • Criação de triplas semânticas para representação em knowledge graph

Extração automática de memórias

O sistema não apenas armazena mensagens brutas. Ele extrai automaticamente:

  • Atributos: características do usuário ou agente
  • Eventos: acontecimentos mencionados
  • Fatos: informações factuais
  • Preferências: gostos e escolhas
  • Relacionamentos: conexões entre entidades
  • Skills: habilidades identificadas

Tudo isso roda em background threads, sem adicionar latência às respostas.

Adapter/Driver architecture

A versão 3 introduziu uma arquitetura de adapters e drivers que facilita:

  • Adicionar novos provedores de LLM
  • Suportar novos bancos de dados
  • Contribuições da comunidade
  • Qualquer implementação PEP 249 funciona automaticamente

O QUE MUDA NA PRÁTICA PARA ENGENHEIROS DE IA

🚀 Performance: Processamento de memória é assíncrono e não adiciona latência às chamadas de LLM. Busca semântica é vetorizada e acontece em memória.

💸 Custos: Usar seu próprio banco SQL (PostgreSQL, SQLite) pode ser significativamente mais barato que soluções de vector database gerenciadas. SQLite é gratuito e funciona localmente.

🏗️ Arquitetura: Muda a forma como você estrutura agentes de IA. Em vez de passar todo o histórico como contexto (tokens caros), você faz queries semânticas por memórias relevantes.

🔐 Riscos: Dependência de um projeto relativamente novo (julho 2025). O "Advanced Augmentation" proprietário tem rate limits — uso intensivo requer cadastro.

🧪 Maturidade: Versão 3 recente com melhorias significativas. Quase 12k stars indica adoção, mas ainda é early-stage comparado a soluções enterprise.

CASOS DE USO REAIS E POTENCIAIS

Chatbots com memória de longo prazo

O caso mais óbvio: chatbots que lembram do usuário entre sessões. Nome, preferências, histórico de compras, problemas anteriores — tudo acessível sem precisar perguntar de novo.

Agentes de IA persistentes

Agentes que executam tarefas ao longo de dias ou semanas precisam de memória persistente. O Memori permite que um agente "lembre" do que fez ontem e continue de onde parou.

Sistemas multi-agentes

Com a estrutura entity/process/session, diferentes agentes podem compartilhar memórias ou manter contextos isolados conforme a necessidade do sistema.

RAG aprimorado

Combinar RAG tradicional (busca em documentos) com memória de interações anteriores. O usuário não precisa repetir contexto que já forneceu.

Assistentes de produtividade

Assistentes que aprendem preferências do usuário: formato de relatórios, horários de reunião, estilo de comunicação.

LIMITAÇÕES, RISCOS E PONTOS DE ATENÇÃO

Dependência de serviço externo: O "Advanced Augmentation" que enriquece memórias automaticamente é um serviço da MemoriLabs. Sem cadastro, há rate limits. Isso cria uma dependência que pode ser problemática para produção.

Projeto relativamente novo: Criado em julho de 2025, ainda não passou pelo teste do tempo. Mudanças de API são prováveis.

Licença "Other": A licença não é uma das padrões (MIT, Apache, GPL). É importante verificar os termos antes de usar em produção comercial.

Complexidade de schema: Schema em 3NF é bom para integridade, mas adiciona complexidade. Migrações automáticas ajudam, mas podem causar surpresas em upgrades.

Custo de LLM para extração: A extração automática de memórias provavelmente usa chamadas de LLM. Em alto volume, isso pode ter custo significativo.

O QUE OBSERVAR NOS PRÓXIMOS MESES

Adoção por frameworks maiores: Se LangChain, LlamaIndex ou outros frameworks adotarem Memori como padrão de memória, a biblioteca ganha momentum significativo.

Clarificação da licença: Licença "Other" precisa ser esclarecida para adoção enterprise. Espere movimento nessa direção se o projeto quiser escalar.

Alternativas surgindo: Memória para LLMs é um problema quente. Espere competidores e alternativas — compare antes de se comprometer.

Modelo de negócio: MemoriLabs precisa de receita. O "Advanced Augmentation" com rate limits sugere um modelo freemium. Observe como isso evolui.

Performance em escala: 12k stars não significa que funciona bem com milhões de usuários. Cases de uso em produção real vão validar ou expor limitações.

CONEXÃO COM APRENDIZADO

Para quem quer se aprofundar em como arquitetar sistemas que aproveitam esse tipo de abordagem — como pipelines de memória, RAG avançado e sistemas de agentes persistentes — esse tema faz parte dos estudos da AI Engineering Academy.


🚀 Faça parte da comunidade AI Engineering

Quer receber as principais notícias de AI Engineering em primeira mão e trocar ideias com outros profissionais? Entre no nosso grupo no WhatsApp!

👉 Entrar no grupo do WhatsApp


Termos relacionados: memória para LLMs, persistência de contexto, SQL memory layer, agentes de IA, multi-agent systems, LangChain memory, knowledge graph, vector search, RAG, state management para IA

Compartilhar:

Quer ir além das notícias?

Aprenda a construir aplicações com IA na AI Engineering Academy.

Conhecer a Academy

Fique por dentro das novidades

Receba as últimas notícias sobre AI Engineering diretamente no seu email. Sem spam, prometemos.

Ao se inscrever, você concorda com nossa política de privacidade .

Artigos Relacionados