AI 에이전트를 만들다 보면 가장 답답한 순간이 있어요.
"어제 우리가 뭘 논의했지?"
세션이 끝나면 모든 맥락이 사라지거든요. RAG로 벡터 DB에 때려넣으면 해결될 줄 알았는데, 유사한 문장 찾는 것과 "기억하는 것"은 완전히 다른 문제였어요.
Supermemory는 이걸 지식 그래프 기반으로 해결하는 메모리 API예요. LongMemEval 벤치마크 SOTA(85.86%)를 달성했고, 2줄이면 통합됩니다.
TL;DR
- 지식 그래프 기반 메모리 엔진 (벡터 검색 이상)
-
withSupermemory()미들웨어 2줄 통합 - MCP 서버로 Claude Code/Cursor 연동
- 무료 티어: 월 1M 토큰, 10K 쿼리
- LongMemEval SOTA 85.86%
벡터 DB vs Supermemory: 뭐가 다른가
벡터 DB는 텍스트를 임베딩으로 변환해서 유사도 검색을 해요. "비슷한 문장 찾기"에는 좋은데, 이런 건 못 해요:
- 오래된 정보 자동 감쇠 (지능형 감쇠)
- 관련 정보끼리 자동 연결 (암묵적 연결)
- "A가 맞다" → "B가 맞다"로 바뀌면 자동 업데이트 (모순 처리)
- 사용자 프로파일 자동 생성
Supermemory는 이걸 지식 그래프로 해결해요. 인간 뇌가 기억을 관리하는 방식을 모방한 거예요.
실전 통합: 3가지 방법
1. AI SDK 미들웨어 (가장 쉬움)
npm install @supermemory/ai-sdk
import { generateText } from "ai";
import { openai } from "@ai-sdk/openai";
import { withSupermemory } from "@supermemory/ai-sdk";
const result = await generateText(
withSupermemory(openai("gpt-4"), {
apiKey: process.env.SUPERMEMORY_API_KEY,
userId: "user-123",
}),
{ prompt: "이전 대화에서 논의한 프로젝트 마감일은?" }
);
이게 전부예요. 2줄 추가로 AI 모델에 장기 기억이 생겨요.
2. MCP 서버
Claude Code나 Cursor를 쓰고 있다면 MCP가 더 편해요.
{
"mcpServers": {
"supermemory": {
"command": "npx",
"args": ["-y", "@supermemory/mcp-server"],
"env": {
"SUPERMEMORY_API_KEY": "sm_your_key"
}
}
}
}
3. REST API 직접 호출
# 메모리 저장
curl -X POST https://api.supermemory.ai/v1/memories \
-H "Authorization: Bearer $SUPERMEMORY_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"content": "사용자가 React와 TypeScript를 선호함",
"userId": "user-123"
}'
# 메모리 검색
curl -X POST https://api.supermemory.ai/v1/memories/search \
-H "Authorization: Bearer $SUPERMEMORY_API_KEY" \
-H "Content-Type: application/json" \
-d '{"query": "기술 스택 선호도", "userId": "user-123"}'
벤치마크: 숫자 뒤의 진실
공식 벤치마크:
- LongMemEval: 85.86% (프로덕션) ← 이게 실제 성능
- 실험적 ASMR 시스템: ~99% ← 아직 프로덕션 아님
SOTA인 건 사실이에요. 하지만 마케팅에서 ~99%를 강조하는 경향이 있으니, 프로덕션 수치(85.86%)를 기준으로 판단하세요.
가격: 무료 티어가 넉넉함
| 플랜 | 비용 | 토큰 | 쿼리 |
|---|---|---|---|
| Free | $0 | 1M/월 | 10K |
| Pro | $19 | 3M/월 | 100K |
| Scale | $399 | 80M/월 | 20M |
개인 프로젝트나 PoC에는 무료 티어로 충분해요.
주의할 점
- "오픈소스" 아닙니다: GitHub에 코드 공개되어 있지만 셀프호스팅은 엔터프라이즈 계약 필요
- 벤더 종속: 관리형 API 특성상 추상화 레이어 권장
- 초기 단계: $2.6M 시드, 소규모 팀
실제 전환 사례
Scira AI가 Mem0 → Supermemory 전환 후:
- 사용량 32% 증가
- 레이턴시 대폭 감소
- LogRocket에서도 별도 보도됨
마무리
AI 에이전트에 메모리가 필요하다면 시도해볼 가치가 있어요. 무료 티어로 충분히 검증 가능하고, 2줄 통합이라 리스크도 낮아요.
여러분은 AI 에이전트의 메모리를 어떻게 구현하고 계세요? 댓글로 공유해주세요!
참고:
Top comments (0)