DEV Community

Cover image for 트레이딩 에이전트: 오픈소스 LLM 트레이딩 프레임워크
Rihpig
Rihpig

Posted on • Originally published at apidog.com

트레이딩 에이전트: 오픈소스 LLM 트레이딩 프레임워크

대부분의 다중 에이전트 LLM 프레임워크는 구현보다 약속이 앞섭니다. TradingAgents는 예외에 가깝습니다. Tauric Research가 arXiv 논문과 함께 오픈소스화했으며, 현재 버전은 0.2.4입니다. 이 프레임워크는 실제 리서치 데스크처럼 기본 분석, 심리 분석, 뉴스 분석, 기술 분석가를 분리하고, Bull/Bear 리서치 토론, 트레이더, 리스크 관리 위원회까지 단계적으로 연결합니다. 각 결정은 감사 가능한 형태로 기록됩니다.

오늘 Apidog를 사용해 보세요

이 글에서는 TradingAgents가 실제로 어떻게 동작하는지, v0.2.4에 어떤 기능이 포함되었는지, LangGraph 및 CrewAI와 어떤 차이가 있는지, 그리고 Apidog를 사용해 LLM 및 시장 데이터 계층을 테스트하는 방법을 구현 관점에서 정리합니다. 에이전트 계약 계층을 다루고 있다면 API 팀을 위한 agents.md 가이드도 함께 참고할 수 있습니다.

요약 (TL;DR)

  • TradingAgents는 Tauric Research의 다중 에이전트 LLM 트레이딩 프레임워크이며 arXiv 2412.20138에 공개되었습니다.
  • 트레이딩 워크플로우를 기본 분석가, 심리 분석가, 뉴스 분석가, 기술 분석가, Bull/Bear 연구원, 트레이더, 리스크 관리 위원회로 나눕니다.
  • v0.2.4는 구조화된 출력 에이전트, LangGraph 체크포인트 재개, 영구 결정 로그, DeepSeek/Qwen/GLM/Azure OpenAI 공급자 지원을 포함합니다.
  • OpenAI 호환 LLM 엔드포인트를 사용할 수 있어 호스팅 모델, 로컬 모델, 자체 호스팅 모델을 교체하기 쉽습니다.
  • Apidog를 사용하면 시장 데이터 API를 모의하고, LLM 공급자 트래픽을 재현하고, 공급자별 비용과 출력 형태를 비교할 수 있습니다.
  • 실제 자금과 연결하기 전에 Apidog를 다운로드해 API 테스트를 CI에 포함시키는 것이 좋습니다.

TradingAgents의 실제 모습

TradingAgents는 트레이딩 의사결정 과정을 여러 전문 역할로 분해하는 Python 패키지 및 CLI입니다. 각 역할은 다음 요소를 가집니다.

  • 명확한 직무 설명
  • 제한된 도구 세트
  • LangGraph 기반 실행 흐름
  • 단계별 보고서 또는 결정 출력

실행 흐름은 대략 다음과 같습니다.

  1. 시장 데이터 수집
  2. 분석가별 보고서 작성
  3. Bull/Bear 리서치 토론
  4. 트레이더 의사결정
  5. 리스크 관리 검토
  6. 최종 결정 기록

README는 이 프로젝트를 투자 조언이 아닌 연구 코드로 설명합니다. 따라서 목적은 “수익성 있는 자동매매 봇”이 아니라, 다중 에이전트 협업이 단일 프롬프트 방식보다 어떤 구조적 장점을 가지는지 실험하는 것입니다.

엔지니어링 관점에서 핵심은 역할 분리입니다.

  • 기본 분석가: 회사 재무 평가
  • 심리 분석가: 소셜 미디어 및 시장 심리 평가
  • 뉴스 분석가: 거시 경제 및 뉴스 흐름 모니터링
  • 기술 분석가: MACD, RSI 등 기술 지표 계산
  • Bull 연구원: 매수 또는 롱 포지션 논리 구성
  • Bear 연구원: 매도 또는 숏 포지션 논리 구성
  • 트레이더: 보고서와 토론을 바탕으로 거래 계획 작성
  • 리스크 관리: 제약 조건과 위험 관점에서 결정 검토

이 패턴은 트레이딩 외의 에이전트 워크플로우에도 그대로 적용할 수 있습니다. 전문가 역할, 토론 단계, 결정 단계, 검증 단계를 분리하면 복잡한 에이전트 시스템을 테스트하고 디버깅하기 쉬워집니다.

v0.2.4에 포함된 기능

2026년 4월 릴리스는 생산 환경을 고려하는 사용자에게 특히 중요합니다.

구조화된 출력 에이전트

연구 관리자, 트레이더, 포트폴리오 관리자는 이제 OpenAI 응답 API 또는 Anthropic 도구 사용 채널을 통해 구조화된 출력을 내보냅니다.

이전 방식처럼 자유 텍스트를 파싱하는 대신, 다운스트림 코드에서 타입이 있는 JSON을 다룰 수 있습니다.

예를 들어 테스트에서는 다음과 같은 필드를 검증할 수 있습니다.

{
  "action": "buy",
  "confidence": 0.72,
  "rationale": "...",
  "risk_notes": "..."
}
Enter fullscreen mode Exit fullscreen mode

이런 구조화된 출력은 자동화 파이프라인에서 중요합니다. 파싱 실패가 줄고, JSONPath 기반 테스트를 추가하기 쉬워집니다.

LangGraph 체크포인트 재개

장기 실행 작업은 중간 체크포인트에서 일시 중지하고 재개할 수 있습니다.

예를 들어 다음 상황에서 전체 실행을 처음부터 다시 시작하지 않아도 됩니다.

  • 시장 데이터 API가 속도 제한에 걸림
  • LLM 공급자가 429 오류를 반환
  • 로컬 모델 서버가 일시적으로 중단
  • 긴 토론 라운드 중 네트워크 오류 발생

영구 결정 로그

트레이더가 내리는 모든 결정은 SQLite 로그에 기록됩니다.

기록되는 정보는 다음과 같습니다.

  • 입력 데이터
  • 추론 내용
  • 결정 결과
  • 타임스탬프

이 로그는 이후 평가, 회귀 테스트, 공급자 비교에 다시 사용할 수 있습니다.

다중 공급자 지원

v0.2.4는 기존 OpenAI, Anthropic, Gemini, Grok 지원에 DeepSeek, Qwen, GLM, Azure OpenAI를 추가했습니다.

비용을 줄이고 싶다면 OpenAI 호환 엔드포인트를 통해 DeepSeek V4로 교체할 수 있습니다. 긴 컨텍스트나 비전 기능이 필요하다면 Gemini를 선택할 수 있습니다.

Docker 지원 및 Windows UTF-8 수정

Dockerfile이 추가되었고, v0.2.3에서 문제가 되었던 Windows 경로 인코딩 버그도 수정되었습니다. 팀 단위 실행이나 CI 환경에서는 이런 변경이 실제 생산성에 영향을 줍니다.

에이전트 아키텍처 상세

전체 TradingAgents 실행은 다음 단계로 구성됩니다.

  1. CLI가 티커 심볼과 날짜 범위를 입력받습니다.
  2. 네 명의 분석가가 각각 독립적으로 데이터를 가져오고 보고서를 작성합니다.
  3. 연구 팀이 네 개의 보고서를 검토합니다.
  4. Bull 연구원은 롱 논리를 작성합니다.
  5. Bear 연구원은 숏 논리를 작성합니다.
  6. 두 연구원이 토론합니다.
  7. 연구 관리자가 토론을 종합해 권고안을 만듭니다.
  8. 트레이더가 권고안을 읽고 거래 계획을 작성합니다.
  9. 리스크 관리 팀이 공격적, 보수적, 중립적 관점에서 계획을 검토합니다.
  10. 포트폴리오 관리자가 승인하거나 수정을 요청합니다.
  11. 최종 결정이 SQLite 로그에 기록됩니다.

LLM 비용은 주로 토론 단계에서 발생합니다. 특히 3단계와 9단계는 여러 에이전트가 반복적으로 주장을 생성하기 때문에 비용이 커집니다.

작은 모델을 사용할 때도 이 단계에서 한계가 드러납니다. 7B급 모델은 Bull/Bear 토론에서 반복적이고 결론 없는 출력을 생성하기 쉽습니다. 반면 DeepSeek V4 사고 모드, GPT-5.5, Claude 4.5 같은 추론 모델은 더 구조화된 상호 작용을 생성합니다.

API 도구로 LLM 계층을 테스트해야 하는 이유

TradingAgents를 실행하면 두 종류의 외부 API가 실패 지점이 됩니다.

  1. 시장 데이터 API

    예: Yahoo Finance, FinnHub, Polygon, OpenBB

  2. LLM 공급자 API

    예: OpenAI, Anthropic, DeepSeek, Gemini

시장 데이터 API는 다음 문제가 자주 발생합니다.

  • 무료 계층 속도 제한
  • 문서화되지 않은 필드 변경
  • 필드명 변경
  • 거래일 경계 차이
  • 공급자별 응답 형태 차이

예를 들어 화요일에는 regularMarketTime 필드가 있었지만, 수요일에는 regular_market_time으로 바뀌면 에이전트 실행이 조용히 깨질 수 있습니다.

LLM 공급자도 마찬가지입니다.

  • DeepSeek V4 사고 모드는 비용이 달라질 수 있음
  • OpenAI 응답 API는 고유한 응답 형태를 가짐
  • Anthropic 도구 사용은 콘텐츠 블록 형태가 다름
  • 공급자별 JSON 출력 안정성이 다름

따라서 두 계층 모두에 대해 다음이 필요합니다.

  • 저장 가능한 요청 컬렉션
  • 재현 가능한 응답
  • 스키마 검증
  • JSONPath 어설션
  • 공급자 간 응답 비교

이 용도로 Apidog를 사용할 수 있습니다. 비슷한 테스트 패턴은 MCP 서버 테스트 플레이북에서도 다룹니다.

Apidog에서 시장 데이터 API 모의하기

TradingAgents 테스트 실행에서 공급업체 불안정성을 제거하려면 다음 순서로 구성합니다.

1단계: 업스트림 엔드포인트 정의

Apidog 프로젝트에 TradingAgents가 호출하는 시장 데이터 엔드포인트를 추가합니다.

예:

  • Yahoo Finance
  • FinnHub
  • Polygon
  • OpenBB

각 요청에는 실제 응답에서 가져온 예제 본문을 저장합니다.

{
  "symbol": "AAPL",
  "regularMarketPrice": 192.53,
  "regularMarketTime": 1777564800,
  "currency": "USD"
}
Enter fullscreen mode Exit fullscreen mode

이렇게 하면 이후 모의 서버와 스키마 비교에 사용할 기준 응답을 만들 수 있습니다.

2단계: 모의 서버 켜기

Apidog의 모의 서버는 저장된 예제 응답을 실제 API 경로와 동일한 형태로 반환할 수 있습니다.

TradingAgents의 도구 구성을 실제 공급자 URL 대신 Apidog 모의 URL로 지정합니다.

예:

export MARKET_DATA_BASE_URL="https://mock.apidog.com/your-project"
Enter fullscreen mode Exit fullscreen mode

이제 기본 분석가와 기술 분석가는 확정적인 데이터를 기반으로 실행됩니다. 테스트가 Yahoo Finance의 속도 제한이나 장 마감 시간에 의존하지 않습니다.

3단계: 공급업체 드리프트 캡처

주 1회 정도 라이브 엔드포인트를 다시 호출하고 저장된 픽스처와 비교합니다.

확인할 항목은 다음과 같습니다.

  • 제거된 필드
  • 새로 추가된 필드
  • 이름이 변경된 필드
  • 타입이 바뀐 필드
  • 중첩 구조 변경

이 방식은 regularMarketTime 같은 필드 변경을 에이전트 실행이 실패하기 전에 감지하는 데 유용합니다.

동일한 접근 방식은 계약 우선 API 개발에서도 사용할 수 있습니다.

LLM 공급자 계층 테스트

실행 규모를 늘리기 전에 LLM 공급자 계층에서 최소 세 가지를 검증해야 합니다.

1. 역할당 비용

단일 티커를 선택하고 네 명의 분석가와 토론 단계를 실행합니다.

Apidog 요청 로그에서 다음 값을 캡처합니다.

  • 에이전트별 입력 토큰
  • 에이전트별 출력 토큰
  • 총 요청 수
  • 공급자별 비용
  • 토론 라운드별 비용

Bull/Bear 토론은 일반적으로 분석가 단계보다 3~5배 비쌉니다. 이 차이가 없다면 모델이 토론을 충분히 수행하지 않고 단락되고 있을 가능성이 있습니다.

2. 출력 형태

v0.2.4의 구조화된 출력 에이전트는 항상 유효한 JSON을 반환해야 합니다.

Apidog에서 JSONPath 어설션을 추가합니다.

예:

$.action exists
$.confidence is number
$.rationale exists
$.risk_notes exists
Enter fullscreen mode Exit fullscreen mode

이 검증은 중요합니다. 구조화된 출력이 깨지면 에이전트 자체는 성공한 것처럼 보이지만, 다운스트림 자동화 코드가 나중에 실패할 수 있습니다.

3. 공급자 동등성

OpenAI에서 DeepSeek V4로 교체한다고 해서 모든 개별 실행 결과가 같을 필요는 없습니다. 하지만 여러 티커를 반복 실행했을 때 의사결정 분포가 크게 달라진다면 확인이 필요합니다.

실무적으로는 다음 절차를 사용할 수 있습니다.

  1. 동일한 50개 티커 목록을 준비합니다.
  2. OpenAI 공급자로 실행합니다.
  3. DeepSeek V4 공급자로 실행합니다.
  4. SQLite 결정 로그를 비교합니다.
  5. buy, hold, sell 분포를 비교합니다.
  6. 신뢰도와 리스크 노트의 드리프트를 확인합니다.

요청 형태는 DeepSeek V4 API 가이드GPT-5.5 API 가이드를 참고할 수 있습니다.

최소한의 TradingAgents 실행

README의 빠른 시작은 대략 다음과 같습니다.

git clone https://github.com/TauricResearch/TradingAgents
cd TradingAgents
pip install -r requirements.txt

export OPENAI_API_KEY="sk-..."
export FINNHUB_API_KEY="..."

python -m tradingagents.cli \
  --ticker AAPL \
  --date 2026-04-30 \
  --models gpt-5.5 \
  --rounds 2
Enter fullscreen mode Exit fullscreen mode

두 라운드의 토론은 최소한의 의미 있는 실행입니다. 출력은 JSON과 마크다운 결정 요약으로 tradingagents/results/에 기록됩니다.

추론이 많은 역할에 DeepSeek V4 Pro를 사용하려면 --models 플래그와 공급자 구성을 조정합니다.

export DEEPSEEK_API_KEY="sk-..."

python -m tradingagents.cli \
  --ticker AAPL \
  --date 2026-04-30 \
  --models deepseek-v4-pro \
  --provider deepseek \
  --rounds 2
Enter fullscreen mode Exit fullscreen mode

동일한 패턴은 Qwen 3.6, GLM 5, Ollama, vLLM에서 제공되는 로컬 모델에도 적용할 수 있습니다. 로컬 모델 제공 방식은 2026년 최고의 로컬 LLM 게시물을 참고하십시오.

흔한 함정

작은 모델로 실행하기

7B 로컬 모델은 Bull/Bear 토론에서 반복적인 주장만 생성하고 결론에 도달하지 못하는 경우가 많습니다.

현실적인 최소 후보는 다음과 같습니다.

  • DeepSeek V4 Flash
  • Qwen 3.6 32B
  • GPT-5.5
  • Claude 4.5

프레임워크가 제대로 작동하려면 최소한 중간 수준 이상의 추론 품질이 필요합니다.

시장 데이터 캐싱 건너뛰기

각 분석가는 데이터 계층을 개별적으로 호출합니다. 캐싱이 없으면 단일 실행에서도 공급업체 요청이 빠르게 늘어납니다.

체크리스트:

  • 동일 티커/날짜 요청 캐싱
  • 공급자 응답 로컬 저장
  • 테스트 실행 시 Apidog 모의 서버 사용
  • CI에서는 라이브 공급자 호출 금지

트레이딩 봇으로 취급하기

TradingAgents는 연구 코드입니다. 백테스트 결과는 다음 변수에 민감합니다.

  • 모델 선택
  • 프롬프트 시드
  • 토론 라운드 수
  • 데이터 품질
  • 공급자 응답 차이

따라서 출력은 전략이 아니라 가설로 다뤄야 합니다.

토큰 사용량 기록을 잊기

단일 티커 실행 비용은 모델과 토론 라운드에 따라 크게 달라질 수 있습니다. 원문 기준으로 실행당 약 $0.10에서 $5까지 비용이 발생할 수 있습니다.

Apidog의 재생 기록에 실행당 비용을 기록하면 폭주 루프를 빠르게 찾을 수 있습니다.

단일 공급업체에 고정하기

v0.2.0 이후 여러 공급자를 교체할 수 있습니다. 작은 배치부터 여러 공급자로 실행한 뒤 결정 로그를 비교하십시오.

추천 절차:

  1. 10개 티커를 선택합니다.
  2. OpenAI로 실행합니다.
  3. DeepSeek로 실행합니다.
  4. Anthropic으로 실행합니다.
  5. 결정 로그를 비교합니다.
  6. 비용과 출력 안정성을 함께 평가합니다.

개발 루프에서 Apidog의 역할

TradingAgents 프로젝트에서 Apidog는 세 지점에서 유용합니다.

1. 설계 단계

라이브 공급자와 연결하기 전에 Apidog에서 각 시장 데이터 엔드포인트를 요청으로 정의합니다.

이때 확인할 질문은 다음과 같습니다.

  • 프레임워크가 실제로 사용하는 필드는 무엇인가?
  • 공급자 응답 중 필요 없는 필드는 무엇인가?
  • 유료 데이터 플랜이 꼭 필요한가?
  • 대체 가능한 공급자는 있는가?

스키마를 먼저 정의하면 불필요한 데이터 의존성을 줄일 수 있습니다.

2. 로컬 CI

Apidog 모의 서버를 사용하면 테스트 중 모든 시장 데이터 공급자를 대체할 수 있습니다.

CI에서는 다음 원칙을 권장합니다.

  • 라이브 시장 데이터 API 호출 금지
  • 저장된 픽스처만 사용
  • LLM 응답은 최소 샘플로 고정
  • 구조화된 출력은 JSONPath로 검증
  • 공급자 통합 테스트는 별도 스케줄에서 실행

같은 패턴은 Postman 없이 API 테스트에서도 다룹니다.

3. 회귀 비교

정기 실행에서 라이브 엔드포인트 응답을 저장된 픽스처와 비교합니다.

이 비교는 다음 문제를 조기에 감지합니다.

  • 데이터 공급자 필드 변경
  • LLM 공급자 응답 형태 변경
  • JSON 구조 변화
  • 파서가 처리하지 못하는 새 콘텐츠 블록

가장 저렴한 장애 알림은 “에이전트가 이상한 결정을 내린 뒤”가 아니라 “입력 데이터 형태가 바뀐 순간”에 발생해야 합니다.

이것이 트레이딩을 넘어 중요한 이유

TradingAgents는 에이전트 분해를 이해하기 좋은 오픈소스 예시입니다. 같은 패턴은 다른 도메인에도 적용할 수 있습니다.

  • 고객 지원 분류

    티켓 유형별 분석가 에이전트 → 토론 → 최종 분류

  • 코드 리뷰

    보안, 성능, 스타일 에이전트 → 종합 에이전트 → PR 코멘트

  • 준수 검토

    데이터 분석가, 리스크 검토자, 의사결정 위원회

  • 연구 요약

    여러 전문 독자 → 토론 → 최종 요약

재사용 가능한 패턴은 다음 네 가지입니다.

  1. 전문가 역할
  2. 토론 단계
  3. 구조화된 결정 출력
  4. 영구 로그

Apidog를 함께 사용하면 이 패턴을 API 수준에서 테스트할 수 있습니다.

실제 사용 사례

퀀트 연구 학생

동일한 30개 티커 바스켓에서 DeepSeek V4, GPT-5.5, Claude 4.5를 비교합니다.

Apidog는 모든 요청과 응답을 캡처하므로 다음을 재현할 수 있습니다.

  • 공급자별 비용
  • 결정 분포
  • 토큰 사용량
  • 출력 JSON 안정성

핀테크 엔지니어

TradingAgents의 트레이딩 로직이 아니라 다중 에이전트 패턴을 가져와 내부 코드 리뷰에 적용합니다.

예:

  • 보안 에이전트
  • 성능 에이전트
  • 명명 규칙 에이전트
  • 종합 에이전트

원문 기준으로 PR당 총 리뷰 비용은 약 $0.04입니다.

솔로 개발자

10개 티커 감시 목록에 대해 매일 밤 TradingAgents를 실행하고, 모든 결정을 Postgres에 기록합니다.

주말 테스트에서는 라이브 시장 데이터 공급자 대신 Apidog 모의 서버를 사용합니다.

결론

TradingAgents는 채팅형 에이전트가 아니라 구조화된 결정을 생성하는 다중 에이전트 시스템의 좋은 예시입니다. v0.2.4는 구조화된 출력, 체크포인트 재개, 감사 로그, 다중 공급자 지원을 추가해 실험과 운영 사이의 간격을 줄였습니다.

하지만 시장 데이터와 LLM 공급자 계층을 테스트하지 않으면 이 구조는 쉽게 깨집니다. 그래서 Apidog를 함께 사용하는 것이 중요합니다.

핵심 정리:

  • TradingAgents는 트레이딩을 명확한 역할과 토론 단계로 분해합니다.
  • v0.2.4는 구조화된 출력, LangGraph 체크포인트, DeepSeek/Qwen/GLM/Azure 공급자를 추가합니다.
  • Apidog에서 시장 데이터 공급자를 모의하면 테스트 실행이 확정적입니다.
  • 모델을 교체하기 전에 LLM 공급자 동등성을 테스트해야 합니다.
  • 전문가, 토론, 결정, 로그 패턴은 비트레이딩 에이전트 워크플로우에도 적용할 수 있습니다.

다음 단계는 간단합니다.

  1. TradingAgents 레포를 클론합니다.
  2. 선호하는 LLM으로 단일 티커를 실행합니다.
  3. 시장 데이터 호출을 Apidog 모의 서버로 연결합니다.
  4. 구조화된 출력에 JSONPath 어설션을 추가합니다.
  5. 공급자별 결정 로그를 비교합니다.

자주 묻는 질문

TradingAgents는 실제 돈과 함께 사용해도 안전한가요?

레포는 명시적으로 연구 코드이며 금융 조언이 아니라고 밝히고 있습니다. 출력은 가설로 취급해야 합니다. 라이브 중개와 연결하는 경우 사용자가 직접 위험을 부담해야 하며, 유지보수자는 이를 권장하지 않습니다.

어떤 LLM 공급자가 최고의 비용-품질 균형을 제공하나요?

원문 기준으로 2026년 초 대부분의 워크로드에서 사고 모드가 있는 DeepSeek V4 Flash는 GPT-5.5보다 비용 효율이 좋고 Bull/Bear 토론 품질도 유사합니다. 요청 형태는 DeepSeek V4 API 가이드를 참고하십시오.

TradingAgents를 로컬 모델에서 실행할 수 있나요?

예. v0.2.0은 다중 공급자 지원을 추가했으며 Ollama, vLLM, LM Studio는 모두 OpenAI 호환 엔드포인트를 제공합니다. 모델 선택은 2026년 최고의 로컬 LLM 게시물을 참고하십시오.

시장 데이터 API를 어떻게 모의하나요?

Apidog에서 각 공급업체 엔드포인트를 정의하고, 예제 응답을 저장한 뒤, 모의 서버를 켭니다. 이후 TradingAgents의 도구 구성을 모의 URL로 지정하면 됩니다. 같은 패턴은 QA 엔지니어를 위한 API 테스트 도구에 문서화되어 있습니다.

이를 실행하기 위한 최소 하드웨어 사양은 무엇인가요?

호스팅 LLM(OpenAI, Anthropic, DeepSeek)을 호출한다면 Python 3.10+가 설치된 일반 노트북에서도 실행할 수 있습니다.

로컬 모델을 제공하는 경우 최소 하드웨어는 모델에 따라 다릅니다.

  • 24GB GPU: DeepSeek V4 Flash 또는 Qwen 3.6 32B
  • 8GB GPU: Llama 5.1 8B

작은 모델일수록 토론 품질은 떨어질 수 있습니다.

시간 외 및 주말 시뮬레이션을 지원하나요?

시장 데이터 공급업체가 과거 데이터를 반환한다면 프레임워크는 선택한 날짜로 실행할 수 있습니다. 다만 라이브 트레이딩은 TradingAgents가 명시적으로 해결하는 문제가 아닙니다.

다른 다중 에이전트 프레임워크와 어떻게 비교되나요?

TradingAgents는 트레이딩 도메인에 특화되어 있습니다. CrewAI, AutoGen, LangGraph 자체는 범용 프레임워크입니다.

다중 에이전트 패턴을 학습하고 다른 도메인에 적용하려면 TradingAgents 코드를 읽어보는 것이 좋습니다. 범용 에이전트 시스템을 처음부터 구축하려면 LangGraph 기반 구현부터 시작하는 편이 더 적합합니다.

Top comments (0)