DEV Community

Cover image for TradingAgents: เฟรมเวิร์กเทรด Open-Source LLM
Thanawat Wongchai
Thanawat Wongchai

Posted on • Originally published at apidog.com

TradingAgents: เฟรมเวิร์กเทรด Open-Source LLM

เฟรมเวิร์ก LLM แบบหลายเอเจนต์จำนวนมากมักให้คำมั่นมากกว่าที่ทำได้จริง แต่ TradingAgents เป็นข้อยกเว้นที่น่าสนใจ: โอเพนซอร์สโดย Tauric Research พร้อม เอกสาร arXiv ปัจจุบันอยู่ที่เวอร์ชัน 0.2.4 และออกแบบเวิร์กโฟลว์ให้คล้ายโต๊ะวิจัยจริง: นักวิเคราะห์ปัจจัยพื้นฐาน, อารมณ์ตลาด, ข่าว, เทคนิคอล, นักวิจัยฝั่งขาขึ้น/ขาลง, เทรดเดอร์ และคณะกรรมการบริหารความเสี่ยง ก่อนสรุปเป็นการตัดสินใจที่มีโครงสร้างและตรวจสอบย้อนหลังได้

ลองใช้ Apidog วันนี้

บทความนี้สรุปว่า TradingAgents ทำงานอย่างไร, v0.2.4 เพิ่มอะไร, ควรทดสอบเลเยอร์ LLM และข้อมูลตลาดอย่างไร และจะใช้ Apidog เพื่อ mock API, replay request และตรวจ regression ได้อย่างไร หากคุณกำลังออกแบบ contract สำหรับเอเจนต์ อ่านต่อคู่กับ คู่มือ agents.md สำหรับทีม API ได้

สรุปย่อ

  • TradingAgents เป็นเฟรมเวิร์กการซื้อขาย LLM แบบหลายเอเจนต์จาก Tauric Research อ้างอิง arXiv 2412.20138
  • แยกบทบาทเป็นเอเจนต์ผู้เชี่ยวชาญ: fundamental, sentiment, news, technical, bull/bear researchers, trader และ risk managers
  • v0.2.4 เพิ่ม structured output, LangGraph checkpoint resume, decision log แบบถาวร และรองรับ DeepSeek, Qwen, GLM, Azure OpenAI
  • ใช้ได้กับ LLM endpoint ที่เข้ากันได้กับ OpenAI ทำให้สลับ hosted model, local model และ self-hosted model ได้ง่ายขึ้น
  • ใช้ Apidog เพื่อจำลอง API ข้อมูลตลาด, replay traffic ของ LLM provider และเปรียบเทียบต้นทุน/ผลลัพธ์ระหว่าง provider
  • ดาวน์โหลด Apidog เพื่อเชื่อม workflow เหล่านี้เข้ากับ CI ก่อนใช้เอเจนต์กับข้อมูลหรือเงินทุนจริง

TradingAgents คืออะไร

TradingAgents เป็นแพ็กเกจ Python และ CLI ที่แบ่ง pipeline การตัดสินใจซื้อขายออกเป็นเอเจนต์เฉพาะทาง แต่ละเอเจนต์มี prompt, หน้าที่, toolset และ orchestration ผ่าน LangGraph

ลำดับหลักคือ:

  1. รวบรวมข้อมูล
  2. วิเคราะห์ตามบทบาท
  3. ถกเถียงระหว่างมุมมองขาขึ้นและขาลง
  4. สังเคราะห์ข้อเสนอแนะ
  5. สร้างแผนการเทรด
  6. ตรวจความเสี่ยง
  7. บันทึกการตัดสินใจ

README ระบุชัดว่าเป็นโค้ดวิจัย ไม่ใช่คำแนะนำการลงทุน จุดประสงค์หลักคือศึกษาว่า multi-agent collaboration ให้ผลต่างจาก single-prompt setup อย่างไร ไม่ใช่การสร้างบอทเทรด production-ready จากเครื่องส่วนตัว

มุมที่น่าสนใจสำหรับ developer คือการแยกความรับผิดชอบ:

  • Fundamental analyst: วิเคราะห์ข้อมูลการเงินของบริษัท
  • Sentiment analyst: อ่านสัญญาณจาก social/media sentiment
  • News analyst: วิเคราะห์ข่าวและ macro indicators
  • Technical analyst: คำนวณ indicator เช่น MACD และ RSI
  • Bull/Bear researchers: สร้าง thesis และโต้แย้งกัน
  • Trader: รวมข้อมูลทั้งหมดเป็นแผน
  • Risk managers: ตรวจสอบแผนจากหลายมุมมอง
  • Portfolio manager: อนุมัติหรือส่งกลับไปแก้ไข

รูปแบบนี้นำไปใช้กับ agent workflow อื่นได้เช่นกัน: แยกบทบาท, ให้ถกเถียง, สรุปผล, ตรวจสอบ และ log ทุก decision

มีอะไรใหม่ใน v0.2.4

v0.2.4 สำคัญสำหรับคนที่ต้องการนำ framework ไปทดลองใน workflow ที่จริงจังขึ้น

1. Structured output

Research manager, trader และ portfolio manager สามารถส่ง structured output ผ่าน OpenAI Responses API หรือ tool channel ของ Anthropic ได้

ผลลัพธ์คือไม่ต้อง parse free-form text มากเหมือนเดิม และ downstream automation สามารถ validate JSON ได้ตรงขึ้น

ตัวอย่าง assertion ที่ควรมี:

{
  "ticker": "AAPL",
  "action": "hold",
  "confidence": 0.72,
  "rationale": "..."
}
Enter fullscreen mode Exit fullscreen mode

สิ่งที่ควรทดสอบ:

  • JSON parse ผ่านเสมอ
  • field สำคัญไม่หาย
  • enum เช่น buy, sell, hold ไม่หลุดรูปแบบ
  • confidence อยู่ใน range ที่กำหนด

2. Resume จาก LangGraph checkpoint

การรันที่ใช้เวลานานสามารถหยุดและเริ่มใหม่จาก checkpoint ได้ หาก market data API ถูก rate limit หรือ LLM provider ตอบ 429 คุณไม่จำเป็นต้องเริ่ม pipeline ตั้งแต่ต้น

เหมาะกับ workflow ที่มีหลาย symbol หรือหลาย debate round

3. Decision log แบบถาวร

ทุก decision ของ trader ถูกบันทึกลง SQLite พร้อมเหตุผล, input และ timestamp ทำให้ตรวจ audit, replay หรือประเมินผลย้อนหลังได้ง่ายขึ้น

ควรเก็บ log เหล่านี้ไว้ใน regression dataset ของคุณ โดยเฉพาะเมื่อลองเปลี่ยน model หรือ provider

4. รองรับหลาย provider

v0.2.4 เพิ่ม DeepSeek, Qwen, GLM และ Azure OpenAI จากเดิมที่รองรับ OpenAI, Anthropic, Gemini และ Grok

หากต้องการลดต้นทุน reasoning ต่อ token คุณสามารถทดสอบ DeepSeek V4 ผ่าน endpoint ที่เข้ากันได้กับ OpenAI หากต้องการ context ยาวหรือ vision ให้เลือก provider ที่เหมาะสม เช่น Gemini

5. Docker และ Windows UTF-8 fix

เวอร์ชันนี้มี Dockerfile และแก้ปัญหา encoding path บน Windows จาก v0.2.3 แล้ว เป็นรายละเอียดเล็กแต่สำคัญสำหรับทีมที่ต้องการรันซ้ำได้ใน environment เดียวกัน

สถาปัตยกรรมของเอเจนต์

TradingAgents workflow โดยรวม:

  1. CLI รับ ticker และ date range
  2. Analyst team แยกงานกันดึงข้อมูลและเขียนรายงาน
  3. Research team รับรายงานทั้ง 4 ฉบับ
  4. Bull researcher เขียน long thesis
  5. Bear researcher เขียน short thesis
  6. ทั้งสองฝั่ง debate กัน
  7. Research manager สังเคราะห์เป็น recommendation
  8. Trader สร้าง trading plan โดยดู decision history ร่วมด้วย
  9. Risk team ตรวจแผนจากมุม aggressive, conservative และ neutral
  10. Portfolio manager อนุมัติหรือส่งกลับ
  11. Final decision ถูกบันทึกลง SQLite

ค่าใช้จ่าย LLM ส่วนใหญ่เกิดในขั้นตอน debate และ risk review เพราะมี agent หลายตัวโต้ตอบกัน หลักปฏิบัติที่ควรใช้:

  • จำกัดจำนวน debate rounds ระหว่างทดลอง
  • log token usage ต่อ agent
  • แยก model ตาม role หาก framework/config รองรับ
  • ใช้ reasoning model เฉพาะในขั้นตอนที่ต้องการ reasoning จริง
  • mock market data ระหว่าง unit/integration test

โมเดลขนาดเล็กมาก เช่น 7B local model อาจสร้าง debate ที่วนซ้ำหรือมี noise สูง ส่วน reasoning model เช่น DeepSeek V4 thinking mode, GPT-5.5 หรือ Claude 4.5 มักให้ debate ที่มีโครงสร้างกว่า

ทำไมต้องทดสอบ LLM layer ด้วยเครื่องมือ API

เมื่อรัน TradingAgents มี 2 จุดที่มักพัง:

  1. Market data API เช่น Yahoo Finance, FinnHub, Polygon, OpenBB
  2. LLM provider API เช่น OpenAI, Anthropic, DeepSeek

ฝั่ง market data มีความไม่แน่นอน เช่น:

  • rate limit ไม่สม่ำเสมอ
  • field หายหรือเปลี่ยนชื่อ
  • schema ไม่ตรงเอกสาร
  • trading date boundary ต่างกันในแต่ละ provider

ตัวอย่างปัญหา:

{
  "regularMarketTime": 1714435200
}
Enter fullscreen mode Exit fullscreen mode

อาจเปลี่ยนเป็น:

{
  "regular_market_time": 1714435200
}
Enter fullscreen mode Exit fullscreen mode

ถ้า agent หรือ parser อ้าง field เดิม การรันอาจล้มเหลวหรือแย่กว่านั้นคือสร้างผลลัพธ์ผิดโดยไม่แจ้ง error

ฝั่ง LLM ก็มีปัญหาเฉพาะตัว:

  • thinking mode เพิ่มต้นทุน
  • OpenAI Responses API มี response shape ที่ต้อง validate
  • Anthropic tool use ส่ง content block ที่ parser บางตัวรองรับไม่ครบ
  • provider แต่ละรายจัดการ structured output ต่างกัน

สิ่งที่ต้องมีคือ request set ที่บันทึกได้, replay ได้ และมี assertion ตรวจผลลัพธ์ นี่คือจุดที่ Apidog ช่วยได้ รูปแบบเดียวกันนี้ใช้กับ protocol-level testing ใน คู่มือการทดสอบ MCP server

จำลอง API ข้อมูลตลาดใน Apidog

ใช้ workflow นี้เพื่อลดความไม่แน่นอนจาก provider ระหว่างทดสอบ TradingAgents

ขั้นตอนที่ 1: กำหนด upstream endpoint

ในโปรเจกต์ Apidog ให้เพิ่ม endpoint ที่ TradingAgents เรียกใช้ เช่น Yahoo Finance, FinnHub, Polygon หรือ OpenBB

สำหรับแต่ละ endpoint ให้บันทึก:

  • method
  • URL path
  • query parameters
  • headers
  • response example จากข้อมูลจริง
  • status code ที่คาดหวัง
  • error response เช่น 429, 500

ตัวอย่าง response mock:

{
  "symbol": "AAPL",
  "regularMarketPrice": 182.45,
  "regularMarketTime": 1714435200,
  "currency": "USD"
}
Enter fullscreen mode Exit fullscreen mode

ขั้นตอนที่ 2: เปิด mock server

เปิด mock server ของ Apidog แล้วชี้ config ของ TradingAgents ไปที่ mock base URL

ผลลัพธ์:

  • analyst agent ได้ข้อมูล deterministic
  • test ไม่พังเพราะ rate limit
  • CI ไม่ต้องพึ่ง market hours
  • weekend test รันได้เหมือน weekday

ขั้นตอนที่ 3: ตรวจ provider drift

ตั้ง schedule รายสัปดาห์เพื่อ replay live endpoint แล้วเทียบกับ mock schema ที่บันทึกไว้

ตรวจสิ่งเหล่านี้:

  • field เพิ่ม
  • field หาย
  • field เปลี่ยนชื่อ
  • type เปลี่ยน เช่น number → string
  • response nesting เปลี่ยน

Apidog จะช่วย highlight schema drift เพื่อให้คุณรู้ก่อน pipeline พังใน runtime

แนวทางนี้เป็น pattern เดียวกับ API contract-first development

ทดสอบ LLM provider layer

ก่อนขยายการรันเป็นหลาย symbol หรือหลาย provider ให้ทดสอบ 3 เรื่องนี้

1. ต้นทุนต่อ role

รัน ticker เดียวผ่าน analyst ทั้ง 4 และ debate stage แล้วบันทึก token usage ต่อ agent ใน request log ของ Apidog

สิ่งที่ควรวัด:

Stage Metric ที่ควรเก็บ
Analyst input tokens, output tokens, latency
Bull/Bear debate tokens per round, total rounds
Trader structured output validity
Risk review tokens per risk persona
Portfolio manager final decision format

โดยทั่วไป debate ระหว่าง bull/bear มักแพงกว่า analyst 3-5 เท่า หากไม่เป็นเช่นนั้น อาจหมายความว่า model สร้างคำตอบสั้นเกินไปหรือ debate ไม่ทำงานตามที่คาด

2. รูปแบบ output

สำหรับ structured output agent ใน v0.2.4 ให้เพิ่ม JSONPath assertion เช่น:

$.action exists
$.confidence >= 0
$.confidence <= 1
$.rationale exists
Enter fullscreen mode Exit fullscreen mode

และตรวจ enum:

$.action in ["buy", "sell", "hold"]
Enter fullscreen mode Exit fullscreen mode

Regression ตรงนี้มักเงียบมาก เพราะ LLM อาจตอบคล้าย JSON แต่ parse ไม่ผ่านจริง

3. Provider parity

เมื่อลองเปลี่ยนจาก OpenAI ไป DeepSeek V4 เพื่อประหยัดต้นทุน อย่าดูแค่ผลลัพธ์ของ ticker เดียว ให้รัน dataset เล็ก เช่น 50 symbols ผ่าน provider ทั้งสอง แล้วเทียบ decision log

สิ่งที่ควรวัด:

  • distribution ของ buy/sell/hold
  • confidence average
  • disagreement rate
  • rationale similarity
  • latency
  • cost per run

อ่าน pattern request ได้จาก คู่มือ DeepSeek V4 API และฝั่ง OpenAI จาก คู่มือ GPT-5.5 API

รัน TradingAgents แบบขั้นต่ำ

Quickstart พื้นฐาน:

git clone https://github.com/TauricResearch/TradingAgents
cd TradingAgents
pip install -r requirements.txt

export OPENAI_API_KEY="sk-..."
export FINNHUB_API_KEY="..."

python -m tradingagents.cli \
  --ticker AAPL \
  --date 2026-04-30 \
  --models gpt-5.5 \
  --rounds 2
Enter fullscreen mode Exit fullscreen mode

--rounds 2 เป็นจำนวน debate round ขั้นต่ำที่พอมีความหมาย ผลลัพธ์จะอยู่ใน:

tradingagents/results/
Enter fullscreen mode Exit fullscreen mode

โดยทั่วไปจะมี JSON และ Markdown summary สำหรับ decision

หากต้องการใช้ DeepSeek V4 Pro สำหรับ role ที่ต้อง reasoning หนัก:

export DEEPSEEK_API_KEY="sk-..."

python -m tradingagents.cli \
  --ticker AAPL \
  --date 2026-04-30 \
  --models deepseek-v4-pro \
  --provider deepseek \
  --rounds 2
Enter fullscreen mode Exit fullscreen mode

รูปแบบเดียวกันใช้กับ Qwen 3.6, GLM 5 หรือ local model ที่เสิร์ฟผ่าน Ollama/vLLM ได้ หากต้องการเลือก local model อ่าน โพสต์เกี่ยวกับ LLM ท้องถิ่นที่ดีที่สุดของปี 2026

ข้อผิดพลาดที่พบบ่อย

ใช้โมเดลเล็กเกินไป

โมเดล 7B แบบ local มักสร้าง debate ที่วนซ้ำหรือเหตุผลตื้นเกินไป ควรใช้ reasoning quality ระดับกลางขึ้นไป เช่น DeepSeek V4 Flash, Qwen 3.6 32B, GPT-5.5 หรือ Claude 4.5

ไม่เปิด market data caching

แต่ละ analyst เรียก data layer แยกกัน หากไม่ cache คุณอาจยิง request 4-8 เท่าต่อหนึ่ง run และชน rate limit เร็วมาก

แนวทางที่ควรทำ:

enable cache
set cache TTL
mock provider in test
replay live provider only in scheduled regression
Enter fullscreen mode Exit fullscreen mode

มองว่าเป็น trading bot

TradingAgents เป็น research code ไม่ใช่ระบบเทรด production-ready ผล backtest อ่อนไหวต่อ model, prompt seed, debate length และ data quality ให้ถือ output เป็น hypothesis ไม่ใช่ strategy

ไม่ log token usage

หนึ่ง ticker อาจมีค่าใช้จ่ายตั้งแต่ $0.10 ถึง $5 ขึ้นกับ model และจำนวน round ให้บันทึกต้นทุนต่อ run ใน replay history ของ Apidog เพราะ loop ผิดพลาดใน debate stage ทำให้เกิดค่าใช้จ่ายจริงได้เร็วมาก

Hard-code provider เดียว

v0.2.0 เพิ่ม multi-provider support เพื่อให้สลับ provider ได้ ใช้จุดนี้ให้เป็นประโยชน์: รัน dataset เล็กผ่าน provider หลายรายแล้วเทียบ decision log ก่อนเปลี่ยน production config

Apidog เข้ากับ workflow นี้อย่างไร

Apidog มีประโยชน์ใน 3 จุดหลัก

1. Design phase

ก่อนต่อ TradingAgents กับ provider จริง ให้ร่าง endpoint ทั้งหมดใน Apidog พร้อม response example การเห็น schema ชัด ๆ ช่วยให้รู้ว่า framework ใช้ field ใดจริง และช่วยลดการจ่ายเงินให้ provider feature ที่ไม่ได้ใช้

2. Local CI

ใช้ Apidog mock server แทน market data provider ระหว่าง unit/integration test

ผลลัพธ์:

  • test suite เร็วขึ้น
  • ไม่พึ่ง internet/provider uptime
  • ไม่ชน rate limit
  • รัน weekend ได้
  • output deterministic

อ่าน pattern เพิ่มเติมได้ใน การทดสอบ API โดยไม่มี Postman

3. Regression comparison

ทุกสัปดาห์ replay live endpoint เทียบกับ mock ที่บันทึกไว้ Apidog จะช่วยเห็น field rename และ schema drift ก่อน agent เริ่มสร้างตัวเลขผิดจากข้อมูลที่เปลี่ยนไป

ทำไมสำคัญนอกเหนือจากการซื้อขาย

TradingAgents เป็นตัวอย่างที่ดีของ multi-agent decomposition ซึ่งนำไปใช้กับงานอื่นได้ เช่น:

  • Customer support triage: agent แยกตามประเภท ticket, debate, decision
  • Code review: security, performance, style agents แล้วให้ synthesizer สรุป PR comment
  • Compliance review: data analyst, risk reviewer, decision committee
  • Research summarization: reader หลายบทบาท, debate, synthesis

หากคุณกำลังออกแบบ agent workflow หลายขั้นตอน ให้ศึกษา TradingAgents เป็น reference เพราะมี pattern ที่นำกลับมาใช้ใหม่ได้:

  • role separation
  • debate stage
  • structured decision
  • persistent log
  • provider abstraction
  • testable API boundary

และทั้งหมดนี้ทดสอบได้ดีขึ้นเมื่อจับคู่กับ Apidog

กรณีการใช้งานจริง

ตัวอย่าง workflow ที่นำ pattern นี้ไปใช้ได้:

  • นักศึกษาวิจัยเชิงปริมาณใช้ TradingAgents เพื่อเปรียบเทียบ DeepSeek V4, GPT-5.5 และ Claude 4.5 บนหุ้นชุดเดียวกัน โดยให้ Apidog บันทึก request/response เพื่อ replay ได้
  • วิศวกรฟินเทคใช้ pattern หลายเอเจนต์กับ code review ภายใน: security agent, performance agent, naming/style agent และ synthesizer สร้าง PR comment
  • นักพัฒนาอิสระรัน TradingAgents ทุกคืนกับหุ้น 10 ตัว และบันทึก decision ลง Postgres เพื่อ audit ภายหลัง โดยใช้ Apidog mock server แทน market data provider ระหว่าง weekend test

บทสรุป

TradingAgents เป็นตัวอย่างที่ใช้งานได้จริงของระบบ LLM แบบหลายเอเจนต์ที่สร้าง decision มีโครงสร้าง ไม่ใช่แค่บทสนทนา v0.2.4 ทำให้ framework น่าสนใจขึ้นสำหรับ workflow ที่ต้องการความน่าเชื่อถือ: structured output, checkpoint resume, audit log และ multi-provider support

แต่สิ่งเหล่านี้จะมีประโยชน์ก็ต่อเมื่อคุณทดสอบ LLM layer และ market data layer ได้จริง นั่นคือเหตุผลที่ควรใช้ Apidog เพื่อ mock, replay, assert และตรวจ regression

ข้อคิดหลัก:

  • TradingAgents แยกการตัดสินใจซื้อขายออกเป็นเอเจนต์เฉพาะทางพร้อม debate stage
  • v0.2.4 เพิ่ม structured output, LangGraph checkpoint และ provider ใหม่ เช่น DeepSeek/Qwen/GLM/Azure
  • Mock market data provider ใน Apidog เพื่อให้ test deterministic
  • ทดสอบ provider parity ก่อนเปลี่ยน LLM ใน workflow จริง
  • Pattern “ผู้เชี่ยวชาญ → debate → decision → log” ใช้กับ agent workflow นอกเหนือจากการซื้อขายได้

ขั้นตอนถัดไป: clone repo, รัน ticker เดียวด้วย LLM ที่คุณต้องการ และส่ง upstream API ผ่าน mock server ของ Apidog คุณจะรู้ภายในหนึ่งชั่วโมงว่า framework นี้เหมาะกับ workflow ของคุณหรือไม่

คำถามที่พบบ่อย

TradingAgents ปลอดภัยสำหรับเงินจริงหรือไม่?

รีโพระบุชัดว่าเป็นโค้ดวิจัยและไม่ใช่คำแนะนำทางการเงิน ให้ถือ output เป็น hypothesis เท่านั้น การนำไปใช้กับการซื้อขายจริงเป็นความเสี่ยงของผู้ใช้เอง

LLM provider ใดคุ้มค่าที่สุด?

สำหรับหลาย workload ในช่วงต้นปี 2026 DeepSeek V4 Flash พร้อม thinking mode มีต้นทุนต่ำกว่า GPT-5.5 มาก และคุณภาพ debate ใกล้เคียงในบางงาน อ่านรูปแบบ request ได้จาก คู่มือ DeepSeek V4 API

รัน TradingAgents บน local model ได้ไหม?

ได้ v0.2.0 เพิ่ม multi-provider support และเครื่องมืออย่าง Ollama, vLLM, LM Studio สามารถเสิร์ฟ endpoint ที่เข้ากันได้กับ OpenAI อ่านเพิ่มเติมใน โพสต์เกี่ยวกับ LLM โลคอลที่ดีที่สุดของปี 2026

จำลอง market data API อย่างไร?

กำหนด endpoint ของ provider ใน Apidog, เปิด mock server แล้วชี้ config ของ TradingAgents ไปยัง mock URL รูปแบบนี้อธิบายเพิ่มเติมใน เครื่องมือทดสอบ API สำหรับวิศวกร QA

ต้องใช้ hardware ขั้นต่ำเท่าไร?

ถ้าใช้ hosted LLM เช่น OpenAI, Anthropic หรือ DeepSeek แล็ปท็อปที่มี Python 3.10+ ก็เพียงพอ หากเสิร์ฟ local model เอง hardware จะขึ้นกับโมเดล เช่น GPU 24 GB สำหรับโมเดลขนาดกลางบางตัว ส่วน GPU 8 GB อาจรันโมเดลเล็กได้แต่คุณภาพ reasoning จะลดลง

รองรับการจำลองนอกเวลาตลาดหรือสุดสัปดาห์ไหม?

ได้ หากใช้ข้อมูลย้อนหลัง provider จะส่งข้อมูลตามวันที่เลือกได้ Framework สามารถรันกับ date ที่กำหนดเอง ส่วน live trading เป็นปัญหาอีกชุดหนึ่งและไม่ใช่เป้าหมายหลักของ TradingAgents

เทียบกับ multi-agent framework อื่นอย่างไร?

TradingAgents ถูกออกแบบเฉพาะสำหรับโดเมนการซื้อขาย ส่วน CrewAI, AutoGen และ LangGraph เป็น framework อเนกประสงค์ หากต้องการศึกษา pattern ที่นำไปใช้ต่อได้ ให้อ่าน TradingAgents หากต้องการสร้างระบบ agent ทั่วไป ให้เริ่มจาก LangGraph ซึ่งเป็นฐาน orchestration สำคัญของ framework นี้

Top comments (0)