ลิงค์ Ollama Model Repo กับ LM Studio ผ่าน Gollama: ง่าย ครบ จบในที่เดียว! 🚀
เบื่อไหมกับการดาวน์โหลด LLM โมเดลใหญ่ ๆ ซ้ำซ้อนกันทั้งใน Ollama และ LM Studio? เสียเวลา เสียพื้นที่ใช่ไหมครับ? วันนี้เรามีทางออกที่ง่ายกว่า นั่นคือการใช้ Gollama!
Gollama จะเป็นสะพานเชื่อมให้ LM Studio สามารถ "เห็น" และใช้งานโมเดลที่คุณมีอยู่ใน Ollama ได้โดยตรง ไม่ต้องดาวน์โหลดซ้ำให้เปลืองเนื้อที่ และทำให้การจัดการโมเดลของคุณง่าย ครบ จบในที่เดียว!
ขั้นตอนง่าย ๆ ในการเชื่อมต่อ:
1. ติดตั้ง Gollama
ติดตั้ง Gollama ด้วยคำสั่งง่าย ๆ ผ่าน Terminal:
curl -sL https://raw.githubusercontent.com/sammcj/gollama/refs/heads/main/scripts/install.sh | bash
2. ดึง Model ด้วย Ollama
ตรวจสอบให้แน่ใจว่าคุณมีโมเดลที่ต้องการใน Ollama แล้ว หากยังไม่มี ก็แค่ ollama run โมเดลนั้น เช่น:
ollama run scb10x/typhoon-translate-4b
pulling manifest
pulling df4800286da0... 100% ▕██████████████████████████████████████████████████▏ 2.5 GB
pulling 64fa0d86774b... 100% ▕██████████████████████████████████████████████████▏ 360 B
pulling 574ba8831519... 100% ▕██████████████████████████████████████████████████▏ 39 B
pulling 1028bfde76f1... 100% ▕██████████████████████████████████████████████████▏ 70 B
pulling 8544b568851e... 100% ▕██████████████████████████████████████████████████▏ 489 B
verifying sha256 digest
writing manifest
...
3. ลิงค์โมเดลด้วย Gollama
รัน Gollama แบบ Interactive (gollama -i) เพื่อเลือกโมเดลที่คุณต้องการลิงค์ กดปุ่ม "l" เมื่อเลือกโมเดลได้แล้ว มันจะสร้าง Symbolic Link (Symlink) ชี้ไปยังโมเดลใน Ollama ของคุณ
4. เรียกใช้โมเดลใน LM Studio
เปิด LM Studio คุณจะเห็นโมเดลที่ลิงค์ปรากฏในรายการ "My Models" หรือ "Local Models" พร้อมโหลดและใช้งานได้ทันที ไม่ต้องดาวน์โหลดซ้ำ!
โมเดลที่ถูกลิงค์จะปรากฏใน LM Studio พร้อมใช้งานทันที!
คุณไม่จำเป็นต้องดาวน์โหลดโมเดลซ้ำใน LM Studio อีกต่อไป เพียงแค่เลือกและโหลดจากรายการ ก็สามารถเริ่มการสนทนาหรือการประมวลผลภาษาด้วยโมเดลที่คุณมีอยู่ใน Ollama ได้เลย
สรุป: ประหยัดกว่า ง่ายกว่า!
การใช้ Gollama ไม่ใช่แค่ช่วย ประหยัดพื้นที่จัดเก็บ เท่านั้น แต่ยังทำให้ จัดการโมเดลได้ง่ายขึ้น และ Workflow ราบรื่น ระหว่าง Ollama และ LM Studio ทำให้การทดลอง LLMs ของคุณมีประสิทธิภาพมากขึ้นอย่างเห็นได้ชัด!
ถูกใจกด เป็นกำลังใจให้ทำคอนเทนต์ดีๆ & ติดตามเรื่องที่น่าสนใจผ่านทาง
Warun Chareonsuk & Super AI Agent -- @ubinix-warun
ตามลิงค์เข้าไปเลี้ยงกาแฟผมได้ที่ ☕ Buy Me A Coffee
Top comments (0)