[AI Chat] How to install & run Ollama in windows + wsl2

PanachaiNY
Feb 28, 2024

ช่วงนี้ผมกำลังศึกษา LLM (Large language model) ในหลายๆ use case ก็มาเจอกับ Ollama ที่ค่อนข้างน่าสนใจ ติดตั้ง พร้อมใช้งาน demo ง่ายมากๆ ลองมาดูกันครับ

Prerequisite

  • wsl 2 (Windows Subsystem for Linux)
  • Windows

Reason

เหตุผลที่เลือกใช้ wsl2 + Windows เพราะว่าชอบ CLI ของ Linux มากกว่า (ใช้ mac มาตลอดตั้งแต่เริ่มทำงาน) และมัน compatibility กับบน server ซึ่งส่วนใหญ่ก็เป็น Linux เช่นกัน ส่วนตัวเลย prefer wsl2 ถ้าทำงานบน Windows

และการที่ย้ายมาใช้ windows ทำงานก็เพราะว่ามี GPU ให้ใช้ทำให้รัน model ต่างๆ ได้ไวกว่า MacBook มากๆ

แต่ในบทความนี้ไม่ได้มาสอนลง WSL นะครับบบ

Install

ง่ายๆ ตาม scripts เลยครับ ref

# ติดตั้ง Ollama
curl -fsSL https://ollama.com/install.sh | sh

ทีนี้ผมจะลองรัน model llama2 ของ meta ref


# CLI 1 serve ollama server
ollama serve
# CLI 2 สั่งรัน llama2 (ถ้าไม่มี จะทำการ pull model อัตโนมัติ)
ollama run llama2

ทีนี้ก็สามารถ แชทคุยผ่าน cli ได้เลยครับ~

--

--