Ollama รัน LLM บนเครื่องตัวเอง AI

Ollama รัน LLM บนเครื่องตัวเอง

📅 2026-02-09 | โดย อ.บอม กิตติทัศน์ เจริญพนาสิทธิ์ — SiamCafe.net Since 1997

Ollama: รัน LLM บนเครื่องตัวเอง ง่ายกว่าที่คิด!

เฮ้ย! ใครว่ารัน Large Language Model (LLM) ต้องใช้ Cloud อย่างเดียว สมัยผมทำร้านเน็ตฯ เมื่อ 20 กว่าปีก่อน ถ้าใครบอกว่า "เฮ้ย พี่! ผมจะรัน AI บนเครื่องตัวเอง" ผมคงขำกลิ้ง แต่ยุคสมัยมันเปลี่ยนไปแล้วน้อง ตอนนี้เรามี Ollama ไง!

Ollama เนี่ย มันคือ Framework ที่ทำให้เราสามารถรัน LLM เจ๋งๆ อย่าง Llama 2, Mistral, หรือแม้แต่รุ่นที่ปรับแต่งเอง บนเครื่องคอมพิวเตอร์ของเราได้เลย ไม่ต้องง้อ Cloud ไม่ต้องจ่ายรายเดือนให้เปลืองตังค์ แถมยังเป็น Open Source อีกต่างหาก!

ทำไมต้อง Ollama?

ถามว่าทำไมต้อง Ollama? ง่ายๆ เลยนะ:

สมัยผมทำร้านเน็ตฯ ผมเคยเจอเคสลูกค้าอยากได้โปรแกรมคิดเงินที่ทำงานได้แม้เน็ตจะหลุด Ollama นี่ตอบโจทย์เลย!

Ollama ทำงานยังไง?

Ollama ทำงานโดยการสร้างสิ่งที่เรียกว่า "โมเดล" ซึ่งก็คือไฟล์ที่เก็บข้อมูลของ LLM นั้นๆ แล้วก็ใช้ Engine ของ Ollama ในการประมวลผลและตอบคำถามของเรา

ขั้นตอนการทำงานง่ายๆ คือ:

  1. ดาวน์โหลด Ollama: ไปที่ ollama.com แล้วดาวน์โหลดเวอร์ชันที่เหมาะกับ OS ของเรา (macOS, Linux, Windows)
  2. ดาวน์โหลดโมเดล: ใช้คำสั่ง ollama pull [ชื่อโมเดล] ใน Terminal เพื่อดาวน์โหลดโมเดลที่เราต้องการ เช่น ollama pull llama2
  3. รันโมเดล: ใช้คำสั่ง ollama run [ชื่อโมเดล] เพื่อเริ่มใช้งานโมเดล เช่น ollama run llama2
  4. คุยกับโมเดล: พิมพ์ข้อความอะไรก็ได้ แล้วกด Enter โมเดลก็จะตอบกลับมา

# ตัวอย่างการดาวน์โหลดและรัน Llama 2
ollama pull llama2
ollama run llama2

# แล้วก็พิมพ์คุยได้เลย!

ติดตั้ง Ollama: Step-by-Step

มาดูวิธีติดตั้ง Ollama กันแบบละเอียดๆ ทีละขั้นตอน

ติดตั้งบน macOS

ง่ายสุดๆ แค่ดาวน์โหลดไฟล์ .dmg จาก ollama.com แล้วก็ดับเบิลคลิกเพื่อติดตั้งเหมือนโปรแกรมทั่วไปเลย

พอติดตั้งเสร็จ Ollama จะรันเป็น Background Service เองอัตโนมัติ

ติดตั้งบน Linux

สำหรับ Linux จะมีหลายวิธีขึ้นอยู่กับ Distribution ที่ใช้ แต่โดยทั่วไปแล้วจะใช้คำสั่งผ่าน Terminal


# Debian/Ubuntu
curl -fsSL https://ollama.com/install.sh | sh

# Arch Linux (ผ่าน AUR)
yay -S ollama

หลังจากติดตั้งเสร็จ อย่าลืม Start Service ด้วยนะ


sudo systemctl start ollama
sudo systemctl enable ollama

ติดตั้งบน Windows (Preview)

Ollama บน Windows ยังอยู่ในช่วง Preview (ณ วันที่เขียนบทความนี้) อาจจะยังมี Bug บ้าง แต่ก็ใช้งานได้แล้ว

วิธีการติดตั้งก็คล้ายๆ macOS คือดาวน์โหลดไฟล์ .exe จาก ollama.com แล้วก็ดับเบิลคลิกเพื่อติดตั้ง

แต่สิ่งที่ต้องระวังคือ Ollama บน Windows จะต้องใช้ WSL2 (Windows Subsystem for Linux 2) ก่อนนะ ใครยังไม่ได้ติดตั้งก็ต้องไปติดตั้งก่อน

หลังจากติดตั้ง WSL2 และ Ollama แล้ว ก็สามารถใช้งานได้เหมือนบน Linux เลย

เปรียบเทียบ LLM ที่ใช้กับ Ollama ได้

Ollama รองรับ LLM หลายตัว แต่ละตัวก็มีจุดเด่นจุดด้อยต่างกัน ลองดูตารางเปรียบเทียบนี้:

ชื่อโมเดล ขนาด (parameters) จุดเด่น จุดด้อย เหมาะสำหรับ
Llama 2 7B, 13B, 70B Open Source, ประสิทธิภาพดี, มีหลายขนาดให้เลือก ขนาดใหญ่ใช้ทรัพยากรเยอะ งานทั่วไป, สร้าง Chatbot
Mistral 7B 7B Open Source, เล็กแต่แรง, เร็ว อาจจะฉลาดสู้ Llama 2 ไม่ได้ เครื่องสเปคไม่สูง, งานที่ต้องการความเร็ว
Code Llama 7B, 13B, 34B Open Source, เก่งเรื่องเขียน Code ไม่เก่งเรื่องภาษาธรรมชาติเท่าไหร่ เขียนโปรแกรม, ช่วย Debug Code
Vicuna 7B, 13B ปรับปรุงจาก Llama, ฉลาดขึ้น License อาจจะซับซ้อนกว่า Llama 2 งานที่ต้องการความฉลาด

เลือกโมเดลให้เหมาะกับงานและสเปคเครื่องของเรานะน้อง! ลองเข้าไปอ่านรีวิวเพิ่มเติมได้ที่ SiamCafe Blog นะครับ

🎬 วิดีโอแนะนำ

ดูวิดีโอเพิ่มเติมเกี่ยวกับOllama รัน LLM บนเครื่องตัวเอง:

FAQ เกี่ยวกับ Ollama

Q: Ollama ปลอดภัยไหม?
A: Ollama เป็น Open Source เราสามารถตรวจสอบ Code ได้เอง แต่ก็ต้องระวังเรื่องโมเดลที่เราดาวน์โหลดมาด้วย ควรดาวน์โหลดจากแหล่งที่น่าเชื่อถือเท่านั้น
Q: Ollama ใช้ GPU หรือ CPU?
A: Ollama สามารถใช้ได้ทั้ง GPU และ CPU แต่ถ้ามี GPU จะเร็วกว่าเยอะมากๆ ถ้าเครื่องใครมี GPU แนะนำให้ใช้ GPU นะ
Q: Ollama กินทรัพยากรเยอะไหม?
A: ขึ้นอยู่กับขนาดของโมเดลที่เราใช้ โมเดลใหญ่ก็กินทรัพยากรเยอะ โมเดลเล็กก็กินทรัพยากรน้อย ควรเลือกโมเดลให้เหมาะสมกับสเปคเครื่องของเรา
Q: Ollama ใช้กับภาษาไทยได้ไหม?
A: ได้ แต่ประสิทธิภาพอาจจะไม่ดีเท่าภาษาอังกฤษ เพราะ LLM ส่วนใหญ่ถูก Train ด้วยข้อมูลภาษาอังกฤษเป็นหลัก แต่ก็มีโมเดลที่ถูก Fine-tune สำหรับภาษาไทยแล้ว ลองหาดูใน SiamCafe Blog นะ
Q: Ollama ใช้กับ Framework อื่นๆ ได้ไหม?
A: ได้ Ollama มี API ให้เราเรียกใช้งานได้จากโปรแกรมอื่นๆ เช่น Python, JavaScript หรือ Go

Best Practices การใช้งาน Ollama ให้คุ้มค่า

จัดการ Models ให้ดี

สมัยผมทำร้านเน็ต ผมจะจัดระเบียบเกมส์ในเครื่องลูกให้ดี ไม่งั้นเละ! Ollama ก็เหมือนกันครับ จัดการ models ให้ดี จะได้ไม่รก

ลองสร้าง directory เฉพาะเก็บ models ที่ใช้บ่อยๆ แล้ว alias command ใน shell ให้เรียกใช้ง่ายๆ ครับ เช่น alias codellama='ollama run codellama' จะได้ไม่ต้องพิมพ์ยาวๆ ทุกครั้ง

Monitor Resource Usage

Ollama มันกิน resource พอสมควรนะ โดยเฉพาะ CPU และ RAM สมัยก่อน RAM 16MB นี่หรูแล้ว เดี๋ยวนี้ 16GB ยังแทบไม่พอ

เช็ค CPU utilization และ memory usage บ่อยๆ ถ้าเครื่องเริ่มอืด อาจจะต้องลดขนาด model หรือปิด processes อื่นๆ ที่ไม่ได้ใช้

เลือก Model ให้เหมาะกับงาน

ไม่ใช่ว่า model ใหญ่ๆ จะดีเสมอไป บางที model เล็กๆ ก็ทำงานได้ดีกว่า แถมเร็วกว่าด้วย เลือก model ให้เหมาะกับงานที่ทำครับ

ลอง benchmark models ต่างๆ ดู แล้วเลือกตัวที่ performance ดีที่สุดสำหรับ use case ของเรา

อัพเดท Ollama เป็นประจำ

Software อะไรก็เหมือนกัน ต้องอัพเดทเสมอ! Ollama ก็เหมือนกันครับ อัพเดทเป็นประจำ เพื่อให้ได้ features ใหม่ๆ และ bug fixes

เช็ค release notes บ่อยๆ จะได้รู้ว่ามีอะไรใหม่ๆ บ้าง SiamCafe Blog มีบทความอัพเดทเรื่อยๆ ลองแวะไปอ่านดู

FAQ คำถามที่พบบ่อยเกี่ยวกับ Ollama

Ollama รองรับ GPU ไหม?

รองรับครับ! แต่ต้อง configure ให้ถูกต้อง ลองดู documentation ของ Ollama ได้เลย

สมัยผมทำร้านเน็ต การ์ดจอสำคัญมาก! เกมส์สวยๆ ต้องใช้การ์ดจอแรงๆ Ollama ก็เหมือนกัน ใช้ GPU ช่วยประมวลผลจะเร็วกว่าเยอะ

Ollama กิน Spec เครื่องเยอะไหม?

เยอะครับ! โดยเฉพาะตอนโหลด models และตอน generate text ถ้าเครื่อง spec ไม่ถึง อาจจะค้างได้

ลองเริ่มต้นด้วย models ขนาดเล็กๆ ก่อน แล้วค่อยๆ ขยับไป models ที่ใหญ่ขึ้น ถ้าเครื่องไหว

Ollama ฟรีไหม?

Ollama เองฟรีครับ! แต่ models บางตัวอาจจะต้องเสียเงินซื้อ (แล้วแต่ license ของแต่ละ model)

เหมือนสมัยก่อน เกมส์ฟรีก็มี เกมส์เสียเงินก็มี เลือกเอาตามงบประมาณและความต้องการ

ใช้ Ollama กับ Docker ได้ไหม?

ได้ครับ! Ollama มี Docker image ให้ใช้ด้วย สะดวกมาก

ผมชอบใช้ Docker นะ มันช่วยให้จัดการ dependencies ได้ง่ายดี

Ollama ใช้ทำอะไรได้บ้าง?

เยอะแยะเลยครับ! ตั้งแต่ generate text, code completion, ตอบคำถาม, แปลภาษา, สรุปบทความ, และอื่นๆ อีกมากมาย

ลองเอาไปใช้กับงานที่ทำอยู่ดู อาจจะมี use case ที่คาดไม่ถึงก็ได้ iCafeForex ก็ใช้ AI ช่วยวิเคราะห์ตลาดนะ

สรุป

Ollama เป็นเครื่องมือที่น่าสนใจมาก สำหรับคนที่อยากลองเล่น LLM บนเครื่องตัวเอง

ถึงแม้ว่าอาจจะต้องใช้ resource เยอะหน่อย แต่ถ้า configure ดีๆ ก็สามารถใช้งานได้อย่างมีประสิทธิภาพ

ลองเอาไปเล่นดู แล้วจะรู้ว่า AI มันสนุกกว่าที่คิดเยอะ!