AI
เฮ้ย! ใครว่ารัน Large Language Model (LLM) ต้องใช้ Cloud อย่างเดียว สมัยผมทำร้านเน็ตฯ เมื่อ 20 กว่าปีก่อน ถ้าใครบอกว่า "เฮ้ย พี่! ผมจะรัน AI บนเครื่องตัวเอง" ผมคงขำกลิ้ง แต่ยุคสมัยมันเปลี่ยนไปแล้วน้อง ตอนนี้เรามี Ollama ไง!
Ollama เนี่ย มันคือ Framework ที่ทำให้เราสามารถรัน LLM เจ๋งๆ อย่าง Llama 2, Mistral, หรือแม้แต่รุ่นที่ปรับแต่งเอง บนเครื่องคอมพิวเตอร์ของเราได้เลย ไม่ต้องง้อ Cloud ไม่ต้องจ่ายรายเดือนให้เปลืองตังค์ แถมยังเป็น Open Source อีกต่างหาก!
ถามว่าทำไมต้อง Ollama? ง่ายๆ เลยนะ:
สมัยผมทำร้านเน็ตฯ ผมเคยเจอเคสลูกค้าอยากได้โปรแกรมคิดเงินที่ทำงานได้แม้เน็ตจะหลุด Ollama นี่ตอบโจทย์เลย!
Ollama ทำงานโดยการสร้างสิ่งที่เรียกว่า "โมเดล" ซึ่งก็คือไฟล์ที่เก็บข้อมูลของ LLM นั้นๆ แล้วก็ใช้ Engine ของ Ollama ในการประมวลผลและตอบคำถามของเรา
ขั้นตอนการทำงานง่ายๆ คือ:
ollama pull [ชื่อโมเดล] ใน Terminal เพื่อดาวน์โหลดโมเดลที่เราต้องการ เช่น ollama pull llama2
ollama run [ชื่อโมเดล] เพื่อเริ่มใช้งานโมเดล เช่น ollama run llama2
# ตัวอย่างการดาวน์โหลดและรัน Llama 2
ollama pull llama2
ollama run llama2
# แล้วก็พิมพ์คุยได้เลย!
มาดูวิธีติดตั้ง Ollama กันแบบละเอียดๆ ทีละขั้นตอน
ง่ายสุดๆ แค่ดาวน์โหลดไฟล์ .dmg จาก ollama.com แล้วก็ดับเบิลคลิกเพื่อติดตั้งเหมือนโปรแกรมทั่วไปเลย
พอติดตั้งเสร็จ Ollama จะรันเป็น Background Service เองอัตโนมัติ
สำหรับ Linux จะมีหลายวิธีขึ้นอยู่กับ Distribution ที่ใช้ แต่โดยทั่วไปแล้วจะใช้คำสั่งผ่าน Terminal
# Debian/Ubuntu
curl -fsSL https://ollama.com/install.sh | sh
# Arch Linux (ผ่าน AUR)
yay -S ollama
หลังจากติดตั้งเสร็จ อย่าลืม Start Service ด้วยนะ
sudo systemctl start ollama
sudo systemctl enable ollama
Ollama บน Windows ยังอยู่ในช่วง Preview (ณ วันที่เขียนบทความนี้) อาจจะยังมี Bug บ้าง แต่ก็ใช้งานได้แล้ว
วิธีการติดตั้งก็คล้ายๆ macOS คือดาวน์โหลดไฟล์ .exe จาก ollama.com แล้วก็ดับเบิลคลิกเพื่อติดตั้ง
แต่สิ่งที่ต้องระวังคือ Ollama บน Windows จะต้องใช้ WSL2 (Windows Subsystem for Linux 2) ก่อนนะ ใครยังไม่ได้ติดตั้งก็ต้องไปติดตั้งก่อน
หลังจากติดตั้ง WSL2 และ Ollama แล้ว ก็สามารถใช้งานได้เหมือนบน Linux เลย
Ollama รองรับ LLM หลายตัว แต่ละตัวก็มีจุดเด่นจุดด้อยต่างกัน ลองดูตารางเปรียบเทียบนี้:
| ชื่อโมเดล | ขนาด (parameters) | จุดเด่น | จุดด้อย | เหมาะสำหรับ |
|---|---|---|---|---|
| Llama 2 | 7B, 13B, 70B | Open Source, ประสิทธิภาพดี, มีหลายขนาดให้เลือก | ขนาดใหญ่ใช้ทรัพยากรเยอะ | งานทั่วไป, สร้าง Chatbot |
| Mistral 7B | 7B | Open Source, เล็กแต่แรง, เร็ว | อาจจะฉลาดสู้ Llama 2 ไม่ได้ | เครื่องสเปคไม่สูง, งานที่ต้องการความเร็ว |
| Code Llama | 7B, 13B, 34B | Open Source, เก่งเรื่องเขียน Code | ไม่เก่งเรื่องภาษาธรรมชาติเท่าไหร่ | เขียนโปรแกรม, ช่วย Debug Code |
| Vicuna | 7B, 13B | ปรับปรุงจาก Llama, ฉลาดขึ้น | License อาจจะซับซ้อนกว่า Llama 2 | งานที่ต้องการความฉลาด |
เลือกโมเดลให้เหมาะกับงานและสเปคเครื่องของเรานะน้อง! ลองเข้าไปอ่านรีวิวเพิ่มเติมได้ที่ SiamCafe Blog นะครับ
ดูวิดีโอเพิ่มเติมเกี่ยวกับOllama รัน LLM บนเครื่องตัวเอง:
สมัยผมทำร้านเน็ต ผมจะจัดระเบียบเกมส์ในเครื่องลูกให้ดี ไม่งั้นเละ! Ollama ก็เหมือนกันครับ จัดการ models ให้ดี จะได้ไม่รก
ลองสร้าง directory เฉพาะเก็บ models ที่ใช้บ่อยๆ แล้ว alias command ใน shell ให้เรียกใช้ง่ายๆ ครับ เช่น alias codellama='ollama run codellama' จะได้ไม่ต้องพิมพ์ยาวๆ ทุกครั้ง
Ollama มันกิน resource พอสมควรนะ โดยเฉพาะ CPU และ RAM สมัยก่อน RAM 16MB นี่หรูแล้ว เดี๋ยวนี้ 16GB ยังแทบไม่พอ
เช็ค CPU utilization และ memory usage บ่อยๆ ถ้าเครื่องเริ่มอืด อาจจะต้องลดขนาด model หรือปิด processes อื่นๆ ที่ไม่ได้ใช้
ไม่ใช่ว่า model ใหญ่ๆ จะดีเสมอไป บางที model เล็กๆ ก็ทำงานได้ดีกว่า แถมเร็วกว่าด้วย เลือก model ให้เหมาะกับงานที่ทำครับ
ลอง benchmark models ต่างๆ ดู แล้วเลือกตัวที่ performance ดีที่สุดสำหรับ use case ของเรา
Software อะไรก็เหมือนกัน ต้องอัพเดทเสมอ! Ollama ก็เหมือนกันครับ อัพเดทเป็นประจำ เพื่อให้ได้ features ใหม่ๆ และ bug fixes
เช็ค release notes บ่อยๆ จะได้รู้ว่ามีอะไรใหม่ๆ บ้าง SiamCafe Blog มีบทความอัพเดทเรื่อยๆ ลองแวะไปอ่านดู
รองรับครับ! แต่ต้อง configure ให้ถูกต้อง ลองดู documentation ของ Ollama ได้เลย
สมัยผมทำร้านเน็ต การ์ดจอสำคัญมาก! เกมส์สวยๆ ต้องใช้การ์ดจอแรงๆ Ollama ก็เหมือนกัน ใช้ GPU ช่วยประมวลผลจะเร็วกว่าเยอะ
เยอะครับ! โดยเฉพาะตอนโหลด models และตอน generate text ถ้าเครื่อง spec ไม่ถึง อาจจะค้างได้
ลองเริ่มต้นด้วย models ขนาดเล็กๆ ก่อน แล้วค่อยๆ ขยับไป models ที่ใหญ่ขึ้น ถ้าเครื่องไหว
Ollama เองฟรีครับ! แต่ models บางตัวอาจจะต้องเสียเงินซื้อ (แล้วแต่ license ของแต่ละ model)
เหมือนสมัยก่อน เกมส์ฟรีก็มี เกมส์เสียเงินก็มี เลือกเอาตามงบประมาณและความต้องการ
ได้ครับ! Ollama มี Docker image ให้ใช้ด้วย สะดวกมาก
ผมชอบใช้ Docker นะ มันช่วยให้จัดการ dependencies ได้ง่ายดี
เยอะแยะเลยครับ! ตั้งแต่ generate text, code completion, ตอบคำถาม, แปลภาษา, สรุปบทความ, และอื่นๆ อีกมากมาย
ลองเอาไปใช้กับงานที่ทำอยู่ดู อาจจะมี use case ที่คาดไม่ถึงก็ได้ iCafeForex ก็ใช้ AI ช่วยวิเคราะห์ตลาดนะ
Ollama เป็นเครื่องมือที่น่าสนใจมาก สำหรับคนที่อยากลองเล่น LLM บนเครื่องตัวเอง
ถึงแม้ว่าอาจจะต้องใช้ resource เยอะหน่อย แต่ถ้า configure ดีๆ ก็สามารถใช้งานได้อย่างมีประสิทธิภาพ
ลองเอาไปเล่นดู แล้วจะรู้ว่า AI มันสนุกกว่าที่คิดเยอะ!