LM Studio รัน AI Local ง่ายๆ AI

LM Studio รัน AI Local ง่ายๆ

📅 2026-02-09 | โดย อ.บอม กิตติทัศน์ เจริญพนาสิทธิ์ — SiamCafe.net Since 1997

LM Studio: รัน AI Local ง่ายกว่าที่คิด (สมัยผมทำร้านเน็ต...)

เฮ้ย! ใครว่า AI ต้องรันบน Cloud อย่างเดียว? สมัยผมทำร้านเน็ตเมื่อ 20 กว่าปีที่แล้ว ใครจะคิดว่าวันนึงเราจะรัน AI เจ๋งๆ บนคอมพิวเตอร์ที่บ้านได้สบายๆ วันนี้ผมจะมาเล่าเรื่อง LM Studio ให้ฟังกัน มันคือเครื่องมือที่ทำให้เราสามารถรัน Large Language Model (LLM) หรือพวก AI ภาษาต่างๆ แบบ Local ได้ง่ายมากๆ เลยครับ

ทำไมต้องรัน AI Local? ข้อดีเพียบ! อย่างแรกเลยคือ ความเป็นส่วนตัว ข้อมูลของเราไม่ต้องส่งไปให้ใครวิเคราะห์ ไม่ต้องกลัวข้อมูลรั่วไหล สองคือ ความเร็ว เพราะไม่ต้องพึ่งอินเทอร์เน็ต Latency น้อยกว่าเยอะ สามคือ ความยืดหยุ่น เราสามารถปรับแต่งโมเดลต่างๆ ได้ตามใจชอบ ไม่ต้องง้อ Vendor

LM Studio คืออะไร? ทำไมต้องใช้?

LM Studio เป็นแอปพลิเคชัน Desktop ที่ออกแบบมาให้เราสามารถดาวน์โหลด รัน และทดสอบ LLM ได้ง่ายๆ มันรองรับโมเดล Open Source หลายตัว ไม่ว่าจะเป็น Llama 2, Mistral, หรือ Gemma ที่กำลังฮิตๆ กันอยู่ แถมยังมี UI ที่ใช้งานง่ายมากๆ เหมาะสำหรับคนที่อยากลองเล่น AI แต่ไม่อยากปวดหัวกับการติดตั้งที่ซับซ้อน

สมัยผมทำร้านเน็ตนี่นะ อยากลองทำอะไรใหม่ๆ ที ต้องนั่งงม Command Line เป็นวันๆ กว่าจะรันอะไรได้สักอย่าง LM Studio นี่คือสวรรค์ชัดๆ!

ติดตั้ง LM Studio: ง่ายกว่าลงเกมอีก!

การติดตั้ง LM Studio ง่ายมากๆ แค่เข้าไปที่เว็บไซต์ของ LM Studio แล้วดาวน์โหลดตัวติดตั้งให้ตรงกับระบบปฏิบัติการของเรา (Windows, macOS, Linux) จากนั้นก็รันตัวติดตั้งแล้วทำตามขั้นตอนที่ปรากฏบนหน้าจอ แค่นี้ก็เรียบร้อย!

หลังจากติดตั้งเสร็จแล้ว เราจะได้หน้าตาโปรแกรมประมาณนี้:


// ตัวอย่าง: หน้าตาโปรแกรม LM Studio (บรรยาย)
// - ช่องค้นหาโมเดล
// - รายการโมเดลที่ดาวน์โหลดแล้ว
// - แถบเครื่องมือสำหรับการตั้งค่า

ดาวน์โหลดโมเดล: เลือกที่ใช่ สไตล์ที่ชอบ

หลังจากติดตั้ง LM Studio แล้ว ขั้นตอนต่อไปคือการดาวน์โหลดโมเดลที่เราต้องการ LM Studio มี Browser ในตัว ทำให้เราสามารถค้นหาโมเดลต่างๆ ที่มีอยู่บน Hugging Face ได้โดยตรง

วิธีการก็ง่ายๆ แค่พิมพ์ชื่อโมเดลที่เราสนใจลงในช่องค้นหา แล้วกด Enter จากนั้น LM Studio จะแสดงรายการโมเดลที่เกี่ยวข้องออกมาให้เราเลือก


// ตัวอย่าง: การค้นหาโมเดล Llama 2
// พิมพ์ "Llama 2" ในช่องค้นหา
// กด Enter
// เลือกโมเดลที่ต้องการจากรายการ

เมื่อเจอโมเดลที่ต้องการแล้ว ให้คลิกที่ชื่อโมเดล แล้ว LM Studio จะแสดงรายละเอียดของโมเดลนั้นๆ พร้อมทั้งปุ่ม "Download" ให้เรากด

ข้อควรรู้: โมเดลแต่ละตัวมีขนาดไฟล์ที่แตกต่างกัน โมเดลที่มีขนาดใหญ่กว่ามักจะให้ผลลัพธ์ที่ดีกว่า แต่ก็ใช้ทรัพยากรเครื่องมากกว่าด้วย เลือกให้เหมาะสมกับสเปคเครื่องของเรานะครับ

รันโมเดล: สนทนากับ AI ส่วนตัว

หลังจากดาวน์โหลดโมเดลเสร็จแล้ว เราก็สามารถรันโมเดลได้เลย LM Studio จะมี Interface ให้เราป้อนข้อความ (Prompt) และส่งให้โมเดลประมวลผล จากนั้นโมเดลก็จะสร้างข้อความตอบกลับมาให้เรา

ลองพิมพ์อะไรสนุกๆ ลงไปสิ! เช่น "แนะนำร้านอาหารอร่อยๆ แถว SiamCafe Blog หน่อย" หรือ "เขียนบทกวีเกี่ยวกับแมว"


// ตัวอย่าง: การรันโมเดล
// 1. เลือกโมเดลที่ต้องการจากรายการ
// 2. พิมพ์ข้อความ (Prompt) ในช่องป้อนข้อความ
// 3. กด Enter หรือคลิกที่ปุ่ม "Send"
// 4. อ่านผลลัพธ์ที่โมเดลสร้างขึ้น

LM Studio ยังมีฟังก์ชัน "Inference Engine" ที่ช่วยให้เราปรับแต่งการทำงานของโมเดลได้ เช่น ปรับอุณหภูมิ (Temperature) เพื่อควบคุมความสร้างสรรค์ของโมเดล หรือปรับ Top P เพื่อควบคุมความหลากหลายของผลลัพธ์

ตารางเปรียบเทียบ LM Studio กับการรัน AI บน Cloud

คุณสมบัติ LM Studio (Local) Cloud AI
ความเป็นส่วนตัว สูง (ข้อมูลอยู่บนเครื่องเรา) ต่ำ (ข้อมูลถูกส่งไปประมวลผลบน Cloud)
ความเร็ว เร็วกว่า (Latency ต่ำกว่า) ช้ากว่า (ต้องรอการตอบสนองจาก Server)
ค่าใช้จ่าย ฟรี (ยกเว้นค่าไฟ) มีค่าใช้จ่าย (ตามปริมาณการใช้งาน)
ความยืดหยุ่น สูง (ปรับแต่งโมเดลได้ตามใจชอบ) ต่ำ (จำกัดโดย Vendor)
การเข้าถึง ต้องมีเครื่องที่มีสเปคเหมาะสม เข้าถึงได้จากทุกที่ที่มีอินเทอร์เน็ต

LM Studio: มากกว่าแค่รันโมเดล

นอกจากจะใช้รันโมเดล LLM ได้แล้ว LM Studio ยังมีฟีเจอร์อื่นๆ ที่น่าสนใจอีกเพียบ! ผมจะมาเล่าให้ฟังต่อ

สร้าง Server API: แปลงเครื่องเราให้เป็น AI Server

LM Studio สามารถแปลงเครื่องคอมพิวเตอร์ของเราให้เป็น AI Server ได้ง่ายๆ ด้วยฟังก์ชัน "Local Inference Server" ฟังก์ชันนี้จะสร้าง API Endpoint ที่เราสามารถเรียกใช้โมเดลผ่าน HTTP Request ได้

สมัยผมทำร้านเน็ตนะ ถ้ามีฟังก์ชันแบบนี้คงจะดีมากๆ จะได้เอาไปทำระบบตอบคำถามอัตโนมัติให้ลูกค้าได้สบายๆ


// ตัวอย่าง: การสร้าง API Endpoint
// 1. ไปที่เมนู "Server"
// 2. เลือกโมเดลที่ต้องการ
// 3. กำหนด Port Number
// 4. กดปุ่ม "Start Server"

หลังจาก Start Server แล้ว เราจะได้ URL ของ API Endpoint มา เช่น http://localhost:1234/v1/completions เราสามารถใช้ URL นี้ในการส่ง Request ไปยังโมเดลได้

Chatbot UI: สร้าง Chatbot ส่วนตัว

LM Studio มีฟังก์ชัน "Chatbot" ที่ช่วยให้เราสร้าง Chatbot ส่วนตัวได้ง่ายๆ เราสามารถกำหนด Personality ของ Chatbot ได้ เช่น ชื่อ อายุ เพศ ความสนใจ หรือแม้กระทั่งสำเนียงการพูด!

ลองสร้าง Chatbot ที่มีบุคลิกเหมือน SiamCafe Blog ดูสิ! รับรองว่าสนุกแน่นอน

Import โมเดลจากแหล่งอื่น: ไม่จำกัดแค่ Hugging Face

LM Studio ไม่ได้จำกัดอยู่แค่โมเดลที่อยู่บน Hugging Face เท่านั้น เรายังสามารถ Import โมเดลจากแหล่งอื่นได้ด้วย เช่น โมเดลที่เราสร้างขึ้นเอง หรือโมเดลที่ดาวน์โหลดมาจากเว็บไซต์อื่นๆ

วิธีการ Import โมเดลก็ง่ายๆ แค่ Copy ไฟล์โมเดล (เช่น ไฟล์ .gguf หรือ .bin) ไปไว้ใน Folder ที่ LM Studio กำหนด

🎬 วิดีโอแนะนำ

ดูวิดีโอเพิ่มเติมเกี่ยวกับLM Studio รัน AI Local ง่ายๆ:

LM Studio: Tips & Tricks

มาถึงตรงนี้ ผมมี Tips & Tricks เล็กๆ น้อยๆ ที่จะช่วยให้เราใช้งาน LM Studio ได้อย่างมีประสิทธิภาพมากขึ้น

เลือกโมเดลให้เหมาะกับงาน

โมเดลแต่ละตัวมีความสามารถที่แตกต่างกัน บางโมเดลเก่งเรื่องการเขียน บางโมเดลเก่งเรื่องการแปลภาษา บางโมเดลเก่งเรื่องการ Coding เลือกโมเดลให้เหมาะสมกับงานที่เราต้องการทำ

ปรับ Temperature ให้เหมาะสม

Temperature เป็น Parameter ที่ควบคุมความสร้างสรรค์ของโมเดล ถ้าตั้งค่า Temperature สูง โมเดลจะสร้างผลลัพธ์ที่สร้างสรรค์และคาดเดาไม่ได้ แต่ก็อาจจะมีความผิดพลาดมากขึ้น ถ้าตั้งค่า Temperature ต่ำ โมเดลจะสร้างผลลัพธ์ที่แม่นยำและน่าเชื่อถือ แต่ก็อาจจะน่าเบื่อน้อยลง

ใช้ Prompt Engineering ให้เป็น

Prompt Engineering คือการออกแบบข้อความ (Prompt) ที่จะส่งให้โมเดลประมวลผล Prompt ที่ดีจะช่วยให้โมเดลเข้าใจสิ่งที่เราต้องการและสร้างผลลัพธ์ที่ดีที่สุด

ลองศึกษาเทคนิค Prompt Engineering เพิ่มเติมดูนะครับ รับรองว่าชีวิตจะง่ายขึ้นเยอะ!

FAQ: คำถามที่พบบ่อย

Q: LM Studio ฟรีไหม?

A: ฟรีครับ LM Studio เป็น Open Source Software

Q: LM Studio กินสเปคเครื่องเยอะไหม?

A: ขึ้นอยู่กับขนาดของโมเดลที่รัน โมเดลขนาดใหญ่อาจจะต้องใช้ RAM เยอะหน่อย

Q: LM Studio รันโมเดลภาษาไทยได้ไหม?

A: ได้ครับ แต่ต้องเลือกโมเดลที่รองรับภาษาไทย

หวังว่าบทความนี้จะเป็นประโยชน์กับทุกคนนะครับ ลองเอา LM Studio ไปเล่นกันดู แล้วมาแชร์ประสบการณ์กันได้!

Best Practices การใช้ LM Studio ให้เวิร์ค

เลือก Model ให้เหมาะกับงาน

สมัยผมทำร้านเน็ตฯ เคยเจอเด็กมาโหลดโปรแกรมตัดต่อวิดีโอตัวใหญ่ๆ แล้วเครื่องอืดเป็นเรือเกลือ ปัญหาเดียวกันเลย! LM Studio ก็เหมือนกัน เลือก Model ให้ตรงกับงานที่เราจะใช้ อย่าเอา Model ใหญ่ๆ ไปตอบคำถามสั้นๆ มันเปลืองทรัพยากร

ลองไล่ดูจากขนาด Model (Parameter) ยิ่ง Parameter เยอะยิ่งเก่ง แต่ก็กิน RAM และ CPU/GPU เยอะตามไปด้วย ถ้าจะคุยเล่นๆ ถามข้อมูลทั่วไป Model เล็กๆ ก็พอแล้ว

ปรับ Parameters ให้เหมาะสม

LM Studio มี Parameters ให้ปรับเยอะแยะเต็มไปหมด อย่าเพิ่งตกใจ! ลองเริ่มจาก Temperature (ความสร้างสรรค์) กับ Top P (ความหลากหลาย) ก่อนก็ได้

Temperature สูงๆ ก็จะได้คำตอบที่แปลกใหม่ แต่ก็อาจจะหลุดๆ ไปบ้าง Top P สูงๆ ก็จะได้คำตอบที่หลากหลาย แต่ก็อาจจะไม่ตรงประเด็นเท่าไหร่ ลองปรับๆ ดูจนกว่าจะเจอค่าที่ถูกใจ


# ตัวอย่างการปรับ Temperature ใน LM Studio (สมมติ)
temperature: 0.7

Prompt Engineering สำคัญไฉน

Prompt Engineering คือศิลปะของการป้อนคำถามให้ AI เข้าใจ สมัยก่อนผมต้องสอนเด็กในร้านเน็ตฯ ให้รู้จัก Google Search Operator (site:, filetype:, etc.) Prompt Engineering ก็คล้ายๆ กัน ต้องลองผิดลองถูก

ลองใส่รายละเอียดให้เยอะที่สุดเท่าที่จะทำได้ บอก AI ว่าเราต้องการอะไร คาดหวังอะไรจากคำตอบ ถ้ายังไม่พอใจก็ลองปรับ Prompt ใหม่ ลองใช้คำที่แตกต่างกัน หรือลองใส่ Example เข้าไปด้วย

FAQ: คำถามที่พบบ่อย

ทำไม LM Studio กิน RAM เยอะจัง?

เพราะ Model AI มันใหญ่ไงน้อง! ยิ่ง Model ใหญ่ยิ่งกิน RAM เยอะ ถ้า RAM ไม่พอ เครื่องก็จะอืด หรือไม่ก็ค้างไปเลย ลองเลือก Model ที่เล็กลง หรือไม่ก็อัพเกรด RAM ซะ!

LM Studio รันบน CPU ได้ไหม?

ได้ แต่ไม่แนะนำ! LM Studio ถูกออกแบบมาให้ใช้ GPU ในการประมวลผล ถ้าใช้ CPU อย่างเดียว มันจะช้ามากๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆๆ