Stable Diffusion Local Setup IT General

Stable Diffusion Local Setup

📅 2026-02-09 | โดย อ.บอม กิตติทัศน์ เจริญพนาสิทธิ์ — SiamCafe.net Since 1997

Stable Diffusion Local Setup: พี่บอม SiamCafe สอนน้อง

Stable Diffusion Local Setup คืออะไร / ทำไมถึงสำคัญ

น้องๆ หลายคนอาจจะเคยเห็นรูปสวยๆ แปลกๆ ที่เหมือนหลุดมาจากโลกอนาคต นั่นแหละส่วนใหญ่มันมาจาก AI Image Generator อย่าง Stable Diffusion นี่แหละ สมัยผมทำร้านเน็ต (SiamCafe) เมื่อก่อน แค่ทำเว็บให้สวยยังยากเลย นี่ AI มัน Generate รูปเองได้แล้ว!

Stable Diffusion เนี่ย มันคือ AI ที่สร้างรูปภาพจากข้อความที่เราพิมพ์เข้าไป (Text-to-Image) เจ๋งกว่านั้นคือเราเอามาลงเครื่องเราเองได้เลย ไม่ต้องง้อ Server เขา ทำไมถึงสำคัญน่ะเหรอ? คิดดูดิ น้องอยากได้รูปอะไรก็พิมพ์สั่ง AI มันสร้างให้ ไม่ต้องเสียเงินซื้อรูป ไม่ต้องกลัวลิขสิทธิ์ แถมยังปรับแต่งได้ละเอียดสุดๆ

ทำไมต้องลง Local?

บางคนอาจจะสงสัยว่า ทำไมไม่ใช้พวกเว็บสำเร็จรูปไปเลยล่ะ? (อย่าง Midjourney, DALL-E) คือมันก็สะดวกนะ แต่มันมีข้อจำกัดหลายอย่าง เช่น ต้องเสียเงิน, รูปที่สร้างอาจจะไม่เป็นส่วนตัว, หรือปรับแต่งได้ไม่ละเอียดเท่าที่เราต้องการ การลง Local คือเราควบคุมทุกอย่างได้เองเลย น้องอยากแต่งรูปโป๊ให้หุ่นยนต์ พี่ก็ไม่ว่า (แต่ระวังเรื่องกฎหมายด้วยนะ!) SiamCafe Blog มีบทความเรื่อง AI อีกเยอะ ลองไปอ่านดู

พื้นฐานที่ต้องรู้

GPU คือหัวใจสำคัญ

Stable Diffusion มันกิน Spec เครื่องโหดเอาเรื่อง โดยเฉพาะการ์ดจอ (GPU) ถ้าเครื่องใครไม่มีการ์ดจอแยก หรือการ์ดจอไม่แรงพอ อาจจะต้องทำใจ หรือลองพวก Cloud Service แทน แต่ถ้ามี GPU แรงๆ นี่คือสวรรค์เลยล่ะ

สมัยผมทำร้านเน็ต เกมไหนกิน Spec การ์ดจอเยอะๆ นี่คือลูกค้าเต็มร้าน ยุคนี้ AI มาแย่ง Spec การ์ดจอไปซะแล้ว!

เข้าใจเรื่อง Model และ Prompt

Model คือตัว AI ที่ถูก Train มาให้สร้างรูปภาพ Model แต่ละตัวก็จะมีสไตล์การสร้างรูปที่แตกต่างกัน บาง Model เก่งเรื่องภาพคน บาง Model เก่งเรื่องภาพวิว เราต้องเลือก Model ให้เหมาะกับสิ่งที่เราต้องการ

Prompt คือข้อความที่เราพิมพ์สั่งให้ AI สร้างรูป Prompt ที่ดี จะต้องชัดเจน บอกรายละเอียดครบถ้วน เช่น "a beautiful girl with long hair, wearing a red dress, standing in a forest, realistic style" ลองผิดลองถูกไปเรื่อยๆ เดี๋ยวก็เก่งเอง

Python และ Command Line

การลง Stable Diffusion Local ส่วนใหญ่จะต้องใช้ Python และ Command Line เป็นพื้นฐาน ถ้าใครไม่เคยใช้มาก่อน อาจจะต้องศึกษาเพิ่มเติมหน่อย แต่ไม่ต้องกลัว มันไม่ได้ยากอย่างที่คิด สมัยผมหัดเขียนเว็บใหม่ๆ ก็งงๆ เหมือนกัน แต่พอทำไปเรื่อยๆ ก็ชิน

วิธีใช้งาน / เริ่มต้นยังไง

เอาล่ะ มาถึงขั้นตอนการลง Stable Diffusion Local กันแล้ว บอกก่อนว่ามันอาจจะดูยุ่งยากนิดหน่อย แต่ถ้าทำตามขั้นตอนอย่างละเอียด รับรองว่าทำได้แน่นอน

ขั้นตอนปฏิบัติจริง

ติดตั้ง Python และ Git

อย่างแรกเลย เราต้องติดตั้ง Python ก่อน ไปโหลดได้ที่ python.org เลือก Version ที่มัน Stable หน่อย (เช่น 3.10 หรือ 3.11) ตอนติดตั้ง อย่าลืมติ๊ก Add Python to PATH ด้วยนะ

เสร็จแล้วก็ติดตั้ง Git ไปโหลดได้ที่ git-scm.com ติดตั้งตาม Default ไปได้เลย

Clone Repository และติดตั้ง Dependencies

เปิด Command Line (CMD บน Windows หรือ Terminal บน Mac/Linux) แล้วพิมพ์คำสั่งนี้


git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
cd stable-diffusion-webui

คำสั่งแรกจะ Clone Source Code ของ Stable Diffusion Web UI มาลงเครื่องเรา คำสั่งที่สองจะเปลี่ยน Directory ไปยัง Folder ที่เรา Clone มา

จากนั้นก็พิมพ์คำสั่งนี้เพื่อติดตั้ง Dependencies


pip install -r requirements.txt

คำสั่งนี้จะติดตั้ง Package ต่างๆ ที่จำเป็นสำหรับการรัน Stable Diffusion Web UI รอจนกว่ามันจะติดตั้งเสร็จ

ดาวน์โหลด Model

ไปดาวน์โหลด Model ที่เราต้องการมา (เช่น Stable Diffusion XL Base 1.0) ดาวน์โหลดไฟล์ .safetensors มา แล้วเอาไปใส่ไว้ใน Folder models/Stable-diffusion ใน Folder stable-diffusion-webui ที่เรา Clone มา

รัน Web UI

พิมพ์คำสั่งนี้ใน Command Line


python launch.py

รอสักพัก Web UI จะรันขึ้นมา แล้วเราก็สามารถเข้าไปใช้งานได้ผ่าน Browser โดยเข้าไปที่ http://localhost:7860

เปรียบเทียบกับทางเลือกอื่น

Stable Diffusion มันก็ไม่ได้มีเจ้าเดียวในโลกนะ มันก็มี AI Image Generator ตัวอื่นๆ ที่น่าสนใจเหมือนกัน แต่ละตัวก็มีข้อดีข้อเสียแตกต่างกันไป

สมัยผมทำร้านเน็ต ก็ต้องคอยเปรียบเทียบเกม เปรียบเทียบสเปคเครื่องตลอดเวลา ยุคนี้ก็ต้องมาเปรียบเทียบ AI อีกแล้ว!

ชื่อ ข้อดี ข้อเสีย ราคา
Stable Diffusion (Local) ควบคุมได้เต็มที่, ฟรี, ปรับแต่งได้ละเอียด ต้องมีเครื่องแรงๆ, ตั้งค่ายาก ฟรี
Midjourney ใช้งานง่าย, รูปสวย ต้องเสียเงิน, ปรับแต่งได้ไม่ละเอียด Subscription
DALL-E 2 ใช้งานง่าย, Integrate กับ Product ของ OpenAI ต้องเสียเงิน, ข้อจำกัดเยอะ Pay-as-you-go
Leonardo.Ai ใช้งานง่าย, มี Model ให้เลือกเยอะ ต้องเสียเงิน, ปรับแต่งได้ไม่ละเอียดเท่า Stable Diffusion Subscription

จากตารางจะเห็นว่า Stable Diffusion (Local) มันก็มีข้อดีข้อเสียของมัน ถ้าใครอยากได้ความอิสระในการปรับแต่ง และมีเครื่องแรงๆ ก็แนะนำให้ลองดู แต่ถ้าใครอยากได้ความสะดวกสบาย ก็อาจจะลองใช้ Midjourney หรือ DALL-E 2 ดูก็ได้ SiamCafe Blog จะมีบทความเปรียบเทียบ AI ต่างๆ เรื่อยๆ ลองติดตามดูนะ

Best Practices / เคล็ดลับจากประสบการณ์

เอาล่ะน้องๆ หลังจากที่เราเซ็ต Stable Diffusion บนเครื่องตัวเองได้แล้ว คราวนี้มาดูเคล็ดลับที่พี่บอมสั่งสมมาตลอด 28+ ปีในวงการ IT กันบ้างดีกว่า สมัยผมทำร้านเน็ตนี่เจอปัญหามาสารพัด แต่สุดท้ายก็เอาตัวรอดมาได้ หวังว่าเคล็ดลับเหล่านี้จะช่วยให้พวกเราสนุกกับการสร้างสรรค์ภาพ AI มากยิ่งขึ้นนะ

เทคนิค #1: Prompt Engineering is King

Prompt เนี่ยสำคัญสุดๆ เหมือนเราสั่งอาหาร ถ้าบอกไม่ละเอียด เชฟก็ทำออกมาไม่ถูกใจ Prompt ที่ดีต้องเจาะจง ชัดเจน บอกรายละเอียดให้ครบ เช่น "a photorealistic portrait of a cyberpunk samurai, neon lights, rainy night, cinematic lighting" ยิ่งละเอียด ยิ่งได้ภาพที่ใกล้เคียงความต้องการ

เคยเจอเคสที่ลูกค้าสั่งภาพแล้วบอกว่า "เอาสวยๆ" คือพี่ก็ไม่รู้จะเริ่มตรงไหน! ฝึกเขียน prompt เยอะๆ ลองผิดลองถูก แล้วน้องๆ จะเก่งขึ้นเอง

เทคนิค #2: Experiment with Samplers and Steps

Sampler คือ algorithm ที่ใช้ในการ generate ภาพ Stable Diffusion มีให้เลือกหลายแบบ เช่น Euler a, Euler, LMS, Heun, DPM2, DPM++ 2S a Karras, DPM++ SDE Karras แต่ละตัวให้ผลลัพธ์ที่ต่างกัน ลองเปลี่ยน sampler ดู แล้วดูว่าอันไหนเหมาะกับภาพที่เราอยากได้

Steps คือจำนวน iterations ที่ใช้ในการ generate ภาพ ยิ่ง steps เยอะ ภาพยิ่งละเอียด แต่ก็ใช้เวลานานขึ้นด้วย ปกติผมจะเริ่มที่ 20-30 steps แล้วค่อยๆ เพิ่มถ้ายังไม่พอใจ

เทคนิค #3: Leverage Negative Prompts

Negative prompt คือ prompt ที่บอกว่า "ห้ามมีอะไรในภาพ" เช่น "deformed, blurry, ugly, duplicate" ใส่ negative prompt จะช่วยลดสิ่งที่ไม่ต้องการในภาพได้เยอะมาก

สมัยก่อนไม่มี negative prompt นี่ปวดหัวเลย ภาพออกมาเบลอๆ บิดเบี้ยวตลอด ต้องมานั่งแก้เอง แต่พอมี negative prompt ชีวิตง่ายขึ้นเยอะ

เทคนิค #4: Use a Good Upscaler

ภาพที่ generate จาก Stable Diffusion มักจะมีขนาดเล็ก ถ้าอยากได้ภาพที่ใหญ่ขึ้นและคมชัดขึ้น ต้องใช้ upscaler มีหลายตัวให้เลือก เช่น ESRGAN, RealESRGAN, GFPGAN ลองหามาใช้ดู รับรองว่าภาพสวยขึ้นเยอะ

ผมเคยเจอเคสที่ลูกค้าเอารูปเล็กๆ มาขยายแล้วภาพแตก pixel เต็มไปหมด พอใช้ upscaler แล้วลูกค้าถึงกับร้องว้าว! มันดีจริงๆ

FAQ คำถามที่พบบ่อย

ทำไมภาพที่ได้ไม่เหมือนกับที่คนอื่นทำ?

หลายปัจจัยครับ ทั้ง prompt, sampler, steps, seed (ตัวเลข random ที่ใช้ในการ generate ภาพ) และ model ที่ใช้ ลองเช็คดูว่าเราตั้งค่าเหมือนคนอื่นหรือเปล่า

ทำไมเครื่องผม generate ภาพช้ามาก?

การ์ดจอมีผลมากครับ ถ้าการ์ดจอไม่แรง ก็ต้องใช้เวลานานหน่อย ลองลด resolution ของภาพ หรือลด steps ลง อาจจะช่วยได้

ผมควรใช้ model ไหนดี?

มี model ให้เลือกเยอะมาก ลอง search ดูใน Civitai หรือ Hugging Face เลือก model ที่เหมาะกับสไตล์ภาพที่เราอยากได้

ผมอยากสร้างภาพโป๊ ทำได้ไหม?

เรื่องนี้ต้องระวังครับ Stable Diffusion มีระบบ safety filter ที่จะบล็อกภาพที่ไม่เหมาะสม แต่ก็มีวิธี bypass ได้ แต่ผมไม่แนะนำให้ทำนะครับ ผิดกฎหมายและผิดศีลธรรม

สรุป

Stable Diffusion เป็นเครื่องมือที่ทรงพลังมาก สามารถสร้างสรรค์ภาพที่สวยงามและน่าทึ่งได้ แต่ต้องใช้เวลาในการเรียนรู้และฝึกฝน อย่าท้อแท้ ลองผิดลองถูกไปเรื่อยๆ แล้วน้องๆ จะเก่งขึ้นเองแน่นอน

ถ้าใครอยากได้ความรู้เพิ่มเติมเกี่ยวกับ Forex ลองแวะไปดูที่ iCafeForex ได้นะครับ

และอย่าลืมติดตาม SiamCafe Blog เพื่ออ่านบทความดีๆ เกี่ยวกับ IT และเทคโนโลยีอื่นๆ นะครับ