3658 คำ
18 นาที
CyberSecurity Foundation EP.43 — Detection: SOC + SIEM + EDR / XDR / SOAR: ห้องควบคุมโรงไฟฟ้า
สารบัญ
SOC structure — ห้องควบคุมโรงไฟฟ้า ที่มี analyst 3 ชั้น Tier 1 — Triage analyst — ยามชั้นนอก Tier 2 — Investigator — นักสืบของ SOC Tier 3 — Threat hunter + intel — มือเก๋าของวงการ In-house SOC vs Outsourced (MSSP) SIEM — ระบบรวม log ของเมืองทั้งระบบเข้ามาดูในจอเดียว Correlation rule — กฎเชื่อมโยง event SIEM vendors — 2 ตัวหลัก + 1 ระดับภูมิภาค EDR / XDR — กล้องในทุกตึก / endpoint EDR — Endpoint Detection and Response XDR — Extended Detection and Response EDR/XDR vendors — 3 ตัวหลักที่บริษัทไทยใช้ SOAR — แม่บ้าน auto ที่ตอบ alert ง่ายๆ ให้เอง Playbook ของ SOAR — ตัวอย่างจริง SOAR vendors — 2 ตัวหลัก Alert fatigue + False positive/negative + UEBA — ของจริงที่ทำ SOC ล้มเหลว Alert fatigue — โรคของ SOC ทั่วโลก False Positive vs False Negative — สมการของวงการ UEBA — User and Entity Behavior Analytics เคส Target 2013 — เครื่องมือดี + คนกับ process แย่ = ตาย KPI ของ SOC — 4 ตัวที่ผู้บริหารต้องถาม IT ทุกเดือน สรุป EP.43 — ห้องควบคุมโรงไฟฟ้าของเมืองดิจิทัล สิ่งที่ผู้นำต้องจำ Tease EP.44 — Threat Hunting + Deception: นักสืบที่เดินหาคนแปลกหน้า + ขนมหวานล่อ

Series: CyberSecurity Foundation — รากฐาน Security สำหรับยุค AI (ภาษาคน)

Part 0 — WHY: เมืองนี้ทำไมต้องมียาม

  1. EP.01 — Cybersecurity คือเรื่องของคุณ
  2. EP.02 — 4 เคสที่เปลี่ยนวงการ
  3. EP.03 — CIA Triad
  4. EP.04 — Defense in Depth + Diversity
  5. EP.05 — Assume Breach + Risk

Part 1 — HOW: ระบบนิเวศของเมือง 6. EP.06 — ระบบนิเวศของโจร 7. EP.07 — ระบบนิเวศของผู้ป้องกัน 8. EP.08 — Framework: ISO/NIST/COBIT/CIS 9. EP.09 — Compliance Theater

Part 2 — Identity: บัตรประชาชน + กุญแจห้อง 10. EP.10 — IAM Lifecycle 11. EP.11 — Authentication: 3 Factors + AAA 12. EP.12 — Password 101 13. EP.13 — MFA + Biometric 14. EP.14 — Kerberos 15. EP.15 — Federation + SSO 16. EP.16 — Authorization: RBAC / ABAC / MAC / DAC 17. EP.17 — PAM + Zero Trust

Part 3 — Data: ของในเซฟ 18. EP.18 — Data Classification + Lifecycle 19. EP.19 — Cryptography 101 20. EP.20 — Symmetric Crypto: AES 21. EP.21 — Asymmetric Crypto: RSA + DH 22. EP.22 — Hashing: ลายนิ้วมือดิจิทัล 23. EP.23 — PKI + Certificates 24. EP.24 — TLS / HTTPS 25. EP.25 — Email Security: SPF / DKIM / DMARC 26. EP.26 — Privacy Engineering

Part 4 — Infrastructure: ถนน กำแพง ท่อ 27. EP.27 — Network Basics + Firewall Generations 28. EP.28 — Segmentation + DMZ + Microsegmentation 29. EP.29 — IDS / IPS / WAF / RASP 30. EP.30 — VPN + Proxy + DNS Security 31. EP.31 — DDoS + DLP 32. EP.32 — Cloud + Shared Responsibility 33. EP.33 — Container + Kubernetes 34. EP.34 — DevSecOps + Shift-Left 35. EP.35 — Mobile + Wireless 36. EP.36 — IoT + OT / ICS 37. EP.37 — Remote Work + ZTNA 38. EP.38 — AI + Blockchain Security

Part 5 — Operations: ตำรวจ ดับเพลิง สืบสวน 39. EP.39 — Kill Chain + MITRE ATT&CK 40. EP.40 — Social Engineering: Phishing / BEC / Vishing 41. EP.41 — Malware Taxonomy 42. EP.42 — Web App Attacks: OWASP Top 10 43. EP.43 — Detection: SOC + SIEM + EDR / XDR / SOAR ← คุณอยู่ตรงนี้

Part 5 (EP.44-47) + Part 6 — กำลังเขียนต่อ

ครับ — EP.39 ถึง EP.42 ผมพาคุณดู ฝั่งโจร ทั้งภาพ. Kill Chain + MITRE ATT&CK (EP.39) คือ playbook ของโจรทุกขั้นตอน. Social Engineering (EP.40) คือวิธีหลอกคนให้กดลิงก์ / โอนเงิน. Malware (EP.41) คือสวนสัตว์ของของร้ายที่โจรปล่อยในเครื่อง. OWASP Top 10 (EP.42) คือ top chart ของช่องโหว่ web ที่โจรชอบใช้

รู้แล้วว่าโจรทำงานยังไง — คำถามที่จริงที่สุดของวงการตอนนี้คือ —

“แล้ว detect ยังไง?”

เพราะของจริงในวงการ security คือ — ป้องกัน 100% ไม่มี. Assume Breach (EP.05) เราคุยไปแล้ว — ต้องสมมติว่าโจรเข้ามาแล้ว. ถ้าเข้ามาแล้ว — เห็นไหม? เห็นเมื่อไหร่? เห็นแล้วทำอะไรต่อ?

ปี 2024 ค่าเฉลี่ยของวงการที่ IBM Cost of a Data Breach Report บอก — บริษัททั่วโลก ใช้เวลา 204 วันโดยเฉลี่ยกว่าจะตรวจเจอว่าโดน breach + อีก 73 วันกว่าจะหยุดได้ทั้งหมด. รวม 277 วัน — เกือบ 9 เดือนที่โจรอยู่ในระบบโดยไม่มีใครเห็น

ตัวเลขนี้ — ไม่ใช่เพราะบริษัทไม่ลงทุน security. บริษัทยักษ์ระดับโลกใช้งบ security ปีละหลายร้อยล้าน USD. ปัญหาคือ — เห็นยาก. ในเมืองที่มีกล้อง 10,000 ตัว + alert จากระบบ 1 ล้านตัวต่อวัน — คนที่นั่งหน้าจอจะเห็น alert จริง ที่ปะปนใน alert ปลอม ได้ยังไง?

นี่คือเรื่องของ EP.43 — Detection — กลไกที่ทำให้บริษัทเห็นโจรที่อยู่ในระบบแล้ว

ลองนึกภาพในเมืองของเรากันครับ. ที่ผ่านมาเราคุยเรื่อง ป้อมยาม + กำแพง + กุญแจ + เซฟ — ทั้งหมดคือฝั่ง ป้องกัน. แต่เมืองจริงๆ — ต้องมี ห้องควบคุมกลาง ด้วย. ห้องที่มีจอ 50 จอ + ภาพจากกล้องในทุกตึก + ระบบเตือนภัยจากทุกประตู + เจ้าหน้าที่นั่งดูเวร 24 ชั่วโมง + แม่บ้าน auto ที่ทำงานง่ายๆ ให้เอง

นี่คือภาพของ ห้องควบคุมโรงไฟฟ้า — และคือภาพของวงการ Detection ที่บริษัทระดับโลกใช้

เริ่มจากภาพรวมของ SOC ก่อนครับ — เพราะถ้ายังเห็นโครงของห้องควบคุมไม่ชัด เครื่องมืออย่าง SIEM / EDR / SOAR ที่ตามมาจะเข้าใจผิดเป็น “ของซื้อมาแล้วจบ”

SOC structure — ห้องควบคุมโรงไฟฟ้า ที่มี analyst 3 ชั้น#

SOC = Security Operations Center (ศูนย์ปฏิบัติการความมั่นคงปลอดภัย) — ทีมและสถานที่ที่ดู alert จากระบบ security ของบริษัท 24 ชั่วโมง 7 วันต่อสัปดาห์

ลองนึกห้องควบคุมของ โรงไฟฟ้า ครับ. มีจอ 50 จอแสดงค่า pressure / temperature / voltage ของหน่วยต่างๆ. มีเจ้าหน้าที่นั่งดูเวรกลางคืน. ถ้า indicator ตัวไหนเข้าโซนแดง — ระบบเตือน — เจ้าหน้าที่ตัดสินใจว่าจะดับเครื่อง / เรียกวิศวกร / เรียกฉุกเฉิน. นี่คือ SOC ของเมืองดิจิทัล — เพียงเปลี่ยน sensor จาก pressure/temperature เป็น log ของระบบคอมพิวเตอร์

ของจริงในวงการ — SOC ของบริษัทระดับ enterprise มีคนนั่งทำงาน 10-50 คน + ทำงาน 3 กะ 24 ชั่วโมง. ของบริษัท Managed Security Service Provider (MSSP) ขนาดใหญ่ — มี SOC analyst เป็น 100-1,000 คน + serve ลูกค้าหลายร้อยบริษัท

โครงสร้างภายในของ SOC แบ่งเป็น 3 ชั้น — เรียกว่า Tier 1 / Tier 2 / Tier 3 — ลำดับชั้นของความเชี่ยวชาญและ scope งาน

Tier 1 — Triage analyst — ยามชั้นนอก#

Tier 1 = นักวิเคราะห์ alert ที่อยู่ ชั้นนอกสุด — เป็นคนแรกที่เห็น alert ใหม่ที่เข้ามาในระบบ

หน้าที่หลักของ Tier 1 ครับ —

  • Monitor หน้าจอ alert dashboard ที่ระบบ SIEM ป้อนเข้ามา
  • Triage — คือคัดกรองว่า alert ตัวไหน น่าจะจริง vs ตัวไหน false positive ปกติ
  • Acknowledge alert ที่ confirm แล้วว่าเป็นปกติ — ปิด ticket
  • Escalate alert ที่น่าสงสัยขึ้นไปให้ Tier 2

ลองนึก — Tier 1 = ยามชั้นนอกของเมือง — ใครเดินผ่านป้อมยาม ก็ดูบัตรก่อน. คนที่บัตรปกติ — pass. คนที่บัตรหน้าตาแปลกๆ — เรียกตำรวจระดับสูงมาดู

คุณสมบัติ Tier 1 ในวงการไทย — โดยทั่วไปคือ junior security analyst — มี CompTIA Security+ หรือเทียบเท่า — เงินเดือนเริ่มต้น 30,000-50,000 บาท. ทำงาน shift + ดู alert วันละหลายร้อยตัว. งานซ้ำซาก + มี burnout สูง — turnover rate ของ Tier 1 ทั่วโลกอยู่ที่ 25-30% ต่อปี

Tier 2 — Investigator — นักสืบของ SOC#

Tier 2 = นักสืบสวน — รับ alert ที่ Tier 1 escalate ขึ้นมา + ขุดต่อ เพื่อหาว่าเกิดอะไรขึ้นจริงๆ

หน้าที่ —

  • Investigate alert ที่ Tier 1 escalate — ดู context รอบ alert ลึกขึ้น
  • Correlate — โยง alert หลายตัวที่เกิดในช่วงเวลาเดียวกันเข้าด้วยกัน
  • Hypothesis — ตั้งสมมติฐานว่าเกิดอะไร (phishing? malware? insider?)
  • Confirm / Dismiss — ยืนยันว่าเป็น incident จริง หรือไม่
  • Initial containment — ถ้า confirm = incident — เริ่ม ตัดเครื่อง / ปิด account / block IP ก่อน escalate ไป Tier 3

Tier 2 ใช้เครื่องมือลึกกว่า Tier 1 — เข้า EDR console ดู process tree, query SIEM log แบบ custom, อ่าน raw packet capture. คนที่อยู่ Tier 2 ส่วนใหญ่มีประสบการณ์ 3-5 ปี + cert ระดับ GCIH / CySA+ / CEH — เงินเดือนระดับ 70,000-120,000 บาท

Tier 3 — Threat hunter + intel — มือเก๋าของวงการ#

Tier 3 = ระดับสูงสุดของ SOC — ทำ proactive hunt + threat intelligence + advanced incident response

หน้าที่ —

  • Threat hunting — ไม่รอ alert. ตั้งสมมติฐานเอง + ค้นหาในระบบว่ามี indicator ของ attack ที่ระบบไม่จับไหม (จะคุยลึกใน EP.44)
  • Threat intelligence — ติดตาม IOC (Indicator of Compromise) จาก threat feed + report ของ Mandiant / CrowdStrike / Microsoft / Recorded Future
  • Advanced incident response — เคสใหญ่ที่ Tier 2 รับไม่ไหว — Tier 3 ลงมือเอง
  • Tuning — ปรับ rule ของ SIEM + EDR ให้ลด false positive
  • Knowledge transfer — สอน Tier 1 / Tier 2 + เขียน playbook

Tier 3 = ตำรวจระดับ chief detective ของเมือง — ไม่นั่งดูจอตลอดเวลา แต่ลงมือเมื่อเคสซับซ้อน. คนที่อยู่ Tier 3 มีประสบการณ์ 7-10+ ปี + cert ระดับ GCFA / GCTI / OSCP — เงินเดือนระดับ 150,000-300,000+ บาท ในไทย

In-house SOC vs Outsourced (MSSP)#

คำถามที่ผู้บริหารต้องตอบ — บริษัทควรสร้าง SOC ของตัวเอง หรือจ้าง MSSP?

In-house SOC — สร้างทีมเอง

  • ข้อดี — ทีมรู้จัก business context ของบริษัทดี / response เร็ว / data ไม่ออกจากบริษัท
  • ข้อเสีย — ค่าใช้จ่ายสูงมาก (analyst 3 กะ 24/7 ขั้นต่ำ = 12-15 คน + ค่า tool + ค่า training) / หา talent ยาก / burnout สูง
  • ต้นทุนปีแรกของบริษัทไทยขนาดกลาง — 15-30 ล้านบาท

Outsourced SOC (MSSP — Managed Security Service Provider) — จ้างบริษัทภายนอกดูแล

  • ข้อดี — เริ่มเร็ว / ลงทุนน้อยกว่า / MSSP เห็น attack pattern จากลูกค้าหลายร้อยบริษัท (cross-customer intelligence)
  • ข้อเสีย — MSSP ไม่รู้ business ของบริษัทคุณดีเท่า in-house / response อาจช้า / มี vendor lock-in
  • ต้นทุน — บริษัทขนาดกลางใน MSSP ไทย ราคา 200,000-2,000,000 บาท/เดือน ขึ้นกับ scope

ในวงการมี model ที่บริษัทไทยใช้กันบ่อย — Hybrid — มี Tier 1 / Tier 2 outsource ที่ MSSP + เก็บ Tier 3 + Incident Manager ใน in-house. ได้ความครอบคลุม 24/7 + เก็บ control ที่ระดับสูงไว้

มุมผู้บริหาร: การตัดสินใจ in-house vs MSSP — บริษัทไทยที่มี IT staff < 50 คน หรือไม่ใช่ critical infrastructure — เริ่มจาก MSSP ก่อน ROI ดีกว่า 2-3 ปีแรก. ห้ามผู้บริหารตัดสินใจ SOC จาก price ของ tool อย่างเดียว — ต้นทุน 70% ของ SOC คือคน ไม่ใช่ tool. คำถามที่ผู้บริหารต้องถาม vendor MSSP — “analyst per customer ratio เป็นเท่าไหร่?” ถ้าตอบไม่ได้ = ไม่ใช่ vendor ที่ดี

SIEM — ระบบรวม log ของเมืองทั้งระบบเข้ามาดูในจอเดียว#

มาที่ SIEM — เครื่องมือกลางของ SOC ที่ทำให้ analyst ดู log ของ “ทุกอย่างในบริษัท” ได้ในจอเดียว

SIEM = Security Information and Event Management (ระบบจัดการข้อมูลและเหตุการณ์ความมั่นคงปลอดภัย) — ระบบที่

  1. Collect log จากระบบทุกตัวในบริษัท
  2. Normalize — แปลง log format ที่ต่างกันให้เป็น format เดียวกัน
  3. Store — เก็บใน database ที่ค้นหาได้เร็ว (มักเก็บ 90 วัน — 7 ปีตามข้อกำหนด)
  4. Correlate — เชื่อมโยง event หลายตัวด้วย rule ที่ตั้งไว้
  5. Alert — ส่งเตือนเมื่อ pattern เข้ากับ rule

ลองนึก — ในเมืองของเรา. มี กล้อง หน้าธนาคาร / เซ็นเซอร์ ที่ประตูตึก / บันทึก ใครเข้าออก parking / ข้อมูล การจ่ายไฟ / log การโทร / GPS ของรถตำรวจ — แต่ละระบบเก็บข้อมูลแยกกัน. SIEM = ห้องที่รวม footage ของทุกระบบ เข้ามาดูบนจอใหญ่ + ระบบที่บอกได้ว่า “อ้าว — เมื่อ 5 นาทีที่แล้ว มีคนเข้าตึก A พร้อมกับมีไฟฟ้าผิดปกติที่ตึก B พร้อมกับมี GPS ของรถปลอมในซอย — น่าจะมีเรื่อง”

ของจริงในวงการ — SIEM รับ log จาก:

  • Firewall (EP.27) — connection log + block log
  • IDS / IPS / WAF (EP.29) — alert ที่ระบบตรวจจับได้
  • Active Directory — log การ login ทุกครั้ง
  • Endpoint (laptop / server) — log ระบบ + log ของ EDR
  • Cloud (AWS CloudTrail / Azure Monitor / GCP Audit Logs) — log activity ใน cloud
  • Application — log ของ app ที่บริษัทพัฒนาเอง
  • Database — log query ที่สำคัญ
  • Email gateway — log การรับส่ง email
  • DNS server — log DNS query
  • VPN — log ใครเชื่อม VPN เข้ามา

บริษัทขนาดกลางในไทย — โดยทั่วไป SIEM รับ log ที่ระดับ 5-20 GB ต่อวัน. บริษัทใหญ่ระดับธนาคาร — 500 GB - 5 TB ต่อวัน. บริษัท global enterprise (Microsoft / Google / JPMorgan) — หลายร้อย TB ต่อวัน

Correlation rule — กฎเชื่อมโยง event#

หัวใจของ SIEM คือ correlation rule — กฎที่เขียนไว้บอกระบบว่า “เมื่อเห็น event A + B + C ในเวลาใกล้กัน — ส่ง alert”

ตัวอย่าง rule คลาสสิคของวงการ —

Rule 1 — Brute force attempt: “ถ้ามี failed login มากกว่า 10 ครั้งใน 5 นาที จาก source IP เดียวกัน → alert Brute Force

Rule 2 — Impossible travel: “ถ้า user คนเดียวกัน login จาก ประเทศไทย เวลา 14:00 + login จาก รัสเซีย เวลา 14:15 → alert Impossible Travel (เพราะบินจากไทยไปรัสเซียใน 15 นาทีเป็นไปไม่ได้)”

Rule 3 — Data exfiltration: “ถ้า user upload file ออกนอกบริษัทเกิน 500 MB ในชั่วโมงเดียว + ไม่เคยทำมาก่อน → alert Possible Data Exfil

Rule 4 — Lateral movement: “ถ้ามี failed SMB authentication จากเครื่อง A ไปเครื่อง B + เครื่อง B + เครื่อง C ในเวลา 30 นาที → alert Possible Lateral Movement

rule เหล่านี้ — ใน SIEM ใหม่ๆ (2023+) เริ่มเป็น machine learning + behavior analytics แทน static rule (จะคุยใน UEBA)

SIEM vendors — 2 ตัวหลัก + 1 ระดับภูมิภาค#

ตลาด SIEM ปี 2025 มีผู้เล่นหลักที่ผู้บริหารต้องรู้ —

  • Splunk — เก่าแก่ที่สุด + market share สูงสุด (Cisco ซื้อปี 2024 ด้วย $28B). flexible แต่แพง — enterprise ที่มี legacy ใช้เป็นมาตรฐาน
  • Microsoft Sentinel — cloud-native SIEM บน Azure. ราคา pay-per-GB. บริษัทที่ใช้ Microsoft 365 อยู่แล้ว — integrate ง่าย + ราคาสมเหตุสมผล — เติบโตเร็วที่สุดในไทยปี 2025-2026
  • IBM QRadar — แข็งใน financial sector ของไทยและภูมิภาค (regional fit)

และตัวอื่นๆ (Elastic Security, Sumo Logic, LogRhythm, Securonix) ก็มีในตลาด — เลือกตาม ecosystem ที่บริษัทใช้อยู่

มุมผู้บริหาร: pattern ของวงการที่ผิดบ่อยที่สุดในการเลือก SIEM — เลือก vendor ก่อนคิด use case. SIEM ที่ “ดีที่สุด” ไม่มี — มีแต่ SIEM ที่เหมาะกับ environment ของคุณ. คำถามที่ผู้บริหารต้องถาม vendor — “ราคา 3 ปี รวม license + storage + tuning + custom rule development เท่าไหร่?” ไม่ใช่ราคา license ปีแรก. TCO ของ SIEM 3 ปี = 3-5 เท่าของราคา license ปีแรก

EDR / XDR — กล้องในทุกตึก / endpoint#

ต่อด้วย EDR กับ XDR — กล้องในทุกตึกของเมือง

ใน Part 4 เราคุย infrastructure ฝั่ง network + cloud + container. แต่ในเมืองดิจิทัล — endpoint = laptop / desktop / server / mobile ของพนักงาน — เป็นจุดที่โจรเข้ามาบ่อยที่สุดผ่าน phishing (EP.40) + malware (EP.41). ปี 2024 — IBM รายงานว่า 80%+ ของ breach เริ่มที่ endpoint

แต่ network security tool (firewall / IDS) เห็นได้แค่ traffic ที่ผ่าน network. ถ้า malware ทำงานอยู่บน laptop ของพนักงาน — น่าจะเห็นได้ที่ network ผ่าน C2 callback (Command and Control) — แต่ถ้า attacker ใช้ legitimate protocol (HTTPS / DNS over HTTPS) + obfuscate — network จะเห็นแค่ encrypted traffic ปกติ

นี่คือเหตุผลที่วงการสร้าง EDR ขึ้นมา

EDR — Endpoint Detection and Response#

EDR = Endpoint Detection and Response (ระบบตรวจจับและตอบสนองบน endpoint) — agent ที่ติดตั้งบน ทุก endpoint + ทำหน้าที่

  1. Monitor — บันทึก process / file / network / registry activity แบบ real-time
  2. Detect — ใช้ behavior analytics + signature + ML detect malicious activity
  3. Respond — สั่ง action ได้ตรงที่ endpoint — kill process / quarantine file / isolate machine จาก network

ลองนึก — EDR = กล้อง CCTV ที่ติดตั้งในทุกตึกของเมือง — เห็นทุกอย่างที่เกิดในตึก. ใครเปิดประตู / ใครเดินไปไหน / ใครหยิบของอะไร. ระบบเก่ายุค antivirus (AV) คือแค่ “ตรวจของที่เข้าตึก” — แต่ถ้าโจรเข้าได้แล้ว AV ไม่เห็นต่อ. EDR เห็นทุกการเคลื่อนไหวหลังเข้ามา

EDR ที่ดีจับ pattern ต่างๆ ได้แม้ไม่มี signature ของ malware — เช่น

  • PowerShell ที่ encode + download script จาก internet → fileless malware pattern
  • Office Word/Excel ที่ spawn cmd.exe → macro malware pattern
  • lsass.exe ที่ถูก process แปลกๆ อ่าน memory → credential dumping (Mimikatz pattern)
  • Suspicious DLL injection เข้า trusted process

XDR — Extended Detection and Response#

XDR = Extended Detection and Response — รุ่นใหม่ของ EDR ที่ ขยายขอบเขตออกไปนอก endpoint — รวมถึง email / network / cloud / identity ทั้งหมด

ความต่างของ EDR vs XDR — ลองนึก:

  • EDR = กล้องในแต่ละตึกแยกกัน. analyst ต้อง switch ดูแต่ละกล้องแยก
  • XDR = ห้องควบคุมรวม ที่ดูทุกกล้อง + ทุก sensor (network / email / cloud / identity) ใน timeline เดียว — เห็นภาพรวมของ attack ที่ครอบหลายระบบ

ลองนึก scenario — โจรส่ง phishing email → user คลิก → malware รันบน laptop → connect ออก internet → ขโมย credential → login เข้า cloud storage → ดูดข้อมูล

  • EDR เพียวๆ = เห็นแค่ malware รันบน laptop. ไม่รู้ว่าเริ่มจาก email + ไม่รู้ว่าจบที่ cloud
  • XDR = เห็น timeline ทั้ง chain — email → endpoint → network → cloud — รวมในจอเดียว

นี่ทำให้ XDR เหมาะกับวงการปี 2024-2026 ที่ attack chain ครอบหลาย domain

EDR/XDR vendors — 3 ตัวหลักที่บริษัทไทยใช้#

ตลาด EDR/XDR ปี 2025 — มี 3 ตัวที่บริษัทใหญ่ในไทยใช้กันมากที่สุด —

  • CrowdStrike Falcon — leader ใน Gartner Magic Quadrant. cloud-native + ML-driven. ราคา premium. ใช้ในบริษัทใหญ่ + financial. (มีเคส July 2024 ที่ update ผิดทำให้ Windows ล่มทั่วโลก — บทเรียนของวงการ)
  • Microsoft Defender for Endpoint — มาพร้อม Microsoft 365 E5 license. ราคาดีสำหรับบริษัทที่ Microsoft-centric. คุณภาพดีในระดับเทียบกับ leader ได้
  • Sophos Intercept X — แข็งในกลุ่ม mid-market + Asia

และตัวอื่นๆ (SentinelOne, Trend Micro, Symantec, McAfee/Trellix) ก็มีในตลาด — เลือกตาม budget tier และ ecosystem ที่บริษัทใช้อยู่

มุมผู้บริหาร: EDR / XDR คือ investment ที่ ROI สูงที่สุดในวงการ detection. บริษัทไทยที่ยังใช้ traditional antivirus (Norton / Kaspersky รุ่นเก่า) แล้วโดน ransomware = เสียหาย 10-100 ล้าน. คำถามที่ต้องถาม — “EDR ของเราเป็น signature-based แบบเก่าหรือ behavior-based แบบใหม่?” ของเก่าจับ malware ที่ยังไม่มี signature ไม่ได้. บทเรียนจากเคส CrowdStrike July 2024 — EDR ทุกตัวต้องมี staged rollout อย่าให้ vendor push update ทั่วทั้งบริษัทพร้อมกัน

SOAR — แม่บ้าน auto ที่ตอบ alert ง่ายๆ ให้เอง#

ปิดด้วย SOAR — ตัวที่ช่วยลด alert fatigue ของ SOC โดยทำ playbook อัตโนมัติให้

SOAR = Security Orchestration, Automation, and Response (การประสานงาน อัตโนมัติ และการตอบสนอง) — ระบบที่

  1. Orchestrate — เชื่อมเครื่องมือ security ต่างๆ เข้าด้วยกัน (SIEM + EDR + Firewall + Email gateway + Identity + Ticket system)
  2. Automate — รัน playbook อัตโนมัติเมื่อมี alert ตามเงื่อนไข
  3. Respond — ทำ action ตอบ alert โดยไม่ต้องรอ analyst กด

ลองนึก — SOAR = แม่บ้าน auto ของห้องควบคุม. เมื่อเตือนภัยดังขึ้น — แม่บ้านเดินไปดูเอง — ถ้าเป็น false alarm ที่เคยเห็นบ่อย (เช่น แมวเดินผ่าน sensor) — ปิด alarm + บันทึก. ถ้าเป็นเรื่องจริง — โทรเรียกตำรวจมาเอง. analyst นั่งดูจอแค่ alert ที่แม่บ้านตัดสินใจไม่ได้

Playbook ของ SOAR — ตัวอย่างจริง#

ลองดู playbook คลาสสิคของวงการครับ —

Playbook 1 — Phishing email reported by user:

  1. User report email ใน “Report Phishing” button ของ Outlook
  2. SOAR รับ trigger → ดึง email + attachment + URL
  3. ส่ง URL ไปตรวจที่ VirusTotal + URLScan + PhishTank
  4. ส่ง attachment ไปตรวจที่ sandbox (Joe Sandbox / Any.run)
  5. ถ้าทุกตัวบอกว่าปลอดภัย → ปิด ticket + ตอบ user “ขอบคุณที่รายงาน — email นี้ปลอดภัย
  6. ถ้าตัวใดตัวหนึ่งบอกว่า malicious → block sender domain + block URL + search SIEM ว่าใครคลิกแล้วบ้าง + isolate endpoint ของคนที่คลิก + create high-priority ticket + ส่ง alert ให้ Tier 2

ขั้นตอน 1-5 = ไม่ต้องมี analyst — แม่บ้าน auto ทำเองทั้งหมดใน 1-2 นาที. ก่อนมี SOAR — Tier 1 ใช้เวลา 15-30 นาทีต่อ phishing report. หลังมี SOAR — analyst แตะเฉพาะเคสที่เข้าข่าย step 6

Playbook 2 — Brute force from external IP:

  1. SIEM ส่ง alert “Brute Force” (failed login 50 ครั้งใน 5 นาที)
  2. SOAR ดึง source IP
  3. Check IP กับ threat intel feed → ถ้าเจอใน blacklist = block ที่ firewall ทันที + ปิด ticket
  4. ถ้าไม่เจอใน blacklist → check geolocation → ถ้ามาจากประเทศที่บริษัทไม่ทำธุรกิจ → block + create medium ticket
  5. ถ้าจาก geo ปกติ → escalate ไป Tier 1 (อาจเป็น user ลืม password)

Playbook 3 — Compromised credential:

  1. Threat intel feed แจ้งว่า credential ของ user X อยู่ใน data leak ใหม่
  2. SOAR ดึง user X จาก AD
  3. Force password reset + revoke all active session + enable additional MFA factor
  4. ส่ง email + SMS ให้ user X เรื่อง incident
  5. Create ticket + log incident

SOAR vendors — 2 ตัวหลัก#

ตลาด SOAR ปี 2025 —

  • Palo Alto Cortex XSOAR (เดิม Demisto) — leader ตลาด. คลังของ playbook + integration พร้อมใช้สูงสุด
  • Tines — รุ่นใหม่ no-code. เติบโตเร็วในตลาด mid-market

และตัวอื่นๆ (Splunk SOAR, IBM Resilient, Microsoft Sentinel built-in, Torq) ก็มีในตลาด — เลือกตาม SIEM ที่ใช้อยู่

มุมผู้บริหาร: SOAR คือ investment ที่ ROI วัดง่ายที่สุดในวงการ — SOAR ที่ tune ดี ลด MTTR จาก 30-60 นาที → 2-5 นาที + ลด analyst workload 40-60%. ข้อควรระวังเดียว — อย่าให้ SOAR ทำ destructive action โดยไม่มี approval ในปีแรก. “auto isolate endpoint” ของ executive ที่ false positive = CEO ทำงานไม่ได้ในช่วง board meeting. เริ่มจากโหมด “recommend action” 3-6 เดือนก่อนเปิด auto execute

Alert fatigue + False positive/negative + UEBA — ของจริงที่ทำ SOC ล้มเหลว#

หัวข้อสุดท้าย — เรื่องที่จริงที่สุดของวงการที่ทำให้ SOC ล้มเหลว — alert fatigue ครับ

Alert fatigue — โรคของ SOC ทั่วโลก#

Alert fatigue (ความล้าจาก alert) = สภาวะที่ analyst เห็น alert มากเกินไปในแต่ละวัน — จนเริ่ม ignore alert ที่ดู “ธรรมดา” — และพลาด alert จริง

ตัวเลขที่วงการรายงานปี 2024 — SOC analyst โดยเฉลี่ยเห็น 5,000-10,000 alert/วัน — แต่จัดการได้จริงไม่ถึง 5%. ที่เหลือ — ปิดโดยไม่ดูลึก / ปล่อยให้ค้าง / ปิดเป็น “false positive” โดยไม่ตรวจ

อาการของ alert fatigue —

  • Analyst เริ่ม close alert โดยไม่อ่าน detail
  • Auto-dismiss rule ถูกตั้งขึ้นกว้างเกินไป — ปิดทั้งกลุ่ม alert โดยไม่แยก
  • Burnout + turnover สูง — analyst ทนไม่ไหว ลาออก
  • Important alert ถูกฝังในกองทรายของ false positive — แล้วพลาด

False Positive vs False Negative — สมการของวงการ#

ทุก detection system มี trade-off ระหว่าง 2 ค่า —

False Positive (FP) = ระบบ alert เรื่องที่ ไม่ใช่ภัย = แมวเดินผ่าน sensor แล้วแจ้ง burglar alarm

False Negative (FN) = ระบบ ไม่ alert เรื่องที่ เป็นภัยจริง = โจรเข้ามาแต่ sensor ไม่ดัง

ในวงการมี trade-off เสมอครับ —

  • ถ้า tune rule ให้ sensitive มาก → FP สูง → alert fatigue + ปิดทั้งหมดโดยไม่ดู
  • ถ้า tune rule ให้ลด FP → อาจ tune ไปแบบ “ปิด rule ที่ noise” → FN สูง → พลาดของจริง

ของจริงในวงการ — บริษัททั่วไป FP rate ของ SIEM ปกติ = 95-99% — แปลว่า alert 100 ตัวมีของจริงแค่ 1-5 ตัว. ปัญหาคือ analyst ต้องตรวจทั้ง 100 ตัวกว่าจะหาเจอ

UEBA — User and Entity Behavior Analytics#

ทางออกของวงการในรอบ 5 ปี — UEBA — context-aware detection ที่ใช้ ML

UEBA = User and Entity Behavior Analytics (การวิเคราะห์พฤติกรรมของผู้ใช้และอุปกรณ์) — ระบบที่

  1. Learn behavior ปกติของแต่ละ user + แต่ละ device ผ่านการดู log ระยะเวลา 30-90 วัน
  2. Baseline — สร้าง “ภาพปกติ” — user X login กี่โมง / จากที่ไหน / access file ประมาณกี่ MB
  3. Detect anomaly — เมื่อ behavior เบี่ยงเบนจาก baseline → alert
  4. Score risk — แต่ละ anomaly มี risk score — analyst เห็น alert ที่ rank ตาม score

ลองนึก —

  • User HR คนหนึ่ง — ปกติ login จากเครื่อง office จันทร์-ศุกร์ 9:00-18:00 + access แค่ HR file
  • วันหนึ่ง — login เวลา 2:00 ตี 2 วันเสาร์ จาก IP ในรัสเซีย + access financial database + download 2 GB
  • Static rule อาจไม่จับ (เพราะแต่ละ event เดี่ยวๆ ไม่ violate rule) — แต่ UEBA จับได้ เพราะ behavior เบี่ยงจาก baseline ของ user นี้แบบสุดขั้ว

UEBA built-in ใน SIEM ใหม่ — Microsoft Sentinel มี Fusion + UEBA. Splunk มี User Behavior Analytics. Securonix + Exabeam เป็น vendor ที่ focus UEBA โดยเฉพาะ

UEBA ที่ tune ดี ลด FP rate ลง 40-70% + จับ insider threat + compromised account ได้ดีกว่า static rule

เคส Target 2013 — เครื่องมือดี + คนกับ process แย่ = ตาย#

ปิดด้วยเคสที่เป็นบทเรียนคลาสสิคที่สุดของวงการ detection — Target breach 2013

ในช่วง Black Friday 2013 — ห้าง Target ของอเมริกา (1,800+ สาขา) ถูกขโมย บัตรเครดิตของลูกค้า 40 ล้านใบ + ข้อมูลส่วนตัวอีก 70 ล้านราย. ค่าเสียหายรวม $292 ล้าน. CEO + CIO ลาออกจาก เป็นเคสที่ทำให้ Target ปฏิรูปวงการ security ของ retail ทั้งหมด

ที่น่าสะเทือนใจของเคสนี้ — Target มี SOC + มี FireEye ที่เป็น advanced threat detection tool ระดับ premium ที่ติดตั้งไว้แล้ว — FireEye alert ดัง บอกว่าเจอ malware ที่ผิดปกติในระบบ POS (Point of Sale) 2 ครั้ง — ก่อนที่ข้อมูลจะถูกขโมยออก

แต่ — ทีม SOC ใน Bangalore ที่ Target outsource — ดู alert แล้วไม่ตอบ. Alert ถูก mark เป็น “ไม่ต้องดำเนินการ” — ไม่ escalate ไปอเมริกา — ไม่ปิด POS — ไม่แจ้งใคร

ผลคือ — โจรอยู่ในระบบต่ออีก 2 สัปดาห์ — copy บัตรเครดิตของลูกค้า 40 ล้านใบออกนอกบริษัท. กว่า Target จะรู้ว่าโดน — ไม่ใช่จาก FireEye alert ของตัวเอง — แต่จาก US Department of Justice ที่โทรมาบอก

บทเรียนจาก Target สรุปเป็น 4 ข้อครับ —

  1. เครื่องมือดี ไม่พอ — Target มี FireEye ที่จับได้. ของจริงในวงการ — เครื่องมือทำงาน + alert ดัง — แต่คนที่นั่งหน้าจอ “ไม่เชื่อ” หรือ “ไม่รู้ว่าควรทำอะไรต่อ
  2. Outsourcing ไม่ใช่ “set and forget” — Target outsource SOC ไป Bangalore — แต่ไม่มี SLA ที่ชัดเจน + ไม่มี escalation path ที่ทำงานได้จริง
  3. Alert fatigue ฆ่าเร็วกว่า attack — ทีม SOC ของ Target เห็น alert เป็นพันต่อวัน — alert ของ FireEye ถูกฝังในกอง
  4. Network segmentation ที่ดี ลดความเสียหายได้ — POS network กับ corporate network ของ Target ไม่ได้แยกกัน — โจรเข้าผ่าน HVAC vendor → corporate → POS ได้

Target 2013 = บทเรียนที่ผู้บริหารทุกคนต้องจำ — detection tool ไม่ได้รับประกันความปลอดภัย. ต้องมี คน + process + governance ที่ทำงานจริง


KPI ของ SOC — 4 ตัวที่ผู้บริหารต้องถาม IT ทุกเดือน#

4 ตัวเลขเดียวที่ผู้บริหารต้องรู้จาก SOC ของบริษัท ทุกเดือน:

  1. Alert count ต่อเดือน — เห็น volume จริง
  2. % ที่ analyst ตรวจจริง (ไม่ใช่ auto-dismiss) — ถ้า < 20% = alert fatigue ระดับวิกฤต
  3. MTTD (Mean Time To Detect) — เทียบกับ industry benchmark (ค่าเฉลี่ยวงการ = 204 วัน — target ของ enterprise ที่ดี < 72 ชม.)
  4. Incident confirmed — จาก alert ทั้งหมด มีเรื่องจริงกี่ตัว

ถ้า IT ตอบ 4 ตัวนี้ไม่ได้ทันที = SOC ของคุณยังไม่ mature


มุมผู้บริหาร: Lesson จาก Target 2013 — ทุก quarter ผู้บริหารต้องถาม SOC คำถามเดียว — “alert ที่เข้ามาเดือนที่แล้ว — กี่ % ที่ analyst ตรวจจริง?” ถ้าต่ำกว่า 20% = alert fatigue ระดับวิกฤต = ต้องลงทุน SOAR + tuning ทันที. และจัด tabletop exercise ทุก 6 เดือน — งบ 100,000-300,000 บาท/ครั้ง ถูกกว่า incident จริงเคสเดียวหลายร้อยเท่า

สรุป EP.43 — ห้องควบคุมโรงไฟฟ้าของเมืองดิจิทัล#

ครับ — EP.43 จบ. คุณได้เห็นภาพรวมของวงการ Detection — กลไกที่ทำให้บริษัท “เห็น” โจรที่อยู่ในระบบแล้ว

ลองทบทวนทั้ง 5 หัวข้อในภาพของเมือง:

  • SOC (หัวข้อ 1) = ห้องควบคุมโรงไฟฟ้า — มี analyst 3 ชั้น (Tier 1 ยามชั้นนอก / Tier 2 นักสืบ / Tier 3 มือเก๋า) — เปิด 24/7. In-house vs MSSP — บริษัทไทยขนาดกลางส่วนใหญ่เริ่มที่ MSSP หรือ Hybrid
  • SIEM (หัวข้อ 2) = จอใหญ่ในห้องควบคุม — รวม log ของทุกระบบเข้ามาดูที่เดียว + correlation rule ที่จับ pattern ของ attack. Splunk / Sentinel / QRadar / Elastic
  • EDR/XDR (หัวข้อ 3) = กล้อง CCTV ในทุกตึก — agent บน endpoint ที่เห็น process + file + network activity. XDR ขยายออกไป email + cloud + identity. CrowdStrike / SentinelOne / Defender / Sophos
  • SOAR (หัวข้อ 4) = แม่บ้าน auto — playbook อัตโนมัติที่จัดการ alert ง่ายๆ เอง + ลด workload ของ analyst 40-60%. Cortex XSOAR / Splunk SOAR / Tines / Torq
  • Alert fatigue + UEBA (หัวข้อ 5) = ปัญหาจริงของ SOC ทั่วโลก + วิธีรอดด้วย behavior analytics. เคส Target 2013 — เครื่องมือดีแต่คนกับ process แย่ = สูญเสีย $292M

สิ่งที่ผู้นำต้องจำ#

ข้อแรก — Detection ไม่ใช่เรื่องของเครื่องมือ เป็นเรื่องของ คน + process + เครื่องมือ

นี่คือบทเรียนใหญ่ที่สุดของ EP.43. ที่ผ่านมา 11 EPs ของ Part 4 + EP.39-42 — เราคุยเรื่อง เทคโนโลยี. แต่ EP.43 — เรื่องของ คน + process มีน้ำหนักเท่ากับเทคโนโลยี

Target 2013 มี FireEye ที่จับได้ — แต่คนที่นั่งหน้าจอไม่ตอบ. เครื่องมือ detection ที่ดีที่สุดในโลก ถ้าไม่มี SOC analyst ที่ตอบ alert + process ที่ escalate ถูก + governance ที่ feedback ผลให้ผู้บริหาร — มันเหมือนกล้อง CCTV ที่ไม่มีใครเปิดดู

Action plan สำหรับบริษัทไทยปี 2026:

  1. กำหนด KPI ของ SOC ที่ผู้บริหารดู — MTTD / MTTR / % alert ที่ตรวจจริง / incident confirmed — ดูทุก quarter
  2. เลือก MSSP ที่ถามคำถามถูก — analyst per customer ratio / SLA ของ escalation / report cadence
  3. อย่าซื้อ tool เพื่อ checklist — ตอบ use case ของบริษัทก่อนเลือก SIEM/EDR
  4. Tune rule อย่างต่อเนื่อง — ทุก quarter ต้อง review rule ที่ FP สูง + ปรับ + ดูว่า FN ที่เกิดจากการปรับมีอะไร
  5. Tabletop exercise ทุก 6 เดือน — ยิง scenario ของจริงให้ทีม SOC + ผู้บริหารตอบ — จับ gap ของ process
  6. ลงทุน SOAR หลัง SIEM/EDR ตั้งตัวได้ — ปีแรกตั้ง SIEM/EDR ก่อน ปีที่ 2-3 ค่อยเพิ่ม SOAR
  7. อย่าให้ analyst burnout — ที่ Tier 1 — ถ้า analyst ต้องดู 1,000+ alert/day แสดงว่า tuning + SOAR ไม่พอ — แก้ที่ระบบ ไม่ใช่ “เพิ่มคน”

ข้อสอง — Detection คือ “เวลา” ไม่ใช่ “เห็น/ไม่เห็น”

ในวงการมีคำที่จริงเสมอ — “You will get breached. The question is how quickly you detect it.”

บริษัทยักษ์ระดับ Microsoft / Google / Amazon — ก็โดน. คำถามไม่ใช่ “ป้องกัน 100%” (ไม่มี) — แต่เป็น —

  • MTTD ของบริษัทคุณเท่าไหร่? (ค่าเฉลี่ยวงการปี 2024 = 204 วัน)
  • MTTR เท่าไหร่? (ค่าเฉลี่ยวงการ = 73 วัน)
  • เคสไหนของบริษัทคุณที่ MTTD < 1 ชั่วโมง? (target ที่บริษัทระดับโลก aim ไปถึง)

ของจริงในวงการ — บริษัทไทยขนาดกลางที่ลงทุน SOC + SIEM + EDR + SOAR ดี + มี process ที่ tune มา 2-3 ปี — สามารถลด MTTD จาก 204 วัน → 24-72 ชั่วโมง ได้. ผลคือ — เมื่อเกิด breach ความเสียหายลดลง 70-90% เพราะหยุดได้ก่อนข้อมูลออกหรือ ransomware เข้ารหัสครบ

นี่คือ ROI ของ detection investment ที่บริษัทไทยปี 2026 ต้องเข้าใจ — ไม่ใช่ “ป้องกัน breach” — แต่เป็น “ลดความเสียหายของ breach ที่จะเกิดอย่างหลีกเลี่ยงไม่ได้”

Tease EP.44 — Threat Hunting + Deception: นักสืบที่เดินหาคนแปลกหน้า + ขนมหวานล่อ#

ครับ — EP.43 จบที่ detection แบบ reactive — รอ alert ดัง แล้วตอบ

แต่ในวงการปี 2024-2026 มีคำคมที่จริง — “If you wait for an alert, you’ve already lost.” — ถ้ารอ alert = แพ้แล้ว

เพราะ —

  • โจรระดับ APT (Advanced Persistent Threat) ใช้ technique ที่ bypass alert ของ EDR / SIEM ทั่วไปได้
  • Living-off-the-land binaries (LOLBin) — ใช้ tool ของระบบเองทำร้าย — ไม่ตัวจาก signature
  • โจรอยู่ในระบบเฉลี่ย 9-12 เดือน ก่อนถูกตรวจเจอ — ในช่วงนั้น signature ไม่ดัง

คำถามใหญ่ของ EP.44 จึงเป็น —

“ไม่รอ alert ดัง — ออกไปหาโจรเองในระบบทำยังไง?”

EP.44 จะพาคุณเข้าโลกของ Threat Hunting — ที่ Tier 3 analyst (จากหัวข้อ 1 ของ EP.43) ใช้เวลาตั้ง hypothesis + ค้นหาในระบบเอง โดยไม่รอ alert. ลองนึก — นักสืบที่เดินรอบเมืองหาคนแปลกหน้า — ไม่นั่งรอที่สถานี

EP.44 จะคุย —

  • Hypothesis-driven hunt — วงจร hunt loop ของวงการ
  • IoC vs IoA — Indicator of Compromise vs Indicator of Attack — ความต่างที่สำคัญ
  • STIX / TAXII — มาตรฐานแชร์ threat intel ระหว่างบริษัท
  • Pyramid of Pain — โมเดล David Bianco ที่ rank ความเจ็บปวดที่เราสร้างให้โจรในแต่ละชั้นของ indicator
  • Honeypot + Honeynet + Canary token + Honey credentialsขนมหวานล่อ — ของปลอมที่วางไว้ดูใครเข้ามาขโมย — ทำให้บริษัทรู้ตัวทันทีที่โจรเข้า

ลองนึกภาพในเมืองของเรา. ที่ผ่านมา EP.43 — ห้องควบคุมที่นั่งดูจอ. EP.44 — นักสืบที่ลงพื้นที่เดินหา + วางขนมหวานเป็นกับดัก

EP.44 — Threat Hunting + Deception: นักสืบที่เดินหาคนแปลกหน้าในเมือง + ขนมหวานล่อ (เร็วๆ นี้)