สารบัญ
Series: CyberSecurity Foundation — รากฐาน Security สำหรับยุค AI (ภาษาคน)
Part 0 — WHY: เมืองนี้ทำไมต้องมียาม
- EP.01 — Cybersecurity คือเรื่องของคุณ
- EP.02 — 4 เคสที่เปลี่ยนวงการ
- EP.03 — CIA Triad
- EP.04 — Defense in Depth + Diversity
- EP.05 — Assume Breach + Risk
Part 1 — HOW: ระบบนิเวศของเมือง 6. EP.06 — ระบบนิเวศของโจร 7. EP.07 — ระบบนิเวศของผู้ป้องกัน 8. EP.08 — Framework: ISO/NIST/COBIT/CIS 9. EP.09 — Compliance Theater
Part 2 — Identity: บัตรประชาชน + กุญแจห้อง 10. EP.10 — IAM Lifecycle 11. EP.11 — Authentication: 3 Factors + AAA 12. EP.12 — Password 101 13. EP.13 — MFA + Biometric 14. EP.14 — Kerberos 15. EP.15 — Federation + SSO 16. EP.16 — Authorization: RBAC / ABAC / MAC / DAC 17. EP.17 — PAM + Zero Trust
Part 3 — Data: ของในเซฟ 18. EP.18 — Data Classification + Lifecycle 19. EP.19 — Cryptography 101 20. EP.20 — Symmetric Crypto: AES 21. EP.21 — Asymmetric Crypto: RSA + DH 22. EP.22 — Hashing: ลายนิ้วมือดิจิทัล 23. EP.23 — PKI + Certificates 24. EP.24 — TLS / HTTPS 25. EP.25 — Email Security: SPF / DKIM / DMARC 26. EP.26 — Privacy Engineering
Part 4 — Infrastructure: ถนน กำแพง ท่อ 27. EP.27 — Network Basics + Firewall Generations 28. EP.28 — Segmentation + DMZ + Microsegmentation 29. EP.29 — IDS / IPS / WAF / RASP 30. EP.30 — VPN + Proxy + DNS Security 31. EP.31 — DDoS + DLP 32. EP.32 — Cloud + Shared Responsibility 33. EP.33 — Container + Kubernetes 34. EP.34 — DevSecOps + Shift-Left 35. EP.35 — Mobile + Wireless 36. EP.36 — IoT + OT / ICS 37. EP.37 — Remote Work + ZTNA 38. EP.38 — AI + Blockchain Security
Part 5 — Operations: ตำรวจ ดับเพลิง สืบสวน 39. EP.39 — Kill Chain + MITRE ATT&CK 40. EP.40 — Social Engineering: Phishing / BEC / Vishing 41. EP.41 — Malware Taxonomy 42. EP.42 — Web App Attacks: OWASP Top 10 deep 43. EP.43 — Detection: SOC + SIEM + EDR / XDR 44. EP.44 — Threat Hunting + Deception 45. EP.45 — Vuln Scan vs Pen Test vs Red Team 46. EP.46 — Incident Response (NIST 800-61): นักดับเพลิงที่ฝึกแล้ว ← คุณอยู่ตรงนี้ 47. EP.47 — Digital Forensics
Part 6 (Governance) — กำลังเขียนต่อ
ครับ — EP.45 เราคุยเรื่องการ ลองเจาะตัวเอง — Vuln Scan / Pen Test / Red Team — 3 วิธีที่บริษัทจ้างคนมา ทดสอบ defense ของตัวเอง ก่อนโจรจริงจะมา. ผลที่ได้คือ report ว่ามีรูตรงไหน — และส่วนใหญ่ — บริษัททุกที่ เจอบางเรื่อง
แต่คำถามต่อมาที่ใหญ่กว่า — วันที่โจรจริงเข้ามา ไม่ใช่ทีม red team — ทำยังไง?
ในเมืองของเรา — มียามเฝ้า (Part 2), มีเซฟล็อกของ (Part 3), มีถนนกำแพงท่อ (Part 4), มีตำรวจที่ตรวจตรา (EP.43 SOC). แต่ตอนเกิดเหตุจริง — ไฟไหม้บ้านจริงๆ ตอน 02:00 น. — มียามคนหนึ่งเห็นควัน. ตอนนั้น ใครทำอะไร?
ลองนึกภาพ 2 ฉากครับ
ฉากที่ 1 — บริษัท A ไม่เคยฝึก. ยามเห็นควัน — โทรหา IT manager ตอน 02:00 น. — IT manager โทรหา CIO — CIO ถามว่า “แน่ใจหรือว่าเป็นไฟไหม้จริง?” — เถียงกัน 1 ชั่วโมง — เริ่มเรียกคน — ไม่รู้ใครรับผิดชอบเรื่องอะไร — Legal ไม่อยู่ — PR ไม่รู้ว่าจะแถลงอะไร — ลูกค้าโทรเข้าถาม call center พนักงานตอบ “ไม่รู้ครับ” — 24 ชั่วโมงผ่านไป — เพลิงลามทั่วบริษัท
ฉากที่ 2 — บริษัท B ฝึกทุก 3 เดือน. ยามเห็นควัน — โทรเข้าสาย IR hotline ที่มีเวรตลอด 24 ชม. — IR lead รับสาย — เปิด runbook (คู่มือดับเพลิง) — call ทีมตาม CSIRT roster — 30 นาทีทุกคน join war room — Legal ออกแจ้ง regulator ภายใน timeline 72 ชั่วโมง — PR มี template — Forensics ถ่าย image ของระบบทันที — Containment + Recovery วิ่งคู่กัน — 6 ชม. หลังตื่นเตียง — เพลิงสงบ ลูกค้ายังเชื่อในบริษัท
2 ฉาก — เทคโนโลยีเหมือนกัน บริษัทขนาดเหมือนกัน. ต่างกันที่ เคยฝึกหรือไม่เคยฝึก
นี่คือเรื่องของ EP.46 — Incident Response (การตอบสนองเหตุการณ์) ตามมาตรฐาน NIST Special Publication 800-61 — คู่มือดับเพลิงที่วงการใช้ทั่วโลก
ในเมืองดิจิทัลของเรา — ตอนนี้เราไม่ได้คุยเรื่อง ป้องกันก่อนเกิด อีกแล้วครับ. เราคุยเรื่อง ดับเพลิงตอนเกิด. และทีมที่ดับเพลิง — ไม่ใช่กลุ่มคนสุ่มที่บริษัทเรียกตอน 02:00 น. — แต่เป็น นักดับเพลิงที่ฝึกแล้ว — มีคู่มือ มีบทบาท มีอุปกรณ์ — และที่สำคัญที่สุด — ซ้อมก่อนไฟไหม้จริง
เริ่มจากคู่มือกลางครับ — NIST 800-61 — เพราะถ้าไม่มี framework กลางเป็นกระดูกสันหลัง ทีมจะ improvise ตอนตี 2 ทุกครั้ง — แบบฉากที่ 1
NIST 800-61 — คู่มือดับเพลิง 4 ขั้นตอนของวงการ
ในเมืองทั่วไป — สถานีดับเพลิงมี คู่มือ ที่บอกทุกอย่าง ตั้งแต่รับสายแจ้งเหตุ ขับรถออก ใส่ชุด ลากสาย ฉีดน้ำ ตรวจซากหลังไฟดับ. คู่มือนี้ไม่ได้สวมหรือไม่สวม — มันเป็น มาตรฐาน ที่ทุกสถานีในประเทศใช้ตามกัน
วงการ cybersecurity ก็เหมือนกันครับ. คู่มือกลางของวงการชื่อ NIST SP 800-61 — เต็มคือ “Computer Security Incident Handling Guide” ออกโดย NIST (National Institute of Standards and Technology) ของสหรัฐ. revision 2 ปี 2012 + revision 3 ปี 2025 (กำลังนิ่ง)
ก่อนเข้า phase — ลองเข้าใจคำศัพท์พื้นฐาน 2 คำที่คนสับสนบ่อยครับ
- Event (เหตุการณ์) = ทุกสิ่งที่เกิดขึ้นในระบบ — login สำเร็จ ก็เป็น event / firewall block ก็เป็น event / disk เต็มก็เป็น event. ส่วนใหญ่ ไม่ใช่ปัญหา
- Incident (เหตุการณ์ที่มีนัยยะ security) = event ที่ละเมิดหรือใกล้จะละเมิด policy security ของบริษัท — เช่น ransomware ติด / ข้อมูลรั่ว / โจรเข้าระบบ
NIST 800-61 แบ่งกระบวนการรับมือ incident ออกเป็น 4 phases — เรียงตามเวลา. ขอเล่าทีละ phase
Phase 1 — Preparation (เตรียมการก่อนเกิด)
นี่คือ phase ที่ สำคัญที่สุด — แต่บริษัทไทยส่วนใหญ่ข้ามไปเลย
Preparation = ทุกอย่างที่ทำ ก่อน incident เกิด — เพื่อให้ตอนเกิดจริงไม่ต้องคิดใหม่หมด. ลองเปรียบกับสถานีดับเพลิงครับ — ตอนเกิดไฟ นักดับเพลิงไม่มีเวลา “ขอไปร้านซื้อสาย” — ทุกอย่างต้องพร้อมไว้ก่อนเรียบร้อย
สิ่งที่ต้องเตรียมในระดับ enterprise:
- IR Plan (แผนตอบสนองเหตุการณ์) — เอกสารกลางที่บอกใครทำอะไรในเหตุการณ์ระดับต่างๆ
- CSIRT roster — รายชื่อทีม + เบอร์ติดต่อ + role + backup
- Runbook / Playbook (คู่มือตามสถานการณ์) — เช่น runbook สำหรับ ransomware / data leak / DDoS / insider — บอก step-by-step
- Communication template — template ของอีเมลแจ้ง regulator / ลูกค้า / สื่อ / พนักงาน — มีร่างไว้ก่อน
- Forensic tools — เครื่องมือทำ image / collect log / analyze memory (จะคุยใน EP.47)
- War room (ห้อง command) — physical หรือ virtual — ที่ทีม IR ทุกคนรวมตัวได้
- Contract กับ vendor — IR retainer / forensic firm / legal firm — มี contract พร้อมใช้
- Backup ที่ทดสอบแล้ว — backup ที่ไม่เคย restore = backup ที่ไม่มีจริง
- Training + Tabletop exercise — ซ้อมทุก 3-6 เดือน (จะคุยในหัวข้อ 3)
ลองนึกง่ายๆ ครับ — Preparation = ทุกอย่างที่ทำ ตอนไม่มีไฟ. ถ้าทำ phase นี้ดี — 3 phases ที่เหลือใช้พลังงานน้อยมาก. ถ้าข้าม phase นี้ — 3 phases ที่เหลือจะวุ่นวายจนเข็นไม่ขึ้น
มุมผู้บริหาร: เมื่อถามบริษัทไทย “มี IR plan ที่ test แล้วไหม?” — คำตอบส่วนใหญ่คือ “มี เอกสารในตู้” — แต่ไม่เคยซ้อม คนใน CSIRT roster ลาออกไปแล้ว 3 คน เบอร์โทรเปลี่ยน. เอกสารแบบนี้ไม่มีค่าตอนเกิดจริง. คำถามเดียวที่ผู้บริหารต้องถาม — “CSIRT roster ของเรา update + ซ้อมล่าสุดเมื่อไหร่?” ถ้าเกิน 6 เดือนแล้วยังไม่ซ้อม = plan ตายแล้ว
Phase 2 — Detection & Analysis (ตรวจพบและวิเคราะห์)
Detection = ระบบหรือคนตรวจจับว่า “มีอะไรผิดปกติ”. ใน EP.43 (SOC + SIEM + EDR) เราคุยเรื่องเครื่องมือและทีมที่ทำหน้าที่นี้ — alert จาก SIEM, alert จาก EDR, รายงานจากพนักงาน, รายงานจากลูกค้า, รายงานจาก threat intelligence vendor, รายงานจาก law enforcement
Analysis = ขั้นตอนต่อมา — ทีม IR วิเคราะห์ว่า alert ที่ได้รับ:
- เป็น incident จริง หรือเป็น false positive (เตือนผิด)?
- ถ้าจริง — scope ใหญ่แค่ไหน — กี่ระบบ กี่ user กี่ข้อมูล?
- Severity เท่าไร — แบ่งระดับเช่น Low / Medium / High / Critical
- Category อะไร — ransomware / data exfiltration / insider / DDoS / supply chain / etc.
หลัง analysis เสร็จ — ทีมตัดสินใจ escalation:
- Tier 1 = SOC analyst ทั่วไป handle เองได้ (false positive / minor issue)
- Tier 2 = senior analyst + IR lead ดูร่วม
- Tier 3 (incident จริง) = activate CSIRT เต็มทีม + notify executive + เริ่ม clock 72 ชม.
ในเคสที่หนัก — Tier 3 = call CEO ตอนตี 2 ครับ. ไม่ใช่ทุก alert จะถึงระดับนี้ — แต่ถ้าถึง — เวลาเป็นทอง
ในเคส Target 2013 (เราคุยใน EP.43) — FireEye alert ถูก Detect แต่ไม่ Analyze ดีพอ — ทีม dismiss alert. นั่นคือ failure ใน phase 2 — ไม่ใช่ failure ใน detection technology
Phase 3 — Containment, Eradication, Recovery (กักกัน กำจัด กู้คืน)
นี่คือ phase ที่ คนทั่วไปนึกถึงตอนพูดเรื่อง IR — phase ของการดับเพลิงจริง. NIST รวม 3 sub-step ไว้ใน phase เดียว เพราะมัน flow ต่อเนื่อง
1. Containment (กักกันให้ไม่ลาม) — เป้าหมาย: หยุดเลือดไหล — ป้องกันไม่ให้ incident ขยายไปยังระบบหรือ asset อื่น
แบ่งย่อยเป็น short-term containment + long-term containment
- Short-term = ทำเร็ว เช่น disconnect เครื่องที่ติด malware จาก network / block IP โจรที่ firewall / disable account ที่โดน compromise / kill process malicious
- Long-term = วาง infrastructure ชั่วคราว เช่น move workload ไป isolated VLAN / สร้าง clean network parallel เพื่อใช้งานต่อไปได้ระหว่างที่ระบบเดิมยังถูก investigate
2. Eradication (กำจัดสาเหตุ) — เป้าหมาย: เอาสาเหตุออกจากระบบให้หมด — ไม่ใช่แค่ปิด surface symptom
- ลบ malware ออกจากทุกเครื่องที่ติด
- Patch vulnerability ที่โจรใช้เข้ามา
- Rotate credential ทั้งหมดที่อาจ compromised
- Rebuild system จาก clean image (ส่วนใหญ่ปลอดภัยกว่า “ลบ malware แล้วใช้ต่อ”)
- Remove backdoor ที่โจรอาจฝังไว้
3. Recovery (กู้คืนกลับสู่ปกติ) — เป้าหมาย: กลับมาทำธุรกิจตามปกติ อย่างปลอดภัย
- Restore data จาก backup ที่ตรวจสอบแล้วว่าไม่ติด malware
- Bring system กลับ production ทีละขั้น + monitor เข้ม
- Validate ว่าระบบทำงานได้ + ไม่มี anomaly
- เปิดให้ user เข้าใช้ตามลำดับ — เริ่มจากกลุ่มเล็ก ขยายเมื่อมั่นใจ
- Continuous monitoring 30-90 วันหลัง recovery (โจรอาจ try กลับเข้ามา)
ลองนึกแบบบ้านไฟไหม้ครับ — Containment = ปิดประตูห้องที่ไฟลุก ป้องกันลามห้องอื่น. Eradication = ดับไฟให้สนิท + เอาเศษไหม้ออก + check ว่าไม่มีจุดติดไฟใหม่. Recovery = ซ่อมห้อง ทาสี ใส่ของกลับ — ครอบครัวกลับมาอยู่ได้
ใน phase นี้ — มี dilemma คลาสสิค ที่บริษัทเจอแน่นอน — จะคุยใน “Containment dilemma” หัวข้อ 4
Phase 4 — Post-Incident Activity (กิจกรรมหลังเหตุการณ์)
Phase สุดท้าย — ที่บริษัทไทยข้ามบ่อยที่สุดเช่นกัน
Post-Incident Activity = สิ่งที่ทำ หลัง เหตุการณ์จบ — เพื่อ เรียนรู้ และ ไม่ให้เกิดอีก
กิจกรรมหลัก:
- Lessons learned meeting — ทีมทั้งหมดที่เกี่ยวข้องประชุม — ภายใน 1-2 สัปดาห์หลัง recovery — ทบทวนสิ่งที่เกิด, สิ่งที่ทำดี, สิ่งที่ทำพลาด, สิ่งที่ควร improve. หลัก blameless culture — เน้นเรียนรู้ ไม่ใช่หาคนผิด
- Update IR plan / runbook / playbook — เอา lessons learned ปรับเอกสาร
- Update control + technology — เช่น เพิ่ม detection rule ใหม่ใน SIEM, patch process ที่ช้า, จัดซื้อ tool ที่ขาด
- Update training — เอา scenario จริงมาใช้ใน tabletop exercise รอบหน้า
- Final incident report — เอกสารทางการที่ส่งให้ executive + board + regulator (ถ้า required) + insurance
- Retention of evidence — เก็บ log / image / artifact ตาม legal retention policy (อาจถูก subpoena หลายปีหลังเหตุการณ์)
หลายบริษัทพอ recovery เสร็จ — โล่งใจ ลืม phase 4 ไป. ผลคือ — incident เดิมเกิดซ้ำใน 6-12 เดือน เพราะ root cause ไม่ถูกแก้
NIST เน้นว่า — incident handling เป็น loop ไม่ใช่ line. Phase 4 → feed กลับ Phase 1 (Preparation) — ทำให้องค์กรแข็งแกร่งขึ้นทุกรอบ
มุมผู้บริหาร: หลังทุก incident — board ต้องดู 2 ตัวเลข: MTTD + MTTR (เทียบ benchmark IBM 2024: global average 194 วัน / 64 วัน). บริษัทที่พัฒนา — MTTD ลดลงทุกปี + lessons learned ปิดได้ > 80% ใน 90 วัน. ที่ไม่พัฒนา — ตัวเลขนิ่งหรือแย่ลง. คำถามที่ขาดไม่ได้ — “lessons learned จาก incident ครั้งล่าสุด — action item ปิดครบในกำหนดไหม?”
CSIRT — ทีมดับเพลิงที่รวมหลายอาชีพ
เมื่อเกิดไฟไหม้ในเมืองจริง — ที่หน้าที่เกิดเหตุไม่ใช่มีแค่ “นักดับเพลิง” คนเดียวครับ. มีทั้งนักดับเพลิง / รถพยาบาล / ตำรวจกั้นจราจร / นักข่าวที่มาทำข่าว / ทนายของบริษัทที่ตึกไหม้ / ผู้ใหญ่บ้านที่แถลงให้ประชาชน / คนซ่อมไฟฟ้า — หลายอาชีพ มาทำงานร่วม
เคสไซเบอร์ก็เหมือนกันครับ. ทีมที่รับมือ incident เรียกว่า CSIRT — Computer Security Incident Response Team (บางที่เรียก CERT — Computer Emergency Response Team หรือ IRT — Incident Response Team — เหมือนกันโดยพื้นฐาน)
CSIRT ไม่ใช่ทีม IT เท่านั้น — เป็นทีม cross-functional ที่มีคนจากหลายแผนก
บทบาทใน CSIRT
1. IR Lead / Incident Commander — หัวหน้า incident — คนที่ตัดสินใจหลักช่วง crisis. คนนี้ต้องมีอำนาจสั่งทั้งบริษัทตอน incident. ไม่ใช่ตำแหน่งสูงเสมอ — บางบริษัท IR Lead เป็น senior analyst ที่มีประสบการณ์ — มี authority delegate มาจาก CISO ในช่วง crisis
2. Forensics Lead — คนเก็บหลักฐาน + วิเคราะห์ technical (จะคุยเต็มใน EP.47). ต้องรู้ทั้ง chain of custody + memory analysis + log analysis
3. Legal Counsel (ทนาย) — กฎหมาย เป็นเรื่องใหญ่มากใน incident ยุคนี้ — GDPR / PDPA / SEC disclosure / class action / law enforcement coordination / attorney-client privilege protection. ทนายต้องอยู่ในห้องตั้งแต่ตัดสินใจหลักว่า “นี่ incident ที่ต้องแจ้ง regulator ไหม”
4. Public Relations / Communications — คนแถลง + จัดการสื่อ + จัดการ social media. ผิดที่ phase นี้ = reputation พังกว่า incident เอง
5. Executive Sponsor (CEO หรือ representative) — ผู้บริหารระดับสูงที่ตัดสินใจ business — เช่น “หยุดให้บริการชั่วคราว 6 ชม.เพื่อ contain”, “แจ้งลูกค้าทั้งหมดวันนี้”, “จ่ายค่าไถ่ ransomware หรือไม่”
6. HR (Human Resources) — ถ้า incident เกี่ยวข้องกับพนักงาน (insider threat / พนักงานที่โดน phishing / พนักงานที่ปกปิดข้อมูล) — HR ต้องมีบทบาทตั้งแต่ตอนสอบสวน
7. DPO (Data Protection Officer) — ถ้าบริษัทอยู่ภายใต้ GDPR / PDPA — DPO ต้องเป็นคน decide การแจ้ง regulator + ลูกค้า ตาม timeline ที่กฎหมายกำหนด
8. Customer Comms (สื่อสารกับลูกค้า) — call center / account manager / sales — รับสายลูกค้าที่ตื่นตระหนก. ต้องมี script + training
9. IT Operations — คนที่รัน infrastructure จริง — implementation ของ containment + recovery — ทำงานคู่กับ security
10. Third-party specialists (เรียกตามต้องการ) — Mandiant / CrowdStrike / Kroll / ทนาย specialized / forensic firm — กลุ่มนี้คือ external experts ที่มี contract ไว้ก่อน
โครงสร้างที่ทำงาน
CSIRT ไม่ใช่ทีมเต็มเวลา — majority เป็น part-time role ที่ถูก activate ตอน incident. มีแค่บางตำแหน่งที่ full-time ใน enterprise ใหญ่:
- CISO + Security team = full-time
- SOC = full-time (EP.43)
- IR Lead designate = อาจเป็น manager ใน security team — full-time แต่ activate IR role ตอน incident
- ที่เหลือ — full-time ในแผนกตัวเอง + on-call ตอน CSIRT activate
ลองนึกเหมือน กองทัพ reservist ครับ — ปกติทำงานปกติ — ตอนสงครามถูกเรียก
RACI Matrix สำหรับ CSIRT = เอกสารกลางที่กำหนดว่าใคร:
- R (Responsible) = คนทำงานจริง
- A (Accountable) = คนรับผิดชอบสุดท้าย
- C (Consulted) = คนที่ต้องปรึกษา
- I (Informed) = คนที่ต้องได้ข้อมูล
RACI ที่ดี — ทุกคนใน CSIRT รู้บทบาทของตัวเอง ก่อน incident เกิด. ตอน 02:00 น. ไม่มีเวลาแย่งกันว่าใครตัดสินใจ
มุมผู้บริหาร: บริษัทไทยขนาดกลาง (พนักงาน 500-2,000) — สิ่งที่ต้องมีก่อนปี 2026 จบ คือ external retainer กับ IR firm + breach counsel ที่ contract พร้อมใช้. ค่า retainer 2-5 ล้านบาท/ปี — ใช้หรือไม่ใช้ก็ลงทุน เพราะตอนเกิดจริง = priority queue. ที่บริษัทเล็กพลาดบ่อย — “จะหา IR firm ตอนเกิดเรื่อง” — ตอนเกิดจริง คุณคือลูกค้าลำดับที่ 50 ใน queue
Tabletop Exercise — ซ้อมก่อนไฟไหม้จริง
ที่นักดับเพลิงเก่งเพราะ ซ้อม. ทุกสัปดาห์ ทุกเดือน — ซ้อมขับรถออก ซ้อมลากสาย ซ้อมใส่ชุด ซ้อม drill วิ่งขึ้นตึกสูง. ตอนเกิดเหตุจริง — ไม่ใช่ครั้งแรก ที่ทีมทำสิ่งนี้
ใน cybersecurity — การซ้อมก่อนเกิดเรียกว่า Tabletop Exercise
Tabletop Exercise (การซ้อมโต๊ะ) = สถานการณ์จำลอง (scenario) ที่ทีม IR + executive นั่งคุยกัน ในห้องประชุม — facilitator (ผู้ดำเนินรายการ) เล่าสถานการณ์ทีละ step — ทีมตัดสินใจว่าจะทำอะไร — facilitator ปรับ scenario ตามการตัดสินใจของทีม
ไม่ใช่การซ้อมเทคนิคจริง (ไม่ได้ลง terminal ทำอะไร) — แต่เป็นการซ้อม กระบวนการตัดสินใจ + การสื่อสาร + การประสานงาน
Format ของ tabletop
ใช้เวลา 2-4 ชั่วโมง. ผู้เข้าร่วม 10-25 คน (ทีม CSIRT + executive + บางครั้ง board observer + external facilitator)
Phase 1 — Inject scenario — facilitator เริ่ม:
“ตอนนี้ 02:00 น. วันศุกร์. SOC analyst โทรมาว่าเห็น alert ผิดปกติ — มี ransomware note บน file server หลัก. มีคน encrypt file ทั่ว server แล้ว. คุณจะทำอะไรเป็นขั้นแรก?”
Phase 2 — Team response — ทีมคุย — ตัดสินใจ — facilitator จด + ถามคำถาม:
“OK — IR Lead เรียก war room. ใครจะโทร? ใครจะรับสาย? CEO อยู่ Bangkok แต่ flying ไปยุโรปตอนนี้ — ใครเป็น decision maker ระหว่างนั้น?”
Phase 3 — Inject complication — facilitator เพิ่มความซับซ้อน:
“เพิ่มเติม — สื่อ Twitter ลงข่าว ‘XYZ Company ถูก ransomware’ มี screenshot ของ ransom note. ลูกค้าโทรเข้า call center 50 สาย/นาที. ทำอะไรต่อ?”
Phase 4 — Debrief — หลังจบ scenario:
- จุดที่ทีมทำได้ดี
- จุดที่ติด — เช่น ใครรับสายไม่ชัด / ขั้นตอนไหนช้า / เอกสารไหนไม่พบ
- Action item เพื่อ improve
Scenario ที่ควรซ้อม
ทีมที่ดี — ซ้อม scenario หลายแบบ หมุนเวียน:
- Ransomware — encrypt ทั้งบริษัท + ransom note + decision จ่ายค่าไถ่หรือไม่
- Data leak / Data breach — ข้อมูลลูกค้ารั่ว — แจ้งใคร เมื่อไหร่ ยังไง + 72-hour clock
- Insider threat — พนักงานคนหนึ่ง steal data ก่อนลาออก — HR + Legal + Forensics ทำงานร่วม
- Supply chain attack — vendor ที่บริษัทใช้โดน hack — เราถูก impact ทางอ้อม
- BEC (Business Email Compromise) — CEO อีเมลปลอมสั่งโอนเงิน $5M — HR ฝ่ายการเงินทำตาม — เงินไปแล้ว
- Cloud incident — AWS account ถูก hijack — โจรลบ data + เปิด instance ขุด crypto ใช้เงินเรา
- DDoS — ลูกค้าโทรว่า website ใช้ไม่ได้ — ทีมต้อง response + คุย ISP / CDN
ความถี่
NIST + วงการ best practice แนะนำ:
- Quarterly (ทุก 3 เดือน) = อย่างน้อย — สำหรับ enterprise ขนาดกลางขึ้นไป
- Annually = ขั้นต่ำสุด — สำหรับ SMB
- After every major incident = update scenario ให้ตรงกับเหตุการณ์จริง — และซ้อมรอบใหม่
- Annual full-scale exercise = ปีละ 1 ครั้ง ทำใหญ่ — รวม board / external auditor / regulator observer (บางครั้ง)
Tabletop ที่ดี vs ที่ไม่ดี
Tabletop ที่ดี — มี facilitator external (ไม่ใช่คนใน) ที่ challenge ทีมจริงๆ. ใช้ scenario ที่อิงเหตุการณ์ปัจจุบัน (เช่นปี 2025 ซ้อม AI deepfake scenario). มี executive จริงๆ เข้า — ไม่ใช่ส่ง deputy. มี action item ที่ track ได้ + ปิดได้
Tabletop ที่ไม่ดี (compliance theater — เราคุยใน EP.09) — facilitator คนใน scenario เก่า 5 ปี executive ส่ง deputy ไม่มี action item — เป็นแค่ “ติ๊กช่อง audit” ว่า “บริษัทมี tabletop annual”
ลองนึกตัวอย่างที่ตรงเคสจริง — ก่อน NotPetya (มิ.ย. 2017) — Maersk เคย run tabletop exercise — และพบว่า backup strategy มีจุดอ่อน — ทำให้ตัดสินใจมี backup site ที่ Ghana (offline จาก network หลัก). ตอน NotPetya เกิดจริง — Ghana DC เป็นทาง survive (จะคุยในเคสปิด EP)
มุมผู้บริหาร: เคล็ดที่บริษัทไทยตกบ่อยตอนทำ tabletop — ไม่ invite executive จริงๆ — exercise กลายเป็นทีม IT คุยกันเอง ไม่เคย test communication ขึ้น executive. tabletop ที่ไม่มี executive อยู่ในห้อง = ไม่มีค่า. board ต้องรับ report ของ tabletop ทุกครั้ง + รู้ว่ามี gap อะไร + อนุมัติงบปิด gap ในรอบเดียวกัน
72-Hour Clock + Containment Dilemma — เมื่อกฎหมายคุณกับการดับเพลิงขัดกัน
ครับ — phase ของ containment ดูเหมือนตรงไปตรงมา — เห็นไฟ → ตัด → ดับ. แต่ในโลก cybersecurity ปี 2026 มี complication 2 ตัว ที่ทำให้ทีม IR ปวดหัว
1. นาฬิกาของ regulator — กฎหมายบังคับว่าต้อง แจ้งเร็ว 2. ความขัดแย้งระหว่าง containment กับ forensic evidence — รีบดับ vs เก็บหลักฐาน
ลองคุยทีละเรื่อง
72-hour clock — GDPR Article 33 + Thailand PDPA Section 37
GDPR — General Data Protection Regulation = กฎหมาย privacy ของยุโรปที่บังคับใช้ปี 2018. Article 33 บอกว่า ถ้ามี personal data breach เกิด — ผู้ควบคุมข้อมูล (data controller) ต้องแจ้ง supervisory authority ของประเทศนั้น ภายใน 72 ชั่วโมง หลังรู้ตัว (became aware) — เว้นกรณีที่ breach ไม่น่าจะเสี่ยงสิทธิและเสรีภาพของบุคคลธรรมดา
ถ้าเกิน 72 ชม. — ต้องส่ง reasoned justification ว่าทำไมช้า
Thailand PDPA (Personal Data Protection Act) — มาตรา 37 (Section 37) = กฎหมาย privacy ของไทย บังคับใช้เต็ม 1 มิ.ย. 2022. มาตรา 37(4) บอกว่า เมื่อมี เหตุการณ์ละเมิดข้อมูลส่วนบุคคล — ต้องแจ้ง PDPC (สำนักงานคณะกรรมการคุ้มครองข้อมูลส่วนบุคคล) ภายใน 72 ชั่วโมง หลังทราบเหตุ — เว้นกรณีไม่มีความเสี่ยงต่อสิทธิและเสรีภาพ. ถ้ามี ความเสี่ยงสูง — ต้องแจ้ง เจ้าของข้อมูล ด้วย
ลองนึกภาพในมุมของบริษัท ตอน 02:00 น. วันศุกร์ — SOC พบ alert ว่ามี data exfiltration. นาฬิกาเริ่มเดิน
ระหว่าง 72 ชม. นี้ ทีมต้อง:
- Confirm ว่าเป็น breach จริง (ไม่ใช่ false positive)
- Scope การ breach — ข้อมูลอะไรบ้าง / คนกี่คน / category อะไร
- Categorize ความเสี่ยง — High / Medium / Low
- Determine แจ้งใครบ้าง — regulator only? + ลูกค้าด้วย? + ตลาด (ถ้าจดทะเบียน)?
- Draft notification — มี template ก่อน — แต่ต้อง customize ตาม scope จริง
- Get sign-off — Legal + DPO + Executive + Board (ถ้าใหญ่)
- Submit notification — ผ่านระบบที่ regulator กำหนด
- Communicate กับลูกค้า — ถ้า high risk + อาจ public statement
72 ชั่วโมง = 3 วัน — เร็วมาก สำหรับงานขนาดนี้ — โดยเฉพาะถ้าทีมไม่เคยซ้อม
Notification template
Template ที่ดีจะมี:
- Nature of breach — เกิดอะไร / เมื่อไหร่ตรวจพบ / เมื่อไหร่เกิดจริง (ถ้าทราบ)
- Categories of data — ชื่อ / email / เลข ID / เลขบัตรเครดิต / health / etc.
- Number of data subjects affected — กี่คน (อาจประเมินถ้ายังไม่ชัด)
- Likely consequences — ความเสี่ยงต่อ data subject (identity theft / financial fraud / etc.)
- Mitigation taken / proposed — บริษัททำอะไรไปแล้ว / กำลังทำ
- DPO contact — เบอร์ DPO + อีเมล
บริษัทใหญ่จะมี template ที่ Legal + DPO + PR ร่วมร่างไว้ก่อน — ตอนเกิดจริงเหลือแค่ตัวเลข + ชื่อเหตุการณ์
Containment Dilemma — รีบดับ vs เก็บหลักฐาน
นี่คือ dilemma คลาสสิคที่ทุกบริษัทเจอ — แม้แต่ทีม IR ระดับโลก
ลองนึก scenario — SOC พบว่า โจรเข้ามาที่ server หลัก — กำลังคัดลอกข้อมูลออก. ตัวเลือกบริษัท:
ตัวเลือก A — ตัดทันที (containment เน้น)
- รีบ disconnect server จาก network
- Stop bleeding ทันที — โจรเอาข้อมูลออกไม่ได้เพิ่ม
- แต่ — โจรรู้ตัวว่าถูกเจอ — ลบ trace ที่ตัวเอง — forensics ทำได้ยากขึ้น
- และ — กลับ business immediately interrupted
ตัวเลือก B — เฝ้าก่อน (forensic เน้น)
- ปล่อยโจรทำงานต่อ แต่ monitor เข้ม
- เก็บ memory dump / network capture เต็ม
- รู้ว่าโจรเข้ามายังไง / ทำอะไร / ออกทางไหน
- แต่ — ข้อมูลรั่วต่อทุกนาที + กฎหมายไม่ชอบ (ถ้ารู้แล้วไม่หยุด)
ตัวเลือก C — กลางๆ (ที่บริษัทใหญ่ใช้)
- ใช้ deception technology (จาก EP.44 — honeypot / canary) — divert โจรไปยัง decoy
- หรือ isolate server ใน VLAN แยก — โจรยังเข้าได้แต่ไม่มี data จริง
- เก็บ forensic evidence + stop active bleed
Trade-off นี้ไม่มี answer ตายตัว — ขึ้นกับ:
- Type of incident — ransomware (รีบหยุด) vs APT espionage (อาจเฝ้าเก็บ intel)
- Regulatory pressure — ถ้า GDPR clock กำลังเดิน — รีบหยุดดีกว่า
- Forensic value — ถ้าจะ prosecute โจรในศาล — evidence สำคัญ
- Business impact — ระบบไหนหยุดได้ ระบบไหนหยุดไม่ได้
ทีม IR ที่ดี — มี decision tree ใน runbook ที่ guide การเลือกตามสถานการณ์ ไม่ใช่ตัดสินใจ ad-hoc ตอน 02:00 น.
ในเคส Sony 2014 (North Korean hack) — Sony detect breach แต่ delay containment เพื่อ investigate — ผลคือ ข้อมูลรั่วต่อหลายวัน — รวมถึงอีเมล executive ที่กลายเป็น public
ในเคส Equifax 2017 — Equifax detect breach วันที่ 29 ก.ค. 2017 — containment ทำหลายขั้น — แต่ แจ้ง public วันที่ 7 ก.ย. — เกือบ 6 สัปดาห์หลัง — กลายเป็น scandal ใหญ่ที่ CEO ลาออก + senior executive ขายหุ้นก่อน announcement (กลายเป็น insider trading charges)
มุมผู้บริหาร: PDPA บังคับแจ้งภายใน 72 ชม. — ค่าปรับสูงสุด 5 ล้านบาท + ค่าเสียหายที่ data subject เรียกร้องได้. สิ่งที่ผู้บริหารต้อง pre-clear ไว้ก่อน incident — “DPO ของเรามีอำนาจ activate notification timeline โดยไม่ต้องขอ approval อีกหรือไม่?” ถ้าต้องผ่าน approval หลายชั้น = แพ้ตั้งแต่ hour 0 — ทนายควรดู template + กระบวนการล่วงหน้า ไม่ใช่ตอน hour 50 ของ 72
Cyber Insurance + Legal Hold + IR Retainer — เครื่องมือเสริมของทีมใหญ่
จนถึงตอนนี้เราคุยเรื่อง คน + กระบวนการ + เทคโนโลยี ของ IR. แต่ในยุค 2020s — มี เครื่องมือเสริม อีก 3 ตัวที่บริษัทใหญ่ใช้กันแทบทุกที่
Cyber Insurance (ประกันภัยทางไซเบอร์)
Cyber Insurance = ประกันที่จ่ายค่าเสียหายเมื่อบริษัทเจอ cyber incident — รวม:
- First-party loss — ค่าใช้จ่ายของบริษัทเอง — forensic / IR firm / breach counsel / customer notification / credit monitoring สำหรับลูกค้า / business interruption (เงินที่หายจากการ down)
- Third-party loss — ค่าฟ้องร้องจาก third party — class action ของลูกค้า / regulator fine (บางส่วน — ขึ้นกับเขตอำนาจ) / contractual liability
Cyber Insurance Market Crisis 2020-2022 — เรื่องที่ผู้บริหารต้องรู้
ก่อนปี 2020 — cyber insurance ราคาถูก + เงื่อนไขกว้าง. ใครก็ซื้อได้
ปี 2020-2022 — ransomware เป็น epidemic ทั่วโลก. บริษัทประกันจ่ายค่าไถ่ทดแทนบริษัทที่ติด — ค่าไถ่เฉลี่ยกระโดดจาก 200,000+ ปี 2022. บางเคสจ่าย $40M+ (Colonial Pipeline, JBS, CNA Financial เอง)
ผลที่ตามมา — market crisis:
- เบี้ยประกันขึ้น 100-300% ในรอบ 2-3 ปี
- ข้อยกเว้นมากขึ้น — ของ ransomware payment / state-sponsored attack / known vulnerability that wasn’t patched
- ข้อกำหนด baseline security เข้มขึ้น — บริษัทต้องมี MFA / EDR / immutable backup / IR plan ก่อนถึงจะ qualify
- บางตลาด — ไม่รับ ransomware coverage เลย
ปี 2024-2025 — market เริ่ม stabilize — แต่กลายเป็น commodity ที่บริษัทต้องผ่าน security baseline ถึงจะซื้อได้ — ไม่ใช่ “ซื้อเพราะอยากปลอดภัย”
IR Retainer (สัญญาเตรียมพร้อม IR)
IR Retainer = สัญญาที่บริษัทเซ็นกับ IR firm ระดับโลก เพื่อ:
- Guaranteed response time — เกิดเหตุโทรปุ๊บ ทีม IR ของ firm พร้อมเริ่มภายใน X ชั่วโมง (ปกติ 4-24 ชม. ขึ้นกับ tier)
- Pre-negotiated rate — rate ที่ตกลงไว้ล่วงหน้า — ไม่ใช่ตอนเกิดเหตุค่อยต่อรอง
- Pre-allocated hours — บางสัญญารวมจำนวนชั่วโมง forensic ต่อปี — ใช้ไม่หมดเปลี่ยนเป็น tabletop / training / readiness assessment
- Priority queue — ตอน mass event (เช่น Log4Shell ที่ทุกบริษัทเรียกพร้อมกัน) — บริษัทที่มี retainer ได้ priority
IR Firm ระดับโลก
วงการรู้จัก 3 ชื่อหลัก:
- Mandiant — founded 2004 โดย Kevin Mandia — เป็นทีมที่ identify APT1 (Chinese state-sponsored group) ปี 2013. เป็น gold standard ของ APT investigation. ถูก FireEye ซื้อปี 2014 → ขายต่อ Google ปี 2022 ($5.4B)
- CrowdStrike Services — แผนก IR ของ CrowdStrike (vendor ของ EDR Falcon). มี telemetry จาก customer base ใหญ่ — ทำให้รู้ TTP ปัจจุบันเร็ว
- Kroll — เป็น investigation firm เก่าตั้งแต่ปี 1972 — เริ่มจาก corporate investigation — ขยายเข้า cyber. ถนัด cross-border + complex legal investigation
นอกจาก 3 ตัวนี้ — มี Tier 2 อีกหลายตัว — Verizon (DBIR report ชื่อดัง), IBM X-Force, Stroz Friedberg, Sygnia, etc.
ค่าใช้จ่าย — retainer ของ Mandiant / CrowdStrike / Kroll สำหรับบริษัทระดับ enterprise — เริ่มที่ 5-15 ล้านบาท/ปี (ขึ้นกับ tier + จำนวน pre-allocated hours). ดูแพง แต่ตอนเกิดเหตุจริง — bill ของ IR engagement หนึ่งเคสหนัก อาจเป็น 30-100 ล้านบาท — และไม่มี retainer = ไม่มี priority
Legal Hold (การอายัดข้อมูลเพื่อใช้ในคดี)
Legal Hold (หรือ Litigation Hold) = กระบวนการที่บริษัท หยุด การลบ / ทำลาย / overwrite ของ data ที่เกี่ยวข้องกับ incident — เพื่อใช้เป็นหลักฐานในคดี (อาจฟ้องโจร / ถูกฟ้องโดยลูกค้า / regulator investigation)
ลองนึกภาพ — บริษัทมี retention policy ปกติว่า “log เก็บ 90 วัน”. ตอนเกิด incident — log ของช่วงที่โจรเข้ามาอาจอยู่ในรอบที่จะถูกลบ. Legal Hold = หยุดการลบทันที — เก็บ log นั้นไว้จนกว่าคดีจะจบ (อาจเป็นปี)
กระบวนการ Legal Hold:
- Legal counsel ออก Legal Hold notice — เอกสารทางการ
- ระบุ data scope ที่ต้องเก็บ — log / email / file / database — รวม backup
- แจ้งทุกคนที่เกี่ยวข้อง — IT / business owner / legal — ห้ามลบ
- Document ทุกอย่าง — รวมขั้นตอน chain of custody (จะคุยใน EP.47)
- ทบทวนเป็นระยะจนคดีจบ
ถ้า ไม่ทำ Legal Hold — และ data ถูกลบโดยไม่ตั้งใจ — บริษัทอาจโดน spoliation sanction (โทษทำลายหลักฐาน) ในคดี — เสีย credibility + ศาลอาจตัดสินไม่เป็นใจ
Attorney-Client Privilege ใน IR engagement
จุดเทคนิคที่ทนายชอบเน้น — ใครจ้าง IR firm:
- ถ้า บริษัทจ้างตรง — report ของ IR firm = business document = ฟ้องร้องเอามาใช้ได้
- ถ้า breach counsel (ทนายของบริษัท) จ้าง IR firm ในนามของทนาย — report = work product ของทนาย = ปกป้องด้วย attorney-client privilege — ฟ้องร้องเอามายากกว่า
นี่เป็นเหตุที่ enterprise มักจ้าง IR firm ผ่าน breach counsel — ไม่ใช่จ้างตรง — เพื่อปกป้อง legal position ของบริษัท. แต่ทำได้ถูกต้องต้องมี structure ตั้งแต่ engagement letter
มุมผู้บริหาร: บริษัทไทย revenue > 500 ล้านบาท — สิ่งที่ควรมีก่อนปี 2026 จบ คือ cyber insurance policy + breach counsel ที่มี master service agreement พร้อมใช้. ราคารวม 3-5 ล้านบาท/ปี — มากดูเหมือนเยอะ แต่ป้องกัน loss ระดับ 100 ล้านบาทขึ้นไป. ที่ห้ามทำคือ “จะหา breach counsel ตอนเกิดเหตุ” — เพราะกฎหมายต้องการ response ภายใน 72 ชม. — ไม่มีเวลามาเซ็น MSA ใหม่
เคสจริง 3 เคส — สอนเรื่องเดียวกันจากมุมต่าง
ครับ — concept 5 หัวข้อจบ. มาดูเคสจริงที่สอนเรื่อง IR ได้ดีที่สุด — 3 เคสที่ส่งผลใหญ่ต่อวงการ
Maersk + NotPetya 2017 — IR ที่บินสูง
Maersk = บริษัท shipping ที่ใหญ่ที่สุดในโลก — มี container shipping ประมาณ 1 ใน 5 ของโลก. เดนมาร์ก HQ
27 มิ.ย. 2017 — มัลแวร์ NotPetya ระบาดทั่วโลก (เราคุยใน EP.41 + EP.06). เริ่มจาก Ukraine — กระจายผ่าน MeDoc (ซอฟต์แวร์ accounting ของยูเครน) — ลามไปทั่วบริษัท multinational ที่มี office ในยูเครน
Maersk มี office ในยูเครน — NotPetya เข้ามาในเครือข่ายภายในของบริษัท. ภายใน 7 นาที — เครื่อง Windows ทั่ว Maersk โดน wipe — ไม่ใช่ encrypt — เป็น wiper malware ที่ทำลายเครื่องอย่างถาวร
- 45,000 เครื่อง ทั่วโลก = พังหมด
- 4,000 server = พังหมด
- 2,500 application = ใช้ไม่ได้
- 17 จาก 76 terminal หยุดทำงานทันที — ของกำลังเข้าออกจริงที่ port
ความเสียหายประเมิน $300M USD
แต่สิ่งที่ทำให้ Maersk survive ได้ใน 10 วัน ที่ทุกคนในวงการชื่นชม — คือ IR preparation ที่บริษัททำมาก่อนหน้า
Ghana DC backup — Maersk มี data center ที่ Ghana ที่ในช่วงเหตุการณ์ offline บังเอิญ เพราะ power outage — ไม่ติด network กับส่วนอื่นของ Maersk. ผลคือ Ghana DC ไม่ติด NotPetya — มี Active Directory + critical application ครบ — Maersk ใช้เป็น clean restore source
ทีม Maersk บิน server ของ Ghana มา Copenhagen — รับ clean state ของ AD — เริ่ม restore. ใช้เวลา 10 วัน — ระบบกลับมา functional. ในระหว่างนั้น Maersk ใช้ manual process — fax / โทร / WhatsApp — keep shipping ไหลต่อแบบ 60% ของ capacity
Lesson ที่ Maersk + วงการเรียน:
- Backup strategy ที่ดี = มี backup ที่ air-gapped หรือ immutable (เปลี่ยนแปลงไม่ได้) — ไม่ใช่ backup ใน network เดียวกัน
- Preparation phase สำคัญที่สุด — Maersk เคย run scenarios ก่อน — ทำให้ทีมรู้ว่าทำอะไร
- Communication ที่ดี — CEO Soren Skou ขึ้นแถลงเองทันที + transparency กับ customer — เก็บ trust ไว้
หลังเหตุการณ์ — Maersk ลงทุน security เพิ่ม $300M+ + กลายเป็น case study ที่ทุก IR training ใช้
Marriott 2018 — Delay 30 วัน = £18M Fine
Marriott International = หนึ่งใน hotel chain ใหญ่ที่สุดในโลก. ปี 2016 ซื้อ Starwood (W / Sheraton / Westin / etc.) — รวม customer database ของ Starwood เข้ามา
8 ก.ย. 2018 — Marriott security tool detect alert ผิดปกติใน Starwood database Investigation พบว่า — โจรเข้า Starwood ตั้งแต่ปี 2014 — 4 ปีก่อนรู้ตัว Data ที่รั่ว — 500 ล้านคน — ชื่อ / address / passport / เลขบัตรเครดิต (encrypted แต่ key อาจหายด้วย)
แต่ — Marriott แจ้ง public วันที่ 30 พ.ย. 2018 — เกือบ 3 เดือนหลัง detect
ภายใต้ GDPR — Marriott ดำเนินงานในยุโรป — ต้องแจ้งภายใน 72 ชม. — delay ของ Marriott = breach of Article 33
ผล — UK ICO (Information Commissioner’s Office) ปรับ Marriott:
- ตั้ง propose fine ไว้ £99.2M ปี 2019
- ลดเหลือ £18.4M ปี 2020 (หลัง mitigating factors + COVID consideration)
- ยังเป็น 1 ใน fine ใหญ่สุดของ GDPR ในช่วงนั้น
Lesson:
- Inherited risk — เมื่อซื้อบริษัท — Due Diligence ต้องรวม cyber posture review. Marriott ซื้อ Starwood ปี 2016 — โดย Starwood โดน hack อยู่แล้วตั้งแต่ปี 2014 — Marriott inherit breach โดยไม่รู้ตัว
- MTTD ที่ยาว = damage ที่ใหญ่ — โจรอยู่ในระบบ 4 ปี — ขโมยข้อมูลได้ทั้งหมด. การ detect เร็วเป็น defense ที่ดีที่สุด
- 72-hour clock เป็นจริง — ไม่ใช่ guideline — เป็น penalty event ที่ regulator บังคับใช้
- Communication delay ทำลาย trust — Marriott ใช้เวลา 3 เดือน — สูญเสีย customer goodwill มากกว่า fine
Uber 2016 — เมื่อ CSO ปกปิดเหตุการณ์ → criminal charges
เคสที่ ส่งผลถาวรต่อวงการ ที่สุดในมุม legal — และเป็น precedent ที่ทุก CISO ปี 2026 ต้องเรียน
Uber = ride-sharing บริษัท
ต.ค. 2016 — โจรเข้า GitHub private ของ Uber + ใช้ credential ที่ตกใน code → เข้า AWS → ดาวน์โหลด database ของ 57 ล้านคน (ผู้ใช้ + คนขับ — รวมเลข license driver)
โจรเรียกค่าไถ่ — Uber จ่าย $100,000 ผ่าน bug bounty program — ให้โจร sign NDA — ปกปิดเหตุการณ์
ในเวลานั้น Uber กำลังถูก FTC investigate เรื่อง breach อื่นปี 2014 — และ ไม่แจ้ง FTC เกี่ยวกับ breach ปี 2016 — ทั้งที่กำลังให้ปากคำ
Joseph Sullivan — CSO (Chief Security Officer) ของ Uber ขณะนั้น — เป็นคนตัดสินใจหลักในการปกปิด — ใช้ bug bounty เป็น vehicle
พ.ย. 2017 — CEO ใหม่ (Dara Khosrowshahi) ตรวจพบ + disclose ต่อ public + regulator + fire Joseph Sullivan + CLO
ผลทางคดี:
- Uber จ่าย $148M ในการ settle กับ states ของสหรัฐทั้ง 50 รัฐ ปี 2018
- FTC ปรับเพิ่ม
- Joseph Sullivan ถูกตั้งข้อหา — obstruction of FTC proceeding + misprision of felony — 2020
- 5 ต.ค. 2022 — Sullivan convicted by jury — เป็น CSO คนแรกในประวัติศาสตร์ที่ถูกตัดสินว่าผิดในคดีอาญาจาก breach response
- 2023 — Sullivan ตัดสินโทษ — 3 ปีคุมประพฤติ (no jail) + ทำงาน community service. Prosecutors เคย ขอ 15 เดือนคุก
Lesson — ส่งคลื่นสะเทือนทั่ววงการ:
- CSO/CISO มี personal criminal liability — ไม่ใช่แค่บริษัทรับผิด — บุคคลก็โดนได้
- Disclosure obligation เป็น legal duty — ไม่ใช่ option ที่จะตัดสินใจ “เพื่อ business”
- Bug bounty ≠ vehicle ปกปิด — ใช้ bug bounty disguise การจ่ายค่าไถ่ = obstruction
- Cover-up มักหนักกว่า incident เอง — Watergate effect
หลังเคสนี้ — CISO ของบริษัท Fortune 500 ส่วนใหญ่:
- ต้องการ D&O insurance (Directors & Officers liability) ที่ครอบคลุม CISO โดยเฉพาะ
- ขอให้ breach disclosure decision เป็นการตัดสินใจของ board ไม่ใช่ CISO เดี่ยว
- บางคน decline ตำแหน่ง CISO เพราะ liability personal risk สูงเกินไป
มุมผู้บริหาร: 3 เคสนี้สอนเรื่องเดียวกันจาก 3 มุม — (Maersk) การเตรียมพร้อมก่อนเกิดสำคัญที่สุด + backup ที่ air-gapped รักษาบริษัทได้ — (Marriott) การแจ้งช้า = ค่าปรับ + reputation damage มากกว่า breach เอง — (Uber) การปกปิด = personal criminal liability ของ executive. รวมๆ — transparency + preparation + speed = 3 element ที่ผู้บริหารต้องลงทุน. บริษัทไทยที่กำลังเติบโต — โดยเฉพาะ public company + บริษัทที่มี data ผู้บริโภคจำนวนมาก — ต้องประชุม board เรื่อง IR posture อย่างน้อยปีละ 2 ครั้ง + มี breach decision protocol ที่ pre-approved + ไม่ปล่อยให้ CISO ตัดสินใจคนเดียว — ทั้งเพื่อปกป้องบริษัท + ปกป้องตัว CISO เอง
สรุป + Tease ไป EP.47
ครับ — EP.46 จบที่นี่. คุณเดินผ่านคู่มือดับเพลิงของวงการครบทุกส่วน
Recap ใจความ:
- NIST 800-61 = framework 4 phases — Preparation / Detection-Analysis / Containment-Eradication-Recovery / Post-Incident — เป็น loop ไม่ใช่ line
- CSIRT = ทีม cross-functional — รวม IR Lead / Forensics / Legal / PR / Exec / HR / DPO / Comms — ไม่ใช่ทีม IT เดี่ยว
- Tabletop exercise = ซ้อมก่อนไฟไหม้ — quarterly minimum — scenario หลากหลาย — ทีมตัดสินใจในห้อง ไม่ใช่ตอน 02:00 น.
- 72-hour clock = นาฬิกาของ GDPR/PDPA ที่ผู้บริหารต้องตระหนัก + containment dilemma ที่ต้องตัดสินใจระหว่าง stop bleeding vs preserve evidence
- Cyber Insurance + IR Retainer + Legal Hold = เครื่องมือเสริม — ของบริษัทใหญ่ — Mandiant / CrowdStrike / Kroll ที่บริษัทมี contract พร้อม
- เคสจริง — Maersk (preparation works) / Marriott (delay = fine) / Uber (cover-up = criminal)
สิ่งที่ผู้นำต้องจำ — 2 ข้อหลัก
ข้อแรก — Preparation คือ ROI สูงสุดของ IR
ทุกบาทที่บริษัทลงทุนใน Preparation phase (IR plan / runbook / tabletop / retainer / training) — คืนผลตอบแทน 10-50 เท่า เมื่อเกิดเหตุจริง. บริษัทที่ข้าม Preparation — ตอนเกิดเหตุจะใช้เงิน 5-10 เท่า ของบริษัทที่ prepare ดี — เพราะตัดสินใจช้า communication ผิด miss timeline regulator legal exposure ใหญ่กว่า
ลองนึกเปรียบ — สถานีดับเพลิงไม่ได้ตั้งงบไว้สำหรับ “ตอนไฟไหม้” — มีงบทั้งปีไว้ฝึก ฝึก ฝึก. cybersecurity ก็เช่นกัน
Action plan สำหรับบริษัทไทยปี 2026:
- IR plan ที่ executive-signed-off — มีเอกสาร + cross-functional team + RACI matrix
- Tabletop exercise ทุก 3-6 เดือน — มี external facilitator + executive attendance + action item tracking
- CSIRT roster + IR hotline — 24/7 + backup ทุกตำแหน่ง
- External retainer — IR firm + breach counsel + forensic firm — มี contract พร้อมใช้
- PDPA notification workflow — DPO + Legal + PR — มี template + decision tree + 72-hour timeline ที่ซ้อมแล้ว
- Cyber insurance — ระดับ coverage ที่เหมาะกับ revenue + risk
- Annual board review — IR posture เข้า board agenda อย่างน้อยปีละ 2 ครั้ง
ข้อสอง — IR ปี 2026 ไม่ใช่เรื่องของ CISO เดี่ยว — แต่เป็นเรื่องของ entire enterprise + personal liability ของ executive
นี่คือ mindset shift ที่ผู้บริหารต้องเข้าใจ. ที่ผ่านมา — IR ถูกมองว่าเป็น “เรื่อง technical” ของทีม IT/Security. ปี 2026 — เป็นเรื่องของ:
- Board — accountability สูงสุด + sign-off ของ IR plan + budget + posture review
- CEO — เป็น Executive Sponsor ของ CSIRT — เป็นคนแถลงต่อ public เมื่อ incident ใหญ่
- Legal/GC — มี role ตั้งแต่ design IR plan ไม่ใช่แค่ “เรียกเมื่อเกิดเหตุ”
- DPO — มี authority decide notification — สำคัญในยุค GDPR/PDPA
- HR — เป็นส่วนของ CSIRT สำหรับ insider threat + employee impact
- PR/Comms — มี role critical ใน reputation management
- CISO — ยังคงเป็น operational lead — แต่ ไม่ตัดสินใจคนเดียว — protect ตัวเองด้วย board sign-off + D&O insurance
ในเคสที่บริษัทไทยขนาดกลางทำตามนี้ — ทั่วไปสามารถ ลด total cost of incident ลงได้ 40-70% — โดย MTTD เร็วขึ้น + MTTR เร็วขึ้น + regulator fine ลดลง + reputation damage ลดลง — เมื่อเทียบกับบริษัทเทียบเคียงที่ไม่ลงทุน Preparation phase
Tease — EP.47: Digital Forensics
ครับ — EP.46 จบที่ phase ของการ หยุดไฟ + ดับไฟ + กู้คืน + เรียนรู้
แต่ยังมีอีก step สำคัญที่หลายบริษัทข้าม — หลังหยุดไฟแล้ว — สืบสวนสาเหตุที่ระดับลึก
- ไฟเริ่มที่ไหน? ใครจุด? เครื่องมืออะไร?
- โจรเอาอะไรไปบ้าง — รายการละเอียดเพื่อแจ้งลูกค้าให้ถูก
- เก็บหลักฐานยังไงให้ใช้ในศาลได้
- ลำดับความสำคัญของหลักฐานคืออะไร — RAM ลบเมื่อปิดเครื่อง — disk อยู่ได้นาน — เก็บอะไรก่อน?
- ถ้าโจรพยายามลบ trace — เราพิสูจน์ได้ไหม
นี่คือเรื่องของ EP.47 — Digital Forensics — นักสืบสวนที่เข้าหลังนักดับเพลิงหยุดไฟ. คู่มือของวงการชื่อ Order of Volatility (ลำดับความระเหย — RAM ก่อน disk ก่อน backup) + Locard’s Exchange Principle (โจรทุกคนทิ้ง trace + เอา trace ออกไป) + Chain of Custody (ใบเหลืองที่ทุกคนเซ็นเมื่อจับหลักฐาน) + เครื่องมือ — Write Blocker / Imaging / Memory forensics (Volatility framework) / File carving / Slack space + เคสจริง — BTK Killer ที่ถูกจับด้วย metadata ใน Word document + Silk Road ที่ FBI จับ Ross Ulbricht ตอน RAM ยังเปิด ทำให้เก็บ private key Bitcoin ได้
เจอกัน EP.47 ครับ