หน่วยสมรรถนะ

หน่วยสมรรถนะ

วิเคราะห์ข้อมูลขนาดใหญ่เพื่อการนำไปใช้งาน

สมรรถนะสนับสนุนการทำงานด้านดิจิทัลสำหรับข้าราชการ และบุคลากรภาครัฐ


รายละเอียดหน่วยสมรรถนะ


1. รหัสหน่วยสมรรถนะ DG-UVMS-039

2. ชื่อหน่วยสมรรถนะ วิเคราะห์ข้อมูลขนาดใหญ่เพื่อการนำไปใช้งาน

3. ทบทวนครั้งที่ / 2567

4. สร้างใหม่ ปรับปรุง

5. สำหรับชื่ออาชีพและรหัสอาชีพ (Occupational Classification)

 



 



6. คำอธิบายหน่วยสมรรถนะ (Description of Unit of Competency)
ผู้ที่ผ่านหน่วยสมรรถนะนี้จะมีความเข้าใจในการประเมินข้อมูลขนาดใหญ่ และสามารถใช้เครื่องมือ เทคนิคในการวิเคราะห์ข้อมูลขนาดใหญ่ จัดการและเตรียมข้อมูล พร้อมทั้งสร้างและตีความผลการวิเคราะห์ข้อมูลขนาดใหญ่ได้

7. สำหรับระดับคุณวุฒิ

8. กลุ่มอาชีพ (Sector)
ข้าราชการและบุคลากรภาครัฐ

9. ชื่ออาชีพและรหัสอาชีพอื่นที่หน่วยสมรรถนะนี้สามารถใช้ได้ (ถ้ามี)
N/A

10. ข้อกำหนดหรือกฎระเบียบที่เกี่ยวข้อง (Licensing or Regulation Related) (ถ้ามี)
-    พระราชบัญญัติคุ้มครองข้อมูลส่วนบุคคล พ.ศ. 2562-    ประกาศคณะกรรมการพัฒนารัฐบาลดิจิทัล เรื่อง ธรรมาภิบาลข้อมูลภาครัฐ 

11. สมรรถนะย่อยและเกณฑ์การปฏิบัติงาน (Elements and Performance Criteria)
หน่วยสมรรถนะย่อย (EOC) เกณฑ์ในการปฏิบัติงาน (Performance Criteria) รหัส PC
(ตามเล่มมาตรฐาน)
รหัส PC
(จากระบบ)
DUS501

เข้าใจและประเมินข้อมูลขนาดใหญ่ (Understand and Evaluate Big Data)

ระบุวัตถุประสงค์ของการวิเคราะห์ข้อมูลขององค์กรได้

DUS501.01 216898
DUS501

เข้าใจและประเมินข้อมูลขนาดใหญ่ (Understand and Evaluate Big Data)

ระบุและอธิบายประเภทของข้อมูลขนาดใหญ่และแหล่งที่มาของข้อมูลได้

DUS501.02 216899
DUS501

เข้าใจและประเมินข้อมูลขนาดใหญ่ (Understand and Evaluate Big Data)

ประเมินความต้องการข้อมูลเพื่อการวิเคราะห์ตามวัตถุประสงค์ได้

DUS501.03 216900
DUS501

เข้าใจและประเมินข้อมูลขนาดใหญ่ (Understand and Evaluate Big Data)

ใช้เทคนิคการประเมินคุณภาพของข้อมูลขนาดใหญ่ได้อย่างเหมาะสม

DUS501.04 216901
DUS502

ใช้เครื่องมือและเทคนิคเพื่อการจัดการข้อมูลขนาดใหญ่

เลือก และใช้เครื่องมือวิเคราะห์ข้อมูลขนาดใหญ่ได้ 

DUS502.01 216902
DUS502

ใช้เครื่องมือและเทคนิคเพื่อการจัดการข้อมูลขนาดใหญ่

ประยุกต์ใช้กระบวนการ ETL ในการรวบรวมข้อมูลจากหลายแหล่งไปยังพื้นที่เก็บข้อมูลส่วนกลางขนาดใหญ่ได้

DUS502.02 216903
DUS502

ใช้เครื่องมือและเทคนิคเพื่อการจัดการข้อมูลขนาดใหญ่

ประยุกต์ใช้เครื่องมือ และเทคนิคการทำที่เก็บข้อมูลส่วนกลาง (Data Lake) ในการวิเคราะห์ข้อมูลขนาดใหญ่ ได้

DUS502.03 216904
DUS503

จัดการและเตรียมข้อมูลขนาดใหญ่

ใช้เทคนิค และเครื่องมือในการจัดการข้อมูลขนาดใหญ่ให้พร้อมสำหรับการวิเคราะห์ได้

DUS503.01 216905
DUS503

จัดการและเตรียมข้อมูลขนาดใหญ่

ใช้เทคนิค และเครื่องมือในการทำความสะอาดข้อมูล (Data Cleaning) และการรวมข้อมูล (Data Integration) ได้

DUS503.02 216906
DUS503

จัดการและเตรียมข้อมูลขนาดใหญ่

จัดการกับข้อมูลที่มีความหลากหลายและซับซ้อนได้อย่าง เหมาะสม

DUS503.03 216907
DUS504

สร้างและตีความผลการวิเคราะห์ข้อมูลขนาดใหญ่

สร้างแบบจำลองการวิเคราะห์ข้อมูลขนาดใหญ่ได้อย่างถูกต้องและมีประสิทธิภาพ

DUS504.01 216908
DUS504

สร้างและตีความผลการวิเคราะห์ข้อมูลขนาดใหญ่

นำเสนอผลการวิเคราะห์ข้อมูลขนาดใหญ่ได้อย่างชัดเจนและเข้าใจง่าย

DUS504.02 216909
DUS504

สร้างและตีความผลการวิเคราะห์ข้อมูลขนาดใหญ่

ตีความผลการวิเคราะห์และให้คำแนะนำที่มีประโยชน์ต่อการตัดสินใจทางธุรกิจได้

DUS504.03 216910
DUS504

สร้างและตีความผลการวิเคราะห์ข้อมูลขนาดใหญ่

ประยุกต์ใช้เทคนิคการเรียนรู้ของเครื่อง (Machine Learning) ในการสร้างแบบจำลองการวิเคราะห์ข้อมูลขนาดใหญ่ได้


DUS504.04 216911
DUS505

สร้างการนําเสนอข้อมูล

ระบุความต้องการรับชมข้อมูลได้

DUS505.01 216912
DUS505

สร้างการนําเสนอข้อมูล

กำหนดข้อมูลที่ตอบสนองกับความต้องการของข้อมูลได้

DUS505.02 216913
DUS505

สร้างการนําเสนอข้อมูล

กำหนดแนวคิด ลักษณะการนำเสนอข้อมูลให้สอดคล้องกับบริบทของข้อมูลได้

DUS505.03 216914
DUS505

สร้างการนําเสนอข้อมูล

คัดเลือก และใช้คำสั่งของเครื่องมือสร้างภาพการนำเสนอได้

DUS505.04 216915
DUS505

สร้างการนําเสนอข้อมูล

ถ่ายทอดความคิด ความรู้ความเข้าใจ และสามารถสื่อสารผ่านสื่อสารสนเทศช่องทางต่าง ๆ ได้

DUS505.05 216916

12. ความรู้และทักษะก่อนหน้าที่จำเป็น (Pre-requisite Skill & Knowledge)

ผู้ปฏิบัติงานต้องมีความรู้พื้นฐานในการวิเคราะห์ข้อมูล และใช้เครื่องมือวิเคราะห์ข้อมูลขนาดใหญ่


13. ทักษะและความรู้ที่ต้องการ (Required Skills and Knowledge)

(ก) ความต้องการด้านทักษะ

-    ทักษะในการใช้งานเครื่องมือวิเคราะห์ข้อมูลขนาดใหญ่

-    ทักษะในการประยุกต์ใช้เทคนิคการทำเหมืองข้อมูลและการเรียนรู้ของเครื่อง

-    ทักษะในการจัดการและการเตรียมข้อมูลขนาดใหญ่

-    ทักษะในการตีความผลการวิเคราะห์และการนำเสนอข้อมูล

 

(ข) ความต้องการด้านความรู้

  - ความเข้าใจในแนวคิดพื้นฐานของ Big Data

  - ความรู้เกี่ยวกับเครื่องมือและเทคนิคต่าง ๆ ในการวิเคราะห์ Big Data เช่น Hadoop, Spark

  - ความรู้เกี่ยวกับการทำเหมืองข้อมูลและการเรียนรู้ของเครื่อง

  - ความรู้เกี่ยวกับการจัดการและการเตรียมข้อมูลขนาดใหญ่

 


14. หลักฐานที่ต้องการ (Evidence Guide)

(ก)    หลักฐานการปฏิบัติงาน (Performance Evidence)

-    หลักฐานการวิเคราะห์ข้อมูลขนาดใหญ่เพื่อการนำไปใช้งาน

-    เอกสารหรือรายงานที่แสดงถึงการวิเคราะห์ข้อมูลขนาดใหญ่เพื่อการนำไปใช้งาน

(ข)    หลักฐานความรู้ (Knowledge Evidence)

-    ใบวุฒิการศึกษา

-    ประกาศนียบัตรต่าง ๆ จากการฝึกอบรมพัฒนาหรือการเรียนรู้ที่เกี่ยวข้อง

(ค)    คำแนะนำในการประเมิน

-    ตรวจประเมินหลักฐานโดยพิจารณาจากร่องรอยหลักฐานที่เกี่ยวข้อง ทั้งหลักฐานด้านปฏิบัติงานและหลักฐานด้านความรู้

 


15. ขอบเขต (Range Statement)

(ก) คำแนะนำ 

    หน่วยความสามารถนี้ครอบคลุมถึงการวิเคราะห์ข้อมูลขนาดใหญ่เพื่อหาแนวโน้มและความสัมพันธ์ของข้อมูล รวมทั้งการนำข้อมูลขนาดใหญ่ไปใช้ในการตัดสินใจและการวางแผนการปฏิบัติงาน โดยผู้ปฏิบัติงานต้องสามารถวิเคราะห์ข้อมูลขนาดใหญ่เพื่อหาแนวโน้ม ความสัมพันธ์ของข้อมูล และสามารถนำข้อมูลขนาดใหญ่ไปใช้ในการตัดสินใจและการวางแผนการปฏิบัติงานได้อย่างมีประสิทธิภาพ และครอบคลุมถึงการวิเคราะห์ข้อมูลขนาดใหญ่ด้วยเครื่องมือวิเคราะห์ข้อมูลขนาดใหญ่ เช่น Hadoop, Spark, NoSQL หรือ Machine Learning ฯลฯ 

(ข) คำอธิบายรายละเอียด

-    กระบวนการ ETL : Extract Transform Load คือ กระบวนการในการรวบรวมข้อมูลจากแหล่งต่าง ๆ ที่กระจัดกระจายมารวมไว้ในที่เก็บข้อมูลปลายทาง กระบวนการ ETL เป็นการบริหารจัดการข้อมูลก่อนจะนำไปใช้ในองค์กรหรือธุรกิจต่อไป โดยมีลำดับ ดังนี้

-    Extract (การดึงข้อมูล)เริ่มจากการดึงข้อมูลจากแหล่งต่าง ๆ ทั้งจากแหล่งเดียวกันหรือมากกว่านั้น ทั้งข้อมูลออนไลน์ ข้อมูลระบบเก่า หรือจากแหล่ง

อื่น ๆ หลังจากดึงข้อมูลเสร็จสิ้น ข้อมูลจะถูกโหลดเข้าสู่พื้นที่พักข้อมูลชั่วคราว (Staging Area)

-    Transform (การแปลงข้อมูล) ประกอบด้วยการนำข้อมูลมาทำความสะอาด เช่น คัดกรองเอาข้อมูลซ้ำออก ปรับแต่ง และแปลงโครงสร้างข้อมูล เพื่อให้สามารถเก็บไว้ในที่เก็บข้อมูลปลายทาง และเหมาะสมในการนำไปวิเคราะห์ต่อ

-    Load (การจัดเก็บข้อมูลเข้าสู่ระบบ) ขั้นตอนสุดท้ายคือการจัดเก็บข้อมูลที่ผ่านการแปลงแล้วเข้าสู่ฐานจัดเก็บข้อมูลปลายทางที่เหมาะสม ไม่ว่าจะเป็น Database, Data Warehouse, หรือ Data Lake เป็นต้น

-    ทะเลสาบข้อมูล (Data Lake) คือ ที่เก็บส่วนกลางซึ่งช่วยให้จัดเก็บข้อมูลที่มีและไม่มีโครงสร้างในทุกขนาดได้ ทำให้สามารถจัดเก็บข้อมูลตามที่เป็นโดยไม่ต้องวางโครงสร้าง และยังสามารถใช้การวิเคราะห์ประเภทต่าง ๆ ได้ ตั้งแต่แดชบอร์ดและการแสดงภาพไปจนถึงการประมวลผล Big Data 

การวิเคราะห์แบบเรียลไทม์ และ Machine Learning เพื่อสร้างแนวทางการตัดสินใจที่ดีขึ้น

-    Data lakehouse เป็นคลังข้อมูลประเภทใหม่ที่เป็นการรวมข้อดีของ Data Lake และ Data Warehouse เข้าด้วยกันทำให้สามารถจัดเก็บข้อมูลจำนวนมากในสถาปัตยกรรมที่ปรับขนาดได้และยืดหยุ่นได้ โดย Data lakehouse มีลักษณะ ดังนี้

-    รองรับการจัดเก็บข้อมูลทั้งในรูปแบบข้อมูลที่มีโครงสร้าง และไม่มีโครงสร้าง โดยสามารถเรียกใช้ข้อมูลได้จากที่เดียวกัน

-    สามารถทำการขยายขนาดแบบแยกจากกัน (Decoupling) คือ สามารถเลือกเพิ่มขนาดระหว่าง Storage และ Compute อย่างใดอย่างหนึ่งได้ ทำให้ช่วยลดงบประมาณในการจัดหาทรัพยากร

-    มี Metadata file ที่ใช้จัดเก็บ Audit log 

-     รองรับ ACID Transaction สามารถทำการ Insert, Update และ Delete ข้อมูลได้เหมือนกับฐานข้อมูล (Database)

โดย Data lakehouse คือ ตัวแก้ปัญหาในด้านการจัดเก็บข้อมูลที่เก็บหลายที่ทำให้เกิดการซ้ำซ้อน และช่วยลดต้นทุนในการจัดเก็บโดยสามารถจัดเก็บและเข้าถึงข้อมูลได้ในที่เดียว

-    การนำเสนอข้อมูล (Data Visualization) คือ การนำข้อมูลที่มีความซับซ้อนมานำเสนอด้วยแผนภูมิรูปภาพ กราฟ ตาราง วิดีโอ อินโฟกราฟิก แดชบอร์ด (Dashboard) โดยการสร้าง

การนำเสนอข้อมูลจะทำให้ผู้อ่านเข้าใจจุดประสงค์ หรือความต้องการของผู้นำเสนอได้ง่าย และมีความน่าสนใจมากยิ่งขึ้น

 


16. หน่วยสมรรถนะร่วม (ถ้ามี)
N/A

17. อุตสาหกรรมร่วม/กลุ่มอาชีพร่วม (ถ้ามี)
N/A

18. รายละเอียดกระบวนการและวิธีการประเมิน (Assessment Description and Procedure)

สอบข้อเขียน 



ยินดีต้อนรับ