การติดตามใบหน้าที่ไม่เข้มงวดโดยใช้ OpenCV สำหรับ Unity
เนื้อหานี้คือตัวอย่างการติดตามใบหน้าที่ไม่เข้มงวด ซึ่งสามารถสร้างแบบจำลองและติดตามส่วนที่ซับซ้อนมากมายของใบหน้าบุคคลใน WebCamTexture ในแบบเรียลไทม์
รหัสคือการเขียนใหม่ของ https://github.com/MasteringOpenCV/code/tree/master/Chapter6_NonRigidFaceTracking โดยใช้ "OpenCV for Unity"
・Texture2DFaceTrackerSample - โดยการตรวจจับและติดตามใบหน้าจาก Texture2D วาดจุดและการเชื่อมต่อของใบหน้า
・WebCamTextureFaceTrackerSample - โดยการตรวจจับและติดตามใบหน้าจาก WebCamTexture วาดจุดและการเชื่อมต่อของใบหน้า
・FaceTrackerARSample - โดยใช้จุดติดตามของใบหน้า แสดงวัตถุ AR
1.1.3
[ทั่วไป] ปรับปรุงความเร็วในการประมวลผลเล็กน้อย
1.1.2
[ทั่วไป] เปลี่ยนเนมสเปซเป็น OpenCVFaceTracker (เพื่อหลีกเลี่ยงความขัดแย้งของเนมสเปซและชื่อคลาส)
[ทั่วไป] แก้ไขคำเตือน CS0618: `UnityEngine.Application.LoadLevel (string)' ล้าสมัย: `ใช้ SceneManager.LoadScene'
1.1.0
[ทั่วไป] เปลี่ยนเป็นวิธีการเคลื่อนย้ายวัตถุ AR
1.0.9
[ทั่วไป] รองรับ “OpenCV for Unity 2.0.0”
อ่านเพิ่มเติม