Suivi de visage non rigide à l'aide d'OpenCV pour Unity
Cet actif est l'échantillon de suivi de visage non rigide qui peut modéliser et suivre les nombreuses parties complexes du visage d'une personne dans WebCamTexture en temps réel.
Le code est la réécriture de https://github.com/MasteringOpenCV/code/tree/master/Chapter6_NonRigidFaceTracking à l'aide de "OpenCV for Unity".
・Texture2DFaceTrackerSample - En détectant et en suivant le visage à partir de Texture2D, dessinez les points et les connexions du visage.
・WebCamTextureFaceTrackerSample - En détectant et en suivant le visage à partir de WebCamTexture, dessinez les points et les connexions du visage.
・FaceTrackerARSample - En utilisant les points de suivi du visage, affichez l'objet AR.
1.1.3
[Commun] Amélioration légère de la vitesse de traitement.
1.1.2
[Common] Espace de noms modifié en OpenCVFaceTracker. (Pour éviter les conflits d'espace de noms et de nom de classe.)
[Commun] Correction des avertissements CS0618 : `UnityEngine.Application.LoadLevel(string)' est obsolète : `Utiliser SceneManager.LoadScene'.
1.1.0
[Commun] Modification des méthodes de déplacement de l'objet AR.
1.0.9
[Commun] Prise en charge de « OpenCV pour Unity 2.0.0 ».
En savoir plus