Nicht starres Gesichts-Tracking mit OpenCV für Unity
Bei diesem Asset handelt es sich um das nicht starre Gesichtsverfolgungsbeispiel, mit dem die vielen komplexen Teile des Gesichts einer Person in WebCamTexture in Echtzeit modelliert und verfolgt werden können.
Code ist die Neufassung von https://github.com/MasteringOpenCV/code/tree/master/Chapter6_NonRigidFaceTracking unter Verwendung von „OpenCV for Unity“.
・Texture2DFaceTrackerSample – Zeichnen Sie durch Erkennen und Verfolgen von Gesichtern aus Texture2D die Punkte und Verbindungen des Gesichts.
・WebCamTextureFaceTrackerSample – Zeichnen Sie durch Erkennen und Verfolgen von Gesichtern mit WebCamTexture die Punkte und Verbindungen des Gesichts.
・FaceTrackerARSample – Mithilfe der Trackingpunkte des Gesichts AR-Objekt anzeigen.
1.1.3
[Häufig]Die Verarbeitungsgeschwindigkeit wurde leicht verbessert.
1.1.2
[Häufig]Namespace in OpenCVFaceTracker geändert. (Um Konflikte zwischen Namespace und Klassennamen zu vermeiden.)
[Häufig] CS0618-Warnungen behoben: „UnityEngine.Application.LoadLevel(string)“ ist veraltet: „Use SceneManager.LoadScene“.
1.1.0
[Allgemein] Die Methoden zum Verschieben des AR-Objekts wurden geändert.
1.0.9
[Allgemein]Unterstützung für „OpenCV for Unity 2.0.0“.
Mehr lesen