This forum uses cookies
This forum makes use of cookies to store your login information if you are registered, and your last visit if you are not. Cookies are small text documents stored on your computer; the cookies set by this forum can only be used on this website and pose no security risk. Cookies on this forum also track the specific topics you have read and when you last read them. Please confirm whether you accept or reject these cookies being set.

A cookie will be stored in your browser regardless of choice to prevent you being asked this question again. You will be able to change your cookie settings at any time using the link in the footer.

Kinect und OpenSim
#1
Ich experimentiere gerade mit meiner Kinect in OpenSim:

https://snap.kubwa.dog/?f=caqt7gnecu14waz_

Bis jetzt kann ich schonmal Bewegungen auf ein verkrüppeltes Primmodell übertragen. Der nächste Schritt ist es, diese Bewegungen in Echtzeit an die Region zu übertragen und auf einem Avatar anzuwenden.
Ich werde versuchen die Animationen dazu in das interne Format des Viewers umzuwandeln und dann in den Assetcache der Region zu schreiben um die Animation so, Frame für Frame, auf einem Avatar abzuspielen.

Interessant dazu die Doku, wie das interne Animationsformat aufgebaut ist: https://wiki.secondlife.com/wiki/Interna...ion_Format
Zitieren
#2
Das ist schon sehr beeindruckend, wenn es gelingt Bewegungen des menschlichen Körpers 1 zu 1 auf dem Ava zu übertragen.
In professionellen Filmszenen findet diese Art bzw. so etwas Ähnliches ja Anwendung. So könnte im Film Herr der Ringe dieser
Gollum animiert worden sein. In einem Video zu den Dreharbeiten war der Darsteller mit vielen Sensoren am Körper verkabelt.
Diese Sensoren müssen scheinbar die genauen Bewegungsdaten erfasst haben. Noch komplizierter wird es sicher, wenn ein zweiter
Ava in die Szene kommt. Dieser zweite Ava macht ja ganz andere Bewegungen. Beispiel: Mittagessen von 2 Personen am Tisch.
Dabei machen zur gleichen Zeit Ava1 und Ava2 etwas anderes. Daraus würden sich fantastische neue Möglichkeiten ergeben.
So könnte man möglicherweise das ineinander laufen von Avataren vermeiden, wenn sie zB. tanzen oder körpernahe andere Dinge tun.

Ich finde das absolut interessant.
All done!
Zitieren
#3
Was mich interessiert: mit welchem Stück Software überträgst du denn deine Bewegungen in den Viewer? Eigenbau? Oder gibt es dazu Opensource was?
Zitieren
#4
(04.04.2022, 09:58)Bartholomew Gallacher schrieb: Was mich interessiert: mit welchem Stück Software überträgst du denn deine Bewegungen in den Viewer? Eigenbau? Oder gibt es dazu Opensource was?

Mit einer Software Marke Eigenbau. Basierend auf .net und dem Kinect SDK
Zitieren


Gehe zu:


Benutzer, die gerade dieses Thema anschauen: 1 Gast/Gäste