Ich bin ein iPhone-Entwickler und versuche, ein 3D-Modell, das ich in Cinema 4D erstelle, in eine App zu verwandeln. Ich habe tatsächlich einen Weg gefunden, das Modell zu erhalten (indem ich es als .dae oder obj exportiert und ein Python-Skript benutze), was wirklich gut funktioniert, aber ich kann die Texturen nicht bekommen. Mein Skript kann tatsächlich nur mit 1 Textur umgehen.
Grundsätzlich muss ich eine UV-Karte in c4d erstellen und exportieren (aber ich habe keine Ahnung, wie das geht) oder finde eine Möglichkeit, mehrere Texturen in meine Open Gl - ES App mit einem Skript oder PowerVR zu lesen. (Das ist wahrscheinlich besser)
Entschuldigung für die Noob-Fragen, aber ich bin sehr neu in der 3D-Welt.
Prost
Ich würde empfehlen, dass Sie Blender verwenden. Exportieren Sie Ihr Cinema-4D-Modell für Blender und verwenden Sie Blender, um UVMaps zu erstellen.
Sie müssen Nähte machen und das Modell auspacken. Danach speichern Sie eine Targa-Vorlage für Ihre Textur, wenden Sie Ihre Textur auf diese Targa. Speichern Sie es als PNG oder JPG. Wenden Sie dieses Texturbild auf Ihr Modell in Blender an. Jetzt können Sie die Wavefront OBJ-Datei exportieren.
Verwenden Sie die OpenGLOBJLoader-Klasse, um Ihr Modell auf dem iPhone zu rendern. Und noch etwas: Sie sollten die Texturkoordinaten auf der Y-Achse umkehren (von 1 subtrahieren), um Ihre Textur richtig darzustellen.
Wenn Sie beispielsweise folgende Texturkoordinaten haben:
vt 0.800008 0.400000
vt 0.800008 0.150000
...
stelle sicher, dass du sie wie folgt invertiert hast:
vt 0.800008 0.600.000
vt 0.800008 0.850000
...
Tags und Links iphone opengl-es 3d uv-mapping cinema-4d