Es scheint mir, als ob mit Computergrafik alles möglich ist. Es scheint, als ob wir Tuch, Wasser, Haut, irgendetwas, völlig überzeugend darstellen können.
Gibt es Bereiche, die immer noch eine Herausforderung darstellen, oder liegt der Fokus jetzt darauf, schnellere Algorithmen zu finden und die Renderzeiten zu verkürzen?
Rastergrafiken sind im Grunde eine riesige Sammlung von Hacks. Raytracing oder ähnliche Methoden sind "richtiger". Mit Raytracing erhalten Sie Dinge wie Radiosity, Reflektion und Refraktion kostenlos. Raytracing in Echtzeit zu tun wäre für Spiele RIESIG.
Ich habe keine digitalen Menschen gesehen, die vollständig überzeugend sind. Gleiches gilt für Wasser und Feuer in jedem wichtigen Maßstab.
Betrachten Sie einige der jüngsten Entwicklungen in der Computerspielphysik als Beispiele: zerstörbare Gebäude in Red Faction: Guerilla, materielle Zerstörung in Force Unleashed, etc. Ein Großteil der Computergrafik dreht sich um Videospiele und Filme, wo gut genug ist gut genug. Es gibt eine Menge cleverer Tricks. Es gibt viel Raum für Verbesserungen in Effizienz, Skalierbarkeit, Gründlichkeit und Realismus.
So ziemlich alles ist in Grafiken immer noch unmöglich, wenn Sie es richtig machen wollen. Stoff, Wasser und Haut sind alle zur Hölle und zurück gefälscht, um in Echtzeit Frameraten zu erzielen. Wir sind immer noch nicht in der Lage, das zu tun, was wahrscheinlich der grundlegendste Effekt von allen ist: Richtige Beleuchtung.
Ich habe 8 Jahre in Videospielen gearbeitet, und ich habe die Grafiken in Spielen und Filmen jedes Jahr besser gesehen.
Meiner Meinung nach müssen wir uns nicht darum kümmern, dass die Grafiken richtig aussehen; Mit den Techniken, die wir gerade haben und zunehmender CPU-Leistung, wird das nicht das Problem sein .... Für Standbilder.
Das Problem, das ich momentan in Spielen und Filmen sehe, ist (imho) die Charakter-Animation, die einfach nicht richtig aussieht. So schön wie sie auch sein mögen, animieren Charaktere in Videospielen und Filmen nicht realistisch - selbst wenn Motion Capturing verwendet wird. Charakteren fehlt etwas, das sie natürlich erscheinen lässt - sei es das Atemmuster, die zufälligen Mikrobewegungs-Körper, die Art, wie jemand ihre Augen zufällig schneller oder langsamer blinzelt ... Ich kann nicht genau sagen, was es genau ist, es tut einfach nicht schaue natürlich aus.
Also ... Ich denke, das nächste Forschungsfeld sollte (menschliche) Bewegung und Animation sein, um Dinge richtig aussehen zu lassen.
Ich kann mir nichts einfallen lassen, was schwerer zu tun wäre als ein überzeugender Mensch, und das war (IMHO) in Der seltsame Fall von Benjamin Button. Schauen Sie sich diese Seite über die Erstellung von BB an. Die Grafik für das Gesicht im Film wurde von Computern gemacht, aber es gibt immer noch die Herausforderung, das Gesicht zu animieren, was noch nicht vom Computer erledigt werden kann.
Ich stimme Steven und erik zu. Wir sind tief im Unheimlichen Tal , wenn es um Menschen geht.
Und jalf hat recht, wenn er darauf hinweist, dass viele Dinge noch immer Rauch und Spiegel sind.
3D
Nicht Bilder, die wie 3d aussehen, aber ich beziehe mich auf tatsächliches 3d - sobald wir das 2D bekommen, dann mach es alles wieder im dritten dim. Wir fangen gerade an, einige ziemlich coole Sachen in den Theatern zu sehen, sowie einige sehr interessante neue Produkte, die nicht mehr spezielle galsses erfordern.
Über Raytracing; Raytracing ist cool, aber Raytracing im "Standard" -Modus gibt Ihnen keine realistische Beleuchtung, da die Strahlen von der Kamera (die Position Ihrer Augen, wenn Sie vor Ihrem Monitor sitzen) durch die Viewplane (Ihren Computerbildschirm) geworfen werden um zu sehen, wo sie enden.
In der realen Welt funktioniert das nicht so. Sie senden keine Radar- / Sonarstrahlen aus Ihren Augen und prüfen, was sie treffen. stattdessen emittieren andere Objekte Energie und manchmal kommt diese Energie auf Ihrer Netzhaut.
Der richtige Weg, Licht zu berechnen, wäre daher etwas wie Photonmapping, bei dem jede Lichtquelle Energie aussendet, die durch Medien (Luft, Wasser) übertragen wird und über Materialien reflektiert / bricht.
Denken Sie darüber nach - ein Strahl von der Kamera durch ein Pixel auf Ihrem Bildschirm zu schießen gibt Ihnen eine einzige Richtung, in der Sie nach Lichtintensität suchen, während in Wirklichkeit Licht aus vielen verschiedenen Winkeln kommen könnte, um damit zu enden gleiches Pixel. Raytracing im Standard-Modus bietet also keine Lichtstreuung, es sei denn, Sie implementieren einen speziellen Hack, um dies zu berücksichtigen. Und hacks nicht den genauen Grund warum Menschen wollen neben der Polygon-Rasterung sowieso einen anderen Weg verwenden?
Raytracing ist nicht die endgültige Lösung.
Die einzige wirkliche Lösung ist ein unendlicher Prozess, bei dem Lichter Energie emittieren, die um die Szene herumspringt und wenn Sie Glück haben, landen auf Ihrer Kamera-Linse. Da ein unendlicher Prozess ziemlich schwer zu simulieren ist, müssen wir ihn an einem Punkt oder einem anderen annähern. Spiele benutzen Hacks, um Dinge gut aussehen zu lassen, aber am Ende muss jede andere Rasterizer / Renderer / Tracer / Was auch immer Strategie ein Limit - einen Hack - an einem bestimmten Punkt implementieren.
Wichtig ist - ist es wirklich wichtig? Gehen wir für eine 100% ige Simulation des realen Lebens oder ist es gut genug, um ein Bild zu berechnen, das 100% real aussieht, egal welche Technik verwendet wird?
Wenn Sie nicht wissen können, ob ein Bild real oder ein CGI ist, spielt es dann eine Rolle, welche Methode oder welche Hacks verwendet wurden?
Einige betrachten Computer Vision als eine Grenze der Computergrafik. Es ist im Grunde CG umgekehrt: Anstatt von Modell zu Bildern zu gehen, gehen Sie von Bildern zu einem Modell. Computer Vision ist ein junges Feld mit einer Fülle offener Probleme.
Tonnen von Zeug ist immer noch hart oder extrem langsam.
Versuchen Sie zum Beispiel transparente Objekte mit Beschlag zu kombinieren.
Tags und Links graphics