Suchen
Schließen Sie dieses Suchfeld.

Roboter, Dinosaurier und das geheime Leben von Spielzeug: Die Geschichte von VFX und seine Arbeitsabläufe für die moderne Film- und Animationsproduktion

Geschrieben von:
VFX 101: Eine 4-teilige Serie über die Schlüsselelemente der VFX-Pipeline. Wir beginnen mit einer kurzen Geschichte der VFX-Workflows und gehen auf allgemeine Begriffe ein.

Dies ist der erste Teil einer vierteiligen Blogserie, die sich mit visuellen Effekten (VFX) näher befasst. Wir beginnen hier mit einer kurzen Geschichte dieses innovativen Bereichs und diskutieren dann VFX-Workflows und gehen auf gängige Begriffe ein.

Animation und visuelle Effekte (VFX) sind das Herzstück der modernen Filmproduktion.

Doch die digitale Produktion, wie wir sie heute kennen, ist ein relativ neuer Schwerpunkt, der Anfang der 1990er Jahre mit Filmen wie Terminator 2 und Jurassic Park begann. Diese Filme haben neue Wege beschritten, was mit visuellen Effekten möglich ist.

1995 veröffentlichten die Pixar Animation Studios dann Toy Story, den ersten digital generierten Animationsfilm in voller Länge.

Toy Story war ein gewaltiges Unterfangen für das Animations-/VFX-Team des Studios, da das Rendern jedes Frames des Films zwischen 45 Minuten und 30 Stunden dauerte. Der Film benötigte 800,000 Maschinenstunden für 77 Minuten Animation, verteilt auf 1,561 Einstellungen.

Seitdem hat die Verwendung von visuellen Effekten in Filmen erheblich zugenommen, und die Art der VFX-Arbeit hat sowohl an Umfang als auch an Komplexität zugenommen.

Die Demokratisierung von VFX führt zu immer komplexeren Animationsjobs

Die Demokratisierung visueller Effekte begann in den frühen 1990er Jahren mit Open-Source-Produkten und proprietären Paketen, die von Unternehmen hergestellt und verkauft wurden und interne Tools ersetzten, die nur Branchenpionieren zur Verfügung standen.

Außerdem begannen sich Standards wie Dateiformate zu etablieren, die es ermöglichten, das entstehende Ökosystem digitaler Produktionswerkzeuge zu flexiblen Verarbeitungspipelines zu verknüpfen.

Die neue Offenheit führte zu einer Zunahme von Visual-Effects-Studios. Mittlerweile gibt es weltweit Tausende von VFX-Studios.

Mit dem Zugriff auf konfigurierbare Pipelines begannen die Studios, sich auf kreativere Aspekte zu konzentrieren, wie z. B. das Erstellen von Charakteren mit immer komplexeren physischen Eigenschaften.

In dem 2001 gedrehten Animationsfilm Monsters, Inc. hatte die Figur Sully etwa 1 Million Haare. In der Fortsetzung des Films hatte dieselbe Figur 5.5 Millionen Haare.

Im Allgemeinen sind die Treiber hinter dem Wachstum von VFX, dass die Technologie besser, billiger und schneller geworden ist. Dadurch können Animationen und Spezialeffekte immer anspruchsvoller werden.

Zum Beispiel hat Disneys Animationsfilm Moana aus dem Jahr 2016 fast doppelt so viele komplexe Simulationsaufnahmen im Vergleich zu Big Hero 6, einem Film, der nur zwei Jahre zuvor im Jahr 2014 gedreht wurde. Die meisten Effekte in Moana sind Wasser, das in der Branche als einer der Effekte bekannt ist am schwierigsten zu animieren.

Das Effektteam gab zu, dass dieser Film vor fünf Jahren nicht hätte bearbeitet werden können. Technisch war es einfach nicht möglich.

Der VFX-Workflow und die Pipeline

Werfen wir nun einen Blick auf den VFX-Workflow und wie er in den Filmproduktionsprozess passt. Die VFX-Pipeline ähnelt einem Fließband. Jeder Arbeiter führt eine Aufgabe aus, bevor er das, was er getan hat, an die nächste Person in der Leitung weitergibt.

Pipelines sind wie Schneeflocken; keine zwei sind gleich. Die Pipelines unterscheiden sich von Produktion zu Produktion und manchmal sogar innerhalb derselben Show.

Die Unterschiede bestehen darin, dass in VFX jeder Mitarbeiter ein Künstler ist und die Pipeline es dem gesamten Team ermöglicht, die Entwicklung der Arbeit zu sehen, damit sie bewertet und gegebenenfalls für bessere Ergebnisse angepasst werden kann.

Einige Schritte sind von vorherigen Schritten abhängig, damit Assets ihre Arbeit fortsetzen können. Auch die typische VFX-Pipeline ist sehr komplex. Es ist eher wie mehrere Fließbänder, die sich kreuzen.

Ständige Iterationen sind zwar eine großartige Möglichkeit, um qualitativ hochwertige Ergebnisse zu erzielen, sie sind jedoch zeitaufwändig und teuer.

Um unnötigen Aufwand zu reduzieren, verwenden die meisten Pipelines Platzhalter-Assets oder Proxys mit niedrigerer Auflösung. Dies sind qualitativ minderwertige (und kleinere) Assets, die während der zahlreichen Iterationen für die fertigen Vollauflösungsversionen stehen.

Mithilfe dieser Proxys können Künstler zeitaufwändigere Aufgaben auf später in der Produktion verschieben, wenn größere Änderungen wahrscheinlich nicht erforderlich sind, und die Entwicklung von Looks beschleunigen, ohne die ganze Zeit in endgültiger Qualität rendern zu müssen.

Eine VFX-Produktionspipeline ist komplex, mit vielen verschiedenen Prozessen und vielen gegenseitigen Abhängigkeiten zwischen ihnen. Die größte Herausforderung besteht darin, die schiere Menge an Informationen zu verwalten, die für die Erstellung fotorealistischer Bilder erforderlich sind. Eine einzelne Kreatur kann aus Hunderten, wenn nicht Tausenden von digitalen Assets bestehen. Oft müssen Terabytes an Daten zusammengestellt werden, die an den Renderer und schließlich an einen Compositor weitergegeben werden müssen.

Phasen der Film- und Animationsproduktion

Im modernen Film sind die drei Hauptphasen der Produktion:

  1. Vorproduktion
  2. Produktion
  3. Post-Produktion
1. Vorproduktion

Für VFX, vorproduktion gilt für alle Aktivitäten, die stattfinden, bevor die Kamera zu laufen beginnt. Zu den gemeinsamen Aufgaben von Künstlern gehören visuelle Recherche, Konzeptdesign von Charakteren und Umgebungen und die Definition der im Film verwendeten Farbpaletten.

Die Look-Entwicklungs- und Vorvisualisierungsphasen helfen dem Regisseur zu verstehen, was verschiedene Sequenzen des Films sein könnten.

2. Produktion

Im Produktion verlagert sich der Fokus vom Planen zum Bauen. Bei der computergenerierten (CG) Animation, bei der alles auf dem Bildschirm „computergeneriert“ ist, bedeutet dies, alle digitalen Assets zu erstellen. In der Welt der visuellen Effekte bezieht sich die Produktion typischerweise auf den Live-Shooting und die Sammlung von Daten am Set. Die digitalen Assets selbst können während der Produktion erstellt werden.

Produktionsstudios wenden sich dateibasierten Speicher- und Datendiensten zu, um Animations- und CG-Workflows zu unterstützen – um sie zu beschleunigen Rendering, Modellieren, und Zusammenarbeit. Kreativstudios benötigen ein dateibasiertes Speichersystem, das Leistung und Kapazität skalieren kann, um sich an sich ändernde Projektanforderungen anzupassen, sowohl lokal als auch in Cloud-Umgebungen.

Zum Beispiel, EDI war mit einem explosionsartigen Wachstum der Dateigröße für visuelle Effekte konfrontiert (mehr als 9,000 % Steigerung ihrer unstrukturierten Arbeitsdaten), wodurch die Speicherkapazität skaliert und die Animationsproduktion beschleunigt werden muss. In einem kurzen Video unten hören Sie von Francesco Grisi, CEO von EDI, wo er erklärt, wie Qumulo es der IT einfach gemacht hat, Knoten hinzuzufügen und die Speicherkapazität für verschiedene Dateitypen zu erhöhen – von 4K auf 10K.

3. Postproduktion

In der Feature-Animation nach Produktion bezieht sich nur auf die Aufgaben, die anfallen, nachdem die endgültigen Bilder erstellt wurden. Diese Aufgaben umfassen die Bearbeitung, Dimensionierung, Digitalisierung von Filmmaterial zur Erstellung eines digitalen Zwischenprodukts, Farbkorrektur und das Drucken der digitalen Bilder auf Film für die Verteilung an Kinos.

Bei Live-Action-Filmen bezieht sich die Postproduktion auf alles, was nach dem Live-Dreh kommt, einschließlich des Großteils der Arbeit mit visuellen Effekten.

Postproduktionslösungen

Allgemeine VFX-Begriffe

Hier sind einige allgemeine Begriffe im Zusammenhang mit visuellen Effekten (VFX).

Was ist LIDAR?

LIDAR steht für Light Detection and Ranging. LIDAR ist ein Verfahren zur Abstandsmessung mit Laserlicht. Im VFX-Prozess verwenden LIDAR-Scans einen Laser, um die Entfernung von einem festen Standort zu Punkten auf umgebenden starren Oberflächen wie Gebäuden zu messen. Die Daten werden als „Punktwolke“ gespeichert, bei der es sich um eine Reihe getrennter Punkte im 3D-Raum handelt. Diese Punkte können dann in ein 3D-Modell des Sets umgewandelt werden, das später für CGI (computergenerierte Bilder) verwendet wird.

Was ist Modellierung?

Beim Modellieren wird die digitale 3D-Geometrie erstellt, die in Animationen und visuellen Effekten verwendet wird und als „Modelle“ oder „Netze“ bezeichnet wird. Typischerweise bildet der Modellierer nur die dreidimensionale Gesamtform eines Objekts nach. Oberflächeneigenschaften, einschließlich lokaler Farbe und kleiner Unregelmäßigkeiten wie Unebenheiten und Kratzer, werden durch Textur-Maps, Displacement-Maps und Shader dargestellt.

Was sind Shader und Texture Maps?

Shader ahmen die Art und Weise nach, wie Materialien auf Licht reagieren. Sie erstellen mathematische Darstellungen von Eigenschaften wie Oberflächenfarbe und Oberflächenreflexionsvermögen. Texturkarten sind 2D-Bilder, die den Wert einer Materialeigenschaft an jedem Punkt auf der Oberfläche eines Modells darstellen.

Gängige Map-Typen sind Diffus (die Oberflächenfarbe des Modells), Bump (zur Nachahmung feiner Oberflächendetails wie Unebenheiten und Falten) und Specular (zur Steuerung der Form der Glanzlichter auf der Objektoberfläche).

Was ist Rendern?

Wiedergabe ist der Prozess, bei dem die Daten in der 3D-Szene in eine Reihe von 2D-Bildern umgewandelt werden, die aus der Sicht der Digitalkamera betrachtet werden. Bei der Filmarbeit werden diese Berechnungen offline in Stapeln durchgeführt, wobei die Verarbeitung eines einzelnen Frames in der Regel Minuten, Stunden oder Tage in Anspruch nehmen kann.

Es ist üblich, eine Szene in einer Reihe von Ebenen oder Durchgängen zu rendern, wobei jede Ebene nur eine Teilmenge der Assets in der Szene zeigt. Beispielsweise kann eine Ebene nur den Hintergrund oder nur die Vordergrundzeichen enthalten.

Was ist ein Shot-Layout?

Die einzelnen Assets, aus denen eine Aufnahme besteht, müssen zu einer einzigen 3D-Szene kombiniert werden, die zum Rendern bereit ist. Dies wird als „Shot Layout“ oder „Shot Assembly“ bezeichnet. Im Allgemeinen bestimmt das Layout die Dateinamen fast aller 3D-Assets.

Was ist Compositing?

Compositing bezieht sich auf das Kombinieren von zwei oder mehr Bildern zu einem einzigen Bild. In VFX werden beim Compositing alle gerenderten und Live-Action-Elemente, aus denen eine Aufnahme besteht, zu einer Reihe fertiger Bilder gemischt.

Was sind Effekte (FX) und Simulationen?

Effekte (FX) ist ein allgemeiner Begriff, der verwendet wird, um die dynamischen Elemente in einer Aufnahme zu beschreiben, die durch mathematische Verfahren berechnet und nicht von Hand animiert wurden. Übliche Beispiele sind Feuer, Rauch, Wasser, Haare, Kleidung, Menschenmengen und Zerstörungseffekte.

FX-Tools stellen erhebliche Herausforderungen für Pipeline-Entwickler dar. Einige erzeugen riesige Datenmengen; andere generieren Daten, die konvertiert oder zusätzlich verarbeitet werden müssen, bevor sie von nachgelagerten Tools verwendet werden können. Beispiele für erstere umfassen Fluid- oder Flüssigkeitssimulationen. Diese haben einen erheblichen Speicher-, Rechen- und Speicherbedarf. Beispiele für letztere sind die Oberflächen, die üblicherweise in Fluid- und Starrkörpersimulationen verwendet werden.

Volumetrische Effekte sind typischerweise Wolken, Staub, Wasser, Feuer und gasförmige Flüssigkeiten. Diese Art von Daten stellt für Pipeline-Entwickler eine Herausforderung dar, da sie sehr umfangreich sind und häufig eine Konvertierung in andere Formate erfordern, bevor sie von anderen Tools verwendet werden können.

Mehr erfahren

Qumulo hat mehrere hilfreiche Ressourcen für mehr über VFX erfahren und wie unsere Dateidatenplattform dabei hilft, VFX-Produktionspipelines zu beschleunigen. Schauen Sie sich unsere Datenblätter an VFX, Animation, Medien und Unterhaltung und erfahren Sie, wie wir Unternehmen wie geholfen haben FuseFX und Cinesite-Studios um Filme und Animationsprogramme schneller zum Publikum zu bringen!

Besonderer Dank geht an Matt Ashton und Kristi Whitman für ihre Beiträge zu dieser Blog-Reihe. Lesen Sie Teil 2 unseres VFX 101, der sich auf den Rendering-Prozess konzentriert und Digitalkünstlern Ratschläge gibt, wenn sie die Cloud in Betracht ziehen, um komplexe, rechenintensive Rendering-Jobs zu verwalten.

VFX 101-Serie

Verwandte Artikel

Nach oben scrollen