Zum Inhalt springen

Cameron wünscht sich höhere Bildwiederholfrequenz im Kino


Empfohlene Beiträge

Geschrieben

Naja zurück zum Thema. Als Informatiker sage ich euch, dass eine massive Frameerhöhung nicht drin ist. Alles was nur ansatzweise CGI ist, würde unbezahlbar.

 

Achso. Deswegen ist 3D vermutlich auch gerade gescheitert.

 

Also wirklich, Rendering-Zeiten sind dabei das geringste Problem, der Mehraufwand wird regelmäßig durch die Fortentwicklung der Prozessortechnologie gefressen, die Hardware ist doch nun wirklich nicht der Kostenfaktor.

 

Die Workflows skalieren doch gerade in Richtung 3D oder 4k. Da ist ne schlichte Verdopplung der Bildrate in 2k vergleichsweise billig.

 

 

- Carsten

  • Antworten 75
  • Erstellt
  • Letzte Antwort

Top-Benutzer in diesem Thema

Geschrieben
Wenn du mit 240 fps drehst und nur 24fps Auswertest, musst du noch ne Portion Bewegungsunschärfe drauf packen ;-)

 

Und eine so schnelle Verschlusszeit kostet auch Licht...

 

Ach, Schminke und ein paar helle Strahler - so wie früher :lol:

 

Warum die Framerate drastisch erhöhen? Wie schon erwähnt wurde, ist der eigentliche Zielmarkt - die Heimauswertung - schon in der Lage zwischenbilder zu errechnen. Dort stört auch die benötigte Bandbreite bei höherer Bildrate. Warum will man bei ersten 3d TV Übertragungen auf die gute alter Side by Side Technik zurückgreifen, auch wenn dies eine deutliche Verringerung der Auflösung mit sich zieht, bis sich andere mögliche Standarts etabliert haben?

Geschrieben

Naja zurück zum Thema. Als Informatiker sage ich euch, dass eine massive Frameerhöhung nicht drin ist. Alles was nur ansatzweise CGI ist, würde unbezahlbar.

 

Achso. Deswegen ist 3D vermutlich auch gerade gescheitert.

 

Also wirklich, Rendering-Zeiten sind dabei das geringste Problem, der Mehraufwand wird regelmäßig durch die Fortentwicklung der Prozessortechnologie gefressen, die Hardware ist doch nun wirklich nicht der Kostenfaktor.

 

Die Workflows skalieren doch gerade in Richtung 3D oder 4k. Da ist ne schlichte Verdopplung der Bildrate in 2k vergleichsweise billig.

 

 

- Carsten

Mag 2010 alles ganz toll laufen, war aber jahrelang eine gravierende Kostenfrage.

Es sollte zu denken geben, dass die CGIs von LORD OF THE RINGS nur in 1.4 K gerendert wurden - und negativ herausfielen zu den auf 35mm Super 35 gedrehten Real-Live-Szenen und Einstellungen vor der Green Screen.

Ein Manko, dass auch die Herausgabe der Blu-rays verzögerte. :wink:

 

weisen im Sektor der Schwarz-weiss-Filme nur damalige Nitro-Kopien optimale Gradationen und Durchzeichnungen auf und waren auch auf älteren Projektoren mit perfektem Malteserkreuz, mit Feuerschutztrommeln und Zahnkränzen für Nitro-Perforation optimale vorführbar. Ähnliches gilt im 70mm-Bereich.

Umkopierungen verschlimmerten den Bildcharakter deutlich.

Jetzt muß ich doch wieder darauf hinweisen, daß die Kopiertechnik seit dem Jahre 2001 dank Einführung von Gigabitfilm® und anderen Materialien mit extremem Auflösungsvermögen einen Stand erreicht hat, von dem man sagen kann, daß es keine Verluste mehr gibt, jedenfalls keine für den Laien erkennbare. Der Zuschauer kommt gar nicht darauf, eine Dupkopie zu sehen, wenn man eine solche spielt und nur den Filmtitel ankündigt.

 

Rein technisch gesprochen: Kontrast, Dichte und Färbung(en) von Schwarzweißfilm können heute noch genau wie vor 100 Jahren erzeugt werden. Es ist sogar wesentlich mehr Dichte als einst zu haben, konkret bis zu log 5. Das erlaubt Kontraste bis 1:8192 (streng arithmetisch, nur zur Erhellung des Zusammenhangs Höchstdichte-Kontrast), also elf Blenden. Auf dem Film ist dies der Kontrast, an der Bildwand kommt er um eine bis zwei Blenden geringer heraus durch den Callier-Effekt zwischen Film und Objektiv, die Streuung in der Bildschicht selbst, Streulicht im Saal und noch andere Faktoren. Man kann Kopien jeder Dichte fertigen, auf Wunsch also total dünne, mittlere oder auch sattere für den Fall, daß man genügend »Dampf« hat und dem Publikum etwas bieten will, das einen bleibenden Eindruck hinterläßt. Nichts ist abtörnender als Grau-in-Grau-Kino.

 

Die Auswahl an Schwarzweiß-Rohfilmen und Entwicklerrezepten war noch nie so groß wie heute. Wer das nicht anerkennt, hat keine Ahnung von Filmtechnik. Die Filmunterlage, der brennbare Träger oder Sicherheitsträger aus Triacetat oder PET, spielt nicht die geringste Rolle bei der Diskussion der Bildqualität. Seine fotografische Dichte ist die von Blankfilm, vielleicht log 0,04. Der Rest ist Präzisionskopiermaschine, Vakuum-Bildfenster und ausgesuchte Wellenlänge des Kopierlichts.

Gigabit-Film kenne ich nicht, leider. Hörte von Problemen der Dupherstellung von diesem Material. Aber als Archivmaterial sicherlich grandios (ich kenne auch Deinen Blog-Eintrag im Stummfilmforum von 2008 als Replik auf den Digitalisierungswunsch Martin Koerbers im Museum für Film und Fernsehen).

 

Somit aus meiner Sicht nur diese Kenntnisse zur Schwarzweiss-Problematik (und die Anzahl der von mir gehandhabten Filmtitel ist nicht hoch):

 

Schwarzweiss-Aufnahmeformate und Prints wurden ab den 50er Jahren zugunsten neuerer Tonverfahren in der Gradation verändert (Zackentonschrift): Positive wurden fortan wesentlich steiler (vor den 50er Jahren waren sie flacher im Gamma und konnten somit von steileren Negativen und passender zur Sprossenschrift gezogen werden):

alte Schwarzweiss-Orginale also auf "neuzeitlichem Printfilm" (d.h. ab den 50er Jahren) liessen sich fortan nicht mehr gut kopieren (auch bei den TV-Anstalten wurden sie meist als "zu steil" abgelehnt).

Das modene Schwarz-weiss Positiv hat ein Gamma von 2.40 bis 2.80 seit den 50er Jahren.

Kopierung vom Nitro-Orginalnegativ ist daher problematisch und nur dann akzeptabel, wenn man nicht auf Schwarzweiss-Positiv, sondern ausweichend auf Lavendelmaterial kopierte (das Gamma 1 aufweist, aber aufgrund seiner B&H-Perforation in der Projektion m.E. Probleme brächte).

Andere Methode: das neuzeitliche Schwarzweiss-Positiv wäre höher zu belichten und kürzer (also zu einem flacheren Gamma) entwickeln. Oder gleich als Negativ entwickeln, was aber wiederum Gradationsprobleme in der Zackenschrift-Tonspur ("Aufdonnern" usw.) mit sich brächte.

Geschrieben

Das Sensationelle an Gigabitfilm ist, daß ich mit der originalen Soße von Dipl.-Chem. Detlef Ludwig jeden beliebigen Kontrast zwischen knochenhart und butterweich erzielen kann, und zwar stets bei Ausentwicklung der Höchstdichte. Gleichzeitig ist die charakteristische Schwärzungskurve praktisch eine Gerade. Die Dichtekurve zieht nach einem kurzen Fuß linear durch, um erst kurz vor Maximaldichte wieder abzuknicken. Das Gamma kann so niedrig wie 0.4 sein, einfach der Hammer! Wir haben das erste Universalfilmmaterial seit dem Trockengelatineverfahren, und das stammt von 1871 (Maddox). Nur in einer Hinsicht ist Gigabitfilm nicht geeignet: für Projektionspositive. Die Höchstdichte liegt bei log 2.3.

 

Sprossenschrift-Tonspuren habe ich ab 2005 hergestellt. Sie sind praktisch frei von Rauschen. Es gibt Silbersalz-Filmmaterial, das um 1000 Linienpaare je Millimeter auflöst — Bearbeitung mit gewöhnlichem Positiventwickler — da rauscht es nun wirklich nicht. Diese Schichten sind aber so gering empfindlich, daß man wieder in andere Schwierigkeiten hineinläuft bei ihrer Belichtung. Gigabitfilm kann immerhin auf ISO 40 belichtet werden.

 

Grundsätzlich gibt es Schichten im Handel, mit denen man 3000 bis 5000 Linienpaare je Millimeter hat, das wären auf der Fläche von 18 X 24 Millimetern (Vollbild) 54'000 X 72'000 = 3,888 Milliarden Bildpunkte (Gigapixel) bis 90'000 X 120'000 = 10,8 Milliarden. Also bitte, vergeßt doch endlich den elektronischen Weg mit Migration und Datenverlusten. Film as film can

Geschrieben

Um zum Thema zurück zu kommen:

Das menschliche Gehirn kann ohnehin kein Ruckeln wahrnehmen, wenn die Bildfrequenz über ca. 15 fps liegt. Wozu also noch schneller als mit 24 fps drehen? M. W. wurde nur deshalb von 16 auf 24 erhöht, weil die Tonqualität beim Lichtton sonst zu gering war.

Würde ein vernünftig fotografierter Film wie z. B. "Das weiße Band" mit 48 fps besser aussehen? Ganz sicher nicht!

Schwenks? Wozu? Ach ja, macht man, um ein bewegtes Objekt zu verfolgen. Dann will ich aber keinen scharfen Hintergrund haben.

 

Kann natürlich sein, dass diese nicht-interaktiven Computerspiele, die jetzt häufig in den Kinos vermarktet werden, mit high speed besser aussehen. Aber so was sehe ich mir ohnehin nicht an.

Geschrieben
Um zum Thema zurück zu kommen:

Das menschliche Gehirn kann ohnehin kein Ruckeln wahrnehmen, wenn die Bildfrequenz über ca. 15 fps liegt.

 

Du solltest nicht von Dir auf andere schließen ;-)

 

 

- Carsten

Geschrieben

Würde ein vernünftig fotografierter Film wie z. B. "Das weiße Band" mit 48 fps besser aussehen? Ganz sicher nicht!

Schwenks? Wozu? Ach ja, macht man, um ein bewegtes Objekt zu verfolgen. Dann will ich aber keinen scharfen Hintergrund haben.

 

Kann natürlich sein, dass diese nicht-interaktiven Computerspiele, die jetzt häufig in den Kinos vermarktet werden, mit high speed besser aussehen. Aber so was sehe ich mir ohnehin nicht an.

 

Klar gibt es Filme die profitieren da mehr von und es gibt welche die profitieren da weniger von. Es gibt auch Filme die profitieren mehr von Farbe als andere oder 3D oder Ton oder Surroundsound. Streichen wir jetzt jede Neuerung die eine Verbesserung bringt weil "ordentliche" Film haargenau so aussehen muss wie jetzt?

 

Ich bin froh dass sich damals beim Stummfilm nicht alle zurückgelegt haben um einstimmig festzustellen: "So muss Film aussehen". Nichts gegen Stummfilme, auch sie sind wieder Zeugnisse ihrer Zeit aber eigentlich mag ich Bunt und Laut auch ganz gern.

 

Cu Nikon

Geschrieben
Um zum Thema zurück zu kommen:

Das menschliche Gehirn kann ohnehin kein Ruckeln wahrnehmen, wenn die Bildfrequenz über ca. 15 fps liegt.

Falsch.

Selbst 75Hz sieht man locker noch.

Tip: Such mal nen Röhrenmonitor und schalt den auf 25, 50, 75, 100.

 

Wozu also noch schneller als mit 24 fps drehen? M. W. wurde nur deshalb von 16 auf 24 erhöht, weil die Tonqualität beim Lichtton sonst zu gering war.

Würde ein vernünftig fotografierter Film wie z. B. "Das weiße Band" mit 48 fps besser aussehen? Ganz sicher nicht!

Schwenks? Wozu? Ach ja, macht man, um ein bewegtes Objekt zu verfolgen. Dann will ich aber keinen scharfen Hintergrund haben.

24 war und ist zuwenig, das weiss auch jeder.

 

Seit Ewigkeiten gibts daher Schwenktabellen aus denen man bezüglich der fps abliest, wie weit man die gewünschte Dynamik reduzieren muss, damit es nicht shuttert.

 

Kann natürlich sein, dass diese nicht-interaktiven Computerspiele, die jetzt häufig in den Kinos vermarktet werden, mit high speed besser aussehen. Aber so was sehe ich mir ohnehin nicht an.

Ist völlig unabhängig davon ob real oder cgi oder zeichentrick.

 

Und anders als 4k vs 2K sieht 60 vs 24 *jeder* an *jeder Stelle* des Kinos.

Geschrieben

Der Vergleich mit einem Röhrenmonitor hinkt aber gewaltig. Das Bild wird dort ja völlig anders erzeugt. Wenn der Elektronenstrahl unten angekommen ist, ist das Bild oben bereits verblasst. Daher flackern Röhrenmonitore bei gleicher Bildwechselfrequenz auch immer viel mehr als ein Filmbild, das entweder ganz oder gar nicht zu sehen ist. Im Übrigen wird das Kinobild ja auch mit mindestens 48 Hz gezeigt. Das hat aber nichts mit der Bewegungsauflösung zu tun.

 

Das unerträgliche Geflacker war übrigens früher der Hauptgrund, warum ich keinen Ferseher habe. Heute ist es die unsägliche Bildästhetik mit Herumgeschwenke, Freihandgewackel und Halbsekundenschnitten ohne zwingenden Grund, die nach und nach auch vom Kino Besitz ergreift.

Geschrieben
Der Vergleich mit einem Röhrenmonitor hinkt aber gewaltig. Das Bild wird dort ja völlig anders erzeugt. Wenn der Elektronenstrahl unten angekommen ist, ist das Bild oben bereits verblasst. Daher flackern Röhrenmonitore bei gleicher Bildwechselfrequenz auch immer viel mehr als ein Filmbild, das entweder ganz oder gar nicht zu sehen ist.

quod erat demonstrandum: Das Flimmern ist viel höherfrequent - und sichtbar.

Ergo sind 18fps und 24fps viel zu wenig um deine Sinne perfekt auszutricksen.

 

Stimmen hört man auch schon bei 500hz-3000hz, abgedeckt ist das Sinnensorgan damit noch nicht.

 

Im Übrigen wird das Kinobild ja auch mit mindestens 48 Hz gezeigt. Das hat aber nichts mit der Bewegungsauflösung zu tun.

und zwar bild/dunkel/bild/dunkel, daher auch das flimmern bei mechanischer projektion.

 

Das unerträgliche Geflacker war übrigens früher der Hauptgrund, warum ich keinen Ferseher habe. Heute ist es die unsägliche Bildästhetik mit Herumgeschwenke, Freihandgewackel und Halbsekundenschnitten ohne zwingenden Grund, die nach und nach auch vom Kino Besitz ergreift.

Geschrieben

Noch einmal: Bewegungsauflösung und Flimmerfrequenz sind zwei völlig unterschiedliche Paar Schuhe!

 

A: Flimmerfrequenz:

 

Ein althergebrachter Fernseher flimmert bei 50 Hz deshalb so deutlich, weil NICHT das ganze Bild (wie im Kino) mit Dunkelpausen abwechselt, sodern das Bild zeilenweise geschrieben wird. Genau wie bei Röhren-Monitoren. Eine Zeitrafferaufnahme kann das sichtbar machen. Die Nachleuchtdauer des Bildschirms ist gering. Würde man sie aber höher machen, was technisch kein Problem wäre, gäbe es Verwischungen bei schnellen Bewegungen.

 

Ein Kinobild flimmert bei nur 48 Hz praktisch nicht sichtbar. Zugegebenermaßen ist diese Flimmerfrequenz allerdings grenzwertig, so dass bei großen hellen Flächen, insbesondere wenn dieser Bildteil nicht direkt auf die Netzhautmitte fällt, ein geringes Flimmern sichtbar werden kann.

Dass man damit gut leben kann, zeigt

1. die Tatsache, dass nur sehr wenige Kinos mit 3-Flügelblende arbeiten (Flimmerfrequenz 72 Hz), obwohl die Umrüstung bei den meisten Projektoren problemlos möglich wäre und

2. die Tatsache, dass jemanden wie mich, der von einem 50 Hz-Fernsehbild genervt ist (ich kenne übrigens noch mehr solche Leute), das selten auftretende geringe Großflächenflimmern am Rande des Sehfeldes nicht stört.

 

B: Bewegungsauflösung:

 

Die sichtbare Grenze iegt (individuell etwas unterschiedlich) beim Menschen bei ca. 14 bis 15 Hz (Fliegen haben allerdings eine wesentlich höhere Grenzfrequenz). Daher hatte man, nach anfänglichen Experimenten mit unterschiedlichen Bildfrequenzen, die Normgeschwindigkeit einst auf 16 fps fest gelegt.

Natürlich ist das ein Wenig abhängig von der tatsächlichen Bewegungsgeschwindigkeit im Bild. Beim klassischen Zeichentrick reichen meistens 12 fps völlig aus und sind auch üblich (kann man sehr schön am Schneidetisch, am Filmbetrachter oder mittels Analysenprojektor demonstrieren), nur bei schnellen Bewegungen muss jedes Phasenbild einzeln gezeichnet werden (was bei Billig-Cartoons nicht gemacht wurde und dann auch sichtbar ist).

Umgekehrt kann es bei extrem schnellen Bewegungen zu einem "Zerreißen" des fließenden Bildeindrucks kommen, weil der Unterschied zwischen den jeweiligen Einzelbildern zu groß ist. Man muss sich allerdings fragen, was solche Aufnahmen, außer vielleicht für gelegentliche Effekte, in einem anständigen Film zu suchen haben. Ich würde sie in die gleiche Kategorie einordnen wie etwa unscharfe Aufnahmen, Wackler, schiefer Horizont, Über-, Unterbelichtungen usw., also: Ausschuss. Mit einer höheren Bildfrequenz mögen diese zwar besser aussehen, aber das ist in meinen Augen eben Kino für Fliegen.

Geschrieben
Noch einmal: Bewegungsauflösung und Flimmerfrequenz sind zwei völlig unterschiedliche Paar Schuhe!

Nein, falsch.

Liegt die Frequenz *überhalb* der Auflösung wird sie unsichtbar. Bei Röhrenmonitoren mit kurz nachleuchtendem Phosphor bei so ~85-100 Hz.

 

Ein althergebrachter Fernseher flimmert bei 50 Hz deshalb so deutlich, weil NICHT das ganze Bild (wie im Kino) mit Dunkelpausen abwechselt, sodern das Bild zeilenweise geschrieben wird. Genau wie bei Röhren-Monitoren. Eine Zeitrafferaufnahme kann das sichtbar machen.

Die Nachleuchtdauer des Bildschirms ist gering. Würde man sie aber höher machen, was technisch kein Problem wäre, gäbe es Verwischungen bei schnellen Bewegungen.

Korrekt. Schreibt man das Bild jedoch schneller als das Auge sieht, also rund 100Hz ist das Flimmern weg.

 

Ein Kinobild flimmert bei nur 48 Hz praktisch nicht sichtbar. Zugegebenermaßen ist diese Flimmerfrequenz allerdings grenzwertig, so dass bei großen hellen Flächen, insbesondere wenn dieser Bildteil nicht direkt auf die Netzhautmitte fällt, ein geringes Flimmern sichtbar werden kann.

Flimmern ist bei 48Hz sehr gut wahrnehmbar, wie du selbst schreibst.

 

Dass man damit gut leben kann, zeigt

1. die Tatsache, dass nur sehr wenige Kinos mit 3-Flügelblende arbeiten (Flimmerfrequenz 72 Hz), obwohl die Umrüstung bei den meisten Projektoren problemlos möglich wäre und

2. die Tatsache, dass jemanden wie mich, der von einem 50 Hz-Fernsehbild genervt ist (ich kenne übrigens noch mehr solche Leute), das selten auftretende geringe Großflächenflimmern am Rande des Sehfeldes nicht stört.

Gewöhnungssache. Wenn man, wie hier, konstanten Lichtfluss gewöhnt ist, nervt das *immer*.

 

B: Bewegungsauflösung:

Die sichtbare Grenze iegt (individuell etwas unterschiedlich) beim Menschen bei ca. 14 bis 15 Hz (Fliegen haben allerdings eine wesentlich höhere Grenzfrequenz). Daher hatte man, nach anfänglichen Experimenten mit unterschiedlichen Bildfrequenzen, die Normgeschwindigkeit einst auf 16 fps fest gelegt.

Das ist das absolute *Minimum*.

Sprache, wie gesagt, kriegt man auch mit 2000Hz Frequenz übertragen, auch wenn der Mensch fast das 10fache aufzulösen vermag.

 

Natürlich ist das ein Wenig abhängig von der tatsächlichen Bewegungsgeschwindigkeit im Bild. Beim klassischen Zeichentrick reichen meistens 12 fps völlig aus und sind auch üblich (kann man sehr schön am Schneidetisch, am Filmbetrachter oder mittels Analysenprojektor demonstrieren), nur bei schnellen Bewegungen muss jedes Phasenbild einzeln gezeichnet werden (was bei Billig-Cartoons nicht gemacht wurde und dann auch sichtbar ist).

12 fps sind ausreichend bis mangelhaft, im Extremfall ungenügend. 24fps sind befriediegend bis mangelhaft.

 

Deswegen haben auch nahezu alle Produktionen mit schnellem Bildinhalt, insbesondere Sport, 50, 59.94 oder 60 als Grundlage.

 

Umgekehrt kann es bei extrem schnellen Bewegungen zu einem "Zerreißen" des fließenden Bildeindrucks kommen, weil der Unterschied zwischen den jeweiligen Einzelbildern zu groß ist.

Korrekt, bei 24 fps. Bei 60 kaum mehr.

 

Man muss sich allerdings fragen, was solche Aufnahmen, außer vielleicht für gelegentliche Effekte, in einem anständigen Film zu suchen haben.

Sie sind bereits -und sollten auch im Kino das werden- die Grundlage für Aufzeichnungen von Bildern mit hoher Dynamik.

 

Das Kino hat hier Aufholbedarf, 60P und 50P sind für viele Consumergeräte heute schon Norm.

 

Ich würde sie in die gleiche Kategorie einordnen wie etwa unscharfe Aufnahmen, Wackler, schiefer Horizont, Über-, Unterbelichtungen usw., also: Ausschuss. Mit einer höheren Bildfrequenz mögen diese zwar besser aussehen, aber das ist in meinen Augen eben Kino für Fliegen.

Nein. Der Mensch sieht erheblich mehr als 24fps. 24 war und ist zuwenig.

Geschrieben

Flimmern bei 35mm Maschinen sind öfters auch Reflexionen an der Blende oder durch die Blende im Lampengehäuse. Das scheint ein Problem von Blenden zu sein, die weiter weg vom Bildfenster sitzen, wie z.B. die Trommelblenden der Ernemänner oder FP5 oder die Scheibenblenden der Bauer. Nicht umsonst waren die teilweise ab Werk schwarz.

Jens

Geschrieben

Naja zurück zum Thema. Als Informatiker sage ich euch, dass eine massive Frameerhöhung nicht drin ist. Alles was nur ansatzweise CGI ist, würde unbezahlbar.

Moores Gesetz lößt das Problem derzeit.

Die DI Suiten, die einst do 80TB und 16 * 2 Ghz hatten, sind jetzt bei uns jeweils so um die 400TB mit >200* 3 Ghz.

 

Das Rendering ist nicht mehr *der* Kostenfaktor, der es einst war - inzwischen macht die Manpower den Löwenanteil aus.

Geschrieben

Naja zurück zum Thema. Als Informatiker sage ich euch, dass eine massive Frameerhöhung nicht drin ist. Alles was nur ansatzweise CGI ist, würde unbezahlbar.

Moores Gesetz lößt das Problem derzeit.

Die DI Suiten, die einst do 80TB und 16 * 2 Ghz hatten, sind jetzt bei uns jeweils so um die 400TB mit >200* 3 Ghz.

 

Das Rendering ist nicht mehr *der* Kostenfaktor, der es einst war - inzwischen macht die Manpower den Löwenanteil aus.

 

Natürlich steigt die Leistungsfähigkeit enorm aber mit der neuen Leistung werden auch immer neue Möglichkeiten gefunden wie man diese wieder vernichten kann. Gerade bei CGI dreht man dann z.B. beim Raytracing ,was ich als die Zukunft betrachte, gerne mal an der Strahlenschraube. Weniger Bilder würde dann halt einer höheren Qualität entsprechen.

 

Wenn der Rechenaufwand für die einzelnen Bilder konstant bleibt, wäre in 2 Jahren das Problem vermutlich gelöst. Das kann ich nicht abstreiten.

 

Wie würde denn ein Hybridsystem mit gedoppelten Bildern bei normalen ruhigen Szenen und bei schnellen Bewegungen dann die vollen 48/60 Einzelbilder pro Sekunde wirken? Merkt man da, dass sich das Bild verändert?

 

Cu Nikon

Geschrieben

Naja zurück zum Thema. Als Informatiker sage ich euch, dass eine massive Frameerhöhung nicht drin ist. Alles was nur ansatzweise CGI ist, würde unbezahlbar.

Moores Gesetz lößt das Problem derzeit.

Die DI Suiten, die einst do 80TB und 16 * 2 Ghz hatten, sind jetzt bei uns jeweils so um die 400TB mit >200* 3 Ghz.

 

Das Rendering ist nicht mehr *der* Kostenfaktor, der es einst war - inzwischen macht die Manpower den Löwenanteil aus.

 

Natürlich steigt die Leistungsfähigkeit enorm aber mit der neuen Leistung werden auch immer neue Möglichkeiten gefunden wie man diese wieder vernichten kann.

Yep, wobei wir inzwischen Auflösungsseitig, farbtiefenseitig & vom Raytracen her quasi schon an der Oberkante der Qualität angekommen sind. Die Spirale kann sich noch weiterdrehen, aber das sind da eher exotischere Dinge (Raydiosity anstelle Raytrace, komplexe Fluidsimulation anstelle refraktiver Partikel usw)... und inzwischen sind wir in klassischen Szenarien von Tagen auf Stunden auf Minuten pro Frame.

 

Gerade bei CGI dreht man dann z.B. beim Raytracing ,was ich als die Zukunft betrachte, gerne mal an der Strahlenschraube. Weniger Bilder würde dann halt einer höheren Qualität entsprechen.

Raytrace ist da schon seit (laaaaaaaaaaaaaaaaaaaaaanger) Zeit die Basis, wenn es nach oben geht mit dem Rechenaufwand dann mittels komplexer Global Illumination / Raydiosity.

 

Wenn der Rechenaufwand für die einzelnen Bilder konstant bleibt, wäre in 2 Jahren das Problem vermutlich gelöst. Das kann ich nicht abstreiten.

Da gehts hin

 

Wie würde denn ein Hybridsystem mit gedoppelten Bildern bei normalen ruhigen Szenen und bei schnellen Bewegungen dann die vollen 48/60 Einzelbilder pro Sekunde wirken? Merkt man da, dass sich das Bild verändert?

 

Cu Nikon

 

Eigentlich müsste man, so man auch für die "nur" 24er ideale Güte haben, mit unterschiedlichem Motion Blur rendern.

Geschrieben
Raytrace ist da schon seit (laaaaaaaaaaaaaaaaaaaaaanger) Zeit die Basis, wenn es nach oben geht mit dem Rechenaufwand dann mittels komplexer Global Illumination / Raydiosity.

 

Da schau mal einer an, dass schon so hochgerüstet gearbeitet wird, hätte ich nicht wirklich gedacht. Momentan ist es dann wohl einfach zu Teuer (ich glaube da JC einfach mal) aber in 2-3 Jahren sicher drin.

 

Ich dachte Raydiosity wäre schon wieder aus der Mode und von Raytracing wieder geschluckt worden. Ich glaube ich muss mich mal wieder etwas mit dem Thema beschäftigen.

 

Hast du eine ungefähre Flops/MIPS Hausnummer von eurem Cluster?

 

Cu Nikon

Geschrieben
Raytrace ist da schon seit (laaaaaaaaaaaaaaaaaaaaaanger) Zeit die Basis, wenn es nach oben geht mit dem Rechenaufwand dann mittels komplexer Global Illumination / Raydiosity.

 

Da schau mal einer an, dass schon so hochgerüstet gearbeitet wird, hätte ich nicht wirklich gedacht.

Ja, populär sind bspw. V-Ray, Renderman oder (aus Berlin) Mental Ray.

 

Ich dachte Raydiosity wäre schon wieder aus der Mode und von Raytracing wieder geschluckt worden. Ich glaube ich muss mich mal wieder etwas mit dem Thema beschäftigen.

Raydiosity ist *heftig* rechenintensiv, aber in Form von zig Global Illumination Modelle durch die Hintertür in vielen Raytracern dennoch drin.

 

Hast du eine ungefähre Flops/MIPS Hausnummer von eurem Cluster?

Cu Nikon

Huch ne, aber typischerweise haben wa schon immer so 100 Xeoncores im Nacken :) Zum browsen paralell zum mastern reichts jedenfalls ganz nett.

 

Was ich aber weiss sind die Tempos der Raids, die fahren so bei 1800 Mbyte/sek (nicht Mbit). An den dicken Systemen ist 24 * 2 Tbyte an 24 Port SAS->SATA, das ist schon flink :)

Geschrieben

quod erat demonstrandum:

 

Im Übrigen wird das Kinobild ja auch mit mindestens 48 Hz gezeigt. Das hat aber nichts mit der Bewegungsauflösung zu tun.

und zwar bild/dunkel/bild/dunkel, daher auch das flimmern bei mechanischer projektion.

Es flimmert nicht. Zudem abhängig von Trommel-, Scheiben- oder Kegelblende und der Winkelgeschwindigkeit.

Hatte das in meiner allerersten Vorführerstunde gelernt - und @Liliputkino beschreibt die Vorgänge korrekt.

Wenn hier die Kinematographiegeschichte abgefälscht wird, muss das jeder mit sich selbst klarmachen.

Streichen wir jetzt jede Neuerung die eine Verbesserung bringt weil "ordentliche" Film haargenau so aussehen muss wie jetzt?

Cu Nikon

Keinesfalls streichen. Aber dem Marketing ist entgegentreten, wo es davon singt, es sei das Rad neu erfunden worden - und "der" Film (d.h. das "Immerselbe", "dieser Streifen") endlich ablösungsbedürftig. Das aber gründet leider auf Lebens- und Geschichtslügen.

Die Diskussion hier erweckt oft den Eindruck, als sei die Optik und Physik von DCI begründet worden.

Eine physikalischen Neuerungen aber, sofern wir hier Verschmelzungsfrequenzen und Flimmern debattieren, sind halt den hochfrequenten Verfahren des 20. Jds. schon zuzuschreiben, u.a. idealiter dem SHOWSCAN-Prozess oder MAXIVISION 48. Oder TODD-AO.

 

Man kann das gerne austesten mit 48p (warum hat's der Cameron nicht gemacht?), aber im Sinne des Diskutierten ist DCI eigentlich keine (!) Neuerung oder Verbesserung anzuheften. DCI ist eine Video-Simulation kinematographischer Vorbilder, nicht mehr und nicht weniger.

Geschrieben

quod erat demonstrandum:

 

Im Übrigen wird das Kinobild ja auch mit mindestens 48 Hz gezeigt. Das hat aber nichts mit der Bewegungsauflösung zu tun.

und zwar bild/dunkel/bild/dunkel, daher auch das flimmern bei mechanischer projektion.

Es flimmert nicht.

Sie sehen also bei 48Hz, von 35mm, kein Flimmern auf hellen Flächen?

 

im Sinne des Diskutierten ist DCI eigentlich keine (!) Neuerung oder Verbesserung anzuheften. DCI ist eine Video-Simulation kinematographischer Vorbilder, nicht mehr und nicht weniger.

Ahso, man kann also schon lange Positive nachträglich kalibrieren, Gamut usw einstelen, mechanische Projektoren haben unterbrechungsfreien Lichtstrom, verlustfreie Kopien die nicht mehr altern sind bei Film schonmal dagewesen, Filmkorn existiert nicht usw usf? Na denn is ja allet wieder jut.

Geschrieben
Noch kurz zur Illustration ein Video.

 

http://www.mediafire.com/?ybmlymn2nnl

 

Junge Menschen sind heute, insbesondere durch ihre Computerspiele, *sehr* im Bilde das 24fps *nicht* gut genug sind.

 

Und Computerspiele sind heute der härteste Wettbewerb für Filme, nicht mehr das TV.

 

Der Vergleich hinkt. Bewegungen ohne Bewegungsunschärfe wirken nunmal seltsam. Der Ball am Anfang mit Bewegungsunschärfe sah ja noch ganz ok aus. Hinzu kommen die schnellen Bewegungen, die man im Spielfilm eigentlich vermeidet. Aber auch eine mit 60fps aufgenommene Drehung macht einen orientierungslos!

Das Computerspiele mit 24 fps fast unspielbar sind hat einen ganz anderen Grund. In Spielen muss man auf die Bewegung des Gegners reagieren. Das Medium ist aktiv und nicht passiv. Es ist Vorteihaft, wenn der Gegner in den Moment des Schusses auch noch da ist - und nicht nur auf den Monitor sichtbar ist ;-)

Geschrieben

im Sinne des Diskutierten ist DCI eigentlich keine (!) Neuerung oder Verbesserung anzuheften. DCI ist eine Video-Simulation kinematographischer Vorbilder, nicht mehr und nicht weniger.

Ahso, man kann also schon lange Positive nachträglich kalibrieren, Gamut usw einstelen, mechanische Projektoren haben unterbrechungsfreien Lichtstrom, verlustfreie Kopien die nicht mehr altern sind bei Film schonmal dagewesen, Filmkorn existiert nicht usw usf? Na denn is ja allet wieder jut.

Ich weiß ja, daß dies nicht Ihre Welt ist, aber da liegen Sie vom Wirkungs- und Produktionsprinzip nicht ganz falsch. :D

Auch sollte man einmal den unterbrochenen Lichtstrom, die sog. Dunkelphase, als höchst entspannte Sehkonvention diskutieren. Ebenso die wahrnehmungspsychologisch zum Anschlag kommenden Momente der Taumerfahrung usw.

Bei Kodak Vision 3 und Fuji F 64D oder Eterna sehen Sie kaum mehr ein Korn. Auf jeden Fall aber keine Pixel und "Trübkonstraste" à la DLP und CMOS-Sensor. Sie können die Kamera sogar hochfrequent laufen lassen. Na - ist das etwa nichts? :D

Geschrieben
Noch kurz zur Illustration ein Video.

 

http://www.mediafire.com/?ybmlymn2nnl

 

Junge Menschen sind heute, insbesondere durch ihre Computerspiele, *sehr* im Bilde das 24fps *nicht* gut genug sind.

 

Und Computerspiele sind heute der härteste Wettbewerb für Filme, nicht mehr das TV.

 

Der Vergleich hinkt.

Nein, das Bild ruckelt :)

 

Bewegungen ohne Bewegungsunschärfe wirken nunmal seltsam.

Grade für Action aber braucht man oft extrem kurze Verschlusszeiten.

 

Der Ball am Anfang mit Bewegungsunschärfe sah ja noch ganz ok aus.

Mit Blur sieht 24P ok, aber nicht gut aus. Ohne Blur siehts 24P schlecht aus. 60P sieht in beiden Fällen gut aus.

 

Hinzu kommen die schnellen Bewegungen, die man im Spielfilm eigentlich vermeidet.

Oft genug vermeiden MUSS nicht will.

AVATAR bspw. ist oft *rattenschnell* bewegt - und grade da fallen die 24P (bzw 48 3D) negativ auf.

 

Aber auch eine mit 60fps aufgenommene Drehung macht einen orientierungslos!

Wenn sie schnell ist und das soll ist das ja auch gut - bloss das sie bei 24 shuttert ist eben nur ein technisches Defizit.

 

Das Computerspiele mit 24 fps fast unspielbar sind hat einen ganz anderen Grund. In Spielen muss man auf die Bewegung des Gegners reagieren. Das Medium ist aktiv und nicht passiv. Es ist Vorteihaft, wenn der Gegner in den Moment des Schusses auch noch da ist - und nicht nur auf den Monitor sichtbar ist ;-)

Sorry, sehe ich gänzlich anders. Der "Blick aus dem Fenster" Faktor ist mit 24 nicht zu machen, man merkt das die Bewegung nicht authentisch ist.

 

24 reicht - ist aber definitiv das qualitative Defizit #1 derzeit, lange vor 4/2K.

Erstelle ein Benutzerkonto oder melde Dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde Dich hier an.

Jetzt anmelden



×
×
  • Neu erstellen...

Filmvorführer.de mit Werbung, externen Inhalten und Cookies nutzen

  I accept

Filmvorfuehrer.de, die Forenmitglieder und Partner nutzen eingebettete Skripte und Cookies, um die Seite optimal zu gestalten und fortlaufend zu verbessern, sowie zur Ausspielung von externen Inhalten (z.B. youtube, Vimeo, Twitter,..) und Anzeigen.

Die Verarbeitungszwecke im Einzelnen sind:

  • Informationen auf einem Gerät speichern und/oder abrufen
  • Datenübermittlung an Partner, auch n Länder ausserhalb der EU (Drittstaatentransfer)
  • Personalisierte Anzeigen und Inhalte, Anzeigen- und Inhaltsmessungen, Erkenntnisse über Zielgruppen und Produktentwicklungen
Durch das Klicken des „Zustimmen“-Buttons stimmen Sie der Verarbeitung der auf Ihrem Gerät bzw. Ihrer Endeinrichtung gespeicherten Daten wie z.B. persönlichen Identifikatoren oder IP-Adressen für diese Verarbeitungszwecke gem. § 25 Abs. 1 TTDSG sowie Art. 6 Abs. 1 lit. a DSGVO zu. Darüber hinaus willigen Sie gem. Art. 49 Abs. 1 DSGVO ein, dass auch Anbieter in den USA Ihre Daten verarbeiten. In diesem Fall ist es möglich, dass die übermittelten Daten durch lokale Behörden verarbeitet werden. Weiterführende Details finden Sie in unserer  Datenschutzerklärung, die am Ende jeder Seite verlinkt sind. Die Zustimmung kann jederzeit durch Löschen des entsprechenden Cookies widerrufen werden.