Zum Inhalt springen

Friedemann Wachsmuth

Mitglieder
  • Gesamte Inhalte

    12.507
  • Benutzer seit

  • Letzter Besuch

  • Tagessiege

    509

Alle erstellten Inhalte von Friedemann Wachsmuth

  1. Im vierdimensionalen Minkowski-Raum schon. :) Was ich vergaß zu schreiben: Gigebitfilm ist an sich schon so hochauflösend, dass SR kaum praktikabel durchführbar ist. Zumindest kenne ich keinen Scanner, der einzelne Schmalfilmbilder von Gigabitfilm ausreichend hochauflösend scannen kann, um spatiale Gwinne zu erzielen.
  2. Also Gigabitfilm hat an sich nichts mit SR zu tun -- Er ist aber verdammt gut und damit zumindest für das erzielen höchster Auflösungen geeignet. Er löst ja weit höher auf als die meisten Objektive es tun. SR mit Gigabitfilm wäre eine besondere Herausforderung für Objektiv, Scanner, Algorithmen und auch den Rechner dahinter, würde aber unglaubliche Ergebnisse erzielen. Mit derzeitig verfügbarer Technik halte ich SR mit Gigabitfilm aber für unpraktikabel -- siehe unten. Zur SR selbst: SR ist kein Produkt (auch wenn es so klingt) und keine eindeutig definierte Technik, sondern eine Methode, die oft übersehene Nebeneffekte ausnutzt, um eine effektiv weit höhere Informationsdichte zu erzielen, als das einzelne Filmbild sie wiedergibt. SR funktioniert (etwas eingeschränkt) auch mit digitalen Daten, ist aber für unseren Analogfilm prädestiniert. Das faszinierendste: Unser Gehirn benutzt die SR-Methodik bei entsprechendem Input (Projektion echten Filmes) implizit, einwandfrei und ohne nennenswerte Denkanstrengung -- es nutzt sie unvermeidlich! Deshalb sieht projizierter Schmalfilm so verdammt viel besser aus als jeder Einzelbild-Scan. Grundsätzlich macht sich die SR die hohe Datenredundanz im Film zu nutze. Betrachtet man einen halben Meter Film, enthalten die einzelnen Filmbilder überwiegend gleiche Informationen. Die Codecs digitaler Filme machen sich u.a. dieses Phänomen zu nutze, um die zu speichernde Datenmenge zu reduzieren. Moderne Codecs beschreiben nach einem sogenannten "Keyframe" (mit allen Bildinformationen) nur noch die Unterscheide (das "Delta") zum jeweils vorigen Bild. Im Idealfall sind das nur Bewegungsvektoren für bestimmte Bildbereiche, "stehende" Bildausschnitte werden jeweils recycelt. Bei einer solcher Codierung beschreibt man aber nie alle Veränderungen zum vorigen Bild, sondern nur die "relevanten". Unten Relevanz ist eben relativ. Bei der SR macht man nun genau das Gegenteil. Man arbeitet idealer weise von vornherein ohne jede verlustbehaftete Kompression, extrahiert also jedes Einzelbild so detailreich und umfassend wie möglich. Kein Korn darf weggerechnet werden, keine Kante Kompressionsartefakte, kein Schatten Klötzchenbildung zeigen. Die Bedeutung des Wortes Redundanz kehrt sich hier um: Man lässt nicht Informationen weg, die ja "eh schon vorhanden" sind, sondern erfasst sie immer wieder erneut, weil sie sich eben geringfügig unterscheiden und in Summe ein feineres Bild zeichnen. Bei SR mit Analogfilm nutzt man vornehmlich zwei Dimensionen: Die spatiale (räumliche) und die temporale (zeitbasierte). Beide Dimensionen spielen im Analogfilm eine große Rolle: Die Zeitachse, da pro Zeiteinheit n volle, unkomprimierte Einzelbilder vorliegen und die räumliche, da Film kein klares, starres "Raster" hat, wie es bei einem jeden CCD oder CMOS Sensor naturgemäß der Fall ist. Beide Dimensionen spielen wunderbar ineinander. Konkret: Warum sehen wir im projizierten S8-Film eindeutig einzelne Haare im Gegenlicht, obwohl doch das Auflösungsvermögen des winzigen Filmbildes viel zu klein ist, um so ein Haar 3- bis 400-fach verkleinert abzubilden? Weil in jedem Filmbild ein paar Silberhalogenidkristalle das Licht dieses einzelnen Haares eingefangen haben und somit durch die Entwicklung eingefärbt haben. Zwar reichen sie alleine nicht, um das Haar als klare Linie im Filmbild zu zeichnen. Sehen wir jetzt aber 24 oder auch 100 solcher sehr ähnlichen Einzelbilder in schneller Folge hintereinander, verdichten sich die paar eingefärbten Kristalle im Kopf zu genau der Linie, die das Haar beschrieb. Und genau arbeitet die temporale SR: Sie nutzt die Informationsredundanz der Zeitachse, um viele (oder idealerweise alle) Informationen des erfassten Zeitraumes zu einer erweiterten Information zu verdichten und in jedem erzeugten Einzelbild wiederzugeben. Ein digitales SR-Ergebnis würde als im Idealfall in jedem Einzelbild dieser Szene das Haar so zeigen, wie es sich aus der Summe aller Bilder ergibt. Zum spatialen Aspekt betrachten wir mal das "i" aus Simons Beitrag oben, wie es ein digitaler Sensor sieht (und ein Monitor wiedergibt): Ein i, das weiss ein jedes Kind, ist ein Strich mit einem Punkt drüber. Nun lag das hier (imaginär) gefilmte i aber eben nicht ganz genau auf dem Pixelraster, oder es war eine Spur breiter als jenes. Der Strich des i "blutet" damit in die benachbarte Pixelspalte rein, sie wird dadurch hellgrau. Der i-punkt gar, an Schlichtheit kaum zu übertreffen, er besteht plötzlich aus vier unterschiedlich dichten, grauen Quadraten! Nehmen wir nun an, unser i als Motiv bewegt sich absolut nicht, die Kamera ist auf dem Stativ montiert und der Bildstand perfekt. Wir filmen das Motiv nun drei Sekunden lang. Eine digitale Kamera würde 75 absolut identische Einzelbilder liefern (bzw. ein Einzelbild und 74x die Information "sieht genau wie eben!"). Es gäbe gegenüber dem Einzelbild keinerlei Zusatzinformation durch die temporale Dimension. Unsere analoge Filmkamera würde die Kanten von i-Strich und i-Punkt vielleicht weniger scharf wiedergeben können. Dafür ist sie aber an kein filmübergreifend festes Raster gebunden. Ein Einzelbild sähe etwa so aus: Unser Film würde nun 72 solcher Bilder liefern -- aber jedes wäre ein bisschen anders als das vorige, denn die Kornverteilung ist chaotisch. Ein SR-Algorithmus (oder unser Hirn) würde schon aus nur fünf dieser unterschiedlichen Bilder dieses Ergebnis berechnen können: Im Grunde ist das schon die ganze Zauberei. Natürlich ist das Feld weiter, denn es gibt nicht "den Algorithmus". Ist die "Signal to Noise Ratio" (SNR) in kontrastarmen Bereichen oder bei gepushtem Tri-X zu niedrig, kann ein Algorithmus partiell Filmkorn mit Motiv verwechseln und so ins Schleudern kommen -- dann erzeugt er Artefakte. Andererseits kann man als "Abfallprodukt" der SR über Bewegungsvektoren aber auch Tiefeninformationen über das gefilmte Motiv erhalten. Schon ein kurzer, leichter Schwenk der Kamera beim Erfassen eines unbewegten Motives kann reichen, Entfernungen verschiedener Motivbereiche zu interpolieren. für ein 3D-Bild reicht das fast nie, die Tiefeninformationen können aber zum Beispiel sehr wertvoll beim Unterscheiden von Tiefenunschärfe und Bewegungsunschärfe sein. Durch Unschärfe freigestellte Motivbereiche sollen durch SR ja nicht plötzlich lauter unerwünschte Details zeigen. Das Feld ist ein weites und hochinteressantes. Avisynth geht an das Thema sehr hemdsärmelig und architekturbedingt gähnend langsam heran, liefert aber trotzdem oft schon verblüffend gute Ergebnisse. Andere, für Analogfilm optimierte SR-Software ist mir nicht bekannt, kann aber durchaus sein, dass es da noch einige Ansätze gibt. Beruflich habe ich mit der Entwicklung solcher Techniken und ihrer Umsetzung in Echtzeit zu tun -- allerdings auch nicht für Einzelbild-Scans analogen Films als Vorlage, sondern für (und auf) Mobiltelefonen... passt nicht so recht hier her. Ich hoffe, diese kurze Beschreibung ist einigermaßen verständlich und nachvollziehbar geworden. Gute Nacht! :)
  3. Danke für die ausführliche Erklärung Rainer, so ist es schon viel klarer. :) Auch wenn beides nichts mehr mit fazen zu tun hat, leiste ich mir doch noch zwei subjektive Statements: - Sich über mangelnde Pünktlichkeit des Schmalfilm zu beschweren, finde ich höchstens noch absurd, wenn nicht schon perfide. Selbst wenn kein genauer Tag im Monat angegeben ist -- was ist denn daran so schlimm? Ich habe lieber ein ausgewogenes, ausgereiftes und interessantes und bezahlbares Magazin im angegebenen Zeitraum als eine tagespünktliche Postille, die Pressemitteilungen als Berichte bringt und schlecht lektorierte (und geschriebene) Beiträge abdruckt. Wenn man so ein leicht flexibles Erscheinungsdatum als "unmöglich" und "schlampig" bezeichnet, frage ich mich wirklich, wo da wohl das eigentliche Problem liegt. Schliesslich ist www.schmalfilm.de fast immer tagesaktuell und die Zeitschrift immer voll frischem, buntem und gutem Stoff. Und auf unseren zu entwickelnden Film warten wir auch mal ein paar Wochen. (Und um das klarzustellen: Dieses Statement hat nichts mit meiner freien Autorentätigkeit dort zu tun! Jürgen kriegt auch harsche Kritik von mir. Aber inhaltliche und sachliche.) - Zu Herrn Muster und seinen Preisen: Ein Jammer. Einerseits ja wunderbar, was dort noch an Teilen und Kameras schlummert -- andererseits aber auch fatal, dass Herr Muster offenbar selber weiss, dass er den Kram niemals noch los werden wird. Wozu hortet man 20 nagelneue H8DS8, wenn man sie einfach nicht verkauft bekommt? Wenn Herr Muster so filmbegeistert ist, warum fördert er dann nicht ein Projekt wie das von Rudolf oder gar den Nachwuchs? Davon hätten alle mehr, auch er. Herr Muster könnte einen H8DS8-Verleih aufmachen und fünf seiner Kameras zum Tages- und/oder Metersatz vermieten. Bei einem Tagessatz von €15,- könnte er mit nur 5 Kameras fast 30.000 € im Jahr verdienen – abgesehen von den positiven Nebeneffekten wie geweckten Begehrlichkeiten, Wartungsaufträgen, Nachwuchsörderung, impliziter Werbung etc. Fände ich deutlich erbaulicher und konstruktiver als ein Kaufmuseum mit Mondpreisen, die absehbar kein Mensch mehr aufbringen wird. So, und jetzt zurück zum fazen. Hat Ilford schon geantwortet, Rudolf?
  4. Hallo Rainer, magst Du ein bisschen genauer erläutern, was SR2 und EXS2 sind? Sagt mir so gar nichts, klingt aber verdammt interessant. :) Und welches Labor macht Ende Juli zu? Hat der NDR ein eigenes? Irgendein Teil Information fehlt mir da...
  5. Rudolf, der Prozess entspricht wohl so ziemlcih dem Cibachrome-Verfahren, mit dem in den 70ern die Heim-Farbverarbeitung begonnen hat. Der Prozess ist absolut unproblematisch. Das hier verwendete Verfahren benutzt keine Farbkuppler, die Azo-Farbstoffe sind alle schon in der Schicht und werden beim Entwickeln selektiv herausgebleicht. Wenn ich richtig erinnere hat dieser Prozess mehr als ein Dutzend verschiedener Farbstoffschichten, so dass die Zahl an Zwischentönen (und der Farbraum) gigantisch sind.
  6. Hey Rainer, Das mit der Qualität des Panels habe ich Rudolf weiter oben auch geschrieben... da liegen wir gar nicht so weit auseinander. Und das ich Dich bzgl. des Abfilm-Vergleichs missverstanden habe, kann gut sein –– umso besser, wenn man es klären kann. :) De facto ist Rudolfs Kopieranlage nicht anders aufgebaut als ein Gerät zum Ausbelichten von Film - zumindest, wenn man von den Laserbetriebenen Geräten mal absieht. Und das die Qualität letztendlich von der Qualität der Zu- bzw. Ausspielung abhängt, sehe ich genau so -- Farbraum und Kalibrierung (und IMO auch Auflösung) des Panels können also gar nicht groß (bzw. gut) genug sein. Ich würde hier auch eher 2000 € anlegen, gemessen an den Filmpreisen für ein paar zig Kilometer ist das ja noch relativ gering, lohnt sich aber. Deine Aussage zu "alle Informationen [aus 16mm] bekommt man ach schon mit 1,6K" halte ich aber schlichtweg für falsch, selbst wenn das bei DI genauso gemacht wird. Wie viele andere auch übersiehst Du dabei die zusätzliche spatiale und temporale Informationsmenge, die a) durch die erhebliche Informationsredundanz und b) durch die Rasterlosigkeit von Filmmaterial entsteht... Stichwort Super-Resolution. Ich bin sicher (auch wenn ich es noch nicht probieren konnte), das man selbst auf S8-Material unterscheiden könnte, ob von DVD oder von BD zugespielt wurde. Zum Thema SR sollten wir aber wohl mal einen eigenen Thread eröffnen. Falls es denn jemanden interessiert.. steckt ja (gerade für analogen Film) noch ziemlich in den Kinderschuhen.
  7. Ich hab Ozaphan auch schon durch meinen P6 laufen lassen. Ging prima.
  8. Abgefahrenes Spezilazeug. Das juckt einen ja sehr in den Fingern. :rolleyes: Wird leider weder bezahlbar noch passend konfektioniert sein. Und wer Ilfochrome P5 im Durchlaufverfahren entwickelt, möchte ich auch wissen... theoretisch aber ein fantastischer Gedanke.
  9. Alternativ zur Blende könntest Du ja auch entweder die Belichtungszeit verändern oder (notfalls) einen bzw. zwei Graufilter einschwenken. Übrigens würde die Redundanz auch eine hohe Kratzerresistenz mit sich bringen. :) Und ja, das mit dem Makroobjektiv ist etwas theoretisch. Dein Kern ist aber (wie alle normalen Objektive) auf Unendlich gerechnet. Im Nahbereich ist die Schärfeebene so eben nicht ganz plan, was Du aber ja durch Abblendung kompensierst. GANZ genau genommen ist der Zerstreuungskreis für 8mm Film auch zu groß, aber man kann es auch übertreiben. ;-) Noch eine Idee zur Dreifachbelichtung: Mach doch einfach drei Rollen -- mit -1, normal und +1 (durch Blendeneinstellung. Die Bildreihenfolge ist bei denen dann ja absolut identisch. Dein Kunde kann sie an drei getrennten Orten aufbewahren (was sehr sicher ist) und bei Bedarf nach digitalisierung auch einfach wieder "mergen". Ein Framescanner numeriert die abgetasteten Einzelbilder ja einfch durch, da muss man dann nur später die drei Dateien mit den gleichen Nummern zusammensuchen.
  10. Sorry Rainer, aber da stimmt einiges nicht ganz. Filmt man S8 von der Leinwand ab, • geht das Bild durch zwei Objektive • geht das LIcht zusätzlich über eine reflektierende Wand, die das Licht streut • gibt es immer einen Parallaxenfehler • Gibt es oft Synchronisationsprobleme Rudolfs Maschine filmt eine plane, leuchtende Fläche direkt mit einem guten Objektiv auf förderlicher Blende ab. Durch die Einzelbildschaltung gibt es keine Sync-Probleme. Das ist ein himmelweiter Unterschied -- und ein Ausbelichter macht im Prinzip nichts anderes. Er nimmt nur weniger Raum ein. Rudolfs Ansatz ist (abgesehen vom derzeit nicht idealen Monitor und einem nicht-explizit-Makro-Objektiv) schon sehr nah am Optimum. Das Einscannen einzelner 16mm Bilder ist überhaupt keine exotische Angelegenheit - frag mal Daan Müller. Mit der 2K-Pike scannt er 5 Bilder pro Sekunde als Raw-Datei in 2K. Der Linescanner schafft noch viel mehr Auflösung (ich glaube sogar 14 Bit Raws).
  11. Hallo Rudolf, interessantes Projekt. Finde ich super. Negativfilm ist hier definitiv besser geeignet. Er hat sehr viel höheren Dynamikumfang, so geht man eventuellem Clipping in Farbe oder Luminanz aus dem Weg. Am besten natürlcih niedrigempfindlicher -- so 50 ASA oder weniger wären perfekt. Mein Tipp: Mach von jedem Foto drei Einzelbilder. Falls Möglich als Belichtungsreihe mit +/- 1 Blende. Nicht nur weil das wirklich alles an Detailinformation in LIchtern und Schatten einfängt, auch wegen den Möglichkeiten der Super-Resolution. Selbst wenn Dein Negativ nicht ganz jeden Pixel einzeln auflösen sollte, geht Dir so nichts verloren. (Das wäre dann spatiale SR, nicht temporale). Die drei Einzelbidler würde ich in jedem Fall machen, auch wenn Belichtungsreihen bauartbedingt nicht möglich sein sollten.
  12. Kalibrieren tut man v.a. die Grafikkarte (die erlaubt das über sogenannten LUT-Korrekturen), die Farben (und nur die) am Monitor selbst zu klaibrieren ist fast nie zielführend. Genau so eine LUT erstellt das Colorimeter für Deinen Monitor und Deine Grafikkarte (und bindet sie als ColorSync-Profil ein). Ganz einfach, wirklich. Man klebt das Colorimeter per Saugnapf auf den MOnitor, drückt 2-3 Knöpfe, wartet, fertig. Das Problem zu günstiger Monitore ist, dass zu viele Schwankungen mitbringen, auch ohne Temperaturschwankungen. Es kann reichen, dass dein Bild gerade viel rot hat, und schon stimmt die Darstellung anderer Farben nicht. Dein Auge verzeiht das (wie auch Änderungen an der Weißbalance), der Film nicht. Und für pumpende Farbstiche ist Film zu teuer... dann lieber ein paar hundert Fränkli mehr in das zuspielende Display investieren. :) Der E100D hat zum Beispiel im Rot einen Dynamikumfang, den wohl kein Monitor dieser Welt abdecken kann. Umso mehr gilt aber, dass ein Monitor im Rotbereich gar nicht dynamisch genug sein kann, um die Qualität des Fiilmes voll auszureizen. Auch hier wird Dir Bluray übrigens gegenüber DVD einen Vorteil bringen, denn deren Farbraum ist IIRC auch deutlich größer.
  13. Ich würde beim Monitor bloß nicht nur auf die Pixelzahl achten, sondern auch auf sein Gamut (Farbraum) und seine sonstige "Güte". Falls Du es noch nicht kennst, guck Dir mal http://www.prad.de/ an -- das ist ganz gut zum Überblick kriegen. Vor allem wenn Du mal Farbe kopieren willst spielt der Farbraum eine erhebliche Rolle. Seine Größe (bzw. Übereinstimmung mit dem Farbraum des Farbfilms) allein ist aber nicht das einzig wichtige, auch muss er kalibrierbar sein, im Sinne dass er reproduzierbar die gleichen Ergebnisse liefert, unabhängig von Temperatur, zur Zeit im Bild dominanter Farbe, Laufzeit usw. Das ist bei Billigmonitoren oft leider nicht der Fall. Mein Colorimeter (zum Farb-kalibrieren von Monitoren) kann ich Dir übrigens gerne mal leihen. Ich bin ziemlich sicher, dass das auch noch mit altem MacOS 9 tut, und ohne Kalibrierung sind Farbversuche eigentlich sinnlos...
  14. @jean-louis: Die Aufnahmen wurden aus der Hand gemacht, aber mit avisynth 20 Pixel (also ca. 2%) deshaked. Den Bildstand hat Daan Müller gerade durch einen neuen Regelkreis um den Perforationslaser massiv verbessert. Kontaktiere ihn ggf. einfach mal. Er hat ein Demo-Video dazu auf Vimeo, aber es ist passwortgeschützt. Einen 30 Sek. Ausschnitt aus dem Endergebnis in 1080p habe ich hier zum runterladen und betrachten hingelegt. Den ganzen Film (allerdings nur in 720p und irgendwie etwas zu dunkel) gibt es jetzt hier auf Vimeo zu sehen.
  15. Hast ja völlig Recht, Simon. Ich mach das auch nur aus Spass an der Freude, nihct zum eigentlichen Betrachten...
  16. Das ginge bestimmt. Ich hab mit Windows aber eigentlich schon 2001 gänzlich gebrochen, Avisynth "läuft" hier nur noch in der Emulatöse. Im Moment komme ich auf 1,6 fps... erschütternd, wenn ich denke, was unsere iPhone App alles in Echtzeit schafft. :) Kurz: Wenn man so ein Superresolution-Tool dediziert entwickeln würde (ganz speziell für Framescanner optimiert), dann würde ich das heute komplett auf der GPU passieren lassen. Dank OpenGL wäre es dann auch relativ gut portierbar. Im Moment ist für sowas aber lieder absolut keine Luft in der Freizeitplanung... Aber das kann sich ja irgendwann mal ändern. :)
  17. Super-Resolution bei digitalen Vorlagen wird sehr viel weniger bringen – weil deine Videokamera keine unkomprimierten Einzelbilder (nicht einmal wirklich Einzelbilder!) liefert. Die digitale Kompression funktioniert vor allem so, dass sie a) nur Die Teile beschreibt die gegenüber dem letzten "Keyframe" verändert haben und B) "irrelevantes" wegrechnet. Die Superresolutionsalgorithmen brauchen aber eben Datenredundanz, also all das "überflüssige" -- denn so überflüssig ist das alles gar nicht. :) Avisynth ist "kranke Windowsscheisse". Ein sehr veraltetes, aber sehr mächtiges Framework für die schnarchlangsame und sehr spezielle Verarbeitung von Videos. Avisynth ist nur eine .dll (bzw. ein Haufen davon) und wird mit recht kryptischen Skript-Dateien gefüttert. Wirklich, furchtbarer Frickelkram. Der Vorteil: Es ist komplett kostenlos. Und eben mächtig und erweiterbar. Profi-Videoprogramme können den Großteil dessen was avisynth macht bestimmt auch. Aber bei Interesse teile ich gern mein erarbeitetes Wissen.
  18. Ja, Daan ist ein Meister der Hartnäckigkeit auf der Suche zur Perfektion. Beeindruckend. Es bleiben aber zwei Anmerkungen zu machen: a) Jeder Scanner (bzw. jede Telecine) ist nur so gut wie ihr Operator und dessen Tagesform. Auch bei diesen Abtastungen (die Daan kostenlos und "zwischendurch" gemacht hat, also vermutlich ohne den höchsten denkbaren Qualitätsanspruch) habe ich Kritikpunkte und würde sie wiederholen, wenn ich einen HM73 hätte. Da ist zum einen der dicke Fussel links (nicht aus der Kamera, der muss am Scannergate gehangen haben), zum anderen ein leichtes Farbenpumpen bei Szenenwechseln. Die Kamera war wohl noch automatische Farbanpassung gestellt. Da ich hier aber Auflösung und Schärfe beurteilen wollte, ist mir das egal. :) b) Die Einzelbilder da oben sind das Ergebnis aus jeweils 5 Einzelbildern, also NACH avisynth. Das geht aus meinem Text wohl nicht ganz klar hervor. Genau das macht das Hirn ja auch, wenn Film produziert wird: Es extrapoliert das Einzelbild anhand der anderen, kurz zuvor/danach gesehenen. Genau dieser "Superresolution" Effekt geht bei der normalen Telecine eben verloren, und er ist wesentlich. Er KANN sich nur einstellen (bzw. errechnet werden), wenn man unkomprimierte Einzelbilder als Vorlage hat. Das erste Bild mal ohne Superresolution (und leicht verkleinert, weil es hier gerade so rumflog):
  19. Ich habe gerade ein paar Testfilme von Daan zurückbekommen, der unermüdlich seinen Framescanner verbessert. Neu sind u.A. ein Zeilenscanner (Also eine Zeilenkamera), eine neue Lichtquelle, ein neues Objektiv und mittlerweile auch ein verbesserter Bildstandsregelkreis (den habe ich leider knapp verpasst ;-) Unten mal ein paar Frames aus dem einen Film, gefilmt im letzten Mai mit meiner Nikon R10 auf E100D. Die Ergebnisse jage ich gerade erneut behutsam durch avisynth. Die Qualität von S8 und dem E100 macht einfach nur riesige Freude. :) Für volle Größe (1:1) einfach auf die Fotos klicken:
  20. Ob nun ein Tri-x oder ein UN54 körniger wird, hängt absolut massiv von der Entwicklung ab. Tri-X kann man zur Kiesgruppe machen oder auch zu großer Feinkörnigkeit verhelfen. Den Lilastich des Tri-X kann man auswässern, wenn er einen wirklich stört...
  21. Ich habe Andecs Wetgateverfahren schon ein paar mal genutzt. Die Qualität ist fantastisch. Noch nie hatte ich in irgendeinem Projektor Probleme mit der Polyesterkopie. Jeder bespurte Kauffilm ist da wesentlich hakeliger und anfälliger. Acetatfilm mit verdrehter Schichtseite klebt man in der Tat einfach, in dem man linkes und rechtes Ende tauscht. Bei meinem Rückwärtsfilm habe ich das auch so gemacht. Völlig problemlos. Ich mag aber noch mal kurz darauf hinweisen, dass es (nicht nur im Kühlschrank) Umkehrfilm zu kaufen gibt... den Besten, den wir je hatten. Warum in die Ferne schweifen, wenn man so ein gutes Material wie den E100D (vergleichsweise) so günstig bekommen kann?
  22. Rudolf: Über den vergessenen Innenanstrich musste ich gerade breit grinsen. Nicht schadenfroh, sondern froh, dass nur SOWAS schief gegangen ist. Das ist doch fantastisch! :) Was war Dein Testfilm? UN54 oder Foma? Entwicklung von Andec? Zeigmalzeigmal!! :)
  23. Och schade. Die hätt ich gern noch benutzt. Aber meine Meinung zu Offtopic Wiederholungen halte ich aufrecht. Schließlich teilst Du auch ständig ordentlich aus. Kodakfilme dieser Tage in den Müll zu werfen hat schon etwas arg traurig symbolisches. :/
×
×
  • Neu erstellen...

Filmvorführer.de mit Werbung, externen Inhalten und Cookies nutzen

  I accept

Filmvorfuehrer.de, die Forenmitglieder und Partner nutzen eingebettete Skripte und Cookies, um die Seite optimal zu gestalten und fortlaufend zu verbessern, sowie zur Ausspielung von externen Inhalten (z.B. youtube, Vimeo, Twitter,..) und Anzeigen.

Die Verarbeitungszwecke im Einzelnen sind:

  • Informationen auf einem Gerät speichern und/oder abrufen
  • Datenübermittlung an Partner, auch n Länder ausserhalb der EU (Drittstaatentransfer)
  • Personalisierte Anzeigen und Inhalte, Anzeigen- und Inhaltsmessungen, Erkenntnisse über Zielgruppen und Produktentwicklungen
Durch das Klicken des „Zustimmen“-Buttons stimmen Sie der Verarbeitung der auf Ihrem Gerät bzw. Ihrer Endeinrichtung gespeicherten Daten wie z.B. persönlichen Identifikatoren oder IP-Adressen für diese Verarbeitungszwecke gem. § 25 Abs. 1 TTDSG sowie Art. 6 Abs. 1 lit. a DSGVO zu. Darüber hinaus willigen Sie gem. Art. 49 Abs. 1 DSGVO ein, dass auch Anbieter in den USA Ihre Daten verarbeiten. In diesem Fall ist es möglich, dass die übermittelten Daten durch lokale Behörden verarbeitet werden. Weiterführende Details finden Sie in unserer  Datenschutzerklärung, die am Ende jeder Seite verlinkt sind. Die Zustimmung kann jederzeit durch Löschen des entsprechenden Cookies widerrufen werden.