THX
Mitglieder-
Gesamte Inhalte
2.458 -
Benutzer seit
-
Letzter Besuch
Inhaltstyp
Profile
Forum
Galerie
Alle erstellten Inhalte von THX
-
Am Anschluss des Messgerätes an die Diode liegt es nicht. Schwarze Leitung an die Kathode, also an den "Balken" der Diode. Das Verhalten einer realen Diode ist aber leider nicht so einfach, da die Diode aus idealer Diode, einer virtuellen Spannungsquelle (Uf) und einem Widerstand (Rd) besteht (Abb. c). Hat dein Messgerät eine Diodentestfunktion? Oft mit einem Dioden-Zeichen gekennzeichnet - oder einfach die "Piep"-Funktion - je nach Messgerät kannst du dann Dioden ausmessen. Damit kannst du den Spannungsabfall in Vorwärtsrichtung überprüfen - dieser liegt bei Siliziumdioden zwischen 500 und 1500 mV bei Dioden für höhere Spannungen. In Sperrichtung sollte dann "nichts" angezeigt werden (bei meinem Messgerät einfach "1____" ). Je nach Messgerät reicht die Spannung bei Widerstandsmessung nicht aus, um einen genügend hohen Strom durch die Diode zu treiben, damit man verlässliche Resultate erhält, denn leider ist die Stromkennlinie einer Diode im unteren Bereich nicht linear zur angelegten Spannung. Es ist eben kein ideales Bauteil, das bei dir auf dem Tisch liegt.
-
Was mir noch einfällt: Eine andere Methode wäre die lineare Veränderung der zeitlichen Abstände zum nächsten Bild: In der Projektion ergibt dies dann wieder einen Geschwindigkeitsverlauf, wie ähnlich bereits beim exponentiellen Zerfall gesehen: ... nur noch etwas steiler.
-
In dem Plot hier siehst du unten die projizierten Bilder, sprich linear von 0 bis 10 Sekunden. Nach 180 Bildern, sprich 5 projizierten Sekunden, hast du für die nächsten 5 Sekunden eigentlich eine im Vergleich zu 24 Bildern/sec vorhin kaum Wahrnehmbare Geschwindigkeitsdifferenz mehr. Daran zweifle ich einfach, ob man das so möchte. Man kann natürlich die Zeitkonstante grösser als 30 Bildern, wie hier im Beispiel wählen, dann kommt man aber irgendwann sehr nahe an einen "linearen" Verlauf. Du kannst hiermit zwar die gerafften Szenen im Verlauf selbst bereits schon auskosten, aber der grösste Teil der Geschwindigkeitsrampe passiert innerhalb der ersten 4-5 Sekunden - der Rest ist dann noch ein asymptotisches Annähern an die Endgeschwindigkeit. Die zeitlichen Abstände in Millisekunden erhältst du ja, wenn du den Kehrwert meiner jeweiligen Funktionsplots nimmst und diese mit 1000 multiplizierst. So zum Beispiel für den exponentiellen Zerfall: Oder die sin^2 Funktion:
-
Eine Zeitkonstante, welche eine Verdoppelung oder eine Halbierung der Geschwindigkeit beschreibt, kann durchaus angenehmer empfunden werden. Habe hier auf einer alten VHS Kassette von ARRI ein Demovideo über die 16SR3. Dort hat es einen Verlauf von 24 fps hoch bis 150 fps. Müsste mal schauen ob man dort die Bildfrequenzen sieht, denn dieser Verlauf sieht episch geil aus, mit zwei Pferden die durch den Tiefschnee hopsen ^^ Vorhin beim Frisör habe ich mir auch nochmals Gedanken gemacht und bin auch auf dieses "Faktor 2 pro Zeitkonstante tau" gekommen - kam in einer Prüfung vor eineinhalb Jahren mal vor. Das "Problem" bei einer Halbierung der Bildfrequenz alle, sagen wir mal, 30 Bilder, ist, dass wir nach 5 Sekunden bereits auf 1.5 fps unten sind und während den nächsten 5 Sekunden fast keine Veränderung mehr stattfindet. Hier wäre die lineare Kurve vielleicht etwas "spannender", da man den Verlauf richtig auskosten kann. Hier noch ein Plot mit der Formel für den Radioaktiven Zerfall, also Halbierung der Geschwindigkeit alle 30 Bilder: Alternativ wäre auch eine sin^2 Funktion denkbar. Diese Funktionen werden zB bei Frequenzumrichtern eingesetzt und ermöglichen auch mit hoher Last eine Sanfte und ruckelfreie Drehzahlanpassung.
-
... mhm. Mal wieder ein kompletter Overkill, den ich da berechnet habe ^^ Wenn man das schön mit den Bildfrequenzen approximiert, dann wird das doch viel einfacher Ist dann nämlich linear: Was die Kamera jetzt machen muss: Bilder Zählen und dann die Bildfrequenz einstellen, welche beim aktuellen Bild eingestellt werden muss. So ergibt das automatisch den gewollten Rampenverlauf.
-
So frisch aus dem Bett geplumpst bin ich auf folgendes gekommen: x-Achse die Anzahl Bilder, y Achse die Belichtungszeit, also 1/fps. Du musst das mit den Bildern auszählen und nach 120 Bildern zB hast du eine Bildfrequenz von 12 fps, wenn du innerhalb 10 Sekunden von 24 fps nach 1 fps gehen willst, also in Richtung Zeitraffer in der Projektion. Ist irgend eine 1/x Funktion, die ich mit einem Polynom 2. Grades angenähert habe - stimmt aber nicht ganz genau, da sich 1/x nicht so wirklich schön und genau mit einem Polynom darstellen lässt. Ich geh' jetzt erst mal 'ne Runde duschen und etwas essen. Dann kann ich bei Zeit nochmals darüber hirnen ^^
-
In diesem Forum ist alles möglich Ihr dürft gerne auch mal eben so bei mir daheim hineinschneien - mit einer EPT Lampe für meinen Cat700 als ideales Gastgeschenk Finde es aber echt angenehm, Posts von Dolby Consultants zu lesen. Immer wieder interessant!
-
Was ist denn so schockierend? Die Realität?
-
Keine Ursache :-)
-
Zehn Jahre nachdem ich hier mein Unheil angerichtet habe, kommt ein neuer Rebell ... Ist das jetzt der "Circle of Life"? ;-)
-
Hallo REBEL Naja, DCI hat sich bei der Festlegung der Tonformate sicherlich genügend Gedanken gemacht, dass man das Maximum ausreizen kann. Wenn man schon ein komplett neues Format definiert, kann man mit der Bandbreite für Audio und Video auch mal Klotzen. Weiss jetzt nicht, was die durchschnittliche Bandbreite einer DCI 5.1 Tonspur ist. Vielleicht weiss das ja gerade einer? Geschätzt mit Linear PCM, 48 kHz Samplingrate, 24 Bit ... 6.75 Mbps? Kann schon sein, denn eine AES/EBU Schnittstelle mit 2 Kanälen, 48 kHz, 24 bit plus Timecode und Hilfssignalen hat 3.072 Mbps an Datendurchsatz.
-
Hallo auch Kurze Antwort: Die Codiermethode und der Datendurchsatz ab Film bei SDDS erlaubt einen höheren Dynamikumfang verglichen mit SR*D. Lange Antwort: SR*D hat nur schon Flächenmässig wesentlich weniger Platz und bei genauerer Betrachtung auch weniger Datendurchsatz als SDDS. Rohdaten ab der SR*D Spur sind über den Daumen gepeilt etwas mehr als 500 kbps - verglichen mit SDDS und seinen 1.4 Mbps Datendurchsatz entspricht dies etwa einem Drittel. Bei beiden Formaten wird eine merkliche Bandbreite nur für Synchronisiermuster und Fehlerkorrektur verwendet - oder für das Dolby Doppel-D Logo in der Mitte ... Natürlich hat SDDS mehr Kanäle als SR*D. Bei SDDS sind es 8 vollfrequente Hauptkanäle sowie 4 vollfrequente Backupkanäle - ein Total von 12 Kanälen also. Dies entspricht grob 120 kbps pro Kanal. SR*D mit seinen 6 Kanälen kommt auf grob 90 kbps pro Kanal. Dies jeweils immer inklusive den Sync-Mustern, Fehlerkorrekturdaten etc. Von SR*D wissen wir, dass AC3 mit 448 kbps zurecht kommt - also etwa 75 kbps Audionutzdaten pro Kanal. Da jedoch eine Kanalabhängigkeit besteht bei SR*D, ist diese Zahl nicht absolut zu sehen. Abschliessend lässt sich sagen: SDDS hat mehr verfügbare Daten für einen Kanal als SR*D. Damit ist weniger Kompression vonnöten, was in der Regel in besserem Klang resultiert (vgl. den üblichen MP3 Vergleich mit unterschiedlichen Bitraten ...). Reine Bitbreite ist nicht primär entscheidend bei komprimierten Audioinformationen - nachher bei der Wandlung in die analoge Welt kommt es wieder zum Tragen, das ist klar. Ein 24 bit Codec nützt dir nichts, wenn du nicht genügend Datenbandbreite bereitstellen kannst. Hier klingt ein 16 bit Codec mit ausgereizter Bandbreite wesentlich besser.
-
Hallo Geh' oben rechts auf deinen Namen, Dropdown Menu, dort die Einstellungen wählen, weiter auf den Reiter Profil, und dort kann man in einem Punkt User ignorieren. Weiss nicht, wie es auf Deutsch heisst, hab' meine Sprache auf Englisch ^^
-
SDDS ist ein Tonformat von Sony, welches nur mit den Decodern DFP2000, DFP2500 sowie DFP3000 wiedergegeben werden kann. Diese besitzen dann auch die SDDS-typische Kanalkonfiguration. Der Dolby DA10 und der Nachfolger DA20 können ausschliesslich Dolby Digital 5.1 Tonspuren wiedergeben - für Dolby Digital EX (6.1, resp. 7.1 wenn der "EXTRA" Kanal benutzt wird) wird zusätzlich der Surround-Decoder Dolby SA10 benötigt. Zwischen SDDS und dem DA10 gibt es hier nicht wirklich einen Zusammenhang. Es kam im Thema über DSPs auf, dass beide nun mal DSP Technologie benutzen.
-
Korrekt. Ich gehe bei SDDS davon aus, dass hier Kanalpaare gebildet werden und mehrere ATRAC Streams auf den Spuren verpackt sind. Korrektes Statement. Ich wollte mich kurz fassen Danke für die zusätzliche Ausführung. Nope, Dolby DA10. Der erste Dolby-Digital Decoder für 35mm Anwendungen - hier haben wir es mit Videosignalen zu tun, nämlich das Videosignal des CCD Zeilenarrays im Lesegerät. Es scheint aber, dass der DA10 so gut wie nirgends mehr zu finden ist - der DA20 war der prominentere Ersatz dafür und hat intern wesentlich weniger einzelne Module als der DA10 mit seiner Flut von Modulkarten.
-
@Mods Wir sollten diesen Thread zum Wohle der Übersichtlichkeit besser unterteilen und den zweiten Teil ab REBELs Post über DSPs ins Forum "Technik" verschieben. Vielleicht unter dem Titel "Digitale Signalverarbeitung" oder sowas in der Richtung ...
-
Einen ähnlichen Vergleich habe ich auch vor einiger Zeit mit zwei Studien-Kollegen durchgeführt. Die Beiden sind nicht besonders audiophil, hören jedoch sehr gerne Musik. Quelle war ein Mitschnitt eines Musicals, an dem ich damals an der Kantonsschule die technische Leitung hatte. Aufgezeichnet wurde mit einer externen 24 Bit Soundkarte direkt auf die Festplatte, PCM. Gewandelt wurde diese Quelldatei nach MP3 in 64 kbps, 128 kbps, 192 kbps und 320 kbps, sowie FLAC, einen Lossless-Codec. Sofort konnte das 64 kbps MP3 als "minderwertig" deklassiert und ausgeschieden werden. Was aber nun das Original war, das konnte dann nicht mehr so schnell festgestellt werden. Da wir an dem Abend eigentlich noch einen Film schauen wollten, haben wir den Test nach einer halben Stunde beendet und festgehalten, dass 128 kbps MP3 "recht nett" klingt, 192 kbps "hört man gerne länger". Weitere Vergleiche konnten wir nicht machen - und wir hatten Hunger ;-) Ich gehe bei diesen Resultaten davon aus, dass "wir" auf diesen MP3 Klang geeicht sind und diesen daher als natürlich empfinden. Weiter ist sicherlich auch die Tatsache mitentscheidend, dass ein höhenreiches Klangspektrum als offen, klar und rein angepriesen wird. Wenn wir nun mit den höchsten Höhen in die vermeintlich höchsten Hohen des Musikgenusses gehoben werden, dann wird das mit "gut" assoziiert. Ein ehemaliger Dozent von mir an der ETH Zürich hatte eigene Untersuchungen angestellt bezüglich den Unterschieden im Höreindruck zwischen verschiedenen Bitraten bei MP3. So ist er, und auch ich, zum Schluss gekommen, dass es Bitraten gibt, bei welchen Bassimpulse, wie zum Beispiel von einer Bassdrum, schlichtweg zu spät kommen. Reproduzierbar! Wir sind leider nicht mehr näher darauf eingegangen, warum dies der Fall sein könnte, aber es ist deutlich wahrnehmbar, wenn ich mich richtig erinnere um 128 kbps herum, dass dieser Artefakt auftritt. Diese "fehlerhaft erzeugten Kanginformationen* im Hochtonbereich sind typisch für starke Kompressionen. Diese sogenannten Kompressionsartefakte treten bei MP3 erfahrungsgemäss ab 128 kbps und tiefer auf. Verursacht werden diese Artefakte entweder durch zu kurze Blockgrössen, die dem Transformationsalgorithmus zugeführt wurden, oder ganz einfach durch eine aggressive Kompression. 96 kbps MP3 zeigt bei rausch-ähnlichen Quellen, wie zum Beispiel Applaus, sehr stark ausgeprägte metallisch-klingende Artefakte. Der wahrgenommene Hochtonanteil ist auch ein solcher Artefakt, welcher durch unterschiedliche Gründe entstanden sein kann. Häufig ist es schlicht ein nicht perfekt an die Quelle angepasstes psychoakustisches Modell. Bei diversen MP3-Encodern kann man dieses Modell anpassen, sowie die Blockgrösse und die obere Frequenzschranke manuell setzen. Dies grenzt aber bald mal an "black magic", wenn man die einzelnen Flags und Einstellungsmöglichkeiten des jeweiligen Encoders nicht genau kennt. Abhängig von den Einstellungen kann ein Encodingprozess auch ziemlich lange dauern, jedoch wirklich respektable Resulate liefern. Dolby Digital ab 35mm Film ist 16 Bit tief, wogegen der PCM Ton eines DC,I soweit ich weiss, 24 Bit tief ist. Zwischen 16 und 24 Bit liegt ein Faktor 256 in den Quantisierung. Jeder 16 Bit Wert wird bei 24 Bit nochmals in 256 weitere, feiner abgestufte Werte unterteilt. 16 Bit hat einen rechnerischen Dynamikumfang von ~96 dB. 24 bit hat ~144 dB. Dies muss jedoch relativiert werden, da die aktuelle Wandlertechnologie keinen Dynamikumfäng von mehr als ca. 120 dB ermöglicht. Dies sehe ich aber nicht als alleinigen Grund dafür - eher die feinere Auflösung durch den Faktor 256 in mehr Quantisierungsstufen. Weiter besteht ein grosser Unterschied zwischen den beiden Formaten, was die Kanalspeicherung anbelangt. PCM hat für jeden Kanal einen eigenen Bitstream, der algorithmisch unabhängig von anderen Kanälen ist. Bei Dolby Digital haben wir ein anderes Verhalten. Hier werden Kanäle nicht diskret verpackt, sondern es werden jeweils zwei Kanäle zusammengezogen (weitere Details kann man dem AC3 Whitepaper entnehmen, sollte man plötzlich seeehr viiiel Freizeit haben). Das grundsätzliche Prinzip des Zusammenziehens zweier Kanäle wird erfolgreich bei MP3 etc. angewendet und nennt sich dort "Joint-Stereo". Ist auf beiden Kanälen das Selbe zu hören, sendet man nur einen Kanal und sagt dem Decoder, dass er diese Informationen auf zwei Kanäle ausgeben soll. Unterhalb einer gewissen Frequenzschranke wird bei AC3 ohnehin pro Kanalpaar ein Summensignal encodiert - vermute unterhalb 80 Hz. Wie das bei Dolby Digital genau funktioniert, habe ich noch nicht bis ins Detail durchgelesen - es hat aber einen ähnlichen Ansatz, jedoch, sofern ich das richtig verstanden habe, im Frequenzspektrum. Dies wäre eine Erklärung für deine vermisste Räumlichkeit, denn es ist nicht unbedingt einfach, aus zusammengezogenen Kanälen wieder exakt das zu reproduzieren, was encodiert wurde, wenn nicht genügend Datenrate oder genügend fein aufgeteilte Frequenzbänder vorhanden sind. Mit dem ganzen Algorithmus, den Dolby Digital anwendet, habe ich mich einfach noch zu wenig genau befasst, um hier noch weitere Überlegungen anzustellen.
-
Natürlich trickst man mit Signalen 'rum, damit man alles überhaupt auf zwei Spuren an den Filmkanten unterbringen kann. SDDS wendet ja die Sony-eigene Kompressionsmethode ATRAC-2 an, welche 2 unabhängige Kanäle (kein Joint-Stereo) mit 292 kbit/s speichern kann (geliehen vom MiniDisc Format ). Ich möchte aber nicht tiefer auf ATRAC eingehen, jedoch ein interessantes Beispiel aus dem Format herausnehmen und das "tricksen" beleuchten: In ATRAC selbst lässt sich die sogenannte "Modifizierte Diskrete Cosinus-Transformation" finden, welche, ganz kurz und grob gesagt, eine Reihe aus N Datenwerten (bei diesem Codec nicht rohe Audiodaten!) auf N/2 Datenwerte reduzieren kann. Mittels der "Inversen Modifizierten Diskreten Cosinus-Transformation" können diese N ursprünglichen Werte wieder aus den reduzierten N/2 Werten gewonnen werden. Schon hier wird Mathematik gekonnt angewandt, um die Datenrate zu reduzieren. Dies ist allerdings immer mit Vorsicht zu geniessen. Man kann sich ein Gedankenbeispiel machen: 512 Werte, einmal Transformieren und es sind 256 Werte. Transformieren wir doch noch ein paar mal und wir landen bei einem einzigen, verbleibenden Wert. Dies funktioniert leider nicht. Genau wie bei der Fourier-Transformation, welche die Verbindung zwischen einem Zeitsignal und dem dazugehörigen Frequenzspektrum herstellt, gibt es bei der Cosinus-Transformation gewisse Einschränkungen, auf die ich hier nicht genauer eingehen möchte - es geht einfach nicht ohne so gut wie alle notwendigen Werte zu verlieren ;-) Wie du siehst, wird bezüglich Tonkomprimierung und Audioverarbeitung viel mit DSPs "getrickst" - obwohl eigentlich nur Mathematik angewendet wird. MP3 verwendet zum Beispiel eine Technologie, welche schwache Frequenzanteile in der Nähe eines starken Anteiles gar nicht erst encodiert, da diese Anteile vom menschlichen Gehör ohnehin nicht wahrgenommen werden können, sofern diese schwachen Anteile nahe genug am starken Anteil liegen. Dies funktioniert mit einer hohen Bitrate auch ganz gut - nur bei tiefen Bitraten hört man dann, dass hier Frequenzanteile einfach weggelassen wurden. Auf dem Frequenzanalyzer sieht man dieses Phänomen jedoch so gut wie immer. Die DSPs (es sind total sieben DSP-Boards im DA10, neben den AC3 Decodern und anderen Datensklaven) sind hier verantwortlich für die Verarbeitung des rohen, digitalisierten Videosignals ab dem Lesegerät. Erste DSPs suchen nach den Ecken, in welchen sich Synchronisationsmuster befinden, und auch das resampling passiert dort, also das Anpassen der Informationen aus dem Videosignal in die Grösse der Datenmatrix eines Dolby-Digital Blockes. Weitere DSPs machen das sogenannte "Threshholding", legen also eine Grenze fest, ab welcher "Helligkeit" ein Bit als logisch "1" oder logisch "0" interpretiert wird. Erst zum schluss wird das aus den Blöcken extrahierte AC3 Datensignal wieder zu einem Audiosignal zurückgewandelt. Dies passiert auf den Transform-Decoder Karten, auf denen sich ebenfalls wieder DSPs befinden. Diese haben nur eine Aufgabe: Daten empfangen, Algorithmus anwenden, Daten weiterleiten an den Digital-Analog-Wandler. Es passiert natürlich noch viel mehr in diesen Kisten (Audioclock, verschiedene Buffer, Error Correction, ...), aber so grundsätzlich vielleicht mal als Antwort auf deine DSP bezogene Frage...
-
Hallo REBEL, Ich bin zwar oft an einem meiner Computer, aber nur weil du eine Frage gestellt hast, unterbreche ich keinen Filmeabend. Antwort folgt morgen irgendwann. Gute Nacht euch allen.
-
==> Fernbedienung ohne Batterien
-
Ein Piezo-Element ist eine Energiequelle, wenn sie verformt wird. Die anliegende Spannung kann dann zur Erzeugung eines kurzen Ultraschallimpulses benutzt werden. Gab auch andere Fernbedienungen, die so ihre Sendeenergie erzeugt haben.
-
Ein Digital Signal Processor (oder DSP) ist keine Wunderwaffe, die aus Scheisse Gold machen kann. Bei SDDS haben sich die Leute hingesetzt und sich Gedanken gemacht, wie man das System aufbauen muss, damit der bekannte Klangeindruck entstehen kann. Bei Dolby hat man sich hingesetzt und überlegt, wie man die Daten so komprimieren kann, damit sie auf die Pefostege passen und wie man daraus wieder ein ordentliches Signal erzeugen kann. Die Verknüpfung "etwas klingt genial gut" und "hat einen DSP drin" stimmt nicht. Mittelwellenradios hatten nie einen DSP drin - klingen verglichen mit CDs bescheiden - aber klingen auch mit etlichen GFlops an DSP Leistung immer noch genau gleich. Was nicht da ist an Klanginformation kann nicht wiederhergestellt werden. Man kann höchstens mit Modellen ein ähnliches Klangbild generieren, welches dem Original sehr nahe kommt (MP3). Zudem ist es nicht der DSP, der diese ganzen Digitalformate etc. ermöglicht, sondern sehr viel geht zurück auf Integraltransformationen, wie zum Beispiel die (diskrete) Fourier-Transformation resp. Fast-Fourier-Transformation (FFT) in der Signalverarbeitung oder die (diskrete) Cosinus-Transformation, die unter anderem beim Bildformat JPEG angewendet wird. Ein DSP ist nichts anderes als ein Rechensklave, welcher extrem schnell, extrem viele (teils parallele) Multiplikationen durchführen kann - viel mehr nicht.
-
Die Firma zweiB aus München hat mobile Projektionen, auch Digital. Link: zweiB
-
Wo ich grad dabei bin auf Facebook ein kleines Album anzulegen über mein Heimkino, dachte ich mir, ich könnte es ja mal hier rein posten Hoffe mal, man kann darauf zugreifen, sonst bitte melden. Mein flauschiger Medienraum.