Jump to content

benedikt10

Members
  • Posts

    8
  • Joined

  • Last visited

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

  1. Ich hatte bei meiner X-T4 auch Hotpixel, die nur beim Filmen erschienen sind. Bei Fotos gab es keine Problem. Dass die Hotpixel nur beim Filmen erscheinen, liegt vermutlich daran, dass sich der Sensor da viel stĂ€rker erwĂ€rmt. Ich hab dann bei der Fujifilm-Hotline angerufen, die haben gemeint, das dĂŒrfe nicht sein, nur wenn man sehr lange mit einem externen Recorder filmt. Fujifilm meinte, ich solle ihnen die Kamera einfach mal zuschicken. Also hab ich die Kamera eingeschickt. Die Zeit vom Abschicken bis ich ich die Kamera wieder bei mir hatte lag bei unter einer Woche. (Hinsendung+RĂŒcksendung+Reparatur/Wartung). Das ist wirklich spitzenmĂ€ĂŸig. Das Ganze war kostenlos, da es in der Garantiezeit lag. Fujifilm hat einfach den Sensor neu kalibriert und seitdem gibt es keine Probleme mehr mit Hotpixeln.
  2. Hallo Peter, das ist wirklich ein sehr interessantes Video! Nach so etwas habe ich auch schon gesucht aber immer nur Objektivvergleiche anhand von Fotos gefunden.
  3. Freut mich, dass euch die Videos gefallen 🙂
  4. Hier zwei Videos, die zeigen, was man fĂŒr Ergebnisse mit einem DJI RSC2 Gimbal, Manfrotto Fast GimBoom Monopod und einer X-T4 mit, Fujinon XF18-55mm F2.8-4 R LM OIS Objektiv erwarten kann. Der Gimbal ist auf das Monopod geschraubt. IBIS und OIS sind beide jeweils eingeschaltet. Die Zeitrafferaufnahmen sind auf einem Stativ gemacht, die Aufnahmen mit den Tieren im Zoo ohne Gimbal frei Hand mit IBIS Boost Modus und OIS. Ihr könnt mir gerne auf Youtube ein Like dalassen, wenn euch die Videos gefallen. 😉 https://www.youtube.com/channel/UC9Zv74umzwf9bVDmJCGSrhw
  5. Warum bei einem Kameraschwenk bei einer 1/48s langen Belichtungszeit keine 1/48s lange Schmierspur auf dem Video entsteht habe ich noch nicht herausgefunden. Ich habe aber mal die Kameraschwenks von anderen Filmern nachvollzogen. Ich glaube die Regel, dass man nicht schneller als ca. 7 Sekunden fĂŒr einen Kameraschwenk sein darf, stimmt nur so ungefĂ€hr und ist in den meisten FĂ€llen immer noch viel zu schnell. Das Ruckeln hĂ€ngt meiner Beobachtung nach stark von den gefilmten Motiven und sich wĂ€hrend dem Schwenk bildenden Kontrastunterschieden und deren GrĂ¶ĂŸe ab. Wenn man z.B. schnell ĂŒber ein einheitlich weißes Schneefeld schwenkt, wird es kaum ruckeln und nur an den Stellen wo andersfarbige Objekte auf dem Schneefeld stehen. Wenn man aber z.B. einen dunkeln Bereich (z.B. Schatten) schnell in einen hellen Bereich hereinzieht und die sich dadurch Ă€ndernde FlĂ€che sehr groß ist, ruckelt das Video sichtbar. Das kann man gut nachvollziehen, wenn man Teilbereiche des Videos beim Anschauen abdeckt. Ich vermute mal, dass Kameraleute das wissen und die gefilmten Bereiche entsprechend auswĂ€hlen. @mjh Wie der Shutter bei analogen Filmkameras funktioniert, habe ich mir mal bei Youtube angeschaut. Das ist sehr interessant. Bei CMOS Sensoren kenne ich mich bisher praktisch fast nicht aus. Ich muss mal nachlesen wie es genau funktioniert. Wenn ich als Shutter 1/120s in der Kamera einstelle, wĂŒrde der CMOS Sensor dann tatsĂ€chlich 1/120s pro Frame belichten? Kommt die Zeit fĂŒr das Auslesen dann noch oben drauf? Und wird wĂ€hrend des Auslesens nicht belichtet? So weit ich weiß, werden die Bilder ja Zeilenweise ausgelesen. @cashfoto Ich zeichne auf der Kamera inzwischen mit 59,94 fps auf und schneide die Videos in Davinci Resolve in einer 59,94 fps Timeline. Bei dem Beispielvideo waren es 24fps in einer 24fps Timeline. Die Rohvideos von der Kamera weisen genau das gleiche Ruckeln auf. @JĂŒrgen Heger Wegen dem Shutter: Bei der A/D und D/A Wandlung gilt immer das Abtasttheorem. Bei der Aufzeichnung eines Films mit einer Kamera und anschließender Wiedergabe auf einem Fernseher wĂŒrde der Signalverarbeitungspfad ungefĂ€hr so aussehen: Tiefpass(Shutter in Kamera) -> A/D Wandler (CMOS Sensor) -> digitale Speicherung -> D/A Wandler (LCD) -> Rekonstruktionstiefpass (Zwischenbildberechnung auf Fernseher) -> menschliches Auge (Tiefpassverhalten) (Statt der Zwischenbildberechnung auf einem Fernseher wurde bei analogen Kinoprojektoren frĂŒher öfters die Doppelprojektion eingesetzt. (Dabei wurde innerhalb eines Zeitfensters von 1/24 s das Bild zweimal kurz gezeigt und zwischen den Bildern jeweils abgedunkelt.) Der Shutter in der Kamera wirkt wie ein Tiefpassfilter. Die unterste Grafik auf der Seite https://tessive.com/time-filter-technical-explanation zeigt die Übertragungsfunktion eines 180° Shutters und 360° Shutters im Vergleich (f(x)=sin(x)/x). Der Shutter sollte bei 24fps idealerweise Frequenzen von ĂŒber 12Hertz herausfiltern, damit das Abtasttheorem bei der A/D Wandlung (CMOS Sensor) in der Kamera nicht verletzt wird. (Bei "analogen" Filmen gilt das Gleiche, da sie auch zeitdiskret(digital) sind) Subjektiv verwischt durch die Tiefpassfilterung des Shutters das Bild und es entsteht Motion Blur. Das Base Band Signal (grĂŒne FlĂ€che) in der Grafik ist das Videosignal, das Aliasing Band (rote FlĂ€che) ist ein hochfrequentes Störsignal, was sich durch die mangelnde Tiefpassfilterung vor der A/D Wandlung ĂŒber das Videosignal legt und das Ruckeln oder z.B. rĂŒckwĂ€rtsdrehende Reifen verursacht. Man sollte also möglichst viel von dem Aliasing Band herausfiltern. Wie man der Grafik entnehmen kann, weist ein 360° Shutter (grĂŒne Linie) eine deutlich höhere DĂ€mpfung im Aliasing Band auf, als ein 180° Shutter (blaue Linie), da die Übertragungsfunktion schneller abfĂ€llt. Der 360° Shutter filtert jedoch auch deutlich mehr Leistung (Watt) des Videosignals heraus als ein 180° Shutter, was schlecht ist. Der ideale Shutterwinkel weißt das höchste VerhĂ€ltnis der Leistungen (Watt) von Videosignal/Aliasingsignal auf. Es ist also vielmehr eine mathematische Optimierungsaufgabe als der Glaube an den idealen Shutterwinkel. (Ich habe es nicht nachgerechnet, vielleicht setze ich mich mal hin und mache es. Vermutlich kommt dabei 180° heraus) (Falls sich jemand fĂŒr die mathematische Theorie interessiert, kann ich ISBN 9783835101760 (EinfĂŒhrung in die Systemtheorie) empfehlen, das die mathematischen Grundlagen der digitalen Signalverarbeitung behandelt.)
  6. @JĂŒrgen Heger Hallo JĂŒrgen, ich verwende jetzt inzwischen eigentlich immer 4k60p zum filmen. Ich habe auch schon von diverseren Leuten gehört, dass der Filmlook verloren ginge und es hyperrealistisch aussehen wĂŒrde, wenn man mit 60p filmt. Auf das Ruckeln kann ich komplett verzichten. Ist aber vielleicht Geschmackssache 🙂 Das ist aber tatsĂ€chlich so, wenn man die Kamera wild hin- und herschĂŒttelt, sieht es bei 60p fast so aus, als wĂŒrde man live durch eine Fensterscheibe gucken. Man muss das aber nicht unbedingt tun. Ich habe mir noch einen Ronin RSC2 Gimbal gekauft. Wenn man auf dem Gimbal mit der X-T4 bei 60p mit Bildstabilisator filmt und dabei langsame Kamera Bewegungen macht, sieht es mit 60p ziemlich kinomĂ€ĂŸig aus. Das war eine gute Idee mit einem Smartphone bei 24p zu filmen und einen Vergleich zur X-T4 durchzufĂŒhren. Leider kann man bei meinem Smartphone in der Video-App weder Framerate noch Shutter einstellen. DafĂŒr habe ich es auf meiner DJI Osmo Action getestet, wo ich bisher immer mit 60p gefilmt hatte. Da tritt bei 24p und 1/50 Verschlusszeit genau das selbe Ruckeln auf. (1/48 ist nicht einstellbar) Was das nun bedeutet weiß ich nicht. 😀 Ich hab mich auch schon gefragt, warum das analoge Fernsehen frĂŒher nicht geruckelt hat, aber stimmt es waren ja 50 Halbbilder. Wahrscheinlich hatte Peter Jackson von den 24p auch genug 😄
  7. Hallo Peter, vielen Dank fĂŒr deine Antwort. Die Vergleichvideos mit den Kameraschwenks, die du mit der X-T3 bei jeweils unterschiedlichen Frameraten aufgenommen hast, waren sehr hilfreich. Genau das hatte ich gesucht, da mich interessiert hat, ob sich die Kamera bei anderen Leuten auch so verhĂ€lt oder ob ich etwas falsch eingestellt habe. Die X-T3 ist ja in Bezug auf Videoaufnahmen ziemlich Ă€hnlich zur X-T4. Bei mir sehen die Ruckler bei der X-T4 bei den jeweiligen Frameraten ziemlich identisch aus. Bei 29,97fps ist weniger Ruckeln zu sehen, bei 59,94 fps zeichnet die Kamera Video bei mir auch absolut flĂŒssig auf. Wenn ich mir die Einzelbilder anschaue, bezweifle ich irgendwie, dass die Kamera diese wirklich mit der vorgegebenen Zeit belichtet, sondern stattdessen kĂŒrzer. Vielleicht kann ich ja mal bei Fuji nachhaken 🙂 Ich muss nicht unbedingt mit 24p aufnehmen, da war nur das Ruckeln besonders gut sichtbar 🙂. Ich bin mir eigentlich noch etwas unschlĂŒssig, mit wieviel fps ich aufnehmen soll. Aufnahmen bei 24fps oder 30 fps haben den Vorteil, dass der ganzen Sensor verwendet kann (wobei ich eigentlich nicht so wirklich Low Light Aufnahmen machen will). DafĂŒr hat man jedoch viel BewegungsunschĂ€rfe in den Einzelbildern. Bei 59,94 fps hat man halt einen Crop von 1,18 gegenĂŒber APC-C, was jetzt auch nicht so schlimm ist. DafĂŒr sind die Einzelbilder deutlich schĂ€rfer. (z.B. fĂŒr nachtrĂ€gliche PapierabzĂŒge) Auf meinem noch relativ neuen PC (Core i9, 12 Kerne, Geforce RTX 2070 Super) habe ich auch keine grĂ¶ĂŸeren Probleme Videos in 4k 60fps zu schneiden, funktioniert auch mit h.264. Ich tendiere daher zu 59,94 fps. Auf 24fps reduzieren kann man das 59,94 fps Video dann spĂ€ter immer noch, wenn man es in einer genĂŒgend hohen Bitrate abspeichert.
  8. Hallo zusammen, bei meiner Fujifilm X-T4 ruckeln 24p Videos leider stark. Der Shutter ist auf 1/48s (180° Regel) eingestellt, IBIS/OBIS an, Boost Mode ist ausgeschaltet. Vielleicht könnt ihr mir weiterhelfen und ich habe die Kamera falsch eingestellt. Unten gibt es noch ein Beispielvideo mit dem ruckelnden Video. mathematisch verhĂ€lt es sich ja so: GemĂ€ĂŸ Nyquist-Shannon-Abtasttheorem sind fĂŒr das Ruckeln bei Videos ja Aliasing Fehler (in zeitlicher Ausdehnung) verantwortlich, die sowohl bei der Abtastung des (Video-)Signals in der Kamera, als auch bei der Rekonstruktion des Signals auf dem AbspielgerĂ€t entstehen. Beide Aliasingfehlerquellen addieren sich. Ein Video mit 24fps kann Frequenzen bis zur HĂ€lfte des Abtastfrequenz, also maximal 12Hz aufzeichnen (das bedeutet die Helligkeit jedes Pixels darf mit maximal 12Hz sinusförmig zwischen zwei Helligkeitsleveln hin und her wechseln) Bei höheren Frequenzen als 12 Hz wird das Abtasttheorem verletzt und die höheren Frequenzen machen sich als Aliasing Fehler in Form von Ruckeln im Video bemerkbar. Um höhere Frequenzen als 12 Hz vor der Abtastung herauszufiltern und damit die Aliasing Fehler/das Ruckeln zu reduzieren, kann der Shutter und damit die Aperturfunktion des AD Wandlers angepasst werden (180° Regel). (siehe https://tessive.com/time-filter-technical-explanation Bild am Seitenende) Auf dem AbspielgerĂ€t (Fernseher) können Zwischenbilder berechnet werden und somit kann das durch die DA Wandlung entstehende Aliasing Band in einen nicht sichtbaren Bereich verschoben werden. Bei PCs gibt es ja gewöhnlich noch zusĂ€tzliche Probleme, da sich diese nicht an die Frequenz des Videos anpassen und ohne Zusatzsoftware auch keine Zwischenbilder berechnen. soweit die langweilige mathematische Theorie. 😉 Jetzt mal ganz praktisch betrachtet. Ich habe folgendes Video mit einem Kameraschwenk aufgenommen und bei Youtube hochgeladen: https://www.youtube.com/watch?v=e0bQhMbGODs Wenn man sich die Einzelbilder des Videos anschaut und das Video auch mit anderen 24p Videos auf Youtube vergleicht, sieht man dass die Einzelbilder meiner X-T4 Aufnahme zu wenig Motion Blur aufweisen. Eine Belichtungszeit von 1/48s bei 24p wĂŒrde doch bedeuten, dass wenn sich ein Zweig eines Baumes bei einem Schwenk um 1cm zwischen zwei Frames weiterbewegt, dass er dann um 0,5 cm auf einem Bild verschmiert sein muss. Das ist nicht der Fall. Ich frage mich woran das liegt und ob ich in der Kamera etwas falsch eingestellt habe. Kennt ihr das Problem und hat jemand vielleicht eine Lösung?
×
×
  • Create New...