Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Hallo zusammen,

mich juckt die XT-5, bin aber nicht sicher, ob die Rechnerleistung meines 6 Jahre alten PC's für eine 40 Megapixelkamera ausreicht. Anbei die PC-Informationen.

Vielen Dank im Voraus

Wolfgang

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Link zum Beitrag
Auf anderen Seiten teilen

vor 7 Minuten schrieb Gigi Riwa:

Hallo zusammen,

mich juckt die XT-5, bin aber nicht sicher, ob die Rechnerleistung meines 6 Jahre alten PC's für eine 40 Megapixelkamera ausreicht. Anbei die PC-Informationen.

Vielen Dank im Voraus

Wolfgang

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Reicht

Link zum Beitrag
Auf anderen Seiten teilen

Ist alles nur eine Frage der Geschwindigkeit. Ich habe früher meine GFX 100 Bilder auf einem Uralt MacBookPro fertig gemacht. Das hat einfach nur arg gedauert, ging aber ansonsten auch.  Zur Not kann man sich die .jpg - Bilder auch in der Kamera aus den raw Dateien zurechtklöppeln. 

Link zum Beitrag
Auf anderen Seiten teilen

Bearbeitet wird mit LR und PS ?
Mir würd da noch ne GPU fehlen. Würd das ganze bestimmt noch beschleunigen. 
Hab zwar ein recht aktuelles System (5900X, RTX 4070Ti, 64GB), das erstellen der Vorschauen dauert jedoch bei den XH2 Files schon ein bisschen länger, als noch mit der XT4. 
Aber sobald der Katalog sich berappelt hat, alles super. 

bearbeitet von justsomephotosandbeer
Link zum Beitrag
Auf anderen Seiten teilen

Mein inzwischen 7 Jahre alter PC mit fast vergleichbarer Ausstattung (ASUS-Board, i7-6700K CPU 4.00 GHz, 32 GB RAM) läuft auch mit den X-T5-RAWs noch einwandfrei. Ich musste allerdings gerade die GPU austauschen, weil Capture One doch etwas lahm und vor allem instabil wurde. Mit neuer GPU (NVIDIA GeForce RTX2060 12GB) alles fein.

Link zum Beitrag
Auf anderen Seiten teilen

@Gigi Riwa

Nach den Daten, die Du angegeben hast, ist der Rechner grunds. geeignet. Drei Dinge würde ich aber noch checken, um abzuschätzen, ob ein wenig Aufrüstung sinnvoll ist:

1)  Welche Laufwerke sind mit wieviel freiem Speicherplatz verbaut? Schau mal, wieviel MB ein abgespeichertes JPG und die zugehörige RAW-Datei bei der X-T5 durchschnittlich belegen, schätze mal 50-70MB. Das läppert sich zusammen. 

2) Auch etwas trivial: SSD sind u. Umständen erheblich flotter als HDD im Workflow auf dem PC-System. Ich erlebe das gerade selber nach Ersatz einer lahmen HDD mit 5.400U/Min. durch eine SSD in meinem ähnlich 'alten' i-7 System mit ebenfalls 32GB RAM.

3) GPU: Auch wenn ich mich lange anderen Orts im Forum  entspannt auf die Onboard Grafik verlassen habe, so bringt dennoch eine dedizierte Grafikkarte eine Menge Tempogewinn im Workflow mit den Bilddaten.

Ich hab' mich deshalb in diesen Tagen entschieden, den HD4600 Onboard Chip - dasselbe Modell wie in Deinem PC - durch eine Grafikkarte 'zu ersetzen'. Es muss kein hunderte Euro teures Teil sein (was zudem ein eigenes Balkonkraftwerk leersaugt 😄 )

Insgesamt ist Dein Rechner also keineswegs unfähig oder zu alt. Er ist aber durch flexible Anpassung/Aufrüstung leistungsfähiger zu machen.

bearbeitet von X-FEILE
Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

vor 18 Stunden schrieb Gigi Riwa:

ob die Rechnerleistung meines 6 Jahre alten PC's für eine 40 Megapixelkamera ausreicht.

Wie @starend bereits schrieb ist es nur eine Frage der Geschwindigkeit - und deiner Geduld 😁.
Da ich selber seltenst mit RAWs arbeite, hat mir mein alter Rechner mit einer ähnlichen CPU (core-i5-4570), 16GB Arbeitsspeicher und einer Nvidia GX-950 mit 2GB Videospeicher auch ausgereicht, aber ich hatte auch eine 500GB-SATA-SSD als System-Laufwerk eingebaut.
Für größere Datenmengen kam zwar immer noch eine drehende HDD zum Einsatz, aber auch das WOW-Zocken ging damit noch gut.
Da ich meine Fotos alle auf einem NAS ablege, ist da der Flaschenhals zu sehen, zumal vom meinem Notebook aus der Zugriff über WLAN deutlich langsamer ist, als wenn ich direkt am Rechner per LAN-Kabel angebunden die Daten hin und herschaufeln muss.
Wegen der reinen Bildbearbeitung ist bei deinem Rechner also nur deinen Geduld gefordert ;) !
Wenn jedoch dein Betriebssystem von Microsoft nicht mehr supportet wird (
=> der Support für Windows 10 wird am 14. Oktober 2025 eingestellt. ), kannst du nur über Umwege auf Windows-11 wechseln, da dein Chipsatz das TPM-2.0 nicht unterstützt.
Aber dann hast du immer noch gut 2 Jahre Zeit :) ...

P.S.: Auch mein aktueller Rechner und das Notebook laufen weiterhin mit Windows-10, da ich auch beruflich noch keinen Zwang habe, mich in Windows-11 einzuarbeiten - da herrscht noch das Auslaufmodell WIN-10 vor, mit vereinzelten WIN-8.1-Systemen 😁!

Link zum Beitrag
Auf anderen Seiten teilen

Wenn man sich die Grossrechner anschaut - die Rechenleistung kommt zum Grossteil von tausenden Grafikkarten. Warum die Grafikkarten heissen weis ich nicht. Früher waren das Arithmetikchips: 8086 mit 8087. An vielen Grafikkarten hängt gar kein Monitor mehr. Ich habe zwei gekoppelte Grafikkarten (für ein eigenes Programm) aber nur einen Monitor.

Allerdings müssen die Programme auch die Grafikkarten unterstützen sonst bleibt alles an der CPU kleben. Apropos CPU, eine mit Doppelkern mit 3200GHz ist oft besser wie eine Achtkern mit 2400GHz wenn sich ein Algorithmus nicht aufteilen lässt.

Link zum Beitrag
Auf anderen Seiten teilen

vor 13 Stunden schrieb Harlem:

Mein inzwischen 7 Jahre alter PC mit fast vergleichbarer Ausstattung (ASUS-Board, i7-6700K CPU 4.00 GHz, 32 GB RAM) läuft auch mit den X-T5-RAWs noch einwandfrei. Ich musste allerdings gerade die GPU austauschen, weil Capture One doch etwas lahm und vor allem instabil wurde. Mit neuer GPU (NVIDIA GeForce RTX2060 12GB) alles fein.

Mehr wie die Grafikleistung der RTX2060 holt CaptureOne eh nicht aus der Grafiikarte. Ich hatte letztes Jahr erst auf die RTX3070 aufgerüstet um dann feststellen zu müssen, dass sowohl CaptureOne als auch PureRAW nur maximal 30% aus der GraKa rausquetschen. Selbst DaVinci Resolve gönnt sich gerade mal 40% der Maximalleistung. Die meiste Rechenpower kommt immer noch aus der CPU - bei mir ein RYZEN 3700X mit acht Kernen. Das kann man mit dem kostenlosen HWinfo alles prima analysieren.

https://www.hwinfo.com/

Eine RTX3050 müsste vollkommen ausreichend sein. Die braucht nichtmal den größten Kühler oder Over Clocking Fähigkeit. Mehr Rechenpower holt da im Moment kein Programm raus, nicht einmal DaVinci Resolve.

 

bearbeitet von kermit66
Link zum Beitrag
Auf anderen Seiten teilen

19 hours ago, Gigi Riwa said:

mich juckt die XT-5, bin aber nicht sicher, ob die Rechnerleistung meines 6 Jahre alten PC's für eine 40 Megapixelkamera ausreicht

moderne Software nutzt die GPU in der Grafikkarte. Ggf. dort noch mal nachschauen. Der Rest reicht ansonsten

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Minuten schrieb Allradflokati:

Alles eine Frage der Programmierung für die entsprechende CPU, ob es geht, oder halt nicht ;) !

Stimmt! Die aktuellen Programme unterstützen die Mehrkernfähigkeit aber alle, denke ich. Mit einem Kern kann man bei den hohen Auflösungen heute keinen Blumentopf mehr gewinnen.

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb kermit66:

Mehr wie die Grafikleistung der RTX2060 holt CaptureOne eh nicht aus der Grafiikarte.

Deckt sich mit meiner Erfahrung. Auch die RTX2060 wird kaum gefordert. Entscheidend für die Stabilität von C1 scheint mir der Speicher der Grafikkarte zu sein.

Link zum Beitrag
Auf anderen Seiten teilen

vor 20 Minuten schrieb Harlem:

Deckt sich mit meiner Erfahrung. Auch die RTX2060 wird kaum gefordert. Entscheidend für die Stabilität von C1 scheint mir der Speicher der Grafikkarte zu sein.

Ich hatte erwartet, dass deutlich mehr Rechenleistung an die GraKa ausgelagert wird. Meine RTX3070 hat bereits 8GB. Das ist gegenüber dem Hauptspeicher von 32GB natürlich nur ein Viertel. Vielleicht würde die GraKa noch mehr übernehmen, wenn ich 16 statt 8 CPU-Kernen hätte. Für meine aktuellen Bedürfnisse mit der X-T5 reicht meine Konstellation aber vollkommen aus. Zur Not habe ich noch eine Kaffeemaschine. Die lass ich dann parallel warmlaufen 😉

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb kermit66:

Mehr wie die Grafikleistung der RTX2060 holt CaptureOne eh nicht aus der Grafiikarte.

Mir ist noch der Aspekt des Stromverbrauchs wichtig. Die ideale GraKa, die ich suche, bietet einen Performancesprung im Vergleich mit meiner HD4600 Onboardgrafik, kann aber nicht mehr als Bildbearb. benötigt und ist keine Bratpfanne, die den Stromzähler unnötig drehen lässt. Die RTX2060 etwa ist da eigentlich draussen mit ihren >>130 Watt unter Last, wobei klar ist, dass die leistungsfähigsten GRAKAs nochmal grob das Zweieinhalbfache der 2060 verbraten.

Auf der schwierigen Suche bzw. Optimierung ist mir noch die GeForce GT 1030 begegnet, die in einer Variante zudem den Charme hat, 'silent' zu sein. Sie ist rel. veraltet (aus 2017), was für neueres Gedaddel gilt, aber nicht für's Rendern und flottere Thumbnailvoransichten der BB gelten muss. Dem HD4600 scheint sie meilenweit überlegen zu sein.

Link zum Beitrag
Auf anderen Seiten teilen

...wenn es um Performance + Stromverbrauch geht, dann ist man zwangsläufig bei einem Apfel-System und einem M-Prozessor.

Da hat man dann Performance Faktor 1,5 bis Faktor 10 und Stromverbrauch dezimiert. Also wirklich 10% Stromverbrauch gegenüber allen Intel-Systemen.
Ganz zu schweigen von Geräuschentwicklung und Baugröße. Auch diese Sachen werden mal eben um Faktor 5 bis 10 geringer.

Ich weiß nicht wo Intel-basierende Systeme im Jahr 2023 stehen. Aber alles bis vor 2...3 Jahren waren Witznummern im Vergleich zu den ARM-Prozessoren. Ein Intelsystem ist für mich Gedanklich ein Staubsauger, den ich auf dem Tisch stehen habe. Groß, laut, warm und viel mehr außer heiße Luft kam da nicht raus. Und exakt so ein System habe ich auch gerade neben mir stehen. Einen DELL hochleistungs Laptop, der mit einem riiiieeeesigen Akku kaum 90 Minuten läuft und dabei kochend heiße Luft zur Seite raus bläst während man 0-8-15 Office Sachen macht.

Link zum Beitrag
Auf anderen Seiten teilen

vor 24 Minuten schrieb X-FEILE:

Mir ist noch der Aspekt des Stromverbrauchs wichtig.

Bzgl. des Stromverbrauchs ist es eher sinnvoll eine modernere Karte einzusetzen. Die akuellen Karten basieren auf Chips mit kleineren bzw. effizienteren Strukturen. Da schneidet die RTX2060 gar nicht schlecht ab. Die Karte kann bei Volllast zwar mehr verbraten, dafür rechnet sie dann aber auch kürzer. D.h. die Leistung ist höher der Stromverbrauch (Leistung x Zeit) ist hingegen geringer.

https://www.videocardbenchmark.net/power_performance.html

Wenn man Wert auf einen geringen Stromverbrauch legt, würde ich als unterste Grenze eine GTX1050 empfehlen, aber nur mit Einschränkung. Die Karte hat eine TDP von 75W und kommt ohne Zusatzstecker aus. Das passt oft auch noch in PC, die eine Onboard-Grafik habe. Die Karte ist aber schon recht lange auf dem Markt. Ansonsten würde ich eher zur RTX3050 raten. DIe Karte hat deutlich mehr Rechenpower benötigt aber einen Zusatzstecker für die Stromversorung (TDP130W) vom Netzteil.

Für die Auslegung des Netzteils stellt bequiet eine guten Rechner zur Verfügung:

https://www.bequiet.com/en/psucalculator

bearbeitet von kermit66
Link zum Beitrag
Auf anderen Seiten teilen

Ich habe gerade einmal ein paar interessante Karten mit NVIDIA-Chip verglichen. Für die Grafikbearbeitung würde ich aktuell die RTX 3060 präferieren. Die Karte hat ausreichend Rechenpower und bringt 12 GB RAM mit. Die älteren Karten habe auch hier einen Nachteil. Die GT1030 bringt gerade ein 2GB RAM, die GTX1050 4GB.

Vergleich Grafikkarten

Noch ein Vorteil der NVIDIA-Karten gegenüber AMD ist die Bereitstellung eines 10-Bit Treibers. Den findet man unter Studio-Treiber bei NVIDIA.

bearbeitet von kermit66
Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb twinfighter:

...wenn es um Performance + Stromverbrauch geht, dann ist man zwangsläufig bei einem Apfel-System und einem M-Prozessor.

Da hat man dann Performance Faktor 1,5 bis Faktor 10 und Stromverbrauch dezimiert. Also wirklich 10% Stromverbrauch gegenüber allen Intel-Systemen.

Das ist zweifellos beeindruckend. Mit WIN 3.0 über fast alle Generationen bis WIN 10 digital 'großgeworden', ist mir die Umstellung auf Apple zumindest derzeit jedoch zu komplex i.S. v. Geld und Faulheit.

vor einer Stunde schrieb kermit66:

Die akuellen Karten basieren auf Chips mit kleineren bzw. effizienteren Strukturen. Da schneidet die RTX2060 gar nicht schlecht ab.

Ja, darum weiss ich. Und sie bleibt still, wenn sie nicht gefordert wird. Und bietet bis zu 12GB GDDR6. Dahingegen sehe ich wie Du bei der 1030'er mit ihren 2GB den Pferdefuss. Da greift die Onboardgrafik immerhin auf den PC-RAM zu, und das ist 16 mal mehr. Rechnet natürlich ungleich langsamer.

Das Netzteil ist kein Flaschenhals: BeQuiet mit 650W inkl. GraKa-Versorgung. 

Mmmhh, nicht unspannend, das Ganze.

 

Link zum Beitrag
Auf anderen Seiten teilen

Du schreibst ja leider nicht, welche Software du einsetzen möchtest. Mit dem Fuji-Dings, da die Kamera eigentlich als Prozessor nutzt, sicher kein Problem. Aber wenn die Caputure One betreiben willst.. sorry.. nein. Gehe tut es sicher, aber das ist ja dann wirklich der Ablöscher. 

Bis letztes Jahr hatte ich für diesen Zweck ein HP Laptop Spectre mit i7 der Generation 10, nVidia Grafik und 16 GB im Einsatz. War das schon mühsam. Die Lüfter laufend auf Hochtouren. Allein ein Bild wechseln, bis er das wieder gerechnet hat mit der Schärfe. Dann Import, bis der die Vorschaubilder generiert hatte und auch der Export. Dann versuchte er noch die Beschleunig neu zu rechnen.. wieder ewig.. nein, definitiv keine Freude und kein Spass.

Letztes Jahr dann eine Apple Studio in der potentesten 1-Prozessor Version gekauft mit 32 GB Hauptspeicher.. ja ein Unterschied wie Tag und Nacht. Das geht alles so was von fix. Lüfter läuft absolut nie hörbar. So max. Prozessorauslastung mal kurz 50%. Bilder wechseln, merkt man gar nicht. Kein drehendes Rad mehr darüber. Auch Vorschaubilder, geht schneller, wie der Import selber. Null Einschränkungen. Allenfalls lohnt es sich definitiv, hier was neueres und stärkeres anzuschaffen.

Wichtig auch der Bildschirm, da sparen viele auch und benutzen ein Uralt-Ding. Gerade da sollte man auch was anständiges haben, schon zum Beurteilen der Farben und Helligkeit. Für Internet geht ein 100Euro Ding, aber definitiv nicht zum Fotos entwickeln.

bearbeitet von Swisshead
Link zum Beitrag
Auf anderen Seiten teilen

vor 51 Minuten schrieb X-FEILE:

Ja, darum weiss ich. Und sie bleibt still, wenn sie nicht gefordert wird. Und bietet bis zu 12GB GDDR6. Dahingegen sehe ich wie Du bei der 1030'er mit ihren 2GB den Pferdefuss. Da greift die Onboardgrafik immerhin auf den PC-RAM zu, und das ist 16 mal mehr. Rechnet natürlich ungleich langsamer.

Das Netzteil ist kein Flaschenhals: BeQuiet mit 650W inkl. GraKa-Versorgung. 

Die RTX2060 hat nur 6 GB. Nur die RTX3060 hat 12 GB. Die etwas schnellere RTX3060 TI hat wiederum nur max. 8 GB. Daher liegt meine Präfernz auf der RTX3060 (ohne TI)

Was man neben dem Strombedarf nicht außer Acht lassen darf ist der Platzbedarf. Ich hatte mir eine Karte ausgesucht, die mit 2cm Spiel ins Gehäuse passt. Als sie dann da war, störte das Slotblech und ich habe die Karte nur mit Mühe in verpflanzen können. Das sollte man also auch nochmal vor einem Kauf prüfen. Zudem benötigen die dicken Karte mindestens 2 Slots manche auch 2 1/2 oder 3. Desweiteren prüfen ob mindestens PCI-Express 3.0 x 16 vorhanden ist, besser 4.0 x 16.

 

Link zum Beitrag
Auf anderen Seiten teilen

Hallo,

wie bereits gesagt ist der entscheidende Faktor die Geduld beim Bearbeiten und das habe ich eben mal mit folgender Hardware getestet:
AMD Ryzen 7 3700X
GTX 1080
32GB RAM
Windows 11
Bilder auf einer SSD

Vorschauen in Lightroom Rendern, 2 mal 50 Bilder :
X-H2s 50 Bilder: 2:49 bzw. 2:55 min
X-T5 50 Bilder: 4:28 bzw. 4:45 bzw. ~160 %

Das belastet alle 16 Kerne zu 100%

Bilder Verbessern und Superauflösung
X-H2s 7 Sekunden
X-T5 10 Sekunden bzw. ~143 %

Das belastet die Grafikkarte zu 85 %.
Dein alter i7 dürfte grob geschätzt die halbe Leistung vom 3700x haben. Folglich wirst du nochmal doppelt so lange warten und den detailierten Vergleich zwischen der internen Grafik deiner CPU und der 1080 kann man sich vermutlich sparen, da liegen Welten dazwischen.
In Zahlen würde das Rendern von 500 x 26 MP Bildern also ca. 55 Minuten dauern und die gleiche Anzahl an 40 MP BIldern um die 90 Minuten.
Wie wichtig dir das jetzt ist, musst du entscheiden und es hängt vermutlich auch stark von der Anzahl der Bilder ab, die man bearbeitet. Wenn das Geld vorhanden ist, hat man mit einer modernen CPU deutlich mehr Spaß und an eine GT1030 würde ich auch nicht denken. Die war schon beim Release  vor 6 Jahren kaum zu gebrauchen und eine halbwegs aktuelle Mittelklasse GPU sollte es meiner Meinung nach schon sein.

Was mich aber jetzt interessieren würde, wäre ein Vergleich zu den Apple Chips, vielleicht können @Swisshead und @twinfighter auch mal 50 Vorschauen rendern/ ein Bild verbessern und schreiben wie lang es dauert?

Gruß
Stefan

Link zum Beitrag
Auf anderen Seiten teilen

vor 3 Stunden schrieb kermit66:

Die RTX2060 hat nur 6 GB

Es gibt auch 12GB auf der RTX 2060, mal googeln. Sogar unter 300€. Etwa eine ASUS über Kaufland.

vor 3 Stunden schrieb kermit66:

Was man neben dem Strombedarf nicht außer Acht lassen darf ist der Platzbedarf.

Auf jeden Fall! Dafür ist ein sorgsames Ausmessen am geöffneten Gehäuse unverzichtbar. Inkl. Check der Slots und deren Freiheit. Ne Soundkarte auf dem Nachbarslot, die nicht woanders Platz findet, und es ist einstweilen Feierabend mit der Aufrüstung. 

Zudem empfiehlt es sich, sich Gedanken über die Richtung des Luftstroms im Gemenge mit den vorhandenen Gehäuselüftern zu machen. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 11 Stunden schrieb X-FEILE:

Es gibt auch 12GB auf der RTX 2060, mal googeln. Sogar unter 300€. Etwa eine ASUS über Kaufland.

Naja, für den gleichen Preis gibt's 'ne modernere RTX3060 mit 12GB von ASUS. Da ist die Entscheidung einfach.

Link zum Beitrag
Auf anderen Seiten teilen

vor 15 Stunden schrieb StefanTi:

Hallo,

wie bereits gesagt ist der entscheidende Faktor die Geduld beim Bearbeiten und das habe ich eben mal mit folgender Hardware getestet:
AMD Ryzen 7 3700X
GTX 1080
32GB RAM
Windows 11
Bilder auf einer SSD

Vorschauen in Lightroom Rendern, 2 mal 50 Bilder :
X-H2s 50 Bilder: 2:49 bzw. 2:55 min
X-T5 50 Bilder: 4:28 bzw. 4:45 bzw. ~160 %

Das belastet alle 16 Kerne zu 100%

Bilder Verbessern und Superauflösung
X-H2s 7 Sekunden
X-T5 10 Sekunden bzw. ~143 %

Das belastet die Grafikkarte zu 85 %.
Dein alter i7 dürfte grob geschätzt die halbe Leistung vom 3700x haben. Folglich wirst du nochmal doppelt so lange warten und den detailierten Vergleich zwischen der internen Grafik deiner CPU und der 1080 kann man sich vermutlich sparen, da liegen Welten dazwischen.
In Zahlen würde das Rendern von 500 x 26 MP Bildern also ca. 55 Minuten dauern und die gleiche Anzahl an 40 MP BIldern um die 90 Minuten.
Wie wichtig dir das jetzt ist, musst du entscheiden und es hängt vermutlich auch stark von der Anzahl der Bilder ab, die man bearbeitet. Wenn das Geld vorhanden ist, hat man mit einer modernen CPU deutlich mehr Spaß und an eine GT1030 würde ich auch nicht denken. Die war schon beim Release  vor 6 Jahren kaum zu gebrauchen und eine halbwegs aktuelle Mittelklasse GPU sollte es meiner Meinung nach schon sein.

Was mich aber jetzt interessieren würde, wäre ein Vergleich zu den Apple Chips, vielleicht können @Swisshead und @twinfighter auch mal 50 Vorschauen rendern/ ein Bild verbessern und schreiben wie lang es dauert?

Gruß
Stefan

Die Daten sind nicht repräsentativ für die Konfiguration des TO, zeigen aber ganz gut, dass der Rechenzeitzuwachs in etwa proportional der Auflösung der Kamera ist. Somit kann sich jeder selber ausmalen wie lange er oder sie auf die Bearbeitung der Bilder warten muss, sofern man Erfahrungen mit einem älteren Fujifilm-Modell hat. Ich würde einfach ausprobieren ob's mir persönlich zu lange dauert und gegebenenfalls meine Grafikkarte erneuern. Im Vergleich zu einer X-T5 bzw. X-H2 sind die Kosten für die GraKa überschaubar.

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...