Magix Video Deluxe Premium Hardwahre erfahrung

Zanbertus schrieb am 19.01.2013 um 20:55 Uhr

Ich habe heraus gefunden wie wichtig die Komponente Grafikkarte  beim videoschnitt ist


Den egal wie schnell der schnellste Prozessor ist oder wie viel GB Arbeitsspeicher man
In den Rechner gestopft hat Trotzdem läuft der Vorschau Modus viel zu langsam oder
Stockt vor allem wen man zwei Videospuren aus zwei Blickwinkel aufgenommen hat
Das hab ich im Forum oft gelesen und muss dabei den Kopf schütteln wen die meisten
Vor allem beider Grafikarte Geld sparen und lieber den besten Prozessor kaufen
Das ist der größte Fehler den man machen kann.

Die Grafikarte ist das wichtigste Werkzeug überhaupt wen man ein Projekt bearbeiten
Will den mit der Karte steuert man den Vorschau Modus für flüssige Wiedergabe
Oder um sauber mit der Tim Line zu arbeiten und zur darstellen von Effekte also Leute
Kauft euch auch immer die beste grafikarte dann macht das Arbeiten mit Projekten
Vor allem in Full HD wieder Spaß.

Ich wollte was dazu schreiben weil ich schon immer gute GPU Grafikarten gekauft
Hatte und niemals Probleme gehabt habe.

Mein System ist nämlich noch ein Sockel  LGA-775 mit Qwuad Core Dou 4x 3.0 GHZ
Creative X-FI Titanium Serie mit Toslink anschluss für Maximalen Sorround Erlebnis
Grafikarte AMD Radeon HD Serie.

Natürlich Mus ich mir ein neuen Sockel kaufen weil die neuen grafikarten nur noch PZi-express 3.0x16
Unterstützen und ich dachte meine mein PZi-express 2.0x16 würde reichen tja Pech gehabt.

Mein neuer Sockel wird auch ein 2011 Model mein Bord hab ich mir schon ausgesucht
von Asus es hat über 6 PZI-express 3.0x16 Steckplätze  und wird 64 GB RAM Speicher unterstützen.

Dan kann ich auch die Grafikgeschwindigkeit der neuen Schnittstelle benutzen.

Oh der Ram Speicher ist auch wichtig weil das geöffnete Projekt ja nicht gespeichert ist sondern im
Rahmspeicher zwischen gespeichert wird wer zu wenig hat muss mit abstürzen rechnen.

Trotzdem sollte man immer ein guten Prozessor Kaufen weil er fürs Encodieren und Decodieren
Des Videomaterials wichtig ist je besser um so weniger Artefakte treten auf vor allem bei Full HD.

Magix Video pro wird nur gebraucht wen man mehr als drei Camcorder Spuren bearbeiten will

Mit Magix Video Deluxe Premium der teuersten Version kann man zwei Camcorder Spuren
Gleichzeitig verwenden.

Oh erst die Teuersten Nvidia Grafikarten ab 500 Euro unterstützen problemlos Full Hd
Und sind auch besonders ausgereift wer also lieber Cuda benutzen will muss mehr bezahlen.

Man muss aber schon Pzi-express 3.0x16 haben.

Kommentare

Zanbertus schrieb am 20.01.2013 um 09:55 Uhr

Nicht schlescht das Thema Grafikarte so zu vertiefen aber wie unten beschrieben stamt meine teschnick auch wen alles gut läuft aus den Mittelalter den mein neues Gehäuse hat nämlich schon USB 3.0 und selbs SATA 3 habe ich nicht.

Und weil sich die Preise von den Intel Mainbords bis auf 50 euro Preis unterschiede Je nach Sokel

kaum unterscheiden war ein Intel Bord von Asus 2011 billiger als der vorgänger Sokel ich rüste nur dan den Rechner komplett neu aus wenn die technick in sachen schnitstelle schon zu alt geworden ist und die neue

Hardwahre past nicht mehr auf mein alten 775 mehr rauf auch wen es noch gut läuft.

Oh ich hab nur noch 64 bit programme Immerhin wird das neue Wunschsystem bestimmt 4 bis 6 Jahre

halten da ich auch ein 8 Kern prozessor verbauen kann in Zukunft.

Und ich bin froh wenn ich dank SATA 3 Schnitstelle in kürzerer zeit über 300 GB Daten Verschieben kann

Während des Videoschnitts habe ich schon auch mein Fehrnsehn an und das Internet den mein PC ist eine

starke Multimedia anwendungsplatform und auch dafür ausgelegt erst als ich mir mal früher den 4 kerner

ZPU geholt hatte konnte ich auch fehlerfrei Blue Rays wiedergeben und  andere Programe nebenbei öffnen.

 

 

Christian_Schueller schrieb am 20.01.2013 um 13:34 Uhr

Also ich kann die Aussagen in Zanbertus Texten nicht nachvollziehen.

Natürlich Mus ich mir ein neuen Sockel kaufen weil die neuen grafikarten nur noch PZi-express 3.0x16
Unterstützen und ich dachte meine mein PZi-express 2.0x16 würde reichen tja Pech gehabt.

Ja es klar, dass bei neuem Prozessor ein neuer Sockel und damit auch Chipsatz fällig ist. Dass neue Grafikkarten allerdings nur P>C<Ie 3.0 unterstützen ist falsch. Da PCIe, egal ob 1.0 / 2.0 / 2.1 / 3.0, sowohl aufwärts als auch abwärts kompatibel ist. Das heißt ich kann eine PCIe 2.0-Grafikkarte in einen PCIe 3.0-Slot stecken und umgekehrt. Gleiches funktioniert natürlich auch mit PCIe 1.0. Dass die Bandbreite (?) eingeschränkt ist und damit die Leistungsfähigkeit der Grafikkarte nicht vollkommen ausgeschöpft werden kann, ist ja irgendwie logisch. Allerdings waage ich zu bezweifeln, dass dies sich in der Videobearbeitung bemerkbar macht. Ich weiß jetzt allerdings nur, wie es sich bei Spielen verhält und da ist eine PCIe 3.0-Grafikkarte in einem PCIe 2.0-Slot nicht langsamer als in einem PCIe 3.0-Slot. Ich lasse mich aber gerne eines besseren belehren. Wenn die neue Grafikkarte also nicht im alten Mainboard funktioniert, dann liegt es micht Sicherheit nicht am Grafikkarten-Slot.

Das hab ich im Forum oft gelesen und muss dabei den Kopf schütteln wen die meisten
Vor allem beider Grafikarte Geld sparen und lieber den besten Prozessor kaufen
Das ist der größte Fehler den man machen kann.

[...]

Die Grafikarte ist das wichtigste Werkzeug überhaupt wen man ein Projekt bearbeiten
Will den mit der Karte steuert man den Vorschau Modus für flüssige Wiedergabe

Oder um sauber mit der Tim Line zu arbeiten und zur darstellen von Effekte also Leute

Hier kann ich wiederum nur den Kopfschütteln, da selbst Intels integrierte Grafikkarte HD2000 aufwärts und selbst alte AMD/ATI und NVidia-Karten ausreichen, um oben genannte Aufgaben zu erfüllen. Zugegeben ich bin noch nicht so sehr eingefuchst und habe sicherlich auch nicht die umfangreichsten Projekte. Aber selbst meine alte HD3870 mit 512MB GDDR4 Speicher reicht vollkommen aus, um eine FullHD-Vorschau zu gewährleisten und um die Zeitleiste zu bearbeiten reicht es alle mal.

Oh erst die Teuersten Nvidia Grafikarten ab 500 Euro unterstützen problemlos Full Hd
Und sind auch besonders ausgereift wer also lieber Cuda benutzen will muss mehr bezahlen.

Falsch. Alle Modelle einer Grafikkartengeneration haben den gleichen "Reifestatus", was Cuda angeht. Lediglich die Anzahl der "Cuda-Cores" variiert von Modell zu modell. Wobei gesagt sei, dass NVidias vorherige Generation (500er-Reihe) was die GPGPU-Leistung angeht mit unter vor der aktuellen 600er-Reihe liegt. Davon abgesehen ist der genannte Preis von 500€ ein schlechter Witz. Nehmen wir mal NVidias beste Grafikkarte her. Das ist die GTX 680, diese stellt den aktuellen Vollausbau dar und wird für Preisen ab 379€ verkauft. Alle Modelle die Leistungsmäßig darüber rangieren und mehr kosten haben lediglich erhöhte Speicher- und GPU-Takte. Die Anzahl der Cuda-Cores bleibt allerdings erhalten, daran ändert sich nichts. Das einzige Modell was noch mehr Leistung als die GTX 680 bietet, ist die GTX 690. Diese kostet allerdings 950€ aufwärts und keine "popeligen" 500€. Die einzig wahre Aussage ist, dass man für die Bearbeitung mit Cuda mehr bezahlen muss, als wenn man mit OpenCL arbeiten will, denn dann kann man auch zu AMD greifen und erhält dort wohl die bessere Leistung bei geringerem Preis.

Und weil sich die Preise von den Intel Mainbords bis auf 50 euro Preis unterschiede Je nach Sokel

kaum unterscheiden war ein Intel Bord von Asus 2011 billiger als der vorgänger Sokel ich rüste nur dan den Rechner komplett neu aus wenn die technick in sachen schnitstelle schon zu alt geworden ist

Die Preise von Intel Mainboard unterscheiden sich nicht nur um 50€ von Sockel zu Sockel. Da spielt viel mehr mit rein. Nimmt man ein billiges Mainboard und kommt damit aus, dann kann man ein Mainboard mit B75-Chipsatz nutzen. Dies bietet 2 Sata6- und mehrere Sata3-Anschlüsse, sowie USB und das ganze Trara. Dafür bezahlt man aber auch nur ca. 50€ - Sockel 1155. Im gegensatz dazu kann man natürlich auch ein Sockel 2011-Board kaufen mit allem Tod und Teufel. Das ist dann, um es mal mit jugendlichen Worten zu sagen, ein "ends-hammer-geiles Über-Killer-Mainboard", kostet dafür aber auch 500€ (Asrock X79 Extreme 9). Aber damit noch nicht genug, ich finde es persönlich eher unsinnig einen neuen PC zu kaufen, weil die Schnittstellen nicht mehr aktuell sind. Wie schon oben erwähnt bringt der Sprung von PCIe 2.0 auf 3.0 nicht so einen großen Vorteil und ähnlich sieht es mit mit den Sata3 und Sata6-Anschlüssen aus, solang keine (!!!) SSD zur Verwendung kommt. In meinen Augen ist es sinnvoller, das System aufzurüsten, wenn die CPU-Leistung nicht mehr ausreicht bzw. als ausreichend angesehen wird.

Kleines Beispiel an mir selbst. Ich nutze aktuell einen Phenom II X4 mit 4x3,2GHz. Dieser braucht für ein FullHD Video mit 15min Länge gute 25-30 Minuten (genaue Zahle habe ich nicht im Kopf). Jetzt besitze ich auch ein Mainboard mit "alten" Schnittstellen. Würde ich mir jetzt ein neues Mainboard kaufen, um wie Sie es vorhaben auf den neusten Schnittstellen-stand zu kommen, würde sich meine Renderzeit bei gleicher CPU kein bisschen ändern. 

Und ich bin froh wenn ich dank SATA 3 Schnitstelle in kürzerer zeit über 300 GB Daten Verschieben kann

Soweit mir bekannt gibt es bei Sockel 2011 Mainboard (Chipsatz X79) keine Sata3-Anschlüsse mehr. Diese werden durch aktuelle Sata6-Anschlüsse (max. 600Mb/s) ersetzt wurden sind - allerdings schon seit längerer Zeit. Aber wie ich oben schon schrieb, solange Sie keine SSD verwenden, was ich mal vermute, bringen die maximal 600mb/s rein garnichts, da eine normale Festplatte meist bei 80-110mb/s liegt. Und diese Übertragungsgeschwindigkeit bringt das erste Sata auch auf die Reihe (150mb/s).

Oh ich hab nur noch 64 bit programme Immerhin wird das neue Wunschsystem bestimmt 4 bis 6 Jahre

halten da ich auch ein 8 Kern prozessor verbauen kann in Zukunft.

Vorsicht vorsicht, kann ich da nur sagen. Denn der Sockel 2011 existiert jetzt schon seit einer Generation, höchst wahrscheinlich werden auch die kommenden Intel Extreme Prozessoren auf Basis von Ivy Bridge noch für diesen Sockel einsetzbar sein. Danach wird allerdings ein Wechsel anstehen. Wie es jetzt auch im Performance-Segment mit Haswell der Fall ist - Grund ist hier unter anderem die in den Prozessor integrierte Spannungsregelung/-versorgung. Und mit Ivy Bridge werden wohl keine 8 Kern Prozessoren kommen, sondern lediglich wieder 6 Kern Prozessoren. Und nein ein Intel i7 3770k ist kein 8 Kern Prozessor. Das ist ein 4 Kern Prozessor mit Multi-Threating, Intel bewirbt das ja auch meines Wissens als 4 Kerne + SMT. Ähnlich hat es AMD mit den FX-Modellen gemacht. Echte 8 Kern Prozessoren gibt es sowohl bei Intels als auch bei AMD nur in der Server-Abteilung. Ob sich ein System für ca. 4000-6000€ (CPUs + Mainboard + RAM) allerdings für eine

starke Multimedia anwendungsplatform

lohnt, darf dann wohl doch stark angezweifelt werden.

Trotzdem sollte man immer ein guten Prozessor Kaufen weil er fürs Encodieren und Decodieren des Videomaterials wichtig ist je besser um so weniger Artefakte treten auf vor allem bei Full HD.

Artefakte? Bitte was? Mein Vater hat bis vor 1 oder 1,5 Jahren mit einem alten AMD Athlon XP 2800 Videos gerendert. Natürlich haben da 1h Videos dann die ganze Nacht und mit unter Teile des nächsten Arbeitstages gedauert. Von Artefakten war allerdings NIE was auf den Ergebnissen zu sehen.

Zusammenfassend möchte ich nochmal sagen, dass es in meinen Augen quatsch ist, dass beim Videorendern die Grafikkarte den höheren Stellenwert einnimmt, als der Prozessor. Denn was nützt bspw. ein i3 mit einer GTX 690, wenn der i3 schonmal nicht alle Instruktionen mitbringt, die in einem i7 / FX-Prozessor / AMD-APU stecken und dieser mit seinen zwei Kernen + SMT einfach "nichts reist". 

Eine Anmerkung noch:
Bitte nicht falsch verstehen, aber ich hatte erhebliche Probleme den Text zu lesen, da Satzzeichen nicht vorhanden und die Formatierung des Textes (Zeilenumbrüche mitten im Satz) grausam war. Davon abgesehen, dass das "Ding" PCI-express und nicht PZI-express heißt und dieses "Hauptding" CPU und nicht ZPU.

Und noch zu Roman Schoen:

Ein Zusammenhang zwischen der CPU und Bildfehlern ist mir nur bei übertakteten oder überhitzten System bekannt. Warum Artefakte bei FHD öfter auftreten sollten, erschliesst sich mir nicht.

Das ist wahrscheinlich so ein "Kann"-Fall. Denn ich rendere mich Videos mit einem Phenom X4 B20, heißt es ist eigentlich ein Phenom II X3 720 BE mit 3x2,8GHz, bei welchem allerdings durchs Mainboard der 4. Kern freigeschaltet wurde und mit dem freien Multiplikator auf 3,2GHz übertaktet ist. Allerdings hatte ich mal ein Video, welches nach dem Rendern bei schnellen Bewegungen Artifakte hatte, bei ruhigen Szenen allerdings keine besaß. Das Originalmaterial war allerdings fehlerfrei.

Muss man nicht. PCI-express 2.0 x 16 reicht für den Videoschnitt mit VDLX derzeit allemal. Ferner gilt es zu beachten: Meines Wissens gibt es noch keine AMD-Boards, die PCI-express 3.0 unterstützen. Das gibt es meines Wissens bisher nur bei Intel-Boards. Aber vielleicht bin ich da nicht mehr up-to-date. Ich lasse mich gern eines besseren belehren. Auch SLI und Crossfire werden von VDLX übrigens nicht genutzt/unterstützt.

Absolut richtig. Es gibt keine PCIe 3.0-Mainboard von AMD, da die aktuellen Performance-Chipsätze (970, 990X und 990 FX) und die neueren Mainstream-Chipsätze (A55, A75 und A85X) eben diesen Standard noch nicht mit bringen. Das liegt vor allem daran, dass es noch keine PCI 3.0 Karten gab, als die Chipsätze auf den Markt gekommen sind. Abhilfe wird da vermutlich erst der neue Chipsatz A95X (für Richland-APUs - Frühjahr/Mitte 2013 wars glaub ich) und die irgendwann 2014 erscheinenden Chipsätze für die FX-Prozessoren auf Steamroller-Basis schaffen.

Wenn weder SLI noch Crossfire genutzt werden, wie sieht es dann mit Grafikkarten wie GTX 590/690 und HD6990/7990 aus? Diese haben ja alles auf der Platine vereint, wird diese dann trotzdem mit der vollen Leistung genutzt?

Zuletzt geändert von Christian_Schueller am 20.01.2013, 13:34, insgesamt 1-mal geändert.

Als Knabe kam ich an und mein Rucksack war leer. Meine Geschichte füllte ihn mit Erfahrungen und Wissen, welches ich nun weitertrage und an die Jugend mit lehrem Gepäck verteilen kann. So dreht sich das Rad der Geschichte unaufhaltsam weiter.

Zanbertus schrieb am 20.01.2013 um 16:15 Uhr

Naja ich bin froh das ich wol noch dank meines Systems ein bissen warten kan und muss mich wol ergeben
vor allem wenn doch der neue aktuelster Sokel kommt und Asus gute Bords zur auswahl hat ja dan werde ich bis zum Sommer warten und hab sogar so viel gespart bis die neuen Prozessoren da sind das ich sofort zuschlagen kann.

Aber hab ich richtig gelesen oder kann ich nicht lesen das die Grafikkarte PZI-express 3.0x16 abwertskompaktibel ist zu PZI-express 2.016 das wusste ich noch nicht.

Zanbertus schrieb am 02.02.2013 um 10:48 Uhr

Ich wollte selber noch mal was zur graffikarte wissen

 

Im Center der AMD Karte steht GPU Taktrate und Speichertaktfrequenz was da von ist eigendlich der

Video-Ramspeicher den während des Rendering ist die Karte unter vollast GPU-775MHZ Frequenz 1000MHZ

Temperatur normale 54 grat.

würde es bedeuten das der Ramspeicher voll ausgelastet ist

 

 

 

HD-Schnittler schrieb am 06.04.2013 um 17:05 Uhr

 


Trugschluss: Wer Cuda/OpenCL für den Export mit VDLX nutzen möchte, sollte gerade nicht auf eine modernste Karte setzen, denn diese werden - sowohl von AMD als auch von Nvidia - noch nicht mit Cuda/OpenCL in VDLX unterstützt (siehe z. B. HIER).

Fazit: Wenn jemand einen neuen Rechner speziell für die Arbeit mit VDLX anschaffen möchte, sollte er/sie mit den MAGIX-Videoschnitt-Rechnern bei Winner PC vergleichen. Die Leute bei MAGIX wissen ja am besten, womit ihr Programm gut arbeitet und was es verlangt.

 

Gilt die mangelnde Unterstützung von Cuda auch für VDLX 2013 Plus, welches ich als Angebot mit Crossgrade-Rabatt von Magix bekam?

Vor einiger Zeit habe ich das Programm Video deluxe 17 Premium HD Sonderedition (mit Vasco da Gama 4 HD Pro (Vollversion) + weitere NewBlue FX Premium Effects) gekauft, aber noch nicht installiert, da ich gerade noch dabei bin, einen Videoschnitt-PC zusammenzustellen, auf dem das Programm dann installiert werden sollte.

Nun bin ich von diesen Aussagen hier irritiert, ob ich überhaupt upgraden soll und wie ich meinen PC zusammenstellen soll.

Ich hatte folgende Hardware geplant:

Asus P8Z77-V Intel Z77 So.1155 Dual Channel DDR3 ATX Retail

Intel Core i7 3770K 4x 3.50GHz So.1155 BOX

be quiet! Shadow Rock TopFlow für Sockel 775/115x/1366/AM3

2048MB Asus GeForce GTX 670 DirectCU II Aktiv PCIe 3.0 x16 (Retail)

32 GB - 4 x 8GB Corsair Vengeance LP Black DDR3-1600 DIMM CL9 Single

128GB Samsung 840 Pro Series 2.5" (6.4cm) SATA 6Gb/s MLC Toggle (MZ-7PD128BW)

256GB Samsung 840 Pro Series 2.5" (6.4cm) SATA 6Gb/s MLC Toggle (MZ-7PD256BW)

2000GB Seagate Barracuda 7200.14 ST2000DM001 64MB 3.5" (8.9cm) SATA 6Gb/s

550 Watt be quiet! Dark Power Pro 10 Modular 80+ Gold

CoolerMaster 690 II Advanced NVIDIA USB 3.0 Midi Tower ohne Netzteil schwarz/gruen

Logitech Corded Desktop MK120 Tastatur+Maus Schwarz Deutsch USB

Microsoft Windows 7 Professional inkl. SP1 64 Bit Deutsch OEM/SB

Kingston Reader USB 3.0 Hi-Speed Media Reader

LG Electronics GH24NS95 DVD-RW SATA 1.5Gb/s intern schwarz Bulk

 

Unter dem obigen Link steht ja nun, dass jemand, der sich eine GTX 670 (gleiche Grafikk. wie bei mir) eingebaut hat, Cuda mit VDLX 2013 nicht nutzen konnte:

"Nach Rückfrage bei unseren Entwicklern ist der derzeitige Stand leider so, dass hardwarebeschleunigte Encodierung bei NVidia Karten mit Kepler Archtiktur nicht unterstützt wird.

Für diese Funktion verwenden wir den Codec der Firma Mainconcept, welcher mit diesen Karten momentan nicht zusammenarbeitet. Sobald wir von Mainconcept eine Version mit der Unterstützung bekommen, werden wir diese auch einbinden können. Leider gibt es aber dafür noch keinen Termin."

Zu den Eigenschaften des Crossgrade: MAGIX Video deluxe 2013 Plus Limited Edition heißt es:

Das Rendering eines Testprojekts (AVCHD Full HD) mit Intel® Quick Sync Video, AMD®/OpenCL™ oder NVIDIA® CUDA™ für das Apple iPad erledigt Video deluxe 2013 Plus jetzt bis zu doppelt so schnell*.

NEU! Nach Aktivierung der Hardwarebeschleunigung wird Ihre Grafikkarte jetzt automatisch von Video deluxe 2013 Plus erkannt.

Mit über 90%* zeigt sich die größte Zeitersparnis bei der Auslagerung der Effektberechnung auf die GPU der Grafikkarte.


NEU! Alle Videoeffekte mit direkter, schneller GPU-Berechnung

Schnelle Effektvorschau: Um ein flüssiges und komfortables Arbeiten zu gewährleisten, greift Video deluxe 2013 Plus bei der Berechnung aller Videoeffekte auf die enorme Rechenleistung moderner Grafikkarten zurück.

Dabei werden die Effekte direkt auf dem Grafikprozessor (GPU) berechnet. Das entlastet die CPU Ihres Rechners und sorgt für eine flüssige Wiedergabe bei der Effektvorschau.

Wird Cuda bei einer GTX 670 nun unterstützt oder nicht?

Was die Winner PCs angeht, hat der 4.6 Ultimate z.B. folgende Konfiguration:

- Intel Core i7-3930K Six Core Prozessor (6 x 3,2 GHz) Sandy Bridge-E
- Enermax Netzteil, Marken-Lüfter
- 32GB DDR3 Markenspeicher
- 2x 2TB SATAIII Festplatte
- 240GB SATAIII Intel SSD
- BluRay-Brenner, Kartenleser, DVI, HDMI, GLAN
- nVidia GeForce GTX 670 OC 2048MB
- USB 3.0
- 10/100/1000 MBit TP-Netzwerkanschluss
- Surround Sound on Board 7.1

Also auch eine GTX 670! Warum wird diese Grafikkarte empfohlen, wenn sie von den Magix Programmen nicht unterstützt wird?

Wie geht Magix video deluxe 17 oder 2013 eigentlich mit den Multi Core Prozessoren um?

 

Ehemaliger User schrieb am 06.04.2013 um 20:08 Uhr

Gilt die mangelnde Unterstützung von Cuda auch für VDLX 2013 Plus, welches ich als Angebot mit Crossgrade-Rabatt von Magix bekam?

Generell gilt bis dato das Nvidia ab der 6er und AMD Karten ab der 7er Serie nicht unterstützt werden. Aber auch ältere Karten von AMD werden trotz einer 6 vorne dran nicht unbedingt unterstützt. Das ist Treiber abhängig. Der Catalyst 12-8 funktioniert zumindest bei mir.

Andererseits würde ich auf Cuda/OCL gar nicht so viel Wert legen. Zum einen ist das encodieren via GPU nachwievor Fehler behaftet (Artefakte) und soooo viel schneller ist es auch nicht. Ich habe eine GTX580...die gegen einen i7@3770 antritt. Der Geschwindigkeitsvorteil ist minimal....und habe Legosteine im Film.

HD-Schnittler schrieb am 07.04.2013 um 18:10 Uhr

 

Gilt die mangelnde Unterstützung von Cuda auch für VDLX 2013 Plus, welches ich als Angebot mit Crossgrade-Rabatt von Magix bekam?

Generell gilt bis dato das Nvidia ab der 6er und AMD Karten ab der 7er Serie nicht unterstützt werden. Aber auch ältere Karten von AMD werden trotz einer 6 vorne dran nicht unbedingt unterstützt. Das ist Treiber abhängig. Der Catalyst 12-8 funktioniert zumindest bei mir.

Andererseits würde ich auf Cuda/OCL gar nicht so viel Wert legen. Zum einen ist das encodieren via GPU nachwievor Fehler behaftet (Artefakte) und soooo viel schneller ist es auch nicht. Ich habe eine GTX580...die gegen einen i7@3770 antritt. Der Geschwindigkeitsvorteil ist minimal....und habe Legosteine im Film.

Hallo Holger,

Wie erklärst Du Dir das mit den "Legosteine"? Kommt das von der GTX 580, wenn Sie beim Encodieren mitbeteiligt wird? Aber es ist doch keine aus der 6er Reihe, die angeblich nicht unterstützt wird und müßte somit anstandslos arbeiten.

Oder liegt es an dem Prozessor? Aber das ist doch ein sehr schneller 4 Kerner, den ich mir auch einbauen wollte (in der k-Version). Wie geht Magix generell mit Multi Core Prozessoren um. Werden alle schön gleichmäßig ausgelastet?

HD-Schnittler schrieb am 07.04.2013 um 20:13 Uhr

 

Wie geht Magix generell mit Multi Core Prozessoren um. Werden alle schön gleichmäßig ausgelastet?

Grundsätzlich ist VDLX multicore-tauglich, allerdings nicht in allen Modulen. So ist MAGIX insbesondere bei Plug-ins auf die Lieferanten angewiesen. Exakte Auskünfte kann dir hier darum niemand geben. Es ist aber bekannt, dass beispielsweise die Mpeg-Engine in moderneren VDLX-Versionen auf Intel-CPU der Sandy-/Ivy-Bridge-Generationen optimiert ist. Mit einer solchen CPU machst du also nichts falsch.

Was sind "modernere" VDLX Versionen?  Ist die 17 HD Premium (meine Version) bzw. die VDLX 2013 dabei?

Ehemaliger User schrieb am 07.04.2013 um 20:16 Uhr

Mit 'modern' ist eher VdL13 und Vpx5 gemeint.