AMD Ryzen: Bremsen Nvidia-GPUs die Performance?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMD Ryzen: Bremsen Nvidia-GPUs die Performance?

Vereinzelte Tests wollten Ryzen-CPUs eine bessere Performance bescheinigen, wenn sie mit einer Radeon-, statt einer Geforce-Grafikkarte gepaart werden. PC Games Hardware konnte dazu in Stichproben keine Ungereimtheiten feststellen. Die Webseite techspot.com hat sich das Ganze etwas genauer angesehen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: AMD Ryzen: Bremsen Nvidia-GPUs die Performance?
 
Könnte man solch ein Problem ganz Simpel umgehen?

was wäre wenn man in einer 3DMark Test den Ryzen einmal mit NVIDIA GPU und einmal mit AMD GPU antreten lässt.
Beim Ergebnis könnte man ja einfach nur auf den CPU Score sehen.

wäre das nicht am einfachsten? Oder übersehe ich da was
 
Ich habe darüber schon ein paar mal gelesen, aber den Ansatz hier verstehe ich nicht...
Wer soll sich denn ausgedacht haben, dass eine von den midrange AMD Karten mit den großen von Nvidia mithalten kann?
Ich hatte das bisher immer so verstanden, dass in Relation zu einem Intel Prozessor die Leistung höher ausfällt. Also so (Beispiele & Fantasie Zahlen!)
i7 + gtx1080 (720p) = 100 fps
r7 + gtx1080 (720p) = 80 fps
i7 + r9nano (720p) = 100 fps
r7 + r9nano (720p) = 95 fps
 
Den Normalo User wird es wohl kaum auffallen, aber für die Tuner und Bastler könnte es ärgerlich werden, wenn es so stimmt. Mir kommt es nur darauf an, dass ich alles flüssig auf hohen Einstellungen spielen kann. Man sollte auch immer noch bedenken, dass Ryzen neu ist und neben den Treiber und Betriebssystemen auch noch die BIOS ein paar Optimierungen brauchen. Wenn Ryzen 3,5 und 7 vollständig auf dem Markt sind, die Palette an Boards deutlich größer ist und in ein paar Monaten dann auch Software seitig die Optimierungen abgeschlossen sind, kann man weiter schauen.
 
Könnte man solch ein Problem ganz Simpel umgehen?

was wäre wenn man in einer 3DMark Test den Ryzen einmal mit NVIDIA GPU und einmal mit AMD GPU antreten lässt.
Beim Ergebnis könnte man ja einfach nur auf den CPU Score sehen.

wäre das nicht am einfachsten? Oder übersehe ich da was

Das wird so nicht funktionieren, dass Ergebnis wäre innerhalb der Messtoleranz gleich, wenn du nur die CPU Punkte betrachtest.
Das Problem liegt wohl beim Füttern der GPU mit Daten, was von der CPU abhängig ist.
Um deine Idee weiter zu führen, müsste man sich die GPU Punktzahl im TimeSpy Benchmark (DX12) einmal mit Ryzen und einmal mit Intel CPU anschauen.
Paradebeispiel war wohl Tomb Raider in DX12, was den meisten Unterschied gezeigt hat.

Ich habe darüber schon ein paar mal gelesen, aber den Ansatz hier verstehe ich nicht...
Wer soll sich denn ausgedacht haben, dass eine von den midrange AMD Karten mit den großen von Nvidia mithalten kann?
Ich hatte das bisher immer so verstanden, dass in Relation zu einem Intel Prozessor die Leistung höher ausfällt. Also so (Beispiele & Fantasie Zahlen!)
i7 + gtx1080 (720p) = 100 fps
r7 + gtx1080 (720p) = 80 fps
i7 + r9nano (720p) = 100 fps
r7 + r9nano (720p) = 95 fps

So hatte ich das auch schon gelesen, aber wie im PCGH Artikel steht, ist das wohl nur unter DX12 so.
 
Im 3dc-Forum wurde das Thema schon ausführlich diskutiert. Der DX12-Treiber von NVIDIA scheint noch Probleme mit Ryzen zu haben. Schaut man sich die Tests derjenigen Spiele an, die sowohl in DX11 als auch in DX12 getetset wurden, so zeigt sich dieses Problem:

Während die 1060 mit dem i7 beim Vergleich kaum Auffälligkeiten zeigt (keine Änderung oder Zuwachs), fällt die Leistung meist mit dem Ryzen (bzw. bleibt gleich wo mit i7 Zuwächse zu sehen sind).

Nun könnte man ja sagen, dass dies ein Problem von Ryzen ist. Allerdings zeigt die RX480 mit Ryzen solche Probleme mit DX12 eben nicht, sie profitiert mit beiden CPUs in fast allen Fällen deutlich von DX12. Daher bleibt nur die 1060 bzw. ihr Treiber als Verursacher.
 
PCGH Online, ihr seid mit euerer Testparcour-Überprüfung bzw. der News ja auch mehr oder weniger, zumindest aber so halb am eigentlichen Kernthema (Ryzen in Kombination mit DX12-Renderpfad und Nvidia-Graka/Treiber) vorbeigeschlittert. Ich habe zumindest noch nicht die These, dass Ryzen unter DX11-Titeln/Renderpfaden oder generell von Nvidia-GPUs ausgebremst wird, ausfindig machen können.

Edit:
...trotzdem ist dort die GTX 1060 mit DX11 (248 Fps) schneller als die RX 480 mit DX12 (220 Fps).

Was zwar irrelevant für das eigentliche Kernthema ist, aber gleichzeitig wie eine Relativierung des Hautproblems wirkt (auch wenns vielleicht nicht so gemeint war).


Mit Ashes of the Singularity gibt es wiederum auch einen Titel, wo Geforce-GPUs unter DX12 nicht einbrechen.

Das Spiel scheint sich allmählich als eine der wenigen DX12-Positivausnahmen für Nvidia herauszukristallisieren, vielleicht weil Nvidia aufgrund der Offenheitspolitik des Entwicklers mehr Optimierungsmöglichkeitenn hatte (z.B. 1-jährige Sichtung des Soure-Codes und Einbringung Nvidia-eigener Shader) als bei anderen DX12-Titeln.
 
Zuletzt bearbeitet von einem Moderator:
Im Neusten DX12 Game -Sniper Elite 4- brechen die Nvidias doch auch nicht ein.
Kepler/Maxwell/Pascal gewinnen gegenüber DX11 sogar Fps dazu.
 
Das Thema wird sich erst dann wirklich klären lassen, wenn es auch von AMD GPUs gibt, welche die Ryzen CPUs nicht mehr ausbremsen. Ich glaube kaum, dass jemand eine R7 CPU auf Dauer mit einer Mittelklasse-GPU verwenden wird. Darüberhinaus sollten zu diesem Zeitpunkt auch eventuelle Kinderkrankheiten der Ryzenplattform behoben sein.

Abwarten und Tee trinken.
 
Ernsthaft PCGH?
Ihr habt vollkommen die Kernargumentation verfehlt.

Vor allem wurde das GPU-Bottleneck von Jim (Adored TV) mithilfe von zwei RX480 im Crossfire relativ stark ausgehebelt (verglichen wurde mit einer manuell übertakteten GTX1070 die etwa GTX1080-Niveau erreichen dürfte, was laut vielen Tests äquivalent zu zwei RX480 sein sollte).
Dabei kam heraus, dass das Crossfire Gespann auf Ryzen teils massiv schneller lief als die übertaktete GTX1070. Das waren fps/frametimes auf Titan X (Pascal) Niveau!
Die 2 RX480 waren hier nicht einfach besonders schnell, sondern die nVidia Karte überraschend langsam auf Ryzen.

Wo ich zudem diesen gerne zitierten Einzeiler wieder sehe: der nVidia-Treiber hat nachweislich nicht (!) einen geringeren Overhead. Er verteilt ihn lediglich unter DX11 besser auf verschiedene Threads dank einem Server-Prozess der die Drawcall-Vorbereitung auf einzelne Threads auslagert und dann gebündelt (command queue) an die GPU übergibt. Bei nVidia wird dafür ein sehr stark für viele Engines angepasster Software Scheduler verwendet.
Darum kann AMD dies auch nicht ähnlich nachbauen, da die nötige Command Queue Größe zu gering auf GCN-Chips (Polaris hat hier tatsächlich eine etwas größere erhalten) ist, verglichen mit post-Fermi-Chips von nVidia. Zudem nutzt AMD einen Hardware Scheduler (welchen nVidia nach Fermi aufgegeben hat).
Eben jener Hardware Scheduler profitiert von der Multithread-Implementierung in DX12 und sorgt dadurch für einen MASSIV geringeren Driveroverhead verglichen mit nVidia.

In DirectX11 ist das ganze etwas komplizierter. Man sieht ja zuletzt immer mehr Spiele, bei denen AMD-Karten wesentlich besser rennen als erwartet. Dies liegt nicht daran, dass man, wie mit Gameworks, spezielle Architekturschwächen des Konkurrenten ausnutzt, sondern das Threadverhalten der Engine anpasst um dem Single-Thread-Treiber von AMD entgegen zu kommen. Dabei wird dann der GPU-Thread möglichst wenig belastet und so viel wie möglich auf andere Threads/Kerne ausgelagert. Je nachdem wie aggresiv dies gestaltet wird kann der nVidia-Treiber hier aber (weiterhin relativ wenig) Performance verlieren, da der Treiber darauf ausgelegt ist die Last möglichst auf viele Threads zu verteilen, die potenziell jetzt aber für andere Zwecke schon stark ausgelastet werden. Hätten wir besser verteilte Marktanteile wäre dies auch eher die Regel, als die in den "The Way It's Meant To Be Played" Titeln, die absichtlich auch den initialen GPU-Thread vollstopfen.

tl;dr: Wer im absoluten GPU-limit testet wird natürlich vollkommen andere Ergebnisse sehen, als jemand der tatsächlich mit ordentlich Grafikleistung testet.
tl;dr2: Höherer AMD-Treiber-Overhead ist ein Hoax und hängt lediglich von der Thread-Implementierung in der Engine ab.

Eine hervorragende Quelle, wer mir nicht glauben mag: AMD vs NV Drivers: A Brief History and Understanding Scheduling & CPU Overhead - YouTube
 
Im Neusten DX12 Game -Sniper Elite 4- brechen die Nvidias doch auch nicht ein.
Kepler/Maxwell/Pascal gewinnen gegenüber DX11 sogar Fps dazu.

Um beim Thema zu bleiben, ich würde ja gerne Ryzen-Benchmarks dazu sehen. Kennst du welche und kannst sie ggf. verlinken?
 
Außerhalb der deutschen Presse findest du überall dazu die Benchmarks. Google reicht. Sind mittlerweile ziemlich viele.

Ich zitiere einfach mal ausm 3D Center, wo auch PCGH fleißig mit liest und ganz genau weiß, wo das Kernproblem steckt, hier im Artikel kurioserweise nicht mehr :daumen2::daumen2:

Neue Tests zur Problematik der NVIDIA-Treiber. Does Ryzen Perform Better with AMD GPUs? - TechSpot

Besonders interessant finde ich die Spiele mit Vergleich DX11 vs. DX12:

Vergleich der Kombis i7-7700K/R1800X mit GTX 1060/RX 480

RotTR: von DX11 auf DX12 werden alle Kombis schneller bis auf R7/1060, die wird leicht langsamer, RX480 gewinnt deutlich mit beiden CPUs

TW:Warhammer: 1060 verliert mit DX12, mit R7 aber deutlich mehr als mit i7, RX 480 gewinnt mit beiden CPUs

The Division: 1060 bleibt auf DX11-Niveau (+4 fps mit i7, -2 mit R7), RX480 legt deutlich zu, ist dann auch mit R7 so schnell wie mit i7 und schneller als 1060/R7

Deus Ex:MD: beim Wechsel auf DX12 verliert nur die Kombo R7/1060, andere bleiben gleich




Also hier im Forum ging es ja speziell um den DX12-Treiber von NVIDIA, und da wo der Vergleich möglich ist, zeigt jeder Test, dass die 1060 mit Ryzen durch DX12 verliert/nicht profitiert, während die 1060 mit i7 bzw. die RX480 mit beiden CPUs gewinnt bzw. deutlich weniger verliert.
3DCenter Forum - AMD - RYZEN (Summit Ridge): Review Thread - Seite 215
 
Ernsthaft PCGH?
Ihr habt vollkommen die Kernargumentation verfehlt......


So langsam fällt es wirklich schwer zu glauben, dass PCGH die Marktführer nicht absichtlich bevorzugt.
Klar kann jeder Fehler machen. Wenn diese Fehler/Schlampigkeiten aber ständig den gleichen zugutekommen ist wohl was faul.

enero
 
ihr könnt machen was ihr wollt. Ihr könnt Ryzen nicht töten :D


PCGH hat eine art an sich? (Zurückhaltend zu Ryzen) Was auf einer seite okay ist. Dennoch kommt es mir Komisch vor. Andere Quellen machen es anders.

Der Artikel ist Fragewürdig.
 
Außerhalb der deutschen Presse findest du überall dazu die Benchmarks. Google reicht. Sind mittlerweile ziemlich viele.

Ich meinte speziell Benches von Sniper Elite 4 (DX12) mit Ryzen + Nvidia, sonst würde DaHell63s Posting keinerlei Bezug zum Problem/Thema haben ;)
 
Ernsthaft PCGH?
Ihr habt vollkommen die Kernargumentation verfehlt.

Vor allem wurde das GPU-Bottleneck von Jim (Adored TV) mithilfe von zwei RX480 im Crossfire relativ stark ausgehebelt (verglichen wurde mit einer manuell übertakteten GTX1070 die etwa GTX1080-Niveau erreichen dürfte, was laut vielen Tests äquivalent zu zwei RX480 sein sollte).
Dabei kam heraus, dass das Crossfire Gespann auf Ryzen teils massiv schneller lief als die übertaktete GTX1070. Das waren fps/frametimes auf Titan X (Pascal) Niveau!
Die 2 RX480 waren hier nicht einfach besonders schnell, sondern die nVidia Karte überraschend langsam auf Ryzen.

Wo ich zudem diesen gerne zitierten Einzeiler wieder sehe: der nVidia-Treiber hat nachweislich nicht (!) einen geringeren Overhead. Er verteilt ihn lediglich unter DX11 besser auf verschiedene Threads dank einem Server-Prozess der die Drawcall-Vorbereitung auf einzelne Threads auslagert und dann gebündelt (command queue) an die GPU übergibt. Bei nVidia wird dafür ein sehr stark für viele Engines angepasster Software Scheduler verwendet.
Darum kann AMD dies auch nicht ähnlich nachbauen, da die nötige Command Queue Größe zu gering auf GCN-Chips (Polaris hat hier tatsächlich eine etwas größere erhalten) ist, verglichen mit post-Fermi-Chips von nVidia. Zudem nutzt AMD einen Hardware Scheduler (welchen nVidia nach Fermi aufgegeben hat).
Eben jener Hardware Scheduler profitiert von der Multithread-Implementierung in DX12 und sorgt dadurch für einen MASSIV geringeren Driveroverhead verglichen mit nVidia.

In DirectX11 ist das ganze etwas komplizierter. Man sieht ja zuletzt immer mehr Spiele, bei denen AMD-Karten wesentlich besser rennen als erwartet. Dies liegt nicht daran, dass man, wie mit Gameworks, spezielle Architekturschwächen des Konkurrenten ausnutzt, sondern das Threadverhalten der Engine anpasst um dem Single-Thread-Treiber von AMD entgegen zu kommen. Dabei wird dann der GPU-Thread möglichst wenig belastet und so viel wie möglich auf andere Threads/Kerne ausgelagert. Je nachdem wie aggresiv dies gestaltet wird kann der nVidia-Treiber hier aber (weiterhin relativ wenig) Performance verlieren, da der Treiber darauf ausgelegt ist die Last möglichst auf viele Threads zu verteilen, die potenziell jetzt aber für andere Zwecke schon stark ausgelastet werden. Hätten wir besser verteilte Marktanteile wäre dies auch eher die Regel, als die in den "The Way It's Meant To Be Played" Titeln, die absichtlich auch den initialen GPU-Thread vollstopfen.

tl;dr: Wer im absoluten GPU-limit testet wird natürlich vollkommen andere Ergebnisse sehen, als jemand der tatsächlich mit ordentlich Grafikleistung testet.
tl;dr2: Höherer AMD-Treiber-Overhead ist ein Hoax und hängt lediglich von der Thread-Implementierung in der Engine ab.

Eine hervorragende Quelle, wer mir nicht glauben mag: AMD vs NV Drivers: A Brief History and Understanding Scheduling & CPU Overhead - YouTube

The fu!?!?
Ernsthaft - PCGH hat heir den punkt zwar verfehlt - aber deine Asusage geht ja sogar noch weiter an der Realität vorbei.
Das problem ist so ziemlich das exakte Gegnteil dessen was du hier daherschwafelst.

GCN ist besser geignet um Graphic und Compute-Queue gleichzeitig abzuarbeiten.
hardware scheduler haben BEIDE - anders geht das auch nicht, wobei hier sich die Ansätze unterscheiden:
gcn hat den scheduler und dann 8x Asyncronouse Compute Engine - die nichts anderes als scheduler sind.
Bei nvidia sieht es nicht anders aus - GigaThreadEngine am Frontend, WarpScheduler bei den StreamingMultiprocessor.

Nvidia erledigt einieges mehr im treiber - umordnen von threads und optimieren von Befehlen - was zu einer sehr hohen GPU-Ausnutzung führt. hier sortieren zuerst alle cores vor, dann muss alles wieder zu einem Core zurück und an die GPU gesendet werden.
da war doch noch so was kleines bei Ryzen - ach ja, das InfinityFabric zwischen den CCX sitzt und oft ein deutliches Bottleneck darstellt.
Es ist also nciht das nvidia AMD ausbremst sondern umgekehrt. Wenn das iF nicht so lahm wäre, würde AMD wahrscheinlich sogar besserbei Nvidia abschneiden als Intel.

Dazu kommt dann noch das das was das best-case Szenario für AMD ist (schön viele kleine befehle, Compute und Graphic gemischt damit alles immer gefüllt ist) das Worstcase für nvidia ist - und umgekehrt.
Der Driver-overhead in Dx12 ist sowohl bei AMD als auch bei Nvidia deringer - da macht aber nur ein bischen CPU Leistung aus.


und dann noch das Video das du verlinkst ist wirklich ne gute Lachnummer. Der Typ kommt so oft ganz knapp ran an die Tatsachen - und verschwindet dann wieder im Lalalawunderland.
 
Finde es interessant, wie das angebliche Bottleneck als Fakt hingestellt wird, obwohl es dazu keinerlei Fakten gibt, außer diejenigen, die von der komischen hardware.fr Seite genannt wurde ( 22Gb/s ) was nachweislich bullshit war.

Das wäre in etwa so, als würde ich Intels Ringbus als Bottleneck bezeichnen, da die Kommunikation innerhalb bzw. die Latenzen deutlich höher sind als es bei AMD der Fall ist. ( Innerhalb eines CCXs )

AMD verfolgt eine andere Strategie die ihre Vorteile hat, wo der Ringbus nicht so toll ist, gleiche natürlich auch umgekehrt.
Darüberhinaus, hat Intel bald 8 Generationen hinter sich, worauf optimiert wurde, bzw. an einer Architektur! AMD ca einen Monat. Wer hier von Bottleneck spricht, hat den Schuss nicht mehr gehört. Dieses ständige verallgemeinern ist echt Mist, dazu messen mit zweierlei Maß.
Dieses Gebetsmühlenartige rum gekrieche ist widerlich!

Als einziger hat Golem wenigstens angekündigt, zum 11.04 @1600X Launch sich dem Problem zu widmen, dazwischen war auch, Raff und noch einer, der das gelesen hat. Was PCGH hier ja nun draus machte sieht man ja.

Für Golem ist es sogar völlig klar:

Das ist doch aber alles nicht neu, mit ner Geforce sollte man D3D12 und Vulkan bisher meiden.

Es wäre interessanter sich mal D3D12-only Titel anzugucken, denn da kann man als Nvidia Nutzer nicht einfach auf D3D11 wechseln ...

Aber ja, das Problem mit Ryzen und DX12 @Nvidia ist natürlich nur ein Wunschdenken irgendwelcher AMD Boys. Natürlich! Als ob Nvidia Nutzer nicht auch ein Interesse daran hätten, dass DX12/Vulkan was bringt bzw. nicht schlechter läuft und wie es sich in Zukunft darstellen wird, gerade weil Nvidia sich dazu nun schon recht Lange ziemlich bedeckt hält. Auch wenn jene auf DX11 ausweichen können und das Problem nicht so schlimm wiegt, aber wie schon genannt wurde, zu wissen, wann das Problem zumindest nicht schlechter als DX11 ist, ist ein Kern Interesse, was die deutsche Presse öffentlich zu verschweigen versucht, genau wie nun auch hier und das ist das aller letzte! Wohingegen bei AMD jeder kleinste Furz zur Sensation gemacht wird, der dann von der Internationalen Presse zerpflückt wird, die man natürlich im Gegenzug aus der Ferne Inkompetenz unterstellt.
 
Zuletzt bearbeitet:
@Casurin
Hättest du das Video ernsthaft gesehen, wäre dein Post komplett unnütz, GigaThread und Warp-Scheduler werden erwähnt und sind verglichen zum AMD-Konstrukt vergleichsweise simpel aufgebaut, da sie lediglich die Command Queue Batches verarbeiten und verteilen müssen, statt eher den konstant "fließenden" Anweisungen wie bei AMD.

Der InfinityFabric mag ein Flaschenhals für diverse Anwendungsfälle sein, lässt sich aber relativ leicht umgehen (und sollte demnach spürbarer in's Gewicht fallen durch übertakteten Arbeitsspeicher als dies bisher in Tests der Fall war) und ist potenziell nicht das einzige Problem beim nicht optimierten Treiber seitens nVidia. Stichwort Cache-Size-Unterschiede zu Intel und den bestehenden Optimierungen daraufhin, Compiler-Anpassungen die bisher vor allem auf Intel hin optimiert sind.
 
Vor allem wurde das GPU-Bottleneck von Jim (Adored TV) mithilfe von zwei RX480 im Crossfire relativ stark ausgehebelt (verglichen wurde mit einer manuell übertakteten GTX1070 die etwa GTX1080-Niveau erreichen dürfte, was laut vielen Tests äquivalent zu zwei RX480 sein sollte).
Dabei kam heraus, dass das Crossfire Gespann auf Ryzen teils massiv schneller lief als die übertaktete GTX1070. Das waren fps/frametimes auf Titan X (Pascal) Niveau!
Die 2 RX480 waren hier nicht einfach besonders schnell, sondern die nVidia Karte überraschend langsam auf Ryzen.

Ich kenne das Video und fand es auch durchaus interessant. Ich hab momentan noch nicht viel mit Ryzen zu tun, versuche aber, die CPU (mit Hilfe der Kollegen, später eventuell auf gesonderter Testplattform – die muss aber stabil und verlässlich sein, mit Kinderkrankheiten am Test-PC kann ich mich beim Testen der nicht ganz selten von Kinderkrankheiten betroffenen Spiele-Releases, denen es auf die Schliche zu kommen gilt, nicht auch noch rumschlagen. Also: Bitte um noch etwas Geduld ;) ),

Prinzipiell klingt das auch gar nicht so unwahrscheinlich, aber das müssten wir wirklich ganz genau nachprüfen, und wir (bzw. unsere Tester, insbesondere Carsten) sind momentan einfach (wieder mal) ganz ordentlich ausgelastet. Dass Ryzen momentan noch einige schwierig abzuwägende Eigenheiten zeigt, hilft dabei auch nicht.

Was das Video außerdem nicht berücksichtigt (bzw. nur kurz zu Beginn einmal angeschnitten wurde), ist der Umstand, dass AMD-Karten bei Multi-GPU nach meinem aktuellen Wissensstand (der allerdings einen starken Bedarf nach Auffrischung hätte) unter DX12 sehr gut abschneiden, (ein altes) Ashes of the Singularity nur mal als Beispiel (es gibt noch ein paar andere Benchmarks im Netz, wenn auch nicht viele und nochmal etwas weniger verlässliche). Und ja, das ist ein durchaus zu beachtender Faktor, der selbst in 720p noch einen recht großen Unterschied machen könnte.

Btw.: Nur als Gedankenspiel-Beilage (ich spekuliere in diesem Post generell): Dieses Video ist im Zusammenhang zu dem oben geposteten eventuell auch interessant (ich kann da auch nur vermuten, verlässliche Daten oder ausreichend Hintergrundwissen für eine präzise Aussage stehen mir da auch nicht zur Verfügung):
https://www.youtube.com/watch?v=nIoZB-cnjc0

Was man nicht alles Testen könnte ... *seufz* ;)

Gruß,
Phil
 
Zuletzt bearbeitet:
Zurück