AMD Radeon RX 6900 XT im Test: Enthusiasten-Duell mit Nvidias Geforce RTX 3090

Soweit ich es mitbekommen habe ist keine AI-Geschichte involviert.
Es handelt sich eher um anderweitige Tricksereien.

Ich hab mich mal bis zur echten Quelle durchgearbeitet (Minute 30):
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Da wird kein Wort über KI oder nicht KI verloren. Da hat schlicht bei dsogaming jemand Tensor Kerne brauchen (das wird es nicht) mit kein KNN benutzen (das wird es höchstwahrscheinlich schon) verwechselt.
Ein "klassischer" Ansatz ohne KI ist auch schon fertig definiert, den müsste man nur kurz auf GPU implentieren (was man bei Google recht schnell als fertigen Code findet), das wäre ein Lanczoz Filter
https://de.m.wikipedia.org/wiki/Lanczos-Filter
Dass man damit so spät kommt halte ich für unwahrscheinlich.
 
Man hat dir in einem anderen Thread bereits gesagt dass du endlich mal eine Quelle zitieren solltest, ansonsten bleibt es einfach nur eine haltlose Behauptung. BF V läuft auch mit RT auf AMD Karten. Inkompatibel ist es schonmal nicht!
Nur weil dir die Performance nicht passt stellst du dich die ganze Zeit hin und willst Benches und vergleiche als Invalide bezeichnen und kannst nicht einmal eine Quelle Zitieren die das auch mal belegt.
Warum hat sich bis heute AMD bei keinem Reviewer o.ä. gemeldet und denen einen Hinweis gegeben? Das wäre wohl schnell, einfach und würde genau sowas von den größeren Outlets verhindern die genau diese Spiel getestet haben!
Manchmal kannst du einem echt auf den Senkel gehen.
Hier: für dich:
DICE schrieb:
Battlefield 5 verwendet zwar einige Optimierungen für DirectX 12, die jedoch ebenfalls mit der DXR-Schnittstelle in Verbindung stehen und vor allem Engpässe beim Datendurchsatz verhindern sollen. Insgesamt soll der Shooter unter DirectX 12 aber eine Leistung bieten, die der von Battlefield 1 entspricht. Da DICE bei Raytracing DXR verwendet, aber bisher nur entsprechende Nvidia-Hardware zur Verfügung steht, wurde Battlefield 5 hier für diese Hardware optimiert.
Das bedeutet auch, dass der Code im Compiler "Intrinsics" verwendet, also auf die Turing-GPU zugeschnittene Befehle. Daher gibt es hier laut Holmquist eine gewisse Abhängigkeit, die aber dann gelöst werden kann, wenn DICE auch Hardware von "einem anderen potentiellen Hersteller" erhalte.

Nicht komplett inkompatibel, aber definitiv auf Turing zugeschnitten.
 
Toller Confirmation Bias. Du hast kein Problem also existiert dieses nicht. Was sage ich nur den ganzen Turing/Pascal nutzern die ein Problem mit Multimonitor setups haben. Gibt kein Problem weil ich es nicht habe?

Natürlich wir sind alles böse AMD Hater. Niemand mag AMD GPUs und die Userbase hier ist auch absolut mikrig weshalb der BN Thread quasi tod ist ;)
Wärst du in den Unterforen unterwegs wäre dir klar das die AMD Base hier stark, hilfsbereit und extrem aktiv ist. Und zwar deutlicher als bei den anderen Herstellern. Aber dein Post zeigt wie unwissend du einfach bist.

Teste doch die Szenen... PCGH hat ihre Abläufe veröffentlicht und du kannst die Tests jederzeit reproduzieren. Andere Outlets testen anders und erhalten entsprechend andere Ergebnisse. Bisher hatte ich keinen Bench bei dem ich abseits der Messtoleranz groß andere Ergebnisse erhalten habe. Ausnahme mit OC. Kannst dich ja hinter Klemmen und beweisen das da mist gemessen wird.

Für das Forenklima bist du genauso verantwortlich. Von dir kommen dutzende Unterstellungen, Behauptungen und jede Kritik an AMD wird sofort mit FUD deklariert. Du schadest dem Klima so sehr wie kaum ein anderer User hier!
Wobei das was du hier verfasst, absolut hilfsbereite Userbase ist, genau was sonst! Lächerlich.

Du meinst also ich kann Testergebnisse an der Szenenauswahl festmachen, faktisch einen Eindruck und damit Meinungen manipulieren oder besser "testen", sie in das Licht rücken das ich als einzig richtig erachte? Ach nee! Was für eine Erkenntnis.

Besser noch ist das hier, https://www.hardwareluxx.de/index.p...d-fidelityfx-cas-im-leistungstest.html?start=, im 'luxx testet man und stellt man fest. huch ohja, CAS ist sogar stellenweise besser als DLSS unter LMS und dann kommt das Update, nachdem die Presseabteilung von Nvidia den Test gelesen hat, sind die Eindrücke gemessen an sichtbarer Bildqualität nicht wahr, nein doch nicht DLSS ist immer schon besse, das war so, ist so und bleibt es auch. Ehrlich, die Presse macht sich für mich absolut lächerlich.

Aber auf andere zeigen, obwohl diese NDAs gar nicht gegenzeichnen und sich deshalb auch nicht daran halten müssen, es selbst aber in geeigneter Weise, als Art Selbstschutz als Märchengeschichten abtun. Wie kommst?

Das ist natürlich alles von mir frei erfunden, was sonst. Die die jetzt von Nvidias internen Versorger- und Informationspolitik abgeschnitten werden, weil sie denen nicht mehr in Kram passen und zu kritisch sind auch.

Wenn man seit einigen Tagen die unszensierten D*nnpfiffbeiträge von Herrn oder Frau deady1000 verfolgt, kann einem richtig übel werden, der gehört doch zum Forum oder?
 
Zuletzt bearbeitet von einem Moderator:
Wobei man diesbezüglich eigentlich sagen muss... da eignen sich aktuelle Zen2/3-CPUs und NV-Grafikkarten am besten, da sie beide mittlerweile @stock schon ziemlich optimiert ausgeliefert werden. An Intel-CPUs und Radeon-Grafikkarten gibt's meist noch einiges manuell zu tun, bzw da lohnt es sich mehr.
Ich finde, Intel-CPUs werden genauso optimiert ausgeliefert wie AMD. Stock läuft alles wie es sein soll. Nach oben Leistung verschaffen lohnt es sich da mehr, da hast du Recht, aber auf Stock gibt es nichts was auszusetzen wäre. Inklusive XMP, das man bei AMD CPUs in den meisten Fällen genauso einstellen darf (falls das Board es unterstützt), wie bei Intel.

Denn RAM läuft meistens auf XMP mit angegebenen Taktwerten, nicht nach JEDEC 3000+. Was ich schon oft gelesen habe bei AMD CPUs, und letztlich auch selber gesehen habe, ein Freund von mir hat letztlich seinen alten Bulldozer in die Rente geschickt und einen 3600XT gekauft, dazu ganz normale Ripjaws ohne RGB-Bling mit 32 GB und 3600 Taktrate. Lief bei dem weder mit 3600 (kein Wunder, I know) noch mit 3200 Mhz Stock, sondern auf 2666. Musste dann genauso wie ich mit Intel ins UEFI und da XMP aktivieren, damit der Speicher auch mit der advertised Taktrate läuft. Was aber absolut nicht schlimm ist, denn XMP aktivieren ist eine Sache von paar Clicks.

Bei Radeon-Karten darf man aber tatsächlich noch optimieren bis zum geht nicht mehr, damit es einigermaßen stabil läuft, zumindest habe ich leider die Erfahrung machen müssen (und nach dem Supportforum bei AMD zu urteilen, so manch anderer auch). Mit meiner 5700 XT waren Treiber eine einzige Katastrofe, und ich hatte andauernd Crashes, mit der Folge dass ich zum Schluss -zig Umstellungen vornehmen musste nach User erstellten Guides, damit es einigermaßen funktioniert. Von -zig Treiberversionen wovon eine nicht andauernd deine Spiele crasht oder BSODs gibt, bis zur Deaktivierung von Hardwarebeschleunigung wo es nur geht (Browser, Discord etc) etc. Aber ist leider meine persönliche Erfahrung. Nvidia scheint da Stock bzw ab Werk schon besser zu laufen, wie du sagst.
 
Zuletzt bearbeitet:
Was da los keine einzige Karte mehr zu bekommen, hab ich zum Glück direkt am 8.12 zugeschlagen (999€) . :(

Ich glaub es ist das erste mal das ein Wasserblock vor der Karte erhältlich gewesen ist :lol: (179€)

die RTX 3090 von EVGA ist direkt zurück gegangen, bei meinen Spielen gleiche Leistung oder mehr bei 1000€ Ersparnis ein guter DEAL !
 
Was da los keine einzige Karte mehr zu bekommen, hab ich zum Glück direkt am 8.12 zugeschlagen (999€) . :(

Ich glaub es ist das erste mal das ein Wasserblock vor der Karte erhältlich gewesen ist :lol: (179€)

die RTX 3090 von EVGA ist direkt zurück gegangen, bei meinen Spielen gleiche Leistung oder mehr bei 1000€ Ersparnis ein guter DEAL !
Die 3090er ist doch nur in 4k viel schneller als die 3080er sonst nur lepsche 15 %. Das konnte man damals hier und bei Gamestar in den Benchmarktests lesen
 
Auch wenn du dich aufn Kopf stellst.
Das tut er nicht in jedem Fall, das Ding nennt sich VCE und ist ein Encoder, kein Decoder. Da würde es eigentlich schon aufhören, aber:

Zu beachten ist, nur die Kodierung wird in AMD Hardware ausgeführt. Davor oder danach, dekodieren, filtern, sync, muxing usw. werden auf der CPU ausgeführt. Deshalb ist es normal, das eine hohe CPU Auslastung Zustande kommen kann oder Systemressourcen belastet werden, wie eben der VRAM.

Es ist üblich, dann auch Bootlenecks mit hardwarespezifischen Eigenschaften (llvl) zu umgehen, Nvidia macht nichts anderes. Einfach mal darauf achten. Du kennst dich damit aus, okay, womit weiß ich nur nicht.

Ehrlicherweise gebe ich zu, habe ich auch keine Lust mehr dem Thema noch abzuhelfen. Ich kenne mich halt mit trollen aus, was solls...
 
Zuletzt bearbeitet von einem Moderator:
Habe die 5950X auch nicht zum Zocken allein gekauft. Wie Du mache ich auch Videobearbeitung damit. Was für eine CPU hattest Du denn vorher und ist der Leistungszuwachs schon wie erwartet enorm ?
"Encodingmaschinen":
Q6600 @ 3,6 GHz --> i7 920 @ 4 GHz --> i7 3930K @ 4,2 GHz --> i7 5960X @ 4 GHz --> Ryzen 3900X --> Ryzen 5950X

Der Performancesprung bei jedem Pfeil im Videoencoding waren immer ganz grob roundabout +50%. Die Performancesprünge in der Videobeschleunigung von GPUs sind stellenweise sehr viel größer (da dedizierte Einheiten), nur leider sind die Encodingeigenschaften von GPUs zumindest für HQ-Videos noch zu schlecht - zum Streamen und YT und so aber völlig ok.

Da warte ich übrigens auch noch aufn (Bildqualitäts- und Encodingeffizienz)Test von RDNA2. :-)
 
Zuletzt bearbeitet:
Hey - mal ne Frage!
Also ich möchte niemandens Art und Weise des Spielens in Frage stellen aber kommt bei all den Beissreflexen und dem ganzen Bulldog-Gehabe hier im Foum eigentlich niemand mal auf die Idee, dass es noch andere <Gamer> geben könnte, als die Fraktion "Triple-A + nur die neuesten Games + ausschließlich längster Balken + immer alles auf max."?
Oder mal anders herum gefragt: Gibts da draußen noch Leute, die (wie ich) das spielen, was Ihnen richtig Spaß macht, unabhängig vom Alter des Spieles und seiner Technik?
Gleichzeitig verliert man als diese Art Gamer vielleicht eine evtl. vorhandene Leigitimerung hier im Forum seine Meinung schreiben zu dürfen, aber mal so unter uns: wen interessiert das?
Kauft man sich Spiele und Hardware ausschließlich um mitzureden / besser zu sein oder um die Spiele zu spielen, die es einem auch richtig angetan haben?
So manches mal weiß ich hier im Forum überhaupt nicht mal auch nur ansatzweise, warum sich die Leute so angeifern. Auf der anderen Seite möchte man natürlich ein Forum für Freaks sein.
Also ich lege Wert da drauf, einige Hardware Daten hier nicht preiszugeben, sowie auch nicht vollständig über die Verwendungszwecke zu reden, mit Verschwiegenheit also. Bei einiger Hardware freut man sich für die anderen mit, auch wenn für einen selbst das gar nichts ist.

Es existiert sowohl die Bereitschaft, aus Kostengründen auch kleinere Hardware zu wählen, als auch Änderungen vorzunehmen und darüber zu sprechen / Informationen einzuholen, weil sich der Verwendungszweck eines Systems ändert, man neue Programme nutzt und neue Einsatzgebiete hat. Wichtigste Fragen dabei: Ist das machbar? Wenn ja, wie? Oder lässt man es doch gleich ganz bleiben, vorerst. Für mich ist es mehr Lesarbeit als Fragen zu stellen, aber vor allem ist man füreinander da und wird nicht gleich erschlagen, wenn man etwas anders sieht.

Hier wird Staat gemacht...oder das genaue Gegenteil davon. Community heißt auch Gemeinsschaft. Das hat etwas von religiöser Inbrunst. :daumen:

@Incredible Alk :

Faktor 1,5⁵ = 7,59375 mal so schnell, alleine beim Videoencoding. Das passt ja, der Sprung vom Q6600 zum 5950X. Es könnte auch unendlich schnell sein, ist aber längst kein Beinbruch. Gar nicht übel.
 
Zuletzt bearbeitet:
Wobei das was du hier verfasst, absolut hilfsbereite Userbase ist, genau was sonst! Lächerlich.
In einer News hilft man den Usern nicht. Aber wie gesagt, du schaust ja sonst nirgends vorbei kannst es daher ja nicht beurteilen, was die Userbase hier so treibt.
Du meinst also ich kann Testergebnisse an der Szenenauswahl festmachen, faktisch einen Eindruck und damit Meinungen manipulieren oder besser "testen", sie in das Licht rücken das ich als einzig richtig erachte? Ach nee! Was für eine Erkenntnis.
Natürlich man wählt bewusst Szenen die AMD nicht liegen werden. PCGH wusste ja vor 1/2 Jahr bereits wo AMD definitiv nicht performen wird und hat ihre große Glaskugel rausgeholt und die entsprechenden Szenen/Spiele herausgepickt. Schließlich ist jeder Test in dem AMD schlecht aussieht sofort absicht und Fake und pures evil Nvidia Marketing.
Ein HW Test wird nie alles und jeden Aspekt abdecken können. Entsprechend breit Ergebnisse anschauen und eben als Tendenz werten nicht als absolute Wahrheit.
Besser noch ist das hier, https://www.hardwareluxx.de/index.p...d-fidelityfx-cas-im-leistungstest.html?start=, im 'luxx testet man und stellt man fest. huch ohja, CAS ist sogar stellenweise besser als DLSS unter LMS und dann kommt das Update, nachdem die Presseabteilung von Nvidia den Test gelesen hat, sind die Eindrücke gemessen an sichtbarer Bildqualität nicht wahr, nein doch nicht DLSS ist immer schon besse, das war so, ist so und bleibt es auch. Ehrlich, die Presse macht sich für mich absolut lächerlich.
Und die nächste Verschwörungstheorie... oder hast du Beweise?
Natürlich war es die Presseabteilung von Nvidia, gibt in den Boards ja keinen der sich die Bilder genau anschaut und dem das nicht auffällt oder etwas reinzoomt... Daher User = Nvidia, ganz logisch!
DLSS wurde schon wegen weniger als kompletter Fail hier im Forum dargestellt. Das waren sicher alles AMD Marketing Leute unter verdeckten Namen.
Aber auf andere zeigen, obwohl diese NDAs gar nicht gegenzeichnen und sich deshalb auch nicht daran halten müssen, es selbst aber in geeigneter Weise, als Art Selbstschutz als Märchengeschichten abtun. Wie kommst?

Das ist natürlich alles von mir frei erfunden, was sonst. Die die jetzt von Nvidias internen Versorger- und Informationspolitik abgeschnitten werden, weil sie denen nicht mehr in Kram passen und zu kritisch sind auch.
Natürlich schreckensherschaft Nvidia kein Outlet ist sicher. Jeder der in den letzten Jahren kritik an Nvidia geäußert hat, kriegt keine Samples und Infos mehr.
Gab zwar immer wieder kritische Berichterstattung von einigen Outlets aber die hatten ihre Samples, komisch....

Und dein letzter (nicht zitierter) Absatz sagt eigentlich alles über dich. Wenn es einem nicht passt beleidigend werden. Ganz stark und zeigt du bist ganz sicher nicht für das Klima verantwortlich.
 
Oder mal anders herum gefragt: Gibts da draußen noch Leute, die (wie ich) das spielen, was Ihnen richtig Spaß macht, unabhängig vom Alter des Spieles und seiner Technik?
Nö! :D

Quatsch, doch. Ich als alte Grafikhure habe beispielsweise gerade erst Fallout New Vegas angefangen, das seit vielen Jahren auf meiner Pile of Shame rumgammelt. Meine GTX 1080ti, die bei aktuellen Spielen in > WQHD so langsam an ihre Grenzen kommt, langweilt sich dabei eher. Ab und zu gebe ich mir auch Into the Breach, das praktisch vom Arbeitsspeicher allein gerendert werden kann ;), aber spielerisch absolut genial ist.

Ich gehe sicher davon aus, dass ich nicht der einzige Enthusiast bin, der es in Kauf nimmt, wenn sich seine Hardware gelegentlich auch mal langweilt.

Also nein. Ich will hier trotz des wohl derzeit stärksten Rechners hier nicht den Längsten haben
Ernsthaft jetzt? Allein in diesem Thread hast du zig Postings verfasst, die vor Geltungssucht nur so triefen. Vielleicht solltest du deine eigenen Beiträge gelegentlich auch mal lesen.

So langsam wünsche ich mir echt Schaffe wieder zurück
Pscht! Am Ende macht der das noch! :ugly:
 
Zuletzt bearbeitet von einem Moderator:
@Bl4ckR4v3n : Zwei Anmerkungen, die mir wichtig sind:

1. Die Tatsache, dass ein HW Test nie das Gesamtbild vollumfänglich abbilden kann, sollte im besten Fall zu einer gewissen Immunität oder auch Widerstandskraft etwas beitragen, weil die scharf kritische Äußerung eines anderen über die eigene Positionierung zu Aspekten von Hardware ja immer aus einer eingeschränkten Sichtweise heraus erfolgt: Entweder weiß der vorlaute, freche Kritiker mehr als mal selbst oder umgekehrt; nie ist man auf genau gleicher Ebene. Versteht man die Logik dahinter, kann man jede beabsichtigte oder aus Versehen geschehene Fehlinfo einer Marketingabteilung knacken.

2. Im Bereich Sicherheit und beispielsweise als Redakteur gibt es Quellenschutz, je nach Rechtslage. Nur der Journalist wird ordentlich Quellen angeben (müssen), dessen Mangel heutzutage ja kritisiert wird und man die Leute als Journaille beschimpft. Sie setzen sich einfach nicht ewig und 3 Tage auf den Hosenboden, reflektieren sich nicht selbst oder sind rechtlich eingeschränkt, wodurch es zu so vielen Fehlern kommt.

Bei Spieleperformance macht es keinen allzu großen Unterschied sicherheitstechnisch.

Je nach Denkweise, Ordnungssystemen und Erfahrung kann man gar nicht auf Quellen zugreifen, weil man keine Erinnerung daran erstellt hat. Zudem werden bei ganz anderen Themen Quellen schneller gelöscht als man gucken kann. Deine Gesprächspartner könnten eine Sache besser machen: Noch netter sein. Dann würde es klappen.

Denn viele Leute bevorzugen Geschwindigkeit und Dinge nur grob beschreiben ohne Quellenangabe mehr auf Kosten von Qualität und Zustimmungsrate. Einige kommen so besser voran.

----------------------------------------

Allgemein zu den Grafikkarten: Für Cracky von Rawiioli ist die Videoenkodierung für Live Streams auf AMD Seite (RX 6800) immer noch bescheiden im Vergleich zu Nvidia´s NVENC, aber zur lokalen Aufnahme in 1440p60Hz nutzt er den H.264 AMD-Encoder mit der CQP22 Einstellung. Nachträglich wird für den YouTube Upload das ganze mit Handbrake in eine CRF Datei gerendert. Der 900p Stream selbst wird für Twitch über die CPU in der Slow (langsam) Voreinstellung enkodiert.

Plant man Ähnliches und möchte nicht nur Live Streams für Gespräche und Neuigkeiten aus aller Welt machen, lohnt es sich am ehesten, die Grafikdetails zu verringern und so dem Encoder mehr Luft zu geben in der Hoffnung, die Zuschauer bekommen keinen Augenkrebs. So kann man sich in günstigere Bereiche was Grafikkarten für spielen und Live Streams machen angeht, hinein schummeln. Anderen zu zeigen, was man tut, (außer auf einem Smartphone) oder Videos neu zu enkodieren (um Platz zu sparen und Abspielgerät Kompatibilität herzustellen), sind die gängigsten neuen Anwendungen und erweitern sehr schnell den Bedarf an vorhandener Rechenleistung.

In Sachen Effizienz finde ich die RX 6900 XT gut im Leerlauf, weil konsequent fast alles abgeschaltet werden kann (ählich Intel CPUs auf Mainstream Sockeln), bei Teillast ist sie (durch großzügig viel Speicher etc.) erwartungsgemäß schlechter und bei Volldampf muss man eben schauen, ob man das Gebotene gut genug findet, wenn auch nicht immer besser als bei Team Grün oder Blau.

Im Effizienzabriss werden im Schnitt weniger Watt pro Leistungsindexpunkt benötigt als beim ehemaligen König in dieser Disziplin, meiner Lieblings Einsteiger Grafikkarte, der GTX 1650, also mehr Indexpunkte pro Watt an Rechenleistung erzielt. Für günstiges Gaming ist das Problem der neuen Spiele deren Ballast, aber genau das macht sie ja auch so schön oder umfangreich. Den jeweils neuen Trend zu verschlafen ist aber auch eine gute Idee. ;)

Glückwunsch an jene, die früh ihr Exemplar bekommen haben und jetzt lange Zeit ihre gewünschte Ruhe auch kriegen.
 
Zuletzt bearbeitet:
Wie gehabt lassen sich auch Bilder der 6900 XT bei Ebay kaufen, Botkäufer lassen grüßen.
Jetzt mal ne ernst gemeinte Frage...funktioniert das denn? Ich kann mir nicht vorstellen, dass da tatsächlich ne Transaktion stattfindet.

Vor allem, was macht man, wenn da ein "echter" Käufer drauf klickt, weil er zu blöd zum lesen ist? Rechtlich ist man ja auf der sicheren Seite, weil es ja explizit im Titel und in der Produktbeschreibung steht, dass es nur ein Bild ist. Ich würde dem Käufer wohl das Geld aber zurück erstatten, einfach aus Kulanz. :ugly:
 
Zuletzt bearbeitet:
Also ich denke mein Bildmaterial zeigt ganz gut auf, dass da iwas nicht ganz richtig aussieht. Hab im zweiten Bild hier die Abbruchkante im Dreiecksmuster 5 Meter vor den eigenen Füßen (mitte des Bildes) extra nochmal eingezeichnet.
Wie gesagt, ohne DXR ist die nicht da, und es liegt auch nicht an DLSS, das ist hier deaktiviert.
Diese Kante ist absolut unschön und beraubt einen mehr um die Immersion, als dass Raytracing zuträglich wäre.
Anhang anzeigen 1345369
Anhang anzeigen 1345370
Im Bewegtbild, womit viele seit DLSS ja gerne versuchen zu kontern, sieht es noch dreimal blöder aus. Dafür hab ich ja extra das Video erstellt.
Ich habe BF5 auf meiner 2080TI gesuchtet und immer nur mit DXR gespielt. Mir ist sowas wie oben nie aufgefallen. Auch auf der 3090 nicht.

Hier im PCGH Forum wird soviel FUD über AMD Hardware geschrieben, vor allem GPUs und das kann nur Absicht sein.
Und das schreibt jemand, der Tensor Cores und TensorFlow für das gleiche hält :lol::lol:
Fängt ja beides schließlich mit Tensor an :ugly:
 
Zuletzt bearbeitet:
"Encodingmaschinen":
Q6600 @ 3,6 GHz --> i7 920 @ 4 GHz --> i7 3930K @ 4,2 GHz --> i7 5960X @ 4 GHz --> Ryzen 3900X --> Ryzen 5950X

Der Performancesprung bei jedem Pfeil im Videoencoding waren immer ganz grob roundabout +50%. Die Performancesprünge in der Videobeschleunigung von GPUs sind stellenweise sehr viel größer (da dedizierte Einheiten), nur leider sind die Encodingeigenschaften von GPUs zumindest für HQ-Videos noch zu schlecht - zum Streamen und YT und so aber völlig ok.

Da warte ich übrigens auch noch aufn (Bildqualitäts- und Encodingeffizienz)Test von RDNA2. :-)
Du hast Dich da wohl bei dem I7 5960 vertan denn ein I7 ist ein Intel und die Zahl dahinter ist ein AMD :-) Aber da ich vorher einen i7 6700k hatte wird der Sprung dann wohl eher 100 % gleich sein :-)

Danke
 
Du hast Dich da wohl bei dem I7 5960 vertan denn ein I7 ist ein Intel und die Zahl dahinter ist ein AMD :-) Aber da ich vorher einen i7 6700k hatte wird der Sprung dann wohl eher 100 % gleich sein :-)

Danke
Kaum Fachkenntnis aber jede Menge Meinung gepaart mit maximaler Arroganz sowie vollständiger Ignoranz der Realität gegenüber. Du bist enttarnt, Donald Trump! :ugly:

Incredible Alk hat noch im Tiefschlaf mehr Ahnung von Computertechnik als du je lernen wirst.
 
OC Potential bei der 3090 ist eh murks solange nicht unter Wasser und ein guter Chip, die Teile rennen stark am Limit, wie gesagt Brechstange.
Also meine FE macht +150MHz mit und läuft zwischen 1960 und 2100MHz Kerntakt. Es kommt immer darauf an was man für einen Chip erwischt! Ich kann dazu nicht mehr sagen, außer das es mir in etwa +8 FPS gebracht hat in 4K + 180% Auflösungsskalierung (66 zu 74fps) bei Star Wars Squadrons und ohne Wasserkühlung. Und leise bleibt die FE trotzedem bei mir.
 
Zurück