AMD Big Navi: 5.120 Shader und zehn Ausbaustufen für Navi 21?

Also wenn Navi bleibt, dann zahlt man als Gamer also weiterhin die 300 oder 400 Euro, wer dann Leistung möchte, zahlt 800 für Big Navi.
Dann braucht NVidia nicht (allzu sehr) die Preise senken, wenn die 3080 kommt.
Schade.
 
Das einzigste was bei Grafikkarten Enttäuschend ist, wäre das PL Verhältnis (FPS/€) von nVidia !!
Die Vega 64 ist/war der Gegner der GTX 1080 und Vega 56 der GTX 1070. Diese waren mehr wie ebenbürtig und dazu noch günstiger (Ja, und höheren Stromverbrauch, das juckt aber INTEL Fans auch NICHT).
Die Radeon VII ist auf Augenhöhe der 1080 Ti (bzw. zwischen der RTX 2070 und der RTX 2080) Ja, bei 300 Watt.
Zu spät kommen die AMD Karten halt immer ...
Enttäuschend find ich da eher für eine 60´er Karte (RTX 2060) 400 € (!!) aufzurufen und mit Raytracing (Dia Show) zu bewerben !

AMD Radeon VII Mega Benchmark - TechSpot

MfG Föhn.

Nvidia war noch nie günstig. Das wird sich auch in nächster Zeit garantiert nicht ändern.
Der Vergleich zu Intel hinkt aber massiv. Beim zocken wirst du je nach Spiel kaum Unterschiede in der Leistungsaufnahme haben. AMDs Stock Einstellungen mit 3200 Ram beginnen mit einem ca. 10W defizit durch den IO Die. Der agressive Boost tut sein übriges. So bist du bei ungetunten Settings im Best Case vielleicht mal 20W mit AMD vorne, wenn überhaupt. Bei den Vega und Pascal sind da schon deutlich größere Verbrauchsunterschiede. Und da kommen eben Luftzirkulation und die daraus resultierende Lautstärke, Netzteil, Abwärme, Platz usw. auch noch dazu. Einzig der Preis war sehr gut weshalb man sie sehr gerne empfohlen hat.
 
Nur so, die Tabelle als Auflistung ist der reinste Quatsch und die News (die nicht von PCGH stammt!) ist der reinste Schrott.:D

Warum sollte eine Karte die dem Markt als Refresh erhalten bleibt (Navi 23), den gleichen Namen tragen, wie ein größeren Highendmodell auf Basis einer anderen Node? Was für ein Tünüff!

Anniversary Version im Jahr 2020/2021? Wer's glaubt wird seelig. Vor allem wird die Anzahl der Ausbaustufen von Arcturus abgeleitet der wenn er jemals erschneit, nie fürs Gaming gedacht war!
 
Einfache Regel bei 90% der User hier: Jeder Leak, in dem AMD nVidia in den Boden stampft = ein guter, mit an Sicherheit grenzender Wahrscheinlichkeit wahrer, seriöser Leak und jeder Leak, in dem nVidia besser wegkommt = lol@WCCFTech :D

90%? Es sind eher die 10-15 speziellen Schneeflöckchen hier im Forum die immer am lautesten schreien. Darum ist die Ignorier-Funktion ein SEGEN.:hail:
 
Nur sehr in sehr groben Rahmen. Da weiterhin anzunehmen ist, dass AMD diesbezüglich den Aufbau nicht verändert haben wird, weil es hier mit Blick auf das primäre Aufgabengebiet einen Sweetspot gibt, kann man zumindest den Bereich grob abschätzen.
Konkret wird hier jedoch noch der Boost-Takt benötigt (bei AMD mittlerweile Peak-Takt genannt), der die Basis für die TFlops-Berechnung darstellt, da sich alle Hersteller bei ihren Angaben auf die höchste Taktrate beziehen.
Grob abgeschätzt etwa 0,128 TFlops pro CU und GHz, also ~ 15,4 TFlops bei 1,5 GHz Peak und ~ 19,5 TFlops bei 1,9 GHz Peak, jedoch bleibt abzuwarten, ob ein so großes Design einen derart hohen Peak-Takt erreichen wird.

Danke für die gute Formel und Erklärung wie man die Teraflops errechnen kann :-)

Diese 0,128 kann man auch schön bei der XSX anwenden die 52 CU´s hat und mit 1,82 GHZ getaktet kommt man auf die besagten 12 Teraflops die Microsoft angibt.

Big-Navi mit 80CU´s und 1,5GHZ wären mit 15,4 Teraflops ein starkes Ergebnis und würde wenn es stimmt mit der IPC-Verbesserung eine 2080TI schlagen. Nur wenn man die 5700XT mit der 2070 vergleicht braucht AMD immer noch mehr Shader und einen höheren Takt und hat damit mehr Teraflops aber es kommt nur auf die Leistung einer 2070 die weniger Shader hat und einen geringeren Takt.

Ich denke schon das mit Big-Navi endlich mal wieder ein starkes Brett kommt von AMD denn Navi und die Specs der XSX machen einen starken Eindruck.
 
Das einzigste was bei Grafikkarten Enttäuschend ist, wäre das PL Verhältnis (FPS/€) von nVidia !!
Die Vega 64 ist/war der Gegner der GTX 1080 und Vega 56 der GTX 1070. Diese waren mehr wie ebenbürtig und dazu noch günstiger (Ja, und höheren Stromverbrauch, das juckt aber INTEL Fans auch NICHT).
Die Radeon VII ist auf Augenhöhe der 1080 Ti (bzw. zwischen der RTX 2070 und der RTX 2080) Ja, bei 300 Watt.
Zu spät kommen die AMD Karten halt immer ...
Enttäuschend find ich da eher für eine 60´er Karte (RTX 2060) 400 € (!!) aufzurufen und mit Raytracing (Dia Show) zu bewerben !

AMD Radeon VII Mega Benchmark - TechSpot

MfG Föhn.

Ist ja lustig, das der Ursprung des "der Verbrauch stört ja nicht" hier im Forum tatsächlich durch die AMD Grafikkarten entstand.

Wie kommst du jetzt hier gerade auf Intel. Wusste gar nicht das Intel im dGPU Markt schon mitmischt.

Die V64 war der Gegner der 1080, der nach der 1080 erschien. Eigentlich ist der Release der 1080 sogar näher am Release der Fury Karten. Die zu dem Zeitpunkt sogar teurer waren. Als die Pascal Karten.

Auch braucht man bei Vega nicht P/L kommen, denn das wurde erst im Abverkauf gut.

Jetzt kommt noch, das es leider immer noch genügend Spiele gibt in denen eine Vega einfach zu schlecht, im Vergleich zu Pascal läuft.
Ja, die Mainstream Spiele ( hier war die Zeit auf AMD´s Seite, zum Glück) laufen heute schon sehr gut, auf Vega, im Vergleich. Die V56 hat es geschafft sich meistens die 1070 vom Hals zu halten (was aber auch nicht immer klappt). Aber die V64 scheitert doch immer noch an der 1080.

Einzig die Abverkaufpreise waren in der Lage, aus den Vega Karten ein wirklich gutes Geschäft zu machen.

Jetzt braucht auch keiner mit ner optimierten Vega kommen, der träumt nämlich davon, das man eine Nvidia nicht optimieren kann.

Ich habe oft genug drüber nachgedacht eine Vega zuzulegen, gerade weil ich schon länger wieder eine AMD haben will. Aber neutral betrachtet waren die Eigenschaften und Leistungen einfach nicht gut genug gegenüber der Konkurrenz.

Als Vega kan, hatte ich die 1070 schon "lange". Damals war es einfach, 1070, oder Fury X (Nano), aber da war die 1070 günstiger und schneller. Dann kam später die vega 56 für real 500 Euro (Fakepreis 400, die man dafür aber nicht bekommen hat, ich habe es mehrfach probiert) Dazu war die Anfangs auch nicht wirklich schneller, was auch heute noch keinen Aufpreis rechtfertigt.

Bei Big Navi muss AMD endlich mal wieder abliefern, sonst wird es immer lächerlicher, leider.
AMD wird nämlich immer später mit der Leistung und das macht halt den Markt kaputt.


Noch zum P/L

Wenn ich jetzt eine Karte kaufen würde, dann lieber für 520 Euro mit RT und den letzten 10% mehr Leistung, als noch ohne RT für 380-460Euro bei AMD.
Und das wirklich, obwohl ich wieder eine AMD haben will. Denn 1. ist das P/L Verhältnis der 2070s nicht wirklich schlechter, schon gar nicht deutlich, 2. entschiedet letztendlich noch die Leistung bei mir (dazu zählt für mich eben auch die Möglichkeit in RT rein zu schnuppern).

Das ganze ist natürlich Blickwinkelabhängig. Der gemeine AMD Fan wird immer dagegen reden, aber das ist ok für mich.
 
Ich habe oft genug drüber nachgedacht eine Vega zuzulegen, gerade weil ich schon länger wieder eine AMD haben will. Aber neutral betrachtet waren die Eigenschaften und Leistungen einfach nicht gut genug gegenüber der Konkurrenz.

Du sprichst mir aus der Seele da es mir auch so erging.

Im Oktober 2017 habe ich mir die GTX 1080 gekauft und der Release der Vega´s war im August 2017 und zur Erinnerung: Eine Vega 64 Liquid kostete über 700€ was eine 1080TI damals gekostet hatte aber deren Leistung nie erreicht wurde. War seit der 9800PRO immer ein ATI/AMD- Sympathisant aber ich wurde auch immer "bekämpft da ich seit der Fury X sagte WAS denn bitte AMD mit HBM im Gaming-Sektor will? Ein zu teurer und schlecht herzustellender Speicher denn man im HPC-Sektor verwenden kann aber nicht im Gaming-Sektor. Seit der 300er Serie war ich von AMD enttäuscht da sie nur mehr Speicher gebracht hatten und eine 290 dann 390 genannt hatten. Fiji mit HBM auch zu teuer und Vega war dann für mich die Verkohle hoch 3. Dazu noch die "gefühlten Events" die AMD veranstaltete haben mich nur den Kopf schütteln lassen und alles basierte auf dem schlechten Marketing von AMD "Poor Volta."

Heute finde ich aber das AMD´s Radeon´s gerade mit Navi wieder Aufwind erfahren und ich mir eine holen würde aber die Treiber lassen zu wünschen übrig und die Hitzeentwicklung der Navi´s ist auch nicht gerade leicht zu bändigen. Mein Favorit ist die RTX 2070 Super da es dort gute Leistung gibt und vor allem ruhige und kühle Modelle.
Jedenfalls ist AMD heute besser als damals mit der 300er Serie wo ich nur enttäuscht war sieht man heute wieder Fortschritt bei AMD im GPU-Sektor.
 
[...] Und was ist mit RT? Über die Raytracing Implementierung hört man weiter nichts. Es deutet sich nur an, dass es nicht über extra Einheiten ala RT-Cores machen wird. Wenn man die Verbesserungen bei Ampere sieht dürfte NV bei Raytracing die einen Effizienzvorteil haben. MY 2 Cents.
Man hört über die Raytracing-Implementierung (fast) nichts, weil AMD allgemein noch keine Architekturdetails preisgibt.
Wir sind zu weit entfernt von Produktveröffentlichungen, aber dank den Konsolenhersteller gibt es schon effektiv gewisse Bestätigungen in dieser Hinsicht.
Raytracing wird durch neue Hardwarelogik bei den Texture Mapping Units beschleunigt und es wird pro TMU eine Intersection-Engine geben.
Das angemeldete Patent in Bezug auf Raytracing sollte nah an der finalen Umsetzung liegen:
TEXTURE PROCESSOR BASED RAY TRACING ACCELERATION METHOD AND SYSTEM

Nvidia hat in Bezug auf Ampere einige Architekturdetails preisgegeben, die beschränken sich aber hauptsächlich auf Compute und AI, Verbesserungen/Änderungen in Bezug auf Raytracing wurden nicht genannt, ebenso wenig wie konkret Geforce-Produkte aussehen werden.
 
Danke für die [...]

Die etwa 0,1275 bis 0,1280 TFlops FP32 pro CU/SM und GHz funktionieren derzeit allgemein, so auch bei der PS5 (RDNA2), Navi 10, Vega 10 oder dem TU106, TU102 und selbst beim neuen A100.
Hintergrund ist die Organisation in 64 Funktionseinheiten pro CU/SM *) und jede Einheit liefert im Peak 1 Flop pro Taktzyklus. Entsprechend skaliert die theoretische Leistung linear mit der Anzahl der Einheiten und deren Taktrate.

In Bezug auf deinen IPC-Satz: Die IPC spielt hier keine Rolle, denn wie oben bereits geschrieben: eine Funktionseinheit schließt pro Taktzyklus eine Operation ab; mehr geht nicht im Falle universeller Einheiten. Die RX 5700XT und RTX 2070 kommen bzgl. der TFlops auf den gleichen, eingangs erwähnten Faktor. Dass die grafische Performance dennoch abweicht, liegt daran, dass TFlops != Fps sind. **)

*) Die aktuell übliche Zusammenfassung von 64 ALUs pro CU/SM ist zu berücksichtigen, bei nVidia CUDA Cores genannt, bei AMD Stream Processors. Beispielsweise Pascal bündelte noch 128 CUDA Cores in einen Streaming Multiprocessor. Hier muss man für bspw. die GTX 1080 Ti mit "56 SMs" rechnen anstatt mit den tatsächlichen 28 SMs und entsprechend kommt man auch hier auf den allgemein bekannten Peak-Wert.

**) Schlussendlich darf man nicht vergessen, dass TFlops FP32-Leistung nicht unmittelbar der grafischen Leistung einer GPU entsprechen müssen; derartige Werte können nur eine ungefähre Einordnung einer GPU ermöglichen, und das auch nur, solange der grundsätzliche Aufbau der verglichenen GPUs sich an das grob bekannte Schema hält.
Bereits die Art der Shaderprogramme und deren Umfang und Optimierung bestimmen wie gut oder schlecht eine bestimmte GPU performt (und das ist bspw. auch einer der typischen Stellen, an denen die GPU-Hersteller mit ihren Treibern eingreifen, indem sie on-the-fly Shadercode durch von ihnen nachträglich optimierten Code ersetzen und dadurch ihre jeweilige GPU in einem etwas besseren Licht darzustellen versuchen).
Und wenn noch Zusatzfunktionalitäten wie bestimmte grafische Features oder gar Raytracing hinzu kommen, wird das Thema noch weitaus komplexer. (Oder gar bspw. exklusive Funktionalitäten wie DLSS 2.0.)

@lordxeen / Raytracing bei AMD: Folgt man AMDs bekanntem Patent (Ende 2017), dann hat man bei RDNA2 die Raytracing-Funktionalität in die TMUs verlagert und diese um dedizierte RT-Funktionseinheiten erweitert. Grob ist das Schema das gleiche wie bei nVidia. Der SP löst eine Anfrage aus, übergibt diese and die RT-Einheit, die nimmt den Datensatz aus der BVH, führt die Intersection-Berechnung aus und gibt das Ergebnis (mitsamt einem Pointer auf die ggf. als nächstes zu testende BVH-Datenstruktur) zurück an den SP, der dann entscheidet, ob er den Strahl weiterverfolgen möchte oder an dieser Stelle abbricht und das Ergebnis weiterverarbeitet.
Was am Ende wie performt, wird man in konkreten Tests abwarten müssen. Zumindest softwareseitig würde ich mir bzgl. einer (effizienten) Unterstützung keine Gedanken machen, da RDNA2 die Basis der neuen Konsolen darstellt. Darüber hinaus wird der Großteil eh vom umgebenden API (und unten herum vom Treiber) gekapselt, d. h. wenn eine Applikation/Engine keine speziellen Anforderungen hat, wird es ihr voraussichtlich egal sein können, ob bzgl. Raytracing unten drunter AMD oder nVidia werkelt.
Darüber hinaus: Von Ampere als A100 kann man derzeit noch nichts ableiten, außer dass nVidia den N7 recht effizienz angewendet hat, denn der (G)A100 verfügt nicht einmal über RT Cores.
Man darf auf jeden Fall gespannt sein, wie AMDs Implementation performt und was nVidia in Ampere implementiert hat. Hier könnte ich mir durchaus vorstellen, dass man die RT Cores pro SM auf zwei verdoppelt, denn andernfalls dürfte es nVidia schwer fallen, seine "mehr Raytracing-Leistung"-Aussage zu realisieren. Architektonische Verbesserungen können sicherlich noch einige Prozentpunkte (wohl auch im zweistelligen Bereich) zu Tage fördern, echte Sprünge wird man am Ende aber nur mit mehr Funktionseinheiten realisieren können.
 
Zuletzt bearbeitet:
Hab ich nicht - könntest du aufhören mir sowas zu unterstellen?


Und weiter? Es sind dennoch die normalen Schnittstellen Dx12 und Vulcan - es war AMDs entscheidung Raytraycing nicht zu unterstützen.



Unbestätigte Gerüchte aus zweifelhaften Quellen wiedergekäut von sehr befangener Seite sind also "Infos"? :ugly:




Weil die AMDler seit neuesten mit erlogenen Verbrauchswerten zu Intels CPUs versuchen Intel zu bashen. Das die 10thGen bei Spielen mehr FPS bei weniger verbrauch liefern wird da gekonnt verleugnet und der OC-Verbrauch in synthetischen Stresstests als Stock-Verbrauch hingestellt.
Ein deinen Aussagen kann man mal sehen das du nicht aber auch garnichts von Hardware verstehst.

Wenn ein Refresh kommt wird wohl mehr Takt kommen.

Auch in vergangener Zeit sind Refresh fast immer mit mehr Takt gewesen.

Siehe mal 4770k zu 4790k als Beispiel.



Gesendet von meinem D6603 mit Tapatalk
 
Danke für den Hinweis.

Gerne, scheint aber leider bei diesem Post auch nichts gebracht zu haben...


Ein die Leistung eines Produkts besteht nicht nur aus IPC .Genausowenig, wie sie nur aus einer Shaderzahl besteht oder nur dem Takt.
Skalierung zu hohen Kernzahlen hin oder auch zu größerem Die- Space ist kein Kinderspiel. Das solltest Du aus der Vergangenheit eigentlich durch Beobachtung gelernt haben.
Auch das Skalieren einer hohen IPC mit Takt. Denn letztenendes muss man bei diesen Größen im Normalfall einen Kompromiss eingehen.

Im Gegensatz zu dir, weiß ich sehr wohl, dass man durch IPC nicht alles ausgleichen kann. Wobei zu AMD Athlon Zeiten hat dies gegen die Pentium IV ganz gut geklappt, aber vermutlich bist du da einfach zu jung und weißt das gar nicht mehr? ;)
Nur hattest du behauptet, dass AMD hinten dran liegt was die Architektur betrifft und das sind sie von der reinen Shaderleistung eben nicht, da sind sie sogar minimal vor nvidia!
Ansonsten ist es mir sehr gut bewusst auf was es bei CPUs und GPUs ankommt, auch das man nicht alles perfekt parallelisieren kann oder eben die hohe Anzahl an Shader perfekt in jedem Game auslasten. Aber wieso führst du das an? Um von deiner eigenen Unwissenheit mal wieder abzulenken?
Wieso sollte für AMD dies alles ein rießen Problem darstellen und für nvidia nicht? Wenn man mal auf die Faktenlage schaut ergibt sich da ein anderes Bild:
Sie nutzen den gleichen Prozess -> eine ähnliche Taktgrenze für beide.
Sie haben ähnliche Shaderleistung -> wird es spannend wer diese noch mehr steigern kann.
Die letzte unbekannte ist die Auslastung, da hat AMD deutlich aus GCN gelernt und kann Navi deutlich besser auslasten, sodass hier wohl kein gravierender Nachteil mehr besteht. Wenn du hierzu natürlich andere Informationen hast, dann poste sie doch bitte, dann brauchst du auch nicht so viel rumeiern ;)



Ich kann ein Taktmonster bauen, dann ist aber die IPC geringer.
Falsch, siehe die aktuellen intel CPUS, wäre mir neu, dass die eine beschissene IPC haben.
Ansonsten steht es dir natürlich frei dies auch mit einem Beispiel zu belegen!

Leg ich alles auf IPC, zerlegt es einem die Taktraten.
Ebenfalls falsch! Wieder Beispiel intel bzw. kannst du auch Zen2 nehmen, haben beide eine gute IPC und hohe Taktraten!
Wie hoch ich meine CPU/GPU takten kann liegt zu einem großen Teil am Fertigungsprozess. Einfach mal die 90nm mit der 65nm Fertigung von AMD miteinander vergleichen und festellen, dass erstere viel höhere Taktraten erlaubt hat.

Dann hast Du Laufzeiten auf großen Dice, viele dark silicon- areas.

Und dieses Problem hat nur AMD und nvidia kann problemlos große DIEs herstellen?

So wie Du das aber darstellst, ist das ja alles kein Problem- Da man ja "nur" die IPC mit hohem Takt und einer Skalierung auf 5000 Kerne hinkriegen muss und schon ist ein super- Produkt auf dem Markt.

Es ist für AMD auch kein Problem große DIEs herzustellen, sie müssen sich nur finanziell auch lohnen. Für nvidia ist es im übrigen ja auch kein Problem eine Karte mit 5000+ rauszubringen, wieso also sollte dies für AMD unmöglich sein?
Die IPC ist schon knapp besser wie bei nvidia da müssen sie also gar nichts mehr machen ;)
Ansonsten ist eine hohe IPC immer super, da man durch sie einen schlechten Fertigungsprozess zu einem gewissen Maße ausgleichen kann. Solltest du eigentlich wissen ;)
Man könnte sich an der Stelle nur die Frage stellen, wieso haben wir bei Navi 1 keinen Big Navi gesehen? Und da gehe ich mal schwer von wirtschaftlichen Gründen aus (hohe DIE Kosten, Wafer Knappheit usw.)

Echt jetzt? Wieso dann keine 10.000 Kerne? Wieso keine 2,5GHz Takt?
Ist mit zwei Worten beantwortet. Wirtschaftlichkeit und Fertigungsprozess.
Aber mit dem Posting hast du mal wieder gut unterstrichen, dass Kompetenz bei dir fehl am Platze ist.


Und Dir ist auch klar, dass AMD bereits den großen Joker "Fertigungsvorteil" gezogen hat und sich nur dadurch einem NVIDIA angleichen konnte?

Welcher Fertigungsvorteil soll das im Detail sein? Dass AMD mit der IPC gleichgezogen ist liegt an der Architektur und nicht an der Fertigung... Solltest du eigentlich wissen:schief:
Ansonsten wiederhole ich es gerne nochmal für dich nvidia hat mit der 12nm Fertigung eine für sie sehr optimierte Fertigung bekommen, die es erlaubte:
- hohe Taktraten zu fahren
- günstig zu fertigen

Und wenn du dir dazu die 7nm Fertigung anschaust, dann wirst du feststellen, dass wenn man die Navis extrem hochtakt der Verbrauch sehr stark ansteigt, wodurch dein "Joker" komplett verloren geht. Sie haben mit dem 7nm Prozess nur deutliche Vorteile, wenn niedrigere Taktraten wie bei der 5600 XT gefahren werden.
Aber wenn man sich wirklich mit der Thematik beschäftigt hat, sollte man das alles eigentlich wissen! :schief:

Im übrigen hätte ich es an Nvidias Stelle exakt genauso gemacht, den durch die 12nm kann man die Marge oben halten, aus der Sicht kann man ihnen auch 0,0 vorwerfen und die Karten wären in 7nm nicht schneller geworden, da man sie damit auch nicht höher takten kann.

Betrachtet die Fakten doch einfach mal ein bißchen weniger gefärbt...

Ich betrachte die Fakten immer ungefärbt, was man von dir definitiv nicht behaupten kann!

Zudem werfe ich AMD nicht Nichtstun vor, wie Du es mir unterschiebst.

Soll ich jetzt noch aufzählen, was du mir hier alles unterschieben wolltest :schief:
 
Ist ja lustig, das der Ursprung des "der Verbrauch stört ja nicht" hier im Forum tatsächlich durch die AMD Grafikkarten entstand.

Bist du dir da sicher?
Ich kenn dieses Argument schon von Fermi her. Zu der Zeit waren die HD5000er die Konkurrenten.
Ich bin mir nicht sicher, ob HD1000 und 2000 ähnliche Argumentationen hervor brachten.
Die beiden Reihen waren nicht so der Bringer.

Ich find es übrigens putzig, wie AMD jetzt schon 2x namenstechnisch Kontrapunkte zu Nvidias 5000er Serie brachte und beide Male als kompletter Gegenentwurf, was Leistung und Hitze angeht.
Aber in 2 weiteren Generationen kann Nvidia dann selbst wieder einen Kontrapunkt bei den 5000ern setzen.
 
Und RT funktioniert derzeit nur unter Einschränkungen. Damit das auf maximalen Details läuft, braucht man ne 2080ti und kann nur noch in FHD zocken. Oder die Effekte sind so gering, dass man sie fast nicht sieht. Bei einem Shooter wie Metro oder BF V bringt es eh nix weil man gar nicht die Zeit hat sich auf die Spiegelungen zu konzentrieren.

Nanana, vorsicht, wenn du Control mal mit und mal ohne RT gesehen hast, dann willst du nicht mehr ohne, läuft prima auf 3440x1440 mit dlss und sieht genauso gut aus wie nativ.... Gibt einige Screens hier im Forum die du dir anschauen kannst und vergleichen...
Eine gute RT Implementierung ist jetzt schon ne feine Sache und tatsächlich auch spielbar...
 
Weil die AMDler seit neuesten mit erlogenen Verbrauchswerten zu Intels CPUs versuchen Intel zu bashen. Das die 10thGen bei Spielen mehr FPS bei weniger verbrauch liefern wird da gekonnt verleugnet und der OC-Verbrauch in synthetischen Stresstests als Stock-Verbrauch hingestellt.

Das hast du dir doch ausgedacht. Da habe bisher andere Informationenen gelesen.
 
Die Leistung ist mir egal, Hauptsache Vulkan setzt sich noch schneller durch.

Auch wenn ich mich unbeliebt mache, DirectX ist ein sich in Staub verwandelnder Vampir. :ugly:
 
Die Verdopplung der Preise bin ich letztes mal nicht mitgegangen und werde ich in Zukunft nicht mehr mitgehen.
Mein Setup wird sich wohl nur noch im Prozessor verändern.
Spiele fast eh nur noch Spiele mit wenig Grafiklast. Dann werde ich wohl Niemals RDR2 durchspielen.

Schade ...aber irgendwann geht alles mal vorbei.
 
Gerne, scheint aber leider bei diesem Post auch nichts gebracht zu haben...
Kann es ja auch nicht, aufgrund Deiner Texte.

Im Gegensatz zu dir, weiß ich sehr wohl, dass man durch IPC nicht alles ausgleichen kann.
Siehst Du- Gibst Du mir schon recht.

Wobei zu AMD Athlon Zeiten hat dies gegen die Pentium IV ganz gut geklappt, aber vermutlich bist du da einfach zu jung und weißt das gar nicht mehr? ;)
Schwaches rhetorisches Mittel ad Hominem und zudem schön meine Argumente verdreht, nämlich dass es eine Gratwanderung zwischen den einzelnen Größen gibt.
Vor lauter Verzweiflung versuchst Du nun wieder alles nur auf ein Merkmal umzubiegen.

Nur hattest du behauptet, dass AMD hinten dran liegt was die Architektur betrifft und das sind sie von der reinen Shaderleistung eben nicht, da sind sie sogar minimal vor nvidia!
Dann belege mal, wo ich das behauptet habe. Leider stellst gerade Du Dein Unwissen zur Schau, weil Du Architektur mit Fertigung verwechselst.
Du solltest vielleicht mal Deine Pferde etwas im Zaum halten?

Ansonsten ist es mir sehr gut bewusst auf was es bei CPUs und GPUs ankommt, auch das man nicht alles perfekt parallelisieren kann oder eben die hohe Anzahl an Shader perfekt in jedem Game auslasten. Aber wieso führst du das an? Um von deiner eigenen Unwissenheit mal wieder abzulenken?
Nein- Aber Du stellst erneut Deine Unwissenheit hier zur Schau!
Womit hatte AMD denn die letzten Generationen zu kämpfen? Und dann erkläre mir mal, wie es sein kann, dass AMD ja eine solch hohe theoretische Leistung mit seinen Karten liefert, aber trotzdem in Spielen TFLOP zu TFLOP (mit navi nur noch nen Ticken) langsamer ist...

Wieso sollte für AMD dies alles ein rießen Problem darstellen und für nvidia nicht? Wenn man mal auf die Faktenlage schaut ergibt sich da ein anderes Bild:
Sie nutzen den gleichen Prozess -> eine ähnliche Taktgrenze für beide.
Und wieder daneben. Du kannst in ein und demselben Prozess Hochtaktdesigns herstellen oder auf IPC, Density, Energieeffizienz optimieren. Wieder- Das ist ein Kompromiss aus allen Stellgrößen.

Sie haben ähnliche Shaderleistung -> wird es spannend wer diese noch mehr steigern kann.
Die letzte unbekannte ist die Auslastung, da hat AMD deutlich aus GCN gelernt und kann Navi deutlich besser auslasten, sodass hier wohl kein gravierender Nachteil mehr besteht.
Ja- Sie lasten inzwischen besser aus, aber

In the Nvida processor, one SM can handle 32 concurrent warps and with each warp consisting of 32 threads, a fully loaded GeForce RTX 2070 Super can work on 40,960 threads across the whole chip; for Navi, one CU can take up to 16 waves per SIMD32 ALU, with each wave being 32 threads. So the Radeon RX 5700 XT can also be packed with up to 40,960 threads. This would seem to make them exactly even here, but given how differently the CU/SMs are arranged, and Nvidia's advantage with concurrent INT and FP processing, the end result will depend heavily on the code being run...
...
Navi still outputs a maximum of 4 primitives per clock cycle (1 per ACE)
....
Turing also processes 1 primitive per clock per GPC (so up to 6 for the full TU102 GPU)

Die Messungen von "IPC", die hier Takt per Takt 5700 vs RTX 2070 durchgeführt wurden sind EXTREM Workloadabhängig und damit auf Gedeih und Verderb an die Softwareauswahl gekoppelt.
Somit halten solche Vergleiche keinem Wissenschaftlichen Anspruch stand.

Wenn du hierzu natürlich andere Informationen hast, dann poste sie doch bitte, dann brauchst du auch nicht so viel rumeiern ;)
Pack Deine wehenden Fahnen wieder ein - Es herrscht derzeit kein Gleichstand zwischen NVIDIA und AMD. Genausowenig wie derzeit zwischen Intel und AMD. AMD skaliert mit den Ryzens deutlich besser. Zu einer Architektur gehören nunmal ALLE Stellgrößen. Auch was eben der größte Chip seiner Sparte zu leisten vermag.
Cherrypicking hilft hier nicht weiter.
Was die Zukunft bringt, wird die Zukunft zeigen. Da brauche ich mich, wie ich jetzt bereits mehrfach feststellen musste im Detail garnicht mit Dir auseinandersetzen und darauf eingehen, welche unterschiedliche Ausgangslagen die GPU Entwickler bei der kommenden Generation haben.

Falsch, siehe die aktuellen intel CPUS, wäre mir neu, dass die eine beschissene IPC haben.
Ansonsten steht es dir natürlich frei dies auch mit einem Beispiel zu belegen!
Aha- Jetzt gehts dann auch gleich weiter mit Deiner Trickkiste der rhetorischen Schmankerl. Schön nen Strohmann aufstellen.

Wäre mir auch neu, dass die aktuelle Generation eine schlechte IPC hätte. Habe ich aber nie irgendwo anders behauptet.
Das belegt nur wieder mein Beispiel, dass man daran sehen kann, wie sehr Intel AMD tatsächlich abgehängt hatte, wenn die ollen Kamellen Core by Core immernoch gegen die Ryzens anstinken können.

Der Pentium 4 basiert auf Intels NetBurst-Architektur und verrichtet deswegen pro Takt weniger Arbeit als andere CPU-Designs (z. B. Athlon oder Pentium III). Im Gegenzug verfügt der P4 über eine sehr lange Pipeline, um durch das möglichst feine Aufteilen der Befehlsausführung eine hohe Geschwindigkeit primär über den Takt zu erreichen
Hmmm- Entscheidet wohl doch die Architektur mit, was in Sachen IPC bei gleichzeitig hohem Takt physikalisch und organisatorisch machbar ist...


Ebenfalls falsch! Wieder Beispiel intel bzw. kannst du auch Zen2 nehmen, haben beide eine gute IPC und hohe Taktraten!
Wie hoch ich meine CPU/GPU takten kann liegt zu einem großen Teil am Fertigungsprozess. Einfach mal die 90nm mit der 65nm Fertigung von AMD miteinander vergleichen und festellen, dass erstere viel höhere Taktraten erlaubt hat.
Das ist doch alles völlig an der Realität vorbei. Drei Mal darfst Du raten, warum so massiv an IPC und Kernen geschraubt wird.... Im Verhältnis zur vorhergehenden fast linearen Steigerung der Taktfrequenzen von Node zu Node, sind wir an einer Mauer angelangt, gegen die sich physikalisch nicht gut drücken lässt.
Was Du hier nämlich sehr gekonnt unter den Teppich kehrst ist die Stagnation, die inzwischen im Leistungszuwachs sowohl der IPC als auch der Taktraten seit einigen Jahren massiv zu beobachten ist.

Und dieses Problem hat nur AMD und nvidia kann problemlos große DIEs herstellen.
Den Sachverhalt habe ich Dir im Vorhergehenden Post bereits geschildert und auch in diesem Post noch einmal angeschnitten.
Ja- AMD hatte eine Zeit lang Probleme mit ihren größten Chips eine entsprechende Effizienz zu erreichen.

Es ist für AMD auch kein Problem große DIEs herzustellen, sie müssen sich nur finanziell auch lohnen. Für nvidia ist es im übrigen ja auch kein Problem eine Karte mit 5000+ rauszubringen, wieso also sollte dies für AMD unmöglich sein?
Wieder ein Strohmann. Ich sage nicht, dass es unmöglich ist. Im Gegenteil. Ich habe in einem Kommentar zuvor sehr eindeutig klar gemacht, dass ich mir wünsche, dass sie es schaffen mit einer großen Karte einen Wurf zu landen.
Und hoffentlich kriegen sie es hin, die Leistung im Verhältnis zu den Einheiten zu steigern wie es NVIDIA tut. Die verlieren bei der Verdoppelung der Kernzahl 2060 auf 2080TI ca. 15% an Skalierung. Das ist respektabel.
Aber Du als notorischer Schubladensortierer kriegst Das in Deinen Kopf wohl aufgrund von kognitiver Dissonanz nicht ganz hin, einfach mal neutrale Personen aus dem Schubladendenken auszuschließen.

Die IPC ist schon knapp besser wie bei nvidia da müssen sie also gar nichts mehr machen ;)
AHa- Jetzt ist sie schon knapp besser. Dann drehen wir den Spieß mal um. Belege das doch bitte mal. Siehe dazu oben auch meine Ausführung in Sachen IPC und extreme Volatilität bezüglich der zu nutzenden Software.

Ansonsten ist eine hohe IPC immer super, da man durch sie einen schlechten Fertigungsprozess zu einem gewissen Maße ausgleichen kann. Solltest du eigentlich wissen ;)
Ja- Auch eine hoher Taktfestigkeit ist super, eine niedrige Leistungsaufnahme auch ... Wo wir wieder beim Ursprungsthema wären, dass man nicht eine Größe allein betrachten kann.

Man könnte sich an der Stelle nur die Frage stellen, wieso haben wir bei Navi 1 keinen Big Navi gesehen? Und da gehe ich mal schwer von wirtschaftlichen Gründen aus (hohe DIE Kosten, Wafer Knappheit usw.)
Kannst Du tun...

Ist mit zwei Worten beantwortet. Wirtschaftlichkeit und Fertigungsprozess.
Aber mit dem Posting hast du mal wieder gut unterstrichen, dass Kompetenz bei dir fehl am Platze ist.
Ich mach mir die Welt Widdewidde wie sie mir gefällt...

Leider hast Du im letzten Post, der nicht nur von Überheblichkeit, Anfeindung und unverschämten Andeutungen nur so strotzt, so viele Eigentore geschossen, dass Dein letzter Satz hier tatsächlich als Kirsche auf der Torte gesehen werden darf.
Auf so einem Niveau diskutiere ich nicht weiter.

Das hier machts nicht besser:
Ich betrachte die Fakten immer ungefärbt, was man von dir definitiv nicht behaupten kann!

Dennoch LG aber für mich ist aus oben genannten Gründen hier schluss, esseidenn Du bist in der Lage respektvoller mit Deinem Gegenüber umzugehen... werde das dann ebenso handhaben.
Sorry für die Retourkutschen.

Zero
 
Zuletzt bearbeitet:
Gerne, scheint aber leider bei diesem Post auch nichts gebracht zu haben...




Im Gegensatz zu dir, weiß ich sehr wohl, dass man durch IPC nicht alles ausgleichen kann. Wobei zu AMD Athlon Zeiten hat dies gegen die Pentium IV ganz gut geklappt, aber vermutlich bist du da einfach zu jung und weißt das gar nicht mehr? ;)
Nur hattest du behauptet, dass AMD hinten dran liegt was die Architektur betrifft und das sind sie von der reinen Shaderleistung eben nicht, da sind sie sogar minimal vor nvidia!
Ansonsten ist es mir sehr gut bewusst auf was es bei CPUs und GPUs ankommt, auch das man nicht alles perfekt parallelisieren kann oder eben die hohe Anzahl an Shader perfekt in jedem Game auslasten. Aber wieso führst du das an? Um von deiner eigenen Unwissenheit mal wieder abzulenken?
Wieso sollte für AMD dies alles ein rießen Problem darstellen und für nvidia nicht? Wenn man mal auf die Faktenlage schaut ergibt sich da ein anderes Bild:
Sie nutzen den gleichen Prozess -> eine ähnliche Taktgrenze für beide.
Sie haben ähnliche Shaderleistung -> wird es spannend wer diese noch mehr steigern kann.
Die letzte unbekannte ist die Auslastung, da hat AMD deutlich aus GCN gelernt und kann Navi deutlich besser auslasten, sodass hier wohl kein gravierender Nachteil mehr besteht. Wenn du hierzu natürlich andere Informationen hast, dann poste sie doch bitte, dann brauchst du auch nicht so viel rumeiern ;)




Falsch, siehe die aktuellen intel CPUS, wäre mir neu, dass die eine beschissene IPC haben.
Ansonsten steht es dir natürlich frei dies auch mit einem Beispiel zu belegen!


Ebenfalls falsch! Wieder Beispiel intel bzw. kannst du auch Zen2 nehmen, haben beide eine gute IPC und hohe Taktraten!
Wie hoch ich meine CPU/GPU takten kann liegt zu einem großen Teil am Fertigungsprozess. Einfach mal die 90nm mit der 65nm Fertigung von AMD miteinander vergleichen und festellen, dass erstere viel höhere Taktraten erlaubt hat.



Und dieses Problem hat nur AMD und nvidia kann problemlos große DIEs herstellen?



Es ist für AMD auch kein Problem große DIEs herzustellen, sie müssen sich nur finanziell auch lohnen. Für nvidia ist es im übrigen ja auch kein Problem eine Karte mit 5000+ rauszubringen, wieso also sollte dies für AMD unmöglich sein?
Die IPC ist schon knapp besser wie bei nvidia da müssen sie also gar nichts mehr machen ;)
Ansonsten ist eine hohe IPC immer super, da man durch sie einen schlechten Fertigungsprozess zu einem gewissen Maße ausgleichen kann. Solltest du eigentlich wissen ;)
Man könnte sich an der Stelle nur die Frage stellen, wieso haben wir bei Navi 1 keinen Big Navi gesehen? Und da gehe ich mal schwer von wirtschaftlichen Gründen aus (hohe DIE Kosten, Wafer Knappheit usw.)


Ist mit zwei Worten beantwortet. Wirtschaftlichkeit und Fertigungsprozess.
Aber mit dem Posting hast du mal wieder gut unterstrichen, dass Kompetenz bei dir fehl am Platze ist.




Welcher Fertigungsvorteil soll das im Detail sein? Dass AMD mit der IPC gleichgezogen ist liegt an der Architektur und nicht an der Fertigung... Solltest du eigentlich wissen:schief:
Ansonsten wiederhole ich es gerne nochmal für dich nvidia hat mit der 12nm Fertigung eine für sie sehr optimierte Fertigung bekommen, die es erlaubte:
- hohe Taktraten zu fahren
- günstig zu fertigen

Und wenn du dir dazu die 7nm Fertigung anschaust, dann wirst du feststellen, dass wenn man die Navis extrem hochtakt der Verbrauch sehr stark ansteigt, wodurch dein "Joker" komplett verloren geht. Sie haben mit dem 7nm Prozess nur deutliche Vorteile, wenn niedrigere Taktraten wie bei der 5600 XT gefahren werden.
Aber wenn man sich wirklich mit der Thematik beschäftigt hat, sollte man das alles eigentlich wissen! :schief:

Im übrigen hätte ich es an Nvidias Stelle exakt genauso gemacht, den durch die 12nm kann man die Marge oben halten, aus der Sicht kann man ihnen auch 0,0 vorwerfen und die Karten wären in 7nm nicht schneller geworden, da man sie damit auch nicht höher takten kann.



Ich betrachte die Fakten immer ungefärbt, was man von dir definitiv nicht behaupten kann!



Soll ich jetzt noch aufzählen, was du mir hier alles unterschieben wolltest :schief:

Ich kann mich an Tests erinnern, die die Leistung verglichen haben, um die Architekturen zu vergleichen und am Ende kam raus, das Navi und Turing gleichwertig waren. Da war kein Vorteil des einen. Beide gleich. Nur das Turing bei gleichem Takt etwas weniger verbraucht.

Ansonsten bin ich voll bei dir.

Bist du dir da sicher?
Ich kenn dieses Argument schon von Fermi her. Zu der Zeit waren die HD5000er die Konkurrenten.
Ich bin mir nicht sicher, ob HD1000 und 2000 ähnliche Argumentationen hervor brachten.
Die beiden Reihen waren nicht so der Bringer.

Ich find es übrigens putzig, wie AMD jetzt schon 2x namenstechnisch Kontrapunkte zu Nvidias 5000er Serie brachte und beide Male als kompletter Gegenentwurf, was Leistung und Hitze angeht.
Aber in 2 weiteren Generationen kann Nvidia dann selbst wieder einen Kontrapunkt bei den 5000ern setzen.

Habe ich nicht so in Erinnerung, aber man kann verstehen, worauf ich hinaus will ;)

Ich bin ziemlich gespannt auf die Leistung von Big Navi. Mir würde es schon reichen wenn meine Games unter 4k auf max. laufen. Dazu noch die Leistung der V64 bei Capture One und ich bin glücklich.



Kannst du auch was anderes als AMD zu bashen?
Und RT funktioniert derzeit nur unter Einschränkungen. Damit das auf maximalen Details läuft, braucht man ne 2080ti und kann nur noch in FHD zocken. Oder die Effekte sind so gering, dass man sie fast nicht sieht. Bei einem Shooter wie Metro oder BF V bringt es eh nix weil man gar nicht die Zeit hat sich auf die Spiegelungen zu konzentrieren.

Das kann ja alles deine Meinung sein. Meine ist anders. Also kann es schon sehen in Battlefield, auch wenn ich nicht nur herum stehe ;)

Das hast du dir doch ausgedacht. Da habe bisher andere Informationenen gelesen.

Der PCGH Test zeigt eindeutig die höhere Effizienz in Spielen, für den 10900k, als die ZEN2 3900X und 3950X. Beim 3600 weiß ich gerade nicht mehr...

Die Leistung ist mir egal, Hauptsache Vulkan setzt sich noch schneller durch.

Auch wenn ich mich unbeliebt mache, DirectX ist ein sich in Staub verwandelnder Vampir. :ugly:

Ach, DX12 ist schon ok und garantiert nicht schlechter, als Vulkan. beide sind mir Recht. Witzig finde ich, das unter DX12 die Quadcores mit HT wieder richtig gut aussehen ;)
 
Zuletzt bearbeitet:
Yup. 16GB HBM und sie ist mir :nicken: Wenns geht auch wieder mit HBCC :-)
@Schneezerschnippsler: Mir ist aus den letzten Jahren keine AMD-Karte bekannt, welche jemals den Enthusiastenbereich (xx80Ti) angreifen sollte/wollte. Gehobene Mittelklasse (xx07) oder Highend (xx08) war ja immer in Schlagdistanz und selbst ne olle R9 390 macht noch heute einen befriedigenden Job. Mir würde das Niveau einer möglichen RTX 3080 vollkommen genügen und dafür mit mehr/besseren Speicher. Die letzten paar Prozent mehr (aka Ti) sind eh nur fürs Ego oder die Signatur.
Gruß T.

Da kann ich dir nicht zustimmen.

Wenn jemand gescheit 4k machen will, kommt er um eine ti eigentlich nicht herum, wenn man sich das leisten will. Oder man lässt es und macht 1440p, wo dann schon eine 2070 Super oder eben eine 5700XT ausreicht.
Ich persönlich würde gern den Sprung auf 4k machen, da ich eh einen neuen Monitor bräuchte. Warte aber ab, was da kommt, weil die 4k Grafikkarte muss auch bezahlbar sein. Für mich heißt das: Darf nicht mehr als 500€ kosten.

Wir werden sehen, was da kommt....
 
Zurück