Doppelte Radeon RX 5700 XT: Navi 21 angeblich mit 80 Compute Units

Soviel Ignoranz ist keine Tugend sondern ein charakterliches Defizit. Bei deinem 150W Budget denken frage ich mich wie du damit dann auf Highend GPUs ab der 2080 hinkommen willst. Selten so einen Nonsens gelesen

Deine Ignoreliste ist scheinbar noch mangelhaft ausgestattet.
Leider muss ich durch deinen quote diesen BS auch lesen, obwohl meine eigentlich schon ganz gut ist.

Dies ist eigentlich noch ein Defizit des Forums hier, warum man Zitate von Ignorierten lesen muss.
(Mir wäre es lieber, dass auch Zitate von Ignorierten nicht angezeigt werden)
 
BF ist n Multiplayer.... also wer.. ausser Opfer, die gerne in Pfützen schauen um dort "tolle Bildchen" zu sehen, soll dort wohl RT aktiviert haben? :D omg... :D wenn man keine Ahnung hat...
Dann erkläre doch mal warum EA/ DICE eine der modernsten Grafikengines bauen? RT mag bislang noch ein nettes Feature sein, aber in Zukunft wird sich das ändern, da RT einfach zu viele Vorteile für Entwickler mit sich bringt.

Einfach mal wieder herzhaft zum beömmeln, wie allen hier egal ist, wie die Alarmglocken auf Heizkraftwerk stehn, wie man es halt von AMD kennt. Effizienz ist das wichtigste an einer GPU, das steht an erster Stelle. Und dazu auch noch eine dual Lösung? Wann lernen es die Leute endlich, SLI Lösungen bringen nichts. Wenn eine GPU mehr als 150W verbraucht zu nheutiger Zeit besonders in 7nm, ist das nicht mehr vertretbar.
Dies ist der Beweis, warum die News irreführend sein kann.
 
Ja, ich weiß...träume ein wenig. Aber darf man hoffentlich noch :ugly:. Kann es mir einfach nicht vorstellen, dass AMD dieselben vierstelligen Mondpreise in der High-End-Sparte aufruft. Ich sage einfach mal max. 999€ - auch für Customs. Das muss drin sein, egal was die Karte leisten wird.

Ich weiß was Du meinst (träumst), aber wenn die Leute für eine RTX 2080 Ti ca. 1200 € (Release 1259 € und einige Custom sogar bis zu 1499 €) bezahlen, die Big Navi über deren Leistung liegt,
"nur" 999 € verlangen dürfen ?!?
Wenn diese schon mehr FPS/€ liefert, dann dürfen sie meiner Meinung nach sich das auch bezahlen lassen.
Nicht dass ich soviel Geld ausgeben würde, aber wem haben wir diese Preisgestaltung zu verdanken ?
Na klar, AMD. Diese sind mit Schuld, da sie im High End Sektor nix liefern und nVidia die Preise nach Lust und Laune gestalten kann. Tolles Argument …

MfG, Föhn.

MfG, Föhn.
 
Dann erkläre doch mal warum EA/ DICE eine der modernsten Grafikengines bauen? RT mag bislang noch ein nettes Feature sein, aber in Zukunft wird sich das ändern, da RT einfach zu viele Vorteile für Entwickler mit sich bringt.

Warum tat sich dann die letzten 10 Jahre im Bereich RT rein gar nichts?

Selbst eine 2080TI ist zu langsam für RT.

Daher zweifel ich stark das sich RT überhaupt durchsetzen wird. Eher wird es verschwinden wie dieses komische PhysX, was auch mega gehyped wurde und es keine 100 Spiele mit gibt.
 
Die fehlende RT Leistung liegt aber auch an der Software mit Hardwarebeschleunigtem RT ist zur Zeit Wolfenstein Youngblood das beste Beispiel aber das ist auch ein Vulkan Spiel
 
Also ich könnt mir schon vorstellen dass es eine Dual-GPU-Karte werden wird. Die Gesamtshaderzahl passt schonmal. Und die Nummerierung passt auch, immerhin hab ich eine HD5970 mit 2 GPUs, die logische Schlussfolgerung wäre dass die RX5900 auch eine wird. Mit 2x 150W ist die Karte auch noch relativ leicht zu versorgen. Bin sowieso der Meinung dass dieser Abwärtstrend bei Platinenlängen, den AMD mit der Fury bestritten hat ein Ende gesetzt gehört. Die machen optisch nichts her im schwarzlichtbeleuchteten Gehäuse.
Sinnvoll nutzen könnte man die Chips auch. Da ja NV in ihrer göttlichen Gütigkeit physix freigegeben haben könnte eine GPU die Physikberechnungen übernehmen, während die zweite mit der Intel-HD vom 10900k im Hydra-Verbund rendert.
Wichtig is halt am Ende der Preis. Und da es AMD ist, wo die Karte 2 Monate nach der Garantie den Geist aufgibt, sollten sie eh 30% billiger sein als der Mitbewerber. Verdienen noch immer genug wenn man bedenkt dass NV die Preise nächste Generation um mindestens 10% erhöht.
 
Warum tat sich dann die letzten 10 Jahre im Bereich RT rein gar nichts?

Selbst eine 2080TI ist zu langsam für RT.

Daher zweifel ich stark das sich RT überhaupt durchsetzen wird. Eher wird es verschwinden wie dieses komische PhysX, was auch mega gehyped wurde und es keine 100 Spiele mit gibt.

Wo ist die denn zu langsam? Tut ja so als ob da nur 10-15fps bei rum kommen.
Eher sind die Erwartungen viel zu hoch einiger Leute. Da wird 4k mit 120fps und vollem Raytracing verlangt.

Es gibt jetzt schon Effekte die auch ohne Raytracing 30% der Performance fressen. Soll man die auch abschaffen und wir treten technisch auf der Stelle?

Man hat echt das Gefühl manche sind neu in der PC Welt wo noch nie neue Technik erst Leistungshungrig daherkam.

Wert doch mal die Vorstellung ab dass gleich alles 4k Ultra mit über 100 Bildern läuft. VR Brillen kannst auch nicht Max-Out in 4K befeuern.

Da selbst die neuen Konsolen auf Raytracing setzen wirst da leider die nächsten Jahre immer mehr Spiele mit sehen. Dabei ist es doch vollkommen egal ob 1440p mit Checkerboard oder DLSS (was in Wolfenstein Youngblood teils besser als 2160p nativ aussieht) mit 30 oder 60fps. Spielbar wird es sein wer hohe Performance mit 100fps braucht hat doch schon immer nicht alle Regler nach Rechts schieben können.
 
Big Navi deckt nun welche Karten ab? 5800 + 5900 (XT)? Vlt. kommt ja die die AMD Radeon Pro Vega II vom Mac Pro als 5950 wenn Apple das zulässt?!
 
Wo ist die denn zu langsam? Tut ja so als ob da nur 10-15fps bei rum kommen.
Eher sind die Erwartungen viel zu hoch einiger Leute. Da wird 4k mit 120fps und vollem Raytracing verlangt.

Es gibt jetzt schon Effekte die auch ohne Raytracing 30% der Performance fressen. Soll man die auch abschaffen und wir treten technisch auf der Stelle?

Man hat echt das Gefühl manche sind neu in der PC Welt wo noch nie neue Technik erst Leistungshungrig daherkam.

Wert doch mal die Vorstellung ab dass gleich alles 4k Ultra mit über 100 Bildern läuft. VR Brillen kannst auch nicht Max-Out in 4K befeuern.

Da selbst die neuen Konsolen auf Raytracing setzen wirst da leider die nächsten Jahre immer mehr Spiele mit sehen. Dabei ist es doch vollkommen egal ob 1440p mit Checkerboard oder DLSS (was in Wolfenstein Youngblood teils besser als 2160p nativ aussieht) mit 30 oder 60fps. Spielbar wird es sein wer hohe Performance mit 100fps braucht hat doch schon immer nicht alle Regler nach Rechts schieben können.

Wer verlangt 4K mit 120 FPS und Raytracing? Vielleicht bist auch Du neu in der PC Welt? Bei Release war eine 1080ti 76% schneller und 8% teurer als eine 980ti. Eine 2080ti gerade mal 26% schneller und stolze 100% teurer als eine 1080ti. Der sehr viel höhere Preis und die geringe Leistungssteigerung wurde in Tensor Cores und DLSS verpackt, um es dem Kunden schmackhaft zu machen.
Gibt es überhaupt eine Karte die 4K Ultra mit 60 FPS garantieren kann? Ich glaube das kann nicht einmal eine 2080ti. Selbst Karten von 2060 bis 2080 können das nicht einmal bei 1440p Ultra garantieren.
Schaut man sich den ausführlichen Bericht von Techspot (worst case) über Metro Exodus an, schafft lediglich die 2080ti konstant über 60 FPS bei 1440p ohne Raytracing und nicht einmal 60 FPS mit RTX High, geschweige denn Ultra. Bei 4K RTX Ultra schafft die 2080ti nicht einmal 30 FPS, bei RTX High gerade mal 34 FPS und ohne RTX stolze 47 FPS. Für diese Karte legen Kunden 1.000 - 1.500 Euro und einen deutlich teureren Monitor hin. Selbst wer nur halb soviel Geld ausgibt, hat wenig Lust die Einstellungen herunterzudrehen.

Zuerst muss es wieder einen ordentlichen Leistungssprung geben, sonst bleibt Raytracing nur eine nette Spielerei, um nette Screenshots auf den höchsten Einstellung anfertigen zu können.
 
Wer verlangt 4K mit 120 FPS und Raytracing? Vielleicht bist auch Du neu in der PC Welt?

War natürlich nur übertrieben dargestellt. Aber warum sind 1440p/60 mit rechenintensiven Raytracing immer "zu langsam".
Wenn die volumetrische Wolken in AC Odyseey oder Nebel in Monster Hunter 30% Performance fressen sagt doch auch keiner "die Karten sind viel zu langsam". Da kommt dann entweder schlecht programmiert oder die Sache abgeschaltet.

Jetzt gehe mal in der Zeit zurück was aufwendige Kantenglättung, Tesselation usw am Anfang gefressen haben.



Zuerst muss es wieder einen ordentlichen Leistungssprung geben, sonst bleibt Raytracing nur eine nette Spielerei, um nette Screenshots auf den höchsten Einstellung anfertigen zu können.

Zeigt mir mal durchgängig Technik die komplett ausgereift auf den Markt kam? Wie sieht denn die Elektrobranche aus? HD fing mit HD Ready mit 720p an und dann war Full HD das nächste Ziel. Wir hatten UHD TV die nur 30Hz entgegennehmen konnten usw.
Handy kamen auch nicht mit QHD Display und 3-5 Kameras auf den Markt.
Alles entwickelt sich erst nach einiger Zeit weiter.
Nur tüfteln die nicht jahrelang im Labor und verschießen Entwicklungsgelder ohne was davon auch mal zu verkaufen.
VR ist eigentlich auch noch nicht ausgereift aber trotzdem gibt es jetzt den zweiten Versuch im Markt Fuß zu fassen.
Gleiche gilt für Raytracing was es schon wesentlich länger gibt. Nur sollte man auch mal sehen dass die klassische Rendertechnik mit ihren Fake-Effekten auch am Ende ist. Wenn 4k durch ist wird 8k durch das Dorf getrieben. Wie weit sind wir da wieder von 8k/60 weg?
Aber nur Auflösung drauf kann es galt auch nicht sein.
Es war auch nicht NVIDIA allein die Raytracing in Entwicklung hatten. AMD hat auch schon die Jahre daran geforscht.
Sowas ist der nächste Schritt was Grafik angeht. Sowas muss irgendwo einen Anfang nehmen. Wir werden auch in 4 Jahren keine Karzen haben die ein komplettes Bild raytracen können und schon gar nicht in 2160p mit 60 Bilder.
Nur wo man vor 3 Jahren 3-4 Titan zusammenschlagen musste geht es jetzt schon auf einer Single-GPU.
Auch wenn es nur Teile im Bild sind muss Soft- und Hardware wachsen. Keiner Entwickelt neue Engine wenn keine Hardware am Markt ist.

Hier ging es auch nicht um irgendeine Preisfrage ob es einem sowas wert ist.
Nur anzunehmen dass die klassische Darstellung noch großartig Sprunge macht ist dich such nicht der richtige Weg. Die ganzen Fake-Spiegelungen und volumetrische Lichtberechnung frist dir für jedes 10% mehr Optik auch übermäßig viel Leistung. Also kippt dass Optik/Leistungsniveau so oder so.

Wenn Raytracing zu früh dran ist und Leistung frist warum kommt es dann in den neuen Konsolen zum Einsatz die sich eher an die breite Masse richten?
 
willst du jetzt ernsthaft ein Fass aufmachen, weil anstatt 2 doch 4 oder 5 Spiele rausgekommen sind? Are you fuckin kidding me?
ne, nur im Gegensatz zu euch bin ich an der Realität interessiert. Hab nur die paar AAA Titel aufgezählt die mir direkt so eingefallen sind. Im endeffekt sinds dann glaub 15 Titel oder so geworden.

Stell diese Zahl mal neben die Spiele, die OHNE rausgekommen sind. Und merkst was? :wall:
Ja - ich merk was - tausende Spiele die auf AMD-Karten deutlich langsamer laufen.
Oh warte - ihr wollt ja nur von den ganzen anderen Spielen hören wenns darum geht auch nur irgend wie gegen nvidia stänkern zu können - an den Fakten seit ihr ja nicht interessiert.

Sag mal - wie viele Spiele sind mit Radeon-Rays rausgekommen? :P



Warum tat sich dann die letzten 10 Jahre im Bereich RT rein gar nichts?
Könnte das eventuell damit zu tun haben das jetzt die Leistung weit genug vorangeschritten ist und es dedizierte beschleunigungs-Hardware in den Konsumer-Bereich geschafft haben? Das würde ja denken erfordern, kann für euch also nicht sein :ugly:

Eher wird es verschwinden wie dieses komische PhysX, was auch mega gehyped wurde und es keine 100 Spiele mit gibt.
Ach PhysX - das in hunderten Spielen Jährlich inkludiert ist da es die basis sehr viele Physik-Engines bildet? Ja ja - wird sicher verschwinden.
 
Könnte das eventuell damit zu tun haben das jetzt die Leistung weit genug vorangeschritten ist und es dedizierte beschleunigungs-Hardware in den Konsumer-Bereich geschafft haben? Das würde ja denken erfordern, kann für euch also nicht sein :ugly:

Eine GTX 480 konnte schon RT vor 10 Jahren! Also im Konsumer Bereich ist der kram schon ewig. Soviel mal dazu. Glaubst nicht? Hier der Link zum Test damit!


GeForce GTX 480 im Test: Nvidias neues Grafik-Flaggschiff sucht die Extreme (Seite 23) - ComputerBase

Und wo schafft bitte aktuelle Hardware RT ohne weiteres? Selbst eine RTX 2080TI ist Müll wenn es um RT geht und bricht massiv ein. Bei den kleineren Karten würde ich nicht einmal daran denken den Regler auch nur anzuklicken.


Ach PhysX - das in hunderten Spielen Jährlich inkludiert ist da es die basis sehr viele Physik-Engines bildet? Ja ja - wird sicher verschwinden.

Hunderte Spiele im Jahr? Ähm, hier hast mal eine Liste mit fast allen Spielen. :lol:

List of games with hardware-accelerated PhysX support - Wikipedia

Und mit RT wird genauso verlaufen, es wird in der Versenkung verschwinden, weil es einfach viel zu wenig bringt und viel zu viel Leistung verschlingt. Alleine schon weil die Auflösung die überwiegend genutzt wird von den Usern immer weiter steigt.

Als ich mit dem PC anfing, war 1280x1024 die Auflösung die 90% der User genutzt haben. Heute sind wir auf dem weg, dass WQHD die Oberhand gewinnt.
 
War natürlich nur übertrieben dargestellt. Aber warum sind 1440p/60 mit rechenintensiven Raytracing immer "zu langsam".
Wenn die volumetrische Wolken in AC Odyseey oder Nebel in Monster Hunter 30% Performance fressen sagt doch auch keiner "die Karten sind viel zu langsam". Da kommt dann entweder schlecht programmiert oder die Sache abgeschaltet.

Jetzt gehe mal in der Zeit zurück was aufwendige Kantenglättung, Tesselation usw am Anfang gefressen haben.

[...]

Hier ging es auch nicht um irgendeine Preisfrage ob es einem sowas wert ist.
Nur anzunehmen dass die klassische Darstellung noch großartig Sprunge macht ist dich such nicht der richtige Weg. Die ganzen Fake-Spiegelungen und volumetrische Lichtberechnung frist dir für jedes 10% mehr Optik auch übermäßig viel Leistung. Also kippt dass Optik/Leistungsniveau so oder so.

Wenn Raytracing zu früh dran ist und Leistung frist warum kommt es dann in den neuen Konsolen zum Einsatz die sich eher an die breite Masse richten?

Wie Du selbst ausführst, gab es schon immer neue Technik, doch noch nie war der Leistungssprung so gering wie von der 1080ti zur die 2080ti. Gleichzeitig gönnte man sich auch noch die größte Preissteigerung. Wer jetzt immer noch mit Tensor Cores und DLSS ankommt, muss nur die 2080 Super und die 2080ti vergleichen: Etwa 10 - 12% Leistungsunterschied, kosten 70 - 120% mehr.
Nvidia fürchtete damals AMD, sie hatten ja auch allen Grund dazu. Doch AMD lieferte dieses Mal nicht. Nicht einmal annähernd, doch die 1080ti war schon auf dem Markt. Was man bekommt, wenn Nvidia niemanden fürchten muss, sieht man an der 2xxx Generation.
 
Wie Du selbst ausführst, gab es schon immer neue Technik, doch noch nie war der Leistungssprung so gering wie von der 1080ti zur die 2080ti. Gleichzeitig gönnte man sich auch noch die größte Preissteigerung....

Kommt darauf an welche Leistung man begutachtet. Schau was die 1080ti bei Raytracing schafft und um welchen Faktor die RTX Karten schneller sind.
Klar, bei der klassischen Berechnung hat sich der Sprung in Grenzen gehalten. Allerdings kann Turing wesentlich besser mit DX12 und Vulkan umgehen. Bei der 1080ti wusste ich dass es eher eine reine DX11 Karte ist für paar Jahre.

Es geht mit auch nicht um das Preis/Leistungsverhältnis. Die 2080ti hätte ich nie über 1000,- geholt. Bin nur die 1080ti wieder für 700,- los und die 2080ti für 900,- angeboten die sogar den A-Chip trägt.
War mir die Neugirde wert und weil viele Ganes mit angepassten Settings dann doch (ohne RT) 4k/60 schaffen.

Ich kann genauso gut verstehen wenn Jemand die RTX Karten auslässt und eher bei Ampere oder Big Navi zuschlägt.
Auch weil das Amgebot an Raytracing-Games nich nicht sehr hoch ist.

Dennoch galten ich es für unsinnig zu behaupten dass Raytracing auf den RTX Karten nicht läuft.
Denn man darf halt nicht alles auf einmal erwarten und sollte auch den hohen Rechenaufwand dahinter sehen.
Es wird halt der nächste Schritt sein auch wenn wir hier keine Crysis 1 Sprünge mehr sehen.
Nur ohne RT sind z.B. zwischen einem Assassins Creed Unity bis Origin und Odyseey auch keine Welten an Geafiksprünge entstanden.
Wir sind meiner Meinung nach an einem Punkt wo jede optische Verbesserung jede Menge Programmieraufwand und Zeit erfordert.

Deswegen wird auch AMD den Weg gehen weil nur Auflösung hoch allein halt auch keine grafischen Sprünge hinlegt.

Ob ein Spiel gut aussieht hängt halt in Kombination von Auflösung, Artstyle und Fähigkeit der Entwickler ab. Ob 4k/60 gehen vom Genre, Engune sauberer Umsetzung.
Wirst auch mit den nächsten 2 GPU Steigerungen nicht jedes Game in 4k/60 haben auch ohne Raytracing.

Abwarten was kommt und dann einsteigen wenn einem die Leistung bzw das Gebotene zu einem gewissen Preis zusagt.
Ich bin auch auf Big Navi gespannt.
 
Die Neon Noir Demonstration von Crytek hat doch gezeigt, dass die Tensor Cores von Nvidia der selbe Schmarn wie PhysX, Hairworks etc. sind. Es fehlt schlicht der Leistungssprung.
Die Turing kann mit DX12 und Vulkan besser umgehen? Die 2080ti wird bei BF5 in FHD sogar von der Radeaon VII und der 5700 XT eingeseift. Selbst bei höheren Auflösungen kann sie sich nicht wie gewohnt absetzen.

AMD Radeon RX 5700 and 5700 XT review - DX12: Battlefield V

Im Vergleich mit der 2070 wird das sogar noch deutlicher:

Borderlands 3 im Technik-Test: DX11 vs. DX12, GPU-Benchmarks, CPU-Benchmarks, Frametimes und Fazit - ComputerBase

Turing ist, im Vergleich zu Pascal oder Maxwell, schwach auf der Brust. Sollte Ampere ähnlich enttäuschend sein, hätte AMD tatsächlich eine Chance. Sollte jedoch Nvidia wieder einen Sprung von über 70% machen, eher nicht. Dann würden die Preise aber so bleiben wie sie sind.
 
Pickt dir dich bitte nicht irgendwelche Rosinen raus. Gibt genug Test auf PCGH, Computerbase und Co die zeigen dass Turing unter DX12 und Vulkan mehr zulegt als Pascal. Maxwell hat nich verloren da es keine wirkliche Hardwareauslegung hat. Pascal kann nur switchen was nur für minimale Verbesserungen sorgt wenn überhaupt.
Turing kann aber einige Prozent mehr zulegen wenn es richtig abgestimmt ist.

Dass bei DX12 und Vulkan weniger der Treiber greift als vielmehr wie es der Entwickler auf die Hardware abstimmt ist doch kein Geheimniss.
Gears 5 ist trotz UE4 gleich gut auf NVIDIA und AMD ausgelegt. Andere Fames bevorzugen AMD und dann gibt es Beispiele wo Turing mehr zulegt als Vega.
Muss ich dir die jetzt wirklich alle raussuchen?

Kannst schon selber nachlesen dass Turing besser für DX12 und Vulkan ausgelegt ist.

Wenn es der Entwickler verbockt kann es bei Team Grün sogar auf DX11 besser laufen durch die bessere Auslastung die NVIDIA über den Treiber zur Hardware erzielt.

Msn muss schon mal das Gesamtbild betrachten und nicht einzelne Games wo die Ursache oft auch im Test erklärt wird. Hat dann weniger was mit der Hardwarefähigkeit als viel mehr auf welche Architektur der Entwickler mehr Wert gelegt hat.
 
Pickt dir dich bitte nicht irgendwelche Rosinen raus. Gibt genug Test auf PCGH, Computerbase und Co die zeigen dass Turing unter DX12 und Vulkan mehr zulegt als Pascal...

Die Ergebnisse sind durchwachsen, doch weit davon entfernt klar besser zu sein. Die AMDs dagegen laufen häufiger besser mit DX12 und Vulkan. Doch das kann im Moment vernachlässigt werden, weil 2019 vielleicht 20 Titel mit DX12 Unterstützung auf den Markt kamen und nicht einmal die Hälfte davon nennenswert optimiert wurden.


in full hd limitiert auch die cpu in bf v.....

Das stimmt, erklärt aber trotzdem nicht das gleichzeitig schlechte Abschneiden der Titan, 2080 und 2070.
 
Zurück