AMD Next Horizon Gaming mit Navi und Ryzen 3000: E3-Event im Liveticker ab 0:00 Uhr

Was für Argumente gibt es dann für die 5700 XT?

Frag das bloß nicht mich :ugly: Ich werde 2020 zu Ampere greifen sofern Navi20 nicht gravierend besser wird.

Ja, absolut unrealistisch, ich denke wir werden eine Custom 5700XT/5700 in den Konsolen sehen, aber mal schauen.

Das glaube ich zwar nicht aber wie gesagt es kann so oder so kommen. Letztlich müssen die Spiele überzeugen und die Konsole soll qualitativ mich überzeugen können (Verarbeitung, Lautstärke). Wenn du mein Tipp hören willst, ich tippe auf 3072 Navi Cores Gen2 und 48 Raytracing Cores ~1650Mhz (Samsung 7nm EUV). Das wird Ca. die Leistung der RX5700XT entsprechen bzw. der RTX2070. Mehr erwarte ich nicht mehr und von 12 TF sollten wir uns verabschieden. Das erklärt auch warum MS bei ihren Teaser keine Teraflops Angaben gemacht haben.

Gute Nacht und viel Spaß noch beim diskutieren :)
 
?? wo lebst du denn ?

was bringen mir 16 Kerne.... beim Gaming ?

falls ich mehr Kerne zum arbeiten brauche.. dann wechsle auch gleich die Plattform zu AMD Threadripper oder Intel....

Google mal ein wenig AMD Bulldozer bzw. FX, da findest du dann ein paar Tests wo die (deutlich) niedriger taktenden Intels davonziehen. Takt ist ein Faktor der Kombination mit IPC. Die hat AMD ja wieder deutlich anheben können. Darum zu sagen "Minimum 5GHz" ist deshalb für mich ein Indikator von Ahnungslosigkeit.

Zeigt sich auch im nächsten Punkt: Mit steigender Kernanzahl habe ich potentiell mehr Kerne, die höher takten können dabei. Darum zieht der AMD 12-Kerner dem Intel 12 Kerner im ST-Test mit 15% und im MT-Test nur mehr mit 6% davon. Wenn ich also ein auf 4 Kerne optimiertes Spiel habe, nehme ich die 4 "besten" Kerne. Damit ist der 16-Kerner also auch fürs Gaming interessant.

Wobei nicht wirklich, denn das Limit kommt zu 99% nach wie vor von der CPU, da tut's auch ein 200€ 6-Kerner für die nächste Zeit.
 
?? wo lebst du denn ?

was bringen mir 16 Kerne.... beim Gaming ?
Dann kann man echtes Hardcoregaming betreiben, wenn man noch 32+ GB RAM und 2 GPUs verbaut. Auf Monitor 1 zockt man ein rundenbasiertes Strategiespiel wie Civ gegen maximale Anzahl an CPU-Gegner mit entsprechenden Wartezeiten und auf Monitor 2 noch BFV oder CitySkylines parallel und nebenbei streamt man am besten noch beide Spiele? :-D
 
Ausgehend vom 3600 (6 Kerner) 200$, will ich 2 Kerne mehr also den 8 Kerner, muss ich 130$ mehr drauf packen= 3700X, will ich nun ausgehend vom 3700X 4 Kerne mehr, also ein doppelt so hoher Sprung wie eben, muss ich nur 170$ oben drauf legen (eigentlich sollten es ja +260 sein, wenn man für 2 Kerne 130 blechen muss wie im ersten Schritt gesehen) = 3900X (500$), nur der finale Sprung, wenn ich all in gehen will und weitere 4 Kerne oben drauf will, muss ich 250$ oben drauf packen (3950X 750$). Also kauft mal alle den 12 Kerner, der lohnt sich am meisten^^ (Spaß)
 
Ja, aber die 5700XT hat schon eine TDP von 225 Watt, und das vermutlich nicht im Boost Clock mit 1900 Mhz (mit 1900 Mhz sind es gut 9,8 Teraflops) , da saugt das Ding wohl über 250 Watt.
Ich bezweifle dass Sony oder Microsoft eine Konsole mit 300 Watt Verbrauch auf den Markt bringen werden.

Realistisch, preislich und technisch ist eine Customlösung zwischen 5700 und 5700 XT, um das Optimale aus Stromverbrauch und Leistung rauszuwürgen.

Woher stammen die Informationen zum Verbrauch?
 
Frag das bloß nicht mich :ugly: Ich werde 2020 zu Ampere greifen sofern Navi20 nicht gravierend besser wird.
Ich auch, und Navi 20 wird grob gesagt doch eh nur ein Navi Refresh, oder?
Das glaube ich zwar nicht aber wie gesagt es kann so oder so kommen. Letztlich müssen die Spiele überzeugen und die Konsole soll qualitativ mich überzeugen können (Verarbeitung, Lautstärke). Wenn du mein Tipp hören willst, ich tippe auf 3072 Navi Cores Gen2 und 48 Raytracing Cores ~1650Mhz (Samsung 7nm EUV). Das wird Ca. die Leistung der RX5700XT entsprechen bzw. der RTX2070. Mehr erwarte ich nicht mehr und von 12 TF sollten wir uns verabschieden. Das erklärt auch warum MS bei ihren Teaser keine Teraflops Angaben gemacht haben.
Das halte ich auch für realistisch, bzw das was ich von Beginn an getippt habe vor vielen Monaten.
Und nun sieht man auch natürlich wieso Microsoft keine Teraflops angegeben hat.
Woher stammen die Informationen zum Verbrauch?
Kannst Du auch hier lesen:
https://www.pcgameshardware.de/AMD-...chmarks-Nvidia-Geforce-RTX-2070-2060-1283978/

5700XT: 225 Watt TDP
5700: 180 Watt TDP
 
Raytracing wird es in immer mehr Spielen geben.
Und diese Entwicklung lässt sich auch nicht mehr aufhalten.

Navi 20 (RDNA 2.0), also die GPU in den SoCs der nächstem Playstation und X-Box, haben alle eine RT-Unterstützung.
 
Mir ist es egal ob die neue um 5% schneller oder langsamer ist ! Ich will konstanz.
Ich hoffe AMD weiß endlich wie DX11 funktioniert. OpenGL sei ihnen verziehen aber nicht DX11!

90% aller Spiele nutzen diese schnittstelle.
 
Er fährt ein 2,5 Tonnen SUV und hat einen Kühlschrank von 1990 in der Küche stehen...

Du kannst halt nicht einen Meter über den Tellerand schauen und kapierst nicht warum es für AMD sehr wichtig ist, effizient zu sein, bei Ryzen ist die Effizienz aber dann wieder wichtig...

Sie fertigen in 7nm, Nvidia in 12nm, wenn Nvidia umsteigt, werden Sie mind. die doppelte Effizienz besitzen und das dauert vielleicht noch 1 Jahr.

Und ich hab einen Mustang Eco Boost getuned mit 6,5 bis 8 L Stadtverbrauch und nur LEDs im Haus und um die Kosten ging es zudem gar nicht, sondern wenn überhaupt um AMD als Firma.

Das soll RDNA eine neue Arch sein?
Das ist wieder eine GCN Iteration, nicht effizienter als ne Radeon 7.
 
Es gibt neben dem Takt noch andere Stellschrauben an denen AMD gedreht hat (IPC, Cache, neue 7nm-Architektur).
An den Benchmarks sieht man, dass das viel gebracht hat. Es kommt nicht nur auf die Frequenz an.

Das ist mir klar.... das sagen sie seit Ryzen 1....
nun sind wir 3 Jahre weiter.... und es kommt ein 16 Kerner auf die Gaming Plattform... (was als Option auch sehr gut ist)
aber warum nutzen sie nicht das Potenzial ihrer Technik und den Vorsprung und bringen etwas wirklich schnelles raus.
 
Also du willst gar keines, nicht mal Anno oder Frostpunkt in die AMD Werte mit einrechnen?

ARK, oder wenigstens Fortnite? Die 5,8% Mehrleistung die AMD da angibt, na schauen wir mal was übrigbleibt, Hersteller Werte sind nie das was am Ende die Reviewer messen.

Und nur AAA Games zockt niemand, da kannst du dir das noch so einseitig schönreden.

Doch, gerne Anno und noch ein oder 2 UE4 Spiele mit rein, die Engine ist ja definitiv weit verbreitet. Mehr als 2 Spiele (und schon gar nicht ARK - nicht falsch verstehen, habe selber 150 Stunden in dieses Spiel investiert - aber es lief auch mit meiner vorherigen GeForce einfach wie ein Sack Nüsse!) mit UE4 Engine machen aber IMHO keinen Sinn. Du forderst doch auch keine x Spiele mit Frostbite Engine, obwohl da auch einige Spiele drauf basieren, oder? BTW bist du mir noch eine Erklärung bezüglich der Optimierung der UE4 schuldig.

Wir wollen mal nicht übertreiben, aber Intel kann eines machen, endlich mal die Preise senken, AMD hat Ihnen genug Spielraum gelassen.

9700K auf 299Dollar und 9900K auf 399 Dollar runter, 9600 K auf unter 200, 9400F auf 129 Dollar, sollte Intel schon tun und die Hedt Plattform Preise mind. 40% runter.

Stimmt, dieses Mal will AMD ganz offensichtlich auch ein Stück vom Kuchen. Sollte Intel mit den von dir vorgeschlagenen Preissenkungen reagieren, sehe ich in 1-3 Monaten eher einen 9900K als einen 3700X/3800X im PC neben mir stehen, obwohl das auch wieder den Kauf eines neuen Wasserblocks nach sich ziehen würde. Andererseits muss man auch mal die tatsächlichen Marktpreise der AMD CPUs betrachten, die massiv unter den Launch-Preisen liegen. Und die Zen2 CPUs scheinen ja im Gaming-Bereich deutlich näher an den Intels zu liegen. Für eine prozentual gesehen einstellige Mehrleistung zahle ich einfach keinen zweistelligen Mehrpreis.


Grüße!
 
Zuletzt bearbeitet:
Es wäre toll wenn AMD ein paar Draw-Call lastige Spiele zeigen würde mit viel Geometrie. Dishonored 2 zb. oder GTA5
 
Und bei mir läuft die Karte mangels Zeit in der Regel keine 10h/Woche unter Last. Das wichtigste für IT-Hardware ist für mich persönlich der Idle-Verbrauch, vor allem bei der GPU.

Es werden immer von den selben "Spezialisten" TDP und Stromverbrauch gleichgesetzt, die Karte generell unter Dauerlast angenommen, und bei Leistungsvergleichen gerne ein übertaktetes Custom-Modell (O-Ton 1080 20% mehr Leistung !!1elf!), beim Stromverbrauch aber immer die Basis-Version hergenommen.

Also ja, über soviel Blödsinn mache ich mich lächerlich.
Der Idle Stromverbrauch ist natürlich massiv geringer, ist aber dennoch höher als bei Nvidia, vorallem bei kleiner Last wie etwa dem Youtube schauen oder ähnlichem (wobei das bei Navi natürlich wieder anders sein kann, bei Pascal war Nvidia hier klar vorne).

In meinem Fall läuft der PC quasi durch, und nicht selten liegt Last an
 
Google mal ein wenig AMD Bulldozer bzw. FX, da findest du dann ein paar Tests wo die (deutlich) niedriger taktenden Intels davonziehen. Takt ist ein Faktor der Kombination mit IPC. Die hat AMD ja wieder deutlich anheben können. Darum zu sagen "Minimum 5GHz" ist deshalb für mich ein Indikator von Ahnungslosigkeit.

Zeigt sich auch im nächsten Punkt: Mit steigender Kernanzahl habe ich potentiell mehr Kerne, die höher takten können dabei. Darum zieht der AMD 12-Kerner dem Intel 12 Kerner im ST-Test mit 15% und im MT-Test nur mehr mit 6% davon. Wenn ich also ein auf 4 Kerne optimiertes Spiel habe, nehme ich die 4 "besten" Kerne. Damit ist der 16-Kerner also auch fürs Gaming interessant.

Wobei nicht wirklich, denn das Limit kommt zu 99% nach wie vor von der CPU, da tut's auch ein 200€ 6-Kerner für die nächste Zeit.

Halb richtig...
und nun übertakte mal dein Konstrukt mit hoher IPC.
Dann sind wir da wo ich ansetze.... das ergibt noch mehr Leistung in Games.
Warum nur gleichziehen mit Intel und nicht richtig zuschlagen, wenn die 7nm so viel mehr könnten.

Davon ab... abwarten was die IPC Verbesserung bei AMD dann so bringt in Finalen Tests (- Chiplet Design)
 
Ich find's witzig wie heut auf morgen die HEDT Plattform ins aus versetzt wurde :D

Hedt braucht in der Tat niemand mehr, 16 Kerne 32 Threads mit mehr IPC, Threadripper ist ebenso abgemeldet, lohnt sich nicht mehr.

Mehr als 16 Cores kann kaum jemand brauchen.
Bin gespannt ob sie Threadripper noch bringen, oder nicht vielleicht doch einstampfen.
 
Es gab schon "vorgestern" die ersten Spiele die bis zu 18 Threads belegen (zb. AC, TR), wie man schon vor Monaten hier in PCGH-Videos (ich glaube über den TR 2990WX?) von (ich meine) Raff sehen konnte.

Was aus ökologischer Sicht zumindest schon mal besser wäre, als dieses ständige "Wettrüsten". Meine 980Ti macht es ja auch noch prima. ;)

:D
Gut, überschlagen betrachtet ist die 980 Ti inetwa der 1080 zuzuordnen, diese liegt knapp unter der 2070 und diese laut AMD ;) Benchmarks knapp unter der 5700 XT.

Edit: oh, die 980 Ti liegt doch 20% unter der 1080, hatte das falsch in Erinnerung. Gut, dann hast du also sehr überschlagsmäßig die Performance einer 5700

Also im Prinzip hast du eine brandneue Karte die knapp 400€ wert ist. Na was sagst jetzt?
 
Zurück