AMD Navi: 7-nm-GPUs laufen angeblich schon im Labor - und zwar besser als erwartet

Zum einen bleibt abzuwarten, wie lange sich so ein Sonderangebot hält, denn einzelnen Modelle der Vega64 gab es zwischenzeitlich auch schon günstiger.

Ist das jetzt echt eine pro Vega Argumentation, gegenüber einem schnelleren und viel sparsameren NvidiaPendant mit RT und Tensor Cores?

Ich hätte von dir mehr Neutralität erwartet.
Kein Mensch kauft für annähernd den selben Preis eine olle Vega Karte, dieselben User haben die RX 580 wegen moderneren Direct x 12-Leistung argumentiert und jetzt sagen die selben Leute Vega soll auf die RTX Karten aufholen, welche laut PCGH Test in dieser Hinsicht nochmal alles aufgebohrt haben und dazu noch Technik mit an Board haben, von der noch gar nicht absehbar ist, was damit alles gemacht werden kann.

Bei soviel Bias, kann man nur müde lächeln.


Zum anderen wäre zu klären, ob so ein Sparmodell von Inno3D überhaupt den gleichen Leistungsvorsprung erreicht.

Und natürlich ganz davon abgesehen, dass deine 10 bis 15 Prozent auch schon Nitpicking sind, denn eine ab Werk übertaktete 2070 setzt sich im Durchschnitt lediglich um 6 bis 9 Prozent ab.

Das ist kein Nitpicking, soviel ist schon die langsamste RTX Turbo schneller.

Das hätte ich gerne ein wenig mit Substanz gefüllt. Welche Features meinst du konkret?
Doch hoffentlich nicht das supertolle Raytracing, für das der 2070 in der Praxis die Leistung fehlt?

Primitive Shader die funktionieren, DLSS, RT, Tensor Cores, das sind die Punkte die AMD nicht bieten kann.
AMD hat keinen Feature Vorteil mehr.

Den Stromverbrauch kleinzureden, ist bei 150 Watt mehr schon extrem sportlich.
 
Was ihr euch hier schon wieder scheckisch macht geht auf keine Kuhhaut. Fakt ist das Vega mit der 56/64 auf Niveau einer 1070(Ti) bzw. einer 1080/2070 liegt. Mal liegt bei einem Game Nvidia vorn, mal bei einem anderen AMD. Das einzige Manko was im Raum liegt ist das AMD atm nichts im Enthusiast Leistungsbereich über einer 1080Ti/2080 zu bieten hat und die paar Kunden die zu einer 750€+ GPU greifen, liegt wohl nicht sehr hoch. Auch wenn der Verbrauch bei fast 100w höher liegt als bei einer Nvidia Karte, steht AMD P/L mäßig immer noch super da. Was ja auch die Benchmarks der vielen Games der letzten Wochen zeigten.

Der einzige Kritik Punkt bei Nvidia wäre ihre abgefuckte Preispolitik seit Einführung der Pascal Karten und sie mit Turing nun die Preislatte weiter nach oben gedrückt haben. Wenn man sich mal im Vergleich die Preise zur GTX 970/770 anschaut und AMD sich mit den Vega Karten zuletzt ebenso an diesen Preisen orientieren, wenn man sich die 390/290 Modelle anschaut und auch jetzt sieht man das sich im Preis so gut wie nichts tut solang sich eine Vega 56/64 im Preisbereich von 400-500€ tummelt und ich denke das wird mit Navi nicht anders sein. Sodass sich Navi ebenso an den Preisen der Turing Karten orientieren werden.

Die Zeiten wo sich Einstiegsmodelle im High-End Bereich bei 300-350€ eingependelt haben sind vorbei. Vor allem gerade dann wenn wir als Kunden bereit sind diese Preise zu zahlen. Denn ich denke das selbst mit Intel als dritter Mitspieler im GPU Marktrennen, sich da nichts wesentlich ändern wird. Aber wir werden sehen was die Zeit bringt und auch ob AMD mit Navi an die Leistung von Nvidia anknüpfen wird. Ich bin da soweit zuversichtlich und hoffe das Intel den beiden entsprechenden Druck machen wird, damit sich die Preise wieder dahin orientieren wo sie zuletzt vor knapp 3 Jahren waren.

Und über den Aufpreis von 200€ für G- gegenüber Freesync, brauchen wir hier glaube ich nicht diskutieren. Ist von Nvidia als quasi Monopolist unter aller Sau und sollte von uns als Kunden mit nicht kauf boykottiert werden, aber auch nicht nur deshalb, sondern auch wegen Treiber- und Speichertricksereien wie zuletzt bei der GTX970.
 
Zuletzt bearbeitet:
Ein ganz normaler Tag in einem AMD Büro.

Die Mitarbeiter tippen gemütlich auf ihren Tastaturen rum und zocken Soiltär oder surfen im Netz weil grad nichts anliegt.. der ein oder andere schläft sogar vorm Bildschirm ein. Doch plötzlich aus dem Labor im Nebenraum ein lautes "OMG" .. die MItarbeiter sind verwirrt und fragen sich was wohl los sei. Totzdem gehen SIe ihrer Arbeit weiter nach. Und auf einmal passiert es, ein Labormitarbeier kommt rausgestürmt und schreit "AWESOME !!! WE HAVE 1% MORE PERFORMANCE" .. die ganze Meute springt auf und applaudiert das die neue Generation 1% schneller ist als erwartet. Einer kann seine Freude garnicht fassen und tippt das direkt in jegliche soziale Netzwerke das es verbreitet wird.

Und die Moral von der Geschicht: AMD hat man oder nicht :lol:
 
Das ist kein Nitpicking, soviel ist schon die langsamste RTX Turbo schneller.
Du träumst ein bisjen zuviel....Die Turbo schafft mit ach und krach die Referenzkarten um ein paar % zu schlagen. eine 1080/V64 Custom lacht die Turbo aus und das Spielzeug von Inno 3D gleich mit.
Interessant bei der 2070 sind die Armor, die Windforce(das ich mal eine Windforce empfehlen würde....) und vielleicht noch die PNY. Für OC taugen die Karten alle nichts.

Zitat Computerbase
"Auf das Verhältnis Preis/Leistung heruntergebrochen kommt der ComputerBase-Test der Nvidia GeForce RTX 2070 zum Ergebnis, dass es bei RTX 2070, GTX 1080 und RX Vega 64 quasi gleich ist. Der Neuling ist zwar minimal schneller, kostet aber auch mehr. "
Quelle: Wochenrueckblick: Core i9-9900K und RTX 2070 und die Preisfrage - ComputerBase

Test der Turbo: Nvidia GeForce RTX 2070 im Test - ComputerBase
Indexperformance CB ganze 4%in WQHD und unglaubliche 3% in UHD vor einer Referenzvega.Zum Vorgänger sind es dann stolze 4,5% in WQHD und überragende 4,3% in UHD. Bei den Frametimes sind die Abstände nochmal geringer.
Screenshot (365).png
In dem Index sind 4 Gameworks Titel von Nvidia und zwei Gaming Evolved von AMD, wobei Wolfenstein 2 ja schon der Karte fast Schmeichelt.
 
Navi 7 nm sollen schon laufen , und besser als Amd zunächst erwartet hatte ?!

Tolle Aussage :schief:

Soll das jetzt heißen das Amd überascht ist das sie Navi 7 nm überhaupt schon zum Laufen gebracht haben :what:

Bin schon mal gespannt , in wie weit Amd ihren extremen Stromverbrauch in den Griff bekommen werden , und ob sie wieder mit der Takt und Stromkeule arbeiten müssen um nicht noch mehr Abgehängt zu werden :cool:
 
Was ihr euch hier schon wieder scheckisch macht geht auf keine Kuhhaut. Fakt ist das Vega mit der 56/64 auf Niveau einer 1070(Ti) bzw. einer 1080/2070 liegt. Mal liegt bei einem Game Nvidia vorn, mal bei einem anderen AMD.

Es ist schon erstaunlich dass der gut 10% Abstand zwischen Vega und RTX2070 quasi nichts wert ist, abe von den selben Usern stehts die Mehrleistung einer RX 580 gegenüber der GTX 1060 betont wird, obwohl das im Schnitt laut PCGH Index in Full HD nicht 1% ist. :D

Was ja auch die Benchmarks der vielen Games der letzten Wochen zeigten.

Schöngerede nichts weiter, im Schnitt hat sich doch nichts gändert, sich jetzt 2 oder 3 Spiele rauszupicken, bringt gar nichts.
 
Wie alle Intel/Nvidia Fanboys drüber lachen, dass AMD zufriedenstellende Ergebnisse mit den ersten 7nm Produkten erreicht... Während Intel nach mehreren Jahren ihre vergeblichen 10nm Versuche aufgeben und Nvidia nach über 2 Jahren eine kaum schnellere Architektur auf quasi derselben Node wie dem Vorgänger raus bringen, damit die Fanboys nicht weinen müssen und dem großen Meister den nächsten Urlaub finanzieren... und dabei gar nicht merken, wie sie sich selbst lächerlich machen, indem sie die überzogenen Preise auch noch rechtfertigen, als ginge es um ihre eigene Ehre.

AMD wird weder mit Navi noch mit Vega die Leistungskrone holen. Mag sein, dass hier einige den Typ von Adoredtv für einen Aluhutträger halten, aber er rollt meistens sehr aufschlussreich die Geschichte auf und wer sich auch mal ansatzweise damit beschäftigt, statt immer nur die letzte GeForce zu kaufen, weil die ja im letzten PC auch drin war und im Benchmark den längsten Balken hatte, der weiß, dass der Typ sehr häufig recht hat. Nur manchmal ist das unbequem für viele Leute und deshalb wird es abgetan.


Grüße!
 
Im Januar lässt AMD ja die Katze aus dem Sack und präsentiert ihre Produkte für 2019 :) Bin gespannt wann Zen2 und Navi in den Handel kommen. Man liest hier ja alles von Q1-Q4.

Ich persönlich hoffe auf GTX1080ti Stock Leistung beim Navi Flaggschiff für 400€ :) wäre eine tolle Karte für die gehobene Mittelklasse.
 
Hallo,

jetzt misch ichmich doch mal ein

@cPT_cAPSLOCK:
Danke für die technischen Erläuterungen. Hatte ich es tatsächlich richtig in Erinnerung, dass die Herstellung der Chips so langsam an ihre physikalischen Grenzen kommt


@Verak
Der einzige Kritik Punkt bei Nvidia wäre ihre abgefuckte Preispolitik seit Einführung der Pascal Karten und sie mit Turing nun die Preislatte weiter nach oben gedrückt haben. Wenn man sich mal im Vergleich die Preise zur GTX 970/770 anschaut und AMD sich mit den Vega Karten zuletzt ebenso an diesen Preisen orientieren, wenn man sich die 390/290 Modelle anschaut und auch jetzt sieht man das sich im Preis so gut wie nichts tut solang sich eine Vega 56/64 im Preisbereich von 400-500€ tummelt und ich denke das wird mit Navi nicht anders sein. Sodass sich Navi ebenso an den Preisen der Turing Karten orientieren werden.
Kritikpunkt Nr. 1

Und über den Aufpreis von 200€ für G- gegenüber Freesync, brauchen wir hier glaube ich nicht diskutieren. Ist von Nvidia als quasi Monopolist unter aller Sau und sollte von uns als Kunden mit nicht kauf boykottiert werden, aber auch nicht nur deshalb, sondern auch wegen Treiber- und Speichertricksereien wie zuletzt bei der GTX970.
Kritkpunkte Nr. 2 (GSync) , Nr. 3(Treibertricksereien)) & Nr. 4 (Speichertricksereien)
Von mir kommt noch Kritikpunkt
Nr. 5 Treiberpolitik bei den Linuxtreibern
Nr. 6 Der Versuch proprietäre Software in Spielen zum Standard zu machen

Linus Thorvalds Wutrede gegen nVidia hatte schon seine Gründe.
 
Kritkpunkte Nr. 2 (GSync)
G-Sync lief über 18 Monate vorher und von Anfang an fast reibungsfrei, FreeSync dagegen war bei der Einführung das reinste Chaos, von den unterschiedlichen Ranges mal ganz zu schweigen.
Nr. 3(Treibertricksereien))
Ist AMD auch kräftig dabei.
Nr. 6 Der Versuch proprietäre Software in Spielen zum Standard zu machen
Gegenfrage: Welche Firma will das nicht so machen? Da kannst Du heute durchweg fast alle Hersteller nehmen, die Software herstellen.

Warum ich den letzten Jahren AMD immer vermieden habe: Zu laut und zu heiß. Der Mehrverbrauch ist IMHO schlichtweg inakzeptabel. Nvidia hat sehr wohl darauf Wert gelegt, die Leistung pro Watt zu erhöhen, und damit den Verbrauch relativ zur Leistung zu verringern. Genau das macht Nvidia-Karten für Rechenzentren deutlich attraktiver als AMD-GPUs. Und dieser wichtige Punkt wird von den AMD-Fans gerne übersehen. Und für alle, die RTX hier kleinreden wollen. Schaut Euch die neue Architektur nochmal genauer an, schaut auf die Vergleiche Pascal-Volta-Turing, das ist sehr wohl sehr beachtlich, was da geleistet wurde bgzl. der Tensor-Cores, der Leistung für beispielsweise Mining, Deep Learning usw. Und dann sind diese Chips so nebenbei auch für die üblichen Gaming-Anwendungen noch 30% schneller. So was muß AMD erst mal liefern können.

Ein solches Rack ersetzen 10 andere volle Racks!
tnury0u-png.1016471


Topic: Ich glaub erst mal nichts davon, bis man Beweise oder Belege vorlegt. Wenn ich mir anschaue, was beispielsweise Intel mit 3D XPoint großmäulig versprochen hatte, und was rauskam, war ein schlechter Witz. Daher, Gerüchte ignorieren, Fakten abwarten.
 

Anhänge

  • TnuRY0u.png
    TnuRY0u.png
    955,9 KB · Aufrufe: 112
Zuletzt bearbeitet:
Nach Speicherverarsche (GTX970, 1030) und einigen anderen Kleinigkeiten (NDAs, GPP) die nicht gerade meine Sympathie in nVidia geweckt haben ist dieses Unternehmen für mich gestorben. Und dann wollen die auch noch lächerliche Aufpreise für G-Sync, wofür ich mir bei der Konkurrnz gleich 2 Monitore kaufen kann. Wer sowas auch noch unterstützt würde wahrscheinlich auch seine Seele für eine neue Graikkarte verkaufen.
 
G-Sync lief über 18 Monate vorher und von Anfang an fast reibungsfrei, FreeSync dagegen war bei der Einführung das reinste Chaos, von den unterschiedlichen Ranges mal ganz zu schweigen.

Warum ich den letzten Jahren AMD immer vermieden habe: Zu laut und zu heiß. Der Mehrverbrauch ist IMHO schlichtweg inakzeptabel. Nvidia hat sehr wohl darauf Wert gelegt, die Leistung pro Watt zu erhöhen, und damit den Verbrauch relativ zur Leistung zu verringern. Genau das macht Nvidia-Karten für Rechenzentren deutlich attraktiver als AMD-GPUs. Und dieser wichtige Punkt wird von den AMD-Fans gerne übersehen. Und für alle, die RTX hier kleinreden wollen. Schaut Euch die neue Architektur nochmal genauer an, schaut auf die Vergleiche Pascal-Volta-Turing, das ist sehr wohl sehr beachtlich, was da geleistet wurde bgzl. der Tensor-Cores, der Leistung für beispielsweise Mining, Deep Learning usw. Und dann sind diese Chips so nebenbei auch für die üblichen Gaming-Anwendungen noch 30% schneller. So was muß AMD erst mal liefern können.

Also wenn du bereit bist für ein paar "RTX-Effeckchen" wieder auf 1080p und 30FPS auf einer 1000€ Grafikkarte zu spielen dann ist dir das überlassen, das gilt aber bei weitem nicht für alle. Ich hätte mir für die nächste Generation eher einwandfreies und flüssiges 1440p Gaming in bezahlbarem Rahmen gewünscht statt irgendwelche Rendermethoden, die mir meistens nichts bringen. Stattdessen soll ich genau dafür den Aufpreis zahlen?
 
Du denkst, wie alle RTX-Kritiker hier, zu einseitig und kurzfristig. Klar, für Dich als Gamer mögen andere Punkte wichtiger sein. Du vergißt aber, wie ich es sagte, den HPC-Markt, und der ist gerade am explodieren! Und hier liegt Nvidia aktuell fast konkurrenzlos vorne. Da wird das Geld künftig gemacht, in der Mustererkennung für Autos usw. Der Gamermarkt wird als Anteil bei Nvidia schwinden, und nur noch so "nebenbei" laufen. Trotzdem sind sie da aktuell noch führend. Was kann hier AMD entgegensetzen? Intel, IBM und klar Google können im DL-Bereich noch etwas entgegensetzen, aber AMD ist hier außen vor.

Ein paar Watt mehr Verbrauch mag im einzelnen PC oder in einer Workstation nicht entscheidend sein, in einem Rechenzentrum summiert sich das aber enorm auf.

Ob Du den Aufpreis zahlen willst oder nicht, langfristig wird Dir nichts anders übrig bleiben, wenn Du HighPerformance auf dem PC haben willst. Außer die Gerüchte bewahrheiten sich.

Und die RTX Effektchen werden kommen, egal ob Du sie magst oder nicht, weil sie der Gamechanger im Spielermarkt sind, wie es seit 10 Jahren nicht mehr gab.
 
Jaja und laufen werden sie nur bei der Ti.

Auch Nvidia macht mit Gamern noch großen Umsatz. Amd ist auch so hinten dran weil sie unbedingt weg von den Gamern wollten.
 
Du denkst, wie alle RTX-Kritiker hier, zu einseitig und kurzfristig. Klar, für Dich als Gamer mögen andere Punkte wichtiger sein. Du vergißt aber, wie ich es sagte, den HPC-Markt, und der ist gerade am explodieren! Und hier liegt Nvidia aktuell fast konkurrenzlos vorne. Da wird das Geld künftig gemacht, in der Mustererkennung für Autos usw. Der Gamermarkt wird als Anteil bei Nvidia schwinden, und nur noch so "nebenbei" laufen. Trotzdem sind sie da aktuell noch führend. Was kann hier AMD entgegensetzen? Intel, IBM und klar Google können im DL-Bereich noch etwas entgegensetzen, aber AMD ist hier außen vor.

Ein paar Watt mehr Verbrauch mag im einzelnen PC oder in einer Workstation nicht entscheidend sein, in einem Rechenzentrum summiert sich das aber enorm auf.

Ob Du den Aufpreis zahlen willst oder nicht, langfristig wird Dir nichts anders übrig bleiben, wenn Du HighPerformance auf dem PC haben willst. Außer die Gerüchte bewahrheiten sich.

Und die RTX Effektchen werden kommen, egal ob Du sie magst oder nicht, weil sie der Gamechanger im Spielermarkt sind, wie es seit 10 Jahren nicht mehr gab.

Erstens steht AMD nicht so schlecht wie du sagst, sie haben doch schon einige dicke Deals an Board und nicht zu vergessen, die Karten haben brachiale Rechenleistung gemessen in Flops.
Die Vega 64 ist sogar in reiner Compute Power mit 12,66 TFlops unter Luft bis 13,7 TFlops unter Wakü gegenüber den beschiedenen 14,2 der RTX 2080TI (im Werks OC und mit deutlich besserem Kühler) definitiv noch im Konkurenz Bereich.
Gibt halt noch andere Bereiche außer dem Gaming.

Zweitens forscht AMD selbst an Raytracing und plant demnächst Karten mit gleichem Feature auf den Markt zu bringen unter anderem auch weil Microsoft Raytracing in DX12 erweitert.
 
Zuletzt bearbeitet:
Und die RTX Effektchen werden kommen, egal ob Du sie magst oder nicht, weil sie der Gamechanger im Spielermarkt sind, wie es seit 10 Jahren nicht mehr gab.

Das habe ich schon deutlich länger als zehn Jahre von vielen neuen GPU-Features gehört. Hängen geblieben sind davon aber nur sehr wenige und ein echter Gamechanger war nie dabei.

Die Entwicklung von Rechenwerken ist immer Evolution, nicht Revolution, egal was sich die Marketingabteilungen aus den Fingern saugen. Sicherlich besteht die realistische Möglichkeit, dass sich RT als bleibendes Feature durchsetzt, aber "Gamechanger" sind ein paar Körbe voller Vorschusslorbeeren zu viel.
 
Das habe ich schon deutlich länger als zehn Jahre von vielen neuen GPU-Features gehört. Hängen geblieben sind davon aber nur sehr wenige und ein echter Gamechanger war nie dabei.

Es ist auch weniger ein Gamechanger als viel mehr eine Vereinfachung in der Entwicklung von Games. Anstatt einen Haufen Leuten künstliche Licht- und Spieleffekte programmieren zu lassen kann man dann die Man-/Woman-Power woanders einsetzen.
Allein deswegen werden Entwickler RTX begrüßen und hoffen dass es flächendeckend immer mehr zum Einsatz kommt. Denn mit der jetzigen Programmierweise und Aufwand ist man langsam am Ende. Kostes nur Entwicklungszeit und für jede kleine optische Verbesserung wird auch so immer mehr Hardwarepower gefressen.
Daher brauchst künftig einfach Lösung die in Hardware die Sache vereinfachen.
 
Das sind alles so genannte AAA-Games, die immer mehr abnehmen von Gesamtmarkt, Jahr für Jahr beim PC
:
http://www.pcgameshardware.de/Spiel...tch-schwaechelt-Fortnite-Hype-vorbei-1263788/

Beim PC wächst einzig der Bereich f2p weiter, mit den von mir genannten Spielen und Bereichen.
Das ist die Masse der Games beim PC, und hier ist Nvidia sehr dominant.

Selbst Blizzard macht da jetzt deutlich mehr Geld als mit dem Verkauf von Games, und gibt dass auch ganz offen zu:
http://www.pcgameshardware.de/Spiele-Thema-239104/News/Activision-Blizzard-Quartalszahlen-1262433/

Blödsinn, auf jeder Plattform sind F2P Spiele wie Fortnite und co. absolut dominant, nicht nur auf dem PC.
AAA Spiele verkaufen sich dennoch auch auf allen Plattformen weiterhin sehr gut, allein Monster Hunter soll sich Stand jetzt allein auf dem PC 5,5 Millionen mal verkauft haben, mehr wie auf den Konsolen.
 
Es ist auch weniger ein Gamechanger als viel mehr eine Vereinfachung in der Entwicklung von Games. Anstatt einen Haufen Leuten künstliche Licht- und Spieleffekte programmieren zu lassen kann man dann die Man-/Woman-Power woanders einsetzen.
Allein deswegen werden Entwickler RTX begrüßen und hoffen dass es flächendeckend immer mehr zum Einsatz kommt. Denn mit der jetzigen Programmierweise und Aufwand ist man langsam am Ende. Kostes nur Entwicklungszeit und für jede kleine optische Verbesserung wird auch so immer mehr Hardwarepower gefressen.
Daher brauchst künftig einfach Lösung die in Hardware die Sache vereinfachen.

physx *hust*
ehm gibts noch games die das features unterstützen? jain, es hat keine bedeutung mehr.
und gibt es schon ein game mit rtx features? nein die mussten die perfomance stutzen weil es keine 60fps sind.
 
Zurück