AMD Navi: 7-nm-GPUs laufen angeblich schon im Labor - und zwar besser als erwartet

Sicherlich entscheiden letztendlich Angebot und Nachfrage den Preis, aber man kann nicht immer erwarten jedes Jahr bessere Produkte zum gleichen Preis zu bekommen.

Was denn sonst?
Wo ist da sonst der Fortschritt?
Wenn ne XX80Ti jede Gen 300€ mehr kostet, wie teuer wird Computerspielen in 10 Jahren sein? (bedenke dass auch die Anforderungen steigen...)

Nen Apple 2 hat 3500 DM gekostet, lief mit 1.020 M(!)hz, 8 bit und hatte 64kilobyte Ram - was würde ein Rechner heut kosten, wenn man die ~1750€ als Basis zuzüglich der Mehrleistung bezahlen müsste???
Ich kürze es mal so ab - es gäbe kein Internet, in dem sich Leute über Hardware unterhalten könnten...
 
Die 100W Mehrverbrauch sind auf jeden Fall ein Argument, dass man nicht außer Acht lassen darf. Habe mir das selber mal kurz ausgerechnet...

Gehe ich davon aus, dass ich täglich 3 Stunden zocken könnte (was zeitlich leider gar nicht möglich ist), benötigte ich am Tag 0,3 kWh mehr als mit der Geforce. Auf ein ganzes Jahr gerechnet ergäbe das 365 * 0,3 = 109,5 kWh. Rechne ich jetzt mal ganz extrem mit 30ct pro Kilowattstunde (was laut Google dem deutschen Durchschnitt im Jahr 2018 entspricht), würde mein PC mit einer Vega (wenn ich ohne Sync zocken und sie sinnlos FPS generieren lassen würde) etwa 32,85€ mehr Strom im Jahr aus der Steckdose ziehen. Das entspricht etwa der Preisdifferenz einer sehr guten custom Vega zu einer "ganz tollen" ( :D ) custom 2070 - das erste Jahr würde mich also schon mal keinen Cent mehr kosten.

Jetzt bin ich aber auch noch recht empfindlich und kann Tearing nicht ausstehen. Also benötige ich noch einen Monitor mit adaptive sync. Die Preisdifferenz zwischen einem Freesync und einem G-Sync Monitor müssen wir nicht diskutieren, oder? Dann kannst dir selber in etwa ausrechnen wie viele Jahre ich die Vega betreiben könnte, bevor die GeForce + Monitor sich mittels geringerem Verbrauch amortisiert hätte. Jetzt kommt auch noch dazu, dass ich - wie viele andere - bereits einen Freesync Monitor besitze und es mir gefällt, Nvidia für ihre Gier mal mit einem Boykott ihrer überteuerten Produkte zu bestrafen.

An welcher Stelle ist mein Verstand nicht klar?



Grüße!


Glaub rein um den Stromverbrauch wird es den Leuten nicht gehen. Eher dass man für Vega ein stärkeres Netzteil und bessere Lüftung gegen die Abwärme ewentuell einplanen muss. 100 Watt mehr kann schnell ein stärkeres NT bedeuten. Dann hast deine Preisdifferenz zum G-Sync Monitor fast aufgebraucht.

Wobei die breite Masse wohl gar nicht so genau auf G-Sync oder Freesync achtet. Sind dann eher die Leute die söeziell darauf abzielen und so die Kaufentscheidung abhängig machen.
 
Sie tun es schon wieder, "angeblich" bedeutet nicht das etwas nur Gerüchten zufolge nach zu sein scheint.
Angeblich heisst das eine sehr wahrscheinliche unwahrheit im Umlauf ist. Negiert wäre das Wort das es am besten beschreibt also BILDUNGSSPRACHLICH
eine ablehnende Haltung einer Sache gegenüber einnehmen.

Warum wird sich einer positiven Nachricht also derart negativ entgegengestellt?
 
Sie tun es schon wieder, "angeblich" bedeutet nicht das etwas nur Gerüchten zufolge nach zu sein scheint.
Angeblich heisst das eine sehr wahrscheinliche unwahrheit im Umlauf ist. Negiert wäre das Wort das es am besten beschreibt also BILDUNGSSPRACHLICH
eine ablehnende Haltung einer Sache gegenüber einnehmen.

Warum wird sich einer positiven Nachricht also derart negativ entgegengestellt?

Der Beweis fehlt noch, du hast es erkannt!
 
Ne 2070 gibt es ab 519€:

Zum einen bleibt abzuwarten, wie lange sich so ein Sonderangebot hält, denn einzelnen Modelle der Vega64 gab es zwischenzeitlich auch schon günstiger.
Zum anderen wäre zu klären, ob so ein Sparmodell von Inno3D überhaupt den gleichen Leistungsvorsprung erreicht.

Und natürlich ganz davon abgesehen, dass deine 10 bis 15 Prozent auch schon Nitpicking sind, denn eine ab Werk übertaktete 2070 setzt sich im Durchschnitt lediglich um 6 bis 9 Prozent ab.

und es gibt sogar noch alles Mögliche an Feature bei der 2070 oben drauf.

Das hätte ich gerne ein wenig mit Substanz gefüllt. Welche Features meinst du konkret?
Doch hoffentlich nicht das supertolle Raytracing, für das der 2070 in der Praxis die Leistung fehlt?

Zusammen mit mehr als 100W Differenz in der Leistungsaufnahme.

Die sich natürlich auf exorbitante Beträge summieren, wenn man 25 Stunden am Tag (die Mittagspause mitgerechnet) zockt. :D
(Und nein, die Vega wird mit durchschnittlich 5°C auch nicht so viel heißer, als dass man damit argumentieren könnte.)

Keine Frage, sich jetzt noch eine Vega64 zu kaufen halte ich auch nicht für das Sinnvollste, was man machen kann. Aber wer schon eine hat, muss sich auch nicht ärgern und welche spezifischen Gründe es noch für eine Neuanschaffung geben kann, habe ich dir bereits genannt, ohne das du spezifisch darauf eingegangen wärst.

Ich bitte außerdem zu vermerken, dass ich als Besitzer einer Nvidia-Grafikkarte hier gewissermaßen den Advocatus diaboli spiele. :devil:
 
Gerüchten nach hat AMD seine kommenden Navi-GPUs in den hauseigenen Laboren schon in Betrieb genommen. Dabei sollen sich die 7-nm-GPUs besser machen, als von AMD im Vorfeld erwartet...........

Also ob jemand zugeben würde das ihre GPU eventuell schlecht laufen würde :lol:
 
Das letzte mal als AMD überlegen war, war schon sehr sehr lange her, eher noch zu ATI Zeiten ^^ Würde e smir auch mal wieder wünschen doch am Ende sitzt warscheinlich Nvidia wieder am längeren Hebel....
 
Zum einen bleibt abzuwarten, wie lange sich so ein Sonderangebot hält, denn einzelnen Modelle der Vega64 gab es zwischenzeitlich auch schon günstiger.
Zum anderen wäre zu klären, ob so ein Sparmodell von Inno3D überhaupt den gleichen Leistungsvorsprung erreicht.

Und natürlich ganz davon abgesehen, dass deine 10 bis 15 Prozent auch schon Nitpicking sind, denn eine ab Werk übertaktete 2070 setzt sich im Durchschnitt lediglich um 6 bis 9 Prozent ab.



Das hätte ich gerne ein wenig mit Substanz gefüllt. Welche Features meinst du konkret?
Doch hoffentlich nicht das supertolle Raytracing, für das der 2070 in der Praxis die Leistung fehlt?



Die sich natürlich auf exorbitante Beträge summieren, wenn man 25 Stunden am Tag (die Mittagspause mitgerechnet) zockt. :D
(Und nein, die Vega wird mit durchschnittlich 5°C auch nicht so viel heißer, als dass man damit argumentieren könnte.)

Keine Frage, sich jetzt noch eine Vega64 zu kaufen halte ich auch nicht für das Sinnvollste, was man machen kann. Aber wer schon eine hat, muss sich auch nicht ärgern und welche spezifischen Gründe es noch für eine Neuanschaffung geben kann, habe ich dir bereits genannt, ohne das du spezifisch darauf eingegangen wärst.

Ich bitte außerdem zu vermerken, dass ich als Besitzer einer Nvidia-Grafikkarte hier gewissermaßen den Advocatus diaboli spiele. :devil:

Ich sehe den Markt aktuell generell gesättigt in dem Preisbereich. Es gab schon länger 1070/1080, dann V56/64. Die 1070ti wurde auch noch raus gewürgt.
Seit dem der Mininghype rum ist decken sich die die gewartet haben nach und nach ein. Wer Nvidia wollte hat meist schon längst gekauft und keinen nennenswerten Vorteil aus der neuen Gen.
Wer AMD wollte hat bei den unzähligen Angeboten der letzten Wochen zugeschlagen. AMD hat nicht umsonst ein attraktives Paket mit den 3 Spielen geschnürt.

In der Mittelklasse hatte Nvidia die letzten Wochen auch wenig zu lachen, 570/580er gabs zu Preisen von 180-250 Euro mit 3-7 Spielen.Da musste man schon viel Ignoranz mitbringen oder klare Präferenzen für ein Feature/Eigenschaft haben um da noch ne 1060 zu kaufen.
 
Gerüchten nach hat AMD seine kommenden Navi-GPUs in den hauseigenen Laboren schon in Betrieb genommen. Dabei sollen sich die 7-nm-GPUs besser machen, als von AMD im Vorfeld erwartet...........

Also ob jemand zugeben würde das ihre GPU eventuell schlecht laufen würde :lol:

Nun ja, den Wahrheitsgehalt mal nicht angezweifelt ist die Frage ist doch eher die, was zuvor erwartet wurde:

Wenn die Erwartung extrem schlecht war und es danach nicht mehr ganz so schlecht, aber immer noch übel aussah, ist damit niemandem geholfen.
Wenn die Erwartung eher gedämpft und es es jetzt ganz ordentlich aussieht, wird es langsam interessant.
Und wenn die Erwartung bereits hoch war und noch übertroffen wurde, ist dezentes Entgegenfiebern angebracht.
 
Glaub rein um den Stromverbrauch wird es den Leuten nicht gehen. Eher dass man für Vega ein stärkeres Netzteil und bessere Lüftung gegen die Abwärme ewentuell einplanen muss. 100 Watt mehr kann schnell ein stärkeres NT bedeuten. Dann hast deine Preisdifferenz zum G-Sync Monitor fast aufgebraucht.

Wobei die breite Masse wohl gar nicht so genau auf G-Sync oder Freesync achtet. Sind dann eher die Leute die söeziell darauf abzielen und so die Kaufentscheidung abhängig machen.

Das Schlimmste is: Die breite Masse achtet auf gar nix, als den Preis. Da wird in den Mediamarkt/Saturn/Aldi/sonstigen "blöd Markt" gelaufen oder im Katalog der PC bestellt, der im Budget liegt und fertig. Dreimal darfst du raten, warum Intel wie bescheuert (illegale) Rabatte an OEMs verteilt hat, wenn in die ganzen Fertig-PCs keine AMD Chips eingebaut werden?


Grüße!
 
Also ohne Beweise was das neue 7 nm Verfahren bei AMD angeht kann ich sowas leider nicht glauben ;P Das ein ganzer Transistor keine 7 nm klein ist ist klar. Verwechselst du das nicht zufällig mit Samsung? Wenn ich mich richtig erinnere hatten die doch irgendeinen anderen Maßstab als der Rest der Industrie. - Wobei ich mir nicht sicher bin

edit: Hab Google mal angeworfen und bei den FinFETs handelt es sich um die Breite der Fins. Ich sehe aber nicht wie genau das meine Aussage falsch macht.



trifft zu auch wenn es eben nur die Fins sind. Rein logisch macht es Sinn die Strukturgröße nach der kleinsten Struktur zu benennen. Inwiefern die Strukturgröße aber als Aussage selber Sinn macht sei mal dahingestellt. Vermutlich ist sowas wie Transistoren pro mm² aussagekräftiger was die Leistung eines Chips angeht. Ich wollte nur verdeutlichen dass man schon auf atomarer Ebene ist da zB. die größten Moleküle 10 nm breit sind. Ich find das super krass!

Keiner von denen hat den selben Maßstab. Es geht nur darum, den Prozessen einen Namen zu geben. Und weil die Gatelänge die wichtigste Technologiegröße der vergangenen Jahrzehnte und die wichtigste Eigenschaft jeder Technologie war, wurde der Prozess danach benannt. Die anderen Abmessungen waren immer anders. Nur ist selbst diese Größe heute nicht mehr zutreffend. Ein nur 7 nm langes Gate hätte enorme Schwierigkeiten, überhaupt einen Sperrbetrieb zu ermöglichen und 5 nm und 3 nm wären aufgrund quantenmechanischer Beschränkungen gar nicht mehr möglich. Wenn ich einen Transistor habe, der nicht sperren kann, dann habe ich keinen Transistor, sondern einen ziemlich lausigen Widerstand.
In den Urtagen der Skalierung sind quasi alle Eigenschaften einer Technologie mit sinkender Gatelänge verbessert worden: besseres Einschaltverhalten, höhere Grenzfrequenzen, niedrigere Versorgungsspannung. Und so wird das im Endeffekt umgemünzt. Ein 7 nm Transistor ist in der Summe seiner Eigenschaften besser, als ein 22 nm Transistor. Wenn du also einen 7 nm Transistor von TSMC mit einem von 7 nm Transistor von Samsung vergleichst, dann heißt dies im Endeffekt nichts anderes, als dass die zwei in der Summe ihrer Eigenschaften - Versorgungsspannung, Einschaltverhalten, Packdichte, On/Off-Verhältnis usw. usf. - ähnlich gut abschneiden und technologisch vergleichbar sind. Allerdings ist selbst das nicht mehr zutreffend, da die geplanten 10 nm Transistoren von Intel eher mit den 7 nm Transistoren von TSMC und Samsung konkurrieren, wenn ich das richtig im Kopf habe.
Auf atomarer Ebene ist man noch nicht ganz, aber fast. Ich glaube, nach 3 nm wird so ziemlich Schluss sein, wenn man die 3 nm überhaupt noch hin bekommt. Aktuell ist man wie gesagt bei den Finnen an ihrer dünnsten Stelle nur eine Hand voll nm breit, aber der Halbleiterprozess erlaubt eben nur einen trapezförmigen Querschnitt. Daher ist das schon richtig, die Finnen sind da durchaus nur 7 nm breit, aber auch irgendwo falsch, weil man das halt nicht gleichförmig abscheidet und die Struktur nach unten hin dicker wird. Gut sichtbar auf folgendem Bild:
http://electroiq.com/chipworks_real_chips_blog/wp-content/uploads/sites/7/2017/12/Fig-1.png
wenn dem so wäre, warum ist AMD dann nicht Marktführer? :hmm:

Weil AMD in vielen Marketingfragen einfach Mist gebaut hat.
Nvidia und "The Way it's Meant to be Played" kennt jeder. Wirklich jeder, der auf einem PC spielt. In vielen Spielen kommt es als Intro, viele Casual-Spieler haben das Nvidia-Logo auf ihren Notebooks, mit denen sie Fortnite und League of Legends spielen. Und in diesem so wichtigen Segment hat AMD seit etlichen Jahren nunmal nichts, bzw nicht viel. Dass die Firma dann nur die Leute kennen, die sich mit Rechnern viel in der Freizeit auseinander setzen, sollte klar sein.
Und nicht zu vergessen kam die letzten 13 Jahre, also seit Einführung der 8800 GTX, das Grafik-Flagschiff immer von Nvidia. Wenn man die letzten 13 Jahre gefragt hat "Welche Firma baut die schnellsten Grafikkarten", dann hieß die Antwort nunmal "Nvidia". Sowas bleibt viel besser im Gedächtnis als "Aber es gibt noch AMD, die machen echt gute Grafikkarten im Mid-Range bis zum unteren High-End-Segment." Und dies ist auch ein Grund, warum Nvidia häufig eher als das "Premium-Produkt" gesehen wird und AMD nur als die Sparlösung.
Man darf nicht vergessen, dass AMD nunmal der Underdog ist. Klar können die nicht an allen Fronten kämpfen und machen sich ja auch echt gut, Vega hin oder her. Dass sie aber am Markt unterrepräsentiert sind, liegt nicht zwingend nur an Preis und Leistung. Die waren bei AMD i.d.R. immer in für Käufer sehr gutem Verhältnis.
gRU?; cAPS
 
Zuletzt bearbeitet:
-
Vega wird immer mehr mit 1080ti und auch 2080 konkurrieren.

Laut CB ist die RTX 2080 ,40% in 4 K schneller.
Vielleicht in 5 Jahren wenn der HBCC mit geringem Ruckeln was bringt. ;)

Ansonsten sind solche Aussagen absolut lächerlich.
AMD hat die Konsolen inne, dass da Konsolenspiele wie Forza gut laufen, ist kein Wunder, beim letzten Forza gab es einen Nvidiatreiber der das Verhältnis wieder grade rückte.

Schaut man auf den aktuellen 3 D Center vergleich, ist Vega über alle Tests immenoch leicht langsamer als eine 1080.
 
Zurück