Radeon VII: Wird sie dem Hype gerecht? - das sagen die PCGH-Redakteure dazu

Wann fällt NDA? Nicht das wir die Woche noch ein 3. Thread zum Thema bekommen "Ist das jetzt nicht doch ein bisschen a Hype, nicht wahr?" Es ist nicht einfach alle zu verfolgen :D
 
Was heißt da 50 Watt? Jetzt untertreibst du aber.
300 Watt vs 225/215 Watt TDP, sind keine 50 Watt, sondern 85/75 Watt und das nicht mal bei selber Geschwindigkeit.



Der PC ist in meinem Haushalt Hauptkostentreiber (Server, Desktop).
Es geht auch um Abwärme und Kühlbarkeit.
Was waren die Threads des 9900K voll mit Beschwerden über seinen Stromverbrauch, obwohl es da in der Praxis (Gaming) gerade mal 20 bis 30 Watt gegenüber dem 2700X sind.
Nein, hier wird ganz glasklar wieder mit zweierlei Maß gemessen. Stromverbrauch gehört klar kritisiert.
Eine 300 Watt GPU ist kein Zuckerschlecken, schon gar nicht wenn die Konkurrenz mit 225/215 Watt mehr Leistung liefert.



Wieviel Endvebraucher gibt es denn auf der Welt? 8 Milliarden.
Gratulation, wieder der einzige, der hier Durchblick hat.

Vorher schrieb noch einer von "bummeligen" 30% Mehrleistung zu Vega 64. Was soll dieses Geschwätz. 30% sind eine ordentliche Hausnummer, wenn es denn so viel wird, ohne dass die TDP nochmal extrem in die Höhe getrieben wird, und ich weiß auch gar nicht, warum man von AMD immer noch mehr erwartet. Das geht schon wieder in die 30% = Sidegrade-Richtung. Was für ein Quatsch.

Woher kommen wir denn? Wieviel Mehrleistung gab es denn von er 290 zur 390 zur 480 zur 580? Waren das in 4 Generationen überhaupt zusammen 30%? Bei CPUs nicht anders. Wieviel Mehrleistung gab es denn von 2600k zur 3770k zu 4790k zu 6700k? Waren das insgesamt 30% in 4 Generationen? Ich weiß nicht, wo diese Erwartungshaltung herkommt.

Die Frage ist eigentlich, ob 30% überhaupt erreicht werden, und wenn ja, wann, wie oft und wie. Und hier kommt der Strom ins Spiel. Bei der 9000er Generation von Intel wird es von den Usern hier als großes Thema aufgemacht, obwohl die Unterschiede relativ gesehen gar nicht so groß sind.

Da werden dann Rechnungen von 10-20€ mehr im Jahr eröffnet. Das geht völlig an der Realität vorbei. Die selben Nutzer, welche auf Vielkerner für Multitasking schwören, behaupten, dass sie so geile Prosumer sind, die täglich Videos schneiden und das dafür brauchen, unterstellen ein Nutzungsverhalten, welches beinhaltet, dass man jedes Programm/Spiel in jeder Minute der Nicht-Nutzung sofort schließt, berechnen dann 2 Stunden volle Leistung pro Tag und sonst nichts und kommen so irgendwie auf ihre 10-20€ mehr im Jahr.

Die Rechnung sieht in der Realität anders aus:
- Man telefoniert, während man im Menu des Spiels ist, während die GPU oft noch voll arbeitet.
- Man kocht, ...
- Man empfängt Besuch, während am PC noch was läuft.
- Man multitaskt(Wort?), macht andere Dinge, während z. B. im Hintergrund ein Spiel offen ist, in das man manchmal rein-tabbed oder auch nicht.
- Selbst unter Teillast wird eine GPU mit 300W mehr verbrauchen, als eine GPU mit 225W.
- Die richtigen Zocker werden auch selten nur 14h die Woche spielen. Das machen die Meisten doch in ca. 3 Tagen voll, nicht in 7. 25h-30h in der Woche müsste man für die hiesige Klientel wohl schon veranschlagen.
- Man vergisst den PC samt Spiel abends vor dem Schlafen auszuschalten.
- Man lässt ein Spiel wie z. B. Cities Skylines mal über Nacht laufen, um zu gucken, was nach 6-8 Stunden passiert ist.
- Es gibt auch Leute, die während der Arbeit zocken:
-- Ich sag nur Homeoffice als IT-ler im Dax als B- oder C-Mitarbeiter. Tagespensum Arbeit ist in 2-4 Stunden erledigt, weil man dennoch am Rechner erreichbar sein muss, wird nebenher gezockt. Natürlich schaltet man dann brav in jeder Minute, in der nicht gezockt wird, alles ab, ganz klar.
-- Ein Goldschmied oder Juwelier, der zu gewissen Tageszeiten wenig Kundschaft hat und dennoch für diese erreichbar sein muss, zockt womöglich nebenher am Rechner im Laden. Wenn dann ein Kunde kommt, schaltet der 100%ig erst alles ab bevor er sich dem Kunden widmet, der womöglich 5 Minuten später ohne Auftrag wieder weg ist, oder doch eine halbe Stunde den Auftrag genau bespricht.
-- etc. etc.

Das sind realistische Nutzungsszenarien, und dabei kommen dann nicht 10-20€ im Jahr heraus, eher um die 50€. Warum kauft ihr euch denn alle Vielkerner zum Multitasken von AMD, wenn ihr dann jedes Programm, welches gerade nicht 100% von euch genutzt wird, sofort abschaltet? Man hat teilweise das Gefühl, es hier mit der völligen Verblödung zu tun zu haben. Aber nein doch, wir wissen es besser. Die Leute rechnen es sich so, wie sie es gerade brauchen. Beim 9900k sind dann 20-30W ein Horrorszenario, während 75W bei der GPU zu einer vernachlässigbaren Größe werden. Zumal man halt auch beachten muss, dass AMD ja speziell auf Kosten des Verbrauches arbeitet, um in bestimmten Preissegmenten in der Leistung gleichziehen zu können. Ich will gar nicht wissen, was hier los wäre, wenn NVIDIA so arbeiten würde. Bei den 9000ern von Intel konnte man sich erste Eindrücke bereits abholen, obwohl das Produkt ohne Konkurrenz dasteht und man im konkurrenzlosen Bereich durchaus auch mal auf Kosten der Energie bauen kann, für die, die es wollen und brauchen. Das ist hier ja ganz anders. Wir haben diese Leistung bereits zu einem wesentlich geringeren Verbrauch. Es ist nicht so, dass AMD hier in Pionierarbeit in ungeahnte Leistungsklassen klettert, und man damit beim Verbrauch in der absoluten Oberklasse mal ein Auge zudrücken sollte, nein, sie könnten diese GPU ebenfalls auf rund 200W anbieten, dann wäre das allerdings wohl unter 2060 Leistung.

Ich wünsche AMD dennoch alles Gute mit der Vega XII. Insgesamt scheint es eine Nische zu füllen und eine Daseinsberechtung zu haben. Hoffentlich gibts dann bald auch noch eine Version davon mit weniger Speicher (8 oder 12) und fast gleicher Leistung.
 
Zuletzt bearbeitet:
@shJACKit

Guter Beitrag, aber welche Nische meinst du? Content Creation ist ja Blödsinn, dass kann man mit jeder Karte machen und braucht auch nicht zwingend den vielen VRAM.
Verstehe sowieso nicht was das soll, scheinbar haben sie ein Thema gesucht um die Karte gegenüber der Konkurrenz zu rechtfertigen.
Das Problem ist halt, wenn sie exakt wie eine 2080 performt, fällt sie durch den Verbrauch wieder ab. Bei gleichem Preis dürfte die Karte keine Abnehmer finden, jedenfalls nüchtern betrachtet.
 
Ich sehe weniger den Stromverbrauch beim 9900k als Problem an, sondern eher das dieser sich normal ausgefahren nur leidlich kühlen lässt.
Sicher kann man den in der TDP begrenzen, aber allein der Umstand eine Hardware im Rechner zu haben die man ohne Begrenzung nicht kühlen kann finde ich jetzt nicht so prickelnd.
 
@shJACKit

Guter Beitrag, aber welche Nische meinst du? Content Creation ist ja Blödsinn, dass kann man mit jeder Karte machen und braucht auch nicht zwingend den vielen VRAM.
Verstehe sowieso nicht was das soll, scheinbar haben sie ein Thema gesucht um die Karte gegenüber der Konkurrenz zu rechtfertigen.
Das Problem ist halt, wenn sie exakt wie eine 2080 performt, fällt sie durch den Verbrauch wieder ab. Bei gleichem Preis dürfte die Karte keine Abnehmer finden, jedenfalls nüchtern betrachtet.

Na irgendwelche Anwendungen, die viel Speicherbedarf haben, während man z. B. gleichzeitig 4K zum Zocken bedienen möchte. Wird es schon geben, oder nicht?
 
Na irgendwelche Anwendungen, die viel Speicherbedarf haben, während man z. B. gleichzeitig 4K zum Zocken bedienen möchte. Wird es schon geben, oder nicht?

Hm, nicht das ich wüsste. Selbst Grafikprogramme arbeiten eher CPU lastig bzw. auf Grundlage des Arbeitsspeichers. Außerdem, wenn ich zocke dann zock ich und lasse nebenher nicht noch groß andere Sachen laufen.
Solche Szenarien sind dann doch eher an den Haaren herbeigezogen.
Man könnte genau so gut mit Dual Play werben, also 2 Spiele parallel zocken :lol:
 
Den Satz würde ich nochmal überdenken. Die VRAM Auslastung hängt in erster Linie vom Spiel (Titel) ab und ist von der Kapazität abhängig. Natürlich gibt es auch einen minimalen Bedarf, den ein Spiel dann belegen können muss, um überhaupt lauffähig (spielbar) auf der Hardware zu sein. Das dürfte ja eins der Ziele sein, die der Entwickler hat. Das im Nachgang auch Treiberoptimierungen eine bspw. Auslagerung möglich machen, ist dabei nicht von Belang.

Es gibt zwar eine minimale VRAM-Größe, ohne die das Spiel überhaupt nicht (vernünftig) läuft, hier wird aber meist über das gegenteilige Ende diskutiert: Ab welcher Größe bringt mehr Speicher keinen Vorteil mehr? Dieses Maß versuchen einige an der Speicherauslastung von großzügig (über-)versorgten Grafikkarten allgemein abzulesen. Das ist aber gleich doppelt irreführend: Zum einen passen viele Spiele die Speicherbelegung an die verfügbare Speichergröße an. Wenn auf einer Karte mit 8 GB die Speicherauslastung auf 7 GB steigt, bedeutet dies also nciht, dass 6-GB-Karten ein Problem haben. Es kann auch sein, dass nur 5 GB aktiv genutzt und 2 respektive 1 GB sicherheitshalber gecached werden – dies muss man explizit austesten (privat mit nur einer Karte praktisch nicht möglich), sonst kann man die Zahlen nicht interpretieren. Ebensowenig war es in der Vergangenheit nicht immer möglich, von einer x-GB-Karte auf eine andere x-GB-Karte zu schließen. Wir haben mehrfach feststellen müssen, dass das gleiche Spiel bei Karten von AMD eine andere Speicherauslastung verursachte als bei Karten mit identischer Speichergröße von Nvidia.

Und das technische Minimum kann man über die Speicheranzeige demnach erst Recht nicht nie ausloten. Ein Spiel mag mit 4 GB auskommen, wenn es muss, aber auf einer 8-GB-Karte wird man trotzdem deutlich über 4 GB Speicherauslastung angezeigt bekommen.


Hast eigentlich Recht.

Man sollte sich weniger beteiligen, damit die Beteiligung nicht als "hype" fehlinterpretiert wird.
Selbst schuld, wenn wir hier rumklicken.

Ich glaube solchen Beiträgen, wie "ist der nicht vorhandene hype dies oder das ?" keine Beachtung zu schenken und völlig ohne Kommentar zu lassen, wäre die bessere Entscheidung gewesen.
Denken wir nächstes Mal 3 mal drüber nach, bevor wir lostippen. ;)

P.S.: Dies war mein "hype-Beitrag" um auf 200 postings zu kommen ! ;)

:-)
Exakt darauf bezieht sich mein Beitrag. Ich kann es aus eigener Erfahrung gut nachvollziehen, wenn man auf eine spannende Überschrift klickt und dann feststellen muss, dass der Artikel dahinter gar nicht suggerierten Informationen enthält. Aber hier? Klarer kann man Meinungsbeiträge zum Thema "Hype" "Radeon VII" kaum kennzeichnen. Wer "Radeon VII" total unspannend findet, sollte wirklich nicht auf Überschriften klicken, die nicht einmal neue Informationen dazu versprechen. Und schon gar nicht die Zeit investieren, einen Kommentar zu schreiben. Egal, ob der Kommentar dabei die Aussage eines anderen 1:1 übernimmt oder diesem explizit widerspricht – dieses achso "unwichtige" Thema scheint vielen Forenmitgliedern doch ganz schön am Herzen zu liegen. Auch andere News zur Radeon VII werden massenhaft geklickt und, obwohl mangels eigener Informationsquellen niemand etwas inhaltliches zum Thema beitragen kann, intensiv kommentiert. Sowohl hier wie dort mit reichlich Mutmaßungen, Hochrechnugnen und Wunschträumen zur Karte.
Was sieht so aus? Hypes.
Was sieht nicht so aus? Desinteresse.
Letzteres kann man zum Beispiel hier beobachten:
http://www.pcgameshardware.de/Red-D...-Rush-Lobby-Verbesserungen-Goldbonus-1274101/
Und da würde auch niemand eine Meinung der Woche zu einholen. (Außer ihr klickt jetzt alle den Link an und pusht den zugehörigen Thread von 0 auf 100. Ihr Cheater :-P)


*Pedanterie an*: AMD steht für "Advanced Micro Devices", nicht "American Micro Devices" :P

Asche über mein Haupt.
Ich weiß nicht, was peinlicher ist:
- Das ich so einen Fehler mache
- Das er durch alle Korrekturstufen kommt
- Das ihn vorher kein einziger der engagierten Kommentatoren (vor allem die, die sich besonders an meinen Beiträgen stören :-)) bemerkt hat.
 
Es gibt zwar eine minimale VRAM-Größe, ohne die das Spiel überhaupt nicht (vernünftig) läuft, hier wird aber meist über das gegenteilige Ende diskutiert: Ab welcher Größe bringt mehr Speicher keinen Vorteil mehr? Dieses Maß versuchen einige an der Speicherauslastung von großzügig (über-)versorgten Grafikkarten allgemein abzulesen. Das ist aber gleich doppelt irreführend: Zum einen passen viele Spiele die Speicherbelegung an die verfügbare Speichergröße an. Wenn auf einer Karte mit 8 GB die Speicherauslastung auf 7 GB steigt, bedeutet dies also nciht, dass 6-GB-Karten ein Problem haben. Es kann auch sein, dass nur 5 GB aktiv genutzt und 2 respektive 1 GB sicherheitshalber gecached werden – dies muss man explizit austesten (privat mit nur einer Karte praktisch nicht möglich), sonst kann man die Zahlen nicht interpretieren. Ebensowenig war es in der Vergangenheit nicht immer möglich, von einer x-GB-Karte auf eine andere x-GB-Karte zu schließen. Wir haben mehrfach feststellen müssen, dass das gleiche Spiel bei Karten von AMD eine andere Speicherauslastung verursachte als bei Karten mit identischer Speichergröße von Nvidia.

Und das technische Minimum kann man über die Speicheranzeige demnach erst Recht nicht nie ausloten. Ein Spiel mag mit 4 GB auskommen, wenn es muss, aber auf einer 8-GB-Karte wird man trotzdem deutlich über 4 GB Speicherauslastung angezeigt bekommen.




:-)
Exakt darauf bezieht sich mein Beitrag. Ich kann es aus eigener Erfahrung gut nachvollziehen, wenn man auf eine spannende Überschrift klickt und dann feststellen muss, dass der Artikel dahinter gar nicht suggerierten Informationen enthält. Aber hier? Klarer kann man Meinungsbeiträge zum Thema "Hype" "Radeon VII" kaum kennzeichnen. Wer "Radeon VII" total unspannend findet, sollte wirklich nicht auf Überschriften klicken, die nicht einmal neue Informationen dazu versprechen. Und schon gar nicht die Zeit investieren, einen Kommentar zu schreiben. Egal, ob der Kommentar dabei die Aussage eines anderen 1:1 übernimmt oder diesem explizit widerspricht – dieses achso "unwichtige" Thema scheint vielen Forenmitgliedern doch ganz schön am Herzen zu liegen. Auch andere News zur Radeon VII werden massenhaft geklickt und, obwohl mangels eigener Informationsquellen niemand etwas inhaltliches zum Thema beitragen kann, intensiv kommentiert. Sowohl hier wie dort mit reichlich Mutmaßungen, Hochrechnugnen und Wunschträumen zur Karte.
Was sieht so aus? Hypes.
Was sieht nicht so aus? Desinteresse.
Letzteres kann man zum Beispiel hier beobachten:
http://www.pcgameshardware.de/Red-D...-Rush-Lobby-Verbesserungen-Goldbonus-1274101/
Und da würde auch niemand eine Meinung der Woche zu einholen. (Außer ihr klickt jetzt alle den Link an und pusht den zugehörigen Thread von 0 auf 100. Ihr Cheater :-P)




Asche über mein Haupt.
Ich weiß nicht, was peinlicher ist:
- Das ich so einen Fehler mache
- Das er durch alle Korrekturstufen kommt
- Das ihn vorher kein einziger der engagierten Kommentatoren (vor allem die, die sich besonders an meinen Beiträgen stören :-)) bemerkt hat.

Also bedeutet das, sobald ich Interesse habe an etwas bin ich gehypt? Meinst du das so?
 
@ Torsten

Ich denke das vielen dieses Thema Wichtig ist und die Radeon auch mit Spannung erwartet und beobachtet wird.

Aber ein Hype ist in meinen Augen schon noch eine Stufe höher als nur die Beiträge hier im Forum und die Klicks unter PCGH. Denn dieser "Hype" findet ja mehr oder weniger nur hier im Forum statt und verbreitet sich nicht so wirklich viral im Netz.

Denke darum kommt hier auch des öfteren wie z.B. von mir die Aussage: "Welcher Hype?"
 
Es gibt zwar eine minimale VRAM-Größe, ohne die das Spiel überhaupt nicht (vernünftig) läuft, hier wird aber meist über das gegenteilige Ende diskutiert: Ab welcher Größe bringt mehr Speicher keinen Vorteil mehr? Dieses Maß versuchen einige an der Speicherauslastung von großzügig (über-)versorgten Grafikkarten allgemein abzulesen. Das ist aber gleich doppelt irreführend: Zum einen passen viele Spiele die Speicherbelegung an die verfügbare Speichergröße an. Wenn auf einer Karte mit 8 GB die Speicherauslastung auf 7 GB steigt, bedeutet dies also nciht, dass 6-GB-Karten ein Problem haben. Es kann auch sein, dass nur 5 GB aktiv genutzt und 2 respektive 1 GB sicherheitshalber gecached werden – dies muss man explizit austesten (privat mit nur einer Karte praktisch nicht möglich), sonst kann man die Zahlen nicht interpretieren. Ebensowenig war es in der Vergangenheit nicht immer möglich, von einer x-GB-Karte auf eine andere x-GB-Karte zu schließen. Wir haben mehrfach feststellen müssen, dass das gleiche Spiel bei Karten von AMD eine andere Speicherauslastung verursachte als bei Karten mit identischer Speichergröße von Nvidia. Und das technische Minimum kann man über die Speicheranzeige demnach erst Recht nicht nie ausloten. Ein Spiel mag mit 4 GB auskommen, wenn es muss, aber auf einer 8-GB-Karte wird man trotzdem deutlich über 4 GB Speicherauslastung angezeigt bekommen.
Mir ging es eher um den Satz, wo du sowas wie schreibst wie "Speicherausstattung des Spiels".:)

Ansonsten ja, die Anwendung oder das Spiel reserviert eigentlich immer die gleiche Menge Adressbereich, wenn etwas nicht in den VRAM passt, dann eben in den RAM und wenn nicht dort, in die Auslagerung auf einem Laufwerk (welches auch immer). Kann man auch gut beobachten, weil uns Windows mittlerweile ziemlich viel Informationen liefert (erweiterter Taskmanager=dediziert, commit, nicht genutzt _ aber reserviert usw.). Das kann man auch nicht mehr direkt beeinflussen (ausser man steckt einfach RAM dazu + Gamemode), weils das OS mittlerweile tatsächlich völlig autark tut.

Das technische Minimum wird dabei mit einem netten Error bestätigt der beinhaltet "Ihre Anwendung wird jetzt beendet weil ihr Computer für A oder B nicht genügend Speicherplatz zur Verfügung stellt" (was vielerlei Ursachen haben kann) und das Spiel startet erst gar nicht. Das kann mit Administratorrechten, dem lokalen Computer Management, mit Leistungsoptionen virtueller Bereiche, der Größe der Auslagerungsdatei, Anfangsgröße und Maximalgröße, oder dem Zustand des angesprochenen Pool oder Laufwerk zu tun haben, bis ihn zu einem Defekt oder Fehler reichen, oder dem Fehlen der Kapazität zu tun haben.

Was man also in den VRAM lädt ist nicht alles und natürlich stört das auch die Dynamik oder den Spielelfuss, wenn man ständig Daten nachladen muss, mal unabhängig das ggf. auch Texturen gestreamt werden müssen, was man aber effizienter erledigen (komprimiert und in kleinen Paketen) kann.

Nur mal als Bsp., sind ist der Texturordner bestimmter Spiele über 30GB groß, dass passt bei einer Austattung von 6GiB VRAM und im optimalen Fall 16GByte RAM, nirgends rein. "Entpackt" (also unkomprimiert) schon gar nicht.
 
Zuletzt bearbeitet:
Was würden denn für Artikel ohne die Ankündigung der (lucky nr) seven kursieren ?

"Hat sich AMD auf die Gleise gelegt und wartet auf den NVIDIA Zug ?" :lol:
 
Zum einen passen viele Spiele die Speicherbelegung an die verfügbare Speichergröße an. Wenn auf einer Karte mit 8 GB die Speicherauslastung auf 7 GB steigt, bedeutet dies also nciht, dass 6-GB-Karten ein Problem haben. Es kann auch sein, dass nur 5 GB aktiv genutzt und 2 respektive 1 GB sicherheitshalber gecached werden – dies muss man explizit austesten (privat mit nur einer Karte praktisch nicht möglich), sonst kann man die Zahlen nicht interpretieren. Ebensowenig war es in der Vergangenheit nicht immer möglich, von einer x-GB-Karte auf eine andere x-GB-Karte zu schließen. Wir haben mehrfach feststellen müssen, dass das gleiche Spiel bei Karten von AMD eine andere Speicherauslastung verursachte als bei Karten mit identischer Speichergröße von Nvidia.

Und das technische Minimum kann man über die Speicheranzeige demnach erst Recht nicht nie ausloten. Ein Spiel mag mit 4 GB auskommen, wenn es muss, aber auf einer 8-GB-Karte wird man trotzdem deutlich über 4 GB Speicherauslastung angezeigt bekommen.

Bezüglich des Speicherthemas hat hardware unboxed mal ausgiebig getestet, ob es bei der 6GB 2060 ein Problem gibt, wegen "nur" 6GB Speicher in Spielen.
Dies nur als Nachtrag, da das ja ab und zu ein Thema ist, dass die 6GB ein riesen Problem darstellen. Jedenfalls behaupten das manche. Vor allem wenn ein leistungstechnisch vergleichbares AMD Modell 2 GB mehr, als die 2060 besitzt. ;)

YouTube


Kurz: Nein.
Und sie schätzen in den nächsten kommenden Jahren(1-3) ebenfalls nicht(eine Glaskugel um in die Zukunft zu schauen, hat natürlich niemand).

Irgendwann schon, aber dann sollte man mit einer simplen Einstellungsänderung(ohne große spürbare optische Unterschiede) wieder aus den Problemen raus sein. Desweiteren braucht man wohl bei einer "60er" Karte in 3-5 Jahren eh wieder eine neue, einfach aufgrund der (Grund-)Leistung.
Diese Karte ist ja eh nicht für UHD @ ultra gemacht.


Das ganze hier nur als kleiner Nachtrag, da mich in letzter Zeit interessierte, ob die 6GB tatsächlich ein Problem darstellen, z.B. auch heute schon.
Es gibt halt viel mehr Leute, die in diesem Preisbereich kaufen(150-350€), als im 500€-1500€ Bereich.
Und die 2060 gibt's zumindest in 2 etwas besseren custom designs bereits für 350€.
 
Zuletzt bearbeitet:
Zurück