AMD Big Navi: GPU mit Infinity Cache?

"ob AMD dieses Mal mit Nvidia im High-End-Bereich mithalten kann oder ob die Grafikkarten eher als günstigere und energiesparende Konkurrenz zu Geforce RTX 3080 gedacht sind"

Naja, wenn se die 3080 einholen sind se ja schon vorne mit dabei, die 3090 ist ja nur ein paar % schneller von Nvidia gestaltet worden, warum auch immer, seltsame Produktaufstellung. Vor allem scheint man dann gleich den richtigen Ausgleich von Ram und Chip zu finden. Eine 3080 mit 16gig wäre genau richtig, 10 sind zuwenig und 20, wenn es so kommt, dann wiederum fast zuviel.
 
Meine läuft mit einem Arctic Accelero Extreme IV mit Conductonaut bei 2150@ 1180mv und 1820mhz VRAM in einem gut gekühltem Fractal Design R6, GPU max: 65C° Tjunction max: 95C°

Solche Werte macht meine GPU nicht langfristig stabil mit. Hab mein Limit bei 2050 Mhz und 1,15 V - 1,1 V läuft relativ lange stabil, aber nach einigen Stunden gab es dann doch mal einen Crash, welchen ich mit den aktuellen Settings nicht habe. Es kann aber wirklich was anderes sein (das wäre dann vermutlich doch zu einfach, das Du weniger Takt noch nicht ausprobiert hättest). Vielleicht sind es auch andere Spiele - so das mir das Problem schlicht nicht auffallen konnte. Wie gesagt, bei den von mir genannten Titeln kann ich keine Stabilitätsprobleme feststellen.

An den Temperaturen kann es nicht liegen, die sind bei mir ähnlich.
 
Bevor du die Redaktion angreifst, solltest du einmal überlegen, was du da sagst. ...

"billiger Rotz der Oberklasse", "schrumpelige Speicherbestückung", "Teurer Schrott", "Grukentruppe", "Wegwerfprodukte", "Weder Fisch noch Fleisch"
Okay, deinem Bias hast du damit mal recht eindrucksvoll Luft gemacht. Warte doch einfach auf AMD, wenn du nVidia nicht magst oder immer noch nicht verstanden hast, dass der Ampere-Launch gerade mal erst mit einer einzigen GPU und nur zwei Kartenmodellen begonnen hat und noch längst nicht abgeschlossen ist. ;-)
 
Wenn der Fabric zwischen den beiden "GPU´s " ein Nadelöhr darstellen würde, wäre das in einer Größenordnung von 80 CU´s natürlich selten dämlich von AMD umgesetzt. Stimme ich dir ohne Frage zu.
Hier kenn ich mich leider auch gar nicht aus und kann nicht einordnen in wie weit Nachteile durch eine solche Form der Kommunikation zwischen den CU´s und/oder Shader-Clustern entstehen können. Also besonders nicht bei GPU´s.
Es könnte ein entsprechender Entwicklungsschritt auf dem Weg zu MCM-GPU´s sein.
Da der Fabric der aktuellen Annahme nach hier noch im Silizium liegt und nicht über einen externen Interposer realisiert wird ist die Performance aber vllt auch gar nicht so übel!?

Von einer Multi-Chip-Modul-Bauweise kann man final dann natürlich echt noch nicht sprechen. Das hab ich oben auch versucht zu korrigieren, aber ein gewisser MultiModul-Aufbau innerhalb des einen Chips ist für mich nicht von der Hand zu weisen.
Alles unter der Annahme, dass diese Technik schon in RDNA2 vorzufinden ist und nicht erst bspw. mit Navi31 kommt. Was ja auch möglich wäre.

Zum Nadelöhr: Es ist alles eine Frage der Budgets. Kann man technisch eine ausreichend schnelle Schnittstelle bauen? Ja. Lohnt sich das? Mit bisheriger Technik nicht. AMDs Infinity Fabric hat beispielsweise keinen unerheblichen Flächenverbrauch und wurde in der ersten Threadripper auf 40-70 W geschätzt. Wenn der höhere Wert stimmt, hätte man mit dem gleichen Silizium- und Energiebudget statt einem MCM-16-Kerner vermutlich einen monolithischen 20-22-Kerner verkaufen können. Und eine GPU bräuchte weitaus mehr Datentransferrate, da reden wir bei heutiger Technik möglicherweise von 50 Prozent mehr Shader-Einheiten für ein monolithisches Design bei gleichem Takt. Mit günstigen Alternativen zu Silizium-Interposern, die effizientere Interconnects ermöglichen, verschiebt sich diese Betrachtung zugunsten MCM und es wird sicherlich spannend, was Intels EMIB bei Xe ermöglicht, aber ein no-brainer ist MCM sicherlich nicht.

Zu modularen Aufbauten innerhalb eines Chips: Die haben wir mit diversen Shadercluster-Konzepten seit über einem Jahrzehnt. Technisch dürfte das immer noch ein minimaler Nachteil gegenüber einem homogenen Monolithen sein, aber neben den Kosten pro Chip muss man auch die Entwicklungskosten pro Architektur berücksichtigen. Gerade im High-End-Bereich mit seinen kleinen Stückzahlen ist es dann günstiger, auf eine C-&-P-Verknüpfung kleiner Einheiten zu setzen und die Defizite durch einen insgesamt etwas größeren, teureren Chip auszugleichen, als alles noch einmal von null zu Entwickeln. Man sieht aber auch hier, dass von Generation zu Generation die Einteilungen zum Teil radikal verändert werden, die "beste" Lösung also keineswegs einheitlich und offensichtlich ist.
 
Bevor du die Redaktion angreifst, solltest du einmal überlegen, was du da sagst.
Klammere passend zu deiner Aussage die 3090 aus.
Was hat man dann?
Nichts mehr.
Die xx80 Ti komplett ersatzlos gestrichen.
Es gibt also von NVidia nach so langer Zeit also keine High-End/Enthusiastenkarte mehr.
Die 3080 ist billiger Rotz der Oberklasse, das sagt alleine schon die schrumpelige Speicherbestückung aus.
In einem Jahr in keinen Raytracing Spiel mehr zu gebrauchen, da die Karte jetzt schon an ihr Limit stößt und von den ersten Spielen zerrissen werden kann.
Teurer Schrott also für den Fall, falls man gerne mal in UHD gespielt hätte.
Also was sollen sich die Leute jetzt kaufen?
Genau, nichts.
Auf Big Navi warten und beten.
Diese und weitere Vorwürfe muss NVidia sich gefallen lassen.
Das ist eine reine Grukentruppe, die die da aufgestellt haben.
Weder Fisch noch Fleisch, sogar die Einordnung der Karten fällt einem deswegen schon schwer.
Für FHD zu schnell (CPU Limit), WQHD jetzt noch gut, aber nur die 3080, in UHD gibt es nur die 3090, die ja aber viel zu teuer ist und eher nur für Anspruchsvolle sein soll, die auch nebenbei noch Anwendungen damit füttern wollen.
Nimmt man jetzt die 3090 für UHD mit ins Boot, hat man wieder eine erneut etwas teurere Ti mit 1499 statt 1249 Euro(??), die 3080 mit 699 ist sogar 40 Euro günstiger angesetzt geworden als ihr Vorgänger (hat dafür jetzt vergleichsweise sehr wenig Speicher im Gegensatz zu einer 1080, die ich damals für unter 500 bekommen habe), welche man dann für WQHD gut verwenden kann (Raytracing wird zwicken), die 3070 mit lumpigen 8GB wird man wohl kaum in FHD noch langfristig wirklich Raytracing ohne Einbußen zocken können.
Aber das sind so die drei Karten, die man auf die drei Auflösungen aufteilen kann.
Will man die Karten anders einordnen, benötigen die 3080 udn 3070 zwingend wesentlich mehr RAM (+50%).
Ansonsten sind das Wegwerfprodukte.
Ich bin mir ziemlich sicher, dass NVidia die aus der Not heraus rausgerückt hat, weil man noch auf den passenden Speicherbaustein für die 20GB Variante der 3080 warten muss.
Wann komtm der nochmal? Anfang des Jahres? (bin gerade nicht sicher)
Dann wird es die Antwort auf Big Navi geben können, eher nicht.
Ich erachte die 3080 sogar lediglich als sehr gute FHD Karte.
Auch wenn die CPU's derzeit am Lmit sind, hat die KArte genug Leistung, um dann in 2 Jahren aus dem Vollen schöpfen zu können.
Ihr ist also eine lange Lebenszeit in kleinen Auflösungen vergönnt.
Sehr angenehm für Spieler mit 120hz Bildschirmen mit vsync, die vielleicht sogar auf Raytracing und einigen details verzichten können, nur um sehr hohe stabile Bildraten zu haben.
Selten so viel Unsinn und Hate in kurzer Zeit gelesen. Muss man sich immer gleich so auskotzen, nur weil man ein Unternehmen nicht mag?
Die 3080ti ist nicht ersatzlos gestrichen, zumindest noch nicht. Ti-Modelle kamen fast immer deutlich nach Release, nur weil Turing zum ersten mal die Ti direkt zu Beginn hatte heißt das nicht, dass es jetzt immer so sein muss (Pascal hat fast ein Jahr für die 1080ti gebraucht, rein vom Chip her ist die 3080 auch quasi die 'ti' dieser Generation).
Vram wird hier im Forum mMn grundsätzlich hart überbewertet, aber jetzt mal ehrlich 8Gb sollen nicht mehr genug für FullHD sein? Das ganze Thema ist sowieso schwierig, weil es letztlich darum geht die Zukunft vorherzusagen wozu keiner hier in der Lage ist. Die Konsolen werden sicherlich eine Auswirkung haben, nur wie viel muss einfach die Zeit zeigen.
Trotzdem, die 3080 wegen 10Gb Vram auf 1080p zu degradieren und zusätzlich noch 'auf Raytracing und einige Details verzichten'? Was soll man denn in der 200-300€ Klasse verbauen? Oder spielen da alle noch in 720p?
Kann man noch deutlicher seine Antisympathie/Bias zum Ausdruck bringen oder übersehe ich was?
 
PC Games, eure Artikel werden immer Schwachsinniger:

ZITAT:
Mal mit Nvidia im High-End-Bereich mithalten kann oder ob die Grafikkarten eher als günstigere und energiesparende Konkurrenz zu Geforce RTX 3080 gedacht sind.

Sorry, die 3090 ist nicht primär für Spieler da, sagt sogar Nvidia, 100% aufpreis für 10% mehr Leistung, wenn AMD gleichauf mit der 3080 ist, reicht doch vollkommen....
Als nächstes beschwert Ihr euch auch noch das Irgendwelche Cloud Beschleuniger karten schneller sind oder was?
Also erst mal schimpfen. Und falsche Anrede. Hut ab. Oder Maske auf. Oder Scheuklappen weg.
Die 3090 ist das High-End Segment für Spieler. Was ist daran falsch? Der Preis? Muss man ja nicht mit Einverstanden sein. Kann man aber auch anders ausdrücken. Sehe ich das nur anders als du?

Von der Produkteite der 3090er Serie :
Der atemberaubende G6X-Speicher mit 24 GB hat zudem alles für ein ultimatives Gaming-Erlebnis.

Klingt für mich nach "für Gaming beworben". . .

Klar kann man mit der Karte auch mehr machen, Rendern, Streamen, Videoschnitt etc. pp .
Aber wie kommt man auf die Idee die Redaktion so anzugreifen für einen aus dem Kontext gerissenen Satz der sich sachlich darauf bezieht, dass man aktuell ohne die Leistung der Karten zu kennen nur spekulieren kann ob damit der Angriff auf das High-End Segment möglich ist?

Fährst du auch im Strassenverkehr immer dicht mit Lichthupe auf, weil 130 nicht genug ist? Erinnert mich irgendwie an sowas. Chill doch mal.
Ach übrigens - ich persönlich bin der Meinung, dass man auch zu dummen Fehlern stehen kann. Das hat was von geistiger Größe. Oder einfach nur Menschlichkeit? VIelleicht werden wir es nie erfahren...
 
Also erst mal schimpfen. Und falsche Anrede. Hut ab. Oder Maske auf. Oder Scheuklappen weg.
Die 3090 ist das High-End Segment für Spieler. Was ist daran falsch? Der Preis? Muss man ja nicht mit Einverstanden sein. Kann man aber auch anders ausdrücken. Sehe ich das nur anders als du?

Von der Produkteite der 3090er Serie :
Der atemberaubende G6X-Speicher mit 24 GB hat zudem alles für ein ultimatives Gaming-Erlebnis.

Klingt für mich nach "für Gaming beworben". . .

Klar kann man mit der Karte auch mehr machen, Rendern, Streamen, Videoschnitt etc. pp .
Aber wie kommt man auf die Idee die Redaktion so anzugreifen für einen aus dem Kontext gerissenen Satz der sich sachlich darauf bezieht, dass man aktuell ohne die Leistung der Karten zu kennen nur spekulieren kann ob damit der Angriff auf das High-End Segment möglich ist?

Fährst du auch im Strassenverkehr immer dicht mit Lichthupe auf, weil 130 nicht genug ist? Erinnert mich irgendwie an sowas. Chill doch mal.
Ach übrigens - ich persönlich bin der Meinung, dass man auch zu dummen Fehlern stehen kann. Das hat was von geistiger Größe. Oder einfach nur Menschlichkeit? VIelleicht werden wir es nie erfahren...

Ich stimme dir in vielen Punkten zu, einige Leute sind hier extrem emo unterwegs, das nerft. Jedoch ist der angesprochene Punkt Speicher nicht zu ignorieren, 10GB für die 3080 ist einfach zu wenig, das bekommt man schon jetzt in einigen Spielen voll und bis zur 3080ti (wenn sie kommt) dauert es noch. Ich hoffe das AMD es von der Gesamtaustattung besser macht.
 
Jetzt schau ma mal. Wenn ich die Erklärung im PCGH Sonderheft richtig verstanden habe, dann ist der Cache kein unwesentlicher Bestandteil der Architektur des Chips. Sollte AMD hier gewisse Optimierungen vornehmen, schnellerer Fluß (Verwaltung) von 0/1, dann kann das als Argument für eine gesteigerte Rohleistung am Ende (FPS) sein.

Wenn se nun wirklich mit mehr VRam und gesteigerter GPU Leistung unterwegs sind, mit jetzt schon vernommener "besserer" (niedrigerer) Leistungsaufnahme (Kühlung, Lautheit etc.), dazu mit Preiskampf, dann gehen bei Ampere mal flux die Lichter aus, selbst wenn es nicht zur 3090 reichen sollte.

Luaga ma mal. Heusts bei uns. :banane:
 
meine fresse und unfasbar mit all diesen verdammten si bandbreiten sorgen diskusion :fresse:

wie oft muss ich und die welt das erklären, das es kack egal ist, mit welchen si performance technik rdna2 kommt, wichtig ist doch das endlich amd mit den neuen modernen marketing strategie für die gamer einschlägt und ihren rdna2 gpu architektur auf reiner gamer ausgelegt haben, um gegen mining usw fern zuhalten !!!

und wenn die reden über 4k performance, dann werden die woll selbert wisssen, was rdna2 für 4k performance benötigt und dabei sehr effizient zu bleiben und dadurch auch weniger herstellungs kosten, so das rdna2 preisleistung kracher wird.

ist das so schwer zu verstehen und zu sehen, das amd endlich für uns einen reiner gamer gpu auf den markt wirft und mit absoluten preisleistung kracher aller zeiten werden wird ?
 
Zuletzt bearbeitet von einem Moderator:
[...] und bis zur 3080ti (wenn sie kommt) dauert es noch. [...]

Wie oft denn noch? Dass die kommt, ist schon lagen gesichert. Igor hat schon vor über einem Monat das 20 GiB-PCB bestätigt und kürzlich hat GALAX die 20er Modelle ebenfalls bestätigt, ebenso wie schon Lenovo einige Wochen zuvor die 16er-Modelle bestätigt hat und unabhängig von diesen inoffiziellen Bestätigungen war es auch schon zuvor vollkommen absehbar, weil das Portfolio explizit auf diese Karte ausgelegt war und die offensichtlichen Lücken zeigten mehr als deutlich, dass da noch was kommen wird.
Und das wird auch halbwegs zeitnah sein, denn hier will und muss man auf AMD reagieren, d. h. es macht keinen Sinn die Modelle erst Mitte nächsten Jahres zu veröffentlichen ;-)
nVidia hat sein Speicherinterface explizit so ausgelegt, dass man AMD von oben und unten in die Zange nehmen kann., d. h. man kann den Markt sehr granular mit Produkten belegen, deutlich granularer als AMD, die dementsprechend hier über den Preis fahren müssen und dadurch wieder gezwungen sind einen Teil ihrer Marge zu opfern.

[...] ist das so schwer zu verstehen und zu sehen, das amd endlich für uns einen reiner gamer gpu auf den markt wirft und mit absoluten preisleistung kracher aller zeiten werden wird ?

Ich glaube da hat ihnen nVidia mit ihrem aggressiven Pricing (soweit das bisher abzusehen ist) jetzt schon in die Suppe gespuckt. Das wird AMD so oder so Probleme bereiten und einiges an Marge kosten.
Das GPU-Design ist diesmal deutlich aufwändiger (auch wenn man beim SI zu sparen versucht) und hinzu kommen bis zu 16 GiB GDDR6 die es auch nicht "für umsonst" gibt und da gibt es jetzt schon einen Preisanker von 699 € (und 499 €).

Insgesamt wird es auf jeden Fall spannend zu beobachten sein wie die beiden taktieren und welche Produkte wie und wo platzieren werden und mit welchen Argumenten/Features zu punkten versuchen. Beispielsweise wird eine interessante Frage sein (abseits dessen wie gut AMDs Raytracing-Implementation funktionieren wird), ob man bei AMD etwas gegen bzw. wie DLSS mitbringen wird.
 
Zuletzt bearbeitet:
Das ist ein Volta Chip.
Der blaue Pornobalken in der Mitte ist L2 Cache der die einzelnen Cuda Kerne miteinander verbindet und deren Datenaustausch fördert.
Cache ist gut. Cache ist nicht neu. Ohne Cache wären CPUs nicht dort wo sie heute sind mit ihrer Leistung.
AMD hat Cache? Daumen hoch.
AMD macht aus dem Cache eine große Sache beim Werben? Haben sie bei Vega auch.

Wichtig ist was im Benchmark rauskommt. Da wissen wir Seit Vega56, dass AMD einen architektonischen Neuansatz braucht hat und mit Navi und BigNavi ist der da. Nvidia hat den zu Zeiten der 1070 nicht gebraucht, aber die Verbesserungen und Leistung pro Transistor waren bei der 20er und 30er Serie nicht so prall, was Nvidia aber mit größeren Chips, mehr Transistoren und zuletzt mit sehr viel mehr Hitze ausgeglichen hat. Ein wenig so wie AMD vor ein paar Jahren. Und in vier Jahren hat vielleicht Nvidia wieder den heißesten Schaiz und Navi++ ist am Limit.

Wenn AMD Sony mit 32 CUs und 8/16 Kernen für eine 400€ Konsole beliefern kann, dann wird es sich AMD schon noch leisten können Euch mit einer 8/16 CPU für 300€ und einer 40CU Karte für 450€ zu beliefern. Keiner muss wegen sowas seine Lederjacken im Second Hand Shop kaufen oder aus der Kleidersammlung fischen.
 

Anhänge

  • hpc-day-2017-nvidia-volta-architecture-performance-efficiency-availability-11-638.jpg
    hpc-day-2017-nvidia-volta-architecture-performance-efficiency-availability-11-638.jpg
    84,4 KB · Aufrufe: 28
"Wichtig ist was im Benchmark rauskommt." - Ja, das ist am Ende das einzige was zählt. Aber AMD macht doch kein großes Aufheben um den Cache, denn genaugenommen macht AMD derzeit gar nichts, da die keinen Ton von sich geben. Bisher alles nur Gerüchteküche, wenn es auch immer wahrscheinlicher wird.
Übermäßig hervorheben können die den auch nicht, denn schlussendlich dient er zu einem wesentlichen Teil dazu das deutlich zurechtgestutzte Speicherinterface zu kompensieren.
Nehmen lassen werden sie sich das aber marketingtechnisch dennoch nicht a la "eine GPU ist nur gut mit großem Cache" ;-) denn auf so ein Phrasenschwein fährt das Marketing grundsätzlich ab.
Am Ende weiß man aber immer noch nichts zur Leistung zu sagen, sodass man weiterhin nur raten kann. das angebliche 238 W/2,2 GHz-Modell sollte es aber schon problemlos mit der 3080 aufnehmen können (denn alles andere wäre bei den Specs eine Enttäuschung), allerdings dann auch bei über 300 W TBP, d. h. so manch einer darf sich schon mal überlegen wie man den Verbrauch rechtfertigt, während man Tage zuvor die 320 W der 3080 verteufelte. ;-) Aber vielleicht haben diese Personen ja auch ein wenig Glück und dieses Modell reicht gar eher bis in die Nähe einer 3090 ... wer weiß?

Anmerkung zu Volta: Das sind gerade mal 6 MB L2. Für den "InfinityCache" werden zurzeit bis zu 128 MB in den Topf geworfen ...
 
jedenfalls wird es im november ganz schön lustig werden, wenn es um architektur effizient geht und ampere sich zu thermi 2.0 aufzeigen wird und mit der zeit bestätigen wird, extrem strom hungrig für die reine rhorleistung.

und so gut wie keine spiele gibt und im zukunft erst recht nicht und wenn dann wird man das locker mit einer hand abzählen können, was jemals diese doppelte shader berechnungen jemals auf die strasse bringen wird ;)

also da kann nv mit ampere von mir aus mit 128gb vram kommen oder mit sonst was, amd wird beim preisleistungs kracher die krone erobern und ein grossen erfolg mit rdna2 leisten !
 
Zuletzt bearbeitet von einem Moderator:
1) Lustig ist relativ. Genaugenommen wird es bestenfalls interessant, aber auch nicht übermäßig. Man kann annehmen, dass AMDs GPU etwas effizienter sein wird, aber auch nicht übermäßig.
Zudem vergessen viele in diesem Kontext, dass der Hauptunterschied der Karten auf den Speicher zurückzuführen ist und dessen externe Komponenten (die BGAs und die Zuführungen im PCB) haben mit TSMC mal rein gar nichts zu tun. Bei den GPUs selbst werden die Unterschiede voraussichtlich geringer ausfallen, als sich so manch einer ausmalt. Beispielsweise die bis zu 238 W des "Navi21b"-Modells dürfte noch nicht einmal der GA102 erreichen (egal ob als 3080 oder als 3090).

2) nVidias CUDA Core-Aufbau bedarf keiner expliziten Unterstützung; es kann per Definition keine 100%ige Leistungssteigerung geben, da bei INT-Berechnungen, die unvermeidbar sind, nur eine FP32-Einheite arbeiten kann. Tendenziell könnten Entwickler jedoch einen kleinen Teil der Berechnungen, die man per INT oder FP durchführen kann, eher auf FP umstellen, aber das wird sich aufwandstechnisch i. d. R. nicht wirklich lohnen.
Und die aktuell gemessene Leistung ist schlicht wie sie ist und ein direktes Resultat der Architekturumbauten.

3) AMD war in den letzten Jahre P/L-technisch immer besser und wird es auch mit RDNA2 sein; dazu bedarf es keiner prophetischen Fähigkeiten, denn AMD muss das schlicht sein, weil man ihnen sonst die GPUs nicht abnimmt. Bei grob vergleichbarer Leistung für einen vergleichbaren Preis gibt es kaum noch ein Argument beim Underdog zuzugreifen.
 
p/l technisch und preisleistungs kracher haben bzw können ganz andere dimensionen haben !

denn, noch lustiger wird es, das rdna2 voll ausbau chip als big navi genannt wird und midenstens den doppelten leistung von navi 10 haben wird !!!

allein das wird total ignoiert, weil warscheinlich rdna2 noch mit gcn verglichen wird und deshalb das ganze erstmal sehr lustig macht, vorallem mit den si bandbreiten sorge usw, und amd/ati ja so blöde ist und wissen nicht wie man ein big chip herstellt :fresse:

ansonsten, wo der big navi genau landen wird mit den preisleistung kracher, werdet ihr bzw wir im november sehen, wie lustig das tatsächlich werden wird, da ampere dann aufeinmal ganz alt ausehen wird ;)

warum ich das lustig finde und das ganze sehr lustig sein wird, weil ampere als sehr günstig gesehen wird mit ihren preisleistung im vergleich zu turing und dabei der verbrauch usw komplett ignoirt wird.

in dem sinne, lang lebe die naivität und gehirnmanipulation bzw gehirnwäscherrei :D
 
so manch einer darf sich schon mal überlegen wie man den Verbrauch rechtfertigt, während man Tage zuvor die 320 W der 3080 verteufelte. ;-)

Da braucht man nicht viel zu rechtfertigen, wenn die Leistung vergleichbar ist und die Karte bei 8GB mehr an VRAM ( der braucht ja auch Energie) dann trotzdem 20W weniger braucht ist das schon in Ordnung. Zumindest sehe ich hier keinen Grund mehr warum sich da dann irgend jemand rechtfertigen müsste ....
 
Zur geplanten Leistung von BN (Post von Avery)

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Respekt, wenn sie es dann auch geschafft haben sollten.
 
Wenn ich mir die News über die Ausverkäufe von RTX30X0 Karten anschaue, komme ich mir vor als wenn es die Letzte Grafikkarte der Welt wäre.

Das Problem ist einfach , je länger AMD rumschlarpt desto mehr potenziele Kunden gehen Ihnen verlohren.

Vielleicht wäre es besser GPU und CPU Sparte würden sich wieder trennen?
Habe zunächst verstanden , dass man die schlecht laufende CPU (Bulldozer) sparte mit GPU Einnahmen gepuscht hat. Aber mitlerweilen geht es den AMD Zen gut und AMD GPU bekommt den Hintern nicht mehr hoch mit so wenig Forschungs&Entwicklungs - Geld.
 
Warte doch Big Navi ab, dann sieht die Welt anders aus und AMD ist vorne bei CPU und GPU. Ich sage mal wer jetzt ne Geforce kauft, wird sich mächtig ärgern.
 
Zurück