AMD Big Navi: Angeblich nur Konkurrenz zur RTX 3070 - bei 275 Watt

Und die "indirekt" bestätigte 16 GB Version war quasi schon der Genickbruch der 10 GB Variante, denn die würde ich mir nach dieser Info sicher nicht mehr holen.
Bist du dir sicher? Ich denke, dass eine 16/20 GB Variante um einiges mehr kosten wird. Ich kann mir gut Vorstellen, dass eine RTX 3070 16G um die 700€ wenn nicht noch leicht höher bei 749€ landen wird. VRAM ist definitiv nicht günstig und Nvidia legt noch ordentlich Design-Steuern oben drauf.
 
Was erzählst du da? Der GA102 hat gerade mal 336 Tensor Cores v3 insgesamt. Und darüber hinaus hat sich die Anzahl gar effektiv reduziert, da Turing noch 8 pro SM und Ampere nur noch 4 pro SM implementiert. Die Tensor-Leistung ist bei Ampere dennoch beträchtlich höher (auch ohne Sparsity).,
Darüber hinaus, was "hieß" ist vollkommen irrelevant, weil das nichts Bestätigtes ist und deshalb macht es auch keinen Sinn darauf rumzureiten. Was man lediglich mit hoher Sicherheit annehmen kann ist, dass es ein 20 GiB-Modell geben wird, denn Igor hat das mithilfe seiner Kontakte bereits "quasi" bestätigt. Und die 16 GiB-Karte ist gar bereits von Lenovo indirekt bestätigt worden. Zudem stellen sich die Fragen bzgl. etwaiger Bestätigungen auch nicht wirklich, denn bereits anahand des Portfolioaufbaus sieht man, dass hier Lücken klaffen, die aus gutem Grund existieren ...

Da klaffen aber auch nur preisliche Lücken. Wenn die 3090 wirklich nur 20% schneller als die 3080 sein sollte, dann ist sie, vorsichtig ausgedrückt, kein Preiswunder.
Man würde dann eher von Wucher sprechen...
 
Diese Diskussionen wieder... der ist doof, der Andere ist doof.....

Mir persönlich würde eher gefallen, wenn jemand eine Karte bringt die mit 180 Watt die Leistung einer 2080Ti bringt. Finde die Entwicklung eher negativ. Klar gibt es mehr Leistung, aber es muss doch möglich sein, dass man bei gleichbleibendem Verbrauch mehr heraus bekommt.

Das kommt doch mit der RTX 3070 gut hin
RTX 2080 TI -> 260W TGP
RTX 3070 -> 220W TGP

Um auf 260W zu kommen, kann man bei der 3070 schon zu einer starken OC Custom Variante greifen. Ansonsten bleibt wohl nur warten auf die TI oder Super version.
 
Also wenn ich mich recht erinnere war das Maß der Dinge für Big Navi bis vor Kurzem noch die 2080Ti.
Es wurde spekuliert ob Big Navi da mithalten kann oder nicht. Wenn die Prognosen stimmen ist das ja nun 3070 Niveau.
Warum sollte sich das dann nach Bekanntmachung von 30XX ändern?
Wenn AMD 2080Ti Leistung bietet, mit 16GB RAM zu einem angemessenen Preis ist das doch ein schönes Stück Hardware...

Die 3090 ist zwar ganz klar high end aber wer kauft die denn? 0,xx Prozent aller Spieler sind doch bereit mehr als 1k€ für ne Grafikkarte auszugeben.

Viel interessanter finde ich die Frage nach RT bei Big Navi?
Wie löst AMD die Thematik und was kommt dabei raus?

Naja und dann ein möglicher Release, wenn da nicht bald was kommt sehe ich die Felle schon davon schwimmen, dann macht André-Marie das Rennen weil einfach verfügbar.
Nvidia hat uns an Preise gewöhnt wo uns 700€ für eine 3080 als gutes Angebot vorkommen, mich eingeschlossen und ich bin gewillt Blaise in Rente zu schicken.
 
@TheEndOfTheWorld / Illithide:

Bezüglich der TFlops bei Ampere gibt es nichts zu orakeln, das ist relativ trivial.
Zwei FP32-Einheiten pro CUDA Core, die bestenfalls jeweils eine FMA-Operation pro Takt ausführen können. Eine FMA-Operation sind eine Multiplikation und eine Addition, also zwei Flops.
Dementsprechend skalieren die offiziellen Peak-Angaben linear mit den CUDA-Cores und dem Takt, so bei der
RTX 3090 : 5248 Cores * 2 Units * 2 Flops * 1,70 GHz = 35686 GFlops ~ 35,7 TFlops
RTX 3080 : 4352 Cores * 2 Units * 2 Flops * 1,71 GHz = 29768 GFlops ~ 29,8 TFlops
Anders ausgedrückt: 128 FMA-Operationen pro CUDA Core bzw. 256 Flops pro CUDA Core pro Takt. Zu berücksichtigen ist nur, dass nVidia nun die CUDA Cores in "verdoppelter" Anzahl ausgibt, faktisch wurde jedoch nicht ein kompletter CUDA Core verdoppelt. Da FP32 für heutige Game Engines jedoch weitaus wichtiger ist als bspw. die Integer-Leistung, ist eine derartige Angabe durchaus legitim, wenn sie auch nicht ganz akkurat den technischen Sachverhalt spiegelt.

Ist übrigensd die gleiche Rechnung für aktuelle AMD-GPUs wie Navi 10 oder Vega 20, nur dass hier nur maximal eine FMA-Operation pro SP ausgeführt werden kann und ab RDNA ist zu beachten, dass AMD die Taktangaben anders angibt und hier etwas optimistisch hoch greift und den (Base, Game,) Boost-Takt für die Ermittlung der Maximalperformance verwendet:
Radeon VII : 3840 SPs * 2 Flops * 1,80 GHz = 13824 GFlops ~ 13,8 TFlops
RX 5700 XT : 2560 SPs * 2 Flops * 1,905 GHz = 9754 GFlops ~ 9,8 TFlops

Oder auch für Turing:
RTX 2080 Ti : 4352 Cores * 2 Flops * 1,635 GHz = 14231 GFlops ~ 14,2 TFlops
(Die GPU kann je nach Herstellerauslegung um die 1,9 GHz Peak erreichen, was zu ~ 16,5 TFlops führen würde.
Eine Titan RTX/Quadro RTX 6000 erreicht dagegen bereits mit ihrem regulären Boost-Takt ~ 16,3 TFlops.)

Ergänzende Anmerkung zu den Konsolen: Deren RDNA2 verbleibt architektonisch bei einer FMA-Operation pro SP. Ob AMD das RDNA2 für die dGPUs erweitert hat, wird man dagegen abwarten müssen. Falls nicht, wird man bei dem größten Chip wohl realistisch bestenfalls mit grob um die 20 TFlops FP32 rechnen dürfen.
 
Zuletzt bearbeitet:
Da klaffen aber auch nur preisliche Lücken. Wenn die 3090 wirklich nur 20% schneller als die 3080 sein sollte, dann ist sie, vorsichtig ausgedrückt, kein Preiswunder.
Man würde dann eher von Wucher sprechen...
Die 3090 ist alles andere als ein Preiswunder für alle die Gaming als Priorität haben. Für Leute die damit arbeiten und normalerweise immer Quadros in ihren Rechnern hatten ist das ein absolutes Preiswunder, sofern sie nicht auf die spezielle Software der Quadros angewiesen sind. Ich freue mich jedenfalls auf die 24GB VRAM für all meine viel zu großen Maya Projekte :D
 
Articles by: Igor Wallossek | Tom's Hardware
er hat damals auch tomshardware deutschland gemacht
Und bitte: ich bin KEIN YouTuber. Die Videos mache ich nebenher, quasi die Zweitverwertung der Webseiten-Inhalte für die, die mehr nicht lesen wollen (oder können).

Was mich aber ärgert, ist die die falsche Übernahme von Inhalten, die mich am Ende noch in ein schlechtes Licht rücken.

Vielen Dank dafür, dass sich jemand wirklich damit auseinandersetzt bevor geschrien wird.
Das sind die Aussagen:
BigNavi:
– wurde konzipiert für 275 Watt Leistungsaufnahme
– Performance oberhalb der GeForce RTX 3070, sofern nVidias Performance-Prognose zur RTX3070 stimmt
– um auf das Level einer GeForce RTX 3080 zu kommen, würde man über 300 Watt benötigen
– noch ist unbekannt, für welchen Weg sich AMD in dieser Frage entscheidet
– AMDs Boardpartner haben noch keine BoM-Liste, ergo sind kaum RDNA2-Custommodelle vor Weihnachten zu erwarten...

Das ist endlich mal korrekt. das hätte ich mir auch in der News und im 3DC gewünscht, wo auch nur immer die Hälfte richtig wiedergegeben wird. :D
 
Und die "indirekt" bestätigte 16 GB Version war quasi schon der Genickbruch der 10 GB Variante, denn die würde ich mir nach dieser Info sicher nicht mehr holen.

In deiner Welt vielleicht, nur bis du nicht relevant für den gesamten Markt. Manch anderer wird vielleicht nicht mehr als 500 € ausgebenen wollen und will dennoch deutlich mehr Leistung und daher zur 8 GiB-Variante greifen, mit der man zweifelsfrei auch gut spielen können wird bis inkl. WQHD. Und wenn man sich ansieht, dass Death Stranding mit einer einfachen RTX 2060 + DLSS gar 4K schafft, darf man gar noch auf etwas mehr hoffen.

@Knochey: Selbstredend werden die Varianten mit mehr VRAM auch mehr kosten. ;-)

@weisserteufel: Dass Halbleiterprodukte am oberen Ende des technisch gerade Machbaren aber auch überproportional mehr kosten, ist dir in den letzten 10 Jahren schon mal irgendwann aufgefallen, oder?
 
Zuletzt bearbeitet:
Und bitte: ich bin KEIN YouTuber. Die Videos mache ich nebenher, quasi die Zweitverwertung der Webseiten-Inhalte für die, die mehr nicht lesen wollen (oder können).

Was mich aber ärgert, ist die die falsche Übernahme von Inhalten, die mich am Ende noch in ein schlechtes Licht rücken.



Das ist endlich mal korrekt. das hätte ich mir auch in der News und im 3DC gewünscht, wo auch nur immer die Hälfte richtig wiedergegeben wird. :D

Hallo Igor,

was sagst du zu den Theorien, dass die 275W Big Navi, von der du gehört hast, eventuell die Navi22 sein könnte und eben nicht Navi21?
Kannst du dazu überhaupt was sagen?

(Ja, ich bin mir bewusst, dass wir uns hier immer eine gehörige Portion Spekulatius mit dabei ist. ;-))
 
In deiner Welt vielleicht, nur bis du nicht relevant für den gesamten Markt. Manch anderer wird vielleicht nicht mehr als 500 € ausgebenen wollen und will dennoch deutlich mehr Leistung und daher zur 8 GiB-Variante greifen, mit der man zweifelsfrei auch gut spielen können wird bis inkl. WQHD. Und wenn man sich ansieht, dass Death Stranding mit einer einfachen RTX 2060 + DLSS gar 4K schafft, darf man gar noch auf etwas mehr hoffen.

Nun, meine Aussage mag etwas provokant gewesen sein, aber wenn mann seit der Präsentation diverse Hardwareforen beobachtet hat, war diese Behauptung sehr häufig anzutreffen.
 
Was ne blöde Theorie :-)

Aber hey, AMD hat ja damals auch ne Vega1 mit Sub-1080 Performance gezeigt und auch das musste schön geredet werden :P

Du hast doch überhaupt keinen Plan. Es gibt 0 Aussagen, aber bezeichnest eine Theorie als blöd.
Selbst die 275W und die etwas über 3070 Performance sind zum aktuellen Zeitpunkt Theorie.

Wir spinnen die ganze Zeit hier rum, aber das ist dann blöd? Warum, weil AMD einfach scheiße ist und Nvidia godlike? Nach Deady bist du nun der weitere auf meiner Ignoreliste... Tschüss!
 
Die 10GB der 3080 sehe ich allerdings auch kritisch, die Karte hat so viel Power und dann "nur" 10GB RAM.
Selbst bei meiner 1080 hab ich die 8GB schon voll bekommen und für jemanden wie mich, der Hardware für die kommenden Jahre kauft sind 10GB schon knapp (allerdings unter 4k).
 
Das ist doch lächerlich. Mr. Lederjacke hat gesagt es wird 2x 2080 Performance und dann ist das auch so!!11!1!
Das kennen wir ja noch:

geforce_fx_foen.jpg
 
Zurück