• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Radeon RX 6800 XT: Geleakte Benchmarks sehen sie vor Geforce RTX 3080 - aber nicht bei Raytracing

DKK007

PCGH-Community-Veteran(in)
Soso, deswegen waren die "Igors und seine Freunde" -Leaks so schlecht, jo 2 Watt daneben, schlimm.
Igor hat dieses Jahr so oft recht gehabt, da verzeih ich ihm auch mal eine Ente, wobei ich dies allerdings
nicht im Fall der 6800XT denke. Vll ähnlich 2-5 Watt vertippt oder so, wenn überhaubt.
Zumal die TDP der Karten doch hauptsächlich vom Bios bestimmt wird und das kann AMD auch in letzter Minute noch anpassen. Und die Partner machen bei ihren großen Karten eh ihr eigenes Ding.
 

Hannesjooo

Software-Overclocker(in)
Mit 10 GB und 8 GB geht den Nvidiakarten schneller der Speicher aus als bei AMD.
Das sind wieder Karten wie die 970 für den Moment gut, aber auf Dauer...
Klar kann man sich freuen und klar habe ich auch die Preisentwicklung der letzten Jahre (jahrzehnte triffts besser, wir haben seit 1982 Computer im Haus...) verfolgt. Bloß geärgert hab ich mich nicht darüber, warum auch? Die Firmen wären ja dämlich nicht möglichst hohe Preise zu nehmen! So ist halt Marktwirtschaft. Deswegen begrüße ich es durchaus, dass die aktuellen Produkte (schon seit einigen Jahren, wenn man ehrlich ist) absolut auf Augenhöhe sind.

Diese Verklärung von AMD ist es, die ich lachhaft finde. Das ist ein Unternehmen wie alle anderen auch und würde in vergleichbarer Lage auch hohe Preise nehmen (haben sie in der Vergangenheit ja auch schon).
Mit den hohen Preisen ist die eine Seite, 7 Jahre gefühlt den selben Prozessor zu bauen nur weil man keine
Konkurrenz hatte die andere. Intel merkt so langsam wie dumm des war.
Wozu gab es das 1151v2 und das 1200 Board? Im nach hinein haben es ja Modder geschafft auf dem z170
9900K und co hinbekommen... Leider zu Spät und mein Board hatte ich dann schon verkauft und bin nach
3 mal Intel sauer zu AMD gewechselt und auf dem alten B350 Board das ich meiner besseren hälfte gab,
passt noch der 3600X, meine kleine Schwester bekommt dann den 1600 der ohne murren 3,8 Ghz schafft.
Verschaukeln können Intel sich mit ihren Comedylake alleine.
Ohne AMD würden wir immernoch 300 Tacken für nen 4/8 bezahlen der mittlerweile für 81 € von Intel
verkauft wird und an dem ist nichts anders als an einem 6700, und kaum was anders als an den anderen
4/8 CPUs von Intel was darauf schließen läst das die 220 Tacken gewinn gemacht hatten. (jaja Vereinfacht)
Und du wunderst dich das man da AMD mehr mag?
 

facehugger

Trockeneisprofi (m/w)
Dann hoffen wir mal, dass das auch so zum Release ist und keine Nebelkerze sein wird.
Einerseits ist das erfreulich, weil sich endlich wieder was tut bei den Grafikkarten und Nvidia die Preise runterschrauben muss, andererseits hab ich 1700€ in einer 3090 verbrannt :(
Wer hat, der kann. Andere verbrennen (deutlich) mehr Kohle in andere "Spielzeuge" oder investieren sie... in das Leben;)

Gruß
 

Zappaesk

Volt-Modder(in)
Mit den hohen Preisen ist die eine Seite, 7 Jahre gefühlt den selben Prozessor zu bauen nur weil man keine
Konkurrenz hatte die andere. Intel merkt so langsam wie dumm des war.

Dennoch gab es genug Leute, die die Dinger weiter gekauft haben. So dumm war das also nicht von Intel. Dumm und den Aktionären nicht zu erklären wäre eher gewesen ohne Anlass (sprich Wettbewerb) gigantische Summen in eine Weiterentwicklung der zu dem Zeitpunkt mit weitem Abstand leistungsfähigsten Arch zu stecken.

Intels Hauptproblem ist aktuell nicht, dass sie keine neue Arch haben, sondern fertigungstechnisch hinten dran sind (so wie es AMD jahrelang eben auch war). Dafür halten sich die CPUs noch verdammt gut!

D.h. für die allermeisten PCs ist es schlicht egal was man verbaut, die extremen Leistungen von AMD bei Mehrkernanwendungen ist nur für die allerwenigsten Anwender von Bedeutung. Auch wenn man es kaum glauben mag, die allermeisten setzen ihren PC weder privat, als auch geschäftlich nicht dazu ein abendfüllende Spielfilme zu rendern, FEM Analysen durchzuführen oder auch nur die neuesten AAA Spiele zu spielen. Deswegen werden auch größtenteils eher die kleinen CPUs der jeweiligen hersteller verwendet bei denen der Unterschied eher sehr klein ist.

Und nur eben diese "Randgruppe", die ihrem PC wirklich die Sporen geben profitieren von der neuen Entwicklung + zusätzlichen Kernen. Alle anderen sind mit einem stinknormalen 4-Kerner (der auch schon etwas älter sein darf) gut bedient. Ganz nebenbei ist im Teillastbereich in dem diese PCs überwiegend gefahren werden die Verbrauchsunterschiede zu vernachlässigen.

Deswegen, ja klar würde Intel heute anders da stehen wenn sie zumindest ihre 10nm / 7nm Fertigung im Zeitplan ins Ziel gebracht hätten. Aber technische Probleme nicht gelöst zu bekommen ist jetzt nicht direkt dumm, eher überambitioniert in diesem Fall.
 

Hannesjooo

Software-Overclocker(in)
Dennoch gab es genug Leute, die die Dinger weiter gekauft haben. So dumm war das also nicht von Intel. Dumm und den Aktionären nicht zu erklären wäre eher gewesen ohne Anlass (sprich Wettbewerb) gigantische Summen in eine Weiterentwicklung der zu dem Zeitpunkt mit weitem Abstand leistungsfähigsten Arch zu stecken.
Ich denke das, wenn Intel etwas vom vorhandenen Gelt früher investiert hätte, wäre es deutlich weniger was das Intel gekostet hätte, als der momentane Wertverlust der Intel Aktie. Ganz davon abgesehen das sie massiv Aktien zurückgekauft hatten und mit dem Move doppelt Gelt verbraten hatten. Von 12 bis Mittag denken ist DUMM.
Intels Hauptproblem ist aktuell nicht, dass sie keine neue Arch haben, sondern fertigungstechnisch hinten dran sind (so wie es AMD jahrelang eben auch war). Dafür halten sich die CPUs noch verdammt gut!
Bestreite ich ja nicht, nur die Methode die Intel anwendet war schon sehr meh..
D.h. für die allermeisten PCs ist es schlicht egal was man verbaut, die extremen Leistungen von AMD bei Mehrkernanwendungen ist nur für die allerwenigsten Anwender von Bedeutung.
Heutige Internetseiten überfordern schon manchmal 2/4 CPUs, hat man noch andere Sachen auf wird es
schon Haarig mit 4/4 CPUs
Auch wenn man es kaum glauben mag, die allermeisten setzen ihren PC weder privat, als auch geschäftlich nicht dazu ein abendfüllende Spielfilme zu rendern, FEM Analysen durchzuführen oder auch nur die neuesten AAA Spiele zu spielen.
Mein Vater hat oft mehr als 13 Tasks im Firefox auf, Solitär, Office und Itunes am rennen. Der hatte sich so
über den i5 aufgeregt da er trotz Beratung ein 4/4 Laptop mit Stromspar CPU und 4 GB Ram aufgeschwatz
bekam. Ich hab ihm zu nem 4600H Laptop geraten mit 16GB Ram, der Feiert das Teil richtig. Viele
meiner Familienmitglieder wollen den jetzt auch haben.
Deswegen werden auch größtenteils eher die kleinen CPUs der jeweiligen hersteller verwendet bei denen der Unterschied eher sehr klein ist.
Das war ein mal...
Und nur eben diese "Randgruppe", die ihrem PC wirklich die Sporen geben profitieren von der neuen Entwicklung + zusätzlichen Kernen. Alle anderen sind mit einem stinknormalen 4-Kerner (der auch schon etwas älter sein darf) gut bedient. Ganz nebenbei ist im Teillastbereich in dem diese PCs überwiegend gefahren werden die Verbrauchsunterschiede zu vernachlässigen.
Das sehe ich anders, hab noch mehrere Beispiele wo es klar zu deutlichen Einschränkungen kam mit 4 Kernen
Deswegen, ja klar würde Intel heute anders da stehen wenn sie zumindest ihre 10nm / 7nm Fertigung im Zeitplan ins Ziel gebracht hätten. Aber technische Probleme nicht gelöst zu bekommen ist jetzt nicht direkt dumm, eher überambitioniert in diesem Fall.
Wie es gekommen wäre lässt sich leider schwer erahnen.
Ohne AMD wären wir stagniert, davon bin ich überzeugt.
 

Zappaesk

Volt-Modder(in)
Ich denke das, wenn Intel etwas vom vorhandenen Gelt früher investiert hätte, wäre es deutlich weniger was das Intel gekostet hätte, als der momentane Wertverlust der Intel Aktie. Ganz davon abgesehen das sie massiv Aktien zurückgekauft hatten und mit dem Move doppelt Gelt verbraten hatten. Von 12 bis Mittag denken ist DUMM.

Ne, ich glaub du verstehst nicht woran es hängt. Die Arch ist nach wie vor sehr gut. Ok, die Kernmonster von AMD lassen sich damit nicht so einfach kontern. Das Problem ist die hinterherhinkende Fertigung. 14nm++++ ist halt nicht mehr das Optimum. Die Weiterentwicklung ist mMn auch rechtzeitig begonnen worden, jedoch offenbar etwas überambitioniert. D.h. das Problem ist nicht, dass man es nicht rechtzeitig angegangen ist, sondern eher, das man sich da komplett vertan hat.
Core in einer aktuellen Fertigungstechnologie wäre sehr wohl absolut konkurrenzfähig, davon bin ich überzeugt.
Das ist also eher nicht dumm gewesen, weil man zu lange nichts getan hat, sondern eher unvorsichtig bei der Planung gewesen ist.

Heutige Internetseiten überfordern schon manchmal 2/4 CPUs, hat man noch andere Sachen auf wird es
schon Haarig mit 4/4 CPUs

Was für Seiten sind denn das? Schick mir mal nen Link, ich schmeiß die Kiste extra für dich an!

Also ich habe hier u.a. einen Ivy i5, der ist als Surfmaschine noch nie auch nur annährend in die Knie gegangen (24GB). Egal wo ich war und wieviel Tabs auf waren oder auch was nebenher noch lief.

Mein Vater hat oft mehr als 13 Tasks im Firefox auf, Solitär, Office und Itunes am rennen. Der hatte sich so
über den i5 aufgeregt da er trotz Beratung ein 4/4 Laptop mit Stromspar CPU und 4 GB Ram aufgeschwatz
bekam. Ich hab ihm zu nem 4600H Laptop geraten mit 16GB Ram, der Feiert das Teil richtig. Viele
meiner Familienmitglieder wollen den jetzt auch haben.

FInde den Fehler... Mit 4GB Ram kannst du als Prozzi reinhängen was du magst. Klar geht der in die Knie - Aber nicht wegen ein bissle Firefox und Gedöns...

Das war ein mal...

Das sehe ich anders, hab noch mehrere Beispiele wo es klar zu deutlichen Einschränkungen kam mit 4 Kernen

Ne, das ist immer noch so. Eine reine Officekiste - und das sind nunmal die allermeisten Rechner - kann auch heute mit 4 Kernen locker flockig den Ansprüchen genügen (kleine APU rein und gut). Für ein bissle Office, SAP und Internet brauchts keine 8 Kerne. Bis vor einiger zeit hatten wir noch einen CAD (!) Laptop, der nur einen 2-kernigen i7 drin hatte (frag mich nicht wie alt), dazu ne Quadro Karte und 32GB Ram. CAD ging nicht mehr (zumindest keine größeren Baugruppen), aber alles andere (sprich Office) war absolut uneingeschränkt damit zu bewältigen.

Nur weil es jetzt CPUs mit 6-32 Kernen gibt, heißt das ja nicht, das die ein normaler Mensch auch braucht. Dessen Anforderungen sind in den letzten Jahren kaum gestiegen. Sogar mit nem 2 Kerner und ausreichend Ram kann man noch im Office ungestört arbeiten - viele Laptops in den Firmen sind noch mit solchen Dingern bestückt - und da wird gearbeitet mit.

Wie es gekommen wäre lässt sich leider schwer erahnen.
Ohne AMD wären wir stagniert, davon bin ich überzeugt.

Keine Frage, durch die Konkurrenz ist die Entwicklung beschleunigt worden. Aber das ist weder Intel anzulasten, noch AMD. Die einen mussten nicht mehr tun, die anderen konnten nicht. So ist das halt.

Jedenfalls ist es albern, wenn man hier immer liest, das Intel uns verarscht hat. Niemand war gezwungen jeden noch so lächerlich kleinen "Fortschritt" in Form von neuen CPU Gens inklusive neuer Sockel zu kaufen. Jeder hat gewusst, dass es sich nur um eine minimalste Weiterentwicklung handelte und wer dann trotzdem kauft, der darf sich nicht aufregen.
 

Duvar

Kokü-Junkie (m/w)
Einfach mal play drücken und die Stelle sich anhören.
Es geht ums Duell vs RTX 3080 und da gewinnt bei den 10 gezeigten Spielen AMD in 5 Games in 4k 2 Games unentschieden und 3 Games kann Nvidia für sich entscheiden. Geht man aber runter auf 1440p, gewinnt AMD nicht mehr in 5 Games sondern in 8 Games und verliert nur in 2 Games und das ist nur die 6800XT, also nicht die Speerspitze.

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
 

Hannesjooo

Software-Overclocker(in)
@Zappaesk
Mein altes MB Pro mit 2/4 i5 und 8 GB Ram meckert schon bei PCGH und YT.
Mein Vater hat oft Medizinische Seiten mit Datenbanken auf und Börse und Nachrichten, etc.
Mal davon ganz abgesehen das alles was man macht Subjektiv bleibt, seit ich den i3 gegen den R5 1600
getauscht hatte, momentan 3600X, will ich den nicht mehr missen. (außer in SC2, da war der i3 Killer)
Für den einen reicht ein alter i3/5 locker mich Nervt das schon wenn ich nicht an meinen Desktop surfen kann.
 
Zuletzt bearbeitet:

kaifo

Komplett-PC-Aufrüster(in)
Langsam gehts bei mir nur noch drum. Was ist schneller verfügbar? 3080 FE oder das Gegenstück von AMD xD

2 Monate nach Vorstellung und ich kann immer noch nicht die Karte einfach so kaufen. Unglaublich.
 

Hannesjooo

Software-Overclocker(in)
Glaub nicht das da 16 GB wirklich helfen würden bei dem alten i5...
Ich denke das alles etwas Harmonischer läuft auf meinem 6/12 und der nie
überfordert ist, wenn ich nicht zocke ist der Ram verbrauch zwischen 3 und 5 GB.
Ich nutze allerdings schon eine SSD seit fast 10 Jahren im Desktop und mag es wirklich
wirklich Smooth. Ich hab momentan ne Viper verbaut die kommt allerdings bald in den
Desktop von meiner besseren Hälfte, dann wirds ne 980 Pro...
BTT
Danke Duvar, Danke Fliegendes Spagetti Monster, Danke Wotan, Danke Dodojesus.
Ich habe so sehr gebetet das dies eintrifft.
jetzt muss ich nur noch die Finanziellen Mittel bei meiner Staatskasse bewilligt bekommen.
 

tom_111

Komplett-PC-Aufrüster(in)
Nur weil es jetzt CPUs mit 6-32 Kernen gibt, heißt das ja nicht, das die ein normaler Mensch auch braucht. Dessen Anforderungen sind in den letzten Jahren kaum gestiegen. Sogar mit nem 2 Kerner und ausreichend Ram kann man noch im Office ungestört arbeiten - viele Laptops in den Firmen sind noch mit solchen Dingern bestückt - und da wird gearbeitet mit.

Ähm, das hier ist aber eine Gaming-Website, keine Office-Website.
Dann lass noch irgendwelche Renderer laufen, vielleicht noch BOINC oder FAH und noch ein paar Virtual-Machines und dann kommen einem mehr Kerne und mehr RAM sehr gelegen.
 

openSUSE

Software-Overclocker(in)
Etwas ernüchternd lesen sich dann die Ergebnisse beim Port Royal-Test mit Raytracing-Implementierung, wo zur besseren Vergleichbarkeit ebenfalls ein 4K-Wert zitiert wurde. Hier führt die Ampere-Karte plötzlich mit 122 Prozent, während die Radeon RX 6800 XT eine Geforce RTX 2080 Ti, die bei 96,1 Prozent steht, gerade so auf Distanz hält.
imho wird es für Port Royal keinen DXR 1.1 Patch geben, RDNA2 sollte aber gerade von DXR 1.1 deutlich mehr profitieren. Insofern sind die momentanen Raytracing Werte nur ein Hint aber sicher nicht von dauer.
 

jadiger

Software-Overclocker(in)
Ja gut das 3D Markt soviel aussagt wie Cinebench zu Gaming.
Schaut man sich 3D Mark an waren immer AMD GPUS deutlich weiter vorne als ihre
Gaming Leistung.
Außerdem ist der 3D Mark echt alt und gar nicht optimiert auf Ampere. Deren Shader Leistung kommt
erst wirklich zu tragen wenn Fließkomma ins Spiel kommt. Siehe Doom eben, sobald man auf Ampere wirklich
optimiert legen die Karten deutlich zu.

Das zeigt eher das RDNA 2 einen Aufbau hat der sich nicht groß geändert hat.
Bei Ampere ist mehr Last ein riesen Unterschied zu weniger Last und genau das ist wichtig.
Ampere wird umso stärker bei hoher Last unter 4K brauchst Ampere gar nicht kommen.
Daran sieht man auch schon das die Architektur auf RT Last ausgelegt wurde und 4K für eine 3080
der Standard sein soll.

Das 3D Mark eigentlich Alt ist muss man nicht mehr erwähnen und eigentlich wäre es Zeit für einen neuen 3D Mark.
Oder man kann diesen Synthetischen Müll einfach gleich mal zu grabe tragen. Den es bringt einem nichts eine tolle Zahl zu haben,
wenn es in Games dann nicht so ist.
Gerade da die Last immer mehr wird, wird Ampere mit der Zeit immer mehr Unterschied machen zu der 2000er Generation.
Man wird nicht Jahre lang nur Schatten, Beleuchtung und Reflexionen von RT haben. Da wird noch wesentlich mehr kommen
und es wird Standard werden. Wenn AMD dann nicht auf dem gleichen Level ist, heißt es ganz einfach auf AMD musst Settings ausschalten,
ob das toll ist wenn man 700 Euro für GPUS zahlt sollte eigentlich klar sein. Später wird man sowieso die RT Effekt gar nicht mehr ohne DLSS schaffen.
 

Zappaesk

Volt-Modder(in)
Ähm, das hier ist aber eine Gaming-Website, keine Office-Website.
Dann lass noch irgendwelche Renderer laufen, vielleicht noch BOINC oder FAH und noch ein paar Virtual-Machines und dann kommen einem mehr Kerne und mehr RAM sehr gelegen.

Klar ist das ne Gamingseite, nur darum geht's ja gar nicht. Und klar, ich weiß schon wie man Kerne auslastet.
 

JZedtler

Komplett-PC-Aufrüster(in)
Schaut man sich 3D Mark an waren immer AMD GPUS deutlich weiter vorne als ihre
Gaming Leistung
Ist das so? Wenn ich auf guru3d vergleiche sehe ich eher eine recht ähnliche Leistung in 3D Mark gegenüber der Spieleleistung.
In Time Spy etwa mittig zwischen 2070 und 2070s, leistungsmäßig also genau wie in den Spieletests. In Firestrike nur minimal schneller als die 2070s. Von einem großen Unterschied oder "deutlich weiter vorne als ihre
Gaming Leistung" ist da nichts zu sehen.
 

sandworm

Freizeitschrauber(in)
Das zeigt eher das RDNA 2 einen Aufbau hat der sich nicht groß geändert hat.
Bei Ampere ist mehr Last ein riesen Unterschied zu weniger Last und genau das ist wichtig.
Ampere wird umso stärker bei hoher Last unter 4K brauchst Ampere gar nicht kommen.
Daran sieht man auch schon das die Architektur auf RT Last ausgelegt wurde und 4K für eine 3080
der Standard sein soll.
Ach ja und zuvor war die Day 1 Performance die Pascal, Turing im Unterschied zu Vega abrufen konnte der goldene Gral und jetzt wo sich die Vorzeichen geändert haben, ist es auf einmal die nachträgliche Optimierung.
Ja bei 4K performt sie tendenziell besser als in niedrigeren Auflösungen nur gut das die 3080 so üppig mit gleich 10GB ausgestattet wurde.
Aber selbst da scheint sie in 5 von 10 Spielen den kürzeren, 2 x untentschieden und 3 wins zu ziehen. (siehe Duvars video)
Bei 1080p / 1440p ist sie aufgrund ihres Auslastungsproblems momentan und auch in Zukunft nicht zu gebrauchen obwohl sie anhand ihrer 10GB prädestiniert wäre für niedrigere Auflösungen. (Unterliegt bei dieser Auflösung auch in 8 von 10 Spielen der 6800XT)

Aber die Hoffnung stirbt ja bekanntlich zuletzt, aber wenn es dich beruhigt NVIDIA wird sicherlich noch den einten oder anderen Rubel rollen lassen, um noch das einte oder andere Vorzeigespiel präsentieren zu können, das von der up to 2x floating point performance gebrauch macht.

Ist doch wirklich komisch wenn NVIDIAs GPUs ab morgen schwefelhaltige Fürze absondern würden, würde der erste
sicher nicht lange auf sich warten lassen um hier im Forum kund zu tun wie faszinierend diese doch riechen würden und das man doch ohne keine richtige gaming experience mehr erfahren könne.
 
Zuletzt bearbeitet:

Hannesjooo

Software-Overclocker(in)
@sandworm
Mal ganz davon abgesehen das das AMDs große stärke ist :D.
Siehe den Abstand von der RX570 zur GTX1060 oder den der RX590 zur 1070/1660/S/TI.
DX 11 wurde, meines erachten nach, viel zu lange durch Nvidias Politik am leben gelassen.
Teils weil sie DX11 und DX12_FL11.X sehr dominiert hatten, allerdings auch weil sie bei DX 12
ziemlich mies bei der Preisleistung ausschauen.
In DX 12_FL12.X konnte nur eine 2080S oder TI einen wirklichen Mehrwert bieten, zu
lächerlichen Preisen allerdings. AMD hatte mit der 5700 eine Preiswerte 1440P Karte.
Ich finde es sehr lustig das man davon ausgegangen ist das Nvidia auf einmal besser wird in DX12.
Alle Zeichen waren hier klar das AMD stärker Performen würde.
Aber hey, wenn Nvidia Treibermäßig was nettes hinlegt ist das doch auch ok, kommt nicht oft vor
aber gönnen würde ich das allen.
 

defender2409

PC-Selbstbauer(in)
Ampere wird erst ab 4K richtig performant weil es eine Arch ist die für AI Berechnungen entwickelt wurde ,so wie Vega damals bei AMD ,RDNA2 ist aber ne reine Gaming Arch und performt so besser in niedrigeren Auflösungen wird wohl die Beste Wahl für alle 1440p/144 HZ Zocker .
Nvidia hat mit Turing schon besser in Vulkan und DX12 ausgesehen aber Async Compute ist immer noch nicht deren Stärke.
Mal sehen was NV mit dem GA103 bringt wenn der von TSMC kommt uind dann wohl auch mit mehr Speicher. Das hiesse aber das die auf GA 102 basierenden 3090/3080 schon Auslaufmodelle sind .
 

Gurdi

Kokü-Junkie (m/w)
Mit AI hat das erstmal nichts zu tun, die Shader werden einfach nicht richtig ausgelastet bei den Karten. Zwischen angeblich 100% Auslastung und wirklichen 100% liegen dann auch mal geschmeidige 60Watt Unterschied.
 

Duvar

Kokü-Junkie (m/w)
Saftige Taktraten

Recommented content - Twitter An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
 
Zuletzt bearbeitet:

sandworm

Freizeitschrauber(in)
Avg. um die 2.3GHz sind natürlich brachial und weit mehr als ich in meinen kühnsten Träumen für einen solch großen Chip erwartet hätte.
Ich kann mich noch gut erinnern als ich anhand der P/W der XBOX Series X darauf spekuliert hatte das um die 2GHz
für Big NAVI bei ca. 300W eigentlich möglich sein sollten und ich darauf folgend von einigen am liebsten in eine Zwangsjacke gesteckt worden wäre.

Von wegen Big Navi soll nur 1.5GHz takten können weil er sonst einen auf Fermi machen soll.

So wie es aussieht macht nun aber NVIDIA einen auf Intel und lässt seinen Paperfermithermi 2.0 :devil: von der Leine um da halbwegs mithalten zu können.
 
Zuletzt bearbeitet:

Duvar

Kokü-Junkie (m/w)
Keep da Hype going!

Recommented content - Twitter An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
 

sandworm

Freizeitschrauber(in)
:devil:
Keep da Hype going!

Recommented content - Twitter An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Ob da OC auch dauerhaft ≥ 2.5GHz drin liegen werden?
 

Duvar

Kokü-Junkie (m/w)
:devil:


Ob da OC auch dauerhaft ≥ 2.5GHz drin liegen werden?
Warum nicht? Je nach Glück beim Lotto (Sillicon) vllt auch mehr, außerdem sagte Jensen Huang letztens:

safe.png


Hätte aber auch nix gegen ein saftiges undervolting Profil mit 2300MHz :devil:
 

Edelhamster

Software-Overclocker(in)
Mal sehen was NV mit dem GA103 bringt wenn der von TSMC kommt uind dann wohl auch mit mehr Speicher. Das hiesse aber das die auf GA 102 basierenden 3090/3080 schon Auslaufmodelle sind .
Das ist so krank - ich hab am Releasetag bestellt, hab die Karte bis heute nicht, und seit zwei Wochen wird nur noch über Neuauflage, mehr Speicher, bessere Fertigung bei TSMC gesprochen..
Also bei Turing fand ich ja schon Banane wie schnell die Super kamen, aber das ist doch jetzt echt extrem :ugly:
 

Incredible Alk

Moderator
Teammitglied
Bei Ampere ist mehr Last ein riesen Unterschied zu weniger Last und genau das ist wichtig.
Ampere wird umso stärker bei hoher Last unter 4K brauchst Ampere gar nicht kommen.
Daran sieht man auch schon das die Architektur auf RT Last ausgelegt wurde und 4K für eine 3080
der Standard sein soll.

Ja bei 4K performt sie tendenziell besser als in niedrigeren Auflösungen

Es ist viel simpler als das.
Ampere wird deswegen in höheren Auflösungen tendentiell (normiert auf die Auflösung natürlich) schneller, weil die gedoppelten FP32-Einheiten umso besser ausgelastet werden können, je mehr Pixel [mit gleichen Vorgaben] berechnet werden müssen.
Da ist nichts irgendwie besonders optimiert auf Auflösungen oder ähnliches, das ist ein selbstverständlicher Effekt wenn man die FP32-Rohleistung massiv erhöht.

Ob man das jetzt von der einen Seite betrachtet ("Ampere ist in 4K sehr stark weil gedoppelte FP32er Einheiten da sind, NVidia ist ganz toll vorgegangen") oder ob mans andersrum sieht ("Ampere kackt in niedrigeren Auflösungen ziemlich ab weil NV in 2 Jahren keine bessere Idee hatte als die FP32er zu doppeln und die da nicht vernünftig ausgelastet werden können") kann sich jeder selber aussuchen. :-D
 

defender2409

PC-Selbstbauer(in)
Nvidia hat sich halt auf ihren Lohrbeeren ausgeruht . wenn nächsten Monat dann ca Gleichstand in 4K herrscht AMD in niedriegen Auflösungen besser ist hat Nvidia nur noch RT und da kommen erst die Spiele die für die neuen Konsolen entwickelt wurden auf Microsofts Direct RT zurückgreifen und nicht auf Nvidias Baukasten setzen und noch die Treiberverbesserungen kommen . Turing war am Anfang nur halb so schnell in RT .
 

Duvar

Kokü-Junkie (m/w)
Hab bei AMD GPUs immer ein klein wenig Skepsis, die ich nicht ablegen kann, die haben einfach oft den Bock abgeschossen, aber dieses mal scheint wirklich was ordentliches bei rum zu kommen.
Ich sehe schon Huangs Gesicht auseinandergleiten, nachdem AMD die Ampere Karten alt aussehen lässt^^


222.png


Ja ich weiß etwas creepy, aber der wird halt anerkennen müssen, dass wir einen neuen Don haben in der Stadt und die nennt sich:
Dr. Lisa Montana!

Lisa montana.png



Und wenn die mal losballert mit Zen3 + RDNA 2, dann tut es mir schon fast Leid für Intel und Nvidia^^

lis.png
 

sandworm

Freizeitschrauber(in)
Wenn die kursierenden Leaks in etwa so eintreffen, dann könnte eigentlich höchstens noch eine Piratenflotte in Indonesien einem erfolgreichen Produktlaunch im Wege stehen.

Das einzige was mich doch noch etwas stört, ist der etwas höher als zu erwartende Stromverbrauch,
da ich mir aus Prinzip eigentlich nur Karten um die 200W zulege. Allerdings wenn die Karten wirklich so
extrem Rocken werden wie es den Anschein macht, mach ich vielleicht auch mal eine Ausnahme und gehe bis 240W.

Daher hoffe ich das Igor bei seiner Schätzung doch etwas über das Ziel hinausgeschossen ist.

NVIDIA selbst gibt bei der RTX 8000 die auch schon ein ziemlicher Brummer ist z.B. nur eine Differenz von 30 Watt
zwischen der Total board power von 295 W und der total graphics power mit 260 W an.

Daher könnte ich mir trotzdem vorstellen das die Total Board power am Ende für die Navi 21 Ableger deutlich tiefer ausfallen könnten:
NAVI 21 XL, 220 W TGP laut Igor 290 W TBP
NAVI 21 XT, 255 W TGP ---------> 320W
NAVI 21 XT custom, 290 W TGP-> 355W

Wenn es nach NVIDIAs RTX 8000 geht +35W

NAVI 21 XL, 220 W TGP --------->255 W TBP
NAVI 21 XT, 255 W TGP ---------> 290W
NAVI 21 XT custom, 290 W TGP-> 325W

RTX 8000.png


Aber es existiert bei diesem Thema auch ziemlich viel Verwirrung.
Selbst NVIDIA als sie die Folie mit den 225W TGP / 180W TDP dert 5700XT mit ihren eigenen Karten verglichen
gaben allem Anschein nach nicht alles richtig wieder:
Das hätte besser 225W TBP / 180W TGP lauten sollen die TDP müsste allerdings unbestätigt wohl eher bei ca. 150 W +/- liegen und bei den eigenen Karten haben sie anscheinend den SI nicht in die TDP miteinbezogen um im Vergleich besser wegzukommen. Ich sags ja ein Durcheinander.
tdp nvidia 5700xt.png

Informativ:
Asrock
Radeon RX 5700 XT Challenger
Die “Game Clock” ist die zu erwartende GPU-Taktrate, eingestellt auf die typische TGP (Total Graphics Power), während typische Gaming-Applikationen laufen. Die tatsächlichen Ergebnisse der individuellen “Game Clock” können variieren.

Ach ja sollten nicht auch noch zwei weitere Navi 21 Ableger kommen?
rogain.png
 
Zuletzt bearbeitet:

Duvar

Kokü-Junkie (m/w)
Wake the f... up my dear AMD Boy, we have a company called nvidia to burn!


samu.png


Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

555.png
 

Hannesjooo

Software-Overclocker(in)
@sandworm
Da hab ich ein ganz gutes Bauchgefühl.
Damit hätte auch AMD einen Oberkracher im Mobilen Bereich den die Firmen nur sehr
schwer ignorieren könnten. Little Big Navi am Sweetspot für Notebooks könnte wirklich
was reißen.
 

AlterSchwde-3366

Kabelverknoter(in)
Naja...AMD müsste ja nicht unbedingt die 3090 schlagen. Es wäre ja schon von Vorteil, wenn die neuen Karten der 6000 Serie in guten Stückzahlen vorhanden ist.^^ Bei Nvidia gibts bei den Ampere Karten nur leere Lager. Zumindest für die Kunden. Bei den Hardwaretestern scheint es ja keinen Mangel zu geben.
 
Oben Unten