Geforce RTX 4000 mit 3 GHz und Radeon RX 7000 zu lahm? [Gerücht]

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Geforce RTX 4000 mit 3 GHz und Radeon RX 7000 zu lahm? [Gerücht]

Aktuelle Gerüchte beschäftigen sich mit den Taktraten der Geforce RTX 4000 und damit, wie AMD mit Navi 31 möglicherweise kein Land gegen AD102 sieht.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Geforce RTX 4000 mit 3 GHz und Radeon RX 7000 zu lahm? [Gerücht]
 
Im Artikel ist von 600W für AD102 die rede, aber hieß es nicht letztens erst, dass es für die 4090 wohl doch nur 450W werden sollen?
 
Am besten liest man direkt die Quelle. Da steht als Neuigkeit einfach nur, Zitat
"I must say we can expect a much higher frequency"

Da steht nichts von TDPs, nichts von AMD Vergleichen und insbesondere nichts von 3 GHz. Kopite sagt faktisch nur dass Ada viel höher als Ampere taktet. Thats it.
All diese weiteren Dinge sind dazugedichtete Gerüchte von Leuten die aus einem Einzeiler einen ganzen Artikel schreiben müssen und weiteren Leuten die das wieder abtippen und umformulieren müssen um nen eigenen Artikel zu haben.
 
Am besten liest man direkt die Quelle. Da steht als Neuigkeit einfach nur, Zitat
"I must say we can expect a much higher frequency"

Da steht nichts von TDPs, nichts von AMD Vergleichen und insbesondere nichts von 3 GHz. Kopite sagt faktisch nur dass Ada viel höher als Ampere taktet. Thats it.
All diese weiteren Dinge sind dazugedichtete Gerüchte von Leuten die aus einem Einzeiler einen ganzen Artikel schreiben müssen und weiteren Leuten die das wieder abtippen und umformulieren müssen um nen eigenen Artikel zu haben.
Ich wusste beim Headliner schon, von wem der Artikel kommt. Ich finde es schade, dass man da seitens PCGH nicht von selbst mal ein wenig darauf achtet, was hier sowohl inhaltlich, als auch auf journalistischer/redaktioneller Ebene veröffentlicht wird.

Man will doch sicherlich nach außen hin halbwegs objektiv und nüchtern erscheinen. Wäre zumindest mein Anspruch, aber vielleicht ist das hier auch gar nicht der Fall.
 
bei der aktuellen Energiekrise interessieren mich die Topmodelle noch weniger als sonst
lieber so ein Performance pro Watt Biest wie die RX6800 und ich bin glücklich
über 200 watt möchte ich bei der Graka definitiv nicht mehr gehen
Man muss auch dazu sagen, dass diese riesigen TDP Budgets auch ziemlich unnütz sind außer um die ersten paar Minuten in Benchmarks gut auszusehen :ugly:
Habe vor ein paar Tagen eine MSI RTX 3090 Ti Suprim X mit vorkonfigurierten 480W TDP bei einem Kumpel eingebaut. Die TDP dann händisch auf 300W limitiert und festgestellt: Ja, die Max FPS sind etwas niedriger, dafür sind die Average FPS höher, weil die Karte weniger häufig bzw. später und weniger lang oder gar nicht in das Temperatur Limit rennt. In Kombination mit einer Takterhöhung für GPU und VRAM sind die Max FPS wieder beim alten oder sogar höher und die Avg FPS deutlich höher gegenüber den Werkseinstellungen wodurch die Gesamtperformance am Ende höher war, aber der Verbrauch effektiv um 35-40% reduziert wurde ;-)
 
Abwarten und Tee trinken. Das die Shader-Anzahl von AMD und nV nicht vergleichbar ist sieht man doch aktuell ganz gut an der 6900XT und RTX3090. Wenn die Shader nicht ausgelastet werden können kosten sie nur Strom, bringen aber nix (außer Wärme). Warten wir doch alle mal die Tests in renommierten Magazinen ab und bilden uns dann eine Meinung.

Bei der Chipgröße halte ich 3GHz auch für sehr gewagt.
 
Ich wusste beim Headliner schon, von wem der Artikel kommt. Ich finde es schade, dass man da seitens PCGH nicht von selbst mal ein wenig darauf achtet, was hier sowohl inhaltlich, als auch auf journalistischer/redaktioneller Ebene veröffentlicht wird.

Man will doch sicherlich nach außen hin halbwegs objektiv und nüchtern erscheinen. Wäre zumindest mein Anspruch, aber vielleicht ist das hier auch gar nicht der Fall.
Darum geht's hier außer bei den offiziellen Tests schon lange nicht mehr.

Es wurden Leute eingestellt (der Herr Ludewig z.B.), die offenbar zu 90% nur für Clickbait eingestellt wurden. Der Herr Link hat häufig so extreme Fehler (Rechtschreibung, Grammatik, Inhalt), dass man schon beinahe davon ausgehen muss, dass diese absichtlich untergebracht werden - immerhin provoziert man so auch gesichert Kommentare. (Möchte Andreas Link damit auch gar nicht zu Nahe treten, falls eine LRS vorliegt, aber dann sollten die Inhalte wenigstens vor Veröffentlichung nochmal schnell geprüft werden)

Grundsätzlich werden hier aber viele viele anderswo erschienene Artikel einfach nur fix übersetzt und veröffentlicht. Ohne jegliche Recherche, ob der jeweilige Artikel eigentlich akkurate Informationen enthält oder schlichtweg Bullshit ist.

Es zählt nur noch, was laut Google und anderer Analyse-Sites Klicks verspricht und das war's.

Leider müssen wir damit leben, wenn wir wollen, dass PCGH auch noch länger existiert. Notwendige Übel halt. :ka:
 
Es sollen Grafikkarten-Chips aus Silizium hergestellt werden. (Gerücht)
Es soll ein Kühler drauf sitzen, der die Wärme abführen soll. (Gerücht)
Auch sollen Zusatzanschlüsse an der Platine gesichtet worden sein zur Stromzufuhr. (Gerücht)

Genau das steht im Beitrag, nur irgendwie anders formuliert.

Die Bild-Zeitung ist ein Amtsblatt gegen die "News" hier.
Was da heute drin stand, läßt sich sogar belegen.
 
3ghz nvidia?
Das halte ich für ausgeschlossen da schon hopper zeigt das bei nur 1,5ghz und einen deutlich größeren chip 450w gesaugt wird.
Das mehr Takt als bei ampere geben wird ist klar nur die frage wie viel mehr ich gehe immer noch von 2,1-2,4ghz aus.
 
Ich würde Es vernünftig finden, wenn die 7900ref nur mit 2x 8pin kommt. @390W ?
3x 8pin dann nur für OCing Customs.

Das Greymon55 auf Twitter schätzt das 600W schneller als 400W ist, ... so leicht möchte ich mein Geld
auch mal verdienen.
Das Kopite 7 meint das mit 5nm@Nvidia4 dann 2,8GHz+ drin sind, ist auch net erstaunlich, ... vgl. mit 6500.

Ich könnte auch spekulieren = AMD geb mal bei der 6500 den Takt frei, ... mal schauen ob dann >3Gig drin sind.
 

Anhänge

  • 6500ocing.JPG
    6500ocing.JPG
    119,4 KB · Aufrufe: 96
Zuletzt bearbeitet:
Dafür das der Artikel wenig liefert, ist er verdammt.
Für nV-Fans ist der Artikel wie eine Beruhigungspille. Wiegt er die Fans doch in Sicherheit, dass Team grün laut Gerüchten eindeutig oder noch eindeutiger vorne liegt. Man muss also nicht beunruhigt sein, dass plötztlich AMD die Vorherrschaft haben wird und das ist doch eine Menge.
 
3ghz nvidia?
Das halte ich für ausgeschlossen da schon hopper zeigt das bei nur 1,5ghz und einen deutlich größeren chip 450w gesaugt wird.
Das mehr Takt als bei ampere geben wird ist klar nur die frage wie viel mehr ich gehe immer noch von 2,1-2,4ghz aus.
Das ist keineswegs ausgeschlossen aber eben "geraten".

TSMC7 GPUs laufens chon unter Luft stabil bei 2,7 GHz rum (siehe AMD) und Ada kommt in TSMC5. 3 GHz sind da technisch ziemlich sicher gar kein Problem (bedenke, NVidia macht gefühlt zwei Node-Sprünge von Samsung-10 auf TSMC-5!) - das Ding ist nur, dass solche Taktraten natürlich nicht bei den großen Monsterchips unter Last anliegen können da die Leistungsaufnahme explodiert.

Am Ende kommts eher wie bei den CPUs schon lange gängig: Bei kleinen Lasten auf kleinen Chipteilen können sehr hohe Spitzentaktraten erreicht werden, wenn der ganze Chip belastet wird und/oder hohe Last anliegt muss der Takt aber gehörig runter um im Powerlimit zu bleiben. Und da bei GPUs tendentiell hohe Auslastungen auf breiten Chipflächen anliegen werden wir Spitzentaktraten von 3+ GHz wohl kaum bzw. nur sehr selten sehen.
 
Angeblich versucht Nvidia ja derzeit händeringend das für die 4000er Serie gebuchte (und wohl anteilig vorausbezahlte) Kontingent bei TSMC zu reduzieren, da a) die Nachfrage durch Mining Crash und Inflation massiv eingebrochen ist und b) das Angebot durch bereits auf Lager liegende GPUs bei Händlern sowie in den Markt schwemmende 2nd hand GPUs viel zu hoch ist um eine dicke Marge zu halten.

TSMC wird das so natürlich nicht akzeptieren, bietet wohl aber eine Verschiebung um 1-2 Quartale an.

Daher denke ich nicht, dass wir noch 2022 eine neue Generation von Nvidia sehen werden und AMD wird es sich wahrscheinlich auch genau überlegen.

Vielleicht kommt ja 2022 nicht einmal eine offizielle Ankündigung, denn das wäre der letzte Sargnagel für die (Preise der) pre-Gen.

Edit: Quelle https://videocardz.com/newz/nvidia-...-gen-rtx-40-gpus-5nm-wafers-amid-lower-demand
 
Zuletzt bearbeitet:
Ich wusste beim Headliner schon, von wem der Artikel kommt. Ich finde es schade, dass man da seitens PCGH nicht von selbst mal ein wenig darauf achtet, was hier sowohl inhaltlich, als auch auf journalistischer/redaktioneller Ebene veröffentlicht wird.

Man will doch sicherlich nach außen hin halbwegs objektiv und nüchtern erscheinen. Wäre zumindest mein Anspruch, aber vielleicht ist das hier auch gar nicht der Fall.
Mich beschleicht das Gefühl, dass das seit der Übernahme noch weiter nach hinten gerückt ist. Wie bei pcgames schon vorher geschehen, scheint man auch hier fast auf Biegen und Brechen möglichst massenkompatibel zu sein. Dagegen wirkt das Heft größtenteils schon fast als krasser Gegensatz.
Dass immer eine Geschicht um einen (Halb-)Satz bei Twitter erstellt werden muss, erschließt sich mir auch nicht.
 
PCGH - Personal Computer, Gerüchte und Hardware. Wenn man von jedem Twitterfurz eine News generiert, anstatt mal Fakten zu schaffen, braucht man sich um den Traffic hier auch keine Gedanken mehr machen.

Das Sommerloch mit der vernichtenden Anziehungskraft einer Singularität.

meanwhile bei den Kollegen:

Screenshot 2022-07-01 150253.png



What? Da gibts auch mal Hardwarenews und Beiträge auf der Main. Was haben die geraucht?
 

Anhänge

  • Screenshot 2022-07-01 150253.png
    Screenshot 2022-07-01 150253.png
    59 KB · Aufrufe: 90
Das ist keineswegs ausgeschlossen aber eben "geraten".

TSMC7 GPUs laufens chon unter Luft stabil bei 2,7 GHz rum (siehe AMD) und Ada kommt in TSMC5. 3 GHz sind da technisch ziemlich sicher gar kein Problem (bedenke, NVidia macht gefühlt zwei Node-Sprünge von Samsung-10 auf TSMC-5!) - das Ding ist nur, dass solche Taktraten natürlich nicht bei den großen Monsterchips unter Last anliegen können da die Leistungsaufnahme explodiert.

Am Ende kommts eher wie bei den CPUs schon lange gängig: Bei kleinen Lasten auf kleinen Chipteilen können sehr hohe Spitzentaktraten erreicht werden, wenn der ganze Chip belastet wird und/oder hohe Last anliegt muss der Takt aber gehörig runter um im Powerlimit zu bleiben. Und da bei GPUs tendentiell hohe Auslastungen auf breiten Chipflächen anliegen werden wir Spitzentaktraten von 3+ GHz wohl kaum bzw. nur sehr selten sehen.
Kommt dabei aber auch immer auf die Ausrichtung (bzw. das Design) der Architektur an. Wenn Nvidia da nun versucht möglichst viel dicht an dicht aneinander zu quetschen, dann wird's auch nichts mit einem besonders hohen Takt.

Allerdings denke ich auch, dass da mittlerweile (auch bezüglich des Marketings) anders gedacht wird. Größere Zahlen wirken halt immer besser - leider.
 
Zurück