RTX 30xx-Karten: Neue Schätzungen zu Chipfläche und Verbrauchswerten

In Spielen können auch weniger als TDP anliegen, dass hat Igor doch schon zig mal ausgemessen und veröffentlicht. Letztlich kann eine GPU ihr Powerbuget aber ausnutzen, wenn's drauf ankommt und dann zieht sie auch alles andere mit hoch.

Der Spieleverbrauch einer RTX Titan liegt auch mal bei 220w. Nv gibt da ein Mittel aus eigenen Messreihen an. Wenn wir davon ausgehen das die neue Titan bis 350w ausreizen darf, liegt sie sicher darüber (also über der alten oder ähnlich, dann stimmt 50% effizienter auf jeden Fall nicht und Nv rechnet das über den Leistungszuwachs ab). Wie schnell es wird, wird man sehen müssen.

Furmark zieht die alte RTX T 295w (treiberoptimiert), unter Anwendungen auch Peaks bis 305, thermisch dann abgeregelt wenn's zu warm wird (89°C), alles mit dem Stockcooler.

Kannst du alles mit Cybernetic LTD auslesen.

Edit sagt: ...gelogen oder geschummelt ist das nicht, weil sie es ja selbst schreiben, steht unterhalb der Werbung zu den Leistungsangaben. Wenn man von den PEG Steckern und Buchsen ausgeht, darf sie mit 2x8PIN 375w ziehen (die Specs sind eh völlig veraltet). Hat aber mit den realen Verbräuchen nichts zu tun, wenn man Potenziale verteilt/verteilen muss (habe ich gestern schon drauf hingewiesen, brauchst du einmal Masse mehr musst du auf 8 Pin gehen).
 
Zuletzt bearbeitet von einem Moderator:
Ich weiß den geben sie in der Werbung aber nicht an. Sie schreiben tatsächlich TDP, *mit dem Hinweis wie ich ihn reinkopiert habe. TBP ist AMD.

Ich beziehe mich auf die Zitate meiner Inhalte. Da steht TGP. Genauso wie im Thermal Design Guide der Amperes. Genauso muss man die Werte dann auch betrachten, sonst führt es zu Missverständnissen. :-)
 
Dann scheint der Kühler real zu sein und für Custom darfst du 100 bis 150 draufrechnen. 3060 und 3070 sind viel zu teuer. AMD wird's freuen.

Mach dich nicht Lächerlich,wenn die Teile die Leistung rüberbringen werden die weggehen wie geschnitten Brot. Und damit mein ich die Teuersten von der Reihe.Und am Ende werden sie sich alle verkaufen.Also ruhig bleiben über die Preise meckern und wer kann kauft Sie sich und wer nicht eben nicht
 
Ich beziehe mich auf die Zitate meiner Inhalte. Da steht TGP. Genauso wie im Thermal Design Guide der Amperes. Genauso muss man die Werte dann auch betrachten, sonst führt es zu Missverständnissen. :-)
Ich verstehe dich und kenne den Beitrag, nun mal nur so ist TGP = TBP, jedenfalls lt. Powertherms von Nv. Ergo die Leistung die ein Netzteil zur Verfügung stellen muss und zwar jeder Zeit. Den Rest geben sie als TDP an, weil thermisch beeinflusst. Das ist nicht was eine Platine letztendlich ziehen darf.

https://www.nvidia.com/content/dam/en-zz/Solutions/GeForce/technologies/frameview/Power_Primer.pdf
 
dude er liebt amd er glaubt noch immer dir treiberprobleme existieren nicht xD oder lügt sich selbst an, selbst wenn big navi 200 euro kostet und 3080 Leistung hat bringt das wenig wenn man nichtmal gescheit zocken kann^^
Nvidia hat auch Treiber Probleme.

Es gab sogar ein Nvidia Treiber der die Grafikkarte zerstört hat.

Jedes Lager hat mal Treiber Probleme.

Gesendet von meinem D6603 mit Tapatalk
 
Ziemlich viele Meinungen gelesen.
Ich freue mich schon auf die reellen Test von PCGH und wie da beide Lager die Karten neu mischen dieses Jahr.
Das interessiert mich wirklich :nicken:
 
Da warte ich lieber auf richtige Test,s und Daten der PCGH Redaktion :daumen:

Denke aber die RTX 30xx werden ähnlich Effizient ,wie die 20xx sein ;)


Igors Schnarchlabor hat auch schon in Erfahrung gebracht das GDDR 6 Speicher verwendet werden soll , was für eine Leistung :D

Das wusste ja natürlich noch keiner :schief:
 
Ja, manchmal ist die 2080 auch locker langsamer.

Zeig mal bitte, bitte mit Zucker obendrauf wo die locker 50% schneller ist, dann zeig ich Dir auch in welchem AAA sie langsamer ist.
 
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Ui toll eine Nvidia GK kann besser mit einer 11 Jahre alten Schnittstelle (DX 11) umgehen und ist schneller in UE 4 :daumen:.
In DX 11 macht auch die 2070 meist das Rennen, in DX 12 ist diese allerdings oft hinter der XT.
Unter DX 12 gehen der 2080S schnell die Argumente aus. JA sie ist immer noch im Schnitt
10% schneller aber 450 € gegen 800 €.... da erwarte ich doch etwas mehr.
555.PNG
Das ist geradezu ein Witz, P/L mäßig, was die Rog da mehr anbietet. 849 € gegen 469 €...
Das steht doch in keinem Verhältnis, die 529 für die KFA² 2070S ist mMn auch zu teuer aber man
bekommt eine Taugliche RTX Karte...
Dazu noch in der Nvidia Haus und Hof Unreal Engine.
Ich mag meine Nvidia Karten aber bei aller liebe die 2080S ist 300 € zu Teuer.

Ich hoffe und bitte in jedem Nachtgebet darum das die neuen GK von AMD und
Nvidia sich allerhöchstens im Promillebereich unterscheiden und wir wieder Alltagstaugliche
Preise bekommen.
 

Anhänge

  • 12322.PNG
    12322.PNG
    74,5 KB · Aufrufe: 21
Zuletzt bearbeitet:
Ich bin von einer 2080 auf einer 5700XT umgestiegen, der Unterschied ist minimal. Worauf ich hinaus will: Wer das letzte an FPS haben möchte, kauft sich ne Nvidia, wer nicht immer den längsten haben muss, kauft AMD.

Wenn es denn so einfach wäre...

Da sind noch einige Faktoren die für NV sprechen:

- RTX
- CUDA
- DLSS
- NVEnc
- Geforce Experience Features
 
dude er liebt amd er glaubt noch immer dir treiberprobleme existieren nicht xD oder lügt sich selbst an, selbst wenn big navi 200 euro kostet und 3080 Leistung hat bringt das wenig wenn man nichtmal gescheit zocken kann^^

So viel zum Thema: NV hat keine Treiberprobleme. Es gab schon welche bei meiner 980Ti und jetzt ebenso bei der 2070 Super. Ich vermute mal, dass die Begründung sein wird, dass das Problem VOR dem PC sitzt. Lässt sich immer leicht behaupten.
 

Anhänge

  • treiber.png
    treiber.png
    78,1 KB · Aufrufe: 31
Ach ja, gut das Nvidia so viele Kunden hat die nicht richtig Rechnen, Lesen und Schreiben können.
Kritische und distanzierte Meinungen richtig verstehen und empathisch einen anderen Blickwinkel zu erkennen
können immer weniger Menschen, traurige Entwicklung...

Man sollte, nein, man muss immer kritisch mit Produkten umgehen. Kritik ist aber keinesfalls immer Negativ.

Schade das du mich so missverstehen möchtest @blutegel1.
 
Zuletzt bearbeitet:
Nichts gegen die 5700XT aber warum macht man denn sowas :ugly: ?

Ich habe die Leistung schlichtweg nicht benötigt und noch gutes Geld für die Karte bekommen. Für 800€ gekauft und für 700€ verkauft nach einem Jahr.

Zudem hat mein 144hz Monitor Freesync, was einfach besser mit einer AMD funktioniert.

@others: Kommt mal runter und zettelt nicht wieder einen sinnlosen AMD/Nvidia Krieg an.

Und bleibt vor allem sachlich!
 
attachment.php
attachment.php

Moderative Anmerkung:


Ich habe hier leider den Besen schwingen müssen. Dem Durchfegen sind leider einige Beiträge zum Opfer gefallen, die ohne den entfernten SPAM keinen Sinn mehr ergeben. Individuelle Informationen werden noch per PN verteilt, damit keine Missverständnisse entstehen.;)

Herzliche Grüße
beren2707
 
Als wenn die 2070 ein brauchbares Upgrade wäre. Über die Qualität mancher Beiträge kann man echt nur noch mit dem Kopf schütteln.

Ich habe so eine Karte. 600 Euro hat sie damals gekostet und für das was sie leistet ist das viel zu teuer. Raytracing ist nur in minderwertige Qualität aktivier- bis abrufbar und ohne DLSS absolut unbrauchbar weil es dann zur Ruckelshow mutiert. Bei Mittel und Niedrig sieht man die Unterscheide Raytracing on/out überhaupt nicht. Wählst du einfach Hoch kann das Bild auch mal wie wild flackern und stuttern. DLSS aber auf der anderen Seite die sichtbare Qualität stark mindern. Artefakte und Bildmatsch inklusive Pixelsuppe. Was macht NVidia da besser?

Nach einem Jahr hat mich NVidia aus dem vermeintlichen Highend des GT106 ins Midrange Einsteiger katapultiert weil man die 2070s mit einem abgespeckten GT104 brachte. Natürlich nur weil AMD mit Navi so langsam war.:ugly:

Zum Thema wenn eine PSU so und so viel leisten muss damit die Grafikkarte auch problemlos funktioniert dann verbraucht sie weniger als diese Angabe ist? Kaum zu glauben. Das sie nicht immer unter Volllast läuf ist auch klar.

NVidia meinte noch vor knapp einem Jahr man braucht kein 7nm weil er zu ineffizient wäre man wartet auf ein Update das lohnt. Nun kommt man genau mit diesem Prozess der sich nicht lohnt und prügelt mit der Brechstange darauf ein um vor AMD zu bleiben und seine Versprechen zu erfüllen.

50 Prozent schneller und 50 Prozent effizienter sind keine 320 Watt TGB für die 3080. Das wären nicht mal 150 und man schaltet jetzt mehr als doppelt so viel. Was kann NVidia besser als AMD? Nichts.

Da braucht man auch keinen 500mm2 Chip mit einem 250mm2 vergleichen.
 
Als wenn die 2070 ein brauchbares Upgrade wäre.
Als Denkanstoß: es ginge auch eine komplett andere Richtung, nämlich der GA104 und die 3070 sind "sa*schnell". Dann schiebst du natürlich um Abstände zu bewahren, die 3080 einen höher, wo es dann weniger effizient zugeht. Da kann man GA102 und GA104 sicher genauso wenig vergleichen, wie 500 und 250mm².:D

Einfach mal abwarten, bisher ist alles Spekulatius und Igor weist immer darauf hin, mit seinen Keksen oben rechts im Bild. Über die 2070 hatten wir uns ja schon mal unterhalten. Aber "minderwertige Qualität" passt sicher nicht. Niedrig oder niedriger im Zusammenhang mit Qualität schon.:daumen:

Edit sagt: ...wurde hier ja auch schon geschrieben, dass es beide Lager aus der eigenen Ecke betrachten, dabei positiv und negativ sehen, aber niemand weiß was kommt.
 
Zuletzt bearbeitet von einem Moderator:
wieder schwachsinn siehe jüngstes ergebniss von PCGH 980ti vs fury . :lol::lol::lol: selbiges gilt für den finewine schwachsinn und die wundertreiber die nie kamen :lol::lol: vega wartet heute noch

Eben ,habe meine 980ti vor einem Jahr verschenkt und derjenige zockt Heute auf HD alles was auf dem Markt ist ohne Probleme
 
Zurück