Geforce RTX 2070: So viel macht die Chipgüte aus

AW: Geforce RTX 2070: So viel macht die Chipgüte aus

Was ist richtig? Richtig dass du Unsinn verbeitest?
Nein, aber manchmal schmerzt die Wahrheit, vor allem, wenn man nur noch Rosa Grün sieht!

Ich würde mir, bevor die ersten Spiele mit Raytracing herauskommen, kein solches Urteil anmaßen.
Kann man schon, vor allem wenn man weiß, wie eine RTX 2080Ti performt, dann ergibt sich alles andere von ganz allein, es sei denn, man ist Nvidia Fanatiker und Marketing verblendet!

Der Preis liegt 100 Dollar unter dem Releasepreis der GTX 1080 bei deutlich größerem Chip.
Ja, wenn man sich mit einem minderwertigen Non A-Chip der Turing Serie zufrieden gibt, da wären mir aber auch selbst 5XX,00 Euro zu viel! Ansonsten kosten die entsprechenden RTX 2070 Customer Modelle zwischen 650 und 750,00 Euro, dann ist es gar nicht mehr so "günstig"!

Man muss auch nicht mutwillig Bullshit darüber erzählen.
Von Gold ist auch absolut nicht die Rede, aber wenn ich lese der TU106 sei "klein", dann leuten bei mir die Alarmglocken.
Bei gleichem Herstellungsprozess gibt es eben keine großartige Steigerung des Preisleistungsverhältnisses , weder bei Nvidia, noch bei AMD, arrangier dich doch einfach damit und somit übe Verzicht.
Schön, das zeigt zumindest, es besteht noch Heilungs-Chance! Man muss auch nicht mit allen Mitteln versuchen, irgendwie Nvidia`s Abzocker und Verarsche Masche schön zu reden, nur weil man Nvidia`s Marketinggewäsch verblendet ist. Allein das Nvidia bis Stand heute, ein Feature Namens RTX mit DLSS und Raytracing für solche Wucherpreise verkauft, die bisher nichts als reine Illusion sind, ist schon mehr als Unverschämt!
 
AW: Geforce RTX 2070: So viel macht die Chipgüte aus

Ich würde mir, bevor die ersten Spiele mit Raytracing herauskommen, kein solches Urteil anmaßen.
Naja, man kann schon ein paar Überlegungen machen:
Bei 1080p und einer RTX 2080 Ti benötigten die Raytracing-Effekte insgesamt 9,2 ms Rechenzeit pro Frame. Zum Vergleich: 30 Bilder pro Sekunde entsprechen 33,3 ms (9,2 ms Mehraufwand würden hier 28 Prozent Mehraufwand bei der Berechnung bedeuten), 60 Bilder pro Sekunde entsprechend 16,7 ms. Der zusätzliche Rechenaufwand teilt sich dabei auf: Die Schattenberechnung benötigt 2,3 ms, die Reflexionen 4,4 ms und die globale Beleuchtung sowie das Denoising benötigen zusätzliche 2,5 ms. Dabei wurde jeder Pixel mit zwei Strahlen beleuchtet.
http://www.pcgameshardware.de/Raytr...ews/Performance-Remedy-Entertainment-1267196/

Man kann hier sicher nicht von einem vollständig durch Raytracing gerendertem Bild sprechen, eher Hybrid-Rendering aus Raytracing und Rasterisierung.
Wenn man nun bedenkt, dass hier die Rede von der 2080 Ti ist, die 72 RT-Cores besitzt, die 2070 aber derer nur 36 hat (und die normel 2080 über 48 RT-Cores verfügt), dann finde ich
Das ist richtig, die RTX 2070 ist die größte Mogelpackung der RTX Turing Serie, denn diese ist höchstens RTX Ready [mit einem solch stark kastrierten GPU Chip was RTX betrifft!]
den Begriff "RTX Ready" schon sehr treffend und damit für Raytracing ebenso eine Mogelpackung wie "HD Ready" für 1080p
 
AW: Geforce RTX 2070: So viel macht die Chipgüte aus

Ich finde, der uninformierte Kunde wird damit nur unnötig hinters Licht geführt. Er schaut sich die Testberichte (vermutlich kamen hier die besten der besten Karten zum Einsatz) und kauft sich eine gleichlautende Karte in dem Glauben, sie hat die Geschwindigkeit X, ist aber langsamer.
der uninformierte Kunde will ne Karte Marke X, Modell Y und sich diese kaufen. Punkt.
 
AW: Geforce RTX 2070: So viel macht die Chipgüte aus

Als man den ASIC noch auslesen konnte, kannte ich Ergebnisse von 64%-96%,

Wurde das Hardwareseitig unterbunden? Auf meiner RX480 kann ich den ASIC Wert mit GPU-Z 2.10.0 immer noch Auslesen: 75,2%
Im Reiter Advanced steht oben General. Das ist ein eigener Reiter bei dem man auf ASIC Quality umstellen kann.


Falls das bei neueren Karten deaktiviert ist entschuldige ich mich eure Zeit verplempert zu haben.
 
AW: Geforce RTX 2070: So viel macht die Chipgüte aus

der uninformierte Kunde will ne Karte Marke X, Modell Y und sich diese kaufen. Punkt.
du bringst es voll auf den punkt.
ich finde es sollte auf der verpackung stehen das das powerlimit limitiert ist bzw die karte eine B wahl ist oder? irgendwie so ähnlich.
 
AW: Geforce RTX 2070: So viel macht die Chipgüte aus

Nein, aber manchmal schmerzt die Wahrheit, vor allem, wenn man nur noch Rosa Grün sieht!

Ich kann dir nicht folgen.

Kann man schon, vor allem wenn man weiß, wie eine RTX 2080Ti performt, dann ergibt sich alles andere von ganz allein, es sei denn, man ist Nvidia Fanatiker und Marketing verblendet!

Genau, jeder der sich die Endleistung der RT Cores in Spielen ( die bisher nicht existieren) nicht so fancy wie du herleitet, ist ein verblendeter Fanboy.

Ich würde dennoch die finalen Umsetzungen und deren Performance und Optionen abwarten.
Ja, wenn man sich mit einem minderwertigen Non A-Chip der Turing Serie zufrieden gibt,

Wieso sollte der Chip minderwertig sein, wenn er die Spec Vorgaben einhält?
Hast du ein Recht auf die besten Chips?
Er hat nur nicht ganz die Güte von einem A Chip, wobei das Limit eher die Kühler oder das Powerlimit auf den billigen Karten sind, als per se der Chip.
da wären mir aber auch selbst 5XX,00 Euro zu viel! Ansonsten kosten die entsprechenden RTX 2070 Customer Modelle zwischen 650 und 750,00 Euro, dann ist es gar nicht mehr so "günstig"!

Das ist nicht wahr, A Chips gibt es schon für 560'Euro, teilweise auch auf den billigsten Modellen.
Man muss auch nicht mit allen Mitteln versuchen, irgendwie Nvidia`s Abzocker und Verarsche Masche schön zu reden,

Wo zum Teufel soll ich das denn tun?
Weil ich dir bei grundfalschen Aussagen widerspreche?
Oder weil ich es ablehne derart ohne Substanz über was herzuziehen?

Allein das Nvidia bis Stand heute, ein Feature Namens RTX mit DLSS und Raytracing für solche Wucherpreise verkauft, die bisher nichts als reine Illusion sind, ist schon mehr als Unverschämt!

Erst die Hardware dann die Software, wie konnte AMD mit Direct X12 Kompatibilität werben, wenn es damals doch kaum Spiele gab.

Ne ernsthaft, wenn du das kritisch siehst, dann kaufe doch einfach nicht.
Ist doch keiner gezwungen für zukunftsträchtige Features heute schon zu bezahlen.

Bei AMD kriegst du übrigens auch nicht mehr für dein Geld, dort spricht aber niemand von Wucherpreisen, ein klarer Logikfehler.
 
AW: Geforce RTX 2070: So viel macht die Chipgüte aus

Die ASIC ist eh nicht aussagekräftig, schon gar nicht für Übertaktbarkeit.
Natürlich überhaupt nicht...... welch ein Blödsinn.
Vielleicht hast ja meine vorigen Posts nicht gelesen. Vielleicht ist ja lesen auch nicht so dein Ding.
Hoher ASIC viel Takt bei wenig Spannung.
Hoher ASIC viel warm bei hoher Spannung. (das hatte ich noch nicht vorhin)
Konkret mit GTX 780 Classified mit 89% ASIC.
1176MHz@1,05V > 1240MHz@1,15V > 1280MHz@ 1,187V > 1320MHz@1,21V > 1360MHz@1,26V alles unter Luft.
Jetzt bring mir bitte vergleichbare Ergebnisse (Erfahrungen) einer GTX 780 .... ASIC ist mir erst mal egal. Nur Luft gekühlt sollte sie auch gewesen sein.
Auch die 1360 MHz sind 30 min Crysis3 durch gelaufen, beim nächsten Level laden ist sie mal abgestürzt. Ich habe es ihr aber vergönnt und weiß auch nicht ob das Netzteil oder die Karte auf gegeben hat, dauerhaft zwischen 490 und 540W sind für ein 500W Netzteil nicht so prickelnd. Der Morpheus war auch am Ende mit ~90°C auf der GPU, Spannungswandler waren bei 96°C.

Und bevor was kommt, alle Taktraten über 1240MHz ließen sich nur (zumindest dauerhaft) mit LN2 Bios realisieren, dieses blieb sogar knapp unter 100% PT :what:
 
Zuletzt bearbeitet:
AW: Geforce RTX 2070: So viel macht die Chipgüte aus

Natürlich überhaupt nicht...... welch ein Blödsinn.
Vielleicht hast ja meine vorigen Posts nicht gelesen. Vielleicht ist ja lesen auch nicht so dein Ding

Seit wann ist die Asic aussagekräftig für die Übertaktbarkeit?
Das wäre zumindest mir komplett neu.
 
AW: Geforce RTX 2070: So viel macht die Chipgüte aus

Seit wann ist die Asic aussagekräftig für die Übertaktbarkeit?
Das wäre zumindest mir komplett neu.

Was glaubst du denn wie die Chips selektiert werden?
Die kommen auf ne Messstation und es wird ein ASIC-Wert bestimmt. Meinst du die löten die GPU erstmal testweise auf und spielen ne runde Witcher oder was=?
 
AW: Geforce RTX 2070: So viel macht die Chipgüte aus

Oh je das böse Nvidia lässt sich die besseren Chips besser bezahlen :schief:

Was ganz neues :D

Die die hier meckern sind bei der falschen Marke , und können oder wollen sich Nvidia nicht gar nicht leisten ;)

Amd bringt doch jetzt die " brandneue" Rx 590 raus , da müsst ihr doch keine stromsparende viel schnellere RTX 2070 kaufen :devil:
 
AW: Geforce RTX 2070: So viel macht die Chipgüte aus

du bringst es voll auf den punkt.
ich finde es sollte auf der verpackung stehen das das powerlimit limitiert ist bzw die karte eine B wahl ist oder? irgendwie so ähnlich.
das hab ich weder geschrieben, noch gemeint. wie kommst du darauf???

doch, Schaffe, der ASIC sagt schon was zu den OC-Möglichkeiten aus.
 
AW: Geforce RTX 2070: So viel macht die Chipgüte aus

Was ist richtig? Richtig dass du Unsinn verbeitest?



Ich würde mir, bevor die ersten Spiele mit Raytracing herauskommen, kein solches Urteil anmaßen.



Der Preis liegt 100 Dollar unter dem Releasepreis der GTX 1080 bei deutlich größerem Chip.



Man muss auch nicht mutwillig Bullshit darüber erzählen.
Von Gold ist auch absolut nicht die Rede, aber wenn ich lese der TU106 sei "klein", dann leuten bei mir die Alarmglocken.
Bei gleichem Herstellungsprozess gibt es eben keine großartige Steigerung des Preisleistungsverhältnisses , weder bei Nvidia, noch bei AMD, arrangier dich doch einfach damit und somit übe Verzicht.


Mann hört doch endlich mal auf die Chipgröße als Preis Rechtfertigung zu nehmen!
Eine 980ti hatte 601 mm² für 650 Euro warum kostet dann eine Pascal 1080 mit 314 mm² so gut wie das gleiche? Nach der Logik müsste es da hälfte sein und nicht die gleichen Kosten.
Dazu hatte eine 1080 gerade mal 2GB mehr also die Rechnung geht überhaupt nicht auf. Eine 980ti hat einen größern Chip wie eine RTX 2080 (545 mm²) warum kostet sie dann soviel mehr und hat immer noch 8GB wie Pascal.
Super Logisch der Preisanstieg mit Chipgröße, sehr kleine Chips kosten trotzdem mehr und kleinere Chips kosten auch mehr.
Das hat absolut nichts mit den Chipgrößen zu tun sondern weil Nvidia ein Monopol hat auf High-End GPUs!!!

Die Preise sind erst gestiegen als AMD nicht mehr mithalten konnte und das war schon bei Kepler so. Da verkaufte man den kleinen Chip dann für 500 Euro
und heute sehen wie das Endresultat eines Monopols.
Vergleicht doch einfach mal das was Nvidia früher verkauft hat mit Chipgröße und Preis und ihr werdet sehen das es egal ist wie groß ein Chip ist.

Mal eine kurze Liste von Chipgrößen, na ja eigentlich alle relevanten.


980ti ist 601 mm² Preis 649 USD
980 ist 398 mm² Preis 548 USD
970 ist 398 mm² Preis 329 USD (logisch 1080 doppelt so teuer für kleinern Chip)
960 ist 228 mm² Preis 199 USD

1080ti ist 471 mm² Preis 699 USD (kleiner Chip kostet wieder mal mehr)
1080 ist 314 mm² Preis 599 USD ( sehr kleiner Chip trotzdem sehr hoher release Preis)
1070 ist 314 mm² Preis 379 USD
1060 ist 200 mm² Preis 299 USD ( 50% teuer zur 960 plus kleiner Chip)

2080ti ist 754 mm² Preis 999 USD
2080 ist 545 mm² Preis 699 USD ( wie gesagt warum kostet sie mehr als eine 980ti)
2070 ist 445 mm² Preis 499 USD


Chipgröße bei RTX ist erstens nicht vergleichbar mit GTX aus einem ganz einfachen Grund. Ca. 40% der Chipfläche sind für Features die
es aktuell noch überhaupt nicht gibt. Zweitens sind es dann Features die eher eine Notlösung sind als ein wirklicher mehr Wert siehe DLSS.
Am PC ist Checkerboarding verpönt und nur weil Nvidia es Super sampling nennt ist auf einmal toll? Ein Feature das ohne weiteres auf alle anderen
GPUs ausgeweitet werden könnte siehe eben PS4/X1. Dann noch Nvidias vergleiche die nichts anderes sind als Fake vergleiche, wenn man natives 4K
mit Upscaling vergleicht ist es einfach verarschung. Weil keine 4K nativ erreicht werden sondern einmal bei FF15 1800p und bei Unreal 1700p Beschleunigung Fehlanzeige.
Den in der Nativen Auflösung bekommt die gleichen Werte und das ist das Killerfeature für das man 40% der Chipfläche braucht?
Das beste ist noch wie die Daten berechnet werden, von den Entwicklern oder Spielern dazu braucht man die Tensor cores. Sind aber wirklich nötig zum Abspielen der Daten
sieht nicht so aus, wahrscheinlich eher eine Zwangsbedingung.

RT Cores man tauscht also Grafikqualität gegen Grafikqualität logisch oder? Den ich würde behaupten das 1080p ein deutlicher Abstieg ist in Image Qualität und wie gut oder wie schlecht
Rt überhaupt auf den kleinern Karten läuft kann man sich schon vorstellen. Bf5 wird einen Downgrade bekommen was ansich schon die ganze RTX Promotion Witzlos macht.

Wir halten also fest wir sollen einen Gewaltigen aufpreis zahlen für Features, die nicht überall unterstütz werden, mehr eine Notlösung sind warum man überhaupt
diese Cores hat.

Die Elefant im Raum ist doch die Chipfläche hat doch überhaupt nicht den gleichen Wert, wie ein Chip mit der gleichen Fläche wo nur Shader wären. Die hätten überall einen deutlichen Leistungs
boost, von RT kann ich mir in sehr vielen Titeln überhaupt nichts kaufen. DLSS ist um Grunde Checkerboarding ganz toll darauf hat die PC Welt gewartet, man kann zwar fast überall schon Auflösungen skalieren,
aber das ist natürlich ein Must have.

Der wirkliche Grund für die Features ist Nvidia Ki Fokus der leider absolut nichts mit Gaming zu tun hat. Die Leistung ist nahezu stehen geblieben und die features sind auf keinem Fall Chipfläche wert.
Nvidia hat noch nie Chipfläche für Preise verwendet, sondern immer die Leistung und die der Konkurrenz. Gibt es keine Konkurrenz, dann kann man verlangen was man will. Man sieht es doch so gut
gerade im CPU Markt wie die Preise fallen bei beiden Unternehmen und auf einmal im Mainstream 8 Kerne für unter 300 Euro zu haben sind. 6 Kerne für 200 Euro ist auch viel mehr Chipfläche, wie 4 Kerne für 250 Euro.
Also man bekommt mehr Chip für weniger Geld, bei Nvidia wer genau das gleiche möglich wären sie unter druck. Sind sie aber nicht und werden sie auch nicht sein die nächsten Jahre und deswegen verlangen sie das was sie
wollen. Irgend wer muss ja die Ki Entwicklung finanzieren und das sind wir Gamer, RTX war der schlechterst start der GPU Geschichte, noch nie haben sie neue GPUs schlechter verkauft als die letze Gen.
 
AW: Geforce RTX 2070: So viel macht die Chipgüte aus

Ich weiß ja, das die RTX 2070 eine "Dolle" Grafikkarte ist, für ihren Preis mit einem kleinen TU 106 [der eigentlich auf eine GTX/RTX 2060 gehört!] und dem doch sehr stark kastrierten RTX Features in der Hardware [knapp die Hälfte einer RTX 2080Ti], was ich aber noch nicht wusste, dass man eine solche Grafikkarte dann auch noch in einer Doller" Währung bezahlt! :D

PCGH:

Customs der GTX 1080 gabs ab ca. März 2017 bis Ende 2017 für 500-550€ (derzeit steigen die Preise ja wieder gewaltig...warum wohl?)
Also konnte man bereits vor 1,5 Jahren die gleiche Leistung zu einem niedrigeren Preis bekommen... ;)
Und die RT/Tensor-Core werden in dieser Leistungsklasse keine große Rolle spielen, da zu schwach.

mfg
 
AW: Geforce RTX 2070: So viel macht die Chipgüte aus

„schwächeren Komponenten“ bedeutet für mich eine verkürzte Lebensdauer, sprich die Grafikkarte geht wohl kurz nach der Garantie kaputt.

Kommt auf das Modell an.

Gerade die Windforce hat das PCB von der 2080 und 6+8 Pin.
Wäre ideal für h2o, falls man denn einen A-Chip erwischt. Müsste man halt nur über die 175W TDP per Flash kommen.
Mehre Customs siehe Recherche von ZOTAC (beim Geizhals im Anhang)
Geforce RTX 2080 entfesselt: Spar-Karte wird per BIOS-Mod zum Top-Sprinter

Komischerweise sind bei den meisten Verkäufern die Chipangaben verschwunden !!!
GIGABYTE GeForce RTX 2070 WINDFORCE 8G 8GB GDDR6 Grafikkarte bei notebooksbilliger.de
(NB ist eine Ausnahme-->siehe Anhang)
Evtl. hilft aber auch die Device-ID weiter (analog 2080), so Daß man beim Bestellen schon Klarheit hat.

Hat eigentlich Jemand schon den Eiswolf240 drauf?
Alphacool Eiswolf 240 GPX Pro fuer die Nvidia Geforce RTX 2080 | Eiswolf | Alphacool | Interne Sets | Sets und Systeme | Wasserkuehlung | Aquatuning Germany
 

Anhänge

  • Chip Typ.png
    Chip Typ.png
    6 KB · Aufrufe: 11
  • RTX 2070 A-GP und Non A-GPU Chip.jpg
    RTX 2070 A-GP und Non A-GPU Chip.jpg
    591,8 KB · Aufrufe: 20
Zuletzt bearbeitet:
AW: Geforce RTX 2070: So viel macht die Chipgüte aus

Das Problem ist, das man als Otto-Normal-Nutzer, der mit Afterburner Alltags-OC betreibt, nicht sagen kann, ob auf einer Grafikkarte ein A- oder ein Nicht-A-Chip verbaut ist. Das ist eine neue Vorgehensweise. Und damit ist das kein Clickbait.
Ich halte die Kennzeichnung sogar für transparenter als vorher.

Die Frage ist jetzt, ob das dem Konsumenten am Ende was nützt, wenn die guten Chips nur an High End Partner gehen. Das hängt im Ergebnis aber auch davon ab, wie gut der Fertigungsprozess läuft. Wenn er das tut, sind irgendwann fast alle GPUs auch A-GPUs.

Ohne zu wissen, ob sich an Nvidias Verteilungspolitik etwas geändert hat, kann man keine Aussage treffen, ob die Kennzeichnung besser oder schlechter als die alte Praxis ist.

Eher geplante Obsoleszenz.
Dass die GPUs verschiedene Spannungen (= ggf. mehr Abwärme) benötigen ist nicht neu. Da gab es schon immer Abweichungen innerhalb einer Serie. Genau das kennzeichnet ja der ASIC Wert.

Hier werden aber keine % angegeben, sondern MHz.
In fps zu rechnen ist so oder so Blödsinn und offenbart mangelndes Grundschul-Verständnis relativer Zusammenhänge, da ein fps Wert für sich genommen garnichts aussagt, wohingegen ein Prozenzwert für sich genommen eine klare Aussage trifft.

Bei gamersnexus (das Design der Website ist in ergonomischer Hinsicht btw. noch grausamer als PCGH - beide Designs sind überladen und unübersichtlich) trennen die beiden Testkarten out of the box 150 MHz (1800 vs. 1950), was 8% sind. Vor dem Hintergrund kommt man auch darauf, dass der Bezug 100 MHz = 5 fps sinnlos ist.
 
Zuletzt bearbeitet:
AW: Geforce RTX 2070: So viel macht die Chipgüte aus

5fps?
Wenn die so unbedeutend sind:

Viel mehr hat man von
1080 zu 1080ti
Oder
1080ti zu 2080ti
effektiv auch nicht.... In den hohen preisregionen unterscheiden sich die High end Karten nicht durch viel mehr als 5fps zu "billigen" Karten...

Oder nach "Unten" geschaut:
ne "billige" Nitro für 475,-€. edit: inzwischen auf Grund der hohen Nachfrage auf 488,-€.
 
Zuletzt bearbeitet:
Zurück