Geforce RTX 2070: Angeblich mit TU106- statt TU104-GPU

Und..., wo ist das Problem wenn die Leistung stimmt?
Von dir kommen immer nur dumme Kommentare.

Sorry aber ist das dein Ernst ? Frag dich doch alleine warum mit dieser Aussage heutige GPUs, gerechnet von der ersten Voodoo, keine Millionen an €/$ kosten???

Die haben heute auch Millionen % an Mehrleistung, wärst du also auch bereit mehrere Millionen Prozent an Kosten zu tragen? Sorry aber deiner ist eher der dumme Kommentar...
 
Der TU106 mag ja diese EINE Generation groß und teuer sein, das Problem dabei ist, der Nachfolger GA106 (Ampere?) wird in 7nm wieder deutlich kleiner (<250 mm²) sein. Die Büchse der Pandora bleibt aber geöffnet, sprich die folgenden xx70-Chips (RTX 3070 usw.) werden weiterhin auf wieder kleineren 106er-Chips basieren und weiterhin für 500,- $/€ aufwärts verkauft.

Turing ist nur der Türeintreter, Rektaldehner oder das Einfallstor für ein dauerhaft höheres Preisniveau in der Holzklasse, selbst wenn die Chips/Dies der nachfolgenden Generationen wieder ein gesundes (schlankes) Maß erreichen, die Preise werden dann im Gegenzug nicht wieder korrigiert bzw. zurückgeschraubt.
 
Naja wenn der GP 106 die GTX 1060 ist... und der TU 106 nun die RTX 2070!
Macht Sinn verstecke Preiserhöhung neben der offensichtlichen für eine leichter herzustellende GPU.

Fairerweise muss man sagen, dass der TU106 ja vergleichsweise sehr groß ist für eine xx6-GPU. Das liegt aber eher daran, dass Turing höchstwahrscheinlich für 7nm konzipiert war und nicht für deren 12. Dann sind wir nämlich auch wieder auf "normalen" DIE-Größen für Einsteiger xx6, Oberklasse xx4 und High-End xx2.

Mir scheint auch mit der Zeit immer mehr in den Sinn zu kommen dass Turing eigentlich ein 7nm Produkt hätte werden sollen... bei den Die Größen, wo der x06 Chip fast gleich Groß ist wie der x02 Chip der vorherigen Generation.

Vielleicht ist der 12nm Prozess nichts anderes wie ein 16nm Prozess der verdammt gute Yields hinbekommt sodass man diese Größen (zusammen mit der Tatsache dass die Consumer Karten bisher alle Salvage sind) problemlos verkaufen kann zusammen mit dem neuen RTX Feature für die Größeren Karten.

Ich spekulier mal: die 3XXX Serie wird nur ein Die-Shrink von Turing werden (zusammen mit natürlich leichten Prozessbedingten Anpassungen und möglichen Verbesserung aus der Serienerfahrung die von Turing kommt die man noch vor den 7nm Tape-Out reinquetschen kann).

2020 wird spannend werden. Da gibts dann auch Rote und eventuell sogar Blaue Konkurrenz.
 
Bester Zeitpunkt für Blaue Konkurrenz mit einem starken Produkt hält mich gar nichts mehr im Team Grün.
Und Rot backt mir immer noch zu kleine Brötchen.
 
Bester Zeitpunkt für Blaue Konkurrenz mit einem starken Produkt hält mich gar nichts mehr im Team Grün.
Und Rot backt mir immer noch zu kleine Brötchen.

Ich denke was Perf/Watt betrifft könnte Intel wirklich eine sehr starke Konkurrenz werden wenn Sie ihre eigenen Fabs (die weltweit zu den besten gehören wenn man das 10nm Debakel mal ausblendet) für die neuen GPU's verwenden.

Was absolute Leistung betrifft würde ich jedoch keine allzugroßen Erwartungen heraufbeschwören im Vergleich zu Nvidia, da man höchstwahrscheinlich zuerst den größten Markt anvisieren wird, und der ist nunmal Low bis Mittelklasse. Das würde auch zu dem Teaser Video passen, dass eine Karte Zeigt die über keine Allzugroßen Kühlkapazitäten aufweist wie in dem Artikel beschrieben und gezeigt:
Arctic Sound: Intel zeigt Grafikkarte fuer 2020 - Golem.de
 
Bei der 2070 kann man sich die Raytracing Kerne doch auch gleich ganz sparen, wenn der Spaß schon auf der 2080 Ti nur mäßig läuft. Ist verschwendeter Platz und verschwendete Ressourcen. Aber gut, irgendwie muss man ja den Preis rechtfertigen können.
 
Sehr wahrscheinlich sind die dann auf allen 3 Chips TU102,104,106 gleich groß...

Nein sind sie nicht. GT102 hat 68 RT-Cores, der GT104 hat 46 und der GT106 hat 36.
Auch bei den Tensor-Cores: GT102 hat 544, der GT104 hat 368 und der GT106 hat 288.

Das sind wohlgemerkt aktive Einheiten bei Consumerkarten, physikalisch vorhanden (bzw. bei Quadros vollaktiviert) sinds stellenweise mehr.
 
Nein sind sie nicht. GT102 hat 68 RT-Cores, der GT104 hat 46 und der GT106 hat 36.
Auch bei den Tensor-Cores: GT102 hat 544, der GT104 hat 368 und der GT106 hat 288.

Das sind wohlgemerkt aktive Einheiten bei Consumerkarten, physikalisch vorhanden (bzw. bei Quadros vollaktiviert) sinds stellenweise mehr.

Ich meinte von der Fläche an sich, nicht von den Details innen drinn.
Spart Geld wenn man ein Design konstruiert und das dann nur die Technischen Innereien verschlankt oder gar nur deaktiviert.

Das fein Tuning was die Fläche angeht würde ich zumindest erst in der nächsten Gen erwarten.
 
Ich denke was Perf/Watt betrifft könnte Intel wirklich eine sehr starke Konkurrenz werden wenn Sie ihre eigenen Fabs (die weltweit zu den besten gehören wenn man das 10nm Debakel mal ausblendet) für die neuen GPU's verwenden.

Was absolute Leistung betrifft würde ich jedoch keine allzugroßen Erwartungen heraufbeschwören im Vergleich zu Nvidia, da man höchstwahrscheinlich zuerst den größten Markt anvisieren wird, und der ist nunmal Low bis Mittelklasse. Das würde auch zu dem Teaser Video passen, dass eine Karte Zeigt die über keine Allzugroßen Kühlkapazitäten aufweist wie in dem Artikel beschrieben und gezeigt:
Arctic Sound: Intel zeigt Grafikkarte fuer 2020 - Golem.de

Also das mit den 10nm ist wirklich mehr als ein Debakel. Aber ich denke gerade deswegen wird Intel "Stärker" aus der Sache rausgehen als vermutet. Weil Geld und Know how in Mengen vorhanden sind.
Was dem Intel GPU vorhaben bestimmt zugute kommen wird:daumen: Wir benötigen dringend Konkurenz^^AMD und Intel zusammen (als Team psss). Intels IPC und Technik mit AMDs Purer ungenutzter Kraft:ugly::ugly:
 
Zuletzt bearbeitet:
Also ich lese aus den Daten heraus: die 2070 ist demnach nicht nur eine Mittelklassekarte zum (einstigen) Enthusiastenpreis, nein, sie hat auch noch verdammt schlechte Effizienzwerte gegenüber einer 2080 Ti!
Übrigen wäre ein eigener Die für jede Grafikkartengröße doch verdammt teuer in der Entwicklung und Produktion?
Na gut, wer das alles zahlt zeigen die Preise...
 
Nein sind sie nicht. GT102 hat 68 RT-Cores, der GT104 hat 46 und der GT106 hat 36.
Auch bei den Tensor-Cores: GT102 hat 544, der GT104 hat 368 und der GT106 hat 288.

Das sind wohlgemerkt aktive Einheiten bei Consumerkarten, physikalisch vorhanden (bzw. bei Quadros vollaktiviert) sinds stellenweise mehr.

Wer soll eigentlich mit dem TU 106 Echtzeit-raytracing verwenden, wenn selbst die 2080ti kaum ausreichend Leistung für das Feature bietet?
 
Wer soll eigentlich mit dem TU 106 Echtzeit-raytracing verwenden, wenn selbst die 2080ti kaum ausreichend Leistung für das Feature bietet?

Es wird Regler geben die die Komplexität und menge der RT-Funktion in Spielen anpassen. Was aktuell gezeigt wurde sind ausschließlich Szenen die Raytracing bewerben sollen und deswegen massiven gebrauch davon machen was entsprechend langsam ist. Wenn die Leute dann angebissen haben wird das ganze wieder massiv zurückgefahren und die Performance reicht dann auch wieder.

Das ganze Raytracing-Gedöns ist die erste Hardware-Ausbaustufe. Da geht naturgemäß noch nicht viel und erst gar nicht performant. Hier gehts (noch) nicht darum, wahnsinnig tolle und schnelle Bilder zu zaubern, es geht darum die Leute an das Feature zu gewöhnen. Wie damals mit den ominösen "3D-Grafikkarten" die man zusätzlich zu seiner normalen (2D)-Karte einbauen konnte. Oder später mit der Neuheit, dass diese 3D-Karten sogar eine "Beleuchtung" dynamisch hinmalen konnten, nur eben sehr langsam. Irgendwann gabs dann Pixelshader für Effekte und man konnte zusätzliche Karten für Physikberechnungen kaufen. Alles anfangs saulangsam. Jetzt gibts eben saulangsames Raytracing als neuheit - in 10 Jahren ists 08/15-Standard. ;)
 
wenn das stimmt war der Leak das die 2070 wohl die beste GPU aus P/L sicht werden soll weil über Leistung 1080 Ti, wohl ebenfalls nicht stimmen. Ich persönlich hatte ja gehofft es stimmt und hätte mir eine schöne 2070 im Step Up von Evga gegönnt wenn sie wirklich über 1080 TI gelegen hätte. Aber mal schauen was die benchmarks sagen, auf die 2080 ist die Zusatzzahlung auch noch verkraftbar. Die Frage wird am Ende sein ob man eine 11 GB GTX 1080 TI wirklich gegen eine 8GB 2080 tauschen kann und das nicht eher nachteile als vorteile hat.
 
denn die GTX 2070 war schon untere Highend Klasse auch was den Preis angeht. Aber das mag jeder anders sehen.

Eigentlich nur was den Preis angeht. Technisch gesehen ists ein Teildeaktivierter xx4-Chip. Das, was früher beispielsweise eine GTX560 für iirc 130€ rum Startpreis war. ;)

Es ist natürlich fragwürdig das so einfach runterzubrechen aber wenn man chon lange dabei ist in der Szene fragt man sich schon wie NVidia die Leute dazu gebracht hat für nen teilkaputten mittleren Chip ~500€ hinzulegen, der noch vor einigen Jahren rund ein Viertel davon kostete.

Die RTX2060 soll jetzt der xx6er Chip (Einsteiger) sein. Früher war das ne GTX550 für zweistellige Beträge. Bin gespannt was die heute kostet. 400? :ugly:
 
Jetzt werden die 70er Karten mit dem Einsteigerchip gebaut (sofern es stimmt)....geile Sache :ugly:. Das ganze dann für 499€. Die 2060 dann mit TU 108 für 359€ :ugly::lol::daumen:.

Das Schlimmste daran ist, dass es keiner rafft. Es wird sich "schöngeredet" (Fanboys wie Skully verteidigen das sogar noch!) und es wird trotzdem gekauft. Die Leute WOLLEN scheinbar verarscht werden...


Grüße!
 
@Incredible Alk

Die Preise interessiert doch niemand, wer ernsthaft am Kauf der neuen 'RTX' Grafikkarten interessiert ist. Die Preise sind genau richtig so - wie sie Nvidia ansetzt. Es sind nun mal keine Grafikkarten für 08/15 Gamer! Chipgrösse, Technologie samt Entwicklungskosten und Anzahl der Transistoren, haben ihren gerechtfertigten Preis!

Die Preise sind so wie sie sind - Du als langjähriger Moderator sollst doch nicht bei jedem X-beliebigen Hardware Produkt täglich über all die ach soooo hohen Preise jammern .... :D Akzeptiere!

btw. eine GeForce GTX 560 hatte im May 2011 für 332 mm² @ 40nm => einen Release Price von $199 USD (mit nur 1'950 Millionen Transistors)
 

Anhänge

  • Turing GPU Chipfläche mm².png
    Turing GPU Chipfläche mm².png
    199,9 KB · Aufrufe: 36
Zuletzt bearbeitet:
wenn das stimmt war der Leak das die 2070 wohl die beste GPU aus P/L sicht werden soll weil über Leistung 1080 Ti, wohl ebenfalls nicht stimmen.

Ist sie schon zuvor nicht gewesen. Oder behauptest Du, dass diese abgespeckte Platine ohne SLI/NV-Link so viel Geld wert ist gegenüber der gleichteuren GTX 1080? Minderwertige, abgespeckte Verarsche. Selbst der Müllplatz bietet mehr Komfort.
 
Zuletzt bearbeitet:
@Incredible Alk

Die Preise interessiert doch niemand, wer ernsthaft am Kauf der neuen 'RTX' Grafikkarten interessiert ist. Die Preise sind genau richtig so - wie sie Nvidia ansetzt. Es sind nun mal keine Grafikkarten für 08/15 Gamer! Chipgrösse, Technologie samt Entwicklungskosten und Anzahl der Transistoren, haben ihren gerechtfertigten Preis!

Die Preise sind so wie sie sind - Du als langjähriger Moderator sollst doch nicht bei jedem X-beliebigen Hardware Produkt täglich über all die hohen Preise jammern .... :D Akzeptierte!

btw. eine GeForce GTX 560 hatte im May 2011 für 332 mm² @ 40nm => einen Release Price von $199 USD

Aus reiner Hardware sicht ist alles was der Endverbraucher käuft "Schrott" für die Industrie werden die Karten entwickelt. Das was bei uns an kommt ist lediglich der Rest.

Da von gerechtfertigtem Preis zu schreiben amüsiert mich hier echt. Sehr naiv.
 
btw. eine GeForce GTX 560 hatte im May 2011 für 332 mm² @ 40nm => einen Release Price von $199 USD

Ok, dann hat sich von GF104 (GTX560) zu TU104 (RTX 2080) der Preis nur etwa vervierfacht. Geht ja noch. :D
Klar ist der TU104 größer, das war aber ja ganz offensichtlich so nicht geplant, Turing sollte ja in 7nm kommen (ganz korrekt sollte Turing gar nicht kommen und Ampere in 7nm, Turing ist die dazwischengeschobene "Notlösung") - dann passen die Chipgrößen auch wieder zum Standard dass der 104er Chip im 300mm^2 Bereich liegt.

Aber du hast völlig Recht, die Preise sind in Ordnung. Denn die richten sich nunmal nicht nach der technik sondern nach dem Käuferverhalten. Da die Masse der Leute bereit ist derart viel Schotter hinzulegen ist das nunmal so. Ich finde die High-End Chips auch gar nicht mal soooo teuer - 1200€ für ein 750mm^2-Chipmonster geht in Ordnung (wenn sie DEN gebracht hätten ohne Tensor und RT-Cores und dafür mit 6000 Shadereinheiten hätte ich das Ding sofort eingesackt :-D). Nur die kleineren Chips halte ich persönlich für überteuert, das liegt aber eben am konkurrenzarmen Markt.
 
Zurück