Geforce RTX 2080 (Ti): 4K-Benchmarks aus Reviewer's Guide geleakt

Wo steht das mit den 100 Euro? Oder hast du dir das aus der Nase gezogen? Wenn du dir den letzten Absatz durchgelesen hast ist dir sicher aufgefallen das da steht, dass alle bisherigen Karten die A-Variante verbaut haben.

Ähm...Preise stehen im Internet? Die Differenz zwischen günstiger Custom und Topmodell sind rund 100Euro. Das das ganze ja so Kundenfreundlich ist steht bei jeder natürlich dabei welcher Chip welches Binning hat.....
 
Wird ja immer besser, NV verbieten Übertakten:
NVIDIA Segregates Turing GPUs; Factory Overclocking Forbidden on the Cheaper Variant | TechPowerUp

Das kann man doch echt nicht tolerieren, das geht einfach zu weit.

Sie verbieten die Herstellerseitige Übertaktung die Modelle ohne A sind für die Typischen Budget-Karten gedacht wie die ASUS Turbo z.B.: ASUS GeForce RTX 2080 Ti TURBO, Grafikkarte 3x DisplayPort, HDMI, USB-C

Meine Vermutung: Die für diese Karten aussortierten Chips lassen sich sowieso nicht groß übertakten. Damit der User wenigstens ein kleines Erfolgserlebnis hat beim selberübertakten verbieten sie eben ein Werks-OC. Karten ohne Werks-OC hat es aber immer schon gegeben.

Intressanter ist der untere Teil: Die 2. ID soll verhindern, dass man einfach eine anderes BIOS von einer Übertakteten Variante auf die Karte flasht. Nix mehr mit aus einer Jetstream eine Superjetstream machen oder aus einer Gaming eine Gaming X.

Ob sie damit ihren Ruf schützen wollen, oder die Käufer zu Kauf der teureren Variante bewegen wollen bleibt jeden als Interpretation überlassen.

Ja und was ist den das für ein Signal??

Ich kann jedem nur raten die Karten zu meiden eine Bogen drum zu machen und dieses Vorgehen von NV nicht zu unterstützten.

Das wird lustig. Gerade nach dieser Info möchte ich wissen, ob auf meiner bestellten Asus Turbo ein TU102-300A ist oder nicht drauf ist, schon deswegen wird nicht stoniert! Das wird lustig, habe ich dann nen fetten TU102-300A drauf, hole ich mir im Anschluss nen Rubbellos.

Wäre äußerst ungewöhnlich, wenn du da drauf ne A-Variante findest.
 
Es wird immer besser. Schon die Einführung der RTX über der GTX hat das ganze in eine (verdammt teure) Zweiklassengesellschaft unterteilt. Jetzt wird innerhalb der Oberklasse auch nochmal unterteilt. Einfach nur krank. Für diese ohnehin völlig absurden Preise sollte man Top Chips erwarten können und nicht den Fastausschuss, für den NV von OC abrät bzw. es sogar den Boardpartnern verbietet.

Eine wirklich stabile, effiziente RTX 2080Ti kostet dann wahrscheinlich fast 1500€.
 
Es wird immer besser. Schon die Einführung der RTX über der GTX hat das ganze in eine (verdammt teure) Zweiklassengesellschaft unterteilt. Jetzt wird innerhalb der Oberklasse auch nochmal unterteilt. Einfach nur krank. Für diese ohnehin völlig absurden Preise sollte man Top Chips erwarten können und nicht den Fastausschuss, für den NV von OC abrät bzw. es sogar den Boardpartnern verbietet.

Eine wirklich stabile, effiziente RTX 2080Ti kostet dann wahrscheinlich fast 1500€.

Ne die kostet genau 1259€ kommt von NVIDIA direkt mit Werks-OC und wird sich sicher noch gut übertakten lassen. Geh mal davon aus, dass sich NVIDIA die besten Chips gesichert hat um endlich den Ruf loszuwerden, dass die FE überteuerter Müll ist. :D
 
Fürchte wir werden diesmal keine große Auswahl an Custom-Karten sehen, macht ja alles keinen Sinn.

Ich als Hersteller würde Nvidia aus dem Sortiment kippen!
 
Fürchte wir werden diesmal keine große Auswahl an Custom-Karten sehen, macht ja alles keinen Sinn.

Ich als Hersteller würde Nvidia aus dem Sortiment kippen!

Sorry, aber dir glaubt doch keine Sau, dass du eine 2080 Ti vorbestellt hast.

Ich weiß nicht wieso ihr euch darüber aufregt, ist doch schön, dass man endlich mal was für sein Geld bekommt und nicht mit Pech genauso wenig Takt wie mit einer Karte mit schlechtere Spannungsversorgung, niedrigerem PT und niedrigerem Preis, sowie schlechterem Kühler bekommt obwohl man deutlich mehr gezahlt hat.
AMD macht es bei ihren CPU‘s doch auch so, für die die sich gut übertakten lassen verlangen sie mehr Geld.
 
Nunja, 40-50% mehr Leistung für 80% mehr Euro ist eben ne miese Rechnung für den Kunden.
Und genau darauf läuft es hinaus, weil Raytracing eben schlichtweg uninteressant ist. .
Und wäre ich ein OEM, würde ich auch mehr Modelle von AMD auf den Markt bringen, nur eben nicht 15 verschiedene, sondern Struktur einbringen.
Spannend fand ich in dem Zusammehang, den Artikel hier: Turing-Chips und GPU-Binning: NVIDIA selektiert vor - Hardwareluxx
Man darf also gespannt sein, ob die Turings überhaupt die 2Ghz locker machen
 
Wenn ich einen Premium Preis bezahle, dann möchte ich auch ein Premium Produkt haben und nicht eins, was gerade so funktioniert und um Haaresbreite an der Mülltonne vorbeigeschrammt ist.
Zudem wird das Potential der günstigeren Karten künstlich eingeschränkt.
 
Ich sehe das schon wie Du, Chatstar..
Jedoch würde ich das Produkt nicht als Müll bezeichnen.
Faktisch ist der Vorsprung zu Gering, um nicht zur 1080Ti zu greifen.. Und bis diese eben nur noch Mittelklasse ist, vergehen noch mal 3 Jahre..
 
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Wenn man so die Titel vergleicht ... dann könnte man das glatt bestätigen^^
 
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Wenn man so die Titel vergleicht ... dann könnte man das glatt bestätigen^^

Schau mal hier:
YouTube

Die Vram angaben sind überall fehlerhaft. In Battlefield soll die 2080 mit 1GB Vram laufen, sonst läuft die mit 10-11Gb. Macht keinen Sinn.
Dürfte ein Fake sein.
 
Habs auch eben gesehen, nöö nöö ist mir net Kosher^^
Bestimmt Hisn sein Fake Account, der will nur Klicks absahnen gell? :fresse:
 
Das werden wir ja dann sehen, wenn die Seiten die das NDA unterschrieben haben genau mit den Games testen und andere Seiten die frei berichten können andere Games drin haben.
 
Man darf also gespannt sein, ob die Turings überhaupt die 2Ghz locker machen

Warum sollen sie das nicht ?
Base clock sagt doch nix mehr aus.
Meine 1080Ti boostet aus dem Start heraus direkt über 2 GHz und ich hab einfach etwas mit einer Custom Lüfter Kurve so lange dran gedreht, bis die 2 GHz gehalten werden(Knacktemp war um 55 Grad C°), bei erträglicher Lautstärke, einfach mit erhöhung der Lüfterdrehzahl.

Ich denke das wird bei Turing nicht viel anders sein, bzw. evtl. sogar noch leicht besser gehen.

Darum geht's doch auch gar nicht, oder ?

Dachte es ginge um den Vergleich 2080 FE(oc) vs. 1080Ti customs und ob sich das lohnt.

Dass die 2080Ti sowieso in einer anderen Klasse spielt, sieht man ja am Titan-Preis.

Ich finde da jetzt auch nix tragisch, oder dramatisch dran.
Soll sich jeder holen was und wie er möchte.
Die 2080Tis werden sicher gut abgehen, für 4k.
Wer das Geld locker über hat, why not ?
(Edit: Ich sehe nur den "Raytracing-Preisaufschlag" nicht ein)

Aber besser nicht offen im Forum zugeben, es sei denn, man hat einen breiten Rücken und genug Selbstbewusstsein. ;) (Nur so als Tipp! :D ).

Traditionell haben ja immer die 80er die Tis abgelöst, also überholt, bei den Leistungswerten.
Wir müssen nun doch erst einmal die unabhängigen Tests, von denen es bisher keine gibt, abwarten, in wie fern die "nur" 8GB wirklich kein Problem sind, bei höchtsten Auflösungen, wofür die Karte gemacht ist und ob die lediglich 3GB mehr, der 1080Ti da überhaupt einen Unterschied machen können.
Von der Leistung her werden die sich sicherlich nicht allzu viel tun.

Und raytracing ... da wurde nun genug zu gesagt. Abwarten und in Zukunft mal checken, wie sich das entwickelt.
Bei den ersten Tests bin ich auch mal gespannt, wie sie das überhaupt testen und vergleichen wollen.
Mal schaun, was die Spieleentwickler bis dahin noch hingefriemelt kriegen.


hehe ... fleissig klicken, der Rubel rollt

lol !
lolaway2.gif
Hab auch schon beigetragen.
 
Wenn hier gerade angenehm gequatscht wird, möcht ich mich auch gerne beteiligen. Die Beziehung zum topic kann sogar hergestellt werden, schließlich ist OC und auch die Preise sehr an die Leitung gebunden, auch unter 4K. :-D

So, zu OC und Boost4.0 gibt hier Informationen, hinsichtlich der Spannung wird sich nix ändern:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Damit wird das Binning auch interessanter.. wenn dann wie ein paar Seiten zurück verlinkt, das OC auf den günstigeren Modellen strikt verboten ist.. hm. Also wirds teuer bleiben.
Was aber möglicherweise interessant ist, aber natürlich auch superlangweilig, ist die neue OC-Funktion. Wäre doppelt arm die bei den billigen Modellen zu verbieten, da man dort einfach niedrigere Ergebnisse erzielen sollte.
 
Zuletzt bearbeitet:
Sie haben das übrigens auch über die Pascals gesagt. Und das beste ist: Die Pascals liefen mit weniger Spannung meistens besser als mit mehr Spannung, weil das Power-Korsett so eng geschnürt war.
 
Nvidia sagt in dem Video über mir, dass die Karten nur ein Jahr halten, wenn man die Spannung erhöht??

NVIDIA sagt über dir (übrigens wie schon bei Pascal) wenn du die Spannung über den vorhandenen Spannungsrahmen erhöhst diese eventuell nur 1 Jahr halten. Wenn du im Rahmen bleibst hält sie mindestens 5 Jahre (wodrauf sie ausgelegt ist).

Das OC-Tool hat ein Powertarget von 100% in dem es austestet wie hoch der OC geht. Gehst du über dieses Powertarget hinaus (er erwähnte hier 3 Stufen), dann übernimmt NVIDIA keine Garantie mehr dafür, dass die 5 Jahre erreicht werden und auf der höchsten Stufe besteht die Gefahr, dass einige Karten nur 1 Jahr laufen.

Die Gefahr besteht aber schon immer. Nennt sich Elektomigration. Hier mal zum einlesen: Elektromigration – Wikipedia
 
Zurück