Geforce RTX 2080: 3DMark-Ergebnisse in Time Spy und Firestrike aufgetaucht.

NVIDIA wird nicht genügend Chips schnell genug produzieren, als dass man sie zu wohltätigen Zwecken heraushauen könnte.


Das wovon du sprichst, hat nichts mit NVIDIA/AMD zu tun, sondern damit, dass die Schere zwischen arm und reich immer weiter auseinander geht. Da es immer mehr "reiche" gibt, die auch diese Preise zahlen können, wird die gesamte Produktion schon damit mit Käufern abgedeckt. Klar könnte man womöglich doppelt so viel mit der Hälfte der Marge produzieren/verkaufen, was doppelten Aufwand für den selben Ertrag bedeutete.

Oh du schätzt mich glaube ich total flasch ein. Wirf mal ein Blick in mein Profil und sag mir nochmal ich bräuchte Grafikkarten "für wohltätige Zwecke". Ich bin durchaus bereit auch 800 Euro für eine Grafikkarte zu zahlen wenn die Leistung stimmt. Aber sie muss eben auch stimmen. 10-20% Steigerung (nach den von NVIDIA selbst erstellten Benchmarks die noch geschönt sein dürften) gegenüber dem Spitzenmodell des Vorgängers mit 3 GByte weniger VRAM für 50 € mehr ist nicht meine Vorstellung von "Die Leistung stimmt". Und es ist schön und gut, dass sie jetzt Raytracing unterstützen. Ich sehe das als wichtigen Schritt für die Zukunft. Aber sie sollten es nicht so überhastet auf den Markt werfen nur um Überhaupt ein Verkaufsargument zu haben.

Selbst meinem Umstieg von der GTX980Ti trotz 32% Mehrleistung und 2 GByte mehr VRAM habe ich nur gemacht, weil mir meine GTX980Ti schlicht und ergreifend zu laut war. Da sollen mich 20% und 3 GByte weniger VRAM vom Kauf überzeugen?:what:

Mich als Konsument (anders als als Technikinteressierten) interessiert nur die Leistung die ich für mein Geld erhalte. Wenn man es so angeht wie NVIDIA im Moment tendiert meine Kauflust gegen Null. Wozu sollte ich Deiner Meinung nach eine RTX2080 nutzen wollen? Für UHD hat sie zu wenig Speicher und für WQHD reicht meine GTX1080 noch locker die nächsten 2 Jahre bis zum nächsten Anlauf beider Hersteller, wenn Raytracing auch in mehr Games vorhanden ist und performanter läuft.

Außer einen massiven Preisvorschub beim nächsten Mal würde ich als Käufer also nichts erreichen.
Und 1.259 € für das nächst bessere Modell. Sorry das ist mir zu teuer.

Hätten sie 100€ auf den Preis des Vorgängers draufgeschlagen, dann hätte ich aufgrund der Leistungswerte (wenn die Folien der Wahrheit nahe kommen um die 40-50%) angesichts der neuen Technologien wahrscheinlich sogar zu Weihnachten zugeschlagen. Aber sorry 450 € sind mir die neuen Technologien einfach nicht Wert, wenn ich daraus keinen praktischen Nutzen ziehen kann.
 
Zuletzt bearbeitet:
Du kennst doch alle Fakten.

Die Erwartungen auf eine Wiederkehr des Mining-Booms stehen auch noch im Raum, da möchte man preislich nicht zu tief ansetzen, und diese Gewinne bei Eintreffen dann womöglich bei den Händeln belassen. Außerdem die Altlasten aus dem vergangenem Mining-Boom. Dazu fehlende Konkurrenz. Dazu mehr und teurere Materialkosten.

Dich greifen sie dann in der nächsten Runde wieder ab.
Ist ja auch fraglich, warum du überhaupt jetzt die GPU wechseln musst mit einer 1080 Ti drin, und dann beschwerst du dich über die Preise. Du besitzt ein Modell, welches von der Konkurrenz nicht annähernd erreicht wird, möchtest aber vom gleichen Hause bereits ein Upgrade und bist deshalb sauer? oO
Und dann tust du so, als wären 800€ ok und 1000€ nicht mehr, wenn man - wie du - alle 1-2 Jahre die GPU auf höchstem Niveau auswechselt.
 
Zuletzt bearbeitet:
Du kennst doch alle Fakten.

Die Erwartungen auf eine Wiederkehr des Mining-Booms stehen auch noch im Raum, da möchte man preislich nicht zu tief ansetzen, und diese Gewinne dann womöglich bei den Händeln belassen, bei Eintreffen. Außerdem die Altlasten aus dem vergangenem Mining-Boom. Dazu fehlende Konkurrenz. Dazu mehr und teurere Materialkosten.

Dich greifen sie dann in der nächsten Runde wieder ab. Ist ja auch fraglich, warum du überhaupt jetzt die GPU wechseln möchtest mit einer 1080 Ti drin, und dann beschwerst du dich über die Preise.

Der einzige der hier in sein gut-böse Schema verfällt bist doch du.
Der Preis ist schlicht unattraktiv aktuell. Welche Hintergründe das hat, spielt erst mal eine untergeordnete Rolle. Fest steht das Nvidia diesen Preis angesetzt hat+ dieses unsägliche Tam Tam seit der Erstvorstellung wo wir erst die Technik in Häppchen bekommen bis es dann mal endlich benchmarks gibt.

Fest steht auch das KEIN EINZIGES SPIEL AUF DEM MARKT IST womit man Raytracing testen könnte, nicht mal ein DLAA Titel ist aktuell bekannt. Was soll das?
Relasetests ohne Kontent für die neuen Spezialfunktionen die der Hauptkaufgrund sein sollen? Das ist lächerlich.
 
Du kennst doch alle Fakten.

Die Erwartungen auf eine Wiederkehr des Mining-Booms stehen auch noch im Raum, da möchte man preislich nicht zu tief ansetzen, und diese Gewinne bei Eintreffen dann womöglich bei den Händeln belassen. Außerdem die Altlasten aus dem vergangenem Mining-Boom. Dazu fehlende Konkurrenz. Dazu mehr und teurere Materialkosten.

Dich greifen sie dann in der nächsten Runde wieder ab.
Ist ja auch fraglich, warum du überhaupt jetzt die GPU wechseln musst mit einer 1080 Ti drin, und dann beschwerst du dich über die Preise. Du besitzt ein Modell, welches von der Konkurrenz nicht annähernd erreicht wird, möchtest aber vom gleichen Hause bereits ein Upgrade und bist deshalb sauer? oO

Ich habe ein GTX1080 keine Ti. Also wäre die RTX2080 der nächste Kanidat. Und wenn sie auf Mining setzen, dann setzen sie auf den falsch Gaul.
Mining ist nichts wodrauf man bauen sollte, wenn man seine Stammkunschaft nicht verärgern will. Aber das lernen sie auch noch früher oder später.

Cryptowährungen sind von einem teilweise guten Ansatz zu einem reinen Spekulationsobjekt an der Börse verkommen.
Und mit der Gier kam dann auch der Niedergang. Und nachdem das Feld abgegrast war sind die Heuschrecken (Börsianer) weitergezogen zum nächsten Feld.

Und was das Upgrade angeht: Neue Spiele erfordern nunmal mehr Leistung. Das war schon immer so und das wird auch immer so bleiben. Den Software verkauft die Hardware. Ohne fordernde Spiele wären Karten wir die RTX2080 oder RTX2080Ti gar nicht nötig.
Und NVIDIA hat sich grade durch Raytracing den Umsatz an Grafikkarten für die nächsten 10-15 Jahre gesichert.
Raytracing bedeutet für die Entwickler/Publisher, dass sie nicht mehr soviel Aufwand für Fake-Beleuchtung etc aufwenden müssen.

Aufwand = Manpower = Geldeinsatz = Weniger Gewinn.
Aus Entwickler/Publischersicht lohnt es sich also Raytracing in Spielen zu verwenden. Ergo werden sie es auch in Zukunft tun ... Und dieser Fakt wird in Zukunft massig Grafikkarten mit dieser Eigenschaft verkaufen, denn Raytracing in Echtzeit kannst du beliebig nach oben skalieren. Karten die dieses immer besser beherschen werden also immer gefragt sein.
Nur im Moment haben sie noch kaum praktischen nutzen.
 
Zuletzt bearbeitet:
Der einzige der hier in sein gut-böse Schema verfällt bist doch du.
Der Preis ist schlicht unattraktiv aktuell. Welche Hintergründe das hat, spielt erst mal eine untergeordnete Rolle. Fest steht das Nvidia diesen Preis angesetzt hat+ dieses unsägliche Tam Tam seit der Erstvorstellung wo wir erst die Technik in Häppchen bekommen bis es dann mal endlich benchmarks gibt.

Fest steht auch das KEIN EINZIGES SPIEL AUF DEM MARKT IST womit man Raytracing testen könnte, nicht mal ein DLAA Titel ist aktuell bekannt. Was soll das?
Relasetests ohne Kontent für die neuen Spezialfunktionen die der Hauptkaufgrund sein sollen? Das ist lächerlich.

Eines muss zuerst kommen, entweder das Huhn oder das Ei.

Ich habe mich aus dem Grund bei diesem Forum angemeldet, da ich seit Jahren sehe, dass sich hier kommunistische Tendenzen unwidersprochen breit machen: INTEL/NVIDIA, die bösen Vorreiter und Marktmächtigen gegen die der Robin Hood (AMD) vergeblich kämpft. Das ist doch eure Diktion hier. Dazu wird man ja wohl mal einen Gegenpol aufmachen können, oder wird man hier dann gleich wegen seiner Gesinnung verfolgt?

"Mining ist nichts wodrauf man bauen sollte, wenn man seine Stammkunschaft nicht verärgern will. Aber das lernen sie auch noch früher oder später."

Nein! So läuft das nicht! Das Erwartungspotential herrscht am Markt ist automatisch eingepreist, da setzt niemand auf irgendwas. Schon wieder erfindest du NVIDIA = MINING = Böse, merkst es nicht mal.

Es ist auch völlig egal was man vom Mining hält oder erwartet, es gibt jedenfalls noch genügend Menschen, die da Potential sehen und Erwartungen haben. Das alleine ist entscheidend, nicht deine Vorhersagungen über Mining, ob es eine Blase ist, whatever. Auch Blasen erzeugen Nachfragen nach Mining-GPUs, lol. Kann weitere Blasenbildung ausgeschlossen werden? Nein. Also ist es in GPUs eingepreist. Wenns NVIDIA nicht täte würde es der Markt selbst machen.
 
Zuletzt bearbeitet:
Wieso glaubt eigentlich jeder, dass es sich bei den Ergebnissen um eine 2080 handelt? ich lese da was von einer Generic-VGA mit 8GB VRAM und einem Takt von 1920Mhz. Das kann doch genauso gut auch die 2070 sein, und dann wäre die Leistung doch mehr als nur in Ordnung.
Nur weil im Text eine 2080 vermutet wird muss es ja noch lange nicht stimmen.
 
Wieso glaubt eigentlich jeder, dass es sich bei den Ergebnissen um eine 2080 handelt? ich lese da was von einer Generic-VGA mit 8GB VRAM und einem Takt von 1920Mhz. Das kann doch genauso gut auch die 2070 sein, und dann wäre die Leistung doch mehr als nur in Ordnung.
Nur weil im Text eine 2080 vermutet wird muss es ja noch lange nicht stimmen.

Weil aktuell diese Folien die Runde machen, die aus dem Reviewer Guide von NVIDIA stammen: NVIDIA GeForce RTX 2080 Ti and RTX 2080 'official' performance unveiled | VideoCardz.com

Jetzt zieh noch das übliche NVIDIA-BEST-CASE-SZENARIO ab und du kommst drauf warum hier fast jeder auf dieses Ergebnis kommen.

Selbst ohne Abzug ist der Abstand GTX1080Ti / RTX2080 je nach Szenario nur 10-20%. Die Folie zu Time Spy Extreme findest du fast am Ende der Folien. (4960 zu 4410). Das wären 12% Mehrleistung Founders zu Founders. Wobei die RTX2080 Founders bereits einen Werks-OC hat.
Nun nimm noch eine Übertaktete Custom GTX1080Ti in die Rechnung und dann ist es sehr wahrscheinlich dass es sich hier um eine RTX2080 handelt.
 
Zuletzt bearbeitet:
Völlig richtig. Und das geschah, weil AMD einfach fehlende Leistung durch ranklatschen von Speicher überspielt hat, wo man mitziehen musste,
Was redest du da für einen Blödsinn? AMD hat das bei der 7970, der 200er und 300er Serie gemacht und in allen drei Fällen sorgt genau dies dafür, dass die 7970 heute die 770 2G, die 290 heute die 780 und die 390 heute die 970 verbläst bzw. im Gegensatz zu den Nvidia Karten kein Matschtexturstreaming bietet.

Benchmark Balken sind unzureichend bei VRam Vergleichen, da moderne Engines bei Speichermengel einfach die Texturdetails reduzieren.

Hast du in den letzten 3 Jahren unter einem Stein gehaust? PCGH ist voll von VRam Vergleichstests.

@topic:
Die 2080 wird mit 8GiB hervorragend auskommen. Das ist nach wie vor der Sweetspot.
 
Wieso glaubt eigentlich jeder, dass es sich bei den Ergebnissen um eine 2080 handelt? ich lese da was von einer Generic-VGA mit 8GB VRAM und einem Takt von 1920Mhz. Das kann doch genauso gut auch die 2070 sein, und dann wäre die Leistung doch mehr als nur in Ordnung.
Nur weil im Text eine 2080 vermutet wird muss es ja noch lange nicht stimmen.

Das ist doch mal völlig klar. Weil es NVIDIA ist, geht man vom Schlechteren aus.

Bei AMD und Vega haben die gleichen Leute noch genau gegensätzlich gehandelt.


Zur omnipotenten Antwort auf deine Frage: Weil der Wunsch der Vadder des Gedankens war, und nichts anderes!
 
Zuletzt bearbeitet:
Wieso glaubt eigentlich jeder, dass es sich bei den Ergebnissen um eine 2080 handelt? ich lese da was von einer Generic-VGA mit 8GB VRAM und einem Takt von 1920Mhz. Das kann doch genauso gut auch die 2070 sein, und dann wäre die Leistung doch mehr als nur in Ordnung.
Nur weil im Text eine 2080 vermutet wird muss es ja noch lange nicht stimmen.

Niemand hat aktuell eine 2070 zur Verfügung. Es liegt also nahe das es eine 2080 ist, denn wenn es eine 2080ti sein sollte lässt AMD wohl die Sektkorken knallen.
 
Und die 2080s waren zum Zeitpunkt des Leaks schon verschickt?

Und die Release-Versionen der Grafikkarten, welche jetzt an die Tester verschickt wurden, würden in dem Benchmark so auftreten?

"... und einer Grafikkarte, die nicht ausgelesen werden konnte."

Das sind ernst gemeinte Fragen.


Falls beides mit nein zu beantworten ist, dann ist das nur irgend ein Prototyp von entweder 2070 oder 2080.

Prototypen von 2070 und 2080 stehen wohl beide zur Verfügung.
 
Das ist doch mal völlig klar. Weil es NVIDIA ist, geht man vom Schlechteren aus.

Bei AMD und Vega haben die gleichen Leute noch genau gegensätzlich gehandelt.


Zur omnipotenten Antwort auf deine Frage: Weil der Wunsch der Vadder des Gedankens war, und nichts anderes!

Du kapierst es einfach nicht oder? Hier geht keiner von schlechtesten aus. NVIDIAs eigene Benchmarks geben genau das her. :wall:

Ich bin weder Pro AMD noch Pro NVIDIA. Was für mich zählt sind Fakten. Ich habe mich mit der Kritik an AMD Vega nicht zurückgehalten und ich werde es auch nicht bei NVIDIA tun.

Grafikkarten sind für mich keine Glaubensfrage sondern nur Hilfsmittel um die von mir gespielten Games auf dem Bildschirm darzustellen. Herstellernamen/farben sind vollkommen egal.
Nur du und einige andere scheinen darin eine Religion zu sehen. :nene:

Und die 2080s waren zum Zeitpunkt des Leaks schon verschickt?

Und die Release-Versionen der Grafikkarten, welche jetzt an die Tester verschickt wurden, würden in dem Benchmark so auftreten?

"... und einer Grafikkarte, die nicht ausgelesen werden konnte."

Das sind ernst gemeinte Fragen.


Falls beides mit nein zu beantworten ist, dann ist das nur irgend ein Prototyp von entweder 2070 oder 2080.

Prototypen von 2070 und 2080 werden genügend zur Verfügung stehen.

Wie hat NVIDIA bitte ihre Werte für 3DMARK ermittelt? Einfach aus der Luft gegriffen?

Solche Tests werden nunmal in der 3DMark-Datenbank hinterlegt wenn man diese Validiert.

Und hier haben wir die Folie 3DMARK Time Spy Extreme betreffend aus dem NIVIDIA Reviewers Guide. Rechne selbst wenn du uns nicht glaubst:
1009467-geforce-rtx-2080-3dmark-ergebnisse-time-spy-und-firestrike-aufgetaucht-geforce-rtx-2080-ti-rtx-2080-timespy.png

Quelle: NVIDIA GeForce RTX 2080 Ti and RTX 2080 'official' performance unveiled | VideoCardz.com
 

Anhänge

  • GeForce-RTX-2080-Ti-RTX-2080-TimeSpy.png
    GeForce-RTX-2080-Ti-RTX-2080-TimeSpy.png
    44,1 KB · Aufrufe: 243
Zuletzt bearbeitet:
Sieht doch alles so aus wie erwartet. Ohne RTX-Funktionen schon 40%+ Mehrleistung gegenüber den direkten Vorgängern. Mit Auslagerung der Kantenglättung kommt wohl nochmal was oben drauf.

So wie es derzeitig aussieht, wird eine 2070 dann ohne RTX-Funktionen knapp unter einer 1080Ti liegen und mit RTX-Funktionen diese wahrscheinlich sogar leicht überflügeln.

Ne 2060 wird dann wie angekündigt auf 1080 Niveau sein oder sogar leicht darüber.


Ich wage mal jetzt schon zu behaupten, dass Nvidia-Hater mit ihrem Wunsch (bzw. eher religiöse Zwangshandlungen), dass die Karten genauso wenig taugen werden wie zuletzt Vega, ziemlich daneben liegen werden.


Nein stimmt aber so nicht.

Bei Shadow of the Tomb Raider schafft eine 1080 TI nicht nur 43, sondern 47 FPS und liegt somit genau auf dem Niveau einer 2080. Und somit sind es nur noch 20 - 25 %.
Und ein Vergleich zwischen einer 1080 TI FE und 2080 TI FE ist durch den deutlich besseren Kühler leider nicht mehr sinnvoll, denn die 2080 TI taktet somit deutlich höher.
Das erkennt man auch schon an den geringen Vorsprung der 1080 TI gegenüber 1080 das hier nur mit einer Founders getestet wurde.
 
Nein stimmt aber so nicht.

Bei Shadow of the Tomb Raider schafft eine 1080 TI nicht nur 43, sondern 47 FPS und liegt somit genau auf dem Niveau einer 2080. Und somit sind es nur noch 20 - 25 %.
Und ein Vergleich zwischen einer 1080 TI FE und 2080 TI FE ist durch den deutlich besseren Kühler leider nicht mehr sinnvoll, denn die 2080 TI taktet somit deutlich höher.

Und bekomme direkt mal das beste Binning, vorselektiert von Nvidia.
Nvidia selektiert vor - Binning mit 3 Qualitaetsstufen fuer die RTX 2080 und RTX 2080 Ti - Tom's Hardware Deutschland

Das verzerrt in der Summe die Vergleich deutlich wie ich finde. Auch der PCGH Index wird dadurch ziemlich korrumpiert.
 
Wenn man noch dieser Liste geht:
NVIDIA GeForce RTX 2080 Ti and RTX 2080 'official' performance unveiled | VideoCardz.com
Time Spy Extreme 1080ti nur 4410 Punkte????

Dann guckt man hier:
Search

4800 Time Spy Extreme (1.0) by wilkils2000June 21 2018
Platz 605 Intel Core i7-8700K Processor (3,696 MHz)Details
Asustek Computer, Inc. NVIDIA GeForce GTX 1080 Ti (2,063 MHz)

5000 Time Spy Extreme (1.0) by bcavnaughFebruary 15 2018
EVGAZ370FTW
Platz 110 Intel Core i7-8700K Processor (3,700 MHz)Details
EVGA Corporation NVIDIA GeForce GTX 1080 Ti (2,076 MHz)

Das stinkt zum Himmel!
 
Wenn man noch dieser Liste geht:
NVIDIA GeForce RTX 2080 Ti and RTX 2080 'official' performance unveiled | VideoCardz.com
Time Spy Extreme 1080ti nur 4410 Punkte????

Dann guckt man hier:
Search

4800 Time Spy Extreme (1.0) by wilkils2000June 21 2018
Platz 605 Intel Core i7-8700K Processor (3,696 MHz)Details
Asustek Computer, Inc. NVIDIA GeForce GTX 1080 Ti (2,063 MHz)

5000 Time Spy Extreme (1.0) by bcavnaughFebruary 15 2018
EVGAZ370FTW
Platz 110 Intel Core i7-8700K Processor (3,700 MHz)Details
EVGA Corporation NVIDIA GeForce GTX 1080 Ti (2,076 MHz)

Das stinkt zum Himmel!

Wieso denn? Kann es nicht sein, dass die 1080TI FE 4410 Punkte hat?
4800 mit 2063 Mhz kommt doch hin, dass die FE ~4410 Punkte hat.
Macht auch wenig Sinn die 2080 TI FE mit den hochgezüchteten 1080 TIs zu vergleichen. Vor allem, da die ja alle nen anderen Takt haben.
 
Wieso denn? Kann es nicht sein, dass die 1080TI FE 4410 Punkte hat?
4800 mit 2063 Mhz kommt doch hin, dass die FE ~4410 Punkte hat.
Macht auch wenig Sinn die 2080 TI FE mit den hochgezüchteten 1080 TIs zu vergleichen. Vor allem, da die ja alle nen anderen Takt haben.

Dann aber bitte die 2080 TI FE mit den gleichen unterirdischen Kühler wie dessen der 1080 TI FE vergleichen. Ansonsten bitte den Vergleich bleiben lassen. Denn der Kühler der 2080 TI FE ist nun auf einen ähnlichen Niveau der "hochgezüchteten" 1080 Ti.
 
Zurück