Geforce RTX 2070: Kaufen Sie die kleinste Turing-Grafikkarte?

Jo,
und Schaffe kann sich dann von dem eingesparten Geld den neuen Non-HDR-"Agoni"-Moni kaufen, wo die dummen Veganer bereits an Ihrem schönen QLED 1000Nits im Wohnzimmer schwofen.
Die Preise von Gsync sind ein Witz !!!

Er bleibt bei FHD @60Hz. im Wohnzimmer für RTX mit Vsync und 5minuten Inputlag :D
Ist sowieso günstiger^^
 
@Scully1234....

Ich persönlich fühle mich von deiner Äußerung "Koothrappali", indem du alle Inder anscheinend über einen Kamm scherst, angegriffen!

Hat Dir AMD eigentlich etwas persönlich getan dass du so reagierst? Ich finde so eine Reaktion absolut überzogen, zumal sie nicht zum Thema passt. Ich finde es wirklich schade!
Sehr befremdlich das Ganze! :(
Das nennt man Profilneurose.

Gesendet von meinem SM-G920F mit Tapatalk
 
Die günstigste RTX2070 bietet die Leistung einer solide übertakteten Vega 64, mit der Hälfte des Stromverbrauchs

Und mit DLSS in neuen Spielen wird der Abstand noch größer, aber die rote laute u stromhungrige Gehhilfe ,wird komischerweise nicht kritisiert, für den Preis den sie immer noch aufruft

Bei NVIDIA erwartet man das sie hier einen auf Mutter Theresa , Brot für die Welt machen, mit ihrer überlegenen Technologie, lustiger u heuchlerischerweiße ausschließlich von denen die sowieso nie ne NVIDIA Karte kaufen würden, egal wo der Preis auch immer landen würde

Da gibts sogar noch absurde Kaufempfehlungen für den Mist, weil man muss die Totalversager , ja noch "unterstützen" mit nem Vega Kauf, sonst gibts ein NVIDIA Monopol:lol:
 
Zuletzt bearbeitet:
Köstlich wie hier fast alle Protagonisten das P/L Verhältnis der Karten verteidigen aber alle selbst noch auf bessere Preise für die Karten warten, natürlich erst ehe diejenigen Ihre alten Karten zu völlig wahnwitzigen Gebrauchtpreisen verkaufen.

Das P/L Verhältnis ist aus der Warte nicht annehmbar, wenn ich von einer neuen Generation im selben Prozess bei Null Konkurrenz erwarte, dass die Preise trotz riesen Chip deutlich sinken.

Das ist nunmal einfach nicht drinnen.
Da muss man nichts verteidigen, sondern einfach nicht wie Pippi Langstrumpf mit den Füssen auf dem Boden stampfen. ;)

Verglichen wird dann vorzugsweise gegen Referenzkarten die ins Temp und Powerlimit rennen

Verglichen wird Referenz gegen Referenz, jedenfalls mach ich das so.
Und die langsamste RTX 2070 ist nunmal so schnell wie die schnellste Vega Custom.

OC tut ja sowieso keiner hier im Enthusiastbereich, schon gar net Leute die Hardware für 500-1300 Euro kaufen :rollen:
Sind ja sowieso alle Neidisch auf das was man nicht mal selbst besitzt.

Man bewertet natürlich auch das OC Potenzial, aber Vega ist da nun auch nicht gerade als OC Monster bekannt.
Keine Ahnung wo man Vega so gut übertakten kann.
Aber das schönste an der ganzen Sache ist das niemand in der Lage ist auch mal selbst ein paar Erfahrungen von den Karten zu liefern obwohl die Dinger schon seit 1Monat relased sind.

Als ob es dich interessieren würde, was anderes ausser Preisbashing liest man von dir nicht.
Eindrücke zur Karte gabs aber hier schon öfters zu lesen.
Die eigentlichen Besitzer der Karte tummeln sich eh im Turingthread. Da kommt dann wenigstens mal was substanzielles.

Was soll man denn hier auch substanzielles posten? Hat doch gar keinen Zweck.

Zur Wahrheit gehört auch das von den vielleicht 8 Leuten im Turingthread 4 eine defekte Karte hatten, die 2070er non A mit erhöhung des Powerlimits derart viel über den PCI Expressslot ziehen das es schon an der Grenze der Haltbarkeit günstiger Boards nagt oder feinste Differenzen über den tollen Onboard Sound jagt.

Zur Wahrheit gehört auch, dass du Informationen nur selektiv liest und alles schlechtredest. ;)

Jetzt gibt es also schon Probleme mit dem Sound der Boards, was selbst bei der RX 480 kein Problem war und 50% von Turing sind defekt :D, alles klar Sherlock.
 
Das P/L Verhältnis ist aus der Warte nicht annehmbar, wenn ich von einer neuen Generation im selben Prozess bei Null Konkurrenz erwarte, dass die Preise trotz riesen Chip deutlich sinken.

Das ist nunmal einfach nicht drinnen.
Da muss man nichts verteidigen, sondern einfach nicht wie Pippi Langstrumpf mit den Füssen auf dem Boden stampfen. ;)



Verglichen wird Referenz gegen Referenz, jedenfalls mach ich das so.
Und die langsamste RTX 2070 ist nunmal so schnell wie die schnellste Vega Custom.



Man bewertet natürlich auch das OC Potenzial, aber Vega ist da nun auch nicht gerade als OC Monster bekannt.
Keine Ahnung wo man Vega so gut übertakten kann.


Als ob es dich interessieren würde, was anderes ausser Preisbashing liest man von dir nicht.
Eindrücke zur Karte gabs aber hier schon öfters zu lesen.


Was soll man denn hier auch substanzielles posten? Hat doch gar keinen Zweck.



Zur Wahrheit gehört auch, dass du Informationen nur selektiv liest und alles schlechtredest. ;)

Jetzt gibt es also schon Probleme mit dem Sound der Boards, was selbst bei der RX 480 kein Problem war und 50% von Turing sind defekt :D, alles klar Sherlock.

Wie immer keinen Plan oder?
Palit GeForce RTX 2070 Dual im ersten Test - Tom's Hardware Deutschland
Zitat"Jetzt kommt allerdings auch ein gewisses Aber deshalb, weil Palit das Load-Balancing etwas zu optimistisch ausgelegt hat. Im normalen Gaming oder Torture-Loop liegt man am Mainboard-Anschluss mit 5.6 Ampere schon knapp über der Normgrenze von 5.5 Ampere, aber noch innerhalb etwaiger Messtoleranzen. Beim OC mit 114% Power Target sind es jedoch als Mittelwert bereits 6.6 Ampere mit Spitzen von fast 11 Ampere!

Da wird natürlich erst einmal nichts abfackeln, aber erstens ist eine Norm da, um verflixt nochmal auch eingehalten zu werden, zweitens traue ich z.B. den dünnen 4-Layer Low-Cost-Mainboards der SI keinen Meter über den Weg (wo meist noch nicht einmal der Reserve-Pin mit 12V beschaltet wird) und drittens sind solche sinnlosen und überflüssigen Spitzen dann auch im Audio-Zweig hörbar. Man kann Scrolling also auch hören. Dagegen ist Spulenfiepen wie Heimaturlaub."
 
Was mich halt wundert ist warum so viele Leute jetzt plötzlich bereit sind ~550€ für GTX1080 Leistung zu bezahlen, während es die GTX1080 doch schon seit 2,5 Jahren gibt und die auch immer ungefähr um diesen Preis gekreist ist.

Warum ist das jetzt auf einmal okay?
Warum dann nicht gleich 2016 ne GTX1080 für den gleichen Preis?

Naja die Leute scheinen sich einfach innerhalb der zwei Jahre an die Preise gewöhnt zu haben und wollen jetzt endlich eine neue Karte, weil halt nichts besseres kam.
Und bekanntlich hyped man ja auch was man im Begriff ist zu kaufen / was man gerade bestellt hat. :schief:

Nvidia hat's halt raus beim Leute verarschen.

Übrigens... Intel auch.
Ich sage nur i7 jetzt ohne Hyperthreading (8c/8t) und i9 (8c/16t) für Mondpreise.
Willkommen im Club Intel + Nvidia!
 
Nvidia hat's halt raus beim Leute verarschen.
Kehr lieber mal den roten Dreck vor der eigenen Haustür da hast du genug zu tun mit Verarschung

Wo sind noch mal die primitiven Shader abgeblieben bei Vega ? Bringt die der Osterhase nächstes Jahr mit Navi ,zusammen mit dem fine Wine Wunder Treiber:lol:
Aber was interessierts noch der Hauptprotagonist des Vega Pranks ,ist eh schon zu Intel getürmt:top:
Und auf den Volta Killer wartet auch noch jeder bis zum Sankt Nimmerleinstag

Und was ist das hier
Radeon RX 560: AMD veraendert heimlich GPU-Spezifikation |
heise online


Also häng dich mal nicht zu weit aus dem Fenster mit dem Saubermann Image , sonst holt dich die Realität noch ein u du schlägst hart auf

AMD hat’s halt drauf sich als Underdog "neoliberale Marxisten" als Dronen gefügig zu machen , die dann über den erfolgreicheren Konzern neidisch wie sie sind herfallen ,wie die Hunnen übers römische Reich
 
Zuletzt bearbeitet:
Also AMD (GPU) gleich zu setzten mit Nvidia was "Verarschung" angeht ist ein starker Hund !

Will jetzt hier nicht wieder die ganze Latte aufzählen.

Nur zu Vega noch, primitiven Shader sind da und können genutzt werden, AMD hat hier nicht betrogen, was den Treiber angeht, der wird von mal zu mal besser, das ist eine Tatsache und kein Wunder.
 
Wie immer keinen Plan oder?

Igor schrieb seine Karte hat einen weg und er bekommt eine neue, das ist aber ein spezifisches Custom Design und nicht generell ein Turing Problem, ähnliches gab es damals auf einer 750 Ti und einer rx 480 Referenz.

Er schreibt die Karte zirpt wenn man scrollt.
Das ist ein Defekt, den ich auch mit meiner HD 7950 damals hatte.

Hat mit dem Load Balancing gar nichts zu tun, dass die beim Scrollen zirpt...das sollte Igor aber auch wissen.

Er ist halt ein bisschen sensationsgeil.

Spitzen fallen nicht mal in den Problembereich, sondern der Durchschnittliche Verbrauch, und der ist kaum drüber, nicht mal beim OC.

Diese ominösen Lastspitzen sind für die verbauten Leitungen völlig irrelevant, das wurde damals im 3DC zur RX 480 lange ausdiskutiert.

Du hübschst die Information lediglich ein bisschen Anti Nvidia auf und fügst Fake News bei.
.
Nur zu Vega noch, primitiven Shader sind da und können genutzt werden, AMD hat hier nicht betrogen, was den Treiber angeht, der wird von mal zu mal besser, das ist eine Tatsache und kein Wunder.

Das ist falsch, AMD hat sogar durch vorgehaltene Hand bestätigt dass die neue Geometriepipeline erst mit Navi Software bzw Treiberseitig unterstützt wird.
Aktuell kann kein Entwickler da irgendetwas nutzen.

Nvidia hingegen wird da Support liefern.
Wenn Vertex , Hull und Domain Shader zusammengefasst werden sollte das noch einmal einen Performanceboost ergeben, da hat man sich bei Vega einiges versprochen, gerade deshalb würde ich keine Vega 64 gegenüber einer 2070 kaufen.

AMD braucht nur den Preis senken, die sind dafür genauso verantwortlich wie Nvidia.

Erstaunlicherweise fordert das von euch niemand, das ist wohl der Underdog Supreme Bonus.

Also AMD (GPU) gleich zu setzten mit Nvidia was "Verarschung" angeht ist ein starker Hund !

HBCC, Primitive Shader, Fine Wine, die UVP Abzocke, die lächerlichen Miningtreiber bei AMD, die 50% Preissenkung der VegaFrontier nach 2 Monaten, ach die nehmen sich in punkto Verarsche gar nichts.
 
Zuletzt bearbeitet:
Igor schrieb seine Karte hat einen weg und er bekommt eine neue, das ist aber ein spezifisches Custom Design und nicht generell ein Turing Problem, ähnliches gab es damals auf einer 750 Ti und einer rx 480 Referenz.

Er schreibt die Karte zirpt wenn man scrollt.
Das ist ein Defekt, den ich auch mit meiner HD 7950 damals hatte.

Hat mit dem Load Balancing gar nichts zu tun, dass die beim Scrollen zirpt...das sollte Igor aber auch wissen.

Er ist halt ein bisschen sensationsgeil.

Spitzen fallen nicht mal in den Problembereich, sondern der Durchschnittliche Verbrauch, und der ist kaum drüber, nicht mal beim OC.

Diese ominösen Lastspitzen sind für die verbauten Leitungen völlig irrelevant, das wurde damals im 3DC zur RX 480 lange ausdiskutiert.

Ja nee iss klar :lol:
 
Was mich halt wundert ist warum so viele Leute jetzt plötzlich bereit sind ~550€ für GTX1080 Leistung zu bezahlen, während es die GTX1080 doch schon seit 2,5 Jahren gibt und die auch immer ungefähr um diesen Preis gekreist ist.

Warum ist das jetzt auf einmal okay?
Warum dann nicht gleich 2016 ne GTX1080 für den gleichen Preis?
Das scheint einzig daran zu liegen, dass Du von falschen Annahmen ausgehst.
Fragen wir doch mal 1.199 Leute, was die auf die Frage "welche Grafikkarte nutzt Du" antworten:
1016539-geforce-rtx-2070-kaufen-sie-die-kleinste-turing-grafikkarte-screen255.jpg


Quelle: PCGH Juli Umfrage

Btw. alle anderen GPUs liegen DEUTLICH drunter.
 

Anhänge

  • Screen255.jpg
    Screen255.jpg
    56,9 KB · Aufrufe: 77
Manchmal glaubt man hier echt es geht den GTX 1080/Vega Besitzern nur darum die eigenen Präferenzen durchzudrücken.
Wenn was gepostet wird dann ausschließlich negatives zur RTX 2070 wie etwas Firestrike.......wahnsinn wie schlecht die ist. Sicher ist das kein Vorzeigetest von Turing, aber auf dem Level einer gut getakteten GTX 1080 kommt man auch.
NVIDIA GeForce RTX 2070 video card benchmark result - Intel Core i5-8400 Processor,Micro-Star International Co., Ltd. B360M MORTAR TITANIUM (MS-7B23)
Komischerweise postet keiner den DX12 Test Time Spy oder Time Spy extrem. Da muß dann schon bald LN2 ausgepackt werden um mit der kleinen Turing mitzuhalten.
NVIDIA GeForce RTX 2070 video card benchmark result - AMD Ryzen 7 2700X,ASUSTeK COMPUTER INC. ROG STRIX X470-I GAMING | NVIDIA GeForce RTX 2070 video card benchmark result - Intel Core i7-8700K Processor,Micro-Star International Co., Ltd. Z370 GAMING PRO CARBON AC (MS-7B45)

PCGH hat es gut zusammengefasst:
"In vielen der etwas aktuelleren Titeln ist die RTX 2070 auch deutlich schneller als die GTX 1080. Unseres Ermessens ist dies unter anderem auf den deutlich schnelleren Speicher von Turing zurückzuführen. So deklassiert die RTX 2070 in dem mit maximalen Details extrem speicherhungrigen Wolfenstein 2 die GTX 1080 geradezu, Ähnliches gilt für das mit Multisampling-Kantenglättung veredelte Dirt 4 und das ebenfalls sehr speicherlastige Star Wars Battlefront 2. Bei Wolfenstein 2 könnte indes auch die gegenüber Pascal verbesserte, stärker auf Low-Level-Features wie Async Compute ausgelegte Turing-Architektur eine Rolle spielen, es performt auffällig stark mit den neuen Nvidia-Grafikkarten."

Die RTX ist also bei neueren Spielen teils deutlich schneller als die GTX 1080.
Persönlich glaube ich, daß sich der Vorsprung noch etwas ausbaut. Sicher ist ein Wechsel von einer GTX 1080 auf eine RTX 2070 sinnfrei, aber bei einem Neukauf würde ich sicherlich zu einer RTX 2070 greifen von der ich mir zukünftig doch mehr Performance verpreche.
 
Nein,

meine Vega64 muss erst mal 2 jahre reichen und wie sich die dinge entwickelt haben, bin ich froh, keine 1080 gekauft zu haben und erst recht nicht auf 20*0 (ti) gewartet zu haben.

Sie läuft optimiert sparsamer als meine alte 290X und harmoniert noch gut mit meinem i7 in UWQHD.


Was für ein schwachsinn. Was denkst du denn wird passieren, wenn Nvidia selbst in der mittelklasse außer konkurrenz ist?

LG

Sind sie doch schon.
RT heißt doch das "must have" Zauberwort.
Warum hat NV das wohl in eine 2070 integriert.
Erstaunlich viele mögen derzeitig aufgerufenen Preis nicht zahlen, nur in absehbarer Zeit wirds keine 10xx mehr geben und dann kauft mans doch zu dem kaum geringeren Preis.
 
Was mich halt wundert ist warum so viele Leute jetzt plötzlich bereit sind ~550€ für GTX1080 Leistung zu bezahlen, während es die GTX1080 doch schon seit 2,5 Jahren gibt und die auch immer ungefähr um diesen Preis gekreist ist.

Warum ist das jetzt auf einmal okay?
Warum dann nicht gleich 2016 ne GTX1080 für den gleichen Preis?
Das scheint einzig daran zu liegen, dass Du von falschen Annahmen ausgehst.
Fragen wir doch mal 1.199 Leute, was die auf die Frage "welche Grafikkarte nutzt Du" antworten:
Quelle: PCGH Juli Umfrage

Hast dir die Frage selbst beantwortet.
Ist nicht repräsentativ.
15% der Leute sollen angeblich eine GTX1080Ti besitzen.
Desweiteren sollen 30% auf WQHD spielen.

Wie naiv muss man sein um zu glauben, dass das stimmen kann?
Geht doch komplett an der Realität vorbei.

Grund: Leute mit teurer und extremer Hardware nehmen überproportional gern an solchen Umfragen teil.

PS: Wenn du es genauer wissen willst.
Steam Hardware & Software Survey

Stand September 2018

ALL VIDEO CARDS

NVIDIA GeForce GTX 1080 Ti
1.54%

NVIDIA GeForce GTX 1080
2.78%

NVIDIA GeForce GTX 1070
4.19%

NVIDIA GeForce GTX 1060
14.29%

NVIDIA GeForce GTX 1050 Ti
9.70%

NVIDIA GeForce GTX 1050
5.13%

NVIDIA GeForce GTX 970
3.30%

NVIDIA GeForce GTX 960
4.25%
----------

Primary Display Resolution

1920 x 1080
62.06%


2560 x 1440
3.59%

3840 x 2160
1.32%

Übrigens haben 88% der Steamuser 4 CPU-Kerne oder weniger.
Falls du jetzt ne Umfrage findest wo 35% der Leute einen 8700K haben... :schief:
 
Zuletzt bearbeitet:
Naja das macht doch dann Navi alles wieder weg mit der großen Klappe u 7nm oder??? "Poor Turing" ich höre sie schon verzweifelt rufen

wenn DLSS u Raytracing nächstes Jahr bezahlbar werden für die Massen, und der Spieleindex immer mehr Spiele auflistet, die davon Gebrauch machen

Du hast das sehr gut geschrieben.
Nur genau dann gibts auch den performanten Turingnachfolger und hoffentlich in die Games die integrierten nutzbaren Features.
Das was man bis jetzt damit anstellen kann, ist zu unausgegoren und mit zu heftigen Restriktionen behaftet.
Wirklich Sinn machts definitiv trotzdem erst mit der übernächsten Grafikkartengeneration.
 
Zurück