Nvidia Geforce RTX 2060: Spezifikationen in Benchmark-Datenbank, Gigabyte-Custom-Design & GPU-Z

AW: Nvidia Geforce RTX 2060: Spezifikationen in Benchmark-Datenbank, Gigabyte-Custom-Design & GPU-Z

Ich glaube eher das da eher gemeint ist das nur die Grafikkarte belastet wird. Eine 2070 verbraucht nie im Leben über 300 Watt


Gesendet von iPhone mit Tapatalk
 
AW: Nvidia Geforce RTX 2060: Spezifikationen in Benchmark-Datenbank, Gigabyte-Custom-Design & GPU-Z

Ich glaube eher das da eher gemeint ist das nur die Grafikkarte belastet wird. Eine 2070 verbraucht nie im Leben über 300 Watt


Gesendet von iPhone mit Tapatalk

Das ist ein Fehler, das ist Gesamtsystem sieht man auch im Vergleich zur Seite 5.
Liegt meine V56 gar net übel im rennen :)
Screenshot (405).jpg
 
AW: Nvidia Geforce RTX 2060: Spezifikationen in Benchmark-Datenbank, Gigabyte-Custom-Design & GPU-Z

Das ist ein Fehler, das ist Gesamtsystem sieht man auch im Vergleich zur Seite 5.
Liegt meine V56 gar net übel im rennen :)
Anhang anzeigen 1023110

Die Werte sind schon existent, ich hätte ja erwartet das Mister selbsternannter Grafikkartenexperte nicht nur plappert, sondern mal was sinnvolles liefert.:ugly:

Warum? Eine 2070 hat ein Default-/Enforced- Powerlimit von 175w, min Power Limit von 125w und max Power Limit von 200W. Die Peak Power liegt bei unter 0.95V tatsächlich bei über 300W. Einzig die PEG Utilization liegt mit 70,4W unter 5,5A, was man von einigen 2080 nicht sagen kann. Aber das weiss er nicht. Er faselt lieber von Powerlimit im allgemeinen und verwechselt es mit der vom Partner angegebenen TDP. Daher=gähn.;)

Zudem sieht man das Vega gar nicht so schlecht aussieht, wenn es um klassiche Rasterization geht. Morgen sehen wir dann weiter. Also kann man sehr wohl eine 1070ti/1080 und Vega mit der 2070 vergleichen. Dieses Geblubber sie würde sogar eine 1080ti schlagen ist doch nur ein schlechter Witz.

Schön zu sehen ist übrigens unter BF V wie die Framerate einiger B Dies auf 59fps droopt. Ich wählte extra einen DX11 Benchmark. Vega schön bei über 70fps in WQHD. CPU Treiberlimit unter DX11 verschwunden, oder Optimierung durch den Entwickler?

Die Werte von HWL sind also nicht gänzlich falsch.:)
 
Zuletzt bearbeitet:
AW: Nvidia Geforce RTX 2060: Spezifikationen in Benchmark-Datenbank, Gigabyte-Custom-Design & GPU-Z

War das nicht eigentlich ein RTX 2060 thread? Die neue Karte wird ja nicht grad oft mehr erwähnt, seit man sich am Anfang noch über die Vram Menge beschwert hat. Ich gedenke mir demnächst einen Mini Gaming PC zu bauen. Da könnte ich mir gut vorstellen eine RTX 2060 einzubauen. Ev sogar ne Founders Edition, weil sie so schön klein ist falls es sie dann gibt. :nicken:
Was meint ihr dazu?

Kommt auf die Power an aber wenn die Daten grob stimmen wäre das eine sehr gute Karte für kleine PC's da stromsparend und ausreichend schnell für 1080p-1440p. Hoffe wirklich auf 8GB Ram für max. 320€. Das wäre schon eine tolle Karte für die breite Masse inkl. DLSS Raytracing und co für zukünftige Anwendungen.
Ich bin auf den Stromverbrauch gespannt und hoffe auf ~120W.
 
AW: Nvidia Geforce RTX 2060: Spezifikationen in Benchmark-Datenbank, Gigabyte-Custom-Design & GPU-Z

Ich glaube eher das da eher gemeint ist das nur die Grafikkarte belastet wird. Eine 2070 verbraucht nie im Leben über 300 Watt
Korrekt. Wäre auch jedem klar, der a) über etwas mehr Sachverstand als der gemeine ComputerBild-Leser verfügt und b) nicht Trollen will.

Nein, selbstverständlich braucht die RTX2070 - auch bei HWL - NICHT 300W. Sondern nur das GESAMTSYSTEM. Steht auch dick und fett in der Grafik auf Seite 5. Für die ganz Dummen sogar noch im Text:
HWL Test Seite 5 schrieb:
Unser Gesamtsystem genehmigt sich im Leerlauf 73,4 W und liegt damit exakt auf dem Niveau vergleichbarer Modelle. Im Spielebetrieb steigt der Energiehunger auf knapp unter 285 W an, was teilweise 10 bis 30 W unter den höher getakteten Konkurrenz-Modellen mit Triple-Slot-Kühler liegt. Im Vergleich zur GeForce GTX 1080 Ti oder GeForce GTX 1080 ist sie sparsamer.
Also - Gesamtsystem 285W, mit Graka-OC 303W. Natürlich braucht die RTX2070 die 300W nicht alleine.

Wer nicht Trollen will, dem ist das klar. Wer nur ein Troll ist - tja, der blamiert sich eben mit solchen Aussagen, dass HWL die Leistungsaufnahme der Karte selbst angibt :ugly:

:lol:

Witzig wie extrem da jemand angepisst ist, weil PCGH seinen 1070Ti-Vergleich heute komplett zerstört hat :daumen:

Die Werte von HWL sind also nicht gänzlich falsch.:)
Die Werte sind wahrscheinlich sogar richtig. Du hast sie nur entweder nicht gelesen, nicht verstanden oder hier schlicht falsch wiedergegeben.

Egal wir rum: Auch die besten Werte können nichts dafür, wenn sie von Trollen zum Trollen genutzt werden.
 
Zuletzt bearbeitet:
AW: Nvidia Geforce RTX 2060: Spezifikationen in Benchmark-Datenbank, Gigabyte-Custom-Design & GPU-Z

Klein aber fein: Die ZOTAC GAMING GeForce RTX 2070 Mini OC Edition im Test - Hardwareluxx


Ja du liest richtig 303W OC, nur die Karte. Da man eine V64 gut mit der 1070ti/1080 vergleichen konnte usw. ...:ugly:




Wo in deinem verlinktem Test ( Liste Stromverbrauch) von Hardwareluxx braucht nur die RTX 2070 Mini alleine schon ca. 300 Watt ?!

Oben drüber steht für jeden der den link anklickt, gut leserlich Gesamtsystem !

:rollen::nene:
 
AW: Nvidia Geforce RTX 2060: Spezifikationen in Benchmark-Datenbank, Gigabyte-Custom-Design & GPU-Z

Screenshot_2018-12-13-07-43-23.png

Hat eine Sekunde gedauert. Er hat dir sogar geschrieben wo.
 
AW: Nvidia Geforce RTX 2060: Spezifikationen in Benchmark-Datenbank, Gigabyte-Custom-Design & GPU-Z

Wow ist diese Grafikkarte stromhunrig. Wie gut das ich mit sparsamen Grafikkarten auskommen kann.
 
AW: Nvidia Geforce RTX 2060: Spezifikationen in Benchmark-Datenbank, Gigabyte-Custom-Design & GPU-Z

Hat eine Sekunde gedauert. Er hat dir sogar geschrieben wo.
Die Aussage "nur Grafikkarte" bezieht sich nicht auf die Leistungsaufnahme, sondern auf das OCing.

Sieht man auch daran, dass der Wert in deiner Grafik (ohne OC) - 283,5W - exakt dem entspricht, der auf Seite 5 unter "Leistungsaufnahme Gesamtsystem" angegeben ist:
HWL - Seite 5.png
Und im Zugehörigen Text - hatte ich schon lange zitiert - wird das auch nochmal bestätigt.

Eigentlich sollte jedem klar, dass eine RTX2070 KEINE 300W an Leistung sich genehmigt. Wer natürlich nur Trollen will, dem sind solche bekannten Fakten schlicht egal.

Übrigens hätte man sich auch mal die Messmethoide von Hardwareluxx durchlesen können:
Die Messungen der Leistungsaufnahme erfolgen mit einem ELV Energie Master Basic. Wir messen die Leistungsaufnahme des Gesamtsystems.
So testet Hardwareluxx die Grafikkarten - Hardwareluxx

Hier noch ein Bild des Messgerätes:
130412_F02_GeEnergyMast.jpg
Nun, große Experten olletsag, Johnjoggo32 und Gurdi: Ihr zeigt dann mal kurz, wie man mit diesem Messgerät die Grafikkarten-Leistungsaufnahme misst, ok? :daumen:

Können wir den lächerlich Trollversuch von olletsag jetzt einfach mal abhaken? Er hatte keine Ahnung, hat nicht nachgedacht und Mist erzählt. Und nun erzählt er noch mehr Mist, um den ersten Mist zu überdecken. Kennen wir so von kleinen Kindern. Damit muss man aber keinen ganzen Threads schreddern.
 
AW: Nvidia Geforce RTX 2060: Spezifikationen in Benchmark-Datenbank, Gigabyte-Custom-Design & GPU-Z

Die Aussage "nur Grafikkarte" bezieht sich nicht auf die Leistungsaufnahme, sondern auf das OCing.

Darum gings nicht. Er hat gefragt wo er das hernimmt. Da. Dass sich das auf's Gesamtsys bezieht haben meine Vorposter ausreichend besprochen also les das und geh mir nicht auf die Nerven.

Es war ne einfache Frage, das war ne einfache Antwort.

Mir ist der Teil der Diskussion relativ egal nachdem ich (wie bereits erwähnt) die 2070 als ne passable Karte anseh also geh wem anders aufn' Zeiger.

Ich hab die Behauptung weder aufgestellt noch bestätigt.
 
AW: Nvidia Geforce RTX 2060: Spezifikationen in Benchmark-Datenbank, Gigabyte-Custom-Design & GPU-Z

Können wir den lächerlich Trollversuch von olletsag jetzt einfach mal abhaken? Er hatte keine Ahnung, hat nicht nachgedacht und Mist erzählt. Und nun erzählt er noch mehr Mist, um den ersten Mist zu überdecken. Kennen wir so von kleinen Kindern. Damit muss man aber keinen ganzen Threads schreddern.

Gurdi, olletsag und johnjoggo sind doch das AMD Pendant zu scully, was erwartest du?
Ich warte nur auf die ersten Effizienzwundermeldungen der Vega vs. RTX 2070.
Vega bringst doch locker auf das Effizienz Niveau. :D
 
AW: Nvidia Geforce RTX 2060: Spezifikationen in Benchmark-Datenbank, Gigabyte-Custom-Design & GPU-Z

Gurdi, olletsag und johnjoggo sind doch das AMD Pendant zu scully, was erwartest du?
Ich warte nur auf die ersten Effizienzwundermeldungen der Vega vs. RTX 2070.
Vega bringst doch locker auf das Effizienz Niveau. :D

Wann hab ich jemals behauptet Vega wäre effizient, überragend oder sonst was?

Im Gegensatz zu dir erwäge ich die Karten halt. Aber bei gleichem Preis von einer Vega zu einer 1080 hab ich der 1080 den Vorzug gegeben wenn kein Freesync da war. Bei 1070/ti und Vega 56 genauso. (Übrigens erst vor kurzem)

Bei einem Budget von ca. 500€ wäre es im Moment ne 2070. Bei 450 halt ne Vega.

Was ist eigentlich falsch mit dir?

Ich find Vega halt im gegensatz zu dir ok. Nicht großartig, nicht ******* sondern ok.

Du stellst dich sonst immer so toll hin und mimimist irgendwas von du bist neutral und ich mach Herstellermimimi. Im Gegensatz zu dir geh ich halt nach Preisregion und lehne Karten nicht unbegründet ab. (Ungeklärte Probleme während die 1080 noch verfügbar war sind übrigens ein Ablehngrund)

Nachdem ich aber beides gerne empfehle und auch regelmäßig gegen AMD schieße ist deine Aussage einfach völlig hirnrissig.
 
AW: Nvidia Geforce RTX 2060: Spezifikationen in Benchmark-Datenbank, Gigabyte-Custom-Design & GPU-Z

Wir haben doch schon alle geschrieben das es sich dabei ums Gesamtsystem handelt du Troll. Du rennst einem Phantom hinterher.
Ja du liest richtig 303W OC, nur die Karte.
Ihr solltet vielleicht mal eurem Markenkollegen einfangen, bevor er sich weiter mit solchen Aussagen blamiert :daumen:

Darum gings nicht. Er hat gefragt wo er das hernimmt. Da.
Warum auch immer man falsche Fakten wiederholt, statt sofort zu sagen, dass olletsag schlicht nicht verstanden hat, was er da verlinkt hat. Wäre der Forenhygenie sehr zuträglich.

Bei einem Budget von ca. 500€ wäre es im Moment ne 2070. Bei 450 halt ne Vega.
Warum willst du dein Geld mit einer Vega verplempern?

Die Karte ist deutlich langsamer, als eine 2070, nimmt deutlich mehr Leistung auf, unterstützt kein DXR - dafür will man im fast Jahr 2019 noch fast 500€ hinlegen? Nur mit der dicken Markenbrille.
 
Zuletzt bearbeitet:
AW: Nvidia Geforce RTX 2060: Spezifikationen in Benchmark-Datenbank, Gigabyte-Custom-Design & GPU-Z

Warum auch immer man falsche Fakten wiederholt, statt sofort zu sagen, dass olletsag schlicht nicht verstanden hat, was er da verlinkt hat. Wäre der Forenhygenie sehr zuträglich.

Bin ich ein Papagei? Les die vorherigen Posts, ich hab ihm nur gezeigt wo die Annahme herkommt.

Warum willst du dein Geld mit einer Vega verplempern?

Die Karte ist deutlich langsamer, als eine 2070, nimmt deutlich mehr Leistung auf, unterstützt kein DXR - dafür will man im fast Jahr 2019 noch fast 500€ hinlegen? Nur mit der dicken Markenbrille.

DXR auf der 2070 ist mir nicht schnell genug, daher interessierts mich nicht. Ich kauf keine 500€ Karte für 1080p in BF5. Für mehr bräuchte ich ne 2080 und die ist mir einfach nur zu teuer. Wenn mal mehr Spiele da sind reden wir weiter. Mir ist es den Aufpreis einfach nicht Wert im Moment. Und zu ner Vega 64 LC ist das irgendwie ein Sidegrade. (http://www.pcgameshardware.de/Grafi...Rangliste-GPU-Grafikchip-Benchmark-1174201/2/ - das ist nicht "deutlich schneller") Da warte ich lieber auf ne ausgereiftere Iteration die rauskommt wenn DXR mal etwas verbreitet ist. (Und ja es sind Spiele angekündigt, aber wann die kommen und wie gut die werden bleibt offen). BFV hat's nach dem Patch ganz gut hinbekommen, aber erstmal schauen. Das sind die Gründe warum ICH MIR keine kaufe. Alle zusammen in Kombination. Von ner Vwga LC wegen 10% 500€ auszugeben ist reines Geldverbrennen)

So zu Vega. Wenn jemand 450€ Budget hat, Vega dür 440 im Mindstar ist und du ihm ne 489€ 2070 empfiehlst beweißt das nur eins.
Du kannst kein Mathe.

Und lesen kanbst du offenbar auch nicht. Bei 500€ Budget empfehle ich ne 2070. Hab ich grad Schaffe an den Kopf geworfen. Aber würdest du fas lesen könntest du ja nicht trollen oder mir weiter auf die Nerven gehen, oder?
 
Zuletzt bearbeitet von einem Moderator:
AW: Nvidia Geforce RTX 2060: Spezifikationen in Benchmark-Datenbank, Gigabyte-Custom-Design & GPU-Z

Bin ich ein Papagei? Les die vorherigen Posts, ich hab ihm nur gezeigt wo die Annahme herkommt.
Man sollte falschen Aussagen widersprechen und nicht noch "belegen".

So zu Vega. Wenn jemand 450€ Budget hat, Vega dür 440 im Mindstar ist und du ihm ne 489€ 2070 empfiehlst beweißt das nur eins.
Du kannst kein Mathe.
Eigentlich male ich äußerst selten etwas weiß an :D

Bewiesen wäre aber, dass du kein Deutsch kannst. Und deine Empfehlung auf ziemlich merkwürdigen Anforderungen beruhen. Wenn jemand nur 450€ hat, sollte man ihm empfehlen noch die 39€ für die 2070 zu sparen. Einfach weil er die bessere und zukunftsfähigere Karte erhält. Das wäre in diesem Falle die beste Empfehlung. Vega geht nur mit einem massiven AMD-Bias.
 
AW: Nvidia Geforce RTX 2060: Spezifikationen in Benchmark-Datenbank, Gigabyte-Custom-Design & GPU-Z

Man sollte falschen Aussagen widersprechen und nicht noch "belegen".

Ich belege die Aussage nicht. Ich sag ihm wo sie herkommt. Wie gesagt. Ich bin kein Papagei.

Eigentlich male ich äußerst selten etwas weiß an ;D

Bewiesen wäre aber, dass du kein Deutsch kannst. Und deine Empfehlung auf ziemlich merkwürdigen Anforderungen beruhen. Wenn jemand nur 450€ hat, sollte man ihm empfehlen noch die 39€ für die 2070 zu sparen. Einfach weil er die bessere und zukunftsfähigere Karte erhält. Das wäre in diesem Falle die beste Empfehlung. Vega geht nur mit einem massiven AMD-Bias.

Weißt du. Es gibt Leute die WOLLEN x ausgeben. Denen muss ich nicht sagen das Budget zu erhöhen weil sie es offensichtlich nicht wollen.

Ich sag dir was Bias ist. Eine Karte aus Prinzip nicht zu empfehlen.

Jemandem der bei gleichem Preisen die 1070/ti einer Vega vorzieht und das gleiche mit den Nvidia Karten bis zur 2070 sollten sie genauso viel kosten wie eine Vega 64 macht vorzuwerfen er wäre ein Fanboy ist einfach ziemlich dumm. Aber naja, du denkst ja auch ein 4K Monitor wäre ein Fehlkauf nur weil er Freesync hat.

Und ja, beim Handytippen schleichen sich Fehler ein. Passiert.

Zum Glück ist meine Rechtschreibung nicht die Grundlage meiner Argumentation.
 
AW: Nvidia Geforce RTX 2060: Spezifikationen in Benchmark-Datenbank, Gigabyte-Custom-Design & GPU-Z

Ich belege die Aussage nicht. Ich sag ihm wo sie herkommt. Wie gesagt. Ich bin kein Papagei.
Und das kritisiere ich. Weil es der falsche Umgang ist.

Weißt du. Es gibt Leute die WOLLEN x ausgeben. Denen muss ich nicht sagen das Budget zu erhöhen weil sie es offensichtlich nicht wollen.
Dann sollte man diesen Leuten empfehlen, zu warten, bis eine RTX2070 für 450 zu bekommen ist.

Eine Vega zu empfehlen ist einfach eine schlechte Empfehlung. Das P/L-Verhältnis ist einfach zu schlecht.

Aber naja, du denkst ja auch ein 4K Monitor wäre ein Fehlkauf nur weil er Freesync hat.
:) Aber du bist offensichtlich nicht in der Lage Deutsch zu verstehen. Aber das hattest du ja schon "bewießen" :ugly:
 
AW: Nvidia Geforce RTX 2060: Spezifikationen in Benchmark-Datenbank, Gigabyte-Custom-Design & GPU-Z

Niemand neutrales würde eine Option perse ablehnen.

Für Vega spricht nichts ausser Freesync.
Und selbst mit, würde man die 10 bis 15% mehr FPS einer 2070 auch als Argument zählen.
Aber dass du Grundsätzlich nicht neutral bist wissen wir schon länger. Was das NT angeht, ich weiß ja nicht was du für Netzteile kaufst, aber die meißten leute die ich kenne verbauen Netzteile die ne Vega stemmen können und die Vega-Arch ist auch für moderne Titel nicht schlecht.

Doch, ich bemühemich neutral zu sein und unke wenigstens nicht so verbissen gegenüber neuer Technik.
Eine Vega zieht 140 Watt mehr als eine RTX 2070, da willst du behaupten, man kaufe sowieso ein größeres Netzteil?
Weil man ja das Budget verplempert?
Strom kostet was, ob dus glaubst oder nicht und da ist das PLV einer Vega ist eben nicht besser.

Da sparst du vielleicht effektiv 25Euro.
Applaus.
Aber das Konzept von festem Budget ist dir kein Begriff.

Doch, aber nicht wegen ein paar Almosen eine veraltete Karte zu empfehlen.
 
AW: Nvidia Geforce RTX 2060: Spezifikationen in Benchmark-Datenbank, Gigabyte-Custom-Design & GPU-Z

Genau einfach sparen bis man das passend Geld für das bessere Produkt zusammen hat.

Und diese ganzen freesync vs gesync. Das ist mir sowas von egal. Ich habe ein Bildschirm nicht danach gekauft. Ich gebe zu das ich ein freesync habe aber ich betreibe es mit einer nvidia Grafikkarte. Bei ausreichend fps bringen diese Futures nur sehr wenig. Denn an die hertzt Zahl werden sie ja dennoch gebunden. Hatte mal laptop mit gsncy und Grafikkarte gehabt. Die fps wurden immer nur limitiert und mehr hertz konnte ich ja auch irgendwie nicht einstellen. Echt schade das ganze.
 
Zurück