G
Gast20190402
Guest
Vielleicht liegt es ja an solch undifferenzierten Hype Kommentaren wie deinen, wieso PCGH eine News verfasst.
Erst mal muss an die Karte testen, bevor man die Lorbeeren verteilt.
Absolut korrekt. Danke
Vielleicht liegt es ja an solch undifferenzierten Hype Kommentaren wie deinen, wieso PCGH eine News verfasst.
Erst mal muss an die Karte testen, bevor man die Lorbeeren verteilt.
Gib ma bitte jemand Link zum Hype, ich find ihn irgendwie nicht.
Sie ist wohl irgendwo genauso schnell wie ein undervoltetes V56 Crossfire bei halbem Verbrauch (500W versus 250-300w).
Erst mal muss an die Karte testen, bevor man die Lorbeeren verteilt.
Gerade einmal EIN Redakteur spricht den Stromverbrauch an. Das ist in Zeiten der Klimaerwärmung fast schon ein Armutszeugnis...
Gerade einmal EIN Redakteur spricht den Stromverbrauch an. Das ist in Zeiten der Klimaerwärmung fast schon ein Armutszeugnis. Die Radeon VII ist eine Notlösung und Nischenprodukt um im Gespräch zu bleiben. Weder der auf 16GB gewachsene VRAM (nett aber wer achtet bei einem Heizkörper auf Zukunftsfähigkeit? Die angesprochene Käuferklasse dieses Produkts tauscht die Karte zum Großteil bei Erscheinen einer besseren Alternative) noch die kolportierte RTX2080 Leistung sind es wirklich wert der Karte Beachtung zu schenken.
Hier hat kein Mensch Lobeeren verteilt
Hier hat kein Mensch Lobeeren verteiltaber ein haufen "Anderer" haben wild drauf eingeschlagen.
und was sie kann (mal schneller mal langsamer als eine 2080).
Den negativen Hype betreiben andere, weil in ihren Kopf kaum was passt als grüne Farbe.
Es wird halt sehr schwer sein die perfekte Referenzkarte zu übertreffen. Radeon VII wird einschlagen wie einen Bombe, die erste Karte die bereits für die zukünftigen Konsolenportierungen bereit ist, dank 16GB Highspeed HBM2 VRAM.
比屋定さんの戯れ言@Komachi auf Twitter: "そろそろレビュワーには、RADEON Ⅶが届きそうですね。"
Reviews bereits kommende Woche, wenn die Prognosen alles so stimmen, geht Nvidia pleite.
Die 2080 ist unter Ultrapreset 35% langsamer als eine 2080ti und 6% schneller als eine 1080ti (Auflösungen und Spiele kumuliert), wobei die Vega64 Air 38% langsamer ist als eine 2080 und ihr unter UHD hier oder da wegen Vulkan/DX12 Spiele auch mal liegen. Da weiss man doch wo die Karte herauskommt?
Es gibt keinen Hype und das ist auch richtig so.
Gerade einmal EIN Redakteur spricht den Stromverbrauch an. Das ist in Zeiten der Klimaerwärmung fast schon ein Armutszeugnis. Die Radeon VII ist eine Notlösung und Nischenprodukt um im Gespräch zu bleiben. Weder der auf 16GB gewachsene VRAM (nett aber wer achtet bei einem Heizkörper auf Zukunftsfähigkeit? Die angesprochene Käuferklasse dieses Produkts tauscht die Karte zum Großteil bei Erscheinen einer besseren Alternative) noch die kolportierte RTX2080 Leistung sind es wirklich wert der Karte Beachtung zu schenken.
~50W mehr Verbrauch ebnen den Weg für die Klimaerwärmung?
Jeder, wirklich jeder hat im Haushalt so einige Geräte welche um ein Vielfaches mehr an Strom verbrauchen als der PC.
Dem Endverbraucher den schwarzen Peter unterzujubeln und daraus ein Kontra-Argument zu AMD abzuleiten ist in meinen Augen ziemlich weit hergeholt.
Sie hat gesagt sie kann ab und zu mit der 2080 mithalten.
Damit bleibt man etwa 5% hinter der 1080 Ti und gut 10% hinter der 2080 bei CB.
Im Durchschnitt aller Reviews (3D Center) oder PCGH Leistungsindex wirds noch ein bisschen schlechter aussehen, zumal die Radeon Seven unter 4K keine 1700Mhz halten wird, sondern eher auf ~1650 abfällt.
Siehe hint von Raff.
Nvidia GeForce RTX 2070 im Test (Seite 3) - ComputerBase
Joa, ich hoffe du fährst immerhin schon kein Auto... Da du ja scheinbar Zugang zum Internet hast kann man auch nicht davon ausgehen dass du 100% Grün im Wald lebst.
Was heißt da 50 Watt? Jetzt untertreibst du aber.
300 Watt vs 225/215 Watt TDP, sind keine 50 Watt, sondern 85/75 Watt und das nicht mal bei selber Geschwindigkeit.
Der PC ist in meinem Haushalt Hauptkostentreiber (Server, Desktop).
Es geht auch um Abwärme und Kühlbarkeit.
Was waren die Threads des 9900K voll mit Beschwerden über seinen Stromverbrauch, obwohl es da in der Praxis (Gaming) gerade mal 20 bis 30 Watt gegenüber dem 2700X sind.
Nein, hier wird ganz glasklar wieder mit zweierlei Maß gemessen. Stromverbrauch gehört klar kritisiert.
Eine 300 Watt GPU ist kein Zuckerschlecken, schon gar nicht wenn die Konkurrenz mit 225/215 Watt mehr Leistung liefert.
Wieviel Endvebraucher gibt es denn auf der Welt? 8 Milliarden.