Navi AMDs Maxwell? Angebliche Eckdaten und Nvidias Reaktion aus anonymer Quelle

Also wie zu erwarten hast du da eine Falschbehauptung aufgestellt:
Beim Spielen benötigt die Gigabyte GeForce GTX 1650 OC und damit eine gewöhnliche GeForce GTX 1650 mit Nvidias Referenzvorgaben 64 Watt. Damit ist die Grafikkarte sehr sparsam und der Messwert zeigt auch, warum es keinen zusätzlichen Stromanschluss gibt.
War mir klar :daumen:
 
Also wie zu erwarten hast du da eine Falschbehauptung aufgestellt:

War mir klar :daumen:

Übertaktung kostet viel Leistungsaufnahme

Die Gigabyte GeForce GTX 1650 Gaming OC ist minimal übertaktet, was aber trotz des unveränderten Powerlimits von 75 Watt bereits viel zusätzliche elektrische Leistung koste: 22 Prozent Mehrverbrauch stehen einem Prozent Leistungsgewinn gegenüber. 78 Watt zieht die Grafikkarte dann, was in der Tag über den 75 Watt, die der PCIe-Slot nur liefern darf, liegt.
Wer die GeForce GTX 1650 manuell übertaktet, erzielt ein ordentliches Leistungsplus, allerdings kostet dies mit 88 Watt dann auch 24 Watt mehr elektrische Leistung. Aber auch so bleibt die Grafikkarte noch unter der 100-Watt-Grenze.

Hast dir auch die Tabelle angeschaut? :ugly:
 

Übertaktung kostet viel Leistungsaufnahme

Die Gigabyte GeForce GTX 1650 Gaming OC ist minimal übertaktet, was aber trotz des unveränderten Powerlimits von 75 Watt bereits viel zusätzliche elektrische Leistung koste: 22 Prozent Mehrverbrauch stehen einem Prozent Leistungsgewinn gegenüber. 78 Watt zieht die Grafikkarte dann, was in der Tag über den 75 Watt, die der PCIe-Slot nur liefern darf, liegt.
Wer die GeForce GTX 1650 manuell übertaktet, erzielt ein ordentliches Leistungsplus, allerdings kostet dies mit 88 Watt dann auch 24 Watt mehr elektrische Leistung. Aber auch so bleibt die Grafikkarte noch unter der 100-Watt-Grenze.

Hast dir auch die Tabelle angeschaut? :ugly:

Und Nvidia Übertakten geht ja auch nur im Rahmen dessen, was Nvidia in den Tools erlaubt.
 
Zum Preisgedöns und GK rund um Nvidia:
Die GTX 770 war so schnell wie die 680 und kostete 250 Tacken weniger.
Die GTX 970 war so schnell wie die GTX 780ti kostete aber 250 Tacken weniger.
Die 1070 war, na wer erräts, auch so schnell wie die GTX 980ti und hatte zusätlich 2GiB Speicher mehr und kostete 250 Tacken weniger

Nvidia hat dies allerdings bei den RTX geändert:
1. Die GTX 1080ti ist schneller als die RTX 2070 und liegt gleich auf mit der RTX 2080
2. Die GTX 1080ti hat 3 GIB mehr Speicher
3. Die GTX 1080ti kostete 150 € mehr als die RTX 2070 und kostet so viel wie die 2080

Das man als neutraler beobachter damit ein Problem hat, ist doch recht Logisch

Ich bin mit meiner GTX 1070 mehr als zufrieden, war es vorher mit der GTX 970 und davor mit der GTX 470.

Aber die RTX Serie ist für den Preis nicht aktraktiv.

Ich bin gespannt auf Navi und auch auf Zen 2. Ich hoffe wirklich das die Gerüchte (die Positiven) sich als richtig bewarheiten.
 
Und selbst da geht bei NV mehr, als bei AMD.
Was ist das also für ein Argument?!

Da hast du offenbar den Teil der Diskussion nicht ganz gelesen.
In den eigenen Tools erlaubt Nvidia eine Übertaktung so weit, dass die PCIe Spezifikationen für einen x16 Slot überschritten wird (bei der Gigabyte 1650 ohne 6 Pin Anschluss).
Es sind allerdings nur 3W - also nicht wirklich ein Risiko für irgendwas.

Du musst mir allerdings noch erklären, wie Nvidia mit ihren Tools mehr Übertaktung erlauben, als AMD.
Oder meinst du generell bei der Steigerung der MHz Zahl?
Das hat aber nichts mit den Tools zu tun, sondern mit den Chips - und ist für die Diskussion vollkommen irrelevant.
 
Es ist immer wieder amüsant zu lesen, wie sich die Leute gegenseitig bashen wer wo jetzt genau besser ist.
Diese ganzen Diskussionen wo die Radeon VII jetzt besser als die 2080 bzw. die 2080 besser als die VII ist, sind sowas von lächerlich für einen Großteil der User.

Es ist einfach so das ein Großteil der Käufer sich keine Grafikkarte für 700 oder auch 1000€ kaufen. Die meisten werden sich eher im mittleren Preissegment aufhalten.
Wehe es kommt jetzt einer und will mir erzählen das 700€ das mittlere Preissegment ist. Ich denke es ist verständlich was ich meine.
Und hier (mittleres Preissegment) ist es definitiv so das AMD gute Alternativen zu den verfügbaren Nvidia Grafikkarten hat.

Ja die verbrauchen mehr Strom, aber es ist auch so das sich diese Mehrkosten durch den günstigeren Preis rechtfertigen lassen.

Ich hatte lange Jahre Nvidia ausschließlich und habe nun eine AMD. Ich war mit beiden in diesem Preissegment sehr zufrieden.
Sollte es so kommen, wie die Gerüchte eben lauten kann dies für einen Großteil der Käufer nur Positiv sein da es den Markt neu belebt.
Nvidia wird dann reagieren müssen um die 2070 weiter verkaufen zu können.....

Das schöne ist wir können uns zurücklehnen und einfach abwarten. Ob ich dann am Schluss eine 2070 kaufe oder das äquivalent von AMD hängt einzig und allein vom besseren Gesamtpaket ab.
 
Was genau darf ich denn unter den Begriff „pipe cleaner“ im Bezug auf Grafikkarten verstehen?

Finde den Weg von AMD dennoch richtig, Geld verdienen mit Highend wird leider nicht funktionieren. S Klasse oder 7er machen die Hersteller auch nicht reich. (Einfach ausgedrückt)

Wäre nur dennoch sehr schön wenn da mal ein „Nvidiakiller“ kommt. Damit würde so einiges an Werbung erzeugt werden welche sicherlich sehr hilft Absatz zu erzeugen, selbst wenn es dann nur die kleineren sind.

Aber die Preise finde ich zurzeit zu gering, zumindest was die Gerüchte angeht.
Die Ausführungen von Igor waren hierbei sehr interessant.
 
Zuletzt bearbeitet:
Was genau darf ich denn unter den Begriff „pipe cleaner“ im Bezug auf Grafikkarten verstehen?

Pipe Cleaner sind im Endeffekt die ersten Chips auf einem neuen Produktionsprozess, mit denen die Besonderheiten und Fehler eines Prozesses ausgelotet werden, um dann bei den nächsten Designs und Iterationen des Chips die gemachten Erfahrungen einfließen zu lassen und eine bessere Ausbeute zu erzielen.
Im Idealfall geht es so weit, dass man auch etwas mehr Performance rausholen kann - Das ist aber eher etwas für die Zukunft, wenn der Prozess weiter verbessert wurde und man da nicht mehr so viele Sicherheiten einbauen muss, wie bei einem komplett neuen Prozess.
 
Jetzt habe ich schon einen Werbeblocker und trotzdem schafft es Werbung immer wieder dazwischen zu funken :-D

...wenn ihr ihn nicht ständig zitieren würdet, würde wenigstens meine Blacklist funktionieren :-).

Ich hoffe sehr, dass die Leistungsregion RTX 2070+ (ohne RTX) durch Navi für rund 350EUR realisiert wird, denn da gehört dieser Leistungsbereich meiner Ansicht und Erfahrung nach auch hin. Wenn Team Grün gerne ihre R&D Ausgaben für RTX gerne refinanzieren möchte, unheimlich gerne, aber ohne mich, da der Gegenwert der Entwicklung einfach JETZT nicht besteht. Auch wenn gerne vergessen wird, dass wir Vorstöße wie den RTX Prototypen und die Idee dahinter in einigen Jahren loben werden, sollten solche Ausgaben nicht in dieser Generation, die keine (oder zu wenig) Praxisrelevanz haben, kapitalisiert werden. Kostenrechnerisch ist da meines Achtens nach ein Fehler passiert, und die Allokation hat irgendwer jetzt schon mit eingepreist (das ist nett für: Wir haben gierige Anleger, die JETZT nen hohen ROI wollen).

Ich bin wie man mit etwas Aufmerksamkeit zwischen den Zeilen erkennen kann, kein Fanboy, für keine Seite, einfach, weil es kindisch und nicht ökonomisch ist, einer zu sein. Meine Hoffnung ist, dass Navi den 2070 + 2080 Preis in die Regionen treibt, in der eine GTX 2070 / 2080 heute sein müsste (wenn es sie denn gäbe!!). Hat AMD genug Marktanteile dafür, selbst wenn sie folgerichtig einpreisen (können), sprich, wie groß ist der Hebel? Gibt es (noch) genug Marktteilnehmer, die den Markt objektiv genug durchdringen und damit eine ökonomische Kaufentscheidung fällen (wollen)? Oder ist aufgrund der Durststrecke der überwiegende Teil der Kundschaft lieber damit zufrieden, laut "Ick hab son NVIDEA Jerät" zu brüllen? BTW: "Ick hab oooch son NVIDEA Jeräät!" Oder anders, zählt Marke mehr als P/L Verhältnis? Die Fragen stelle ich deshalb, selbst WENN Navi so einschlägt wie erhofft, könnte der ökonomische Effekt auf den Preis der Leistungsklasse (ganz egal wie man sie denn jetzt betieteln mag) ausbleiben.
 
Zuletzt bearbeitet:
PP mal wieder...

1) Intel Xe ist erst für 2021 für HPC angekündigt. Consumer Karten wird es davor nicht geben - eher deutlich später.
Anfangs hieß es noch das Xe-dGPUs 2020 erscheinen und zumindest Xe als iGPU bei Tiger Lake hat Intel kürzlich für das Jahr 2020 "bestätigt:
https://images.idgesg.net/images/article/2019/05/2019-05-08-55-100795895-large.jpg

Intel hat Xe als neue Architektur vorgestellt, wo es zwei unterschiedlich optimierte Mikroarchitekturen geben soll, eine soll für Client optimiert sein, die andere für Datacenter.
https://3images.cgames.de/images/gamestar/226/intel-xe-bildquelle-anandtech_6053072.jpg

Zusammen mit der Darstellung könnte es entsprechend sein, dass 2020 Xe für Produkte als iGPU erscheint und als dGPU für Midrange-Angebote:
https://www.pcgamesn.com/wp-content/uploads/2018/12/Intel-Xe-graphics-roadmap.jpg

Datacenter bzw. HPC und Zeug für Enthusiasten würden erst später 2021 erscheinen.

der DSBR wird sicherlich endlich richtig funktionieren

würde auch zu dem passen was du mal gepostet hast
Es gibt keine Anzeichen dafür, dass er nicht richtig funktioniert bzw. davon rede ich auch schon seit Jahren und irgendwie wird immer davon gelabert das XYZ nicht funktioniert, wobei konkrete Hinweise oder Fakten nur bezüglich den Primitive Shadern bestehen, dass diese nicht funktionieren.
Navi is NGG klingt auch eher so, als ob man eigentlich Primitive Shader bzw. Next Generation Geometry meint und nicht den DSBR bzw. als ob der Beitragsersteller sowieso keine Ahnung hat wovon er redet.

Größerer L1$ wäre cool, auch mit niedrigeren Latenzen, Nvidia ist da schon seit längerem eine größere Kapazität und ich meine auch Bandbreite und seit Volta/Turing ist die Kapazität noch ein Stück gewachsen und die Latenzen deutlich niedriger geworden.

Ein L2$ der 3MB groß ist, bei einem 256-Bit-Interface, klingt komisch.
2MB oder 4MB würden traditionell besser passen, weil der L2$ immer pro Memory-Controller partitioniert wird und eine Power-of-Two-Größe (2^n) sich geschickt umsetzen lässt.

410GB/s klingen auch komisch, damit wäre der GDDR6-Speicher minimal geringer, als 13Gbps-Speicher getaktet.

Macht insgesamt keinen vertrauenswürdigen Eindruck.
 
Zurück