Geforce RTX 4000: Lovelace angeblich ohne größere Architektur-Änderungen

Da bin ich mal gespannt! Frage mich jedoch ob die 5nm und Detail-Verbesserungen an der Arch ausreichen um ein 7900XT Monstrum mit 15.360 Shadern (2x 7680 ALU's) und 512MB Infinity Cache (MCD Chiplet) einzufangen (je nachdem wie das letzlich performt oder ob das so kommt). Zusätzlich bin ich gespannt was AMD da in Sachen RT dreht und wie das insgesamt performt.

Werden wir ja bald sehen. :-)
 
Das ist zwar richtig. Aber wen stört es schon wenn seine 450 Watt Karte 10 Watt mehr wegen den Chiplet braucht. Einfach mal abwarten. AMD hat damit immerhin Erfahrung. Vielleicht ist es auch wieder eine Shader Mogel Packung, bzw wird einfach anders gezählt.
Die Shader Mogelpackung im schlechteren Prozess hält dafür aber ganz gut mit, denkst Du nicht? :lol:
 
Lovelace wird ein richtiges Monster und der monolithische Chip wird das MCM Design von AMD beim Verbrauch schlagen.
Wie kommst du anhand der bisher vorliegenden und hier diskutierten Infos drauf? Mit maximaler Effizienz wird Nvidia in etwa den Faktor 2 schaffen bei 450-500W, AMD peilt 2,5 fache Leistung bei 450W an. Ausgehend von einem derzeitigen nahezu PATT sagen die aktuellen Gerüchte jedenfalls was anderes, als das Nivida eindeutig vorne liegen wird.
Immer noch besser als AMD, denn die haben gar nichts getan
Deutlicher kann man seine Abneigung gegen einen Hersteller nicht preisgeben, immer wieder herrlich wie einfach sich manche hier offenbaren!

AMD hat genau so viel oder wenig gegen alles gemacht wie Nvidia. NV hat versucht mittels BIOS und LHR Versionen entgegen zu wirken, AMD hat eine 4GB Version der 6500XT herausgebracht. Erfolg haben letztlich beide nicht (auch wenn die 6500XT wohl mit dem derzeit geringsten UVP Preisaufschlag % glänzen kann, so ist sie für den Gamer hier im Forum viel zu schlecht bestückt. Die 3050 LHR scheint dennoch weg zu gehen wie warme Semmeln und scheinbar gibt es genug Leute die es kaufen, auch für 450 EUR+.
Ich glaube, dass Nvidia da durchaus Interesse hatte, zum einen muss der Kunde nun ja keine Rechenzeit mehr bezahlen, wie noch bei DLSS 1, zum anderen macht man jetzt genau damit den Unterschied und kann trotz günstigerer Fertigung in vielen Anwendungsfällen vorne bleiben.
 
Wie kommst du anhand der bisher vorliegenden und hier diskutierten Infos drauf? Mit maximaler Effizienz wird Nvidia in etwa den Faktor 2 schaffen bei 450-500W, AMD peilt 2,5 fache Leistung bei 450W an. Ausgehend von einem derzeitigen nahezu PATT sagen die aktuellen Gerüchte jedenfalls was anderes, als das Nivida eindeutig vorne liegen wird.
Anpeilen und erreichen sind zwei verschiedene Dinge. AMD kann aktuell auf den besseren Fertigungsprozess zurückgreifen. Das entfällt mit der nächsten Generation und dazu kommt noch der erhöhte Verbrauch durch die MCM Chiplets. Ein monolithischer Chip benötigt weniger Energie.

Deutlicher kann man seine Abneigung gegen einen Hersteller nicht preisgeben, immer wieder herrlich wie einfach sich manche hier offenbaren!
Ironisch, dass du das nur bei meinen Aussagen feststellen kannst, obwohl ich mich bewusst ähnlich wie die hardcore AMD Verfechter in diesem Thread ausgedrückt habe, nur ist dir bei denen die Abneigung irgendwie nicht negativ aufgefallen. ;-)

AMD hat genau so viel oder wenig gegen alles gemacht wie Nvidia. NV hat versucht mittels BIOS und LHR Versionen entgegen zu wirken, AMD hat eine 4GB Version der 6500XT herausgebracht.
Die 6500XT bedient den Low Budget Bereich. Das hat mit dem Mining nichts zutun und solche Karten gab es in der Vergangenheit immer.
 
Zuletzt bearbeitet:
Die 3050 LHR scheint dennoch weg zu gehen wie warme Semmeln und scheinbar gibt es genug Leute die es kaufen, auch für 450 EUR+.
Es ist schon nicht leicht, wenn man jemanden kennt, der gerade eine Grafikkarte sucht. Alles unter der RTX 3060 / RX 6600 XT ist in Relation zu Vorgängern je nach Karte nicht viel schneller. Die 6600 XT ist in Benchmarks oft performanter als die RTX 3060, mit über 600€ aber leider für eine Karte mit 8 GB VRAM, 128 Bit Speicherbus und in vielen Systemen PCIe 3.0 8x ohne SAM einfach zu teuer.

Die 3060 punktet hier mit rBAR bei AMD ab AGESA 1.2.0.0, PCIe 3.0 16x, 12 GB VRAM für Textur-Fetischisten und DLSS. Das ist trotz geringerer Performance gegenüber der 6600 XT einfach ein Punkt. Vielleicht hätte ich mir eine 6600 XT holen sollen - zum Release gab es die Sapphire Pulse für 389€.
Die 3060 selbst ist ein gutes Gesamtpaket, leider sieht man derzeit wieder oft Preise über 700, teils 800€. Da waren die Modelle für teils 500€ im Sommer fast "günstig". Das sieht man auch beim Kaufverhalten: Eine 3060 für 600€ war Sonntag bei Equippr schnell vergriffen - bei einer Karte pro Käufer.

Die Ti-Variante kann man ab verfügbaren 750€ "günstig" nennen, allerdings steht da meiner Meinung nach die 6700 XT mit ihren 12 GB VRAM und 96 MB Cache fast besser da. Leider sind Modelle unter 800€ hier Mangelware, teilweise sieht man da 1000€ trotz Verfügbarkeit. :ugly:

Fazit: Die Leute sehen 800 bis 1000€ für obere Mittelklasse-Modelle, da gehen die Karten bis 600€ weg wie warme Semmeln. Meiner Meinung nach müssten 6600 XT und 6700 XT selbst unter den jetzigen Marktbedingungen mindestens 100 bis 200€ günstiger sein.
 
Zuletzt bearbeitet:
NV hat mit der LHR Sperre und den CMP Karten zumindest versucht den Markt zu separieren. Besser als nichts tun ist das allemal.
Wenn die das ernsthaft gewollt hätten, dann HÄTTEN sie es auch getan !

Man muss sich das ganze nur aus der Sicht des Herstellers betrachten und dann wäre solch eine Entscheidung ganz sicher die falsche gewesen.
Dieser LHR Quatsch war nur zu einem Zweck nützlich, das ihnen keiner ans Bein Pissen kann !
Man braucht sich nur den aktuellen Aktienkurs zu betrachten...

Ich habe schon lange aufgehört solch einem Marketing geblubber glauben zu schenken....
 
Nvidia hat sich dem Problem wenigstens angenommen und zumindest versucht, es zu lösen. AMD hat gar nichts getan, deswegen versteh ich nicht, wieso du Nvidia dafür so abstrafst, dass sie es überhaupt versuchen.
Was hätten sie denn tun sollen?
Nichts ist uncrackbar und egal was Nvidia getan hätte, irgendjemand hätte es ausgehebelt. Selbst wenn sie es Hardwareseitig begrenzt hätten.
nun ja, nvidia hat versucht das eigene image zu schützen. deren bemühungen waren in etwa so wie ein sandkorn in die wüste zu werfen.
hätten die leute nicht so gejammert, denkst du die hätten überhaupt jemanden dazu abgestellt nen alibi versuch zu machen?
selbst LHR karten sind besserer minenarbeiter als die amd pendants.
zu keiner zeit waren amd karten komplett vergriffen, im gegensatz zu nvidia.
warum hätte also amd zum beispiel einen handschlag machen sollen? deren karten liegen teils wie steine im regal. dazu mussten die shops nur die preise um 50-60% anheben.

mal ganz ehrlich: keiner der beiden ist "euer" bester kumpel. wie manche hier ihren lieblingshersteller verteigen, gleicht schon fast religiösem fanatimus.
es sind zwei unternehmen, das scheinen viele zu vergessen.
wenn nvidia mal wieder einen reviewer nicht mehr muster zukommen läßt, weil RT, derer meinung nach, nicht als kaufargument genannt wurde.
oder das 970 debakel.

es geht jedem unternehmen nur um markanteil, somit profit.
deshalb kann man manchem hier echt nur eine sache empfehlen:
kauft was ihr brauch, nicht was ihr glaubt zu brauchen.

ich habe aber 15000 in benchmark xy, du nur 14000. ja dann gg zu den 1-2+ fps.
:lol:
 
Wenn die das ernsthaft gewollt hätten, dann HÄTTEN sie es auch getan !

Man muss sich das ganze nur aus der Sicht des Herstellers betrachten und dann wäre solch eine Entscheidung ganz sicher die falsche gewesen.
Dieser LHR Quatsch war nur zu einem Zweck nützlich, das ihnen keiner ans Bein Pissen kann !
Man braucht sich nur den aktuellen Aktienkurs zu betrachten...

Ich habe schon lange aufgehört solch einem Marketing geblubber glauben zu schenken....
Aber sicher, es wäre ja gar nicht unfassbar vorteilhafter für NV wenn sie RTX + CMP Karten an die jeweilige Käuferschaft verticken könnten.

Manchmal frage ich mich echt was die Leute so denken, als wäre es super einfach eine GPU für Mining komplett zu sperren. Ihr seid bestimmt alle Top-Programmierer und könntet das im Schlaf, gell?

Noch mal: Wenn NV es KÖNNTE, dann WÜRDEN SIE ES TUN. Weil es den Absatzmarkt einfach mal verdoppeln würde. Miner MÜSSTEN dann CMP Karten kaufen, egal was da für Chips drauf sind...
 
HBM kommt ja anscheinend nicht in Frage, Computerbase geht ja gar soweit dies im Desktop kategorisch ausschließen.

Etwas wie IF Cache bzw. L3 Cache und dies auch noch in ausreichender Menge 256MB+ traue ich wiederum Nvidia nicht zu, will es aber nicht komplett ausschließen.
Dann verbleibt eigentlich nur noch GDDR7 das voraussichtlich nicht vor 2023 zur Verfügung stehen wird und damit
dürfte Lovelace wohl deutlich später als RDNA3 auf den Markt kommen.

Um die 18.432 CUDA-Kerne, die Dank TSMC 5nm Prozess auch noch deutlich höher getaktete sind, adäquat zu befeuern. Dürften sogar die 32Gbps des GDDR7 Speichers relativ knapp werden.


Eine Performance Verdoppelung (relativ 3090) soll ja angeblich sehr konservativ sein und man mutmaßt sogar das sie bis 2.2 Mal schneller sein könnte.

RTX 3090 (10496) 19.5Gbps x 2.2 das würde 43Gbps entsprechen und da würden 32Gbps, bei einem ebenfalls 384Bit SI bei weitem nicht ausreichen.

512Bit SI ist anscheinend auch nicht praktikabel.

Entweder Nvidia gelingt da noch ein Geniestreich, oder die GPU wird deutlich langsamer als vermutet ausfallen.

Gut möglich das man die angedachte Leistungsfähigkeit des AD102 leicht überschätzt und es am Ende wohl sehr wahrscheinlich, nur in etwa +60 -80% sein werden.
Da war wohl der Wunsch der Vater hinter dem Gedankens und sie haben bei ihrer Hochrechnung die limitierende Speicherbandbreite nicht miteinbezogen.

Was mich vermuten lässt, das Lovelace (GA102) nicht nur später, sondern auch noch deutlich langsamer als NAVI31 ausfallen wird, bzw. das Nvidia wohl bei der nächsten Generation eine menge Staub schlucken muss und wenn der Anschluss dann komplett abgerissen ist noch nicht einmal das mehr.
 
Zuletzt bearbeitet:
In der Vergangenheit hat Nvidia im Schnitt um ca. 50% zugelegt von Generation zu Generation, mit mehr rechne ich auch diesmal nicht.

Erst recht nicht wenn dieser leak stimmt und es an der Architektur nur Feinschliff gibt, dann müssen diese +50% zum größten Teil über weitere parallele Recheneinheiten und mehr Takt kommen. Und dabei darf der Stromverbrauch nicht weiter steigen, Ampere ist jetzt schon grenzwertig.
 
Wie denn, auf eine Art die Spiele nicht beeinträchtigt und auch nicht ausgehebelt werden kann? Das ist wie bei Kopierschutz-Techniken: Es ist nahezu unmöglich eine gute, sichere Lösung zu bauen, und jede Lösung hat auch Nachteile für die eigentlich gewollte Nutzung.
Okay, du willst mir also weiß machen, dass die sich so eine Alibikacke wie LHR quasi über Nacht aus den Fingern saugen, aber innerhalb von 2-3 Jahren keine Lösung einfallen lassen können, das ins Chipdesign einfließen zu lassen?
Ich meine Mining gibt es ja auch erst seit 2020.

Vielleicht (eine Spekulation meinerseits) war das auch eine Idee hinter dem IF-Cache auf den AMD-Karten, neben dem schmalen/günstigeren SI auf dem Navi-Chip. Hast zwar hohe Bandbreite, aber die Karte wird relativ uninteressant für das Mining, was bei den Preisen der Kryptos auch schon wieder relativiert werden kann. Und das ist der Mallus den AMD meines Erachtens nach bereit war, abzugeben. Dank Coronabedingter Chipkrise/Lieferkettenbeeinträchtigung ist halt auch hier die Verfügbarkeit nicht gegeben/nur wenig gegeben und deswegen sind die Preise auch hier hoch.
 
@Scorpio78 ich stimme dir zu, dass Nvidias Bemühungen nicht sonderlich erfolgreich für uns waren, aber immerhin haben sie es versucht. Was hat AMD denn getan in der Hinsicht? Gar nichts.
Was ist wohl besser, es zumindest versuchen oder gar nichts tun?

Okay, du willst mir also weiß machen, dass die sich so eine Alibikacke wie LHR quasi über Nacht aus den Fingern saugen, aber innerhalb von 2-3 Jahren keine Lösung einfallen lassen können, das ins Chipdesign einfließen zu lassen?
Wie sollen sie das ins Chipdesign einfließen lassen? Das sind einfach nur Berechnungen, die sich von anderen nicht unbedingt unterscheiden müssen und selbst wenn sie das getan hätten, dann hätte irgendjemand an der Platine rumgelötet, bis es funktioniert hätte. Siehe z.B. Shuntmod.
Was willst du daran nicht verstehen, dass es keinen Sicherheitsmechanismus gibt, der nicht umgangen werden kann?

Abgesehen davon werden GPUs nicht innerhalb von ein paar Monaten konzipiert und als der Cryptoboom startete und der Markt so gut wie leergefegt war, war der Ampere-Chip schon lange fertig.

Ich meine Mining gibt es ja auch erst seit 2020.
Vorher war es aber kein Problem, weil das Angebot größer war als die Nachfrage.
 
Zuletzt bearbeitet:
Sei wir mal ehrlich, die Leute die hier täglich bei jeder großen News am lautesten Schreinen, werden sich auch keine LoveLace für viel Geld kaufen. KA was manche denken, aber das Preisniveau von Maxwell oder von mir aus Pascal wird nicht mehr so schnell kommen. Wär jetzt noch ne Pascal Karte hat, der wird entweder einen Notkauf bei Lovelace machen, auch für viel Geld, weil er das Gefühl bekommt, abgehängt zu sein, oder aber wird sich ein anderes Hobby suchen müssen.

Außerdem steht auch im Raum, wenn man 6 Jahre nix am PC gemacht bzw. mit der 1080 Ti gezockt hat. Dann macht es garantiert keinen Sinn, eine LoveLace Karte mit einen 4C/8T 7700k oder Ryzen 1700X mit DDR4 2933 zu paaren.

Also ein kompletter Neukauf steht vermutlich auch an. Und das kostet auch nochmal etwas, allerdings ist AlderLake mit dem 12400f sehr preisgünstig aktuell, und bietet ausreichend Leistung für die nächsten Jahre.

Auf der an der anderen Seite reicht nun die 1080 Ti als ehemalige 4K Karte zum rls, die letzen Jahre war Sie nur noch eine 1440p Karte, und nun ist Sie eine tolle FHD Karte, man kann ja mit einem 1440p Monitor auch in FHD zocken.

So übersteht man vermutlich auch LoveLace und steigt dann beim Nachfolger um.

Muss dann aber einen komplett neuen PC bauen, weil der 7700k dann endgültig nix mehr bringt. ;)

??? Fragliche Theorie
Als ich die 1080Ti gekauft habe konnt ich ja nun auch schon Ryzen Kaufen. Das bedeutet einen Absolut ausreichenden sehr Leistungsfähigen Prozessor nutzen...

Ja er ist definitiv ne FHD Karte für Aktuellste Spiele. Aber wieso kann ich denn nicht Lovelance und RDNA 3 Überspringen? Ich spiele einfach bis dahin nichts neues Fertig- ein Gefühl von abgehängtheit(<-- gibts das^^?) sprüre ich gar nicht. Weil ich ja quasi jede neue Karte auf jedes X-beliebiges Board stecken kann.
Und bei den AAA Titel in Auflösungen ab WQHD wo neue High End GPUs ja nun gut für reichen, sicher auch in 2 Jahren kein Limit mit dem 5800X/3D/5900X/5950X merkem wo ich nicht auch schon jetzt im Limit bin.

Es ist die Frage was ich will. 60+-Gaming geht mit jetzigen HE-CPUs wohl noch ein paar Jahre.
Jemand der High Frames und Max Details sucht hat schon lange ne neue Karte. Und gehört zu den ersten die, die Platform und CPU wechseln.
 
Aber Du bist natürlich einer von 80 Millionen GPU Designern, wie wir ja schon 80 Millionen Trainer und 80 Millionen Virologen haben.
Hab ich nicht behauptet zu sein, oder? Wo steht das?
Oder soll das implizieren, dass Du zu restlichen 3Mio Hohlbratzen ohne Meinung gehörst in diesem Land? Ich denke nicht. Nur wenn man wirklich will, dann setzt man um, und versucht nicht nur als Hersteller.

Aber ich sehe schon, du bist einfach zu clever, was deine Unterstreichung deines Posts durch den Link zeigt. Zumindest mache ich mir mal meine Gedanken. Eine Antwort hast Du also natürlich nicht auf Lager, warum Nvidia so inkompetent ist, und nicht mal ansatzweise "vernünftig" versucht, Mining zu unterbinden. Nur Anfeindung und natürlich in gewisser Weise Beleidigungen. Damit kann man die Diskussion natürlich gleich abwürgen. Streicht natürlich deine Sozialkompetenz sehr schön heraus.

Glaub mir, wer glaubt der Schlauste im Raum zu sein, ist es meist nicht. Du hast gut Dunning Kruger Effekt par excellence vorgeführt. Danke.
 
Zuletzt bearbeitet:
??? Fragliche Theorie
Als ich die 1080Ti gekauft habe konnt ich ja nun auch schon Ryzen Kaufen. Das bedeutet einen Absolut ausreichenden sehr Leistungsfähigen Prozessor nutzen...

Ja er ist definitiv ne FHD Karte für Aktuellste Spiele. Aber wieso kann ich denn nicht Lovelance und RDNA 3 Überspringen? Ich spiele einfach bis dahin nichts neues Fertig- ein Gefühl von abgehängtheit(<-- gibts das^^?) sprüre ich gar nicht. Weil ich ja quasi jede neue Karte auf jedes X-beliebiges Board stecken kann.
Und bei den AAA Titel in Auflösungen ab WQHD wo neue High End GPUs ja nun gut für reichen, sicher auch in 2 Jahren kein Limit mit dem 5800X/3D/5900X/5950X merkem wo ich nicht auch schon jetzt im Limit bin.

Es ist die Frage was ich will. 60+-Gaming geht mit jetzigen HE-CPUs wohl noch ein paar Jahre.
Jemand der High Frames und Max Details sucht hat schon lange ne neue Karte. Und gehört zu den ersten die, die Platform und CPU wechseln.
Ähmm ich sprach ja auch nicht von einem Zen 3 Prozessor. Sondern von den Aufrüstverweigern bzw. die Meckerern über die GPU Preise seit 2018.

Wer seit 2016 und dem rls von Pascal und dem Kauf einer 10er Karte seit mittlerweile 6 Jahre nix in seine PC investieret hat, wird auch mit einer neuen LoveLace Karte und einer CPU Konfiguration aus 2016/2015 sprich 6700k, 7700k oder Ryzen 1 garantiert nicht glücklich werden ab einer 4060 und aufwärts. Ganz einfach, weil mit so einer Konfig hoffnungslos CPU Limitiert ist, da steht leider ein Kompletter PC Neukauf an. Und das wird dann natürlich nochmal immens teurer. Als für eine Person die auf einen Zen 2, Zen 3 oder gar AlderLake die letzen Jahre gewechselt ist.

Vlt. ist es jetzt klar was ich meinte.
 
Ähmm ich sprach ja auch nicht von einem Zen 3 Prozessor. Sondern von den Aufrüstverweigern bzw. die Meckerern über die GPU Preise seit 2018.

Wer seit 2016 und dem rls von Pascal und dem Kauf einer 10er Karte seit mittlerweile 6 Jahre nix in seine PC investieret hat, wird auch mit einer neuen LoveLace Karte und einer CPU Konfiguration aus 2016/2015 sprich 6700k, 7700k oder Ryzen 1 garantiert nicht glücklich werden ab einer 4060 und aufwärts. Ganz einfach, weil mit so einer Konfig hoffnungslos CPU Limitiert ist, da steht leider ein Kompletter PC Neukauf an. Und das wird dann natürlich nochmal immens teurer. Als für eine Person die auf einen Zen 2, Zen 3 oder gar AlderLake die letzen Jahre gewechselt ist.

Vlt. ist es jetzt klar was ich meinte.
Naja.. ich bezog mich darauf;
Wer einen Ryzen 1000 hat kann immernoch Ryzen 3000 Nutzen vielleicht sogar 5000. Aber wahrscheinlich habe ich deine Aussage zu wörtlich genommen;)
Außerdem steht auch im Raum, wenn man 6 Jahre nix am PC gemacht bzw. mit der 1080 Ti gezockt hat. Dann macht es garantiert keinen Sinn, eine LoveLace Karte mit einen 4C/8T 7700k oder Ryzen 1700X mit DDR4 2933 zu paaren.
 
Zurück