News Geforce RTX 3070 Ti: Angeblicher Prototyp mit 16 Gigabyte aufgetaucht

@Khaos-Thanathan : Ja stimmt, die Pixelmenge erhöht sich lediglich um das Verhältnis 16:9 von 1080p hin zu 1440p. Von 1080p zu 4K beträgt der Unterschied schon 36:9 also Faktor 4. Damit ähneln sich 1080p und 1440p von den Anforderungen her mehr als 1440p zu 4K. Das wäre Faktor 2,25.

Klar kann die 4070 Ti sehr gut auch 1440p. Bezüglich false advertisement achte ich da drauf und erwähne meine 1080p Auflösung wenn dann nur am Rande oder wenn es wichtig ist, bei Benchmarks. Wie schon mal erwähnt, vielleicht unterschätze ich das Speicherproblem auch. :P

Auch mit einer in meinem Fall überdimensionierten 4070 Ti werde ich glücklich. Laste ich sie gar nicht aus mit einer Anwendung, kriegt sie eben noch etwas ganz anderes zu tun. Für mich ist sie kompromisslos genug.
 
Auch mit einer in meinem Fall überdimensionierten 4070 Ti werde ich glücklich. Laste ich sie gar nicht aus mit einer Anwendung, kriegt sie eben noch etwas ganz anderes zu tun. Für mich ist sie kompromisslos genug.
Deine Bescheidenheit in allen Ehren, aber der Großteil der Leute, die eine 4070Ti kaufen wird, wird das sicherlich anders sehen. Eine Ti soll immerhin die Premium-Variante des jeweiligen Pendants darstellen. Wenn die WQHD-Premiumkarte dann auf einmal keine hohen Einstellungen mehr schafft, weil beim VRAM gegeizt wurde, wird das nicht gerade für Begeisterung sorgen. Sicherlich wird man Testberichte abwarten müssen, aber sonderlich berauschend sieht es zumindest vorab - gerade bei dem Preis - mit der 4070Ti nicht aus (...und Jensen wollte das zunächst als "kleine" 4080 verkaufen...).
 
Deine Bescheidenheit in allen Ehren, aber der Großteil der Leute, die eine 4070Ti kaufen wird, wird das sicherlich anders sehen. Eine Ti soll immerhin die Premium-Variante des jeweiligen Pendants darstellen. Wenn die WQHD-Premiumkarte dann auf einmal keine hohen Einstellungen mehr schafft, weil beim VRAM gegeizt wurde, wird das nicht gerade für Begeisterung sorgen. Sicherlich wird man Testberichte abwarten müssen, aber sonderlich berauschend sieht es zumindest vorab - gerade bei dem Preis - mit der 4070Ti nicht aus (...und Jensen wollte das zunächst als "kleine" 4080 verkaufen...).
Sie hätte auch 4090 Ti heißen können oder 4120 Ti, das spielt keine Rolle. Das hängt auch von der Reaktion des Marktes ab und was der jeweilige Herstellungsprozess (der Node, die Fertigungsstruktur) hergibt. Ich habe keine genaue Vorstellung davon, was es bedeutet die Premium-Variante des jeweiligen Pendants darzustellen: Damit ist kein konkretes Anwendungsszenario verbunden für mich will ich damit sagen.

Die Abstufung wäre in etwa wie bei Honda Civic Type R, Mugen RR, Mugen RR Advanced Concept: Der eine ein Hatchback, die beiden anderen schon Einhörner.

3 1/2 Tage, dann lese ich mich durch die Testberichte und kann dann einschätzen, was an noch höheren Hardwareanforderungen auf mich zukommen könnte irgendwann. Unmöglich ein für mich jetzt "schlechteres" Modell zu wählen wie die große 4080 oder RDNA3 ohne diese Perfektion. Unwahrscheinlich, dass ich bei 4K mit mittleren Details nein sagen würde zu einem noch neueren Spiel, vor allem bräuchte ich einen Grund mit so etwas anzufangen.

Sie als "kleine" 4080 zu verkaufen war ideal und hat sie für mich noch attraktiver gemacht: Bei dieser GPU Markt Situation und dieser Performance und dem Gesamtpaket war das eine einmalige Chance an eine technisch saubere 80'er Karte zu gelangen, aber Nvidia stand nicht seinen Mann. Die ursprüngliche Idee fand ich alles andere als beklemmend: Der AD104 Chip im Vollausbau als 4080, gerne! Alles schien zu schön um wahr zu sein. ;)

Die Nvidia GeForce RTX 4080 Kissenschlacht Bumsbirne 12GB Betrüger Edition ?, genau mein Fall. Ich finde diese Karte wirklich geil, das ist kein Science-Fiction.
 
Sie als "kleine" 4080 zu verkaufen war ideal [...]
Sinnvoller wäre es gewesen, die 4080 16GB mit 20GB auszurüsten und als 4080Ti zu verkaufen und die 4080 12GB mit 16GB auszurüsten und als "normale" 4080 zu verkaufen. Wobei es da auch schon wieder Probleme gibt, weil der Unterschied zwischen 4080 16GB und 4090 ziemlich krass ist. Aber gut: Nvidia kann leider machen, was es will, Monopol sei dank.
 
Sinnvoller wäre es gewesen, die 4080 16GB mit 20GB auszurüsten und als 4080Ti zu verkaufen und die 4080 12GB mit 16GB auszurüsten und als "normale" 4080 zu verkaufen. Wobei es da auch schon wieder Probleme gibt, weil der Unterschied zwischen 4080 16GB und 4090 ziemlich krass ist. Aber gut: Nvidia kann leider machen, was es will, Monopol sei dank.
Alles bestens. PCGH Raff hatte sich auch schon eine 3070 mit 10GB bei 320 Bit gewünscht. Ich für meinen Teil überkompensiere sämtliche Performance Sprünge und -Wünsche, die es in der letzten Generation so gab und da hat sich das lange Warten doch gelohnt.
:P


Ich bin in meinem Denken absolut rational und reaktionär reinsten Wassers. Und dadurch kommen solche Ergebnisse zustande in Sachen Zufriedenheit. Das alles fühlt sich einfach gut und richtig an.
 
Die RTX 4060 hat angeblich 10GB, weiter geht es mit der RTX 4070 und ihren angeblichen 10GB, über die RTX 4070Ti mit 12GB und ...
Die Gerüchte sind mir neu.
In der Tabelle, die ich gelesen hatte, stand was von einer 4060 & TI mit 8GB VRAM und 4070 & TI mit 12GB.
Deine Gerüchte gefallen mir besser, denn dann kaufe ich mir eine 4060 und keine 4070.

Anbei, frohes neues Jahr Euch allen!
 
Die Gerüchte sind mir neu.
In der Tabelle, die ich gelesen hatte, stand was von einer 4060 & TI mit 8GB VRAM und 4070 & TI mit 12GB.
Deine Gerüchte gefallen mir besser, denn dann kaufe ich mir eine 4060 und keine 4070.

Anbei, frohes neues Jahr Euch allen!

Da hab ich mich irgendwie vertan, Mea Culpa.

Es sollten natürlich 8GB sein (sonst hätte meine Argumentation auch keinen Sinn ergeben)..
 
@Pu244 @Govego Zugegeben ich habe auch schon beides gelesen (TechPowerUp). 10GB VRAM würden dann mit mit einem 160Bit Speicherinterface einhergehen. Der AD106 Chip mit 128 Bit oder der AD104 mit 192 Bit geben das nicht her im Vollausbau, aber schauen wir mal. Eine solche Abstufung wäre unnötig und Nvidia weiß das.

Eine Bearbeitung meines letzten Beitrags hier lohnt jetzt nicht mehr, aber mit den neuesten 3D Mark Ergebnissen der 4070 Ti habe ich nochmal nachgedacht über eine 16GB Variante der 3070 Ti und deren Positionierung.

Ich habe mich durch sämtliche Kommentare bei Videocardz gewühlt bezüglich mehr Benchmarks der 4070 Ti und es blieb kein Stein auf dem anderen: Eine wunderschöne und kontroverse Debatte. Die 4090 performt demnach 17-35% zu schlecht und Early Adopter haben Müll gekauft sagen manche, andere loben die 4070 Ti "Was für ein Tier" und bekommen sofort Feuer. Eine gut gebinnte, undervoltete 7900 XT sei in RayTracing 13% schneller, ansonsten landet die Ti zwischen XT und XTX. In Raster sind beide AMDs vorne, 26% bis 42%. Andere berichten von massiven Problemen mit sämtlichen AMD Generationen und der widerlich hohen Leistungsaufnahme der 3090 Ti. AMD habe sich entschieden den Wettbewerb mit Nvidia zu scheuen und deshalb ist die XT ein typischer Upsell zur XTX. 749 Dollar wären angemessen und eine 4070 Ti für $599 wäre nett. Zum ersten Mal sei Nvidias Architektur nicht besser wie in all den Jahren zuvor. Einer kann das Erscheinen einer 5070 für $1.200 gar nicht abwarten :D und die gechillten Leute schreiben kauft was ihr euch leisten könnt und braucht. Die Mehrheit möchte nicht mehr Ampere kaufen. Insgesamt eine Freude den Beginn des Jahres mit solchen Kommentaren zu genießen: Raketen und Böller aus der Landschaft zu entfernen kann bis morgen warten, ehrenamtlich versteht sich.

Daraus schließe ich der 4070 Ti eine Kaufempfehlung zu geben, nur welches Modell wie zu einem Gesamtpaket zusammengeschnürt wird, ist mir noch unklar. Den 12GB rosa Elefanten im Wohnzimmer nicht zu sehen ist die für mich mit Abstand beste Lösung.

Dazu hat der YouTube Kanal Daniel Owen eine Preis Leistungs Berechnung gemacht:

Bei den größeren 4080 Karte wäre in Sachen Preis Leistung $1.000 statt $1.200 angemessen (16,7%-20% zu teuer genormt auf die 4070 Ti) und die 4090 müsste bei S800 MSRP der 4070 Ti ausgehend von $2000 nur $1360 kosten (32%-47% zu teuer).

Bei $900 wäre eine 3080 10GB für $720 neu ein fairer Deal, bei $800 wären es $640. RDNA2 hat als Gesamtpaket zu wenig Raster / Watt und Euro für mich zu bieten, für viele andere Spieler dürfte es aber der perfekte Deal sein. Ich möchte mir noch ein Video zu einem von der glaube ich RDNA3 Community gemachten angepassten Treiber anschauen. Zurück zur 3070 Ti 16GB: Ja, wenn Texturen alles sind, dann sehe ich wie es Bedarf dafür gibt oder gegeben hätte, insgesamt geht die RTX 4080 12GB für mich aber als klarer Sieger über die Ziellinie. Paralleluniversum ja wegen unterschiedlicher Wahrnehmung und Vorlieben.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 

Anhänge

  • Inflation leichte Verbesserung.png
    Inflation leichte Verbesserung.png
    486,8 KB · Aufrufe: 3
Zuletzt bearbeitet:
@Pu244 @Govego Zugegeben ich habe auch schon beides gelesen (TechPowerUp). 10GB VRAM würden dann mit mit einem 160Bit Speicherinterface einhergehen. Der AD106 Chip mit 128 Bit oder der AD104 mit 192 Bit geben das nicht her im Vollausbau, aber schauen wir mal. Eine solche Abstufung wäre unnötig und Nvidia weiß das.

Eine Bearbeitung meines letzten Beitrags hier lohnt jetzt nicht mehr, aber mit den neuesten 3D Mark Ergebnissen der 4070 Ti habe ich nochmal nachgedacht über eine 16GB Variante der 3070 Ti und deren Positionierung.

Ich habe mich durch sämtliche Kommentare bei Videocardz gewühlt bezüglich mehr Benchmarks der 4070 Ti und es blieb kein Stein auf dem anderen: Eine wunderschöne und kontroverse Debatte. Die 4090 performt demnach 17-35% zu schlecht und Early Adopter haben Müll gekauft sagen manche, andere loben die 4070 Ti "Was für ein Tier" und bekommen sofort Feuer. Eine gut gebinnte, undervoltete 7900 XT sei in RayTracing 13% schneller, ansonsten landet die Ti zwischen XT und XTX. In Raster sind beide AMDs vorne, 26% bis 42%. Andere berichten von massiven Problemen mit sämtlichen AMD Generationen und der widerlich hohen Leistungsaufnahme der 3090 Ti. AMD habe sich entschieden den Wettbewerb mit Nvidia zu scheuen und deshalb ist die XT ein typischer Upsell zur XTX. 749 Dollar wären angemessen und eine 4070 Ti für $599 wäre nett. Zum ersten Mal sei Nvidias Architektur nicht besser wie in all den Jahren zuvor. Einer kann das Erscheinen einer 5070 für $1.200 gar nicht abwarten und die gechillten Leute schreiben kauft was ihr euch leisten könnt und braucht. Die Mehrheit möchte nicht mehr Ampere kaufen. Insgesamt eine Freude den Beginn des Jahres mit solchen Kommentaren zu genießen: Raketen und Böller aus der Landschaft zu entfernen kann bis morgen warten, ehrenamtlich versteht sich.

Daraus schließe ich der 4070 Ti eine Kaufempfehlung zu geben, nur welches Modell wie zu einem Gesamtpaket zusammengeschnürt wird, ist mir noch unklar. Den 12GB rosa Elefanten im Wohnzimmer nicht zu sehen ist die für mich mit Abstand beste Lösung.

Dazu hat der YouTube Kanal Daniel Owen eine Preis Leistungs Berechnung gemacht:

Bei den größeren 4080 Karte wäre in Sachen Preis Leistung $1.000 statt $1.200 angemessen (16,7%-20% zu teuer genormt auf die 4070 Ti) und die 4090 müsste bei S800 MSRP der 4070 Ti ausgehend von $2000 nur $1360 kosten (32%-47% zu teuer).

Bei $900 wäre eine 3080 10GB für $720 neu ein fairer Deal, bei $800 wären es $640. RDNA2 hat als Gesamtpaket zu wenig Raster / Watt und Euro für mich zu bieten, für viele andere Spieler dürfte es aber der perfekte Deal sein. Ich möchte mir noch ein Video zu einem von der glaube ich RDNA3 Community gemachten angepassten Treiber anschauen. Zurück zur 3070 Ti 16GB: Ja, wenn Texturen alles sind, dann sehe ich wie es Bedarf dafür gibt oder gegeben hätte, insgesamt geht die RTX 4080 12GB für mich aber als klarer Sieger über die Ziellinie. Paralleluniversum ja wegen unterschiedlicher Wahrnehmung und Vorlieben.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Naja... Die 3070Ti mit 16 GB hätte für viele Spieler die 3080 und 3080Ti überflüssig gemacht. Die 3070Ti mit 16 GB würde auch weitaus länger halten, was schlecht für Nvidia wäre, denn Nvidia würde weniger höherpreisige GPUs verkaufen. Zudem zum Texturenargument: Eines der Hauptargumente für den PC als Plattform ist nun einmal Modding. Mit 16 GB VRAM kann man da mit Texturenpaketen deutlich mehr machen als mit nur 8 GB. Gerade bei Spielen, die durch Mods quasi gefixt/erst spielbar werden (siehe quasi alles von Bethesda), ist das wichtig.

PS: Für 1k EUR würde ich tatsächlich guten Gewissens eine 4080 kaufen, auch wenn das immer noch teuer ist.
 
Naja... Die 3070Ti mit 16 GB hätte für viele Spieler die 3080 und 3080Ti überflüssig gemacht. Die 3070Ti mit 16 GB würde auch weitaus länger halten, was schlecht für Nvidia wäre, denn Nvidia würde weniger höherpreisige GPUs verkaufen. Zudem zum Texturenargument: Eines der Hauptargumente für den PC als Plattform ist nun einmal Modding. Mit 16 GB VRAM kann man da mit Texturenpaketen deutlich mehr machen als mit nur 8 GB. Gerade bei Spielen, die durch Mods quasi gefixt/erst spielbar werden (siehe quasi alles von Bethesda), ist das wichtig.

PS: Für 1k EUR würde ich tatsächlich guten Gewissens eine 4080 kaufen, auch wenn das immer noch teuer ist.
Ja, dem kann ich zustimmen. Ich habe Texturmods bei Final Fantasy VII Remake gesehen mit einer 2080 Ti und allgemein die Vielfalt da fügt noch mehr Spieltiefe hinzu zu einem sowieso schon wunderschönen Spiel inkl. einhändig durchspielen (für die Coomer). Der Bezug zum Original aus der Kindheit ist auch bei vielen YouTubern wie Pandorya sehr ausgeprägt. Sie betonte, wie das Original eine Skizze sei und das Remake etwas Ausformuliertes. Viele Leute haben durch dieses Spiel "Haare" gekriegt, also nebst gutem Gameplay verstanden, in welche mentalen Schwierigkeiten die Charaktere gelangen können. Nehme ich mir da mehr Zeit für, sind Texturmods und Lets Plays ein Traum. Allerdings habe ich auch weniger hungrige Alternativen für Aufnahmen und Streams verfügbar und eine 2080 Ti hatte eher das Problem mit Raster, aber bei Far Cry 6 ist das dann wieder eine andere Hausnummer.

Zwar ließe ich Effizienz und Anschaffungskosten schleifen mit einer 16GB 3070 Ti, aber wenn andere das unbedingt haben wollen, verstehe ich das Problem schon. Man säße dann auf seiner Rasterleistung herum bei einer sagen wir RTX 4080, während der Speicher ausgelastet wäre. Skyrim habe ich mal mit einer HD 7750 angespielt mit 1GB VRAM. War völlig okay die Grafik für mich, aber ja die Möglichkeit zu haben, solche Dinge aufzuhübschen, führt dann tatsächlich zu mehr Spielspaß.

Allerdings würde ich persönlich wenn ich unzufrieden bin, Nvidia nicht mehr Geld in die Hand geben, sondern abwarten oder nach Alternativen suchen, wenn es denn überhaupt nötig ist so viel Zeit darin zu investieren. Ich gehe nicht davon aus, dass deswegen Nvidia keine neuen GPUs mehr verkauft, aber vermutlich entspreche ich gar nicht dem typischen Spieler. Da muss ich noch mehr zu lesen und mit Leuten darüber reden, um mir ein richtiges Bild zu machen; hab's glaube ich noch nicht ganz kapiert. Danke für die Einblicke :devil:

Na dann packen wir mal 2023 an.
 
Zurück