Nvidia Ampere: Technische Eckdaten mit Takt angeblich bestätigt; einmal mehr hohe Preise gesichtet

Die 3090 ist marktstrategisch genau das, was Intel und AMD bei den CPU's gemacht haben. Einfach eine "Performance" Stufe drauf setzen um den Preis einfach mal nochmal deutlich anheben zu können. Ein i7 ist nun nicht mehr das max...... es wurde namentlich einfach ein i9 mit einem gehörigen Aufschlag. Nun orientiert sich dann jeder an den Preisen eines i9 für das max. mögliche..... WUNDERBAR!!!

TITAN..... ich musste lachen, als das eingeführt wurde. die 3900 ist keine TI und auch kein TITAN. Letzteres spart sich NVIDIA für den theoretisch/praktisch möglichen Vollausbau auf. Eine TI, die vorher als Gamerkarte das fast MAX war, kann nun zwischen der 3800 und der 3900 gebracht werden mit mindestens gleichem Preisschild wie der Vorgänger. Bedeutet aber rein technisch, dass diese ein Stufe tiefer dann rutschen würde.
 
wie wird das jetzt gerechnet wenn man das in euro umrechnet und ich gehe jetzt nicht von dollar aus sonder von der china währung wo ja angeblich alles dabei ist
 
Die Speicherausstattung der 3070 und 3080 wäre ein schlechter Witz. Wie war das noch mit dieser zukunftsweisenden Technik RT und generell bei DX12/Vulkan? Mir war so als wäre beides bisher überdurchschnittlich Speicherintensiv gewesen.

Beim Preis des Topmodells ist es ohnehin besser immer erst mal vom schlimmsten auszugehen.^^
 
Mal abwarten was in paar Tagen wirklich kommt.

Wenn es so ausfällt finde ich die Daten schon sehr unausgewogen. Warum braucht eine 3090 ganze 24GB Vram und eine etwas langsamere 3080 soll locker mit 10GB hinkommen? Zumal Texturdaten usw kaum Leistung kosten.
Werde auch keine vierstelligen Summe zahlen für 3080/3090. Habe die 2080ti nur genommen weil ich für 900,- rangekommen bin und die 1080ti noch für 770,- € los wurde. War die technische Neugierde samt besserer DX12/Vulkan Performance zu Pascal Gen schon noch gerade so wert.
Eigentlich interessiert mich persönlich eine 3080 dann nur wegen HDMI 2.1 zum 48" OLED.
Die sollte mindestens 12GB oder besser 16GB Vram bieten. Weniger von der 2080ti runter jedenfalls nicht.

Da mir Marken herzlich egal sind warte ich locker auch gern AMD ab. Geld wollen die alle von einem haben aber nur der mit besseren Preis/Leistung Angebot bekommt es auch.
 
Ich verstehe die Aufregung um die Preise nicht . Wer bereit ist 2000 Dollar für ne Graka hinzulegen , dem kann man auch 2500 oder 3000 Dollar aus der Tasche ziehen nur weil "Nvidia" drauf steht. Der Einsteiger - Bereich mit der 3050 fängt dann eben bei 400 Dollar an . Blättert ruhig hin die Lederjacke wird freuen.

Gruß

Johnny05
 
Kauft nur meine fleißigen NVIDIANER...... kauft fleißig was die gute Lederjacke euch vorsetzt! Kopf OFF...... RTX ON! AMPERE wird euch dann gehörig Ampere aus dem Geldbeutel und eurer Stromleitung ziehen. Genau das, was diejenigen verdienen,wenn sie das noch verteidigen/unterstützen.

Auch wenn man zum jetzigen Zeitpunkt die Preise nur ein "Gerücht" sind, sollte man betrachten, was sich die letzten Tage alles schon bewahrheitet hat. Es wird wieder einen salzigen Preisaufschlag geben. NVIDIA hätte alles versucht um mit dem neuen Zeugs vor AMD auf den Markt zu kommen. Denn dann kann man fast jegliches konkurrenzlose Preis-Experiment wagen. Die niedrigen VRAM-Mengen der "Performance-Karten" passen ebenfalls zu den gängigen Strategien dieses Gier-Vereins. Das Minimum für das Maximum verkaufen und bloß nicht lange "halten", sonst kann man nicht die nächste Stufe verkaufen.

Ich verstehe diese emotionalen Ausuferungen nicht so ganz. Woher kommt so ein Groll? Und was hat es eigentlich mit diesem Lederjacken Unsinn auf sich?
 
Irgendwie reizt mich die kommende GPU Gen von NV dieses Mal so gar nicht. Bis vor kurzem hatte ich die 2080Ti im Rechner, welche ich diese Woche verkauft habe. Bei deren Anschaffung fand ich das Thema Raytracing sehr spannend und wollte es ausprobieren. Das war einer der Gründe warum ich mir die Ti angeschafft hatte. Aber aktuell bin nicht bereit nochmal so viel Geld für eine GPU auf den Tisch zu legen. Ich mache jetzt erst Mal eine Pause vom PC Gaming, kaufe mir dann im November die Next Gen Konsolen, und schaue wie sich der PC Markt in den nächsten Monaten entwickelt.
 
Sehr komische Spezifikationen.

Gut die 10GB / 760 GB/s für die 3080 hab ich so in etwa erwartet und dies stellt zugleich auch das absolute Minimum dar das man einem Potenziellen Käufer einer ca. 800€ Karte zumuten kann.
Ich finde es ehrlich gesagt eher unter dem absoluten Minimum, immerhin hat nVidia ja selbst schon vor dreieinhalb Jahren (!) eine GPU mit einem GB mehr für 100€ weniger im Portfolio gehabt...
 
Ich verstehe diese emotionalen Ausuferungen nicht so ganz. Woher kommt so ein Groll? Und was hat es eigentlich mit diesem Lederjacken Unsinn auf sich?

Dann hast du wohl einiges an "Geschichte" verpasst, wieso der CEO von NVIDIA seinen Spitznamen bekommen hat und wieso er gerade für "emotionale Aussagen" bezüglich NVIDIA gerne herangezogen wird. Es wird wieder Zeit für paar neue "NVIDIA engineer talks about....." - Videos auf youtube.
 
kaufe mir dann im November die Next Gen Konsolen

Um damit zum ersten Mal RT auf Konsolen auszuprobieren, inkl. DX12_2, was dann auch BigNavi, Turing und natürlich Ampere beherrschen. :)

Ich werd' RT Ende des Jahres auch zum ersten Mal ausprobieren, dann auf Ampere.
Wünsche uns beiden viel Spaß beim RT ausprobieren, denn ab Ende des Jahres sind ja alle Seiten mit im Boot. :daumen:
Auch die Konsolen.
 
So einfach ist das nicht. AMD supported die Raytracing Implementierung der aktuellen Games nicht. Daher haben sie einen großen Nachteil. Hoffentlich ändert sich das bald und alle nutzen einen Standard.

AMD supportet Microsofts DXR und somit ist das kein Thema...

BtT: ich erinner mich hier immer wieder mit Freuden an die Aussagen der harten Markenfans, die zur Benennung von Ampere schon sagten: die wird doppelt so schnell und nur halb soviel verbrauchen wie Turing. Von vielen grünen Jungs so vernommen und bald sehen wir, wie wenig (Mehrleistung) oder viel (Verbrauch) davon übrig geblieben ist... ^^
 
Dann hast du wohl einiges an "Geschichte" verpasst, wieso der CEO von NVIDIA seinen Spitznamen bekommen hat und wieso er gerade für "emotionale Aussagen" bezüglich NVIDIA gerne herangezogen wird. Es wird wieder Zeit für paar neue "NVIDIA engineer talks about....." - Videos auf youtube.

Ich weiß das der ne Lederjacke trägt, aber ich verstehe dem Witz einfach nicht.

Ich hab nen Kollegen der sitzt in jedem Meeting mit nem Sakko. Deswegen heißt der bei uns aber nicht Sakko.

Aber vlt fehlt mir auch einfach die gewisse Portion an Oberflächlichkeit.

Ich kaufe halt das beste am Markt, AMD liefert nicht also wird es wieder nvidia. Komme ich mit klar. Sollte jemals wieder AMD abliefern, kaufe ich auch gerne bei den roten....Und dann ist es mir auch egal ob Lisa ein Shirt oder eine Bluse bei der Keynote trägt....Das wäre ja auch etwas infantil ;)
 
So einfach ist das nicht. AMD supported die Raytracing Implementierung der aktuellen Games nicht. Daher haben sie einen großen Nachteil. Hoffentlich ändert sich das bald und alle nutzen einen Standard.

Wie kommst Du auf die Idee? AMD wird selbstverständlich DXR unterstützen, also Direct3D RT, alles andere wäre Selbstmord und völlig sinnlos.

Bestenfalls die RTX Extensions (zum denoising) wird von den Spielen nicht ootB unterstützt, dazu müsste das Spiel auf DXR 1.1 erweitert werden.
 
Wahrscheinlich wird Nvidia die Leute mitnehmen wollen, die auch horrende Preise gern zahlen, solang AMD nicht vergleichbare Leistung für wesentlich niedrigere Preise bringt. Da kann man erstmal diese Leute abziehen und sollte AMD Nvidia preislich spürbar unterbieten, werden halt die Preise gesenkt. Nvidia wird sich denken, wieso von Anfang an günstiger verkaufen, wenn man sich eine goldene Nase verdienen kann, solang es keine Alternative außer Nicht-Kaufen gibt.

Es kann dem Markt nur gut tun, wenn auch Intel in diesem Segment mitmischt, denn wie man sieht, reichen zwei Unternehmen nicht für einen gesunden Markt.


Es ist eigentlich gut, wenn man sich ein Limit setzt, welches man halt maximal an die Inflation anpasst und wenn die neue Generation bei gleichen Preis keine ordentliche Mehrleistung bringt, kauft man halt nicht. Ist nur blöd, wenn Spiele im Schnitt eine höhere Leistung benötigen, die nur mit einer GraKa höheren Preises erzielt wird. Falls die Konsolen auch ohne Subventionierung eine Grafikrohleistung bieten, für welche man beim PC für die GraKa allein ein Vielfaches zahlen muss, sollte sich dann jeder fragen, ob wir nicht wirklich extrem gemolken werden. Bin gespannt was die neuen AMD GraKas im Vergleich zu den neuen Konsolen (+ eventuelle Subventionen) kosten werden.

Viele Unternehmen scheinen ohnehin nicht langfristig zu planen und schröpfen den Markt lieber jetzt ab. EA juckt es ja auch nicht, dass der Ruf mies ist und die Einnahmen zukünftig durch die bisherige Verhaltensweise einbrechen könnten. Allerdings haben die ja die Zahlen und wahrscheinlich gibt es genug, die trotzdem Unsummen in FIFA Ultimate Team und Co. verbraten.
Wenn solche Unternehmen den Bach runter gehen, sind auch meistens nur die normalen Angestellten die Leidtragenden und nicht die Manager mit Millionengehältern, welche dann von anderen Unternehmen mit Kusshand eingestellt werden, auch wenn sie sich wahrscheinlich zur Ruhe setzen könnten, da ein Jahresgehalt reicht um so einige normale Angestellte in den vorzeitigen Ruhestand zu schicken.

Ich nehme mal an, dass NV den Markt doch sehr genau im Auge behält. Die werden schon wissen wieviel man verlangen kann ohne den essentiellen Kundenstamm im Budget-Segment zu vergraulen.
Wenn eine xx60 so um die 400-450€ kostet, dann wird der Preis ja nicht zufällig gewürfelt sein. Es hat sich halt in den letzten Jahren abgezeichnet, dass die Leute gerne so viel Geld für eine Midrange-Karte in die Hand nehmen.
Von dem her wär es auch ganz schön dumm von NV, wenn die Karten quasi unter Wert verkauft werden. Das die Preise bei einem ordentlichen Angebot der Konkurrenz nach unten wandern muss nicht zwangsläufig eintreten.
Aktuell ist eine 2070S ja gut 100€ teurer als eine 57XT, da wird halt damit argumentiert, dass das NV-eigene RT-RT und DLSS Feature diesen Aufpreis rechtfertigt.

Im Endeffekt muss jeder selber wissen wieviel man bereit ist für sein Hobby zu zahlen. Man darf sich halt nicht vor den Kopf gestoßen fühlen, wenn man sich mal eine High-End Karte nicht mehr leisten kann nachdem man Jahrelang die Preissteigerungen hingenommen hat.
Nach oben hin gibt es nämlich keine Schmerzgrenze. Eine xx80 Ti für 10.000€ wird auch ihre Käufer finden. ;)
Wenn sich abzeichnet, dass die Umsätze einbrechen, dann wird NV auch wieder Marge abgeben und die Preise senken.

Ich für meinen Teil hab ~350€ im Hardware-Schwein und warte auf eine Karte welche min. 50% Mehrleistung bietet.
Ich denke mal, dass es in zwei/drei Jahren wieder soweit sein wird.
Da kann ich dann hoffentlich eine BigNavi oder was ähnliches vom Boden des Marktplatzes kratzen. :)

So einfach ist das nicht. AMD supported die Raytracing Implementierung der aktuellen Games nicht. Daher haben sie einen großen Nachteil. Hoffentlich ändert sich das bald und alle nutzen einen Standard.

AMD wird keine Unterstützung für DXR und VKRT bieten? Wo hast du das her?
Unabhängig davon, wenn für dich der Erhalt einer proprietären Technik kaufentscheidend ist, dann bleibt dir halt nichts anderes übrig. ;)
Es gibt aber genügend andere Leute welche in erster Linie eine Grafikkarte wollen, welche es wird hängt dann vorrangig vom PLV ab.
 
Ich finde es ehrlich gesagt eher unter dem absoluten Minimum, immerhin hat nVidia ja selbst schon vor dreieinhalb Jahren (!) eine GPU mit einem GB mehr für 100€ weniger im Portfolio gehabt...

Dann kauf dir eine 1080ti. Wieso wird der Preis eigentlich am VRam verglichen?
Eine 2080s ist stärker als eine 1080ti und hat auch "nur" 8gb. Machen die 11gb die 1080ti besser? Nö. Die 11GB Karte ist sogar langsamer und liefert somit weniger FPS. Wie kurios.

Wer in 4k zockt sollte sich beim Kauf des Monitors bewußt gewesen sein, dass er bei GPUs oben ins Regal greifen muss.

Ich habe mit meiner 1080 noch keine VRAM Probleme gehabt.

Hat man mit 100gb VRam mehr FPS? Nö, er wird nur sinnvoll voll geladen. Nur weil es Screenshots gibt bei denen man eine 15GB VRam Belegung sieht, bedeutet das nicht, dass man diese tatsächlich benötigt. Auch mit 8GB hat man genauso viel FPS ohne Ruckler.

Für mich zählt die Leistung die am Monitor ankommt. Und hier ist es bis jetzt völlig wumpe ob ich 8GB oder 16GB VRam habe.
 
Nimmt mit dem Preis ja fast die Auswüchse der neuen Konsolen an, bloß nicht einfach mal sagen was Sache ist...

Aber bald wissen wir ja, wieviel Geld wir(ich) nicht ausgeben werden, obwohl ich bspw Cyberpunk gerne mit allem (grafischen) Schnickschnack spielen möchte...
 
Zurück