Nvidia Ampere im ersten Halbjahr 2020? Wie ein Satz die Runde im Internet macht

Würd mir schon ein GPU Upgrade für Cyberpunk wünschen. Mal abwarten...

Das wäre hervorragend, oder zumindest eine konkrete Ankündigung mit Preisen - damit man weiß, ob sich ein paar Monate warten lohnen könnte.
Würd das auch gern wissen!
Will nicht im März/April ne 20er Karte kaufen und im Mai kommt dann ne 3060er oder so raus die Preislich top ist und die 2080 in die Tasche steckt.
 
Stimmt wirklich, tolle Argumentation. Schon mal selbstreflektion betrieben?
Nicht das gewinnorientierte Unternehmen ist schuld, dass alles daran setzen würde um an dein Geld zu kommen, sondern der gierige Konsument. Denn eigentlich will ein Unternehmen keinen Gewinn, sondern nur den gierigen Konsumenten zufrieden stellen, selbst wenn es dabei bankrott gehen würde.
Am Vorabend der Französischen Revolution hättest du dich bestimmt auch dahin gestellt und den König verteidigt, weil er ja gar nichts dafür kann, dass die Staatskasse leer ist und deswegen die Menschen hungern. Nein, die Menschen haben einfach nur zuviel gegessen.
Warum glaubst du das Konzerne gleich am Hungertuch nagen, wenn sie einen Teil ihrer exorbitanten Margen "opfern".
Ich finde es interessant das sich die Konsumenten aus der Preisgestaltung heraus halten, als würden diese an den Preisen nichts ändern können.
Die Verhältnismäßigkeit ist gerade bei GPUs nicht mehr gegeben.
Nicht nur die Konzerne regulieren den Preis, der Konsument hat hier mit seinem Geldbeutel ebenso die Verantwortung.

Man kann nicht die Verantwortung auf den einzigen Konkurrenten abschieben, und anschliessend auf ihm herumhacken das er ALLEINE diese für die zu hohen Preise des Kontrahenten zu tragen hat.
Das ist nicht nur unlogisch, das ist grob fahrlässig !

Wenn keiner die aktuellen Preise von Nvidia mitmachen würde, wären die Preise schon lange wesentlich weiter unten.
Solange die Konsumzombies jedoch glauben das sie in der Gleichung gar nicht erst vorkommen wird sich auch nichts ändern.
.
@Ofield

Tut mir leid das ich das sagen muss, aber ein "Ich habe keinen Einfluss" ist kein Argument, man macht es sich so nur sehr einfach.
Das gleiche Argument hört man auch immer wieder wenn das Thema Klima aufkommt.
"Ich als einzelner kann ja eh nix ausrichten" ist nichts anderes als eine traurige Kapitulation.
Wenn jeder so denkt, wird auch genau gar nichts passieren.
Ich als einzelner kann auch als positives Beispiel fungieren, und andere zum Umdenken bewegen. Wenn ich auch nur zwei oder drei andere zum Nachdenken angeregt habe, habe ich schon was erreicht.

Macht euch nicht kleiner als ihr seid.


Gesendet von meinem Mi A1 mit Tapatalk
 
Zuletzt bearbeitet:
Will nicht im März/April ne 20er Karte kaufen und im Mai kommt dann ne 3060er oder so raus die Preislich top ist und die 2080 in die Tasche steckt.
Naja, zumindest da kannst du dir sicher sein, das passiert nicht. Das ist technisch mittlerweile schon unmöglich, selbst mit neuer Fertigung werden die Leistungssteigerungen immer geringer und die Architektur von nV ist so weit ausgearbeitet, das auch dort nur noch minimale Steigerungen möglich sind. Sie brauchen also mehr Recheneinheiten für mehr Leistung. Nur, dass sie eben dort auch schon an die Grenzen stoßen. Deshalb ist Turing nur so "wenig" stärker als Pascal geworden, da sie sich eben mit der Ti bereits der aktuellen, absoluten Shader-Grenze nähern. Mit Volta wurd diese bereits erreicht, die etwas über 5000 Shader ließen einfach keine weitere Steigerung zu. Das Ergebnis sah man dann bei Turing: 4608 Shader. Es wäre zwar technisch mehr gegangen aber Mehrleistung hätte man kaum daraus erzielen können.
Auch ein Grund für das plötzliche RT: man braucht eben für die Kunden einen Grund die neuen Karten zu kaufen. Leider hat das nicht so geklappt, wie erhofft. Zu teuer und zu wenig Leistung im Vergleich. Die Technik an sich ist zwar großartig aber nicht da, wo sie sein müsste, um wirklich etwas zu bewegen. Daher werden wir nächstes Jahr kaum stärkere Karten mit höherer RT-Leistung bekommen. Wie die Preise dann aussehen, kann man nur abwarten aber viel besser wird es aufgrund der teureren Fertigung sicher nicht. Vermutlich wieder etwa selbe Leistung für das selbe Geld. Und die 60er wird sicher nicht die aktuelle 2080 beerben. Der Schritt steht der 2070 bevor. Die 60er wird dann der Nachfolger der aktuellen 70er, sowohl preislich als auch leistungsmäßig. Nur eben beim RT sind hier wirklich Steigerungen zu erwarten.
Und am oberen Ende, also Titan und 80 Ti erwarte ich noch weniger, als in der letzten Generation. Da geht einfach nicht mehr genug, um auch nur die 30% von Turing zu schaffen. Deutlich höhere Taktraten sind mit der neuen Fertigung auch kaum möglich. Hier kollidieren einfach schon die physikalischen Grenzen. Vielfache RT-Leistung durch mehr RT-Cores sicher (dann auch in 4k und hübsch) aber keine grundsätzlich überragende Mehrleistung der Shader oder wir müssten dann für die zukünftige Ti mehr zahlen, als für die aktuelle Titan, da dieses "Mehr" einfach zu teuer wird...
 
Fakt ist bislang einzig, dass ...

... es 100%tig garantiert wieder neue GPUs geben wird, mit denen sie uns die Dollars aus der Tasche ziehen.

So gesehen isses mir ziemlich wurscht, ob die Gen nach Turing im März, July, oder Oktober 20 raus kommt.

Sein Geld wird man noch schnell genug los. ;)

btw: Die gebrauchte 1080Ti läuft weiter 1A. Mal schaun, ob's dann überhaupt lohnen wird, auf so eine Art GTX RTX XYZ 3060 SuperUltraDupa zu wechseln.
Oder 3070.

Raytracing is ja scheinbar auch noch nicht richtig durchgestartet.
Wie vermutet, so lange AMD + Konsolen noch nicht mitmachen.
 
@Oberst Klink: nVidia hat die Preise aktuell erst einmal erfolgreich im Markt etabliert und mit einem Turing-Nachfolger wird man für vergleichbare Karten-Typen wahrscheinlich auch vergleichbare Preise zu sehen bekommen, d. h. etwas wie eine RTX 3080 Ti wird wieder im Bereich 1000 - 1200 € liegen.
Aktuell hat nVidia gar keinen Druck die Preise zu senken und vorerst bleibt abzuwarten, ob AMD im HighEnd-Segment überhaupt nennenswerten Druck aufbauen kann. Mit RDNA2 wäre es schon ein großer Zugewinn, wenn man es überhaupt erst mal wieder schafft, dort einzusteigen, denn der architektonische Vorsprung von nVidia ist beträchtlich und neben der neuen Architektur kommt bei nVidia nun auch noch ein immenser Fertigungssprung hinzu, denn aktuell konkurriert nVidia sehr erfolgreich mit angestaubten 12nm gegen state-of-the-art 7nm von AMD.

@oldsql.Triso: AMD arbeitet bzgl. Raytracing nicht "softwareseitig". Die neuen Konsolen-SoCs verfügen ebenso über spezifische Hardwarefunktionalitäten, die auch schlicht erforderlich sind, da Raytracing sehr rechenaufwändig ist.
(Deren Bemühungen im Treiber, Radeon Pro Renderer und anderen SW-Stacks haben nichts mit der Hardware zu tun; andere Baustelle.)

@Ob4ru|3r: "das RT-Duell gewinnen". Warum sollte L.Su blöd sein und was sollte das damit zu tun haben? Die Konsolen werden leistungstechnisch mit nVidias kommenden HighEnd-Karten bereits nicht mehr mithalten können, was aber auch nicht verwundert, denn es handelt sich nun mal um "einfache" Konsolen für den Massenmarkt.
Und mit "proprietärer" Lösung seitens nVidia hat das auf dem PC auch rein gar nichts zu tun. Hier ist Windows die maßgebliche Plattform und die wird über DX12 bzw. irgendwann Ende 2020 über DX14 angesteuert. Raytracing-fähige, dedizierte GPUs (egal ob nVidia, AMD oder Intel) werden grundsätzlich über DX12/14 angesteuert; hier programmiert keiner irgendwie nVidias Silizium direkt und so etwas wird auch zukünftig keiner auf dem PC machen und dementsprechend muss da auch nichts emuliert werden. (Nicht Umsonst waren alle Branchengrößen an der Spezifikation von Microsofts DirectX Raytracing beteiligt.)
Deiner "Branchenstandard"-Hypothese zufolge müsste der Großteil aktueller PC-Spiele grundsätzlich besser auf AMD anstatt auf nVidia-Hardware laufen, was offensichtlich nicht der Fall ist. Und das ist auch naheliegend, denn der Großteil der PC-GPUs setzt nun einmal auf eine nVidia-Architektur und dementsprechend werden die Portierungen auch optimiert.

@Lamaan: "Mantle hat seinen Zweck erfüllt, DX11 stirbt." Natürlich tut es dass, denn bspw. Raytracing gibt es nicht ohne DX12 und DX14 wirft schon seine Schatten voraus.
Mantle war ein Versuch die eigene Hardware mittels spezialisierter Software zu pushen, ähnlich vergleichbar zu nVidia's CUDA, nur bei weitem nicht so erfolgreich. Entsprechend hat man, als das Ende unausweichlich war, das KnowHow zugänglich gemacht und ein Teil davon konnte in Vulkan aufgehen ... mehr aber auch nicht. Bezüglich des PC-Gamings fristet Vulkan trotz einiger bemerkenswerter Einzelerfolge dennoch ein Nischendasein und mehr oder weniger lag es bisher an id Software zu verhindern, dass die Schnittstelle hier nicht in Vergessenheit gerät auf Windows-Systemen. (An dem Thema Vulkan/Linux-Gaming wird sich wohl auch in den nächsten Jahren nichts Wesentliches ändern.)

@Tech_Blogger/Rollora: nVidia wird zweifelsfrei in 7nm mit teilweisem EUV fertigen. Das kann bei Samsung der 7LPP oder bei TSMC der N7+ sein. Was man jedoch zweifgelsfrei nicht zu sehen bekommen wird, ist eine Aufteilung einer Chipserie, denn Design Rules und Tooling der Prozesse der beiden Firmen werden sich beträchtlich unterscheiden, sodass man zwei Mal das gleiche Design entwicklen müsste, was bei Kosten von mehreren 100 Mio. US$ pro Design nicht rentabel ist.
nVidia wird mindestens zwei Designs fertigen, einmal einen Turing-Nachfolger (in unterschiedlichen Chip-Ausbaustufen) und einmal eine komplett eigenständige Datacenter-GPGPU (NextGen-Volta, ist auch nicht mehr allzu fern). Es wäre denkbar, dass nVidia diese beiden Designs auf die beiden Hersteller aufteilt, aber am Ende muss man das abwarten. Für den Konsumenten spielt es schlussendlich keine Rolle, da beide Prozesse grob vergleichbar sind.
 
Weiß ich nicht, mit den "Super" konnte man die Navi nur kontern, weil diese einfach a) schlecht verfügbar ist, gerade was Customs anbelangt, da sind ja immer noch nicht alle drausen und b) eben überteuert. Allerdings waren die "Super Karten" dann auch gleich überall und in Massen und Ausführungen zu haben. Wie man das bei einem "schnellen Konter" hinbekommt, während der "Konkurrent" im Grakakartell einfach n Launch in die Binsen setzt, mal wieder, das bleibt die Frage.

Wenn jetzt die besseren Navi doch noch bald rauskommen, dann sind diese wohl schneller als die 2070 super, die 1080ti bzw. die 2080. Wenn da zwei Modelle kommen und das eine Modell dann noch die 2080ti einholt oder schlägt, hat man durchaus Grund schneller zur handeln.

Wäre für uns alle nur zu hoffen und die Daumen zu drücken, dass AMD es genau so hinbekommt.

Wenn Lisa Su nicht ganz blöd ist wird AMD locker gewinnen. PS5/NextBox werden auf "hardwareseitiges Raytracing" setzen, mit Navi als Unterbau im SoC, da kann man jetzt einen perfekten Dick-Move machen und da eine proprietäre Lösung reinbasteln die nVidia erstmal behindert, da sie die in Hardware gegossenen RayTracing-Elemente des AMD SoCs emulieren müssten, was Leistung kostet, während man auf AMD-Seite quasi baugleiche Teile in alle kommenden PC-GPUs packt und einen dicken Performance-Vorteil genießt, weil das eigene Raytracing durch die Verwendung in beiden Konsoeln über Nacht Branchenstandard würde.

Wäre sicherlich ein höchst interessanter Move, wird denke ich aber nicht kommen.
 
Die sollen den neuen Karten endlich HDMI 2.1 verpassen. Cyberpunk 2077 in 4k120hz HDR G-Sync/Freesync auf 'nem großen OLED #RTXOn . Sonst muss der ASUS ProArt PA32UCG herhalten.
 
Wenn keiner die aktuellen Preise von Nvidia mitmachen würde, wären die Preise schon lange wesentlich weiter unten.
Solange die Konsumzombies jedoch glauben das sie in der Gleichung gar nicht erst vorkommen wird sich auch nichts ändern.

Ich habe schon von zuvielen Menschen Boykott gelesen und passiert ist nie etwas. Mit Phrasen allein kann man die Masse nun mal nicht zum Umdenken bewegen. Die Hoffnung auf gleichwertige Konkurenz, die zu einem Preiskampf führt, ist da erheblich realistischer.
Ich habe eine 960gtx und lange genug gewartet. Diese Graka hat auf niedrigsten Grafikeinstellungen 100% Auslastung in FHD und trotzdem werde ich mir erst ab Ampere eine neue Graka kaufen.
 
Das ist wieder eine absolut tolle Argumentation
76.gif

AMD soll wieder als Preisdrücker fungieren, weil sich die Konsumenten zu fein sind einfach mal VERZICHT zu üben.
Da wird lieber gemault das der Konkurrent von Nvidia die Preise zu drücken hat, als das die Käufer sich mal selber an die Nase packen, und mit ihrem Geldbeutel dafür sorgen das Nvidia diese Preise nicht mehr fahren kann.
Es ist sooooo schön die Verantwortung auf andere zu schieben nicht wahr ?
Bravo. Klatschklatsch. Meine letzte für mich gekaufte GPU ist eine 7970 gewesen (2011). Und jetzt? Oh jetzt hat Nvidia trotzdem die Preise erhöht? Verdammt.
Das Kunden nicht kaufen bei einem Wachsenden Markt für Gamer ist unrealistisch. Und somit kann man nur auf Konkurrenzsituation im Markt hoffen. Und die gibt es bekanntlich bei einem Quasi-Monopol nicht.
Und wenn ein Hersteller technisch übelregen ist und 80% des Marktes beherrscht, würde ich von einem Quasi-Monopol reden. Aber man kann sichs schon bequem machen, die Geldgieirigen Hersteller in den Schutz nehmen und sagen "alle anderen sind Verantwortlich, nur nicht mein Lieblingshersteller".
Da biegt dann AMD lieber mal wieder mit völlig überzogenen Preisen auf den Präsentationsfolien um die Ecke und ändert dies erst nach ordentlichem Shitstorm diesbezüglich. Aja das Meckern, das bringt schonmal nix. Hat man gesehen.
Natürlich liegts daran, dass es genug Leute gibt, die sowas auch bezahlen, das ändert ja nichts daran, dass die Leistung bei einem gewissen Preisbeutel seit Jahren stagniert und die Hersteller das bewusst machen.
Ich verzichte ja gerne, das macht mir nix. Ich kaufe Materielles erst, wenn ichs brauche. Nicht weil ich geizig bin, sondern weil ich merke, dass neue Computer, Handies, Autos immemr nur kurz glücklich machen ("glücklich" stimmt nicht, ein Loch füllen wäre wohl passender) und nach einigen Monaten ist man ja wieder genauso zufrieden wie vorher. Also gleich gar nicht kaufen und mit dem zufrieden sein was man bislang hat - bis es wirklich nötig ist. Alle Spiele bislang laufen auf meiner 7970. Aber wenn ich dann doch mal umsteige - nach fast 10 Jahren, würde ich um einen ähnlichen Preis (knapp über 300, eigentlich wär mir wieder 200 lieber wie bei der 5850, die inzwischen im PC meiner Tochter arbeitet) gerne auch Top Performance haben. Aber was kriegt man heute um 300€? Wieviele Karten sind noch drüber?



Ich hab sowas nicht nötig. Ich bezahl bei uns den Urlaub, kaufe ihr Frauenkram (Schuhe und Taschen) und hab dafür Spielraum bei meinem Hobby:daumen: Allerdings kaufe ich auch keine Grafikkarten für 1000€ oder gar mehr...;)

Ich bin eh ne P/L-Sau und meist wird das alte "Kroppzeug" dann auch noch zu Asche gemacht. Von daher brauch ich keine Genehmigung der besseren Hälfte...

Gruß
Interessant. Es gibt sie also noch, diese "der Mnan zahlt alles, also darf er auch ab und zu Mann sein" Beziehungen.
Irgendwas machen ich und Cleriker dann aber falsch. Meine Frau zahlt sich alles selbst und ich darf trotzdem tun was ich will
Ach ich freu mich auf die ~RTX 3080 mit 8GB
lolaway2.gif

oder glaubt jemand das die nächste Generation deutlich (hier 16GB ) mehr Speicher haben wird?
Die Einführung von GDDR6 hat die Speicherpreise wieder erhöht. Sie dürften aber bald auf GDDR5 Niveau und darunter fallen. Demzufolge, wird Nvidia mit ihren GPUs wohl schon mehr als 8GB anbieten, auch in den Karten unter dem Highendbereich.
Ich frag mich, obs eine HBM2.5 oder gar 3 Karte geben wird. AMD ist aufgrund des hohen Verbrauchs fast drauf angewiesen, stromsparende Speicherinterfaces zu verbauen - aber HBM ist halt nach wie vor teuer :(

Sehe ich nicht ganz so. Die 5700/5700XT sind etwas schneller und gleichzeitig etwas preiswerter als die 2060/2060Super. Verschenkt werden sie nicht, aber FPS/Euro ist AMD schon besser.
.
Das stimmt zwar, ist aber nicht, was ich gemeint habe: Nvidia hat ja die Preise nach oben korrigiert und AMD ist nachgegangen. Dass man bei weniger Features und Marktanteil ETWAS drunter geht, ist klar. Aber die Karten mit ~200mm² Chips kamen auch mal für knapp 200 Dollar auf den Markt, während man bei der 5700 XT gleich mal knapp über 400 angegeben hat AFAIR. Zumal die 5700 eine nette Karte ist, aber immer noch nicht mehr bietet, als man seit doch nun schon einigen Jahren bei der Konkurrenz haben kann - inklusive der Effizienz.
Früher gabs ganz klare Preissenkungen, wenn ein Konkurrenz mit einem Produkt nachgezogen hat, jetzt ist das seit einigen Jahren einfach so, dass Nvidia die Preise erhöht und AMD diese neuen Preise bei vergleichbarer Performance auch genauso annimmt.

Dabei erlauben die aktuellen Chipgrößen von Nvidia sogar einen Preiskrieg. Bislang ging das nur schwer, denn AMD hatte stets die größeren Chips die mehr Strom fraßen und auch auf den Karten verbaut man oft mehr Speicher - was das Paket insgesamt teurer macht - aber oft nicht schneller. Ein Preiskrieg etwa 1060 vs 480 war deshalb nie sinnvoll und hat deshalb auch kaum statt gefunden.

Bei Einführung der DX11 Karten war das noch so, dass die zweitschnellste Karte auf dem Markt, die Radeon 5850, die auch mit der 5870 die ersten DX11 Karte war, knapp unter 200€ gekostet hat (habs um 180€ gekauft). Also: extrem schnell, schneller als jede Konkurrenzkarte UND auch neue Technologien drinnen - 180€. Was zahlt man heute dafür? Und bitte nix von Inflation sagen ;)
 
Zuletzt bearbeitet:
Naja, zumindest da kannst du dir sicher sein, das passiert nicht. Das ist technisch mittlerweile schon unmöglich, selbst mit neuer Fertigung werden die Leistungssteigerungen immer geringer und die Architektur von nV ist so weit ausgearbeitet, das auch dort nur noch minimale Steigerungen möglich sind. Sie brauchen also mehr Recheneinheiten für mehr Leistung. Nur, dass sie eben dort auch schon an die Grenzen stoßen. Deshalb ist Turing nur so "wenig" stärker als Pascal geworden, da sie sich eben mit der Ti bereits der aktuellen, absoluten Shader-Grenze nähern. Mit Volta wurd diese bereits erreicht, die etwas über 5000 Shader ließen einfach keine weitere Steigerung zu. Das Ergebnis sah man dann bei Turing: 4608 Shader. Es wäre zwar technisch mehr gegangen aber Mehrleistung hätte man kaum daraus erzielen können.
Auch ein Grund für das plötzliche RT: man braucht eben für die Kunden einen Grund die neuen Karten zu kaufen. Leider hat das nicht so geklappt, wie erhofft. Zu teuer und zu wenig Leistung im Vergleich. Die Technik an sich ist zwar großartig aber nicht da, wo sie sein müsste, um wirklich etwas zu bewegen. Daher werden wir nächstes Jahr kaum stärkere Karten mit höherer RT-Leistung bekommen. Wie die Preise dann aussehen, kann man nur abwarten aber viel besser wird es aufgrund der teureren Fertigung sicher nicht. Vermutlich wieder etwa selbe Leistung für das selbe Geld. Und die 60er wird sicher nicht die aktuelle 2080 beerben. Der Schritt steht der 2070 bevor. Die 60er wird dann der Nachfolger der aktuellen 70er, sowohl preislich als auch leistungsmäßig. Nur eben beim RT sind hier wirklich Steigerungen zu erwarten.
Und am oberen Ende, also Titan und 80 Ti erwarte ich noch weniger, als in der letzten Generation. Da geht einfach nicht mehr genug, um auch nur die 30% von Turing zu schaffen. Deutlich höhere Taktraten sind mit der neuen Fertigung auch kaum möglich. Hier kollidieren einfach schon die physikalischen Grenzen. Vielfache RT-Leistung durch mehr RT-Cores sicher (dann auch in 4k und hübsch) aber keine grundsätzlich überragende Mehrleistung der Shader oder wir müssten dann für die zukünftige Ti mehr zahlen, als für die aktuelle Titan, da dieses "Mehr" einfach zu teuer wird...

Kann sein...muß es aber nicht zwangsläufig.
Der Leistungssprung von 980 zu 1080 war etwa 50%, von 1080 zu 2080Super sinds auch wieder um 50%. Das Turing "nur wenig" gebracht hat stimmt so nicht.
Nvidia hat die xx80, xx70 und xx60 Karten immer um ca. 25% abgestuft. Eine 1060 ist tatsächlich etwa so schnell wie eine 980 und eine 2060Super etwa so schnell wie eine 1080.
Das Rezept war immer das gleiche: 20..25% mehr Shaderleistung (Shaderanzahl+Architektur) +20...25% mehr Takt.

Um eine mögliche 3060 auf das Niveau einer 2080 zu bringen brauchts nur einen chip ähnlich der 2070Super der 20..25% höher taktet. Da Nvidia im Moment schon deutlich größere chips produziert sehe ich da kein Problem.
Was sie machen ist schwer abzuschätzten. Wenn Ampere aber tatsächlich um 50% in der normalen Renderleistung zulegt würde die Mittelklasse bis 3070 die Turing High-end Karten kannibalisieren die erst später erneuert werden sollen.
Legen sie in der Renderleistung nur um 25% zu (in der Raytracingleistung ev. 50%) rückt ihnen AMD etwas näher auf die Pelle.

Ich wäre auch nicht überrascht wenn wir in nicht allzuferner Zeit multichip GPU Lösungen sehen, Baukastensystem aus 2-3 I/O chips mit Speicherinterface plus Chiplets mit den shadern.
 
Ich vermute einmal, dass sie mit der RTX 3080Ti die 1500€ Marke ins Visier nehmen werden werden und es ist erschreckend, dass das vermutlich kein schlechter Kauf werden könnte. Zumindest wenn es so weitergeht, wie bisher seit der GTX 980Ti.

Ach ich freu mich auf die ~RTX 3080 mit 8GB :lol:
oder glaubt jemand das die nächste Generation deutlich (hier 16GB ) mehr Speicher haben wird?

Bei den RTX Karten haben die Leute schon lange Gesichter gmacht, die Zeit ist auf jeden Fall reif, für eine Speichererhöhung. Falls Nvidia weiterhin bei einem 256 und 384Bit Speicherinterface bleibt, bieten sich eben 16 bzw. 24(22)GB an. Natürlich gäbe es auch die Möglichkeit auf 384 und 512 Bit hochzugehen, Zeit wäre es (bzw. dann wäre man wieder so weit wie 2006 [ATI] und 2008 [Nvidia]).

Gaming Ampere kommt wohl von Samsung

und es soll dieses Mal wohl zusätzlich einen GA103 geben xD

Gibt es dafür auch irgendwelche Quellen oder streust du hier nur irgendwelche Gerüchte?

Das ist wieder eine absolut tolle Argumentation :wall:
AMD soll wieder als Preisdrücker fungieren, weil sich die Konsumenten zu fein sind einfach mal VERZICHT zu üben.

Er hat nur gesagt, dass AMD die Preise nicht gedrückt hat und das ist richtig. Natürlich haben sie keine Pflicht dazu, sondern sie können auch einfach die Zusatzeinnahmen mitnehmen.

Sehe ich nicht ganz so. Die 5700/5700XT sind etwas schneller und gleichzeitig etwas preiswerter als die 2060/2060Super. Verschenkt werden sie nicht, aber FPS/Euro ist AMD schon besser.
Selbst bei Nvidia ist FPS/Euro mit jeder Generation besser geworden, auch wenns keiner gerne hört und immer nur schimpft das die Karten immer teurer werden. Ich hatte eine GTX980 für 499E, eine 1080 für 599E und jetzt eine 2080 für 720E. Jeweils recht vernünftige custommodelle, jedes etwas 20% teurer als der Vorgänger, dafür war die 1080 auch um 50% schneller als die 980 und die 2080 immerhin noch 40% schneller als die 1080. Die 2080ti ist freilich reichlich überteuert aber man muss die ja nicht kaufen. Nächstes Jahr gibts ne schnellere Karte für weniger Geld.

Früher war es mal selbstverständlich, dass die Leistung um teilweise 100% stieg und die Karten etwa gleich viel gekostet haben. Viele sind eben Anspruchslos geworden und geben sich mit extrem wenig zufrieden.
 
Früher war es mal selbstverständlich, dass die Leistung um teilweise 100% stieg und die Karten etwa gleich viel gekostet haben. Viele sind eben Anspruchslos geworden und geben sich mit extrem wenig zufrieden.

Mir wär auch lieber, es kämen seltener neue Karten, dafür mit 80-100% Aufschlag. Aber seit wir 5 Jahre im 28nm Prozess hingen, und der Prozess und die Verbräuche Ausschlaggebend sind für die Leistung, wird das nicht mehr so kommen
 
Das ist wieder eine absolut tolle Argumentation :wall:

Na, er hat doch recht, das ist ja erst einmal nur eine Feststellung. AMD hat die Preise eher nicht gedrückt.

AMD soll wieder als Preisdrücker fungieren, weil sich die Konsumenten zu fein sind einfach mal VERZICHT zu üben.

Wie meinst du das? Es gibt immer Nachfrage nach neuen GPU´s, ergo ist ein Verzicht völlig unrealistisch.

Da wird lieber gemault das der Konkurrent von Nvidia die Preise zu drücken hat...

Wurde ja nicht gesagt, zumal jedoch Konkurrenz das Geschäft belebt und die Preise ja minimal gefallen sind. Nen Fuffi.
 
Na, er hat doch recht, das ist ja erst einmal nur eine Feststellung. AMD hat die Preise eher nicht gedrückt.



Wie meinst du das? Es gibt immer Nachfrage nach neuen GPU´s, ergo ist ein Verzicht völlig unrealistisch.



Wurde ja nicht gesagt, zumal jedoch Konkurrenz das Geschäft belebt und die Preise ja minimal gefallen sind. Nen Fuffi.
Ich habe dich damals gebeten mich nicht mehr zu zitieren oder anderweitig auf meine Posts einzugehen.
Deine Meinung interessiert mich nicht, und ich möchte mich nicht weiter mit dir belasten.
Ich unterhalte mich lieber mit einer Wand,als mit so jemanden wie dir.
Also halte dich bitte daran, danke.

Gesendet von meinem Mi A1 mit Tapatalk
 
Zurück