Nvidia Next-Gen: Drei neue Trademarks registriert und vermeintlicher Leak - Turing, RTX statt GTX und Performance

Du wirfst ihm also das vor, was du hier für nV treibst? Find ich schon ein wenig amüsant...

Kamerad dein roter Farbanstrich ist über die Jahre auch bekannt, das du also den Andored Typen für glaubwürdig hältst , nicht weiter verwunderlich, genau wie das Gro deiner Unterzeichner ,von daher geschenkt ,denn Jensen wird euch schon zeigen ,wo der Bär die Locken hat:lol:
 
Sorry wenn ich da mal nachfrage aber es wurde und wird immer gesagt das 8 GB zukunftssicherer sei (was immer die Zukunft bringt) und jetzt soll es so sein das man den Speicher, auch wenn es GDDR6 sein soll, beschneidet?

Das war immer falsch und wird immer so sein. AMD hat es versucht und ist daran gescheitert. Nvidia hat das bisher jedenfalls noch nicht gemacht .. außer vielleicht im low-end Bereich, wo es keinen wirklich interessiert.

Es gab bisher keine einzige Generation, in der der Nachfolger mit neuer Architektur weniger Speicher hatte als der Vorgänger. Falls doch bekannt, bitte Beispielle nennen.

Im Falle der "RTX" 2070 auf 7 GB und der GTX 2060 auf 5 GB? Wie passt das zusammen und was soll das? Finde es eigenartig.

Macht alles keinen Sinn, richtig!
Wenn AdoredTV die genauen Spezifikationen der GPU genannt hätte mit CUDA-Cores, ROPs, Speichertakt, wäre es glaubhafter. So ist es nur ein weiteres Gerücht unter vielen.

Mittlerweile glaube ich sogar es handelt sich komplett um FUD. Ad.TV hatte bei Vega fast einen Nervenzusammenbruch. Was passiert wohl, falls Nvidia AMD einen größeren Denkzettel verpassen würde?

Für sämtliche AMD-Fans ist dieses Szenario nahe am Armageddon. Daher muss mit allen Mitteln alles heruntergeredet werden.
 
Kamerad dein roter Farbanstrich ist über die Jahre auch bekannt, das du also den Andored Typen für glaubwürdig hältst , nicht weiter verwunderlich, genau wie das Gro deiner Unterzeichner ,von daher geschenkt ,denn Jensen wird euch schon zeigen ,wo der Bär die Locken hat:lol:

Jungelchen, ich glaub nicht ein Wort dieser Gerüchte aber in deinem gestörten Verhältnis zu einer Marke ist selbst das kleinste bisschen Objektivität nicht zu erwarten. Im Gegensatz zu dir kritisiere ich "meine" Marke sehr wohl und häufig, du heiligst hingegen jeden noch so fragwürdigen Schritt deines Lederjacken tragenden Superhelden. Das du dich damit nur selbst lächerlich machst, sollte selbst dir langsam Mal auffallen...
Aber die Hoffnung ist vermutlich vergebens, weshalb ich dich wohl endlich auf meine Ignore-List setze, um in Zukunft von deinem ständigen Schwachsinn verschont zu bleiben. Also verzeih meinen Versuch dich auch nur einmal zum logischen Nachdenken anzuregen, es wird nie wieder passieren, im Gegensatz zu dir bin ich in der Lage zu lernen ...
 
Eine potentielle RTX 2080 wird sich ja definitiv im Bereich der GTX 1080Ti bewegen, ob nun ein paar Prozent langsamer oder schneller ist unerheblich. Satte 3GB weniger VRAM bei vergleichbarer Leistung wäre ein übertrieben großer Rückschritt, da muss das R (Raytracing?) im Namen wirklich etwas reissen.

Problematischer wird das aber bei einer potentiellen GTX 2060, die im GTX 1070 Bereich angesiedelt sein könnte. Auch da 3GB weniger VRAM bei ähnlicher Leistung, jedoch kein R im Namen. Aber andereseits, die GTX 1060 3GB hat sich mit noch weniger VRAM und noch höherer Grundleistung im Vergleich zur GTX 970 auch verkauft, selbst in PCGH-PCs.
 
Im Gegensatz zu dir kritisiere ich "meine" Marke sehr wohl und häufig, du heiligst hingegen jeden noch so fragwürdigen Schritt deines Lederjacken tragenden Superhelden. ...

Genau denn er ist im Gegensatz ein Superheld der seinen Laden am laufen hält, gegen die andere Dumpfbacke ,die sich zu Intel geschlichen hat

Und wäre in der CPU Sparte nicht auch ein "weiblicher Jensen" am Ruder ,dann gute Nacht u kein Morgen ....;)

Was anderes als Sarkasmus , kann man euch auch nicht mehr entgegenbringen, falls das noch immer nicht durchgedrungen sein sollte
 
Zuletzt bearbeitet:
Wenn ne ps5 in 2020/21 mit 24gb GDDR6 erscheint wird das auch flächendeckend von Games genutzt werden... Viel spass dann mit der 1280mit 12gb oder weniger.


Lol.
PC Gaming Hardware wird immer lolliger
 
Genau denn er ist im Gegensatz ein Superheld der seinen Laden am laufen hält, gegen die andere Dumpfbacke ,die sich zu Intel geschlichen hat

Und wäre in der CPU Sparte nicht auch ein "weiblicher Jensen" am Ruder ,dann gute Nacht u kein Morgen ....

Was anderes als Sarkasmus , kann man euch auch nicht mehr entgegenbringen, falls das noch immer nicht durchgedrungen sein sollte

Sarkasmus kannst du nicht Mal erkennen (siehe mein erster Beitrag auf den du sofort geifernd angesprungen bist... das war Sarkasmus), wenn er dir mit dem Vorschlaghammer eingeprügelt wird und nutzen erst Recht nicht, denn dafür müsstest du Humor haben. Wäre das jedoch der Fall würdest du ständig wegen deinen Ergüssen lolend unterm Tisch liegen...
 
Mir scheint eher ich habe genau ins schwarze getroffen so "geifernd" wie du dich imo gibst ,und es anderen vorwirfst;)

Ohne Jensen DNA geht nix ,auch nicht bei AMD ,wie man aus dem Link ersieht... die Kleine hat nur noch nicht das Geld zusammen ,für die exklusiven Lederjacken, wie der große erfolgreiche Onkel:D
 
Zuletzt bearbeitet:
Für sämtliche AMD-Fans ist dieses Szenario nahe am Armageddon.

Für JEDEN PC Gamer wäre es nahe am "Armageddon" wenn es demnächst nur noch einen Anbieter potenter 3D-Beschleuniger gäbe. Wie das dann aussieht, hat man ja lange Jahre am CPU-Markt gesehen, wo Leistung und Kernzahl nur in homöopathischen Dosen gestiegen ist. Kaum kam Wettbewerb in Form des Ryzen auf, explodierte die Kernzahl und damit die Leistung von Software, die das ausnutzen kann.
 
Das unterstützen auch die aktuellen Pascal GPUs.
DX 12 ist aber ein übler Rohrkrepierer. Wenn dann sollte man eher auf Vulcan Hoffnungen setzen.

Die News ist aber mit großer Wahrscheinlichkeit ein Fake.
Das Namensschema klingt unglaubwürdig, die Preislage, auch die VRAM Größen, u.s.w.
Und das alles kommt von wccftech die in der Vergangenheit schon viele Fake-News gemacht haben.
Manchmal lagen sie auch richtig. Dann basierten ihre Infos aber nicht selten auf Spekulationen aus dem 3dcenter, die oft 1:1 als "News" übernommen wurden.
 
Zuletzt bearbeitet:
Das war immer falsch und wird immer so sein. AMD hat es versucht und ist daran gescheitert. Nvidia hat das bisher jedenfalls noch nicht gemacht .. außer vielleicht im low-end Bereich, wo es keinen wirklich interessiert.

Wann hat AMD bitte versucht, bei nem Nachfolger weniger Speicher zu bringen?
Fall du wieder auf die Fury anspielen willst, die war nicht der Nachfolger der 290X und selbst wenn du es so sehen willst, hatte sie nicht weniger Speicher.
 
@Khabarak:
Das du dich mit diesem merkwürdigen Nvidia-Werbeaccount noch abgibst?
Ich habe den schon lange auf ignore....

Und Fijis Hauptproblem waren nicht unbedingt die 4 GB HBM 1, sondern dass die hohe Rohleistung in vielen Games nicht ankam, ähnlich wie bei Vega heute.
Da hätten auch 8GB HBM 1 oft nicht geholfen. Abgesehen davon das es HBM 1 in dieses Form nicht gab.
 
Wann hat AMD bitte versucht, bei nem Nachfolger weniger Speicher zu bringen?
Fall du wieder auf die Fury anspielen willst, die war nicht der Nachfolger der 290X und selbst wenn du es so sehen willst, hatte sie nicht weniger Speicher.

Aha also bei AMD wirds weggewischt oder zumindest versucht ,denn auf die falsche Speichertechnologie haben die ja selber gesetzt in ihrer Genialität

Und bei Nvidia ists die Wahrheit u nix als die Wahrheit ,weils der Andored Guru in seiner kaputten Glaskugel sieht, als er mal wieder das falsche rote Weed geraucht hat;)
 
@Khabarak:
Das du dich mit diesem merkwürdigen Nvidia-Werbeaccount noch abgibst?
Ich habe den schon lange auf ignore....

Und Fijis Hauptproblem waren nicht unbedingt die 4 GB HBM 1, sondern dass die hohe Rohleistung in vielen Games nicht ankam.

Das Problem mit solchen Werbeaccounts ist, dass man die nicht unerwidert stehenlassen kann. Sonst glaubt am Ende noch jemand den Mist...

Aha also bei AMD wirds weggewischt oder zumindest versucht ,denn auf die falsche Speichertechnologie haben die ja selber gesetzt in ihrer Genialität

Und bei Nvidia ists die Wahrheit u nix als die Wahrheit ,weils der Andored Guru in seiner kaputten Glaskugel sieht

Was wird bitte weggewischt?
Ohne klare Daten ist deine "Aussage" nicht mehr als ein rant.
 
Nein, RTX ist ein Teil (Back-End) zu MS neuer DXR (Direct-X-Raytracing API).
In den ersten Seiten hier im Thread habe ich doch alles dazu mehrfach verlinkt.
 
Zurück