Nvidia teasert Geforce Ampere Founders Edition: Spezialkühler, Airflow, 12-Pol-Strombuchse und mehr


Knapp 1 Jahr altes PCGH Video...
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Nvidia-Ampere-Compact-12-Pin-Power-Connector-pcgh.jpg

- Normalbreites PCB (Spulen/RAM/Anschlussgröße relativ zu abgebildeter Platine), keine Monsterkarte wie auf gewissen ""Leaks"".
- Nur ein Stromstack, für den im Kühlerdesign Platz vorgesehen sein muss, keine 2-3 8-Pin-Anschlüsse, die von gewissen Analysten in die geleakten Kühlerbilder hineininterpretiert wurden (Zugegeben: Ich hatte nach den Kühlerbildern auf 1× 8-Pin oder maximal einem 6+6-Pin-Stack nach 600er-Vorbild getippt, ein vertikaler Mikro-Fit ist auch wirklich weit hergeholt)
Nvidia-Geforce-Ampere-Reference-Cooler-Ampairflow-pcgh.jpg

- Oberer Lüfter saugt Luft von unten an, anstatt sie zu blasen (wie von diversen ""Insidern"" gemeldet und auf sämtlichen bisherigen Bildern des Lüfters zu sehen)
- Dual-Slot-Design (unter dem 5 von 7 ATX-Slots frei bleiben), kein Triple-Slot-Monster, wie ""Leaker"" behauptet haben.


Es mag arrogant klingen und arrogant sein, aber ich mag es, wenn die Realität meine Glaskugelleserei bestätigt. :-)


Die RX Vega war wohl ohne es zu wissen seiner Zeit vorraus:D
Anhang anzeigen 1098956

Entsprechende Designs gab es meinem Wissen nach zum ersten Mal bei GTX-670-Customs. Im Prinzip ergibt sich der Aufbau ja automatisch, wenn man einen großen Axialkühler auf ein kurzes PCB packt. Die RTX 3080/3090 wird aber die erste Karte mit extra dafür angepasstem PCB sein und mit Lüfter auf der Rückseite, was noch mal einige Millimeter mehr Lamellen ermöglicht.


Na dann ist "done" ja falsch :-)

Eher "When I am allowed to publish" :ugly:

Du sprichst mit Raff. Nvidia könnte das NDA-Ende auf das Jahr 3090 legen und Raff würde etwas zu testen finden, dass ihn ohne Nachtschicht bis mindestens eine Woche nach NDA-Fall beschäftigt. Grafikkartentests sind grundsätzlich erst dann "done", wenn jemand sagt "du musst jetzt publishen und es gibt auch niemanden mehr, der es verbietet".


Mal eine Frage, musste mein RTX 2080 vorrübergehend auf einen PCIe stecken der aber nur 8x hat. Bis jetzt habe ich noch keinen wirklichen Engpass bemerkt. Wie und wann werde ich das merken ? Bringt dann ein PCIe 3.0 vs 4.0 Heute gesehen in der Praxis wirklich was ?

Nach unseren bisherigen Messungen ist kein großer Unterschied zu erwarten, aber natürlich müssen wir das bei einer neuen Generation erneut prüfen. Mehr als 5-6 Prozent Unterschied (und auch die nur in einigen bestimmten Spielen) sind mir nur aus provozierten Spezialfällen bekannt, die aber nahezu alle in praxisfernen Fps-Bereiches liegen. Einzig die RX5500 mit 4 GiB kann man durch ungünstige, aber wünschenswerte Einstellungen in Situationen bringen, in denen sie mit PCI-Express 3.0 schlechte und mit 4.0 akzeptable Frameraten abliefert, da die Auslagerung überzähliger Daten in den Systemspeicher mit 4.0 gerade noch schnell genug erfolgt. Von einer 3090 erwarte ich aber nichts vergleichbares. Zwar hat sie mit ×16 die jeweils doppelte Transferrate im Vergleich zur 5500 zur Verfügung, aber sie wird (hoffentlich ^^) mehr als die doppelte Leistung bringen und mehr als die dreifache Speichergeschwindigkeit auf der Platine haben. Umgekehrt ist vom wenigstens drei-, möglicherweise sechsfachen RAM die Rede. Das heißt sie wird viel später, bei bereits viel aufwendigererer und Transferraten hungriger Grafik in die Verlegenheit kommen, Daten auszulagern und dann wird die Performance relativ zum guten Ausgangswert viel stärker zusammenbrechen. Unspielbare Frameraten auch mit PCI-Express 4.0 sind die naheliegende Folge, ein kleiner Dreh am Texturregler im Zweifeslfall die Lösung. Sobald dann wieder alle Daten in den VRAM passen, reicht auch PCI-Express 3.0 locker aus, um die aktuellen Positionsdaten der Objekte 60 bis 144 mal pro Sekunde zu übertragen.
 
Zuletzt bearbeitet:
Ich weiß, dass wir den besten Unterbau haben, um etwaige Unterschiede herauszuarbeiten. Ein paar frische Zahlen gibt's übrigens in der noch aktuellen PCGH 09/2020 (Hint: Seite 32 und 37). :-)

MfG
Raff


Hab ich mir mal als "Support" gekauft, auch wenn mir der Speziallfall 5500xt mit nur 8x Anbindung als Speziallfall schon bekannt war(ging ja hier und da durch die Presse) und ich diesen eher normalerweise praxisfremd ansehe.
8x gpus gibt's sonst eigentlich nicht so, wenn ich mich nicht irre.

Aber ganz davon ab meinte ich das mit dem Unterschied PCIe3/4 z.B. so, dass allein wenn du 3 gleiche(nicht identische ;) ) Systeme, also mit gleicher hardware nebeneinanderstellst und die gleichen benchmarks laufen lässt, kannst du ja auch hier und dort Unterschiede messen in den fps.
Wieso sollte es also mit einer nagelneuen, moderneren Plattform mit PCIe 4 nicht erst recht Unterschiede geben, durchaus auch im kleinen Rahmen wegen PCIe 4 vs. einem alten System von 2017 mit PCIe 3 ?
Vielleicht isses in WQHD/UHD gleich ~ 1 fps und bei 1080p hat man plötzlich 2-8 fps Unterschied.
Könnt' ich mir schon vorstellen.

Aber ob das dann für jemand wie mich dann immer so ein krasser Unterschied ist, dass ich echt an ein Upgrade zu einem komplett neuen System denke, das bezweifel ich halt.

Gerade von Preis-/Leistungs Ryzen Käufern(die was günstiges holen und nicht bis zum Anschlag OCen) hörte man ja oft, dass die letzten paar fps mehr, denen nicht so wichtig sind, was sie ja auch wirklich nicht sind, z.B. vs. einem schnellen Intel-Gamingsystem, wenn man eh im persönlich gefühlten "flüssigem" fps Bereich ist.
Ähnlich wird das dann vielleicht mit den paar letzten fps, wenn's um PCIe 4 und neuerer Plattform geht.

Dass der Grafikspeicher bei der 24GB Ampere so schnell voll is, da geh' ich jetzt mal nicht von aus.
Somit wird mich das Ganze, auch mit entspannten 24/7 Settings, wo es mir ebenfalls nicht auf die letzten 5 fps ankommt, eh nicht so tangieren, falls diese 24GB Karte irgendwie finanzierbar sein wird. ;)

PS: Schnell mal am Handy getippelt.
Und hat ganz schön gedauert die Einzel-E-Paper ausgabe zu finden und auf' handy zu laden.
Wollte ja aber eh mal wieder "supporten" und der Einzelsupport geht nicht, weil er sagt ich wäre schon supporter.
Dann kann ich auch gleich einzelne Digitalausgaben kaufen, als support und hab sogar noch was zu lesen. ;)
Und sry für Fipptehler am handy. Bin unterwegs. ;)
 
Da kommt großes auf uns zu, dass größte dürfte vermutlich vorerst der Preis sein.
Ich freue mich trotzdem, das es endlich wieder einen Hüpfer gibt. ;)
 
Zuletzt bearbeitet:
Ob NVIDIA den ganzen Leakern wieder mal ein Schnippchen schlägt? :-D

Wenn ich mich zu einer weiteren Vorhersage hinreißen lassen darf:
Derart viele "Leaks" wird es vielleicht noch bei den kleineren 3000ern geben, aber bei RTX 4000 wird die Zahl der Vorabquellen deutlich abnehmen. Weil gewissen Durchstechern gar nichts mehr gesagt wird. Oder nur das, was man aus Marketing-Gründen verbreitet haben will. ("kauft jetzt bloß nicht AMD, wartet noch ein halbes Jahr"-Argumente gibt man natürlich gerne an die besonders vertrausenswürdigen Leute ;-))


Könnt' ich mir schon vorstellen.

Testen >>> vorstellen.
Man kann auch Ryzen 3000 auf PCI-Express 3.0 stellen und einfachen gucken, wieviel Leistung das kostet. Muss Raff dann nur die Zeit für finden. ^^
 
Wenn ich mich zu einer weiteren Vorhersage hinreißen lassen darf:
Derart viele "Leaks" wird es vielleicht noch bei den kleineren 3000ern geben, aber bei RTX 4000 wird die Zahl der Vorabquellen deutlich abnehmen. Weil gewissen Durchstechern gar nichts mehr gesagt wird. )

Als ob das funktionieren würde. Es wird auch weiterhin Leaks geben und das ist auch vollkommen OK. In manchen Fällen sind Leaks vom Hersteller selbst gewollt um mehr Aufmerksamkeit für das Produkt zu erzeugen.
 
Genau da will nVidia im Kopf der Leute hin. Glückwunsch.
Was willst Du jetzt damit sagen oder unterstellen? :schief:
Man kauft Leistung da, wo es sie gibt, wenn man sie braucht. Ob da nun grün, rot oder blau oder sonstwer dahintersteckt ist für mich persönlich egal. Fakt ist, daß es bei ML und DL zu Nvidia und Cuda aktuell leider keine andere gute funktionierende Alternative gibt. Googles TPU beispielsweise gibts nirgends zu kaufen, von der SW-Unterstützung mal ganz zu schweigen.

Meine Güte, habt Ihr alle so viel Zeit für Eure hohlen Verschwörungstheorien? :hmm:
Das kann ich natürlich nachvollziehen. Aber ich hätte lieber noch eine weitere Option, eine 3090 die weniger VRAM hat, z.B. 16GB, und dafür günstiger ist.
Ich spiele auf einem 4K OLED TV und sehe aktuell nicht, für was mehr als 16GB brauche. Wenn ich sie brauchen sollte in Zukunft, gibt eh schon wieder eine neue GPU Generation...
Frag dazu mal bitte HisN, der wird sehr gut erklären könnten, wie Du mit UHD/4K ganz schnell mal 24 GB VRAM vollbekommst. :)

News - GeForce RTX 3000: Deutlich mehr Grafikspeicher kuendigt sich an| Seite 22 | ComputerBase Forum
 
Zuletzt bearbeitet:
Frag dazu mal bitte HisN, der wird sehr gut erklären könnten, wie Du mit UHD/4K ganz schnell mal 24 GB VRAM vollbekommst. :)

News - GeForce RTX 3000: Deutlich mehr Grafikspeicher kuendigt sich an| Seite 22 | ComputerBase Forum

Ich kenne die Werte. Die Frage ist, weshalb manche Spiele so viel in VRAM schreiben und ab welchem Punkt man überhaupt einen messbaren Effekt auf die Performance hat?
Flight Simulator braucht sicher mehr als 11GB in 4K, bei vielen anderen Spielen bezweifele ich das.

Einfach nur weil die Auslese-tools anzeigen, dass viele Daten in den VRAM geschrieben werden, bedeutet nicht das dies auch einen messbaren Performance Effekt haben muss.
 
Was willst Du jetzt damit sagen oder unterstellen? :schief:
Man kauft Leistung da, wo es sie gibt, wenn man sie braucht. Ob da nun grün, rot oder blau oder sonstwer dahintersteckt ist für mich persönlich egal. Fakt ist, daß es bei ML und DL zu Nvidia und Cuda aktuell leider keine andere gute funktionierende Alternative gibt. Googles TPU beispielsweise gibts nirgends zu kaufen, von der SW-Unterstützung mal ganz zu schweigen.

Meine Güte, habt Ihr alle so viel Zeit für Eure hohlen Verschwörungstheorien? :hmm:
Ich unterstelle nicht das Geringste und mit Verschwörungen oder benötigter Leistung hat das auch rein gar nichts zu tun, keine Ahnung was du dir da zusammenspinnst.
Ich spreche von dem von Generation zu Generation langsamen hochkochen der Preise, einer Kreierung und Etablierung einer "Prosumer"-Schicht und dortiger Platzierung der Titan Reihe, so dass es dann letztendlich eben Aussagen gibt, wie die, auf die sich mein Posting bezog.
Nicht falsch verstehen, nVidia sind dahingehend ungemein clever und haben alles richtig gemacht, keine Frage.
Traurig finde ich nur, dass es genug zahlungskräftige Kundschaft da draussen gibt, die völlig undifferenziert konsumiert, ob sie die Leistung braucht oder nicht, sei dahingestellt und den Firmen damit ihre Aufgabe nur allzu einfach macht.
 
Zuletzt bearbeitet:
Ich spreche von dem von Generation zu Generation langsamen hochkochen der Preise, einer Kreierung und Etablierung einer "Prosumer"-Schicht und dortiger Platzierung der Titan Reihe, so dass es dann letztendlich eben Aussagen gibt, wie die, auf die sich mein Posting bezog.
Nicht falsch verstehen, nVidia sind dahingehend ungemein clever und haben alles richtig gemacht, keine Frage.
Traurig finde ich nur, dass es genug zahlungskräftige Kundschaft da draussen gibt, die völlig undifferenziert konsumiert, ob sie die Leistung braucht oder nicht, sei dahingestellt und den Firmen damit ihre Aufgabe nur allzu einfach macht.
Aber das hast Du doch überall, schau Dir das Applezeugs an, schau Dir an, wie teuer die Samsung Handys und Smartwatches geworden sind. Ich hab für die Galaxy Watch 3 ca. 500 € hingelegt. Eigentlich Wahnsinn, aber ich wollte nun mal diese Watch (meine erste übrigens) mit EKG und Blutdruckmessung haben (besser fürs Alter).

Es war schon früher so, ist heute so und wird es immer so bleiben. Die, die es sich leisten können kaufen, egal ob sie es wirklich brauchen oder nicht. Das ist nicht nur bei Grafikkarten so. Oder erkläre mit bitte, warum viele Menschen - mittlerweile ein Drittel - mit einem SUV in einer Stadt rumeinern müssen. Für mich ist ein SUV ein Fahrzeug für einen Landwirt oder Förster, aber nicht für eine 23 jähre Zahnarzthelferin.

Glaub mir, das war zu Beginn der Industrialisierung und Modernisierung schon so.
Nicht falsch verstehen, nVidia sind dahingehend ungemein clever und haben alles richtig gemacht, keine Frage.
Wenn man erfolgreich ist, und das Produkt sich verkauft und läuft, wäre man doch blöde, das nicht abzuschöpfen als Unternehmer oder Unternehmen. Das machen alle so, weil es sich lohnt. Wer weiß, wie es dann aussieht, wenn "BigNavi" draußen ist. Betrachtet man hier die letzten 6 Jahre, würde ich erst mal aktuell nichts auf AMD geben. Ich würde mich sehr über eine Überraschung freuen, wie gesagt, die letzten Jahre zeugen eben nicht davon bzgl. GPUs.
 
Zuletzt bearbeitet:
Nicht falsch verstehen, nVidia sind dahingehend ungemein clever und haben alles richtig gemacht, keine Frage.

Sieh' es einfach als Gentrifizierung bei den GPUs. ;)

Manches is einfach so.
Man sieht's, aber man kann eh nix dran ändern.

Man macht drauf aufmerksam, aber niemand hört zu.

Und wenn man der einsame Rufer im Walde ist, dann is man genau das.

Irgendwann resigniert man einfach und macht je nach seinen eigenen Vorlieben und Möglichkeiten mit.
Oder man bleibt der ewige Rebell, der sich jetzt erst einen 3300x kauft, damit von seinem Phenom II upgraded und den dann auf's billigste Board klatscht, was man gebraucht kriegen kann, wo der noch läuft. Natürlich ohne PCIe4.0. .
Und mit Ram, damit der PC gerade mal so hochfährt. ;)

Nur dann fällt einem ein: Mann ... das Leben zieht so schnell vorbei. Soll man sich nicht irgendwann auch einfach mal etwas Spaß gönnen ? Also auch richtig unvernünftig Geld raushauen, einfach "just for fun" ?
Wenn man natürlich nich so viel auffer Tasche hat, tut man nem Kumpel, der sich ständig neuen Kram holt mal den ein, oder anderen Gefallen, der einem dafür dann seine ausrangierte(aber noch sehr gute) Hardware schenkt. ;) :D


Und wen das alles anko:kotz:dem empfehle ich mal ne Runde "Shameless, nicht ganz nüchtern" zu schauen. :D Also nicht die UK, sondern die US-Version. ;)
Warum ? Nur so ... :D

Trailer


PS: Wenn ich mir jetzt so ne GPU wie die 3090 holen sollte, dann soll das ja meine GPU bis 2025 sein.
Weiß ich, ob ich 2025 überhaupt noch erlebe ? Wenn nicht wär's echt doof gewesen, jetzt zu sparen und zu knausern, um dann den Löffel abzugeben.
Da hätte man auch die restliche Zeit richtig fun mit ner fetten GPU haben können und watt is ? Ich mach statt dessen n Toast und knabber an der trockenen Nudel, um Geld zu sparen "für später".


Neeeeee ;)
 
Zuletzt bearbeitet:
Nur dann fällt einem ein: Mann ... das Leben zieht so schnell vorbei. Soll man sich nicht irgendwann auch einfach mal etwas Spaß gönnen ? Also auch richtig unvernünftig Geld raushauen, einfach "just for fun" ?
Man kann es doch auch so rechnen: Seit der 7800 GTX hatte ich immer SLI bis T-SLI bei der GTX 580er. Pro Karte habe ich immer so um die 599 - 699 € gekauft. Dann eine GTX 980, 2 Titans und eine 2080 TI mit den ungefähr gleichen Preis (bis auf die 980), und immer wieder um die ungefähr Hälfte des Preises weiterverkauft. Sprich, ich habe immer alle 2-3 Jahre 500-700 € daraufgelegt, und hatte die neue Generation. Das sind dann ~300-350 € Kosten pro Jahr für eine Karte. Das ist doch jetzt nicht so viel. Klar, wenn man sie neu kauft, dann ist es eine sehr hohe Investition, die viele scheuen. Aber hat man sie einmal gemacht, dann ist sie eigentlich - wenn man immer aktuell bleibt - ein Selbstläufer. Für meinen Zahnarzt habe ich die letzten 2-3 Jahre viel viel mehr hinlegen müssen. :ugly:
 
Ich habe in meinem Leben schon mehr Geld "just for fun" rausgeschmissen, als gut für mich gewesen wäre. :ugly:
Aber die Zeit habe ich hinter mir. Mittlerweile bin ich alleinverdienender Familienvater und habe andere Prioritäten. Was nicht bedeutet, dass ich mir keine Karte für 1,5k€ leisten KANN. Ich MÖCHTE aber nicht.
Für das Geld fallen mir spontan 5 andere Dinge ein, von denen meine ganze Familie etwas hat, was mich glücklicher macht, als mir überteuerte Hardware in mein Hobby zu pumpen.
Denn wie du schon sagst, man lebt nur einmal, da ziehe ich so viele Dinge dem alleine vor dem Monitor daddeln vor...

Man kann es doch auch so rechnen: Seit der 7800 GTX hatte ich immer SLI bis T-SLI bei der GTX 580er. Pro Karte habe ich immer so um die 599 - 699 € gekauft. Dann eine GTX 980, 2 Titans und eine 2080 TI mit den ungefähr gleichen Preis (bis auf die 980), und immer wieder um die ungefähr Hälfte des Preises weiterverkauft. Sprich, ich habe immer alle 2-3 Jahre 500-700 € daraufgelegt, und hatte die neue Generation. Das sind dann ~300-350 € Kosten pro Jahr für eine Karte. Das ist doch jetzt nicht so viel. Klar, wenn man sie neu kauft, dann ist es eine sehr hohe Investition, die viele scheuen. Aber hat man sie einmal gemacht, dann ist sie eigentlich - wenn man immer aktuell bleibt - ein Selbstläufer. Für meinen Zahnarzt habe ich die letzten 2-3 Jahre viel viel mehr hinlegen müssen. :ugly:
Das ist eine schöne Rechnung, die bei uns aber niemals aufgeht. Wir haben hier, ohne Notebooks und Mobiles, 7 Rechner stehen. Hardware durchläuft bei uns in der Regel immer erstmal mindestens 4 Stationen, bevor sie rausfliegt.
Sprich, meine 1080ti wird erst meine Frau erben, dann mein Sohn, dann... Passt halt auch vom Einsatzzweck richtig gut, für mein 4k brauch ich was neues, meine Frau wird in WQHD noch richtig glücklich und wenn es da nicht mehr reicht, der Große hat FHD...
Die Karte, die diesmal hinten rausfliegt, wird eine MSI R7 260X sein, da bleibt einfach nicht viel hängen. Oder hat hier jemand Interesse an einem maßlos überteuerten, aber top gepflegten Schmuckstück? *aufhorch* :D
 
Zuletzt bearbeitet:
Zurück