ATi gewinnt - Fermi die Enttäuschung des Jahres

AW: ATi gewinnt - Fermi die Enttäuschung des Jahres

@Gecan: Ich wüsste jetzt nicht was daran so witzig sein sollte? Weder du, noch ich, noch sonst wer wird dazu gezwungen eine solche Karten zu kaufen. Es haben auch sehr wenige eine HD 4870 X2, oder eine GTX 295 gekauft. So wird es mit der HD 5970 und einer Dual-GPU-Karte aus zwei "Fermi"-Chips auch sein.

Zudem hat Nvidia bisher immer seine High-End-Chips abgespeckt, wenn diese für eine Dual-GPU-Karte genutzt werden sollten. Entweder wurde nur der Takt reduziert, oder aber der Takt und die Ausführungseinheiten. Somit würde man wieder unter 300 Watt kommen, wenn Nvidia unbedingt eine Dual-GPU-Karte aus zwei "Fermi"-Chips bräuchte.

Zudem wird dein ehemaliges HD 4890-Crossfire-Setup die 300 Watt auch gesprengt haben...

Ich hingegen halte von jeglichen Multi-GPU-Setups rein gar nichts, egal ob SLi oder Crossfire, darum interessieren mich die ganzen Multi-GPU-Karten von ATI und Nvidia auch kein bisschen.

Weshalb du jetzt natürlich über eine Dual-GPU-Karte aus zwei "Fermi"-Chips spekulieren musst, obwohl es noch nicht einmal etwas handfestes zum "Fermi" gibt, ist mir absolut schleierhaft...
 
AW: ATi gewinnt - Fermi die Enttäuschung des Jahres

Gunny Hartman: Wenn Nvidia sich überlegt, eine Dual-Fermi Karte rauszubringen, könnte die schon an den 500 Watt kratzen :lol:



das wäre nicht mal mit 2x 8 pin möglich :ugly:

und sollte der fermi tatsächlich gute 225W bis 250W verbraten :schief:

so wird es aufkeinfall ein dual karte von fermi geben auser man kastriert es gute 30% runter damit 300W möglich wären :ugly:

oder eben mit mit 2x 8pin ausstatten dann wären noch 375W möglich :ugly::lol:

Wäre ja auch schwachsinnig von Nvidia eine Dual-Fermi Karte rauszubringen. Jedenfalls müsste man dazu, wie du sagst die GPU kräftig abspecken. Gut 500 Watt wären übertrieben. Aber Ich meinte damit eher, dass es in Zukunft so kommen könnte, dass eine Grafikkarte 500 Watt braucht, wenn man die PCIe-Specs weiter nach oben ausbaut. Ob das so geschehen wird oder nicht sei mal dahingestellt. Wenn Ati und Nvidia GPUs entwickeln, die 250, 300 oder 350 Watt brauchen, ist das hirnrissig. Aber Dann wird man versuchen die PCIe-Specs zu erhöhen. In der Vergangenheit ist dies ja schon mal geschehen. Altere Karten haben auch weniger Strom verbraucht. Man sieht also schon einen Trend hin zu mehr Stromverbrauch bei Grafikkarten. Irgendwo muss der mal aufhören, nicht erst bei 500 Watt. Die 300 Watt sind mehr als ausreichend. Dual-GPU Lösungen sind denke Ich immer schlechter als zwei Karten in SLI oder CF. Ich bin jedenfalls der Meinung, dass keine Karte, egal ob Dual oder Single GPU mehr als 300 Watt verbrauchen sollte. Dazu sind die GPUs einfach zu schnell, als dass das nötig wäre.
 
AW: ATi gewinnt - Fermi die Enttäuschung des Jahres

Dr. Cox: Ich wüsste jetzt nicht was daran so witzig sein sollte?


hitze und lautstärke bei 300W bzw 375W :ugly:



und du meinst das nv ihre high end gpu abspeckt :schief:

wie würde es dann beim fermi dual gpu ausehen wenn angenommen fermi sigle gpu gute 225W verbrät ? :lol:

so oder so müsste es man mit 2x 8 pin austatten und gute 35% performance verlust gegenüber 2 gpu karte von fermi ;)

aber klar ist ja alles nur eine vermutung mit den 225W von mir :D
 
AW: ATi gewinnt - Fermi die Enttäuschung des Jahres

Die Fermi sollen doch "OC" Funktionen bekommen - man wird also den Takt nur so hoch ansetzen wie es Stromverbrauch und PCIe Spezifikation zulassen. Alles weitere darf dann der Kunde auf eigene Gefahr ausprobieren.

Dual GPU Karten, halte ich wie meine Vorredner, allgemein für Müll. Microruckler, Treiberprobleme, bei nur 50% der Spiele nutzt es überhaupt etwas - nö - brauch man nicht.

PS : Thema abspecken : NVidia haben ja angekündigt, die Mainstream Fermis VOR den HighEnd zu veröffentlichen. Abgespeckte Fermi sind da nicht ausgeschlossen.
 
AW: ATi gewinnt - Fermi die Enttäuschung des Jahres

Nvidia hat 2009 zu Recht ins Gras gebissen!

Nein, ich bin kein ATI/Nvidia-Fanboy ;-)
 
AW: ATi gewinnt - Fermi die Enttäuschung des Jahres

eigentlich sind mir NV und ATI egal, sind beides Gewinnorientierte Firmen, aber nur der Richtigkeit halber, hatte ATI das Rebranding nicht erfunden ?
 
AW: ATi gewinnt - Fermi die Enttäuschung des Jahres

die ATI boys betreiben Polemik bzgl Strom"verbrauch" ?

Radeon HD 5870: Die erste Direct-X-11-Grafikkarte im Benchmark-Test - Radeon HD 5870 Test, HD 5850, HD 5800, DirectX 11, Benchmark, Grafikkarte

die 5870 ist dank 40nm Prozess zum ersten mal in einem erträglichen Bereich, aber Nv sind die Stromschleudern? ahja...

Lern lieber erst mal lesen, bevor du mit Fremdwörtern um dich wirfst.

Ich meine lediglich, dass es zwar gut ist, wenn die Karten immer schneller werden, aber nicht zu lasten des Stromverbrauchs. Bevor die Hersteller Karten rausbringen, die 500 Watt verbraten, sollte man sich lieber überlegen, wie man GPUs effizienter machen kann. Gleiches gilt für Spiele und andere Anwendungen. Wenn man die Software so programmiert, dass sie weniger Leistung von der Hardware fordert, dann kommt diese auch mit weniger Strom aus, bei gleichem Ergebnis.
 
AW: ATi gewinnt - Fermi die Enttäuschung des Jahres

Wenn interessiert die Entäuschung des Jahres wenn immer noch nichts sicher ist.Nvidia sagt irgendwas auf ihrer Seite bla bla ....Die können genauso gut noch was in der Hinterhand haben die machen nicht alles öffentlich .Ka hier wird immer alles am chipnamen festgemacht das interessiert garnicht.Das sind nur Tabellen für die Öffentlichkeit.Man wird es sehen was kommt ob Ati oder Nvidia gewinnt das zählt.Und immer dieses verteidigen von Firmen das ist einfach quatsch.Der eine kauft sich das der andere das die Grafik ist die gleiche die Leistung etwas anderes.
 
AW: ATi gewinnt - Fermi die Enttäuschung des Jahres

Wenn interessiert die Entäuschung des Jahres wenn immer noch nichts sicher ist.Nvidia sagt irgendwas auf ihrer Seite bla bla ....Die können genauso gut noch was in der Hinterhand haben die machen nicht alles öffentlich .Ka hier wird immer alles am chipnamen festgemacht das interessiert garnicht.Das sind nur Tabellen für die Öffentlichkeit.Man wird es sehen was kommt ob Ati oder Nvidia gewinnt das zählt.Und immer dieses verteidigen von Firmen das ist einfach quatsch.Der eine kauft sich das der andere das die Grafik ist die gleiche die Leistung etwas anderes.

Denke das nicht sichere, ist ja die Enttäuschung :daumen2:
Ob man nun ATi mag oder nicht, sie waren fix und haben die richtigen Verbesserungen gemacht und eine gute 5er Serie rausgebracht.
Und egal wie man zu nV steht, das warten ist nun nicht der Burner und egal was am Ende rauskommt, es hat gedauert.
 
AW: ATi gewinnt - Fermi die Enttäuschung des Jahres

Ja natürlich aber Dinge die man entwickelt brauchen ihre Zeit.Und wenn der eine weniger braucht und der andere mehr ist egal.Das Endergebnis zählt ja.
 
AW: ATi gewinnt - Fermi die Enttäuschung des Jahres

meine vermutung hat ja voll ins Thermi getroffen :lol:

aber vll wird uns ja NV nochmal überraschen mit ein Fermi dual gpu der alles wegsprengt wie eine Atombombe :D

also --> 2x 8pin & 1x6pin= 450Watt :ugly:
 
Zuletzt bearbeitet von einem Moderator:
AW: ATi gewinnt - Fermi die Enttäuschung des Jahres

meine vermutung hat ja voll ins Thermi getroffen :lol:

aber vll wird uns ja NV nochmal überraschen mit ein Fermi dual gpu der alles wegsprengt wie eine Atombombe :D

also --> 2x 8pin & 1x6pin= 450Watt :ugly:

Wieso? 20% Mehrleistung zur Konkurenz sind doch durchaus ok. Es ist zwar kein Grund, von einer HD5870 auf eine GTX 480 umzusteigen, aber sonst...
Ich bin einfach mal gespannt, was Nvidia aus der Architektur noch so herauszaubern wird.
 
AW: ATi gewinnt - Fermi die Enttäuschung des Jahres

Welch eine Überschaung... also bitte das war von anfang an klar das FERMI die Entäuschung des Jahres war. :lol:
 
AW: ATi gewinnt - Fermi die Enttäuschung des Jahres

aja was soll ich zu dein wort --> herauszaubern verstehen ? :ugly:

Fermi muss erstmal aus Venus zurück befor NV anfängt mit Fermi zu zaubern :lol:
 
Zurück