ATI nun doch mit GTX 295 Killer in Form der Radeon HD 4890 X2

Aufgrund der immer größeren Auflösungen (24er TFTs sind so billig wie nie) spielt die Grafikkarte in den meisten Games eine immer entscheidendere Rolle.
die frage ist, ob danach noch viel an höhere auflösung kommt, oder das ganze erstmal stagniert. full hd ist zwar schon echt geil, aber da stößt es dann schon langsam an die grenze, wo man mehr details erkennen kann bei höhere auflösung. und ich glaube kaum, dass sich viele nen 30"er auf den tisch stellen werden.

Der PCI-E Switch ist mit je 16 Lanes an GPU1, GPU2 und Restsystem angebunden. Erkannt wird demnach eine 16Lane-Karte, aber die 16 Lanes stehen ~abwechselnd der einen oder der anderen GPU zu Verfügung. Die Kommunikation zwischen den GPUs wird aber afaik bei beiden Herstellern ganz normal über eine Crossfire bzw. SLI Verbindung auf der Platine abgewickelt, belastet also die Verbindung über die Bridge nicht.
der nvidia-bridgechip kann auf jeden fall auch kommuikation unter den GPUs verwalten, also zwei GPUs hinter einer bridge können daten unabhängig vom system austauschen.

Wenn man sich mal anguckt, wie gut Mafia oder Max Payne 2 auf einer 20W Karte aussehen und wie wenig mehr einem Crysis (das im Vergleich zu einigen Mitberwerbern noch einigermaßen sauber programmiert ist, aber halt viel Leistung in nicht wahrgenommene Details steckt) auf einem 600W (Faktor 30!!!!) System, das für vergleichbare Performance benötigt wird, gibt, dann stellt sich imho die Frage nach der Verhältnissmäßigkeit...
(und das jetzt mal nur bei Betrachtung der Grafik. Eigentlich gehts aber um Spielspaß, der allein durch erstere nicht gerade stark steigt)
es ist nunmal immer so, dass das beste, was aktuell verfügbar ist, mehr ressourcen verschluckt als anderes. ein ferrari schluckt auch mehr als ein kleinwagen, dennoch erreicht ein kleinwagen 10 jahre später dieselben rundenzeiten. das imho nichts schlimmes, sondern einfach normal, das nunmal das beste, was es gibt, überdurchschnittlich teuer ist.
 
Wirtschaftskriesenlösung ist die HD4890X2. Ökoproblem? Löst auch die HD4890X2.

Wenn wir schon Probleme haben, dann können wir auch drauf rumtrampeln.
 
Zuletzt bearbeitet:
Sorry aber solche Comments nerven mich einfach.


Erst mal richtig LESEN :
Aus meinen vorherigen Beitrag geht hervor : Ich habe keine Dual GPU & bevorzuge diese auch nicht ! ( siehe auch Signatur ).


Erst mal DENKEN :
Du = Zuerst mal FALLOUT 3 spielen, kurze Ruckler sind IMMER.
Einfach mal "googlen" nach "Fallout 3 Ruckler". Sehr viele haben das Problem auf SINGLE GPU's
Ist komplexes Problem, noch nicht per Patch behoben wurde. Das Spiel ist generell ein Witz. Was ich alles machen musste damit es nach meinen Standard Ansprüchen läuft ( zich Einträge in die ini Datein, damit sich VSYNC endlich ausstellt, damit die CPU besser arbeitet für FPS Boost, Auflösung nicht anwählbar, Maus total schwammig unpräzise, Mikroruckler ). Grausam.
Lösung Mikroruckler : FPS in der FALLOUT.ini festlegen, allerdings dann noch per FPS-Limiter die maximale FPS festlegen, damit man nicht in Zeitlupe ( FPS niedriger als in der FALLOUT.ini ) oder in High Speed Modus ( FPS größer als in FALLOUT.ini) spielt. Allerdings funktioniert das nicht immer.

Hier ein paar Links für deine Unwissenheit :
Zu ruckeln/stottern beim spielen trotz konstanter FPS BITTE ABSTIMMEN - Forum de Luxx
Forum: Fallout 3 ruckelt


Nicht gleich voreilig urteilen :
Woher weisst du, dass ich meine System nicht ordnungsgemäß (grafisch) einstellen kann?
Glaub mir, ich habe mindestens das Grund Know-How um diese Einstellungen zu machen.
Du denkst wohl ich installiere das Spiel und starte es : " MISST läuft nicht, ruckelt, das müssen Mikroruckler sein."
Ich find die Leute immer genial die anderen über den Mund fahren und MEINEN ZU WISSEN !


Solche Äußerungen von Usern habe ich am Liebsten :
"also bitte leute erst denken dann labern "



Es sieht so aus als ob :
- du schon mehrfach Kommentare zu den Mikrorucklern abgegeben hast
- dich die Thematik ( glaub ich dir auch ) nervt. -> Ja, es ist eine Geschichte voller Missverständnisse.
- dich schon viel damit befasst hast und Aussagen wie meine, die du flüchtig überflogen hast, zu deinen geschrieben Worten getrieben haben

->Ich kanns dir deshalb nicht für übel nehmen.


Ich stelle mir so Mikroruckler vor, deshalb schrieb ich es im letzten Beitrag.
Ob es nun wirklich Mikrorucklern sind oder nur ein "sogenanntes gefühltes stottern oder ruckeln trotz hohen FPS" kann ich nicht sagen, aber es wird als solches als MIKRORUCKLER tituliert. Ob es die Mikroruckler sind, die du meinst, no idea.



Mein Tip für dich trotzdem :
Lesen, verarbeiten, verstehen. Im Zweifel nachfragen, dann äußern !
 
Zuletzt bearbeitet:
MICRORUCKELN tritt erst auf, wenn die frames per second unter 40 teilweise unter 30 einbrechen...
...sonst sind die frames bei einer gtx295 oder 4870x2 gar nicht in den bereich um 30-40 zu bringen

NEIN!
Hier muss ich dich leider enttäuschen Maxle.
Mit steigender Power im System steigt in einem auch das Bedürfnis nach mehr Grafik mit maximalen/ultra Settings die man sehen will.

Wieso sollte man sich dann sonst so ein Grafik-Monster holen ?
Um auf LOW Settings zu spielen ?

Deine Theorie ist mehr als fragwürdig.
Ein Kaufgrund solcher Graka wäre für mich, dass ich nicht ewig in den Grafik-Einstellungen rumexperimentiere will, was denn flüssig läuft. Sondern alles auf MAX setze und davon ausgehe, dass es flüssig läuft.
Ist auch alles Treiberabhängig.


Um nur ein Beispiel zu nennen um deine Theorie zu verneinen :

Crysis Warhead zum Beispiel läuft auf einer GTX295 bei einer Res. von 1280x1024 mit 4xAA und 16AF mit SCHNELLEN ( IRONIE ! ) 35 FPS.

Wenn man diese Monster-Graka hat, dann hat man meistens auch einen riesen Monitor. 16:10 ist ja der Trend. Da kommen Auflösungen von 1680x1050 und mehr. Gut, hohe Auflösung da brauchts weniger AA aber auch mehr Power der Graka. Hebt sich auf.

Crysis Warhead bei 1680x1050 ohne AA/AF läuft mit super flüssigen ( Ironie die 2. ) rund 40 FPS.

Die Werte sind Durchschnittswerte.
Was heißt das für den intelligenten Leser ?

Die Fps sind entweder immer bei 40 FPS oder ergeben sich aus einem Mittelwert von hohen FPS ( höher als 40 ) und niedriger FPS ( unter 40 ).

Und schwups haben wir in manchen Szene mal 25 FPS und manchmal 55 FPS.

Auch andere Games laufen so schlecht. Gibt natürlich Ausnahmen wo die GTX295 nur so vor FPS strotzt.


Damit wäre dem was du sagst wohl endgültig zu verneinen.
 
Es heißt Wirtschaftskrise...
Schön. Kriegst eine Mark. :daumen:

Hauptsache du gibst irgendwas von dir oder? Aber in der Sig 3 verschiedene Systeme haben, dass ich nicht lache.....
Na und? Ich habs eben. Soll ichs deswegen wegwerfen?

Keiner meiner Systeme verbraucht im Leerlauf so viel wie eine HD4890X2 im Leerlauf. Schon gar nicht wenn man die Lastwerte aufzält. ******** wenn man schon ein Battle starten kann das "Karte vs Komplett-PC" heisst.
 
Naja laut sind manche echt. Wenn ich im Hörsaal sitze, dann bekomme ich manchmal das kot... bei den lauten Luftsystemen mancher Notebooks.

Wir sprechen hier ja vom technisch möglichen, nicht von Billigschrott ;)

Mir ging es da um den "Green IT" Gedanken, man kann nicht zum einen die Hände in die Höhe reißen und schreien unsere CPU verbraucht am wenigsten bei guter Performance und nimmt dann einen 4 Jahre alten Chipsatz und verpulvert da etliche Watt ins Nichts. Das passt nicht zusammen.

Das stimmt wohl - wobei Atom seitens Intel auch nie als GreenIT, sondern als billig vermarktet wurde. Und zu letzterem passt ein alter Chipsatz sehr gut.
(abgesehen davon bin ich immer noch der Meinung, dass Atom 1 als billiger Versuchsballon gedacht war und Intel sich bis heute nicht erklären kann, warum sich das Ding so gut verkauft - siehe auch die mehrfache massive Steigerung der Produktionskapazitäten, die aber bis heute nicht dazu genutzt wird, mal die Dualcore-Versionen zu verbreiten, die ursprünglich schon im Herbst den Markt neu anheizen sollten. N neuer Chipsatz liegt ja auch schon seit Monaten in der Schublade, wird aber quasi nicht verbaut - wozu auch? Geld verdienen ist angesagt)

Zu deinem Vergleich: der hinkt etwas. Man muss beide Plattformen für sich betrachten. Das eine ist eine full ATX Plattform mit vielen Anschlüssen wie 8-10USB, Firewire, Dual Lan, usw. (Nortbridge) und Features (SLI etc.) und mit höherem FSB, mehr Funktionen im Bios usw.
Ist doch klar, dass eine ATX Plattform da nicht mithalten kann.

Sicherlich hinkt der Vergleich ein bißchen, aber nicht soo stark: Die Southbridge kann nämlich weder Firewirde, DualLan, in dieser Konfiguration SLI, und nen FSB hat sie erst gar nicht, nen Speichercontroller auch nicht,... - das sind alles Funktionen, für die weitere Chips benötigt werden, die aber in dem Stromverbrauch der Atom-Plattform bereits mit einfließen. (naja - SLI, Dual-Lan nicht ;) )


ich denke man sollte hier mal eine sache ganz deutlich im bezug auf "microruckeln" (unwort des jahres)
klarstellen.
MICRORUCKELN tritt erst auf, wenn die frames per second unter 40 teilweise unter 30 einbrechen. alles darüber ist absolut flüssig (ja auch subjektiv)!

Nicht "auch", sondern "ausschließlich" subjektiv. Objektiv sind nämlich auch bei hohen fps genau die gleichen Einbrüche messbar. Wenn jemand die jenseits von ~40fps nicht mehr sieht, dann heißt das nichts weiter, als er dass Frametimes von ~40ms (die ein Micro"ruckler" bei 40fps eben doch noch überbieten kann) als "flüssig" wahrnimmt.
Das heißt umgekehrt aber auch, dass alles, was schneller als dies 40-33ms (25-33fps) berechnet wird, vollkommen für die Katz bzw. Schwanzmark ist.
Wenn eine HD3890X2 30% ihrer Leistung verschenken kann, ohne das ich was davon merke, dann ist das zwar flüssig - aber ein effizienteres, Microruckler-freies Setup mit 30% weniger "fps" (ne GTX285?) wäre genauso flüssig. Und würde nur halb soviel Strom verbrauchen.

Also entweder will man die Leistung voll ausreizen -dann hat man bei Multi-GPU das Problem mit Microrucklern- oder man braucht gar nicht soviel Leistung, dann braucht man aber auch kein Multi-GPU zum spielen.


die frage ist, ob danach noch viel an höhere auflösung kommt, oder das ganze erstmal stagniert. full hd ist zwar schon echt geil, aber da stößt es dann schon langsam an die grenze, wo man mehr details erkennen kann bei höhere auflösung. und ich glaube kaum, dass sich viele nen 30"er auf den tisch stellen werden.

Das hat man vor nem Jahrzehnt auch von 22"er gesagt.
Es gab zwischenzeitlich mal n Einbruch/lange Stagnation durch die 17-19" TFTs, aber im Schnitt wachsen Monitorgrößen und damit Auflösungen zwar langsam, aber kontinuirlich.

der nvidia-bridgechip kann auf jeden fall auch kommuikation unter den GPUs verwalten, also zwei GPUs hinter einer bridge können daten unabhängig vom system austauschen.

Afaik nutzt Nvidia Synchronisation über PCI-E aber nur bei den einfachsten GPUs, die erst gar keine SLI-Verbindung mitbringen.

es ist nunmal immer so, dass das beste, was aktuell verfügbar ist, mehr ressourcen verschluckt als anderes. ein ferrari schluckt auch mehr als ein kleinwagen, dennoch erreicht ein kleinwagen 10 jahre später dieselben rundenzeiten. das imho nichts schlimmes, sondern einfach normal, das nunmal das beste, was es gibt, überdurchschnittlich teuer ist.

Das Beispiel hinkt richtig:
- N Kleinwagen erreicht vielleicht 40 Jahre später die gleiche Leistung
- schluckt dann aber auch ein vielfaches des 40 jahre älteren Gegenstückes.
- heutige Einsteiger-Grafikkarten verbrauchen z.T. mehr, als ältere High-End Karten
- werden aber von einer ganz anderen Käuferschicht gekauft
- der Verbrauch bei Spielern ist kontinuirlich am steigen.
Das zu einem Zeitpunkt jeweils Beste verbraucht natürlich extra viel, aber das Problem ist eben, dass das etwas bessere der nächsten Generation auch merklich konsumiert, das als das etwas bessere der letzten. Und da die großen Chips die Entwicklungsrichtung vorgeben, tut sich da in Sachen Optimierung auch sehr, sehr wenig.
 
Wir sprechen hier ja vom technisch möglichen, nicht von Billigschrott ;).

Naja ich halte zB. ein 1200€ Sony Notebook jetzt nicht für Billigschrott.
Wenn man einen Vergleich herstellen will, muss man auch ungefähr das preisliche Niveau eines Desktop PCs hinzuziehen, sonst vergleicht man wieder Eier mit Schinken.
Eines steht fest, will man ein leises Notebook System muss man Abstriche in der Taktfrequenz der CPU und bei der GPU hinnehmen.
Will man einen Desktop Ersatz in Form eines Notebooks, dann hat man locker 2,0 -3,0+ Sone und das wiederum ist eindeutig zu viel.

Das stimmt wohl - wobei Atom seitens Intel auch nie als GreenIT, sondern als billig vermarktet wurde. Und zu letzterem passt ein alter Chipsatz sehr gut.

Wurde oft genug in den Medien angesprochen, wie toll das Watt/Leistungsverhältnis ist und verschweigt dann die Systemgesamtwerte, aufgrund des hohen Verbrauchs des Mainboards.





Sicherlich hinkt der Vergleich ein bißchen, aber nicht soo stark: Die Southbridge kann nämlich weder Firewirde, DualLan, in dieser Konfiguration SLI, und nen FSB hat sie erst gar nicht, nen Speichercontroller auch nicht
.

Man kann es drehen wie man will, ein Desktop Mainboard wird auf Leistung getrimmt und ein Notebook Mainboard auf Stromsparen, da kommt erst an zweiter Stelle die Leistung. Notebooks sind in allen Funktionen ein beschnittener Desktop PC. Es fehlt an Funktionen und Leistung (kein Notebook System knackt die 25.000er Marke in 3DMark 06 zB.).

Ich will jetzt nicht Notebooks schlecht machen. Mit der Leistung kommt man als Normal User locker aus, aber wenn es um mehr geht, sieht es eher mau aus. Ich wiederum von der 1000€ Klasse aus, denn alles darüber verzerrt wieder den kompletten Vergleich, aufgrund des höheren Preises.



Das hat man vor nem Jahrzehnt auch von 22"er gesagt.Es gab zwischenzeitlich mal n Einbruch/lange Stagnation durch die 17-19" TFTs, aber im Schnitt wachsen Monitorgrößen und damit Auflösungen zwar langsam, aber kontinuirlich.

Eben, der Mensch gewöhnt sich schnell an Besseres, egal ob es eine gute Soundanlage ist oder eben mehr Bildschirmfläche. Ich bin vom 17er auf nen 22er gewechselt und am Anfang hat mich die Fläche fast erschlagen. Mittlerweile könnte ich mir auch einen 24er vorstellen.

Und genau da liegt ja der Hacken, desto größer die Auflösung, desto schneller sind die Reserven einer GPU aufgebraucht. Durch die Physik - GPU Berechnung (kostet ja auch Leistung) noch schneller, wenn da nicht Leistung bei den neuen Generationen nachkommt, wird die GPU der limitierende Faktor....


mfg


Kosake
 
Das hat man vor nem Jahrzehnt auch von 22"er gesagt.
Es gab zwischenzeitlich mal n Einbruch/lange Stagnation durch die 17-19" TFTs, aber im Schnitt wachsen Monitorgrößen und damit Auflösungen zwar langsam, aber kontinuirlich.
Irgendwo sind aber Grenzen. Einen 80" Monitor kann ich nicht mehr überblicken, einen 22" mit 5000x3000 Auflösung kann ich nicht mehr lesen.

Afaik nutzt Nvidia Synchronisation über PCI-E aber nur bei den einfachsten GPUs, die erst gar keine SLI-Verbindung mitbringen.
Die Bridge wird auch genutzt, sowohl für interne GPU-Kommunikation als auch für z.B. Broadcasts.

Das zu einem Zeitpunkt jeweils Beste verbraucht natürlich extra viel, aber das Problem ist eben, dass das etwas bessere der nächsten Generation auch merklich konsumiert, das als das etwas bessere der letzten. Und da die großen Chips die Entwicklungsrichtung vorgeben, tut sich da in Sachen Optimierung auch sehr, sehr wenig.
Im Vergleich zur 8800 z.B. schluckt eine heutige GTX285 auch nicht mehr. Im Idle sogar deutlich weniger.
 
Irgendwo sind aber Grenzen. Einen 80" Monitor kann ich nicht mehr überblicken, einen 22" mit 5000x3000 Auflösung kann ich nicht mehr lesen.

Klar gibt es irgendwann eine Grenze. Aber bis dahin muss weiterhin die GPU Leistung steigen, um das Ganze zu bewältigen.
Es gibt auch ein weiteres Szenario: zB. 22" mit 24" Auflösung, so werden auf kleineren Displays hochauflösendere Bilder wiedergegeben. Auch sowas kostet Leistung.
Noch ein weiteres Beispiel ist 3D TFTs.
Es gibt genügend Varianten, um mehr Leistung zuziehen.

Ganz nebenbei Konsolen zockt man auch über TV (40"+)

Im Vergleich zur 8800 z.B. schluckt eine heutige GTX285 auch nicht mehr. Im Idle sogar deutlich weniger.
Architektur Optimierung vom G80 zum G200, zudem gibt es einen besseren Idle Modus und nicht zu vergessen die DIE Shrinks ;-)

mfg

Kosake
 
Ich als Enthusiast bin immer für das Neuste und Schnellste. Aber mitlerweile ist bei mir auch ein Umweltbewusstsein eingetreten. Die Zeiten eines Pentium 4 im GHz Wettstreit sind vorbei. Der Verbrauch ist zum absoluten Kaufargument gewurden, auch für einen Teil der Enthusiasten. Für mich fällt diese Karte einfach mit ihrem Verbrauch und dem akuten Problem Mikroruckler aus.

Intel musste damals zwangsläufig die Segel streichen, bei derartigen Strömen auf kleinstem Raum entstehen zwangsläufig zerstörerische Effekte durch Elektromigration.

Was aööerdings momentan auf dem Grafikkartensektor läuft ist ohne gleichen. Schon eine 4870 besitzt eine völlig indiskutable Leistungsaufnahme unter Desktop-2D Bedingungen. Jetzt erhöht man die Kernspannungen und packt 2 GPU`s auf ein Board. Dann am besten noch ein übertakteter Quadcore dazu und fertig ist die Heisszelle. Das es für die Lebensdauer der Peripherie auch nicht gerade förderlich ist im Temperaturgrenzbereich zu arbeiten versteht sich von selbst. Selbst die deutlich weniger temperaturkritische GTX 295 ist ist für mich inakzeptabel, DualGPU Lösungen haben selten im Endkundenmarkt Vorteile ausgespielt (schon seit Fury MAXX Zeiten). Und daß eine Grafikkarte 130 Watt in Wärme verwandelt während ich ein Word-Dokument verfasse kann ja wohl nicht der Ernst sein.

Hier fehlt mir auch eine kritischere Einstellung von Seiten der PCGamesHardware, man merkt daß ihr ungleich stärker am Tropf der Industrie hängt als die wirklich objektiv berichtende Publikation aus Hannover. Das soll keine Grundsatzkritik sein, kein Blatt kann es in Bezug auf Professionalität auch nur annähernd mit dem Heise-Gewächs aufnehmen.

Allerdings ist die "weniger kann mehr sein"-masche nicht unbedingt eure Divise.
 
Ganz nebenbei Konsolen zockt man auch über TV (40"+)

Aber TVs haben sind sowieso auf Full-HD beschränkt, da kann ein 30"-Bildschirm mehr.;)


Schon eine 4870 besitzt eine völlig indiskutable Leistungsaufnahme unter Desktop-2D Bedingungen.

Da hat ATI auch wirklich Mist gebaut. Aber das kann man ja selber beheben... einfach mit ATITrayTools ein 2D-Profil mit gesenkten Taktraten und Spannungen, vor allem vom Speicher, erstellen, und schon hat man sein eigenes Powerplay.:daumen:
Das Blöde ist halt dass der GDDR5 soviel Strom zieht. Aber für ATI wäre es sicher kein großer Aufwand, das hinzubekommen. Wenn jeder das selber machen kann, kann es garnicht so schwer sein.
 
Irgendwo sind aber Grenzen. Einen 80" Monitor kann ich nicht mehr überblicken, einen 22" mit 5000x3000 Auflösung kann ich nicht mehr lesen.

Du kannst eine Zimmerwand nicht überblicken?
Das qualifiziert als starke Sehschwäche ;)
Die Auflösung/Fläche ist eher begrenzt, aber auch da ist die Spitze nicht erreicht: Für Textdarstellung macht mehr vielleicht keinen Sinn, aber solange die Leute noch AA nutzen, sind sie offensichtlich in der Lage, pixelgroße Strukturen=Kantenstufen wahrzunehmen.

Das Limit ist erst erreicht, wenn das Display den kompletten Schwenkbereich des menschlichen Kopfes einnimmt und eine Auflösung bietet, die auch beim betrachten einzelner Bereiche über der des Auges liegt...
Aber dann kommt eh das Holodeck :ugly:

Im Vergleich zur 8800 z.B. schluckt eine heutige GTX285 auch nicht mehr.

Aber auch nicht wirklich weniger. Und im Gegensatz zur 8800Ultra ist sie auch nicht die Spitze - das ist die GTX295. (und über der käme noch die 4870X2...)
 
Du kannst eine Zimmerwand nicht überblicken?
Das qualifiziert als starke Sehschwäche ;)
Die Auflösung/Fläche ist eher begrenzt, aber auch da ist die Spitze nicht erreicht: Für Textdarstellung macht mehr vielleicht keinen Sinn, aber solange die Leute noch AA nutzen, sind sie offensichtlich in der Lage, pixelgroße Strukturen=Kantenstufen wahrzunehmen.

Das Limit ist erst erreicht, wenn das Display den kompletten Schwenkbereich des menschlichen Kopfes einnimmt und eine Auflösung bietet, die auch beim betrachten einzelner Bereiche über der des Auges liegt...
Aber dann kommt eh das Holodeck :ugly:



Aber auch nicht wirklich weniger. Und im Gegensatz zur 8800Ultra ist sie auch nicht die Spitze - das ist die GTX295. (und über der käme noch die 4870X2...)


Würde ich nicht mal so sagen, denn wenn Displays in der Lage sind solche Auflösungen zu auf entsprechenden Raum anzuzeigen und die Hardware das mitmacht, ist es eventuell auch nciht merh weit zu cybernetischen Verbesserungen der Sinneswahrnehmung ;), kurzum, nach oben sind da kaum Grenzen gesetzt, in wie weit das allerdings Sinn amcht steth auf einem anderen Blatt ;).
Ich persöhnlich würde auch eine höhere Auflösungsdichte bei monitoren begrüßen (natürlich nur mit sinnvolelr Anpassung der Schriftgröße und ähnlichem), da ich wenn iche es will auf meinem 24" Monitor Pixel zählen kann.
Das maximale Auflösungsvermögen der Augen liegt (laut Wikipedia) bei 0,3', also 0,005° bei einem Gesichtsfeld von
etwa 170° horizontal und etwa 110° vertikal. Das ergibt eine notwendige Auflösung von 34000*22000 im Verhältnis von 17:11. (Aber ohne 3d Effekt, dafür wäre ja das ganze theoretisch nochmal *2 (kommt praktisch nicht ganz hin, da ja ein Auge einen kleineren Sichbereich hat als beide Augen haben, daber die sichtbereiche Beider Augen sich überschneiden). Und das dann am besten mit 200 Hz pro Auge, was zu knapp 300 GigaPixel pro Sekunde führen würde... (bei 64 Bit Farbtiefe pro Pixel ergebe ich alleine hierfür knapp 2,2 TeraByte (im Vergleich bei 1920*1200 bei 32 Bit Farbtiefe sind es bei 60 Bildern pro Sekunde kanpp 0,52 GB)an Daten die herfür alleine an den Monitor ausgegeben werden müssten)...;)
 
Intel musste damals zwangsläufig die Segel streichen, bei derartigen Strömen auf kleinstem Raum entstehen zwangsläufig zerstörerische Effekte durch Elektromigration.

Was aööerdings momentan auf dem Grafikkartensektor läuft ist ohne gleichen. Schon eine 4870 besitzt eine völlig indiskutable Leistungsaufnahme unter Desktop-2D Bedingungen. Jetzt erhöht man die Kernspannungen und packt 2 GPU`s auf ein Board. Dann am besten noch ein übertakteter Quadcore dazu und fertig ist die Heisszelle. Das es für die Lebensdauer der Peripherie auch nicht gerade förderlich ist im Temperaturgrenzbereich zu arbeiten versteht sich von selbst. Selbst die deutlich weniger temperaturkritische GTX 295 ist ist für mich inakzeptabel, DualGPU Lösungen haben selten im Endkundenmarkt Vorteile ausgespielt (schon seit Fury MAXX Zeiten). Und daß eine Grafikkarte 130 Watt in Wärme verwandelt während ich ein Word-Dokument verfasse kann ja wohl nicht der Ernst sein.

Hier fehlt mir auch eine kritischere Einstellung von Seiten der PCGamesHardware, man merkt daß ihr ungleich stärker am Tropf der Industrie hängt als die wirklich objektiv berichtende Publikation aus Hannover. Das soll keine Grundsatzkritik sein, kein Blatt kann es in Bezug auf Professionalität auch nur annähernd mit dem Heise-Gewächs aufnehmen.

Allerdings ist die "weniger kann mehr sein"-masche nicht unbedingt eure Divise.

Da irrst du dich ;)
Ich bin z.B. kein festangesteller PCGH-Mitarbeiter und habe demnach gar nichts mit der Industrie zu tun.

Die News der Schreiber entsprechen ihren Fachgebieten und Vorlieben.

Dass die Abwärme sich außerhalb jeglicher Vernunft befindet ist klar.
Unsere Aufgabe als Berichterstatter ist es aber auch nicht diese zu verteufeln.

Es soll unvoreingenommen berichtet werden. Und dazu gehören nunmal auch die 4890X2 genauso wie EcoProdukte (über die ich gerne schreibe ;) )

Solange die Nachfrage nach richtig sparsamen Produkten nicht steigt, werden auch weiterhin diese großen Grafikkarten produziert.
Persönlich würde ich gerne eine Marktreife CPU mit GPU sehen oder einen 45 Watt Quadcore.

P.s. Ich habe in meinem inwzsichen 3 Jahre alten Destop-System einen A64 3800+ (hätte ich früher gewusste wieviel der verbraucht, wäre es ein anderer geworden) zusammen mit integrierten 1200Xpress Grafikchip.
 
Du kannst eine Zimmerwand nicht überblicken?
ich lege mir zwar bald einen fullhd beamer zu, aber einen windows desktop fände ich auf 2m diagonale extrem unpraktisch, da gefällt mir mein 24" schon besser.

solch ein teil z.b. ist schon für den schreibtisch zu groß und zu hochauflösend:

eyevis

für den alltag nicht mehr praktisch ;)

Die Auflösung/Fläche ist eher begrenzt, aber auch da ist die Spitze nicht erreicht: Für Textdarstellung macht mehr vielleicht keinen Sinn, aber solange die Leute noch AA nutzen, sind sie offensichtlich in der Lage, pixelgroße Strukturen=Kantenstufen wahrzunehmen.
aber auch hier gibt es eben den punkt, ab dem der unterschied faktisch nicht mehr sichtbar ist - zumal in bewegung. den unterschied zwischen 8 und 10bit farbtiefe sieht man z.b. auch absolut nicht, außer mit speziellen demos.

Aber auch nicht wirklich weniger. Und im Gegensatz zur 8800Ultra ist sie auch nicht die Spitze - das ist die GTX295. (und über der käme noch die 4870X2...)
Dann nimm halt ne 9800GX2 als vergleich - auch da schneidet die neu generation besser ab ;)

ist halt genau das was ich sage, der verbrauch steigt nicht mehr (ist ja auch spec-begrenzt), das verbrauch/leitungsverhältnis wird dagegen immer besser. die zeiten eines rallyautos fährt heute halt nen besserer kleinwagen ;)
 
Würde ich nicht mal so sagen, denn wenn Displays in der Lage sind solche Auflösungen zu auf entsprechenden Raum anzuzeigen und die Hardware das mitmacht, ist es eventuell auch nciht merh weit zu cybernetischen Verbesserungen der Sinneswahrnehmung ;)

:ugly:

Ich persöhnlich würde auch eine höhere Auflösungsdichte bei monitoren begrüßen (natürlich nur mit sinnvolelr Anpassung der Schriftgröße und ähnlichem), da ich wenn iche es will auf meinem 24" Monitor Pixel zählen kann.

Du sitzt zu nah dran ;)
Ich würde, ausgehend von meinem 4:3 20"er jedenfalls erstmal ein niedrigere Pixeldichte (z.B. 27") bevorzugen und im Gegenzug den Rechenleistungsbedarf/Fläche senken.
Aber Potential für zu starke Grafikkarte besteht in Zukunft sicherlich weiterhin.
(zumal wir ja überhaupt erstmal dahin kommen müssen, dass jedes Pixel auch was eigenes darstellt)



ich lege mir zwar bald einen fullhd beamer zu, aber einen windows desktop fände ich auf 2m diagonale extrem unpraktisch, da gefällt mir mein 24" schon besser.

solch ein teil z.b. ist schon für den schreibtisch zu groß und zu hochauflösend:


Nuja - Benutzoberflächen und Raumausstattung müssten natürlich im Laufe der Zeit angepasst werden.
Mit nem DOS-Prompt in 1920x1200 hätte auch niemand etwas anfangen können und n 30"er wäre auf dem Desktop-Rechner unergonomisch hoch gewesen.

Dann nimm halt ne 9800GX2 als vergleich - auch da schneidet die neu generation besser ab ;)

Also bei Computerbase schneidet die GTX295 20W schlechter ab. Ist zwar nicht viel - aber definitiv keine Verbesserung. (sondern ~das gleiche wie seit zwischen 7950GX2 und 9800GX2)
Und ATI hat im gleichen Zeitraum von der 3870x2 zur 4870x2 satte 80W zugelegt, im Schnitt die High-End-Verbrauchsleistung also auch über die letzten 12 Monate (ja, gerade mal n Jahr - und 80W mehr...) gestiegen.
Eigentlich ging es mir auch über längere Zeiträume - diese 80W Zuwachs sind z.B. mehr, als die FX5800Ultra insgesamt verbraucht hat...

ist halt genau das was ich sage, der verbrauch steigt nicht mehr (ist ja auch spec-begrenzt)

Watt für Specs?
20W AGP? 75W PCI-E? 150W PCI-E? 225W PCI-E? 300W PCI-E?
Die Specs werden nach Bedarf angepasst und das i.d.R. sogar nachträglich.
Man ist langsam ein bißchen limitiert, was die Kühlung angeht, aber noch nimmt es einem der Verbraucher nicht wirklich übel.
 
Und daß eine Grafikkarte 130 Watt in Wärme verwandelt während ich ein Word-Dokument verfasse kann ja wohl nicht der Ernst sein.

So siehts aus. Das Beste an de Sache ist ja, dass es technisch ziemlich leicht möglich wäre, die GPU im Idle unter 5W verbrauchen zu lassen, nur macht es niemand!

Es wäre technisch für Riesen wie ATI und NVidia absolut kein Problem, einen kleinen zusätzlichen Chip mit auf eine High-End Karte zu basteln, der im Idle fast alle Aufgaben übernehmen kann und mit 3-5W seinen Dienst verrichtet während die Haupt-GPU einfach abgeschaltet wird! Aber das wäre pro Karte um die 20-30€ teurer - und das kommt am Endkundenmarkt nur sehr schlecht an da die wenigsten sich überhaupt damit auskennen und wissen was so eine Karte frisst. Wie einfach keine zusätzliche Chips für spezielle Aufgaben einzuarbeiten sind zeigt sich an extrachips für Spannungen einzustellen (Volterra) oder extrachips um PCI-e GPUs auf AGP zu downgraden (und dieser Chip ist bei weitem komplexer und heißer als es für einen Windowsidle nötig wäre!)
Schade eigentlich - aber der Markt reguliert das Angebot - und es gibt einfach zu wenige Abnehmer für solche Dinge...

man müsste sich wirklich nen offenen Rechner hinstellen und immer nur dann die GTX285 einbauen wenn man zocken will und sonst onboard Grafik nutzen ...
 
Zurück