AMD stellt den Athlon 64 X2 vor, Ati zum ersten Mal Crossfire (PCGH Retro, 31. Mai)

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu AMD stellt den Athlon 64 X2 vor, Ati zum ersten Mal Crossfire (PCGH Retro, 31. Mai) gefragt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

arrow_right.gif
Zurück zum Artikel: AMD stellt den Athlon 64 X2 vor, Ati zum ersten Mal Crossfire (PCGH Retro, 31. Mai)
 
Kamen X2 3800+ un 4000+ später? Mein X2 3800+ hatte en "Toledo-512" Kern :p

Und warum hab ich bei dem net so ne lustige Plastikpackung mit goldschrift sondern nur ne blaue Pappschachtel bekommen?:nene:
 
Waren diese x800/850 auch von Micro-Rucklern geplagt?
Soweit ich weiß sind alle Karten mit Shaderfähigkeit von Microlags geplagt. Anders war das früher aber schon: 3dfx SLI und Multichipkarten haben alle ohne Microlags funktioniert, ebenso die Rage Fury MAXX.
Von der Volari V8 Duo weiß ich jetzt nix, aber denke wohl auch.
Warum sollte es damals keine/weniger Microruckler gegeben haben als heute?

Wenn das der Fall gwesen wäre, dann hätte sich die Technik ja verschlimmverbessert. ;)
wie gesagt in früheren Tagen gab es MultiGPU Karten die nicht geruckelt haben bzw mehrere Grafikkarten im Verbund, allerdings mussten die ja auch nur "Tapezieren" also Polygone und Texturen berechnen ^^...
Kamen X2 3800+ un 4000+ später? Mein X2 3800+ hatte en "Toledo-512" Kern :p

Und warum hab ich bei dem net so ne lustige Plastikpackung mit goldschrift sondern nur ne blaue Pappschachtel bekommen?:nene:
Ha! hättest 1000 Euro bezahlt, hättest auch so eine schöne Schachtel bekommen :ugly:
 
ja, das weiss ich noch.. Crossfire war sli gegenüber eher unbeliebt, weil man eine teure Master-Karte brauchte.
Mikroruckler waren damals noch nicht entdeckt worden.
Die Radeon X600 und x800 waren eigentlich nur die PCIe-Versionen der 9600 9800, die Leistung war die selbe, trotz neuer Schnittstelle.
Meine erst PCIe Grafikkarte war eine gebrauchte Sapphire X600XT, da der Mainboardpreis ein Loch in meinen Geldbeutel gebrannt hatte.
Später folgte dann eine GF 6800 XTreme von XFX.

Auf Nvidias Seite gab es ein ähnliches Vorgehen, allerdings in der Geforce 6 Serie erstaunlicherweise ohne namensänderung.
So gab es die damals sehr beliebte 6600GT als AGP 8x und PCIe -Version. Letztere wurde mit einem Brückenchip
(der hiess glaub ich Rialto?!) versehen, um die auf AGP optimierte
GPU mit der neuen Schnittstelle kommunizieren zu lassen.
Später kamen dann GPUs mit "reinrassiger" PCIe-Anbindung.
Was zu dieser Zeit sehr zur Verwirrung der Kunden beitrug, waren die Kartennamen.
Bei ATI war die XT (z.B. 9600SE > 9600 > 9600Pro > 9600XT (Später auch noch XTX) immer das schnellste Modell einer Klasse,
während bei Nvidia die XT (z.B. 6800 XT > 6800 GT > 6800 GTX) die langsamste war.

Das war auch das einzige mal, dass ich ein Mainboard wegen der Kartenslots gewechselt habe, ohne dass ein Sockelwechsel damit einherging.
(Vom Gigabyte K8NS Ultra 939 auf das ASUS A8N SLI Deluxe)
 
Zuletzt bearbeitet:
Soweit ich weiß sind alle Karten mit Shaderfähigkeit von Microlags geplagt. Anders war das früher aber schon: 3dfx SLI und Multichipkarten haben alle ohne Microlags funktioniert, ebenso die Rage Fury MAXX.
Von der Volari V8 Duo weiß ich jetzt nix, aber denke wohl auch.

wie gesagt in früheren Tagen gab es MultiGPU Karten die nicht geruckelt haben bzw mehrere Grafikkarten im Verbund, allerdings mussten die ja auch nur "Tapezieren" also Polygone und Texturen berechnen ^^...
Ja, ja ich weiß, dass es bereits vor NVs SLI und ATIs CF Multi-GPU-Techniken gab (3dfx & co.), ich sprach halt nur von der ATI-Technik.

Das es damals kaum/gar keine Microruckler gab, lag aber, wie Du schon geschrieben hast, an den fehlenden Shaderprogrammen der Spiele und der Grafikkarten.
Sprich, wenn man heute zwei X800 im CF-Verbund rendern lässt (aktuele Spiele), würden bestimmt auch Microruckler entstehen, wenn auchg nicht so viele, da die X800 nur Shadermodell 2 (?) beherscht.
 
Die Radeon X600 und x800 waren eigentlich nur die PCIe-Versionen der 9600 9800, die Leistung war die selbe, trotz neuer Schnittstelle.
Kleiner Denkfehler ;)

(Vom Gigabyte K8NS Ultra 939 auf das ASUS A8N SLI Deluxe)
war bis vor kurzem im Spielepc. Klasse Board, schade drum, werd mir einen neuen Einsatzzweck dafür suchen

Ja, ja ich weiß, dass es bereits vor NVs SLI und ATIs CF Multi-GPU-Techniken gab (3dfx & co.), ich sprach halt nur von der ATI-Technik.

Das es damals kaum/gar keine Microruckler gab, lag aber, wie Du schon geschrieben hast, an den fehlenden Shaderprogrammen der Spiele und der Grafikkarten.
Sprich, wenn man heute zwei X800 im CF-Verbund rendern lässt (aktuele Spiele), würden bestimmt auch Microruckler entstehen, wenn auchg nicht so viele, da die X800 nur Shadermodell 2 (?) beherscht.
die X800 sind Shader 2.0b jap.
Weiß nicht ob es mit der Shaderversion zu tun hat, ob man Microlags hat, oder generell einfach mit den Shadern
 
Auf Nvidias Seite gab es ein ähnliches Vorgehen, allerdings in der Geforce 6 Serie erstaunlicherweise ohne namensänderung.
So gab es die damals sehr beliebte 6600GT als AGP 8x und PCIe -Version. Letztere wurde mit einem Brückenchip
(der hiess glaub ich Rialto?!) versehen, um die auf AGP optimierte
GPU mit der neuen Schnittstelle kommunizieren zu lassen.

Nicht Ganz Korrekt die 6800 erschien zuerst als AGP, die 6600GT war eine reine PCIe Karte die dank HSI-Brücke @AGP lief, Rialto war Ati
 
Das waren noch Zeiten mit dem Athlon X2. Hatte mir damals zum Preissturtz einen 4400+ gekauft. Was besseres hätte ich nicht bekommen können. Das Teil war einfach der hammer. Ich war bissher noch nie Zufreidener mit einer CPU als mit dem. Lief bei mir zum schluss auf 100% belastung in Games und hat immer noch alles geschafft was er sollte ohne Probleme.
 
die x2 serie hatte ich mit meinem athlon xp 3200+ komplett übersprungen, damals hatte ich mir dafür ein laptop gekauft.
 
Wie in einem anderen Thread erwähnt, die Serie rennt immernoch bei meinem Bruder und einem Freund, hat mir lange Zeit gute Dienste geleistet...
 
Nicht Ganz Korrekt die 6800 erschien zuerst als AGP, die 6600GT war eine reine PCIe Karte die dank HSI-Brücke @AGP lief, Rialto war Ati

Und eine 6800GTX gab es auch nie, daß damalige Monster hörte noch auf den "wohlklingenden" Namen Ultra :daumen:.

Hach was waren das noch schöne Zeiten mit meinem Athlon X² 4400+ in Verbindung mit meiner ASUS 6800GT AGP :-). Das es schon wieder so lange her ist war mir gar nicht bewusst?!
 
Ja, ja ich weiß, dass es bereits vor NVs SLI und ATIs CF Multi-GPU-Techniken gab (3dfx & co.), ich sprach halt nur von der ATI-Technik.

Das es damals kaum/gar keine Microruckler gab, lag aber, wie Du schon geschrieben hast, an den fehlenden Shaderprogrammen der Spiele und der Grafikkarten.
Sprich, wenn man heute zwei X800 im CF-Verbund rendern lässt (aktuele Spiele), würden bestimmt auch Microruckler entstehen, wenn auchg nicht so viele, da die X800 nur Shadermodell 2 (?) beherscht.


Also afaik liegt das daran, dass SLI/CF im AFR Modus rendern; jede Grafikkarte rendert abwechselnd ein Frame.
Es kann aber sein, dass die Frames nicht gleich schnell berechnet werden.
Es kommt zu unregelmäßigen Abständen zwischen den Frames und es entstehen Mikroruckler.

Bei der MGPU Technik von 3Dfx wird das Bild zwischen den Grafikkarten aufgeteilt. (z.B. ein CHip berechnet alle geraden Bildzeilen und einer alle ungeraden)

Daher kommt es hier nicht zu Mikrorucklern.
Allerdings stört diese Technik afaik manchmal bestimmte Effekte. Wahrscheinlich skaliert AFR auch besser.
 
@Elvis:

Das ist die Theorie, dass jede Grafikkarte abwechselnd ein Bild berechnet. In der Praxis berechnet die eine Karte 2 Bilder und die andere 3 usw ist also ungleich verteilt und daher resultieren auch die Microruckler. Deswegen treten Microruckler auch bei einer hohen fps Anzahl auf. Wenn du gleiche Grafikkarten bei der Berechnung hast, rechnen die auch gleich lang an einem Bild.
 
naja nicht unbedingt;
Die 3D Last ist ja nicht immer 100% gleich.

Oder eine Karte rendert ein Bild, die andere gibt sofort danach ein Bild aus.
Die erste Karte braucht nun wieder etwas länger für das nächste Bild usw.

Wenn die Abstände gleich wären, wäre es ja eigentlich auch egal welche Grafikkarte was berechnet.;)
 
Die Abstände sind unterschiedlich weil jede Karte eine unterschiedliche Anzahl an Bildern berechnet, gab mal ein interessantes PCGH Schaubild zu dem Thema. Sicherlich kann die Last auch ungleich sein, je nach dem was grade auf dem Screen passiert, aber alles ändert sich auch nicht von einem Frame zum anderen.

Ich glaube aber Kern sind wir uns einig;)
 
Also könnte man (abschließend) sagen, dass wenn NV & ATI ein anderes Renderverfahren als das AFR nehmen würden (z.B. unterschiedliche Bildzeilen, oder obere & untere Bildhälfte), dann würden u.U. die Microruckler reduziert werden, aber der FPS-Zuwachs durch MGPU wäre gering.

Und da anscheinend die FPS das entscheidendere ist (Hersteller) und der Kunde lange Balken sehen will, wird es wohl vorerst beim AFR bleiben. :schief:
 
Warum sollte es damals keine/weniger Microruckler gegeben haben als heute?

Damals wurde optional SFR mit geteiltem und bei ATI sogar gekacheltem Bild angeboten. Das sollte mirkorucklerfrei gewesen sein, hat aber noch schlechter skaliert.

Wenn das der Fall gwesen wäre, dann hätte sich die Technik ja verschlimmverbessert. ;)

Die Technik hat einen Fehler (kein Leistungszuwachs) gegen einen anderen (keine flüssigere Wiedergabe, nur mehr fps) getauscht. Damit kann man immerhin Marketing betreiben.


Soweit ich weiß sind alle Karten mit Shaderfähigkeit von Microlags geplagt. Anders war das früher aber schon: 3dfx SLI und Multichipkarten haben alle ohne Microlags funktioniert, ebenso die Rage Fury MAXX.
Von der Volari V8 Duo weiß ich jetzt nix, aber denke wohl auch.

Die V8 nutzte afaik auch AFR und sollte Mikroruckler produzieren. (merkt man vielleicht nicht wegen der vielen Markoruckler :ugly: )


Die Radeon X600 und x800 waren eigentlich nur die PCIe-Versionen der 9600 9800, die Leistung war die selbe, trotz neuer Schnittstelle.

Mit Ausnahme der 9600XT/x600, die sich aber zumindest im Speichertakt unterschieden, gab es z.T. große Unterschiede zwischen den Chips und auch in der Leistung. Nur der Funktionsumfang war identisch.


Auf Nvidias Seite gab es ein ähnliches Vorgehen, allerdings in der Geforce 6 Serie erstaunlicherweise ohne namensänderung.
So gab es die damals sehr beliebte 6600GT als AGP 8x und PCIe -Version. Letztere wurde mit einem Brückenchip
(der hiess glaub ich Rialto?!) versehen, um die auf AGP optimierte
GPU mit der neuen Schnittstelle kommunizieren zu lassen.

Rialto ist die Brücke von ATI/AMD, die bis heute verwendet wird, um PCI-E Radeons für AGP zu nutzen (umgekehrt wurde er afaik nie eingesetzt).
Nvidias Pendant war die HSI-Bridge, im Falle der 6600GT wurde sie aber ebenfalls genutzt, um den nativen PCI-E-Chip NV43 für AGP zu nutzen.
Umgekehrt kam sie nur bei PCI-E Ablegern der Geforce FX und beim AGP-NV40 (Gf6800) zum Einsatz (später als NV45 on-Substrat integriert)
Später kamen dann GPUs mit "reinrassiger" PCIe-Anbindung.

Das war auch das einzige mal, dass ich ein Mainboard wegen der Kartenslots gewechselt habe, ohne dass ein Sockelwechsel damit einherging.
(Vom Gigabyte K8NS Ultra 939 auf das ASUS A8N SLI Deluxe)

Dafür gabs bislang ja auch erst 4 mal in der PC-Geschichte die Gelgenheit ;)


Die Abstände sind unterschiedlich weil jede Karte eine unterschiedliche Anzahl an Bildern berechnet, gab mal ein interessantes PCGH Schaubild zu dem Thema. Sicherlich kann die Last auch ungleich sein, je nach dem was grade auf dem Screen passiert, aber alles ändert sich auch nicht von einem Frame zum anderen.

Bei aktiviertem Vsync berechnen sie afaik gleich viele. Hilft aber auch nicht, wenn sie dafür unterschiedlich lange brauchen.
 
Zurück