• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Welche ist besser: 6600GT oder 6800LE?

-=TM=-

PC-Selbstbauer(in)
Hallo zusammen,

da ich demnächst dank Stefan Payne ;) meinen PC umbaue, wird meine 6600GT von Gainward frei.

Mein Kumpel hat zur Zeit eine Leadtek 6800LE. Nun stellt sich die Frage würde er durch meine Karte sich verbessern oder würde sich das nichts nehmen ?

Danke !
 
X

xrayde

Guest
AW: welche ist besser 6600GT oder 6800LE

Die LE ist etwas "langsamer", der Unterschied ist aber so gering das er nicht auffallen wird, außer vllt. bei unterschiedlich großem VGA-RAM!
 

Rain_in_may84

PCGHX-HWbot-Member (m/w)
AW: welche ist besser 6600GT oder 6800LE

Die 6800LE ist standartmäßig langsamer als die 6600GT. Der Unterschied ist aber eher gering, wie xrayde schon gesagt hat. Wenn es deinem Kumpel aber gelingt mit Hilfe des Rivatuners 1 oder 2 Quads freizuschalten zieht sie der 6600GT davon. Wenn er sie dann noch übertaktet kann er sie vieleicht sogar auf die Leistung einer 6800GT bringen. In dem Falle wäre es besser seine 6800LE zu behalten.
 

Stefan Payne

Kokü-Junkie (m/w)
AW: welche ist besser 6600GT oder 6800LE

Im auslieferungszustand sind beide etwa auf gleichem niveau, bei der 6800LE besteht aber die Möglichkeit abgeschaltete Teile wieder zuzuschalten...
 

Rain_in_may84

PCGHX-HWbot-Member (m/w)
Falls es deinen Kumpel interessiert wie man die 6800LE freischaltet hab ich hier ein Link. Dort wird es ausführlich gezeigt, wie man dabei vorgeht. Noch eine Anmerkung von mir. Es klappt auch mit den neueren Versionen von Rivatuner und wenn der Bildschirm in Windows nach der Aktivierung der Pipelines schwarz bleibt. Keine Panik einfach PC neustarten und dann erscheint automatisch ein Auswahlfenster. Dort einfach [SIZE=-1]"Windows mit letzter fuktionirender Einstellung starten" und schon hat man die Aktivierung der Pipeline Rückgängig gemachtund Windows funktioniert wieder ganz normal.
[/SIZE]
 
X

xrayde

Guest
Man sollte ihm bei der Gelegenheit aber auch sagen, daß das freischalten nicht ohne ist.

Ich kenne einen der mehrere Karten damit geschrottet hat, die gingen nicht sofort kaputt, sondern im Laufe der Zeit.

Es wird schon einen Grund geben warum nVidia die Pipes deaktiviert hat.

Ist also kein Garant, sondern ein pokern.
 
TE
-=TM=-

-=TM=-

PC-Selbstbauer(in)
ich bedanke mich bei allen für Ihre Hilfe. Echt toll hier !!!

@L0cke
Nach dem Umbau in ca. 1-2 Wochen können wir darüber reden. Überleg dir mal bitte was du ausgeben willst
 

point

Kabelverknoter(in)
Bis vor kurzen hatte ich eine 6800LE von Xpertvision Freigeschaltet 12Pipe zu 6 Vertex
seit 2005.( aufgerüstet auf PCIe die Karte läuft bis heute super )

Später hab ich einen VF900 wegen der Lautstärke verbaut und mit nibitor ein bios mod angefertigt dh die Volt zahl der GPU verändert von 1,2 V ->1,4 damit lief die GPU am ende mit 470 MHZ im 2D Modus hab ich die Karte mit 100MHz (1,1 V)laufen lassen .
die Karte hat meiner Meinung größes Tuning Potential wo sonst bekommt man 50% mehr Takt.

Zum Default Einstellungen: das die 6800LE langsamer als eine 6600GT stimmt nicht ganz
Speicher Interface
GT 128 bit 500MHz DDR -> 1000MHz
LE 256 Bit 350MHZ DDR -> 1400MHz
außerdem gibt es unterschiede im GPU Design :
eine GT kann pro Takt eine Schatten Textur berechnen
eine LE zwei oder Drei ( bin mir nicht sicher ist über 2 Jahre wo ich darüber gelesen Habe ) deshalb ist die 6800LE selbst bei Default Einstellungen in einigen Spielen schneller, etwas langsamer oder Genauso schnell wie eine GT trotz 200MHz weniger Takt!!!

Mann sollte aber die Temperaturen im Auge behalten
 
Zuletzt bearbeitet:
X

xrayde

Guest
Wo hast Du bitteschön all die Daten und Aussagen da oben her, gibt's dazu auch Links?

GeForce 6800 LE:

Speichertakt: 350 MHz, entspricht 700 MHz DDRI effektiv

Chiptakt 2D/3D: 300/300 MHz(gibt auch welche mit 320MHz)

http://www.3dchip.de/TestCenter/2004/6800LE/6800LE.php

http://users.erols.com/chare/video.htm

...Von unten rückt nun auch noch die GeForce 6600 GT an, die besonders bei den aktuellen DirectX 9 Testläufen die Nase vorne hat...
http://www.au-ja.org/review-gainward6800le-5.phtml

Die LE liegt default ohne Freischaltung ganz leicht unter einer GF 6800(ohne was hinten dran):

http://www.computerbase.de/artikel/hardware/grafikkarten/2004/test_inno3d_geforce_6800_gt_ultra/2/

Die 6600GT liegt ziemlich exakt mit auf dem Niveau der LE:

http://www.computerbase.de/artikel/...ce_6600-serie/13/#abschnitt_performancerating

Es gibt hier also keinen klaren Gewinner, denn die Unterschiede sind überhaupt nicht spürbar.

Und wenn man mal in der früheren Zeit ein wenig rumstochert und recherchiert, wird man auch ebenso viele missglückte Pipefreischaltungsversuche finden.

Daher sollte er sich dessen bewußt sein das da ein Risiko besteht.
 
Zuletzt bearbeitet:

point

Kabelverknoter(in)
1 Ob die GT schneller, langsamer oder genauso schnell ist hängt vom Spiel ab das wollte ich damit sagen, dh wie das Spiel Programmiert wurde !

2 die LE hat ein 256 BIT Speicher Interface die GT nur 128 BIT

deswegen ( stimmt war doppelt gemoppelt deswegen korrigiert)

GT RAM 500 DDR -> 1000MHz mit Speicher Interface 128 Bit ->1000MHz Effektiv
LE RAM 350 DDR -> 700MHz mit Speicher Interface 256 Bit ->1400mHz Effektiv

Deshalb auch ist eine HD 2900(512bit) schneller als eine HD 2600 (128bit)
der RAM Durchsatz dh GB/s ist höher

sieh her Bandbreite LE 22,4GB/s
http://www.computerbase.de/artikel/h...chnische_daten

Bandbreite GT nur 16,8 GB/s
http://www.computerbase.de/artikel/h...chnische_daten

22GB/s > 16GB/s

Das beim Overclocking immer ein Risiko besteht das sollte jedem Bewusste sein

Chiptakt stimmt 2D/3D 300zu 300 aber ich habe oben ja geschrieben das ich bei der Karte ein Bios Mod durchgeführt habe ! Hat den Vorteil das die Temperaturen in 2D fallen etwas 7-10°C
 
Zuletzt bearbeitet:
X

xrayde

Guest
1 Ob die GT schneller,langsammer oder genauso schnell ist hengt vom Spiel ab das wollte ich damit sagen !

2 die LE hat ein 256 BIT Speicher Interface die GT nur 128 BIT deswegen hat die GT nur 1000MHz die LE 1400 MHz oder willst du behaupten das es egal ist ob das Speicher Interface 64 Bit oder 512 Bit hat

deswegen
GT RAM 500 DDR -> 1000MHz mit Speicher Interface 128 Bit ->1000MHz Effektiv
LE RAM 350 DDR -> 700MHz mit Speicher Interface 256 Bit ->1400mHz Effektiv

Deshalb auch ist eine HD 2900(512bit) schneller als eine HD 2600 (128bit)
der Ramdurchsatz dh GB/s ist höher

Das beim Overclocking gibt es immer ein Risok das sollte jedem Bewusste sein
Also ich bitte Dich, da recherchier noch mal richtig.

Ein doppelter Ringbus macht nicht aus DDR-RAM auf einmal "Quad-RAM", wo hast Du das her?

Der RAM wird effektiv genauso gerechnet wie jeder andere auch, nämlich doppelt und nicht vierfach.

Und das Speicherinterface ist egal, solange der Bolide höher getaktet, und/oder effizienter ist und dadurch die mit größerer Bandbreite schlägt, sieht man auch gut bei der HD 2900XT vs. GF 8800GTS 640MB.

Von theoretischen Zahlen würde ich mich nicht ablenken lassen, sondern mir die erreichten FPS und die rohe Leistung der Karten beäugen und vergleichen, das hat mehr Aussagekraft als die Transistoranzahl, der Ringbus und anderes: was zählt ist das was unter dem Strich raus kommt, und dafür gibt es auch genug Tests.
 

point

Kabelverknoter(in)
du vergleichst jetzt ATI mit NV um dein Meinung zu untermauern HaHa

bei der 6800 & der 6600 kann man diesen Theoretischen Vergleich ziehen den diese Karten sind von gleichen Hersteller und aus der gleichen Generation!
du solltest dich lieber noch mal erkundigen!
Deiner aussage nach ist das Speicher Interface also vollkommen egal und das ist es eben nicht sorry! es gibt & gab genug Karten in der Geschichte die durch eine Halbierung des Speicher Interface abgekackt sind ,ist so

bestes Bsp TNT Und TNT 64 bit !!! oder einige geforce 6200 di gab es auch mit 128 bit vs 64 , 7300

Natürlich kann man durch eine Erhöhung der Taktfrequenz die Bandbrite erhöhen, das macht man aber auch durch das Speicherinterface !

wenn du der Meinung bist das bringt nix dann schalte bitte bei deinen Intel oder den X2 dual channel aus!
 
Zuletzt bearbeitet:

Stefan Payne

Kokü-Junkie (m/w)
2 die LE hat ein 256 BIT Speicher Interface die GT nur 128 BIT deswegen hat die GT nur 1000MHz die LE 1400 MHz oder willst du behaupten das es egal ist ob das Speicher Interface 64 Bit oder 512 Bit hat

deswegen
GT RAM 500 DDR -> 1000MHz mit Speicher Interface 128 Bit ->1000MHz Effektiv
LE RAM 350 DDR -> 700MHz mit Speicher Interface 256 Bit ->1400mHz Effektiv
Das ist kompletter Blödsinn, was du hier schreibst, du kannst nicht die Busbreite auf MHz 'umrechnen', das zeugt nur davon das du keinen Plan hast, was du hier schreibst.

Gib das ganze doch einfach in mb/sec an, wozu gibts das?!

Und lasst bitte die 'Deppenverdoppelung', die ist völliger Blödsinn, da DDR effektiv den Bus verdoppelt, nicht aber den Takt, auch wenns sich so liest...


Deshalb auch ist eine HD 2900(512bit) schneller als eine HD 2600 (128bit)
der Ramdurchsatz dh GB/s ist höher
Und die Teile die im Chip sitzen unterschlagen wir mal, was?!

Sind ja nur ein paar TMUs und etwa 2/3 der Recheneinheiten die der HD2600 'abhanden' gekommen sind...

Ist also nicht nur die Busbreite...
Ah, du kannst doch in GB/sec umrechnen bzw es ergoogeln, warum machst das nicht gleich?!
 

Stefan Payne

Kokü-Junkie (m/w)
Und das Speicherinterface ist egal, solange der Bolide höher getaktet, und/oder effizienter ist und dadurch die mit größerer Bandbreite schlägt, sieht man auch gut bei der HD 2900XT vs. GF 8800GTS 640MB.
Liegt aber auch 'nur' daran, das die ROPs der Radeon HD Serie fehlerhaft sind und nicht die Leistung erbringen, die sie eigentlich sollten.
Eigentlich sollten die ja 4x SC schaffen, tun aber nur 2x/Cycle schaffen und noch ein paar andere Pferdefüße, wird vermutlich mit RV670 ein klein wenig besser und mit R700 dann so wies sein sollte.

AMD hatte schonmal einen Chip mit buggy Rops, so dass man sogar auf Supersampling zurückgehen musste, obwohl die Hardware MSAA kann -> R200.
Sieht man auch daran, das unter besonderen Umständen RGSSAA möglich war (kein Fog z.B.)
Von theoretischen Zahlen würde ich mich nicht ablenken lassen, sondern mir die erreichten FPS und die rohe Leistung der Karten beäugen und vergleichen, das hat mehr Aussagekraft als die Transistoranzahl, der Ringbus und anderes: was zählt ist das was unter dem Strich raus kommt, und dafür gibt es auch genug Tests.
Dem kann ich nur zustimmen, wobei die HD2600 Serie AFAIK keinen Ringbus hat sondern einen Crossbar.

Der Sinn vom Ringbus ist auch eher Transistoren zu sparen (und ev. gar bessere Multichip Unterstützung)
 
X

xrayde

Guest
Hmmm?

Hmm, natürlich vergleiche ich ATI und nVidia miteinander, ebenso wie ich effizientere Grakas desselben Herstellers/Generation miteinander vergleiche.

Und warum um meine "Aussage damit zu untermauern", ne, ich glaub ich lass das mit Dir lieber, ich seh schon wo das hinführt, da haut ja gar nichts hin bei Dir.

Du vergleichst Äpfel mit Birnen und vergrößerst Sachen mit der Lupe(Bandbreite) die in den Benchmarks/Spielen jedoch nichts bringen im Vergleich mit anderen Karten.

Wer will denn jetzt hier seine Aussagen untermauern mit seltsamen Aussagen?

Und warum verlinkst Du keine realen Performancevergleiche sondern kommst wieder mit Deiner "Lupe"?

Und "Speicherinterface ist volllkommen egal" soll ich gesagt haben, lies mal bitte richtig und interpretier mir hier nichts rein und rezitiere nur den Dir passenden Teil dieser Aussage?

Ich würg das mal hier lieber ab, da ich den Ausgang derartiger "Diskussionen" zu Hauf kenne: man verbrennt daran nur seine Zeit.

Wer sich über die realen Aussagen informieren will, der liest die Tests und interpretiert am besten deren Aussagen und lässt alles andere hier wegfallen.


PS:

Das Thema hat sich eh geerdet:

http://extreme.pcgameshardware.de/showpost.php?p=32105&postcount=14


EDIT:

Ah, endlich mal einer hier drin den ich techn. auch ernst nehmen kann ;).
 

point

Kabelverknoter(in)
sorry gebe zu das dass mit dem 1400 etwas unglücklich gewählt war, sollte nur ein Hilfe sein und den unterschied des Speicherinterface zu verdeutlichen den 500 MHz DDR auf der GT sind nun mal nicht einfach 1 zu 1 mit den 350 MHz der Le zu vergleichen . darauf wollte ich nur hinaus !

zu dem Vergleich HD2900 vs HD2600 klar deshalb habe ich später die TNT 64 erwähnt bzw die 6200 da dort die gleiche Chip Architektur zum Einsatz kam!

Zur Effizienz wurde da mal sagen eine Karte die mit 300 Mhz Taktet und ungefähr genauso schnell wie eine die mit 500 MHz taktet ,effizienter ist!
 

Stefan Payne

Kokü-Junkie (m/w)
zu dem Vergleich HD2900 vs HD2600 klar deshalb habe ich später die TNT 64 erwähnt bzw die 6200 da dort die gleiche Chip Architektur zum Einsatz kam!
Der Vergleich ist nicht wirklich sinnvoll, da die Architektur eben nicht gleich ist, sie basieren nur auf dem gleichen Level, einzig die TNT2/M64 kannst mit der TNT2 vergleichen weil das wirklich 'nur' eine TNT2 mit 64bit SI ist.

Ansonsten sind die Unterschiede doch schon gravierender, die 6200 kann z.B. kein FP Filtering, die HD2900 hat 'nen Ringbus, die HD2600 'nen Crossbar and so on...
Sind eben auch die Feinheiten, die einen Unterschied ausmachen.

Zwischen R300 und RV350 gabs AFAIR noch 'nen deaktiviertes HierZ...
Zur Effizienz wurde da mal sagen eine Karte die mit 300 Mhz Taktet und ungefähr genauso schnell wie eine die mit 500 MHz taktet ,effizienter ist!
Kann man absolut NICHT sagen...

Wichtig ist einzig die 3D Leistung und ev. noch die Aufgenommene Leistung, wenn etwas mit 300MHz schneller ist, dann MUSS es auch breiter sein, in diesem Fall ~doppelt so breit (z.B. 32TMUs/ROPs zu 16, 640 ALUs zu 320).
 

point

Kabelverknoter(in)
2900 vs 2600 klar wollte nur darauf hinaus da High End Karten anderes Speicher Interface haben ,hat sich nämlich für mich vorhin so angehört als würde das keinen unterschied machen ob 128 oder 256 oder 512 bit deswegen der lächerliche &übertriebene Vergleich ;)


Es gibt aber auch eine 6200 mit 128 bit und eine mit 64 bit Interface ! die meinte ich !

Betreff 1400MHz

Ich helfe oft bekannten ( DAU´s ;) bei Computer Problemen deshalb benutze ich oft solche ( falschen ) vergleiche weil ich Versuche den leuten die thematik so verständlich zu machen wie nur möglich. Langsam glaube ich das ist mir zu sehr ins Blut gegangen !( HaHa)

Betreff RAM 350 DDR -> 700MHz

Im endeffekt ist diese aussagen auch falsch, den DDR verdoppelt auch nicht die Taktrate ! es wird nur die Daten Rate ( doble Data Rate ) verdoppelt , man könnte sagen zwei Daten Pakete Pro Takt .
Deshalb ist die aussagen RAM 350 DDR -> 700MHz auch somit falsch wird aber auch verwendet um den Unterschied zu verdeutlichen !
deshalb heist der RAM auch DDR SDRAM
 
Zuletzt bearbeitet:
Oben Unten