AMD Radeon HD 7000 angeblich mit PCI Express 3.0

ja du hast gerade 2 Titel genannt :D sauber merkste selber......... :ugly:
[/URL]

Ich habe 2 Titel genannt weil ich zu faul bin noch 100 weitere hinzuschreiben. Es gibt mehr als genug davon (Shogun2, Metro, Dirt3,...).
Außerdem lässt sich nahezu jedes Spiel das nicht grade 10 Jahre alt ist ohne Probleme unter 30fps zwingen wenn man beispielsweise SSAA nutzt, selbst Counter Strike Source ruckelt sich bei 3x3 oder gar 4x4SSAA einen ab.

Es kommt immer drauf an was man mit so einer Karte anstellen will. Du hast ja Recht wenn du sagst es gibt kaum Spiele die diese Performance nativ und vielleicht sogar zwingend brauchen aber jemand der eine Grafikkarte für 500 und mehr € damals kauft tut das doch nicht weil er spielbare fps haben will... solche Leute wollen doch mehr, oder? Sonst hätte es ne 560Ti oder damals ne 470er doch locker getan :P
 
Ich habe 2 Titel genannt weil ich zu faul bin noch 100 weitere hinzuschreiben. Es gibt mehr als genug davon (Shogun2, Metro, Dirt3,...).
Außerdem lässt sich nahezu jedes Spiel das nicht grade 10 Jahre alt ist ohne Probleme unter 30fps zwingen wenn man beispielsweise SSAA nutzt, selbst Counter Strike Source ruckelt sich bei 3x3 oder gar 4x4SSAA einen ab.

Es kommt immer drauf an was man mit so einer Karte anstellen will. Du hast ja Recht wenn du sagst es gibt kaum Spiele die diese Performance nativ und vielleicht sogar zwingend brauchen aber jemand der eine Grafikkarte für 500 und mehr € damals kauft tut das doch nicht weil er spielbare fps haben will... solche Leute wollen doch mehr, oder? Sonst hätte es ne 560Ti oder damals ne 470er doch locker getan :P

Da hast du recht, ja! Aber CSS ruckelt auf einer GTX580 nicht mal mit 8xSGSSAA. Meine 5850 packt es da bei 1680x1050 mit 55FPS. Aber klar, wer so viel Geld dafür aus gibt will eigentlich mehr als die kleinen Karten bieten können.
 
Ich rede auch nicht von SparseGridSSAA sondern von "richtigem" SSAA (über den nHancer forciert) :P
Da gibts bei CSS und 4x4 (also einer internen Auflösung von 7680x4800 = ~16fachem Rechenaufwand) noch knappe 30fps oder sowas :ugly: (ich hab CSS grade nicht drauf zum ausprovbieren, das is ne grobe Schätzung, vielleicht isses auch noch spielbar. Auf meiner alten 280er wars das jedenfalls bei weitem nicht^^)
Auch nur ansatzweise fordernde Spiele machen sowas gar nicht mit weil der vRAM sofort überläuft oder die Bandbreite viiiel zu klein ist. 2x2 SSAA geht aber meist noch auf einer 580er :-)

Das ist natürlich weit hergeholt und praxisfern, kann aber doch verdeutlichen dass man nie genug Grafikleistung haben kann^^


EDIT: Anscheinend reicht ne GTX580 noch für gute fps bei 4x4SSAA :-)
http://www.pcgameshardware.de/aid,6...it-maximaler-Bildqualitaet/Action-Spiel/Test/

Aber das Spiel hat ja auch schon einige jahre aufm Buckel...
 
Zuletzt bearbeitet:
News schrieb:
Auf Prozessorenseite wird PCI-E 3.0 erstmals von Sandy Bridge E, Ivy Bridge und Bulldozer unterstützt.

äääähhhhh - ja. Das würde dann vermutlich auch erklären, wieso er sich verzögert. Vermutlich dann auf ~Ende 2012, wenn AMD erst noch nach einem Weg sucht, ein PCI-E Interface in den Sockel AM3 zu integrieren. :schief:


Zum Artikel: PCIe 3.0 ist wohl eher ein Marketingstreich als dass es einen wirklichen Nutzen hätte. Selbst wenn man anstelle von PCIe2.0 nur 1.1 nutzt sinken nur bei sehr Bandbreitenlastigen Settings/Spielen die fps deutlich, normalerweise macht es kaum einen Unterschied. PCIe3 wird da wohl kaum Performance rausholen können. natürlich muss der Schritt irgendwann gemacht werden aber momentan sehe ich den Zweck nur in bunten Angebotsblättchen und weniger auf dem fps Counter.

Grafikkarten mögen nicht von zusätzlicher Bandbreite profitieren - aber Käufer von geringerer Mainboardkomplexität, wenn man stattdessen mit 8 Lanes auskommt. Wichtiger dürfte das ganze aber für Laufwerkscontroller sein, denn PCIe2 x1 ist zu lahm für volle SATA Geschwindigkeit oder z.B. einen RAID aus 2 SSDs. Da wird man bald auf neue Anbindungen setzen müssen, denn für x4 fehlen ganz schnell die Lanes.
 
Wenn man sich jedes Jahr eine neue Grafikkarte kauft und die vorherige immer gut verkauft lohnt es sich halt immer. Aber wenn man erst auf die übernächste wartet verliert man zu viel Geld:(
Da zahle ich lieber jedes Jahr 70€ und ich bin up to date^^
Öhh ja... schonmal nachgerechnet? Ob ich jetzt 2x70€ oder 1x150€ zahle, macht für mich keinen großen Unterschied.

Meine HD4870 muss aber mal in Rente, obwohl sie eig. noch alles packt - ich will (mehr) AA :D
 
Ich denke mal, egal ob Sie nur PCIE 2.0 oder doch schon 3.0 unterstützen wird nicht von gloßer Bedeutung sein. Es wäre evtl ein Verkaufsargument, mehr auch schon nicht. Aber auf deren Leistung bin ich dennoch gespannt. :D
 
Na da passt die Meldung doch wieder wie der A.. auf Eimer. Sprich Intel's Sandy-Bridge-E Chipsatz soll nach Gerüchten noch gar kein PCI3.0 unterstützen, da haut AMD das gleich mal raus. ;)

Die GPU ist bei Sandy E direkt an die CPU angebunden und nicht an den Chipsatz. Und die CPUs sollen auch weiterhin PCIe 3.0 haben.

@Topic ... PCIe 3.0 wird bei einer Single GPU wohl praktisch kaum Vorteile haben. Allerdings bei Multi GPU mit dem Ivy Bridge wo nur 2x 8 Lanes zur Verfügung stehen könnte es durchaus leichte Vorteile bei PCIe 3.0 geben.

mfg
 
Dann müßte AMD auch sehr bald neue Mainboard-chipsätze anbieten . Sieht sonst bischen doof aus wenn ihre Grafikkarten PCI-E 3.0 haben
ääähm siehe Wiki "AMD bulldozer"

Auch für dich. Der erste Bulldozer (genannt auch Gen1 für sokel AM3+) ist nur ein Vorabmodell. 2012 kommt der Bulldozer Gen2. Dieser wird auf einem FMx platz finden der PCI-E 3.0 haben wird sowie QUAD-Chanel Speicher unterstützung.

Wie auch schon beschrieben werden die Sendy E und glaube auch die Ivy dies unterstützen.

Dennoch denke ich nicht das die Volle leistung des 3.0 ausgeschöpft wird (siehe anfangs PCI-E 2.0 und 2.1)
Die Passenden Karten werden wohl zum auftackt des Ivy & Sandy E passend erscheinen.

@XE85 ist schon bekannt wieviele Lines der 3.0 vertreten KANN/WIRD ? habe da leider noch nichts gefunden
 
Bin mal echt gespannt, was da raus kommt. Ähnliche umfassende Änderungen der Architektur gab es zuletzt bei R600 und R300. Hoffentlich kommt das Endergebnis eher der letzteren nahe.
 
Ich bezweifle, dass aktuelle Grakas überhaupt die volle Bandbreite von PCIe 2.0 ausnutzen, wenn man sieht wie gering ja schon der Leistungsabfall beim Betrieb einer 2.0 Graka in einem PCIe 1.0 Slot ist.

Doch tun Sie. Ob eine Grafikkarte das Interface ausreizen kann sieht man auch schlecht an Spielen als Testsoftware. Bastel dir einfach einen Mem-Copy Benchmark, dann siehst du, dass PCI-E 2.0 zu 100% ausgelastet ist. Für Spieler atm relativ uninteressant, da gebe ich dir recht, da die Daten einmal geladen werden meist und das wars. Sachen dynamisch nachladen ist hässlich im Moment. Mit den ID-Software Mega-Textures wird sich dies aber wohl deutlich ändern. Mit GCN und dem gemeinsamen kohärenten Speicher werden so Sachen wie die Mega-Textures sehr einfach zu implementieren.

Es ist also davon aus zu gehen, dass auch für Gamer in Zukunft die Bandbreite von PCI-E wieder interessanter wird. Für Leute die damit arbeiten/rechnen wollen ist es in vielen Bereichen bereits jetzt sehr wichtig das PCI-E 3.0 kommt und zwar mit 16x. Ganz abgesehen davon gibt es heutzutage genug Einsatzgebiete, wo es sich nicht lohnt eine GPU zu nutzen, einfach weil der drecks PCI-E 2.0 Flaschenhals da ist. Wenn dein Datentransfer einfach länger dauert als die gesamte Berechnung auf der CPU, dann kann die GPU so schnell sein wie Sie will, es lohnt einfach nicht....

Zum Artikel: PCIe 3.0 ist wohl eher ein Marketingstreich als dass es einen wirklichen Nutzen hätte. Selbst wenn man anstelle von PCIe2.0 nur 1.1 nutzt sinken nur bei sehr Bandbreitenlastigen Settings/Spielen die fps deutlich, normalerweise macht es kaum einen Unterschied. PCIe3 wird da wohl kaum Performance rausholen können. natürlich muss der Schritt irgendwann gemacht werden aber momentan sehe ich den Zweck nur in bunten Angebotsblättchen und weniger auf dem fps Counter.
Siehe oben.

Also, kurz um NEIN es ist kein reines Marketing. Es gibt mehr als genug Einsatzbereiche, in denen selbst PCI-E 3.0 16x bei einer GPU ausbremst. Diese werden sich aber alle auf den GPGPU-Bereich beschränken. Für reine Gamer gebe ich dir Recht, reicht PCI-E 2.0 16x zumindest bis jetzt aus. Wie oben angesprochen kann sich dies aber schnell ändern.

Man muss sich einfach immer die entsprechende Software suchen. Es sagt ja auch niemand, dass alles was schneller als ein Athlon 64/Pentium ist, total unnötig ist, weil Mineswiper und Office ja absolut nicht davon profitieren.....


äääähhhhh - ja. Das würde dann vermutlich auch erklären, wieso er sich verzögert. Vermutlich dann auf ~Ende 2012, wenn AMD erst noch nach einem Weg sucht, ein PCI-E Interface in den Sockel AM3 zu integrieren. :schief:

Ja ich musste auch kurz schmunzeln :D


Grafikkarten mögen nicht von zusätzlicher Bandbreite profitieren - aber Käufer von geringerer Mainboardkomplexität, wenn man stattdessen mit 8 Lanes auskommt. Wichtiger dürfte das ganze aber für Laufwerkscontroller sein, denn PCIe2 x1 ist zu lahm für volle SATA Geschwindigkeit oder z.B. einen RAID aus 2 SSDs. Da wird man bald auf neue Anbindungen setzen müssen, denn für x4 fehlen ganz schnell die Lanes.
Auch dir Ruyven, auch GPUs können von PCI-E 3.0 16x profitieren, du musst nur die richtige Software darauf laufen lassen :daumen:

Wie immer halt :schief:


@Topic ... PCIe 3.0 wird bei einer Single GPU wohl praktisch kaum Vorteile haben. Allerdings bei Multi GPU mit dem Ivy Bridge wo nur 2x 8 Lanes zur Verfügung stehen könnte es durchaus leichte Vorteile bei PCIe 3.0 geben.

mfg
Siehe die Aussagen zuvor. Bei Multi-GPU wird der Flaschenhals nur NOCH größer, er ist aber immer da.
 
@XE85 ist schon bekannt wieviele Lines der 3.0 vertreten KANN/WIRD ? habe da leider noch nichts gefunden

40

Siehe die Aussagen zuvor. Bei Multi-GPU wird der Flaschenhals nur NOCH größer, er ist aber immer da.

Welche meinst du genau?, diese:

Bastel dir einfach einen Mem-Copy Benchmark, dann siehst du, dass PCI-E 2.0 zu 100% ausgelastet ist.

Wenn ja, das ist doch für die Praxis völlig irrelevant ob ein selbst gebasteltes Programm irgendwas zu 100% auslastet. Es geht um Praxis, nicht um ein selbstgeschriebenes, irgend ein Limit konstruierendes, völlig Praxisfernes Programm.

Und bei Multi GPU in GAMES oder zu deutsch SPIELEN hat man heute bis auf wenige Ausnahmen (zT Multi GPU mit 8x/8x wenige Prozent --> wird mit PCIe 3.0 sehr wahrscheinlich wegfallen) kein PCIe Bandbreiten Limit und wird es mit PCIe 3.0 erst recht nicht haben.

mfg
 
Dann nimmt z.B. einen Gaußfilter für ein Bild. Da bist du auch sehr stark von der Bandbreite limitiert.

Oder schau dir die Matrix-Multiplikation an. Für "kleine" Matrizen macht die Datenübertragung den Hauptteil der Ausführungszeit aus.

Es sind BEISPIELE.... Es gibt hunderte, tausende gar Millionen von unterschiedlichen Problemen, bei denen der PCI-E Slot voll ausgelastet wird und damit die Ausführungszeit verlängert. Je weniger Datenlokalität dein Programm hat, worstecase eine Vielzahl von Bildern, die du nur einmalig anfässt und das wars, sind eigentlich rein durch PCI-E und RAM-Bandbreite limitiert.
 
Zum Artikel: PCIe 3.0 ist wohl eher ein Marketingstreich als dass es einen wirklichen Nutzen hätte. Selbst wenn man anstelle von PCIe2.0 nur 1.1 nutzt sinken nur bei sehr Bandbreitenlastigen Settings/Spielen die fps deutlich, normalerweise macht es kaum einen Unterschied. PCIe3 wird da wohl kaum Performance rausholen können. natürlich muss der Schritt irgendwann gemacht werden aber momentan sehe ich den Zweck nur in bunten Angebotsblättchen und weniger auf dem fps Counter.

Sehe ich genau so...!:D

Greets Winpo8T
 
ja du hast gerade 2 Titel genannt :D sauber merkste selber......... :ugly:


EDIT : 3dcenter hat im übringen eine umfrage gemacht auf der main bezüglich neuer GPu genn. sehr interessantes ergebniss

News des 16./17. Juli 2011 | 3DCenter.org

Sehe ich genauso, aktuelle Highend-Karten bringt man mit sehr wenigen Ausnahmen nur dann ans Limit, wenn man irgendwelche "perversen" Bildverbesserungen wie Downsampling oder eine von diesen ewig langen Abkürzungen betreibt: SSSAAAGGG-Filter :D. Alles so Sachen, wo ich bei Vergleichsbildern 10 mal hin- und herklicken muss um zu checken, welches denn nun das Bessere von beiden ist. Kosten massiv Leistung bringen aber kaum optischen Mehrwert.

Das hat nichts mehr mit der Situation vor 4-5 Jahren zu tun, wo bei neuen Spielen eine neue Grafikkarte existenziell war.
Liegt natürlich alles an den alternden Konsolen, wurde ja schon in aller Breite diskutiert.
Aber mich wundert es, warum überhaupt eine neue Generation von Grafikkarten kommen soll, bevor die neue Konsolengeneration aus dem Sack ist. Abgesehen von ein paar Enthusiasten sieht nämlich kaum jemand einen Sinn darin aufzurüsten, und weder für Nvidia noch für AMD kann ein solch kleiner Kundenkreis interessant sein. Aber vielleicht kommt die neue Generation ja schneller als man denkt, die GPU-Hersteller sollten es ja eigentlich wissen.
Anstatt all meine Kanten 100 mal zu glätten hätte ich lieber andere Funktionen.
Coole Partikeleffekte, realistische Interaktion mit Objekten - also Physik -, bessere Texturen...
 
Zuletzt bearbeitet:
Sehe ich genauso, aktuelle Highend-Karten bringt man mit sehr wenigen Ausnahmen nur dann ans Limit, wenn man irgendwelche "perversen" Bildverbesserungen wie Downsampling oder eine von diesen ewig langen Abkürzungen betreibt: SSSAAAGGG-Filter :D. Alles so Sachen, wo ich bei Vergleichsbildern 10 mal hin- und herklicken muss um zu checken, welches denn nun das Bessere von beiden ist. Kosten massiv Leistung bringen aber kaum optischen Mehrwert.

Das hat nichts mehr mit der Situation vor 4-5 Jahren zu tun, wo bei neuen Spielen eine neue Grafikkarte existenziell war.
Liegt natürlich alles an den alternden Konsolen, wurde ja schon in aller Breite diskutiert.
Aber mich wundert es, warum überhaupt eine neue Generation von Grafikkarten kommen soll, bevor die neue Konsolengeneration aus dem Sack ist. Abgesehen von ein paar Enthusiasten sieht nämlich kaum jemand einen Sinn darin aufzurüsten, und weder für Nvidia noch für AMD kann ein solch kleiner Kundenkreis interessant sein. Aber vielleicht kommt die neue Generation ja schneller als man denkt, die GPU-Hersteller sollten es ja eigentlich wissen.
Anstatt all meine Kanten 100 mal zu glätten hätte ich lieber andere Funktionen.
Coole Partikeleffekte, realistische Interaktion mit Objekten - also Physik -, bessere Texturen...

Das kann ich so nicht unterschreiben.
Ich finde Kanten in Spielen sehr hässlich, weil ich die sehe wenn ich spiele.
Ob jetzt eine 4096x4096 Textur oder eine 1024x1024 Textur an mir vorbeisaust ist mir meistens egal.
Deswegen spiele ich jetzt immer noch mit meinem 1280x1024 Monitor, weil da downsampling in den meisten Fällen ohne weiteres geht.
 
Auf Prozessorenseite wird PCI-E 3.0 erstmals von Sandy Bridge E, Ivy Bridge und Bulldozer unterstützt. Mainboards sind schon erhältlich.

Na ja... Bulldozer II

Allgemein halte ich es für wahrscheinlich wirklich konkrete Anhaltspunkte scheint es aber nicht zu geben, ich vermute, die Gerüchte haben keine richtige Quelle und sind reine Vermutungen
 
Zurück