• Achtung, kleine Regeländerung für User-News: Eine User-News muss Bezug zu einem IT-Thema (etwa Hardware, Software, Internet) haben. Diskussionen über Ereignisse ohne IT-Bezug sind im Unterforum Wirtschaft, Politik und Wissenschaft möglich.
  • Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Wii-U: Technik Details [Update Nr. 4/ 27.06.12] Wii-U bekommt ein Downloadportal wie Origin/Steam ?

MysticBinary82

Software-Overclocker(in)
AW: Wii-U: Technik Details des neuesten Dev-Kits geleakt

Ende 2001 besaß ich eine Geforce 3 Ti-200 an einem CRT, der bis zu 2.048x1.536 darstellen konnte. Die Grafikkarte beherrschte als erste 4x MSAA. Und nun? :devil:

MfG,
Raff

Beherrschen und dabei auch gleichzeitig 60fps auf dem monitor zaubern sind zwei paar Schuhe. Das sollte man nicht vergessen also kannst du dein 2001 wohl vergessen.

Zudem vergessen viele wiedermal, dass man eine Konsole direkter Programmieren kann, da es nunmal nur eine Hardware gibt. Somit ist mehr Leistung drin als mit einem besseren Mittelklasse PC. Da sind aber leider auch die Herrsteller von hardware mit dran schuld das es so viel unterschiede gibt. Von mir aus könnte es auch nur 4 verschiedene Grafikkartenklassen geben. Dem ist aber leider nicht so und das zieht sich bei den CPUs genauso fort.
Man sollte mal AMD, Intel und Nvidia begreiflich machen, dass manchmal weniger mehr ist.
 

majinvegeta20

Lötkolbengott/-göttin
AW: Wii-U: Technik Details des neuesten Dev-Kits geleakt

Heutige Konsolen kommen mit 512 MB Ram aus. Anno Ende 2005....
Ja das ist kein PC, weswegen man nicht unbedingt jetzt 4GB oder 8GB braucht, aber 2 als Minimum und 4 GB um nicht nach 4 Jahren aus der Puste zu geraten. Ram ist als Großabnehmer spottbillig.
Und doch ja, sie benutzen stinknormalen DDR-Speicher dafür. Die XBOX 360 benützt 512 MB DDR3 mit 700 Mhz auf den der Prozessor und die GPU zugreift. Kein VRAM und der Speicher ist glaube ich mit 128-Bit statt 64-Bit wie auf dem PC angebunden.
Die PS3 benützt 256 MB XDRAM als Hauptspeicher und auch DDR3 mit 700 MHz als Grafikspeicher. Und wieder ja, XDR hat sehr hohe Bandbreiten, aber das war es auch schon.

tse,tse wie gemein den Grafikspeicher mitzurechnen...weißt genau was ich meinte. :schief:
Mein Beispiel war auch eher allgemein auf die PS3 bezogen und XBox 360 najaaaaaaaa. :D

Und jaaaaaaaaaa der Speicher dort läuft fixer. ;)

D.h. mit 1,5 oder meinetwegen 2 gb RAM kann man mehr als zufrieden sein. ^^
(auch über die Jahre hinaus gesehen!)
 
Zuletzt bearbeitet:

Locuza

Lötkolbengott/-göttin
AW: Wii-U: Technik Details des neuesten Dev-Kits geleakt

Wenn das tatsächlich die Hardwarespezifikationen für die (längst überfällige) neue Generation der Spielekonsolen sein sollen, ist das in erster Linie zum Nachteil für PC-Spieler :wall:
Wenn die Konsolen weiterhin hardwaretechnisch so hinterher hinken, und weiterhin die meisten Spiele von der Konsole auf den PC portiert werden, stagniert die ganze Entwicklung. Das prangere ich an :ugly: :D
Die Entwicklung stagniert nicht, bloß geht sie gerade eher langsamer voran. Mit der Wiiu und erst recht der wirklichen Next-Gen sollte es wieder einen großen Schub geben.

Da sind aber leider auch die Herrsteller von hardware mit dran schuld das es so viel unterschiede gibt. Von mir aus könnte es auch nur 4 verschiedene Grafikkartenklassen geben. Dem ist aber leider nicht so und das zieht sich bei den CPUs genauso fort.
Man sollte mal AMD, Intel und Nvidia begreiflich machen, dass manchmal weniger mehr ist.
Jep, ich bin auch dafür das H&M, Kick, Esprit und s.Oliver sich zusammen setzen und die gleiche Kollektion auf den Markt bringen. :ugly:

tse,tse wie gemein den Grafikspeicher mitzurechnen...weißt genau was ich meinte. :schief:
Mein Beispiel war auch eher allgemein auf die PS3 bezogen und XBox 360 najaaaaaaaa. :D

Und jaaaaaaaaaa der Speicher dort läuft fixer. ;)
wtf? ( Grafikspeicher mit zu rechnen... )
Zu spät majinvegeta, du kannst nichts mehr relativieren ;)
Und XDR ist wirklich ein Exot und ich habe meine Zweifel daran, ob so ein Speicher in der Zukunft benützt wird.
 

Liza

PCGH-Community-Veteran(in)
AW: Wii-U: Technik Details des neuesten Dev-Kits geleakt

Trotz allem war die Wii erfolgreicher bzw. hat mehr Umsatz gemacht, als die PS3 oder die Xbox 360. :D
Dafür gibt es auf der Wii U auch sowas hier zu sehen:
[E3 2012] ZombiU - E3 Gameplay Trailer - YouTube

Dort fühle ich mich gleich viel mehr in ein Game hineinversetzt. :daumen:

@Tiz92
Jap, ich auch. Sogar ganz doll gespannt. ;)

Das schon eine geniale Idee, doch frage ich mich ob ich auch lust hätte ständig mit so einem dicken Ding in der Hand zu spielen. Wenn man aber alternativ auch mal nur mit Wiimote + Nunchuk spielen könnte wärs natürlich prima! :daumen:
 

majinvegeta20

Lötkolbengott/-göttin
AW: Wii-U: Technik Details des neuesten Dev-Kits geleakt

wtf? ( Grafikspeicher mit zu rechnen... )
Zu spät majinvegeta, du kannst nichts mehr relativieren ;)
Und XDR ist wirklich ein Exot und ich habe meine Zweifel daran, ob so ein Speicher in der Zukunft benützt wird.

Nö, wird es wohl auch nicht. :D
Und ja zum Rest...Gemeeeeeeein. :ugly:
 

Locuza

Lötkolbengott/-göttin
AW: Wii-U: Technik Details des neuesten Dev-Kits geleakt

tse,tse wie gemein den Grafikspeicher mitzurechnen...weißt genau was ich meinte. :schief:
Mein Beispiel war auch eher allgemein auf die PS3 bezogen und XBox 360 najaaaaaaaa. :D

Und jaaaaaaaaaa der Speicher dort läuft fixer. ;)

D.h. mit 1,5 oder meinetwegen 2 gb RAM kann man mehr als zufrieden sein. ^^
(auch über die Jahre hinaus gesehen!)
Noch was majinvegeta :D
Sorry, ich lass dich jetzt bald in Ruhe.
Aber mit 1.5 gb oder 2 wird man nicht glücklich die nächsten Jahre. Okay für Nintendo muss das sehr großes Level sein und es ist nicht so niederschmetternd wie bei der Wii, aber alles andere als gut.
UE4, Frostbyte-Engine 2 usw. werden auf 2GB ihre Probleme haben und mit 1.5 GB erst recht. Das OS reserviert sich ja auch noch einige hundert mb platz.
Ich denke Ram und GPU-Power reichen einfach nicht aus, um EPIC davon überzeugen zu können die UE4 auf der Wiiu präsentieren.
 

majinvegeta20

Lötkolbengott/-göttin
AW: Wii-U: Technik Details des neuesten Dev-Kits geleakt

Noch was majinvegeta :D
Sorry, ich lass dich jetzt bald in Ruhe.
Aber mit 1.5 gb oder 2 wird man nicht glücklich die nächsten Jahre. Okay für Nintendo muss das sehr großes Level sein und es ist nicht so niederschmetternd wie bei der Wii, aber alles andere als gut.
UE4, Frostbyte-Engine 2 usw. werden auf 2GB ihre Probleme haben und mit 1.5 GB erst recht. Das OS reserviert sich ja auch noch einige hundert mb platz.
Ich denke Ram und GPU-Power reichen einfach nicht aus, um EPIC davon überzeugen zu können die UE4 auf der Wiiu präsentieren.

Hier geht es jetzt ja erst einmal um die Wii U. Was mit den "Rest" ist, da wird man dann noch sehen. :D
Das da jetzt aber Sony, sowie Microsoft 4 gb rein knallen werden, kann ich mir auch nicht so recht vorstellen. ;)
 

Locuza

Lötkolbengott/-göttin
AW: Wii-U: Technik Details des neuesten Dev-Kits geleakt

Hier geht es jetzt ja erst einmal um die Wii U. Was mit den "Rest" ist, da wird man dann noch sehen. :D
Das da jetzt aber Sony, sowie Microsoft 4 gb rein knallen werden, kann ich mir auch nicht so recht vorstellen. ;)
Der Rest wird aufgrund der Konsolengröße und 40/45nm wohl nichts tolles hergeben.
Was lässt dich an 4GB eig. zweifeln? Es ist Faktor 4 und bei der Gen davor war der Faktor noch größer und der Zeitabstand geringer. Laut Gerüchten kam sinngemäß folgender Dialog:
MS: 2 GB
DEVs: OH NO! We need 4GB minimum.
MS: 4 GB
Some DEVs: Meh, could you do 8GB?
MS: **** You

Dice hat einmal verlauten lassen das sie ihre Engine mit 2 GB gar nicht realisieren können und 4 GB brauchen und 8 GB optimal wäre. Crytek hat ähnliches gesagt, auch wenn 8 GB wohl pures Wunsch/Druckmitteln sind. Epic befürchtet noch heute ob die UE4 auf der Next-Gen ohne Probleme laufen wird.
Das MS überhaupt mit 2GB antanzen wollte erschreckt mich.
2GB einfach no way nehme ich mal an und als Großabnehmer sollte man wirklich nicht beim Ram geizen.
 

turbosnake

Kokü-Junkie (m/w)
Grafik ist das letzte worauf ich schaue.
Und mit meinem Bsp meinte ich Witcher 2 IMHO das PC-Game des Jahres und es gibt Bus jetzt auch kein besseres.
Storytelling und die Atmo passt, dazu ein guter Schwierigkeitsgrad!
 

majinvegeta20

Lötkolbengott/-göttin
AW: Wii-U: Technik Details des neuesten Dev-Kits geleakt

Der Rest wird aufgrund der Konsolengröße und 40/45nm wohl nichts tolles hergeben.
Was lässt dich an 4GB eig. zweifeln? Es ist Faktor 4 und bei der Gen davor war der Faktor noch größer und der Zeitabstand geringer. Laut Gerüchten kam sinngemäß folgender Dialog:
MS: 2 GB
DEVs: OH NO! We need 4GB minimum.
MS: 4 GB
Some DEVs: Meh, could you do 8GB?
MS: **** You

Dice hat einmal verlauten lassen das sie ihre Engine mit 2 GB gar nicht realisieren können und 4 GB brauchen und 8 GB optimal wäre. Crytek hat ähnliches gesagt, auch wenn 8 GB wohl pures Wunsch/Druckmitteln sind. Epic befürchtet noch heute ob die UE4 auf der Next-Gen ohne Probleme laufen wird.
Das MS überhaupt mit 2GB antanzen wollte erschreckt mich.
2GB einfach no way nehme ich mal an und als Großabnehmer sollte man wirklich nicht beim Ram geizen.

Wenn ich sehe, was man jetzt sogar noch mit "512" MB RAM alles anstellen kann und der Grafiksprung jetzt nicht so auffällig wie noch am Anfang als die PS3 und die XBox 360 herauskamen ,sein wird, glaube ich nicht (trotz wie du ja schon meintest geringe Mehrkosten) den Sprung auf 4 gb gehen wird.

Falls doch ist meinetwegen auch gut.
Aber ob sich jetzt Sony, sowie Microsoft jetzt so sehr von Dice, Epic und Crytek beeinflussen lassen werden (trotz ihrer Engines), mag ich jetzt bezweifeln.
Die denken sich dann halt wohl eher: "könnt ja alles optimieren". ;)
 

Locuza

Lötkolbengott/-göttin
AW: Wii-U: Technik Details des neuesten Dev-Kits geleakt

Grafik ist das letzte worauf ich schaue.
Und mit meinem Bsp meinte ich Witcher 2 IMHO das PC-Game des Jahres und es gibt Bus jetzt auch kein besseres.
Storytelling und die Atmo passt, dazu ein guter Schwierigkeitsgrad!
So muss es auch sein ;)
Das ändert dennoch nichts daran, dass DX11 eig. Standard werden sollte und man nicht in DX9 Routinen programmiert. Die Möglichkeiten mit DX11 sind einfach viel größer und die Routinen auch Ressourcen sparender. Mit DX11 ist "effekt-arme Grafik" schonender zu realisieren als mit DX9. Man nimmt einfach kein high-polygon-body, sondern ein basic-body, tesseliert es, dann hat es schon ein gut eingestelltes LOD, lässt einige Routinen von Compute Shadern berechnen und schon hat man was Anständiges, mit "wenig" Aufwand.

Wenn ich sehe, was man jetzt sogar noch mit "512" MB RAM alles anstellen kann und der Grafiksprung jetzt nicht so auffällig wie noch am Anfang als die PS3 und die XBox 360 herauskamen ,sein wird, glaube ich nicht (trotz wie du ja schon meintest geringe Mehrkosten) den Sprung auf 4 gb gehen wird.

Falls doch ist meinetwegen auch gut.
Aber ob sich jetzt Sony, sowie Microsoft jetzt so sehr von Dice, Epic und Crytek beeinflussen lassen werden (trotz ihrer Engines), mag ich jetzt bezweifeln.
Die denken sich dann halt wohl eher: "könnt ja alles optimieren". ;)
Epic ist glaube ich der Grund wieso die Xbox 360 512mb hat. Epic meinte Gears of War ist mit 256mb nicht zu realisieren und für die Zukunft wäre es doch auch nicht schlecht und da hat MS eingewilligt.
Und MS wird gewiss auf die Hören müssen, weil die entwickeln auf dem Teil und MS muss deren Ansprüche decken und versuchen die beste Linie aus Kosten und Performance zu treffen.
Was Halo 4 und GoW für Pain in the ass Titel sein müssen. Ich hätte gewiss keine Lust alle Instruktionen fein säuberlich zu sortieren, auf jeden dämlichen Speicherzugriff zu achten, um Bandbreite zu schonen, dann schauen das kein Cash getrashed wird und alles Stein auf Stein aufgebaut wird.
Ich meine, es ist mittlerweile wohl schon beinahe eine Zumutung auf so einem Level das heraus zu kitzeln zu versuchen.
 
Zuletzt bearbeitet:

majinvegeta20

Lötkolbengott/-göttin
AW: Wii-U: Technik Details des neuesten Dev-Kits geleakt

Epic ist glaube ich der Grund wieso die Xbox 360 512mb hat. Epic meinte Gears of War ist mit 256mb nicht zu realisieren und für die Zukunft wäre es doch auch nicht schlecht und da hat MS eingewilligt.
Und MS wird gewiss auf die Hören müssen, weil die entwickeln auf dem Teil und MS muss deren Ansprüche decken und versuchen die beste Linie aus Kosten und Performance zu treffen.
Was Halo 4 und GoW für Pain in the ass Titel sein müssen. Ich hätte gewiss keine Lust alle Instruktionen fein säuberlich zu sortieren, auf jeden dämlichen Speicherzugriff zu achten, um Bandbreite zu schonen, dann schauen das kein Cashe getrashed wird und alles Stein auf Stein aufgebaut wird.
Ich meine es ist mittlerweile wohl schon beinahe eine Zumutung auf so einem Level das heraus zu kitzeln zu versuchen.

Stimme ich gern zu, aber weiß keiner wie Microsoft oder Sony da jetzt letztendlich ticken wird und die nicht doch eher sagen: "Naja, dann optimiert mal noch ein bissel...muss auch so gehen." ;)
 

bofferbrauer

Volt-Modder(in)
AW: Wii-U: Technik Details des neuesten Dev-Kits geleakt

Wie wäre es mit mehr VRAM? Der Rest sieht schon beruhigend klein aus, für PC-Spieler.Anhang anzeigen 553690Anhang anzeigen 553691

Die 32Mb eDRAM sind cache, kein VRAM. Die 1,5 GB Unified Ram sollen angeblich XDR2 Rams sein, die in etwa doppelt so schnell wie DDR3 sind.

Genau eine Konsole kann mit deutlich schwächerer Hardware deutlich bessere Grafik machen als es ein PC kann. Das muss man sich vor Augen halten. Also könnte die Wii U gut Grafik daarstellen wie aktuelle starke Mittelklasse PCs. Kommt ja auch stark drauf an welchee HD 7xxx da rein kommt. Eine 7970 oder 7770 ist ja ein Unterschied. :ugly:

das 7xxx ist eigentlich ein Fehler im Startpost, im Originalartikel steht R7xx, was auf die Radeon HD4xxx deutet. Dies war auch schon vor einem Jahr bei Leaks angedeutet worden, genau wie die POWER7 basierende CPU. In Anbetracht des geringen TDP Budgets einer Konsole gehe ich davon aus, dass die technische Basis eine Mobility Radeon HD 48xx stellen wird
Eine HD 7xxx wäre sowieso faktisch unmöglich, denn diese Komponente hätten sie ja schlecht in die Prototypen letztes Jahr einbauen können, oder?
 
Zuletzt bearbeitet:

MysticBinary82

Software-Overclocker(in)
AW: Wii-U: Technik Details des neuesten Dev-Kits geleakt

Jep, ich bin auch dafür das H&M, Kick, Esprit und s.Oliver sich zusammen setzen und die gleiche Kollektion auf den Markt bringen. :ugly:

Jep und du hast mich kein stück verstanden.

Als Beispiel für dieses System worauf es schwer ist ein Spiel wirklich effektiv anzupassen sei mal die letze AMD GPU Generation genommen.

Da gibt es die Modelle:

HD 6450
HD 6570
HD 6670
HD 6750
HD 6770
HD 6790
HD 6850
HD 6870
HD 6930
HD 6950
HD 6970
HD 6990

Das sind 12 (Desktop) Modelle wobei man max 5 benötigen würde aus User sicht. Und so eine rießen anzahl an verschiedenen modellen gibt es auch bei Intel und Nvidia.
Muss das wirklich sein? Niemand spricht davon, dass alle genau das selbe Stück Hardware produzieren sollen und dein Vergleich mit Modelables hinkt gewaltig.
 

Locuza

Lötkolbengott/-göttin
AW: Wii-U: Technik Details des neuesten Dev-Kits geleakt

Jep und du hast mich kein stück verstanden.

Als Beispiel für dieses System worauf es schwer ist ein Spiel wirklich effektiv anzupassen sei mal die letze AMD GPU Generation genommen.

Da gibt es die Modelle:

HD 6450
HD 6570
HD 6670
HD 6750
HD 6770
HD 6790
HD 6850
HD 6870
HD 6930
HD 6950
HD 6970
HD 6990

Das sind 12 (Desktop) Modelle wobei man max 5 benötigen würde aus User sicht. Und so eine rießen anzahl an verschiedenen modellen gibt es auch bei Intel und Nvidia.
Muss das wirklich sein? Niemand spricht davon, dass alle genau das selbe Stück Hardware produzieren sollen und dein Vergleich mit Modelables hinkt gewaltig.
Das sind 4 Chips in jeweils maximaler Verwertung. Du kannst die Spieleentwicklung nicht wesentlich vereinfachen oder einige Abstraktionsebenen entfernen, wenn du die Produktpalette auf 5 Modelle kürzt. Welche 5 Modelle sollten es denn sein? So oder so, brauchst du auf dem Markt eine gewisse Bandbreite an Produkten, die Zwischenschritte interessieren dann weniger, weil ich alles abdecken muss und die Anforderungen skalieren. Die Zwischenschritte machen da keinen fetten Schinken mehr draus.
Was man fordern könnte wäre ein lineares Verhältnis aus ROPs, TMUs, Bandbreiten usw.
Die Abstraktionsebenen brauchst du sowieso, weil es mehrere Mitbewerber gibt und eine Produktreduzierung auf allen Seiten würde keinesfalls so einschlagen, wie du es dir vllt erhoffst.


Die 32Mb eDRAM sind cache, kein VRAM. Die 1,5 GB Unified Ram sollen angeblich XDR2 Rams sein, die in etwa doppelt so schnell wie DDR3 sind.
Wofür werden die 32mb eDRAM auf der Wiiu denn wirklich verwendet oder als was fungieren sie?
1.5 GB XDR2 Ram? Verschenkt neulich Rambus seine Riegel oder wieso sollte Nintendo darauf aufsteigen?
 
Zuletzt bearbeitet:

alm0st

PCGH-Community-Veteran(in)
AW: Wii-U: Technik Details des neuesten Dev-Kits geleakt

Was war denn anderes von Nintendo zu erwarten? Ich meine das nicht mal negativ aber die Wii war zu Release der PS3 und X-Box 360 auch weit unterlegen - trotzdem ein riesen Erfolg. Die Wii-U wird meiner Meinung nach nichts anderes.
 

ich111

Lötkolbengott/-göttin
AW: Wii-U: Technik Details des neuesten Dev-Kits geleakt

Nintendo richtet sich halt die Casuals
 

bofferbrauer

Volt-Modder(in)
AW: Wii-U: Technik Details des neuesten Dev-Kits geleakt

Wofür werden die 32mb eDRAM auf der Wiiu denn wirklich verwendet oder als was fungieren sie?

Das müsstest du wohl Nintendo fragen, ich hab die Konsole ja nicht entworfen ^^. Könnte möglicherweise für die Tesselationseinheit (welche vielleicht eine abgewandelte Ati Tru-Form Einheit sein könnte), für die indexed cube map arrays, oder die Shader nützlich sein. Oder einfach als Z/stencil buffer fungieren

1.5 GB XDR2 Ram? Verschenkt neulich Rambus seine Riegel oder wieso sollte Nintendo darauf aufsteigen?

Wird wohl billiger als die bisher verwendeten 1T-SRAM :D. Zudem ist schneller Speicher nötig wenn auch die Grafik damit befüttert werden sollte. Da XDR2 bisher so ziemlich keiner haben wollte könnte Nintendo u.U. (relativ gesehen natürlich) billig wegkommen bei so einem Deal.

Da XDR2 wohl trotzdem eher teuer wird, könnte Nintendo allerdings genauso gut GDDR5 nehmen. Der RAM der XBox 360 bestand ja auch aus 512MB GDDR3 RAM, so dass man bestimmt auch GDDR5 als Hauptspeicher verwenden kann
 

Phobos001

Freizeitschrauber(in)
AW: Wii-U: Technik Details des neuesten Dev-Kits geleakt

An sich eine recht ordentliche Hardware, wenn man das alles mal in die richtigen Relationen setzt.
Vergleiche mit PC Hardware scheitern schon an der Tatsache das an Konsolen wesentlich näher an der Hardware programmiert wird.
API´s wie OpenGL oder DirectX sind für Konsolen (fast) unerheblich, da diese nur einen Flaschenhals darstellen würden.
Das ist eben der Vorteil von geschlossenen Systemen, da kann man wesentlich mehr aus der vorhandenen Hardware herausholen.
Man muss sich keine Sorgen um Inkompatibilitäten machen, und ein Fallbackmodus auf eine andere API muss auch nicht vorhanden sein.

Auch den Schritt hin zu VLIW5 Shadern kann ich vollkommen nachvollziehen.
Hier ist jedoch zu hoffen das es wirklich ein HD5K Derivat wird, da diese doch wesentlich effizienter zu Werke gehen als es noch der Vorgänger tat.
Welche Power in diesen Shadern steckt sieht man ja immer wieder in GPGPU Anwendungen, da ist jedenfalls massiv Leistung zu erwarten.
Hardwarenahe Programmierung und VLIW5 klingen in meinen Ohren verdammt gut, da man hier das Problem der schwierigen Auslastung die es noch im Desktop Bereich gab, komplett eliminieren kann.
Was den RAM anbelangt muss man abwarten was die Entwickler daraus machen.
Durch massiven Shadereinsatz(und der wohl vorhandenen Shaderpower) kann man Texturen auch aufhübschen und mit ordentlich Details versehen, das machen die aktuellen Konsolen auch schon teils wirklich ordentlich.
Der Pferdefuss der aktuellen Generation ist die alterschwache GPU und damit einhergehende Einbußen bei der Auflösung, und nicht unbedingt zu detailarme Texturen.
 

cl55amg

BIOS-Overclocker(in)
AW: Wii-U: Technik Details des neuesten Dev-Kits geleakt

Der Threadstarter hat die Infos in dem Leak nicht richtig wiedergegeben. Eigentlich ist ein no go weil es für Verwirrung sorgt, sogar bei Raff:

"(720P 4xMSAA oder 1080P ohne AA möglich)"

Willkommen im Jahr ... 2001. Nintendo, ihr habt euch im Jahrzehnt geirrt. :huh:

MfG,
Raff

In dem Leak steht:
32MB high-bandwidth eDRAM, supports 720p 4x MSAA or 1080p rendering in a single pass.
@ Raff

So wie ich das verstehe kann die Wii U durchaus 1080p mit 4xMSAA. Nur dann eben nicht dem geringen Leistungsabfall der sich durch den eDRAM ergibt. Wie siehst du das?
 

Chinaquads

Volt-Modder(in)
AW: Wii-U: Technik Details des neuesten Dev-Kits geleakt

ich finde es klasse, wie ihr euch hier über den ram "streitet" :ugly:

Ganz nüchtern betrachtet sind die HW Specs der Wii U einfach fürn Popo und werden die grafische Entwicklung der Spiele auf dem PC in keinsterweise vorantreiben.

Einzigst bei der Xbox729 / PS4 wird es einen kleinen Quantensprung geben, woran der PC erst einmal ca. 1-1.5 Jahre hinterherhinken wird. Danach wird wieder alles beim alten sein, Konsolengrafik Müll,der PC wird mit billigen Konsolenports überschwämmt und wir dürfen wieder auf die nächste Generation warten.
 

DaStash

PCGH-Community-Veteran(in)
AW: Wii-U: Technik Details des neuesten Dev-Kits geleakt

ich finde es klasse, wie ihr euch hier über den ram "streitet" :ugly:

Ganz nüchtern betrachtet sind die HW Specs der Wii U einfach fürn Popo und werden die grafische Entwicklung der Spiele auf dem PC in keinsterweise vorantreiben.
Was bei den Nintendo Konsolen schon immer egal waren, da sie auf die Entwicklung von PC Spielen nie einen wirklich Einfluss hatten. Das Stand schon immer eher der PS und XBox zu.

MfG
 

wuselsurfer

Kokü-Junkie (m/w)
AW: Wii-U: Technik Details des neuesten Dev-Kits geleakt

...
CPU : IBM Multicore CPU mit 3 Kernen

- Core 1: 512 KB
- Core 2: 2 MB
- Core 3: 512 KB
Nimm mir's nicht übel: wer hat das übersetzt?
Google?
Da steht:

  • PowerPC architecture.
  • 3MB aggregate L2 Cache size. ... .
Und wenn man schon mit den englischen Fachbegriffen um sich wirft, sollte man auch auf die englische Orthographie achten: "Auch der Tessalation Shader ..." . :D


Big N war nie für High-end Grafik bekannt.;)
Schon mal ein N64 gesehen?
Dagegen war die Playstation Pixelbrei.



... Einzigst bei der Xbox729 / PS4 wird es einen kleinen Quantensprung geben, ...
Es gibt keine großen Quantensprünge.
Quanten sind winzig klein und springen im atomaren Bereich.
 

aloha84

Volt-Modder(in)
AW: Wii-U: Technik Details des neuesten Dev-Kits geleakt

@wuselsurfer

Schon mal ein N64 gesehen?
Dagegen war die Playstation Pixelbrei.
Kommt drauf an wie man es sieht. Ja N64 hatte bilineare Filterung.....deshalb sah man dort nicht jeden einzelnen Pixel.
Dafür war das N64 eine echte Nebelmaschiene.

Trotzdem mag ich Nintendo, sie haben starke Marken (Mario, Zelda, Metroid.....) und man merkt ihren First Party Games die Liebe zum Detail an.
Ich wünsche Big N auf jeden Fall viel Erfolg, für Cod oder BF3 brauche ich keine Konsole....dafür gibts PCs.:D
 

majinvegeta20

Lötkolbengott/-göttin
AW: Wii-U: Technik Details des neuesten Dev-Kits geleakt

ich finde es klasse, wie ihr euch hier über den ram "streitet" :ugly:

Ganz nüchtern betrachtet sind die HW Specs der Wii U einfach fürn Popo und werden die grafische Entwicklung der Spiele auf dem PC in keinsterweise vorantreiben.

Einzigst bei der Xbox729 / PS4 wird es einen kleinen Quantensprung geben, woran der PC erst einmal ca. 1-1.5 Jahre hinterherhinken wird. Danach wird wieder alles beim alten sein, Konsolengrafik Müll,der PC wird mit billigen Konsolenports überschwämmt und wir dürfen wieder auf die nächste Generation warten.

Der PC wird keinesfalls, auch nicht die ersten Jahre, hinterher hinken.
Der kriegt endlich mal ordentlich Futter, aber wird nicht hinter her hinken. Das war als die PS3 und die XBox 360 heraus kamen auch nicht anders. ;)
 

wuselsurfer

Kokü-Junkie (m/w)
AW: Wii-U: Technik Details des neuesten Dev-Kits geleakt

Ja N64 hatte bilineare Filterung.....
Nee, der N64 hatte eine echte Kantenglättung.
Das sieht man den Spielen auch an (Banjo-Kazooi, Mario 64, Bomberman, Earth Worm Jim, F-Zero, Forsaken ...).
Feine glatte Kanten und mit Nebel ist da gar nichts.
 

Pixelplanet

Freizeitschrauber(in)
AW: Wii-U: Technik Details des neuesten Dev-Kits geleakt

ist doch relativ egal ob die Hardware darin nicht mehr ganz Zeitgemäß ist, dafür wird die wiiu auch keine 1000€ kosten beim release...
 
TE
Shinchyko

Shinchyko

Freizeitschrauber(in)
AW: Wii-U: Technik Details des neuesten Dev-Kits geleakt

Der Threadstarter hat die Infos in dem Leak nicht richtig wiedergegeben. Eigentlich ist ein no go weil es für Verwirrung sorgt, sogar bei Raff:



In dem Leak steht:
@ Raff

So wie ich das verstehe kann die Wii U durchaus 1080p mit 4xMSAA. Nur dann eben nicht dem geringen Leistungsabfall der sich durch den eDRAM ergibt. Wie siehst du das?

Ja das habe ich mich später dan auch gefragt, ob das so richtig ist. Weil die Wii-U ja schließlich angeblich biszu 8x MSAA kann. Konnte es aber selber nicht so "übersetzten" auch mit wörterbuch net.. Single Pass is iwi verwirrend weils dafür so viele Einsatzbereiche gibt wo man die beiden Wörter verwendet. Nichts desto trotz lief die Zelda Demo die wir letztes Jahr sahen auf 720P mit vermutlich ein weinig AA auf 30 FPS. Was ja bedeuten würde das man evtl garnet so heufig 1080P mit AA betreiben wird.
 

aloha84

Volt-Modder(in)
AW: Wii-U: Technik Details des neuesten Dev-Kits geleakt

@ wuselsurfer

was heißt da nee, im gegensatz zur ps und saturn hatte das n64 bi-Filter. Das AA habe ich unterschlagen, stimmt. --> trotzdem Nebelmaschiene!:D
Und der Polygoncount war niedriger als bei der PS1 und saturn.
Nichts desto trotz sahen viele Games gut aus.
 
TE
Shinchyko

Shinchyko

Freizeitschrauber(in)
AW: Wii-U: Technik Details des neuesten Dev-Kits geleakt

Nimm mir's nicht übel: wer hat das übersetzt?
Google?
Da steht:


  • PowerPC architecture.
  • 3MB aggregate L2 Cache size. ... .

Und wenn man schon mit den englischen Fachbegriffen um sich wirft, sollte man auch auf die englische Orthographie achten: "Auch der Tessalation Shader ..." . :D

Och bitte, is doch wohl nicht die welt weil ich Multicore statt Mehrkern geschrieben habeQ_Q Und gut.. schreib ich halt noch L2 cache dabei.

Und IBM Multicore weil das sogar so aufer Website von Nintendo steht. Das das die superreihe von IBM ist, die sich auch bereits umme Wii und Cube gekümmert hat is doch wohl bekannt.
 

harl.e.kin

Freizeitschrauber(in)
AW: Wii-U: Technik Details des neuesten Dev-Kits geleakt

womit dann auch klar wär warum kein FullHD-AA
 

riotmilch

Freizeitschrauber(in)
Also ich bin mal gespannz drauf.
Die Wii war mir nichts, da ich das rum gehampel nicht leiden konnte.
Aber das scheint sich ja nu verringert zu haben.
Vllt nach der PS2 wieder eine Konsole die mich vor den Fernseher kriegt.
Hoffe auf ein Ocarina of Time remake in aktueller Grafik =-O
 

Locuza

Lötkolbengott/-göttin
AW: Wii-U: Technik Details des neuesten Dev-Kits geleakt

Wird wohl billiger als die bisher verwendeten 1T-SRAM :D. Zudem ist schneller Speicher nötig wenn auch die Grafik damit befüttert werden sollte. Da XDR2 bisher so ziemlich keiner haben wollte könnte Nintendo u.U. (relativ gesehen natürlich) billig wegkommen bei so einem Deal.

Da XDR2 wohl trotzdem eher teuer wird, könnte Nintendo allerdings genauso gut GDDR5 nehmen. Der RAM der XBox 360 bestand ja auch aus 512MB GDDR3 RAM, so dass man bestimmt auch GDDR5 als Hauptspeicher verwenden kann
Ich weiß nicht, 20 Mb(?) 1T-SRAM oder 1.5 GB XDR 2 :P
Ich glaube mittlerweile die GPU ist so schwach und bekommt billigen GDDR3/5 und damit hat es sich. Ob der RAM überhaupt unified sein wird oder wie bei Sony getrennt? 1GB DDR3 Hauptspeicher und 512MB GDDR3/5. Ich weiß nicht, aber ich glaube bums sieht auf jeden Fall anders aus.

Auch den Schritt hin zu VLIW5 Shadern kann ich vollkommen nachvollziehen.
Hier ist jedoch zu hoffen das es wirklich ein HD5K Derivat wird, da diese doch wesentlich effizienter zu Werke gehen als es noch der Vorgänger tat.
Hardwarenahe Programmierung und VLIW5 klingen in meinen Ohren verdammt gut, da man hier das Problem der schwierigen Auslastung die es noch im Desktop Bereich gab, komplett eliminieren kann.
Was den RAM anbelangt muss man abwarten was die Entwickler daraus machen.
Durch massiven Shadereinsatz(und der wohl vorhandenen Shaderpower) kann man Texturen auch aufhübschen und mit ordentlich Details versehen, das machen die aktuellen Konsolen auch schon teils wirklich ordentlich.
Der Pferdefuss der aktuellen Generation ist die alterschwache GPU und damit einhergehende Einbußen bei der Auflösung, und nicht unbedingt zu detailarme Texturen.
Eig. ist die Hardware dennoch sehr schwach, direkte Programmierung etc. mal beiseite, aber da geht wirklich mehr. Ich bin gespannt auf den Launch-Preis.
Ich hoffe auch das es eine HD5K-Series sein wird, weil ansonsten kann ich den Schritt niemals nachvollziehen. Die HD5K-Reihe ist im Prinzip 1 zu 1 die HD4K-Series in 40nm geportet + DX11. Es sieht leider erschreckend eher nach einem HD4K based chip aus.
VLIW5 klingt eig. schon gut für eine Konsole, aber komplett Abhängigkeiten wirst du nicht eliminieren können. Manche Operationen werden immer Abhängigkeiten aufweisen, weil es nicht anders geht.
Was bisher von der Wiiu gezeigt wurde, lässt nicht auf gute Texturen schließen.

In dem Leak steht:
@ Raff

So wie ich das verstehe kann die Wii U durchaus 1080p mit 4xMSAA. Nur dann eben nicht dem geringen Leistungsabfall der sich durch den eDRAM ergibt. Wie siehst du das?
Ich verstehe es eher so, dass mit dem eDRAM die Wiiu einen Renderpass mit 1080p schaffen sollte und mit 720p der Platz auch für AA ausreicht. Bisher waren alle Präsis von der Wiiu in 720p gerendert, ohne AA. Zum Launch sehen die Titel zwar alle etwas schlechter aus und die Zelda-Demo war echt beeindruckend, aber ich glaube an no AA müssen wir uns bei der Wiiu gewöhnen oder halt irgend einen Weichfilter.

ich finde es klasse, wie ihr euch hier über den ram "streitet" :ugly:

Ganz nüchtern betrachtet sind die HW Specs der Wii U einfach fürn Popo und werden die grafische Entwicklung der Spiele auf dem PC in keinsterweise vorantreiben.
Solange die Wiiu etwas mehr Power als eine Xbox und eine PS3 hat, wird sie das.

Es gibt keine großen Quantensprünge.
Quanten sind winzig klein und springen im atomaren Bereich.
Was Quanten in der Physik sind und was Quanten beim Volksmund , unterscheidet sich doch arg oder? :)

Ja das habe ich mich später dan auch gefragt, ob das so richtig ist. Weil die Wii-U ja schließlich angeblich biszu 8x MSAA kann. Konnte es aber selber nicht so "übersetzten" auch mit wörterbuch net.. Single Pass is iwi verwirrend weils dafür so viele Einsatzbereiche gibt wo man die beiden Wörter verwendet. Nichts desto trotz lief die Zelda Demo die wir letztes Jahr sahen auf 720P mit vermutlich ein weinig AA auf 30 FPS. Was ja bedeuten würde das man evtl garnet so heufig 1080P mit AA betreiben wird.
Sie kann auch SGSSAA :P
Aber sehr interessant das die Zelda Demo in 720p mit 30FPS lief, hat das Nintendo irgendwann mal verkündet/bestätigt?
 
TE
Shinchyko

Shinchyko

Freizeitschrauber(in)
AW: Wii-U: Technik Details des neuesten Dev-Kits geleakt

Was auf jeden fall falsch ist ist die angegebene Grafikkarte im Startpost. Bei der Quelle steht nicht HD 7xxx , sondern r7xx, was eine HD 4xxx darstellt :devil:


Ouuu.. lol voll überlesen bzw verlesen. Sorry:(

Das würde dan auch meine allgemeine Verwirrung wegen AA usw auchma erklären. Kein wunder wenn man selber schreibt das es ne 7xxx karte sein soll und sich wundert dasse kaum AA mit 1080P schafft.

*fixed* xD

@Locuza: Habs iwo mal gelesen. Weiß aber nemmer wo =0
 
Zuletzt bearbeitet:

cl55amg

BIOS-Overclocker(in)
AW: Wii-U: Technik Details des neuesten Dev-Kits geleakt

Ja das habe ich mich später dan auch gefragt, ob das so richtig ist. Weil die Wii-U ja schließlich angeblich biszu 8x MSAA kann. Konnte es aber selber nicht so "übersetzten" auch mit wörterbuch net.. Single Pass is iwi verwirrend weils dafür so viele Einsatzbereiche gibt wo man die beiden Wörter verwendet. Nichts desto trotz lief die Zelda Demo die wir letztes Jahr sahen auf 720P mit vermutlich ein weinig AA auf 30 FPS. Was ja bedeuten würde das man evtl garnet so heufig 1080P mit AA betreiben wird.

Würdest du bitte single pass dazu schreiben in deiner News?

Ouuu.. lol voll überlesen bzw verlesen. Sorry:(

Das würde dan auch meine allgemeine Verwirrung wegen AA usw auchma erklären. Kein wunder wenn man selber schreibt das es ne 7xxx karte sein soll und sich wundert dasse kaum AA mit 1080P schafft.

*fixed* xD

@Locuza: Habs iwo mal gelesen. Weiß aber nemmer wo =0

Die GPU in der Wii U ist eine Custom GPU, sie wird features von verschiedenen GPU Generationen kombinieren und hat dazu 32MB eDRAM. Der selbe Ansatz den ATI bei der Xbox 360 verfolgte. Wenn man diese GPU 1:1 mit PC GPUs vergleicht, dann ist das einfach falsch.
 

Haxti

Software-Overclocker(in)
AW: Wii-U: Technik Details des neuesten Dev-Kits geleakt

hm das würde ich nciht sagen. wenn cih mich recht erinner können die hetzigen konsolen doch gar kein AA? bni mal gespannt also ich finde die Specs durchaus besser als ich erwartet hatte. mal sehen was nun am ende echt bei rum kommt !

aber das beste... endlich ein Zelda in akzeptabler Gafik :))) Ich liebe diese Spieleserie :D

Ja aber nur weil die jetzigen Konsolen von Microsoft und Sony das nicht gebacken kriegen AA zu nutzen muss Nintendon in der neuen(!) Generation die gleiche ******** auf den Fernseher schmeissen?

Ne danke, ich weiß schon warum meine Xbox 360 nur für manche exklusiv Titel genutzt wird und das wirklich sehr sehr selten.

Liebe Konsolenjünger: Gute Grafik werdet ihr auch leider mit der neuen Generation nicht wirklich kennen lernen.

Als ob die PS3 und Xbox360 besser sind. Bei denen reicht teilweise die Leistung nicht mal für 720P ohne AA, sondern nur für 5xx.


Jaein. Gibt 1080p ohne AA manche sogar mit AA afaik. 720p mit AA ist recht häufig. Niedrigeres gibts immer seltener. Oblivion auf 360 und GTA4 auf PS3 sind mir nur in erinnerung.
 
Oben Unten