Interview mit Dr. John Gustafson von AMD: "Wer ein größtmögliches Publikum erreichen will, entwickelt für AMD"

AW: Interview mit Dr. John Gustafson von AMD: "Wer ein größtmögliches Publikum erreichen will, entwickelt für AMD"

Auch die alte XBox 360 hat schon GDDR 3 der gemeinsam von CPU und GPU genutzt wird.
 
AW: Interview mit Dr. John Gustafson von AMD: "Wer ein größtmögliches Publikum erreichen will, entwickelt für AMD"

In Sachen Speicherverwaltung kann man sicher viel einsparen und paar Prozente ggü. dem PC rausholen, aber an der reinen Rohleistung änderst du hier nichts.
Die PS4 wird zum Release schon veraltet sein.
Etwa so wie Titon, wenn die ersten 20nm Chips erscheinen.
"paar Prozente einsparen" *lach* hast ne Ahnung du, wie viel Wumms es kostet ständig Daten zwischen CPU und GPU hin und her zu schieben?
Was macht'n deine Kiste, was sich die Konsole mit angepasster API erspart?

Sie wird sicher nicht schlecht, aber diese Konsole ist auf Kosten/Nutzen optimiert, und bei den hohen Verlusten die Sony in letzter Zeit eingefahren hat,
können sich die Japaner gar keinen komplexen Überchip a la Cell nochmal leisten.
Wenn ja, dann hätte die PS4 eine Intel Haswell CPU und die Grafik nochmal von AMD in Lizenz.
*Ähem*, unified adress space, hatschi.. kohärenter Speicher, räusper. Meinst der Haswell isn Wunder Gottes, wegen dem Intel Ding-Dong-Dong-Ding? Oder biste ähnlich beleidigt wie Jensen weil kein Geld mit machst?
 
AW: Interview mit Dr. John Gustafson von AMD: "Wer ein größtmögliches Publikum erreichen will, entwickelt für AMD"

Das ist ja alles schön u gut, nur würde ich mir wünschen wenn es bei den GPU auch so währe!! auf jedenfall mit der 7900 er Generation kann man so weiter machen:daumen:
 
AW: Interview mit Dr. John Gustafson von AMD: "Wer ein größtmögliches Publikum erreichen will, entwickelt für AMD"

@nVboy

Dein Avatar ist ja geil, aber dein Still steht im krassen Gegensatz zu deinen restlichen Bemühung hier den Troll zugeben.

Auf überhebliche Andeutungen muss mehr kommen als persönliche Angriffe, sonst verpufft die Überheblichkeit gleich wieder.
Angriffe sind immer so ein Zeichen von Schwäche.

Paar mehr Fakten, statt Buzzword Bullshit-Bingo. Richtige Ausführungen, oder zumindest seitenlang viel Text, dass schaut wenigstens toll aus.
 
AW: Interview mit Dr. John Gustafson von AMD: "Wer ein größtmögliches Publikum erreichen will, entwickelt für AMD"

Warum sollte er nochmal alles wiederkäuen müssen, was in letzter Zeit zu dem Thema in epischer Breite ausgewalzt wurde?
Sachlich hat er nicht unrecht - trotz des trolligen Vortrags.
 
AW: Interview mit Dr. John Gustafson von AMD: "Wer ein größtmögliches Publikum erreichen will, entwickelt für AMD"

Auch die alte XBox 360 hat schon GDDR 3 der gemeinsam von CPU und GPU genutzt wird.

Soweit ich weiß, kann die GPU und die CPU aber nicht auf die gleichen Daten zugreifen, was bei der PS4 wohl geht. Und das ist auch die Besonderheit. Da kennen sich Andere aber auch besser aus :)

bye
Spinal
 
AW: Interview mit Dr. John Gustafson von AMD: "Wer ein größtmögliches Publikum erreichen will, entwickelt für AMD"

Gemeinsamen GDDR Speicher hatte auch schon die XBox 360 und GNC2 ist nichts weiter als eine verbesserte GCN Version.
Das ist alles keine revolutionäre Alientechnologie.
Regvolutionär nicht, aber dennoch neu, und die XBox hatte soweit mir bekannt war keinen gemeinsamen Adressraum für CPU und GPU, ergo wäre das auch neu.
 
AW: Interview mit Dr. John Gustafson von AMD: "Wer ein größtmögliches Publikum erreichen will, entwickelt für AMD"

Gemeinsamen Adressraum und gemeinsamen Speicher muss man da schon unterscheiden. Denn afaik hatte sogar die erste XBox gemeinsamen Speicher.
 
AW: Interview mit Dr. John Gustafson von AMD: "Wer ein größtmögliches Publikum erreichen will, entwickelt für AMD"

Irgendwie ist der Titel nicht richtig übersetzt ,frage mich nur ,ob dies nun wieder aus gründen der "konfrontations-klick-generierung" geschah.
Denn die Kommentare des Professors kann man mit dem was der Titel aussagt ,nicht vergleichen bzw. wurden aus dem jeweiligen Sinn-kontext gerissen.
Zitat:" Und bis Spiele auf den langsamsten PCs so gut wie auf einer brandneuen Konsole aussehen, vergehen immer ein paar Jahre." ist nur ein beispiel hierfür.
>den langsamsten PCs< ist hier ausschlaggebend.Welcher Spieler dem sein Hobby wichtig ist ,kriecht mit solch einer "Kröte" durch ein Spiel? :ugly:

Noch so ein Kritikpunkt meinerseits.Ich bin schon "Alt" ja ,aber wenn ich schon den unterschied SEHR deutlich merke ....Zitat:" Ich habe einen Shooter mit einer Gesamtlatenz von 100 Millisekunden ausprobiert und konnte den Unterschied nicht mehr ausmachen."
Eine Latenz über 60ms und ich fange schon fast an zu heulen über meine nachteile in einem Shooter ala Bf3.Und bei 100ms fühlt sich die verzögerung für mich an ,als wäre es eine Sekunde. :daumen2:
Fazit:Bis Cloudgaming für mehr als "Casual" Spieler interessant wird ,werden noch einige Fehlversuche ins Land gehen ,und wer heutzutage schon einen "Mittelklasse" Pc (4Kerne gtx660ti/7850oc) besitzt,braucht sich um die Leistungsfähigkeit seines Systems in bezug auf "Next-Gähn" keine Sorgen zu machen.
 
AW: Interview mit Dr. John Gustafson von AMD: "Wer ein größtmögliches Publikum erreichen will, entwickelt für AMD"

Das wäre schon geil, wenn das mit der Verdopplung wahr werden würde :daumen:
 
AW: Interview mit Dr. John Gustafson von AMD: "Wer ein größtmögliches Publikum erreichen will, entwickelt für AMD"

:ugly: Dann hättest du die Relativitätstheorie gerade widerlegt. :lol:
Die Lichtgeschwindigkeit im Vakuum IST, soweit uns bekannt, die schnellst mögliche Geschwindigkeit. Jedes irdische Material bremmst diese höchstens.
Nein, die Lichtgeschwindigkeit kein bei negativem Brechungsindex höher als Cv sein, darauf kommt es aber nicht an. So kann man keine Information übertragen. Die wird immer mittels Wellenpaketen übermittelt, und da die Dispersionsrelation zu einem auseinanderlaufen der Wellenpakete führt, ist die Phasengeschwindigkeit eben kleiner als Cv, und damit überträgt man eben wieder keine Daten mit mehr als Lichtgeschwindigkeit und die Theorie ist gerettet, man muss Sie nur in einem kleinen Punkt anpassen, der aber Effektiv an der Aussage nichts ändert: "Man kann keine Information mit mehr als der Lichtgeschwindigkeit übertragen".

Und bevor jetzt einer mit der Idee kommt, man könnte doch einen scharfen Puls, also einen scharfen Impuls verwenden, der dafür sorgt, das man eben nur monofrequent arbeitet, womit man wiederum keine Dispersion hätte, dann hätten wir aber eine maximale Ortsunschärfe, was am Ende WIEDERUM auf genau das Gleiche hinausläuft...

PS:
Und nein, ich glaube nicht das er das so im Detail wusste, aber er hatte mit seiner Aussage dennoch nicht Unrecht, wenn man es SEHR genau nimmt :ugly:
 
Zurück