Playstation 5: Sony macht Next-Gen-Konsole offiziell - Kein Release 2019, 7nm Ryzen-CPU und Navi-GPU, Raytracing und SSD

Es ist immer die Rede davon, was technisch höchstens machbar ist. Das andere sind schließlich auch Maximalwerte. Apropo steht das Q in QX6800 nicht für Quad, aka Vierkern?

Die FLOPs zu vergleichen, ist halt im Allgemeinfall Blödsinn, da der gemessene Fall so gut wie nie vorliegt. Frag es dich doch einfach mal selber: warum sollten pcgh, computerbase, tomshardware und wie sie alle heißen aufwändige Benchmarkparcours machen, die viel Zeit und Arbeit benötigen, wenn sie bei CPU und GPU-Tests einfach die Anzahl der FLOPs ablesen könnten und das selbe rauskäme? Weil es halt nicht so einfach ist und die Leistungsfrage eben !nicht! durch simples Vergleichen von FLOPs geklärt werden kann - ganz unabhängig davon, ob da noch ein Treiber interferiert, oder nicht. Die CPU der PS3 wird immer als Wunderwerk dargestellt, weil sie so viele FLOPs hat. Aber wenn die CPU so Hammer ist, warum hat sie nie Jemand verwendet? Warum dominiert der X86 jetzt sogar Konsolen?
Man muss halt mal schauen, wofür der Cell entwickelt wurde: für Videoencoding, bevor GPUs das konnten. Und das war wohl auch der Grund, warum er in der PS3 gelandet ist. Sony wollte ein Multimedia-Brett hinstellen und die Verbreitung des Blu-Ray Mediums aus dem eigenen Hause pushen. Und den CELL hatte man noch in der Schublade liegen, weil der mit IBM co-entwickelt wurde. Und der war schnell genug für die 4K-Wiedergabe von Blu Rays. Da man nur 7 der 8 Cores verwendet hat, konnte man sogar Ausschuss der Server-CPUs verwenden.
Die Spieleentwickler haben darunter gelitten. Für keine Konsole waren Engines so schwer und langwierig zu programmieren, wie für die PS3 und grafisch anspruchsvolle Titel wie Uncharted haben einen Teil der Grafiklast über den Fell laufen lassen, einfach, weil der im parallelen Rechnen so schnell war. Die hohe Peakleistung macht halt nicht zwingend eine gute CPU. Es kommt immer auch auf die Anwendung an.
Alle Angaben ohne Gewähr.
gRU?; cAPS
 
FLOP/s sind für ihn immer das A und O.
Wenn es um irgendwelche Leistungsvergleiche geht, kommt er immer sofort mit Flops daher.:D

Ich habe jetzt auch schon 3x erläutert, warum man x-beliebige FLOP/s-Angaben nicht einfach miteinander vergleichen kann.
Hier sind mal Ergebnisse aus SiSoftware Sandra, die gucken wieder ganz anders aus:
Intel Core 2 Extreme X6800 im Test: Sau schnell! (Seite 7) - ComputerBase

Kommt halt drauf an, welche Arithmetik und welche Befehlssätze verwendet werden. Ein Cell schafft in einem DP-basiertem Whetstone-Algorithmus auch garantiert keine 200 GFLOP/s.:schief:
 
Aber wenn die CPU so Hammer ist, warum hat sie nie Jemand verwendet? Warum dominiert der X86 jetzt sogar Konsolen
Nein, es hat sie niemand verwendet. Die IBM Server mit Cell, die Supercomputer mit Cell, die Toshiba Rechner...die Fernseher...war alles Einbildung.

Gegenfrage: Warum hat das damalige Videosystem VHS gegenüber Betamax und Video 2000 den Markt dominiert? War es diesen technisch überlegen?
 
Nein, es hat sie niemand verwendet. Die IBM Server mit Cell, die Supercomputer mit Cell, die Toshiba Rechner...die Fernseher...war alles Einbildung.
Ja, Sony, IBM und Toshiba haben den verwendet. Halt die Firmen, die ihn entwickelt haben.
Wenn der CELL so super ist, warum laufen ähnliche Systeme heute durch die Bank mit anderer Hardware? Sind die Ingenieure bei LG und co. alles Dilletanten? Ja, sogar Sony selbst ist vom CELL weg? Man hätte auch nach bester Moore'scher Tradition den Cell shrinken und mit mehr Logik versehen können, wie man es seit Urzeiten mit dem x86 macht. Warum hat das keiner gemacht, wenn der CELL so Klasse ist?
Der CELL ist eine CPU, die für Workloads gemacht wurde, die heute eine GPU macht. In der Zeit, als der CELL entwickelt wurde, hat das auch Sinn gemacht, da GPUs halt im Allgemeinen noch nicht general Purpose rechnen konnten. Als CPU für Hardware in Heimrechnern macht der Cell daher nicht so viel Sinn, da er von vornherein auf paralleles Rechnen ausgelegt ist und neunmal nicht alle Anwendungen gut parallelisierbar sind. Bei Servern sieht das anders aus, deshalb ist Nvidia auch auf dem Servermarkt mittlerweile so stark unterwegs.
Gegenfrage: Warum hat das damalige Videosystem VHS gegenüber Betamax und Video 2000 den Markt dominiert? War es diesen technisch überlegen?
Dafür bin ich zu jung. Häufig ist der Grund die zu weite Verbreitung eines bestimmten Mediums, während die neue Lösung schlicht zu wenige Nennenswerte Vorteile besitzt.
gRU?; cAPS
 
Der Cell war nie als direktes Konkurrenzprodukt zu etablierten Desktop-CPUs gedacht.
Das Hauptaugenmerk bei der Entwicklung lag auf spezialisierte Anwendungen, wie sie im Profi-, Server- oder im Bereich Supercomputing, vorkommen.
Die Entwicklungs- und Produktionskosten waren aber immens. Für die PS3 hatte sich das nur schwerlich rentiert.

Das Problem mit Vektorprozessoren, wie der Cell schon fast einer ist, besteht darin, die Recheneinheiten alle vollständig auszulasten.
Man kann sich das wie ein Single-Core-Prozessor mit Vektoreinheiten vorstellen, der bei bestimmten, stark parallelisierten Anwendungen besonders schnell ist, bei Single-Threaded-Anwendungen aber nicht viel schneller als ein herkömmlicher Einkerner mit Multi-Threading ist.

Heutzutage ist sowas eh' obsolet. Man hat ausreichend leistungsfähige GPUs, die sowas weit, weeeeiit besser können und die Server- und Desktop-CPUs sind heute so stark auf auf Parallelisierung ausgelegt, dass sie sowieso genug Reserven haben. Ohnehin greift früher oder später hier das Amdahl'sche Gesetz und die Vortel der besonders vielen Rechenkerne ist sowieso wieder dahin. ;)
Dafür bin ich zu jung. Häufig ist der Grund die zu weite Verbreitung eines bestimmten Mediums, während die neue Lösung schlicht zu wenige Nennenswerte Vorteile besitzt.
gRU?; cAPS
Ist sowieso ein schlechter Vergleich.
VHS und Betamax waren ja für den Massenmarkt entwickelt und beide noch nicht etabliert, als sie grade entwickelt wurden.
Eine CPU wie den Cell gab's zwar in der Form damals nicht, aber sehr wohl Konkurrenzprodukte.
Aber oben sehr trefflich beschrieben, das mit den GPUs. "Asymetrische" Multi-Cores oder "Systems on a Chip", wie der Cell, sind schlicht überflüssig, wenn ich genausogut 'ne in sich kompaktere GPU habe, die das besser hinbekommt.
 
Zuletzt bearbeitet:
Ja, Sony, IBM und Toshiba haben den verwendet. Halt die Firmen, die ihn entwickelt haben.
Wenn der CELL so super ist, warum laufen ähnliche Systeme heute durch die Bank mit anderer Hardware? Sind die Ingenieure bei LG und co. alles Dilletanten? Ja, sogar Sony selbst ist vom CELL weg? Man hätte auch nach bester Moore'scher Tradition den Cell shrinken und mit mehr Logik versehen können, wie man es seit Urzeiten mit dem x86 macht. Warum hat das keiner gemacht, wenn der CELL so Klasse ist?
Der CELL ist eine CPU, die für Workloads gemacht wurde, die heute eine GPU macht. In der Zeit, als der CELL entwickelt wurde, hat das auch Sinn gemacht, da GPUs halt im Allgemeinen noch nicht general Purpose rechnen konnten. Als CPU für Hardware in Heimrechnern macht der Cell daher nicht so viel Sinn, da er von vornherein auf paralleles Rechnen ausgelegt ist und neunmal nicht alle Anwendungen gut parallelisierbar sind. Bei Servern sieht das anders aus, deshalb ist Nvidia auch auf dem Servermarkt mittlerweile so stark unterwegs.

Dafür bin ich zu jung. Häufig ist der Grund die zu weite Verbreitung eines bestimmten Mediums, während die neue Lösung schlicht zu wenige Nennenswerte Vorteile besitzt.
gRU?; cAPS
Ich fange mit Letzterem an, VHS war technisch Video 2000 und Betamax unterlegen. Durchgesetzt hat es sich am Ende, weil man VHS viel stärker bewarb. Marktdominanz ist also nicht immer ein Indiz für das bessere Produkt.

Mit dem Cell BE verhielt es sich eigentlich genauso wie mit Kinect. Das erste, veröffentlichte Kinect arbeitete zu unpräzise um es als Steuereinheit für vernünftige und anspruchsvolle Spiele verwenden zu können. Als das wesentlich exakter arbeitende Kinect 2.0 mit der Xbox One veröffentlicht wurde, war die Reputation aber leider bereits ruiniert. Dadurch, dass das erste kaum unterstützt worden war, war das Schicksal des Nachfolgers besiegelt. Daher hätte Xbox auf die Veröffentlichung Ersteren verzichten sollen, egal wieviele Multimillionen Verlust dies bedeutet hätte, und die Technik konsequent bis zur richtigen Reife weiterentwickeln sollen.

Das gleiche mit dem Cell BE. Auch hier hätte man sich mit dem Pioniersstück nicht zufriedengeben, und eine Veröffentlichung bis zum wesentlich bedienungs-, bzw. programmierfreundlicheren PowerXCell 8i hinauszögern sollen. Das ging jedoch nicht, da zumindest Sony 2006 nicht mehr länger mit der PS3 hat warten können. Eine Veröffentlichung mit Letzterem in 2007 hätte die Sache in einem völlig anderen Licht dastehen lassen.

IBM, Toshiba, und Sony sind Etwa Dilettanten? Übrigens heisst delectare „aus Freude heraus“ „oder sich erfreuen an“. Nur so zur Info, bevor Du - wie der Rest unserer degenerierten, wortverdrehenden Gesellschaft - Worte in den Mund nimmst, ohne deren wahre Bedeutung zu kennen. Mozart z.B. zog es vor mit „Dillettanten“ anstelle mit Berufsmusikern zu musizieren.

Der Cell war als Jack of all Trades gedacht. Auch in der Playstation arbeitete er oft nicht als reine CPU, sondern als CPU/GPU Hybrid, während der RSX lediglich als Unterstützung gedacht war. Außerdem hatte er seinerzeit bemerkenswerte Eigenschaften bzgl. K.I. Implementierung. Es ist schade, dass Cell nicht seinen Platz hat finden können, denn womöglich wäre ein Cell mit den aktuell technischen Möglichkeiten bzgl. Fertigung (Nanometer), Taktfrequenzen, Arbeitsspeicher, etc. längst in der Lage Raytracing ohne Zusatzhardware zu bewältigen. Und mittlerweile hat sich die Spieleindustrie ja auf Multithreading eingestellt, was auch noch so ein Manko vor 10-12 Jahren gewesen ist.

Der Cell war an sich keine schlechte Entwicklung, es war schlicht zu früh. Und er war der erste seiner Art. Wieviel Vorlaufzeit hatte dagegen Intel und AMD mit X86 schon?

Der Cell war nie als direktes Konkurrenzprodukt zu etablierten Desktop-CPUs gedacht.“
Da einzig Gescheite, was hierzu bisher aus Deiner Fingern gekommen ist.

Ist sowieso ein schlechter Vergleich.
Wenn man nicht weiß, worauf der Fragesteller hinaus will. Um einen direkten Vergleich ging es hier nicht, sondern dass sich eben nicht immer das bessere Produkt durchsetzt.
 
Zuletzt bearbeitet von einem Moderator:
Ich fange mit Letzterem an, VHS war technisch Video 2000 und Betamax unterlegen. Durchgesetzt hat es sich am Ende, weil man VHS viel stärker bewarb. Marktdominanz ist also nicht immer ein Indiz für das bessere Produkt.

Mit dem Cell BE verhielt es sich eigentlich genauso wie mit Kinect. Das erste, veröffentlichte Kinect arbeitete zu unpräzise um es als Steuereinheit für vernünftige und anspruchsvolle Spiele verwenden zu können. Als das wesentlich exakter arbeitende Kinect 2.0 mit der Xbox One veröffentlicht wurde, war die Reputation aber leider bereits ruiniert. Dadurch, dass das erste kaum unterstützt worden war, war das Schicksal des Nachfolgers besiegelt. Daher hätte Xbox auf die Veröffentlichung Ersteren verzichten sollen, egal wieviele Multimillionen Verlust dies bedeutet hätte, und die Technik konsequent bis zur richtigen Reife weiterentwickeln sollen.

Das gleiche mit dem Cell BE. Auch hier hätte man sich mit dem Pioniersstück nicht zufriedengeben, und eine Veröffentlichung bis zum wesentlich bedienungs-, bzw. programmierfreundlicheren PowerXCell 8i hinauszögern sollen. Das ging jedoch nicht, da zumindest Sony 2006 nicht mehr länger mit der PS3 hat warten können. Eine Veröffentlichung mit Letzterem in 2007 hätte die Sache in einem völlig anderen Licht dastehen lassen.

Glaube nicht, dass das wirklich relevant war. Cell war ja ursprünglich - im Gegensatz zu Kinect - nie für den (PC)-Massenmarkt gedacht, sondern eben in den meisten Fällen eine Server-CPU für ein hochspezialisiertes Umfeld, nämlich für massiv parallelisierbare Workloads. Wenn man eine Niesche für sein Produkt in einem hochspezialisierten Umfeld gefunden hat, dann hat man in diesem Umfeld schlicht gewonnen. Nur leider läuft auch heute kein Rechner mehr mit Cell, ergo ist dieses Umfeld halt mittlerweile mit anderen Architekturen belegt.
Wenn der Cell so wahnwitzig leistungsfähig in allen Belangen ist, müsste man doch Publikationen finden, die das enorme Potential aufdecken, oder?

IBM, Toshiba, und Sony sind Etwa Dilettanten? Übrigens heisst delectare „aus Freude heraus“ „oder sich erfreuen an“. Nur so zur Info, bevor Du - wie der Rest unserer degenerierten, wortverdrehenden Gesellschaft - Worte in den Mund nimmst, ohne deren wahre Bedeutung zu kennen. Mozart z.B. zog es vor mit „Dillettanten“ anstelle mit Berufsmusikern zu musizieren.

Schön, dass du das weißt. Aber wenn selbst auf der Wikipedia-Seite steht (die Duden-Website ist leider gerade down...):
"In der Neuzeit hat sich eine Synthese beider Begriffsdeutungen ergeben. Dilettantismus ist die Unfähigkeit, niedere Problemstellungen zu begreifen und sie in geeigneter Weise zu bearbeiten. Aus diesem Grund wirkt das Handeln eines Dilettanten oftmals belustigend, was näher an der ursprünglichen Wortherkunft ist als z. B. das Synonym ‚stümperhaft‘."
dann nutze ich das Wort einfach mal so, wie es aktuell üblich ist. Warum du es jetzt aber plötzlich nötig hast, mich persönlich anzugreifen, erschließt sich mir aber wirklich nicht. :ka:
Dann formuliere ich meine Aussage nochmal präziser. Meine Frage an dich war folgende: wenn der Cell überall so überlegen ist, warum nutzen Sony und co. den nicht einfach weiter? Den kann man genau so per bester Moore-Methode shrinken und erweitern wie jeden anderen Prozessor auch. Ein Cell in 7 nm sollte doch, wenn er so überlegen ist, Kreise um alle anderen aktuellen Prozessoren ziehen, oder? Warum machen das Sony und co. nicht? Wenn der Cell so überlegen ist und Sony und co. so sehr davon profitieren könnten, dann muss der Grund für das Einstampfen des Cell ja zwangsläufig sein, dass die Ingenieure bei Sony, Toshiba und IBM (und bei allen anderen Herstellern von Hardware) schlichtweg nicht qualifiziert genug sind, das Potential des Cell anzuerkennen. Und das halte ich persönlich für unwahrscheinlich. ;)

Der Cell war als Jack of all Trades gedacht. Auch in der Playstation arbeitete er oft nicht als reine CPU, sondern als CPU/GPU Hybrid, während der RSX lediglich als Unterstützung gedacht war. Außerdem hatte er seinerzeit bemerkenswerte Eigenschaften bzgl. K.I. Implementierung. Es ist schade, dass Cell nicht seinen Platz hat finden können, denn womöglich wäre ein Cell mit den aktuell technischen Möglichkeiten bzgl. Fertigung (Nanometer), Taktfrequenzen, Arbeitsspeicher, etc. längst in der Lage Raytracing ohne Zusatzhardware zu bewältigen. Und mittlerweile hat sich die Spieleindustrie ja auf Multithreading eingestellt, was auch noch so ein Manko vor 10-12 Jahren gewesen ist.

Mit Sicherheit war der Cell schon mal kein "Jack of all Trades". Der Cell war eine Vorstufe der GPGPU und wurde für ähnliche Workloads konzipiert, als GPUs eben noch kein GPGPU beherrscht haben. Für massiv parallelisierbare Workloads in Server-Zentren und Videodekodierung eben. Das machen heute alles GPUs. Und eine GPU haben wir ja auch nicht als zentrale Recheneinheit im PC, weil ein Hauptprozessor häufig eben auch Singlethread-Workloads anfallen und ein so auf Parallelisierbarkeit ausgelegtes Rechenwerk diese unzureichend abarbeiten kann. Wenn es dir schon so häufig um die FLOPS geht: der Cell der PS3 hatte um die 200 GFLOPS peak-performance, richtig? Eine damalige High-End-GPU hatte schon mehr Peak-Rechenleistung - und zwei Jahre danach konnten die dann sogar allgemein rechnen...
Wenn man nicht weiß, worauf der Fragesteller hinaus will. Um einen direkten Vergleich ging es hier nicht, sondern dass sich eben nicht immer das bessere Produkt durchsetzt.

Sony hat doch Narrenfreiheit, was sie für eine CPU in ihre eigene Konsole einbauen, oder? Aus welchem Grund hat man sich dann ganz bewusst gegen den Cell entschieden und einen popeligen Jaguar eingebaut?
gRU?; cAPS
 
. Nur leider läuft auch heute kein Rechner mehr mit Cell, ergo ist dieses Umfeld halt mittlerweile mit anderen Architekturen belegt.
Weil er seit 2007 nicht mehr weiterentwickelt wurde.
Wenn der Cell so wahnwitzig leistungsfähig in allen Belangen ist, müsste man doch Publikationen finden, die das enorme Potential aufdecken, oder?
Zu dem Original gab es das. Wurden in diesem Forum auch schon welche gepostet. Aber wie bereits gesagt, Er wurde nicht weiterentwickelt, daher gibt es für die Gegenwart kein
Schön, dass du das weißt. Aber wenn selbst auf der Wikipedia-Seite steht (die Duden-Website ist leider gerade down...):
"In der Neuzeit hat sich eine Synthese beider Begriffsdeutungen ergeben. Dilettantismus ist die Unfähigkeit, niedere Problemstellungen zu begreifen und sie in geeigneter Weise zu bearbeiten. Aus diesem Grund wirkt das Handeln eines Dilettanten oftmals belustigend, was näher an der ursprünglichen Wortherkunft ist als z. B. das Synonym ‚stümperhaft‘."
In der Neuzeit“... bedeutet irgendwann kamen irgendwelche „Minus-Eloquenten“ auf die Idee den Sinn dieses Begriffs umzudichten. Genauso wie Diskriminieren, was schlicht Unterscheiden heisst. Abwerten hingegen heisst eigentlich Devaluieren, oder Diskreditieren. Oder der Tyrann. Bedeutet lediglich Herrscher, egal ob von gutem oder schlechtem Charakter.

Warum du es jetzt aber plötzlich nötig hast, mich persönlich anzugreifen, erschließt sich mir aber wirklich nicht.
Lol, das wertest Du als Angriff? Ich habe Dich diesbezüglich nicht mal gezielt verurteilt. Und von Stümpern zu reden ist kein Angriff, oder?

Dann formuliere ich meine Aussage nochmal präziser. Meine Frage an dich war folgende: wenn der Cell überall so überlegen ist, warum nutzen Sony und co. den nicht einfach weiter? Den kann man genau so per bester Moore-Methode shrinken und erweitern wie jeden anderen Prozessor auch. Ein Cell in 7 nm sollte doch, wenn er so überlegen ist, Kreise um alle anderen aktuellen Prozessoren ziehen, oder? Warum machen das Sony und co. nicht? Wenn der Cell so überlegen ist und Sony und co. so sehr davon profitieren könnten, dann muss der Grund für das Einstampfen des Cell ja zwangsläufig sein, dass die Ingenieure bei Sony, Toshiba und IBM (und bei allen anderen Herstellern von Hardware) schlichtweg nicht qualifiziert genug sind, das Potential des Cell anzuerkennen. Und das halte ich persönlich für unwahrscheinlich.
Das ist eigentlich ganz einfach zu beantworten. Geld! Investitionen! Angenommen die PS3 wäre eingeschlagen wie eine Bombe, hätte ohne große Subvention oder sonstige Stützen die Xbox rechts überholt und es am Ende auf 100+ Mio Einheiten gebracht. Dann hätte man diese Sache wohl weiterverfolgt. Aber da eben das Ergebnis nicht das war, von dem man ausgegangen war hat man umdisponiert. Ohne Profit kein frisches Kapital. Ohne Kapital keine frischen Investitionen. Ohne Investitionen keine Innovationen. Es geht immer nur ums Geld.

Mit Sicherheit war der Cell schon mal kein "Jack of all Trades". Der Cell war eine Vorstufe der GPGPU und wurde für ähnliche Workloads konzipiert, als GPUs eben noch kein GPGPU beherrscht haben. Für massiv parallelisierbare Workloads in Server-Zentren und Videodekodierung eben. Das machen heute alles GPUs. Und eine GPU haben wir ja auch nicht als zentrale Recheneinheit im PC, weil ein Hauptprozessor häufig eben auch Singlethread-Workloads anfallen und ein so auf Parallelisierbarkeit ausgelegtes Rechenwerk diese unzureichend abarbeiten kann. Wenn es dir schon so häufig um die FLOPS geht: der Cell der PS3 hatte um die 200 GFLOPS peak-performance, richtig? Eine damalige High-End-GPU hatte schon mehr Peak-Rechenleistung - und zwei Jahre danach konnten die dann sogar allgemein rechnen...
Mit 200 Gflops war er nicht so weit hinter den damaligen GPUs hinterher, und deutlich vor den CPUs. Das Teil war 5 mal so schnell wie der Tri-Core der X360. Und 1 1/2 Jahre nach Erscheinen konnte er auch mit Doppelpräzision leichter fertig werden. Leider 1 1/2 Jahre zu spät.
Sony hat doch Narrenfreiheit, was sie für eine CPU in ihre eigene Konsole einbauen, oder? Aus welchem Grund hat man sich dann ganz bewusst gegen den Cell entschieden und einen popeligen Jaguar eingebaut?
Sony hat keine Narrenfreiheit. Die müssen sich nach dem Markt richten, wie jedes andere Unternehmen auch. Warum habe ich oben bereits erläutert. Genauso muss sich auch Microsoft danach richten, weshalb Kinect tot ist. Und wenns immer nur nach „Miesepetern“ ginge, wie sie hier in dem Forum anzutreffen sind gäbe es auch kein VR mehr. Dann gäbe es nur PC, M&T, und Open World...mindestens 200 Stunden, egal wie monoton. Hauptsache viel (vergeudete) Zeit fürs Geld. Und wehe irgendwas sieht nach „Schlauch“ aus. Ständig sich wiederholende Questen und Nebenquesten sind ja kein „inhaltlicher Schlauch.“.
 
Zuletzt bearbeitet von einem Moderator:
Es ist schade, dass Cell nicht seinen Platz hat finden können, denn womöglich wäre ein Cell mit den aktuell technischen Möglichkeiten bzgl. Fertigung (Nanometer), Taktfrequenzen, Arbeitsspeicher, etc. längst in der Lage Raytracing ohne Zusatzhardware zu bewältigen. Und mittlerweile hat sich die Spieleindustrie ja auf Multithreading eingestellt, was auch noch so ein Manko vor 10-12 Jahren gewesen ist.
Auf einer GeForce 6800 GT konnte man auch schon Raytracing in Echtzeit darstellen - aber halt wie.
Keiner weiß, was ein Cell mit heute moderner Technik leisten könnte; das ist pure Spekulation.:schief:
Und selbst wenn: Wieso sollte man, wenn das eine heute aktuelle GPU mit extra AI-Unterstützung besser hinbekommt?
Für was brauche ich einen Wankelmotor, wenn der Otto dasselbe bei weniger Sprit schafft?
Auf die Effizienz-Frage lieferst du mal wieder keine Antwort.
Da einzig Gescheite, was hierzu bisher aus Deiner Fingern gekommen ist.
Na klar.
Da argumentiert man schön mit technischen Sachverhältnissen und dann kommt so ein Satz.:schief:
Ich erinnere mich sogar an wissenschaftliche Arbeiten, die ich zu dem Thema schonmal woanders verlinkt habe. Alles was ich hierzu bisher geschrieben habe, hatte ich mir nirgends aus den Nägeln gesogen, sondern hast du genauso gut woanders in Fachartikeln nachvollziehen können, wenn du dich endlich mal differenzierter mit dem Thema auseinandergesetzt hättest.

Was kam den je "gescheites" von dir?
Du dröselst jedes mal nur die Entwicklungsgeschichte und Einsatzzwecke des Cells auf, wie viel Leistung man doch aus ihm mit Assembler und parallelisiertem Code rausquetschen konnte. Aber die ganz praktischen Schwachstellen rationalisierst du jedes mal weg; wenn der Cell irgendwo versagt oder nicht so viel wie seine theoretische (!) Leistung abruft, ist natürlich der Entwickler dran schuld und bla bla.:schief:
Wenn man nicht weiß, worauf der Fragesteller hinaus will. Um einen direkten Vergleich ging es hier nicht, sondern dass sich eben nicht immer das bessere Produkt durchsetzt.
Pardon:
Der Cell war an sich keine schlechte Entwicklung, es war schlicht zu früh. Und er war der erste seiner Art. Wieviel Vorlaufzeit hatte dagegen Intel und AMD mit X86 schon?
x86 war etabliert und von jedem Software-Entwickler seinerzeit seit 40 Jahren verstanden.
Und was heißt "besser"? Wozu braucht eine x86-CPU eine verhältnismäßig extrem hohe SP-Leistung?
 
Auf einer GeForce 6800 GT konnte man auch schon Raytracing in Echtzeit darstellen - aber halt wie. Keiner weiß, was ein Cell mit heute moderner Technik leisten könnte; das ist pure Spekulation.:schief: Und selbst wenn: Wieso sollte man, wenn das eine heute aktuelle GPU mit extra AI-Unterstützung besser hinbekommt? Für was brauche ich einen Wankelmotor, wenn der Otto dasselbe bei weniger Sprit schafft? Auf die Effizienz-Frage lieferst du mal wieder keine Antwort.
Wer kommt hier mit schlechten Beispielen? Ja, der Wankelmotor verbraucht mehr Kraftstoff als der Hubkolbenmotor. Dafür besitzt er ein gleichförmigeres Drehmoment, eignet sich alternativ auch für den Betrieb mit Wasserstoff, hat weniger bewegliche Teile, verbraucht daher weniger Platz, ist vibrationsärmer, und eignet sich besser für den Schichtladebetrieb.

Es werden immer noch Autos mit Wankelmotoren gebaut (Mazda), und wegen dem Hype um alternative Antriebsformen scheint er eine Renaissance zu erleben.

Da argumentiert man schön mit technischen Sachverhältnissen...
Nen Scheissdreck.

Ich erinnere mich sogar an wissenschaftliche Arbeiten, die ich zu dem Thema schonmal woanders verlinkt habe.
Ja, davon hatte ich auch einiges gepostet. Das wurde aber auch geflissentlich ignoriert.

Was kam den je "gescheites" von dir?
Ich krame nicht noch mal jeden Artikel, jedes Video und sonstiges raus, was ich dazu schon in anderen Threads dazu eingefügt hatte.

Du dröselst jedes mal nur die Entwicklungsgeschichte und Einsatzzwecke des Cells auf, wie viel Leistung man doch aus ihm mit Assembler und parallelisiertem Code rausquetschen konnte. Aber die ganz praktischen Schwachstellen rationalisierst du jedes mal weg; wenn der Cell irgendwo versagt oder nicht so viel wie seine theoretische (!) Leistung abruft, ist natürlich der Entwickler dran schuld und bla bla
Ja, wer sonst? Für was wird wohl zu jedem System nen Nutzerhandbuch beigelegt. Dumm, wenn keiner Bock hat es zu lesen. Natürlich hatte das Ding Schwachstellen. So wie jedes Erstlingsprodukt am Anfang seine Schwächen hat. Ach, ich vergaß X86 war vor 40 Jahren bereits vollkommen. Als ob Du hier groß viel mehr auf die Kette kriegst an Argumentation. Das Einzige, was Du noch treibst ist es mit Sticheleien zu garnieren.
x86 war etabliert und von jedem Software-Entwickler seinerzeit seit 40 Jahren verstanden.
Das Programmieren vor 40 Jahren, zu Zeiten von 8 oder gar nur 4 bit, von Basic und Co., war weit weniger komplex als heute. Selbst die jeweiligen Assembler konnte man sich in wesentlich kürzerer Zeit aneignen. Manfred Trenz hatte Turrican auf dem C64 quasi im Alleingang programmiert...in Assembler. Die Industrie konnte über die Jahrzehnte mit X86 und dessen Weiterentwicklungen „Know-How“-technisch stets mitwachsen. Heute sind die Bücher schon etwas dicker und das Einarbeiten braucht schon ein paar Tage/Wochen/Monate mehr. Da ist es auch nachvollziehbar schwieriger einen neuen Weg einzuschlagen.
 
Zuletzt bearbeitet von einem Moderator:
Wer kommt hier mit schlechten Beispielen? Ja, der Wankelmotor verbraucht mehr Kraftstoff als der Hubkolbenmotor. Dafür besitzt er ein gleichförmigeres Drehmoment, eignet sich alternativ auch für den Betrieb mit Wasserstoff, hat weniger bewegliche Teile, verbraucht daher weniger Platz, ist vibrationsärmer, und eignet sich besser für den Schichtladebetrieb.
...und all das bringt halt nichts in einem Klein- oder Mittelklasse-PKW, wenn der Verbrauch deutlich höher ist.
Genausowenig wie es auch einen asymetrischen Multi-Core-Prozessor braucht, wenn es parallel eine GPU mit zigfachen Menge an Vektor-ALUs plus noch extra Schnittstellen hat, die sich für Computing noch weit besser eignent.

Ja, davon hatte ich auch einiges gepostet. Das wurde aber auch geflissentlich ignoriert.
Ich erinnere mich nur an irgendwelche Videos mit Typen von Naughty Dog, wie sie ein Spiel genau zugeschnitten für eine Plattform so optimiert haben, um Schwächen auszubügeln, die sie mit einem stärkeren Grafikchip nicht gehabt hätten.
Ja, wer sonst? Für was wird wohl zu jedem System nen Nutzerhandbuch beigelegt. Dumm, wenn keiner Bock hat es zu lesen.
Jop.
Studierte Softwareentwickler mit teils jahrelanger Programmiererfahrung sind allesamt zu blöd. Selbst Naughty Dog brauchte Jahre um komplett hinter das Teil steigen zu können.
Aber so Dinge wie Stall-Cases, unbrauchbare Branchprediction, pre-fetching, unterirdische Single-Thread-Performance und Integer-Leistung ignorierst du immer wieder geflissentlich. Und ich bin derjenige, der angeblich nicht argumentieren kann.
Natürlich hatte das Ding Schwachstellen. So wie jedes Erstlingsprodukt am Anfang seine Schwächen hat. Ach, ich vergaß X86 war vor 40 Jahren bereits vollkommen. Als ob Du hier groß viel mehr auf die Kette kriegst an Argumentation. Das Einzige, was Du noch treibst ist es mit Sticheleien zu garnieren.
Ganz schön heftige Aussage für jemand, der sowas von sich gibt:
Nen Scheissdreck.

Das Programmieren vor 40 Jahren, zu Zeiten von 8 oder gar nur 4 bit, von Basic und Co. weit weniger komplex war als heute. Selbst die jeweiligen Assembler konnte man sich in wesentlich kürzerer Zeit aneignen. Manfred Trenz hatte Turrican auf dem C64 quasi im Alleingang programmiert...in Assembler. Die Industrie konnte über die Jahrzehnte mit X86 und dessen Weiterentwicklungen „Know-How“-technisch stets mitwachsen. Heute sind die Bücher schon etwas dicker und das Einarbeiten braucht schon ein paar Tage/Wochen/Monate mehr. Da ist es denkbar auch schwieriger einen neuen Weg einzuschlagen.
Natürlich war das Programmieren vor 50 Jahren anders, Software war drastisch weniger komplex, deswegen konnte man es sich auch noch leisten, mit Assembler zu programmieren.
Auf was willst du damit jetzt hinaus?

Ganz ehrlich; es kümmert mich auch nicht. Deine Scheinargumente, von wegen dass Entwickler zu blöd und/oder faul sind, brauche ich mir nicht geben vor allem da ich weiß, was für Knochenjob Spieleprogrammierung ist.
Genauso der Blödsinn, dass der Cell 5x so schnell wie der Xenon gewesen sein soll.
Wo hast du das denn nun wieder her?
Der Xenon hatte pro Kern 8 VMX128-Einheiten plus je 2 parallele FP-Einheiten, das macht bei 3,2 Ghz eine Spitzenleistung von ca. 115 GFLOP/s, in etwa die Hälfte, was ein Cell schaft. Im Mittel kam er auf 77 GFLOP/s, bei einfacher Präzision, etwa auf dem Niveau eines 2,4GHz schnellen Core 2 Quad-Prozessors.

Schon irgendwie bezeichnend; Wenn es um den Cell geht, pickst du dir immer schon die theoretische Maximalleistung raus, bei anderen CPUs immer irgend' einen Mindestwert. Wie der Cell auf seine 200+ GFLOP/s kommt, habe ich übrigens ebenfalls erläutert. Wenn für dich das alles "Scheißdreck" ist, dann hör endlich, in Gottes Namen auf, mit Prämissen um dich zu werfen und erkläre es besser.:nene:
 
Weil er seit 2007 nicht mehr weiterentwickelt wurde.
Warum wurde er nicht weiterentwickelt, wenn er denn so ein Überprozessor war? Irgendjemand mit genug Ahnung hätte doch so was sagen müssen, wie
"Schaut mal, Leute, wir haben doch noch den Cell. Der Cell ist so eine übertrieben geile CPU, die bauen wir jetzt nochmal in einem fortgeschritteneren Prozess und überholen die gesamte Konkurrenz links."
Aber scheinbar hatte bei Sony Niemand genug Ahnung und somit ist es dann doch der Jaguar geworden ;)

Lol, das wertest Du als Angriff? Ich habe Dich diesbezüglich nicht mal gezielt verurteilt.
Nur so zur Info, bevor Du - wie der Rest unserer degenerierten, wortverdrehenden Gesellschaft
Du bezeichnest mich indirekt als degeneriert und wortverdrehend. Für mich hört sich das in der Tat an, wie ein Angriff. Und ich habe übrigens nie Jemanden direkt als Stümper bezeichnet. Ich habe gesagt "wenn die Ingenieure bei Sony das scheinbar so riesige Potential des Cell nicht als solches erkennen, dann sind sie durch die Bank inkompetent, oder der Cell ist halt einfach doch nicht so geil. Und Ersteres halte ich für sehr unwahrscheinlich.
Nebenbei, der Duden ist wieder on.
Duden | Di-let-tant | Rechtschreibung, Bedeutung, Definition, Synonyme, Herkunft
Vielleicht weißt du es aber einfach besser als die Leute vom Duden. ;)

Das ist eigentlich ganz einfach zu beantworten. Geld! Investitionen! Angenommen die PS3 wäre eingeschlagen wie eine Bombe, hätte ohne große Subvention oder sonstige Stützen die Xbox rechts überholt und es am Ende auf 100+ Mio Einheiten gebracht. Dann hätte man diese Sache wohl weiterverfolgt. Aber da eben das Ergebnis nicht das war, von dem man ausgegangen war hat man umdisponiert. Ohne Profit kein frisches Kapital. Ohne Kapital keine frischen Investitionen. Ohne Investitionen keine Innovationen. Es geht immer nur ums Geld.

Die PS3 hat sich doch meines Wissens nach gut verkauft, oder? Vielleicht nicht in den ersten paar Jahren, war halt schon sauteuer. Aber in ihrer Lebensspanne kann man glaub nicht meckern.

Mit 200 Gflops war er nicht so weit hinter den damaligen GPUs hinterher, und deutlich vor den CPUs. Das Teil war 5 mal so schnell wie der Tri-Core der X360. Und 1 1/2 Jahre nach Erscheinen konnte er auch mit Doppelpräzision leichter fertig werden. Leider 1 1/2 Jahre zu spät.

Jo, in ganz ausgesuchten Fällen war man schneller als eine damalige CPU. In so gut wie allen anderen Fällen aber nicht. Die können halt auch nicht zaubern. Aber da wären wir halt wieder beim Thema "FLOPS"...
Nochmal: FLOPS geben nicht die allgemeine Rechenleistung wider. Sonst würden alle unsere Rechner nur noch mit GPUs laufen. Oder sind die bei Intel und in der CPU-Sparte von AMD auch alle zu doof, den harten Vorteil an FLOPS zu erkennen, den GPUs zweifelslos vor CPUs haben? ;)
gRU?; cAPS
 
Zuletzt bearbeitet:
Warum wurde er nicht weiterentwickelt, wenn er denn so ein Überprozessor war?
Das ist eigentlich ganz einfach zu beantworten. Geld! Investitionen! Angenommen die PS3 wäre eingeschlagen wie eine Bombe, hätte ohne große Subvention oder sonstige Stützen die Xbox rechts überholt und es am Ende auf 100+ Mio Einheiten gebracht. Dann hätte man diese Sache wohl weiterverfolgt. Aber da eben das Ergebnis nicht das war, von dem man ausgegangen war hat man umdisponiert. Ohne Profit kein frisches Kapital. Ohne Kapital keine frischen Investitionen. Ohne Investitionen keine Innovationen. Es geht immer nur ums Geld...Sony hat keine Narrenfreiheit. Die müssen sich nach dem Markt richten, wie jedes andere Unternehmen auch. Warum habe ich oben bereits erläutert. Genauso muss sich auch Microsoft danach richten, weshalb Kinect tot ist
Ich habe diese Frage bereits in einem der vorherigen Posts beantwortet. Und nein, die PS3 hat sich nicht gut genug verkauft, zumal sie bis zu Ihre, Zenith und darüber hinaus subventioniert werden musste, um den Preis konkurrenzfähig zu halten.

Du bezeichnest mich indirekt als degeneriert und wortverdrehend.
Wenn Du Dich zum „Rest“ dazuzählst, dann wohl ja. Die Entscheidung dazu liegt aber bei Dir.

...und all das bringt halt nichts in einem Klein- oder Mittelklasse-PKW, wenn der Verbrauch deutlich höher ist.
12-15%....auf dem Papier...oder in Holland, wo man für die heutigen Motoren mit Minihubraum optimale Bedingungen vorfindet. In hügeligeren Gefilden (wie dem deutschen Mittelgebirge) geht die Rechnung allerdings nicht auf. Da verbrauchen die kleinen Benziner durch ihr zu schwaches Drehmoment sogar noch mehr Sprit im Verhältnis. Deswegen ist es eigentlich auch Schwachsinn den Diesel in Deutschland abschaffen zu wollen, denn auch der ist hier von Vorteil. Wesentlich höheres Drehmoment bereits bei niedrigerer Umdrehungszahl. Dazu etwa 30-40% mehr Drehmoment im Verhältnis zur PS-Zahl. Ja, wo es bergauf geht muss es auch wieder bergab gehen, aber das hilft den „Nähmaschinenmotoren“ beim sparen wenig. Und da spart auch der größere Motor. Das Auto, was ich vor 25 Jahren fuhr hatte 60% mehr Hubraum wie mein jetziges. Der Verbrauch ist der gleiche geblieben.

Ich erinnere mich nur an irgendwelche Videos mit Typen von Naughty Dog, wie sie ein Spiel genau zugeschnitten für eine Plattform so optimiert haben, um Schwächen auszubügeln, die sie mit einem stärkeren Grafikchip nicht gehabt hätten.
Lustig! Einem stärkeren Grafikchip wie dem Xenos? Der RSX war rund 15% schwächer als der Xenos. Das hat der Cell aber bei vernünftiger Nutzung mehr als nur kompensieren können, wie man unter Anderem an den Naughty Dog spielen hat sehen können. Ich habe nur ein Making of Video von Naughty Dog zu Uncharted 2 veröffentlicht. Da war noch das Video des 22. Chaos Communications Congress von 2005. Und noch einige andere. Alles übersprungen, richtig? Oder Guerillas Games Fallstudie zu Killzone 2.
Ganz schön heftige Aussage für jemand, der sowas von sich gibt:
Soll ich mal Deine ganzen Leichen aus dem Keller holen? Da hat sich über die Zeit ne ganze Menge angesammelt.
Studierte Softwareentwickler mit teils jahrelanger Programmiererfahrung sind allesamt zu blöd. Selbst Naughty Dog brauchte Jahre um komplett hinter das Teil steigen zu können.
Zu bequem. Der Mensch ist ein Gewohnheitstier. Und es braucht immer Jahre um die jeweilige Konsolen-Generation wirklich auszureizen. Da war sogar bei den 16-Bittern wie dem NeoGeo der Fall.
 
Zuletzt bearbeitet von einem Moderator:
Ich habe diese Frage bereits in einem der vorherigen Posts beantwortet. Und nein, die PS3 hat sich nicht gut genug verkauft, zumal sie bis zu Ihre, Zenith und darüber hinaus subventioniert werden musste, um den Preis konkurrenzfähig zu halten.

Laut Wikipedia.hat sich die Ps3 häufiger verkauft, als die Xbox 360. Subventioniert wurde die Konsole wirklich, das ist richtig, laut Heise lag das aber nicht am Cell, sondern am RSX und dem Blu Ray Laufwerk. Aufgrund eigener Fertigung lassen sich aber viele Preise wohl nochmal deutlich drücken - Sony wird eigene Laufwerke nicht mit Marge an sich selbst verkaufen.
Sponsored by Sony: Die wahren Kosten der Playstation 3 | heise online

Man muss auch im Auge behalten, dass Sony mit der PS3 erfolgreich die Blu Ray Disc etabliert hat und danach alle Medien auf Blu Ray Sony Geld in die Kassen gespült haben. Gelohnt hat sich die PS3 also auf alle Fälle.
Aber das ist doch alles egal, mein Punkt besteht doch nach wie vor: irgendjemand bei Sony hätte doch sagen müssen "die PS3 verkauft sich nicht gut (was nicht wahr ist) oder ist zu teuer (was nicht am Cell liegt), aber der Cell ist so eine abartige Über-CPU mit so viel Potential, den entwickeln wir nach bestem Moore'schen Handwerk weiter und in der nächsten Generation haben wir einen riesigen Vorteil auf unserer Seite." Aber scheinbar hat Niemand so weit gedacht, sonst hätte man heute sicher den gesamten Markt erobert, weil der Cell allem so krassbüberlegen ist. Oder, er ist es halt nicht.

Wenn Du Dich zum „Rest“ dazuzählst, dann wohl ja. Die Entscheidung dazu liegt aber bei Dir.

Nö. Wenn ich sage "du und der Rest von Gruppe A", dann zähle ich dich implizit zu Gruppe A dazu.

Lustig! Einem stärkeren Grafikchip wie dem Xenos? Der RSX war rund 15% schwächer als der Xenos. Das hat der Cell aber bei vernünftiger Nutzung mehr als nur kompensieren können, wie man unter Anderem an den Naughty Dog spielen hat sehen können. Ich habe nur ein Making of Video von Naughty Dog zu Uncharted 2 veröffentlicht. Da war noch das Video des 22. Chaos Communications Congress von 2005. Und noch einige andere. Alles übersprungen, richtig? Oder Guerillas Games Fallstudie zu Killzone 2.
Ja, der Cell konnte das kompensieren, weil er für GPU workloads entwickelt wurde und am Ende sogar GPU workloads übernehmen durfte. Für die Entwickler war der Cell trotzdem eine Tortur, da die Entwicklung von Spieleengines auf der PS3 von allen bisherigen Konsolen am aufwändigsten war. Ein Multicore-Monster, wie es der Cell seinerzeit zweifellos war, will in Spielen erst mal anständig auf Singlethread-Workloads programmiert werden. Damit hatten die Spieleentwickler bis zum Ende der Lebenszeit der PS3 zu kämpfen, was ich auch völlig nachvollziehen kann. Spaßig stelle ich mir das jedenfalls nicht vor und da hatte die Xbox 360 wahrscheinlich enorme Vorteile trotz "weniger Leistung" - also "trotz" weniger FLOPS
gRU?; cAPS
 
Du kannst noch so einen dicken Roman vom Wankelmotor erzählen, auf die Kernfrage, wieso man heutzutage bei Vorhandenheit weit leistungsfähigerer GPUs mit extra Schnittstellen, wie DirectCompute, OpenCL oder CUDA noch einen Spezial-Chip, wie den Cell bräuchte immernoch keine treffende Antwort geliefert.

Lustig! Einem stärkeren Grafikchip wie dem Xenos? Der RSX war rund 15% schwächer als der Xenos. Das hat der Cell aber bei vernünftiger Nutzung mehr als nur kompensieren können, wie man unter Anderem an den Naughty Dog spielen hat sehen können. Ich habe nur ein Making of Video von Naughty Dog zu Uncharted 2 veröffentlicht. Da war noch das Video des 22. Chaos Communications Congress von 2005. Und noch einige andere. Alles übersprungen, richtig? Oder Guerillas Games Fallstudie zu Killzone 2.
Weder hab' ich irgendwas übersprungen, noch ist da etwas lustig.
Lustig ist nur deine offenkundige Unkenntnis.
Der RSX hatte im schlimmsten Fall weit mehr als nur 15% weniger Leistung ggü. dem Xenos.
Das alles hat mit seiner Architektur zu tun, die damals auch schon wieder fünf Jahre alt war. Der RSX war ein Grafichip, der noch klassisch zwischen Pixel- und Vertex-Shadern unterschieden hat, was Probleme bei der Auslastung mit sich bringt. Auch der Umstand, dass "nur" 24 Pixel-Shader zur Verfügung standen, war für neuere Spiele nicht sehr hilfreich.
Noch dazu kommt die TMU-Einheit, die in allen CineFX-GPUs von Nvidia ein chronischer Krankheitsfall war; die TMUs waren ggü. ihren Pixel-Shadern asymetrisch angeordnet, das konnte zu massiven Stalls bei Texturzugriffen führen, da uU. immer eine TMU blockierte und mehr Taktzyklen erforderlich wurden.
Ebenso, dass auf das FP32-Rendertarget kein HDR bei gleichzeitig aktiviertem Anti-Aliasing angewendet werden konnte - das musste der Cell übernehmen. Das war neben der TMU-Problematik ein klarer Designfehler, für den zwar Sony nichts konnte, aber dennoch unnötig war. Der Xenos hatte neben der wesentlich höheren Shader-Leistung noch dazu extra eDRAM mit zusätzlichen Instruktionen, was bei AA hilfreich war und konnte noch dazu auf den Level-2-Cache des Xenon zugreifen.

Wie übel die Leistung alter GeForces mit CineFX-ISA war, kannst du dir gerne mal zu Gemüte führen: Grafikkarten Evolution: 14 Modelle von 2005 bis 2011 - ComputerBase
Da ist selbst eine Radeon X1800 XT manchmal schneller als eine eigentlich nominell deutlich stärkere GeForce 7900 GTX.

Das war halt einfach auch seiner Zeit geschuldet, Nvidia setzte vorwiegend auf Texturleistung, was damals OK war. ATi dachte aber weiter und stattete ihre Chips mit mehr Shader-Leistung aus. Anno 2005/2006 brachte das keinen echten Vorteil, aber je aufwändiger die Shader-Operationen wurden, desto langsamer wurden sämtliche GeForce 7-Karten.
Soll ich mal Deine ganzen Leichen aus dem Keller holen? Da hat sich über die Zeit ne ganze Menge angesammelt.
Also jetzt wird's aber doch lustig.:D
Ich bin seit über 10 Jahren hier angemeldet und du glaubst zu wissen, ich hätte irgendwelche Leichen im Keller?
Bitte, nur zu, viel Spaß beim Buddeln.;)
NIEMAND der in der Spielebranche als Programmierer arbeitet, ist für irgendwas zu bequem.
Die haben alle unbezahlte Überstunden, arbeiten am Wochenende, zuhause und im Betrieb, haben verdammt wenig Urlaub und noch dazu Crunch-Times, die auch viele erfahrene Entwickler an ihre absoluten Grenzen treiben.
KEINER macht as auf der Ebene öfter als höchstens ein Projekt mit. Ich kenne Leute, die als "Fließbandprogrammierer" das ganze Zeug nach Vorgaben der Designer weiter oben zusammencoden mussten. Die Bezahlung war für die geleistete Arbeit auch noch miserabel, da verdient man als Softwareentwickler in anderen Branchen weit besser.

Das finde auch ich als ausgebildeter ITler einen ganz schön saftigen Tobak, den du da von dir gibst. Das erinnert mich an die Typen die labern, dass Krankenschwestern keine harte Arbeit verrichten, weil sie ja keine Ärzte sind.:nene:
 
Laut Wikipedia.hat sich die Ps3 häufiger verkauft, als die Xbox 360. Subventioniert wurde die Konsole wirklich, das ist richtig, laut Heise lag das aber nicht am Cell, sondern am RSX und dem Blu Ray Laufwerk.
Ja, gegen Ende des Zyklus der 7, Generation hat die PS3 die X360 eingeholt, bzw. überholt, was aber eben nur dadurch gelang, dass Sony die PS3 dauerhaft unter Wert verkaufte. Ob jetzt der Blu Ray teurer war, oder die CPU ist hierbei vollkommen irrelevant, da das Gerät als solches im Ganzen verkauft wird. Auch wird Sony für den CellBE weniger bezahlt haben, da sie ja bei dessen Entwicklung mit im Boot saßen, genau wie beim BR Laufwerk. Und die Kosten für dieses waren schon so gut gedrückt wie es nur ging. Die Sony hatte lange Zeit (mindestens bis 2009) den bis dato qualitativ zweitbesten Blu Ray Player verbaut. Auch Video- und Homeentertainment Fachzeitschriften lobten das Gerät dafür. Der beste BR Player war lange Zeit deutlich teurer

Gelohnt hat sich die PS3 also auf alle Fälle.
hinsichtlich des Datenträgers BR für Sony, ja!
Aber das ist doch alles egal, mein Punkt besteht doch nach wie vor: irgendjemand bei Sony hätte doch sagen müssen "die PS3 verkauft sich nicht gut (was nicht wahr ist) oder ist zu teuer (was nicht am Cell liegt),“
Genau das ist auch anfangs eingetreten. Die PS3 hat sich die ersten 3 Jahre sehr zäh verkauft. Hinzu kam, dass die PS3 anders noch als ihr Vorgänger, die PS2 keine Spiele von Drittherstellern mehr bekam, die speziell auf den Chipsatz ausgelegt waren. Das bremste zusätzlich, weil die Xbox da durch ihre simplere Architektur besser bei Multiplattformern abschnitt. Das gleiche Problem hatte Sega mit dem Saturn. Der war theoretisch leistungsfähiger als die PS1, aber dessen Potential war auf zwei Recheneinheiten verteilt, die parallel arbeiten sollten. Nur nutzte das kaum ein Entwickler, weil eben auch dies einen Mehraufwand erforderte. Die PS3 als Gerät selbst war kein kommerzieller Erfolg und die Etablierung der Blu Ray hatte keine Bedeutung für eine mögliche Weiterentwicklung des Cell.

Nö. Wenn ich sage "du und der Rest von Gruppe A"
Das war aber nicht mein Wortlaut. Ich habe nicht aufgezählt. Vor der Interpretation kommt die Analyse.
Ja, der Cell konnte das kompensieren, weil er für GPU workloads entwickelt wurde und am Ende sogar GPU workloads übernehmen durfte.
Nicht am Ende. Bereits 2007 (Uncharted). Und das sollte er von Anfang an, und nicht nur „aus einer Not heraus“.

Du kannst noch so einen dicken Roman vom Wankelmotor erzählen,
Du hast doch mit dem Wankelmotor angefangen. Hast halt nur damit falsch gelegen. Den gibt‘s immer noch und der wird auch immer noch weiterentwickelt und verbessert. Aber Du bist ja ITler und kein Ingenieur für Antriebe.
Weder hab' ich irgendwas übersprungen,...
Dass Du Dich dann nur an das Making of Video von Uncharted 2 erinnern kannst...Amnesie? Demenz? Oder die Masche mit der „subtilen Beweislastumkehr“.

Also jetzt wird's aber doch lustig.:D
Ich bin seit über 10 Jahren hier angemeldet und du glaubst zu wissen, ich hätte irgendwelche Leichen im Keller?
Bitte, nur zu, viel Spaß beim Buddeln.;)
Ja, Du scheinst wirklich ein schwaches Gedächtnis zu haben. Da braucht es gar keine 10 Jahre. Die Sticheleien, die Du nur in einem Jahr hier abgesondert hast reichen völlig aus. Buddeln brauch man nicht lange. Wenn Du so ein Mundwerk auch im echten Leben hast würde es mich sehr wundern, wenn Dein Einszweier, Einseinser, Zweieinser und Zweizweier noch echt wären.

NIEMAND der in der Spielebranche als Programmierer arbeitet, ist für irgendwas zu bequem.
Die haben alle unbezahlte Überstunden, arbeiten am Wochenende, zuhause und im Betrieb, haben verdammt wenig Urlaub und noch dazu Crunch-Times, die auch viele erfahrene Entwickler an ihre absoluten Grenzen treiben.
Und da bleibt eben auch wenig Zeit für Weiterbildung und Experimente. Warum glaubst Du wohl lässt Sony seinen Firstparties so viel Zeit. Klar haben die auch Vorgaben, aber irgendwas scheint ja da anders zu laufen als z.B. bei EA oder Activision.

Das erinnert mich an die Typen die labern, dass Krankenschwestern keine harte Arbeit verrichten, weil sie ja keine Ärzte sind.:nene:
Oh weh! Wieder so ein Vergleich der zum Himmel stinkt.

auf die Kernfrage, wieso man heutzutage bei Vorhandenheit weit leistungsfähigerer GPUs mit extra Schnittstellen, wie DirectCompute, OpenCL oder CUDA noch einen Spezial-Chip, wie den Cell bräuchte immernoch keine treffende Antwort geliefert:
Diese Frage lässt sich leider nicht beantworten, da keiner weiß, wie ein Cell heute aufgebaut wäre und was er leisten würde. Sicher aber wären die Kinderkrankheiten der ersten Generation längst ausgemerzt.

@Euch beide:
Die „Gefällt mir - Funktion“ ist nicht zum gegenseitigen „anbiedern“ gedacht. Nehmt Euch doch nen Hotelzimmer.
 
Zuletzt bearbeitet von einem Moderator:
Du hast doch mit dem Wankelmotor angefangen. Hast halt nur damit falsch gelegen. Den gibt‘s immer noch und der wird auch immer noch weiterentwickelt und verbessert. Aber Du bist ja ITler und kein Ingenieur für Antriebe.
Wieso habe ich denn falsch gelegen?
Also ist der Hubkolben doch nicht effizenter, oder wie?
Da brauch ich gar keine 10 Jahre zurückgehen. Die Sticheleien, die Du nur in einem Jahr hier abgesondert hast reichen völlig aus. Buddeln brauch man nicht lange.
'na, und wo sind dann die Beispiele dafür?
Welche Sticheleien? Ich habe hier noch nie jemandes Familienehre beleidigt, noch bin ich irgendwo schon mal persönlich geworden.
Weder bin ich schonmal gesperrt worden noch habe ich eine je Verwarnung wegen derber Audrücke bekommen.
Wenn dich meine Ausdrucksweise - in der du ja warum auch immer irgendwelche Provokationen erkennen willst - so stören, dann klick' doch auf das schwarze Dreieck und melde es den Mods.:schief:
Wenn Du so ein Mundwerk auch im echten Leben hast würde es mich sehr wundern, wenn Dein Einszweier, Einseinser, Zweieinser und Zweizweier noch echt wären.
Was? Ich soll schon eine auf's Maul bekommen haben, nur weil ich jemand bestimmte Sachverhalte darlege? :hmm:
Und da bleibt eben auch wenig Zeit für Weiterbildung und Experimente. Warum glaubst Du wohl lässt Sony seinen Firstparties so viel Zeit. Klar haben die auch Vorgaben, aber irgendwas scheint ja da anders zu laufen als z.B. bei EA oder Activision.
Erst sind sie zu faul, dann zu blöd und jetzt - aha! - haben sie keine Zeit. Das stimmt sogar ausnahmsweise mal.:daumen:
Aber soll' ich dir mal was sagen?
Es hat seinen Grund, wieso die meisten CPUs für den Massenmarkt seit über 20 Jahren eine OoO-Pipeline mit jeder Menge Befehlssätze und ausgetüftelter Branch-Prediction verwenden. Um es eben dem Anwender zu erleichern, dafür potente Software zu kerieren. Besonders hilfreich grade dann, wenn man sein Produkt für mehrere unterschiedliche Plattformen verkaufen will.
Aus ähnlichen Gründen gibt's im Auto ja auch ABS, Traktionskontrolle und Fahrassistenten, weil man schlicht nicht erwarten kann, dass jeder Autofahrer automatisch auch ein Rennfahrer ist, dem jedes Auto wie ein Schuh passt.;)
Oh weh! Wieder so ein Vergleich der zum Himmel stinkt.
Mir willst du ein loses Mundwerk andichten, aber selber hat man doch tatsächlich die Frechheit Mut erfahrene Softwareentwickler als Faulenzer und Anfänger zu bezeichnen.
Es gibt da draußen genug Typen, die sagen ähnliches über Krankenpfleger, weil die ja nicht studiert haben, es deshalb nicht so gut wissen können wie Ärzte und auf denen man deshalb sowieso rumhacken kann, wenn einem das Krankenessen nicht schmeckt. Daher finde ich auch den Vergleich ziemlich treffend.;)

Diese Frage lässt sich leider nicht beantworten,
Genau das habe ich dir ja vorhin gesagt; du kannst es nicht wissen, weil es pure Spekulation ist.
 
Wieso habe ich denn falsch gelegen?
Also ist der Hubkolben doch nicht effizenter, oder wie?
Wie ich sagte, unter optimalen Bedingungen, sprich Flachland. Das haste zumindest in meiner Gegend selten, bzw. gar nicht. Und für alternative, gasförmige Treibstoffe eignet sich der Wankelmotor auch besser.
'na, und wo sind dann die Beispiele dafür?
Also doch die Nummer von wegen „Leg Du mal wieder alles auf den Tisch“. Mein Wort zählt ja so wie es ist. Du kannst die Suchfunktion genauso nutzen wie ich...hoffe ich doch. Dann wirst Du sicher darauf stoßen.
Welche Sticheleien? Ich habe hier noch nie jemandes Familienehre beleidigt, noch bin ich irgendwo schon mal persönlich geworden.
Au weia! Ich empfehle dringend einen Besuch beim Neurologen und ein HirnCT.
Weder bin ich schonmal gesperrt worden noch habe ich eine je Verwarnung wegen derber Audrücke bekommen.
Ist bei RavionHD offenbar nicht anders, ergo beweist das gar nichts.
Wenn dich meine Ausdrucksweise - in der du ja warum auch immer irgendwelche Provokationen erkennen willst - so stören, dann klick' doch auf das schwarze Dreieck und melde es den Mods.:schief:
Wie ich sagte, da kommt nicht viel bei rum.
Was? Ich soll schon eine auf's Maul bekommen haben, nur weil ich jemand bestimmte Sachverhalte darlege?
Nein! Für Deine Impertinenz.
Erst sind sie zu faul, dann zu blöd und jetzt - aha! - haben sie keine Zeit. Das stimmt sogar ausnahmsweise mal.
Und es gibt Schnittmengen...nicht alle, aber auch ITler sind eben nur Menschen.
Aber soll' ich dir mal was sagen?
Es hat seinen Grund, wieso die meisten CPUs für den Massenmarkt seit über 20 Jahren eine OoO-Pipeline mit jeder Menge Befehlssätze und ausgetüftelter Branch-Prediction verwenden. Um es eben dem Anwender zu erleichern, dafür potente Software zu kerieren. Besonders hilfreich grade dann, wenn man sein Produkt für mehrere unterschiedliche Plattformen verkaufen will.
Und RISCs hatten weniger Befehlsätze genau wofür?
Aus ähnlichen Gründen gibt's im Auto ja auch ABS, Traktionskontrolle und Fahrassistenten, weil man schlicht nicht erwarten kann, dass jeder Autofahrer automatisch auch ein Rennfahrer ist, dem jedes Auto wie ein Schuh passt.
Und wenn das alles nicht drin wäre, von den noch schwereren Schutzmaßnahmen (Airbag, Seitenaufprallschutz, etc.) ganz zu schweigen könnten die Autos bei gleicher Motorleistung schneller beschleunigen, bzw. hätten eine höhere Endgeschwindigkeit und würden bei normaler Fahrweise im Verhältnis deutlich weniger verbrauchen, weil das Verhältnis von Leistung zu Gewicht günstiger wäre. Moment, was waren nochmal die Stärken des RISC? Keine „Stützräder“, dafür...?

Und früher ging das Autofahren auch ohne den Krimskrams, und ohne dass die Leute Rennfahrer waren (obgleich sich immer mehr so benehmen, als wären sie es).. Nur gibt es heute genug Leute im Straßenverkehr, die ein Kfz führen, bzw. die Fahrerlaubnis besitzen ohne wirklich geeignet zu sein. Die Fahrschulen selektieren schlicht nicht mehr, weil da ja auch Geld dranhängt...und die Konkurrenz nicht schläft.
Mir willst du ein loses Mundwerk andichten, aber selber hat man doch tatsächlich die Frechheit Mut erfahrene Softwareentwickler als Faulenzer und Anfänger zu bezeichnen. Es gibt da draußen genug Typen, die sagen ähnliches über Krankenpfleger, weil die ja nicht studiert haben, es deshalb nicht so gut wissen können wie Ärzte und auf denen man deshalb sowieso rumhacken kann, wenn einem das Krankenessen nicht schmeckt. Daher finde ich auch den Vergleich ziemlich treffend.
Nochmal, schlechtes Beispiel. Zumal die Krankenpflege für das was sie leistet und für die Verantwortung, die sie haben effektiv noch mieser bezahlt werden. Dass das Krankenhausessen so schlecht ist liegt oft daran, dass die Krankenhausküchen geschlossen wurden, und die Caterer geringe Qualität fürs Geld liefern, zwecks Rentabilität. Die Crux der Privatisierung. Nebenbei müssen die es eben noch liefern. Frisch von der Küche auf die Stationen war auch ein Vorteil.

Genau das habe ich dir ja vorhin gesagt; du kannst es nicht wissen, weil es pure Spekulation ist.
Genauso ist es pure Spekulation, dass ein Cell in der ganzen Zeit keine Evolutionen erlebt hätte, die ihn heute in irgendeiner Art hervorstechen lassen würde.
 
Zuletzt bearbeitet von einem Moderator:
Wie ich sagte, unter optimalen Bedingungen, sprich Flachland. Das haste zumindest in meiner Gegend selten, bzw. gar nicht.
Und das zeigt doch, wie treffend der Vergleich doch war.
Auch der Cell hat seine optimalen Bedingungen, in denen er seine Leistung fast voll ausfahren kann. Woanders dagegen nicht. Da waren/sind halt herkömmliche CPUs oder GPUs doch besser geeignet.
Also doch die Nummer von wegen „Leg Du mal wieder alles auf den Tisch“. Mein Wort zählt ja so wie es ist. Du kannst die Suchfunktion genauso nutzen wie ich...hoffe ich doch. Dann wirst Du sicher darauf stoßen.
Da ich aus meiner Perspektive nie ausfällig geworden bin, kann ich gar nichts finden. Es war deine Behauptung, ergo bist du in der Bringschuld.;)
Au weia! Ich empfehle dringend einen Besuch beim Neurologen und ein HirnCT.
Ja, Au weia.
Wer wird jetzt her persönlich.:rollen:
Ist bei RavionHD offenbar nicht anders, ergo beweist das gar nichts.
Aha, ich glaube ich erkenne langsam, wo der Hund begraben liegt.
Was ich schon früher vermutet habe; du kommst offenkdundig nicht mit gewissen Gegebenheiten in Interenforen zurecht.

So oft ich selber schon mit Ravion im Clinch lag, so ist er doch nie persönlich oder beleidigend geworden. Allerdings ist er - nicht von mir, vielleicht auch nicht von dir konkret, aber sehr wohl von anderen Usern - öfters mal derbe angeredet worden. Aber ist er deswegen jemals aus der Haut gefahren? Nicht das ich wüsste. Es ist manchmal zum Haare raufen mit mit seinem reaktionärem, manchmal auch stark einseitigem Gehabe aber ich kann meiner Erfahrung nach nicht behaupten, dass er schon mal persönlich geworden wäre.

Dass man in Foren öfters mal neckisch wird, ist Standard - eine konkrete Beleidigung ist aber was völlig anderes. Z.B. dein Zitat oben.
Nein! Für Deine Impertinenz.
Meine "Impertinenz" beruht nur auf technische Fakten, die du genauso überall anderswo nachlesen und nachvollziehen kannst. Es haben schon andere User hier lange vor mir dasselbe Geschrieben, die PCGH brachte Fachartikel drüber. Nur das gebe ich wieder. Nicht mehr nicht weniger. Aber wie hast du das vorhin mal abgetan? Ich glaube mich zu entsinnen, es war ein Wort aus der Fäkalsprache.:schief:
Und es gibt Schnittmengen...nicht alle, aber auch ITler sind eben nur Menschen.
Es ist so: Es geht in der IT immer um das Lösen von Problemen. Das gilt insbesondere für Programmierer. Es gibt ein konkretes Problem, das mit einem Algorithmus gelöst werden muss.
Natürlich sind ITler auch nur Menschen.
Wird das Problem durch die vorhandene Plattform aber erschwert, ist das halt nicht grade von Vorteil für einen Problemlöser. Der Handwerker findet das auch nicht toll, wenn er mit der Handsäge ein Brett zuschneiden muss, obwohl er das besser mit der Tischkreissäge könnte. Ist übrigens eine sehr treffende Analogie zum Thema "Abstrakte Programmiersprache vs. Assembler".:D
Und RISCs hatten weniger Befehlsätze genau wofür?
Und wenn das alles nicht drin wäre, von den noch schwereren Schutzmaßnahmen (Airbag, Seitenaufprallschutz, etc.) ganz zu schweigen könnten die Autos bei gleicher Motorleistung schneller beschleunigen, bzw. hätten eine höhere Endgeschwindigkeit und würden bei normaler Fahrweise im Verhältnis deutlich weniger verbrauchen, weil das Verhältnis von Leistung zu Gewicht günstiger wäre. Moment, was waren nochmal die Stärken des RISC?
Also eigentlich spricht man heutzutage nicht mehr von RISC und CISC. Die Grenzen sind inzwischen dermaßen verschwommen, dass man nicht immer konkret von einem der beiden Philosophien sprechen kannt.
Es ist z.B. schon lange so, dass auch x86-CPUs größere Befehle in kleinere RISC-Befehle splitten (so genannte Mikro-Operationen) und haben durch spezielle Befehlssatzerweiterungen eigene Register, die schon einige Nachteile der grundsätzlichen CISC-Idee kaschieren.
Umgekehrt gibt es auch RISC-Prozessoren, die mit relativ komplexen Befehlen arbeiten.
Ein Vorteil reiner RISC-Architekturen war ja, dass man sich viele Transistoren hat sparen können. Nur mal rhetorisch gefragt: Braucht man das heutzutage noch? Wir können mit Transistoren praktisch um uns schmeißen und Befehle auch auf CISC-Prozessoren bis in kleinste Untergruppen in den Registern aufdröseln.
Und früher ging das Autofahren auch ohne den Krimskrams, und ohne dass die Leute ne Rennfahrerausbildung hatten. Nur gibt es heute genug Leute im Straßenverkehr, die ein Kfz führen, bzw. die Fahrerlaubnis besitzen ohne wirklich geeignet zu sein. Die Fahrschulen selektieren schlicht nicht mehr, weil da ja auch Geld dranhängt...und die Konkurrenz nicht schläft.
Dass Airbags, Antiblockiersysteme, Anti-Schlupfregelung usw. eingeführt wurden, um Idioten, die sich und andere im Verkehr gefährden, das Fahren zu erleichtern höre ich hier zum ersten mal. Zumindest zähle ich vornehmlich Poser, Möchtegern-Rennfahrer und Besoffene dazu. Aber für die wurden solche Systeme sicherlich nicht geschaffen.
Das erinnert mich ein wenig an gewisse Leute, die behaupten Automatik fahren sei was für Waschlappen.

Nochmal, schlechtes Beispiel. Zumal die Krankenpflege für das was sie leistet und für die Verantwortung, die sie haben effektiv noch mieser bezahlt werden.
Innerhalb ihres beruflichen Feldes, ja.
Daher, nochmal, treffendes Beispiel: Gelobt werden immer die Ärzte, wenn sie ihre Arbeit richtig machen. An die Pfleger denkt niemand, auch niemand an den Knochenjob, den sie verrichten müssen, für viel zu wenig Gehalt.
Du hackst auf den Codern rum, wenn sie es nicht schaffen, Software auf einen bestimmten, schwer zu händelnden Chip so zuzuschneiden, dass er vollends befriedigende Ergebnisse liefert. Dabei lässt du genauso den Knochenjob der Programmierer außer Acht, für den sie innerhalb ihres Berufsfeldes ebenfalls zu wenig Geld kriegen.
Kommt ein Spiel verbuggt oder unfertig auf den Markt, heißt es dann immer: "Schlampig programmiert!". Natürlich schlampig programmiert, aber lag es wirklich an der Unfähigkeit der Coder oder an nicht einzuhaltende Vorgaben von Publishern oder Lead-Designern? Ich verweise nur auf LA: Noire, VTM: Bloodlines, Gothic 3 oder KoTOR2, neben vielen weiteren Beispielen. Die reinste Programmierhölle, z.T. gescheitert an den eigenen Ambitionen, weil sich die Designer verrannt haben, zum anderen an nicht sinnvoll einhaltbaren Vorgaben des Verlegers.
Genauso ist es pure Spekulation, dass ein Cell in der ganzen Zeit keine Evolutionen erlebt hätte, die ihn heute in irgendeiner Art hervorstechen lassen würde.
Wie sich der Cell weiterentwickelt hätte, kann ich ebenso wenig beurteilen wie du.
Aber sich sehe, wie sich GPUs in der Zeit entwickelt haben. Raytracing-Versuche gab's schon zur Zeit der Radeon 9000er. ATi brachte das Thema für PC-Grafikkarten erstmals auf. Ein kleiner Haufen Studenten haben das dann mal wenig später mit einer GeForce 6800 GT versucht, umständlich über die Pixel-Shader berechnet, ohne unterstützende Schnittstelle oder Bibliotheken, mit mäßigen Ergebnissen.
Seit OpenCL/DirectCompute und DirectX10 gibt es aber extra Schnittstellen dafür, inzwischen sogar mit extra ALUs, siehe GeForce RTX.
Grade Nvidia hat im Bereich GPGPU so viel auf die Beine gestellt in den letzten zehn Jahren, dass ich heutzutage die Sinnhaftigkeit eines Spezial-Chips, wie den Cell, nunmal ernsthaft anzweifle.
 
Und das zeigt doch, wie treffend der Vergleich doch war.
Auch der Cell hat seine optimalen Bedingungen, in denen er seine Leistung fast voll ausfahren kann. Woanders dagegen nicht. Da waren/sind halt herkömmliche CPUs oder GPUs doch besser geeignet.
Zeigt es eben nicht. Denn - wie man sich denken kann - sind Laborbedingungen eben Laborbedingungen. Die hat man außerhalb eben meist nicht vorfindet.
Da ich aus meiner Perspektive nie ausfällig geworden bin,...
Wundervoll! Sagt alles!

Wer wird jetzt her persönlich.
Das war ein gutgemeinter Ratschlag. Ganz ehrlich!
Aha, ich glaube ich erkenne langsam, wo der Hund begraben liegt.
Was ich schon früher vermutet habe; du kommst offenkdundig nicht mit gewissen Gegebenheiten in Interenforen zurecht. So oft ich selber schon mit Ravion im Clinch lag, so ist er doch nie persönlich oder beleidigend geworden. Allerdings ist er - nicht von mir, vielleicht auch nicht von dir konkret, aber sehr wohl von anderen Usern - öfters mal derbe angeredet worden. Aber ist er deswegen jemals aus der Haut gefahren? Nicht das ich wüsste.
RavionHD legt in diesem Forum eine Arroganz an den Tag, die ihresgleichen sucht. Er hat unzählige Male andere Forennutzer hier diskreditiert. Nein, aus der Haut gefahren ist er nicht. Er versucht stattdessen die Masche, das er oben auf ist und dementsprechend herablassend schreibt. Das provoziert die Leute...zu recht. In anderen Foren hätte er für dieses Gebaren längst einen permanenten Bann kassiert.

Es ist manchmal zum Haare raufen mit mit seinem reaktionärem, manchmal auch stark einseitigem Gehabe aber ich kann meiner Erfahrung nach nicht behaupten, dass er schon mal persönlich geworden wäre.
Aber hallo! Da ist Dir aber so einiges entgangen.

Dass man in Foren öfters mal neckisch wird, ist Standard
Nene, das hatte ne andere Qualität.
Es ist so: Es geht in der IT immer um das Lösen von Problemen. Das gilt insbesondere für Programmierer. Es gibt ein konkretes Problem, das mit einem Algorithmus gelöst werden muss.
Na sieh mal einer an. Genau an der Stelle brauchen wir eigentlich nicht mehr weiterreden...

Gehört sowas nicht auch dazu:
„Die Werte beziehen sich auf doppelt genaue Gleitkommazahlen (64 Bits), für welche die SPUs des Cell-Prozessors nicht ausgelegt sind. Mithilfe der für doppelten Genauigkeit optimierten VMX-Einheit im PPE gelingt dem Cell-Prozessor unter der Implementierung von IBM bis zu 21,03 GFlops. Eine Arbeitsgruppe unter der Leitung von Jack Dongarra optimierte den Code durch die Nutzung eines iterativen Verfahrens. Damit lässt sich unter LINPACK bei doppelter Genauigkeit eine Performance entsprechend 100 GFlops auf einer 4K×4K-Matrix erreichen. Das PPE trägt dabei zwar ebenfalls nicht zur eigentlichen Berechnung bei, dient jedoch als Steuereinheit der SPUs.“

Cell (Prozessor) – Wikipedia

Dass Airbags, Antiblockiersysteme, Anti-Schlupfregelung usw. eingeführt wurden, um Idioten, die sich und andere im Verkehr gefährden, das Fahren zu erleichtern höre ich hier zum ersten mal.
Nein, das hast Du hier nicht gehört, denn das war nicht meine Aussage. Obwohl man sich schon fragen könnte/sollte, warum die Zahl der Verkehrstoten in Deutschland trotz all dieser Schutzmechanismen wieder deutlich zunimmt.
Zumindest zähle ich vornehmlich Poser, Möchtegern-Rennfahrer und Besoffene dazu. Aber für die wurden solche Systeme sicherlich nicht geschaffen. Das erinnert mich ein wenig an gewisse Leute, die behaupten Automatik fahren sei was für Waschlappen.
Mich erinnert das an Leute, die offensichtlich in der Fahrschule nicht bzgl. Sicherheitsabstände geschult wurden (und das sind nicht nur die Rowdies), die bei einer Kreuzung, wo rechts vor links gilt die Vorfahrtsregeln nicht begreifen (Aufgabe: Ein Auto kommt an eine Kreuzung und will geradeaus fahren. Von rechts kommt ein PKW, der ebenfalls geradeaus fahren will. Gleichzeitig erreicht ein weiterer Wagen von der gegenüberliegenden Seite des Erstgenannten die Kreuzung und möchte links abbiegen. Wer hat Vorfahrt? Ich wohne nahe einer solchen Kreuzung und nach meiner Erfahrung scheitern mehr als 80% der Autofahrer an dieser Aufgabe), Personen die altersbedingt den Seh- oder Hörtest nicht mehr bestehen würden, und und und. Und natürlich die überlasteten Straßen i.V.m. dem Zeitdruck mancher Autofahrer, begründet oder unbegründet.

Du hackst auf den Codern rum, wenn sie es nicht schaffen, Software auf einen bestimmten, schwer zu händelnden Chip so zuzuschneiden, dass er vollends befriedigende Ergebnisse liefert.
ich hacke vor und überwiegend auf den Firmen rum, die das Geld lieber in sündhaft teure Werbung stecken anstatt wie einst entsprechend mehr Coder einzustellen, die entsprechend Maßarbeit zu machen. Von den Terminverknappungen ganz zu Schweigen.

Kommt ein Spiel verbuggt oder unfertig auf den Markt, heißt es dann immer: "Schlampig programmiert!". Natürlich schlampig programmiert, aber lag es wirklich an der Unfähigkeit der Coder oder an nicht einzuhaltende Vorgaben von Publishern oder Lead-Designern? Ich verweise nur auf LA: Noire, VTM: Bloodlines, Gothic 3 oder KoTOR2, neben vielen weiteren Beispielen. Die reinste Programmierhölle, z.T. gescheitert an den eigenen Ambitionen, weil sich die Designer verrannt haben, zum anderen an nicht sinnvoll einhaltbaren Vorgaben des Verlegers.
Da sind wir sogar mal einer Meinung.
 
Zuletzt bearbeitet von einem Moderator:
Zurück