Ist halt eine Laptop CPU und damit sowieso uninteressant.
Ist das so?
Mit so viel Chipfläche kann Apple Dinge machen, die mit einem begrenzteren Ansatz einfach nicht drin sind.
Das ist das was die Leute nicht verstehen; nur "boah; guck mal was die alles können". Das Apple so einen Chip aber eben gar nicht skalieren kann und im Gegensatz zu AMD / Intel nur kleinste Teilmärkte abgreift, sieht niemand und will lieber den Sensationsjournalismus feiern; Apple hat AMD / Intel überholt.
Niemals hat jemals nur eine/r die "schlechte Erweiterbarkeit" bemängelt.
Also in meiner Umgebung gibt es zwei Arten von Menschen; die einen lieben Apple und verteidigen es bis aufs Blut (diese Gruppe wird aber kleiner), die anderen hassen Apple und können dem ganzen nichts abgewinnen. Die, die Apple lieben sind komplett blind und sehen die Nachteile nicht, die einfach absolut immens sind. Die die Apple hassen, werden ja teilweise gesellschaftlich gezwungen diese Geräte zu nutzen, stellen dann aber immer wieder fest, dass es eben an drei Punkten hapert; Preis / Leistung, Erweiterbarkeit und Kompatibilität. Denn Apple bedeutet immer, dass man in einem sehr kleinen, nicht erweiterbaren Kosmos gefangen ist und von einem Spieler auf dem Markt abhängig ist.
Gamer sind schon ein eigenes skurriles Volk.
Das ist ähnlich wie mit Apple Usern; denen kann man auch bessere und günstiegre Lösungen vorschlagen, die sind ziemlich eingefahren (ich zähle mich nicht zu den Apple Usern, aber eben auch zum skurillen Volk)
So unterschiedlich können die Erfahrungen sein. In meinem Umfeld sind innerhalb der letzten 24 Monate 2 Leute von Apple zurück zu einem PC gewechselt. Genau aus dem von mir genannten Grund. Möchte man einen für sich akzeptablen Ram und Diskspace "Ausbau" haben werden die Dinger halt dreist teuer.
Ich glaube nicht, dass die Erfahrungen unterschiedlich sind, nur die finanziellen Lagen ändern sich gerade und da wird erstmal Luxus zurückgeschraubt und nichts anderes ist Apple nunmal. Habe letzten erst einen etwas größeren "Foto/Videografen" auf Windows zurück gebracht. Sind 14 Einzelplätze gewesen und es liefen noch M1 CPUs (ich weiß jetzt gar nicht welche); den hab ich mit einem EDVler verkuppelt der ihm Azure Cloud VMs gebaut hat, die lassen die Berechnungen jetzt über GPU Cluster laufen und mieten dort Zeit. Im 4K Bereich macht sich das schon bemerkbar, im 8K Bereich ist der Unterschied aber gigantisch, da liefen halt alle Apple Geräte sofort voll und haben nur noch gestottert; der GPU Cluster rechnet das halt in Bruchteilen durch. Im GPU Cluster wird dann eben auch Apples Paradedisziplin Speicherdurchsatz einfach mal so gekillt! HMB sei dank.
Im Fotobereich muss man aber sagen, selbst Hasselblad Anwender brauchen eigentlich nichts anderes als eine lokale Workstation und ein Tool mit GPU Unterstützung. Ob es dann Apple, Windows, Linus oder Cloud basiert ist, für die RealWorld Performance würde ich da keinen Unterschied sehen; maximal noch wenn man "Standard-Filter" auf eine große Anzahl an Fotos anwendet; was aber eher im Bereich der nachträglichen Digitalsierungen von Fotosammlungen der Fall sein dürfte und da kenne ich wenige Menschen die das machen lassen, weil Preis / Leistung da selten in Relation stehen.
Unser Fotograf kauft sich jedes Jahr einen neuen Mac.
Da sag ich dann mal; Einbildung ist auch ne Bildung.
Nach 8 Monaten war die Investition durch Gewinn amortisiert.
???
Hast du mal BWL studiert? Weil das so ein typischer Satz von BWLer sein könnte, die keine Ahnung von der Materie haben. Denn am Ende kann ein neuer 10k Laptop in 8 Monaten niemals 10k amortisieren. Die Berechnung ist nämlich ziemlich komplex und der Laptop müsste eben für 10k Gewinn (GEWINN; NICHT UMSATZ) mehr berechnen als der Vorgänger und das wird schon sehr schwierig.
Schau mal oben, das Zauberwort ist GPU Cluster und einmal damit gearbeitet und du weiß, dass Apple auch nur mit Wasser kocht und da nichtmal über 70° kommt! Vor allem wenn ich bedenke, dass man ja vermutlich nicht nur einen 10k Laptop anschleppt, sondern mehrere. Da würde ich mir lieber selber ein MI300X/H100 Cluster in den Keller stellen und die Berechnungen dort laufen lassen, wäre günstiger und schneller.
Zusätzlich konnte mein Arbeitgeber die Investitionskosten über die
jährliche Maschinenabschreibung (AfA) steuerlich begünstigt geltend
machen.
Tu dir einen gefallen und schreibe nichts irgendwo ab, wovon du keine Ahnung hast, danke!
Nach 5 Jahren kostete ihn das Ding genau 1 Euro.
???
1.) Die Abschreibedauer für PCs (Workstations, Desktop, Laptops) wurde auf 1 Jahre reduziert, nicht 5 Jahre
2.) Der verbleibende Euro ist nicht das was das Dingen gekostet hat, sondern ein "Erinnerungswert" in der Bilanz, da man dort alle noch vorhandenen Vermögensgegenstände bilanzieren muss.
ich bekomms halt geschenkt, nachdem abgeschrieben wurde und
eine neue 10.000 Euro-Kiste angeschafft wurde.
Das könnte man dann auch Steuerhinterziehung nennen, denn wenn du von deinem Arbeitgeber ein immer noch werthaltiges Gerät geschenkt bekommst, liegt Arbeitslohn vor. Werthaltig ist ein Gerät, wenn man am Tag der Schenkung damit noch mehr als 1 EUR als Verkaufspreis erzielen könnte.
Das IST generell der Fall.
NEIN!
Wir haben in den letzten Jahren eine sehr starke Wirtschaft gehabt, da war es der Fall, dass "Luxusgüter" gekauft wurden. Du wirst aber bereits jetzt merken, dass diese Zeit ersteinmal vorbei ist und Kaufentscheidungen auch in Unternehmen zunehmend auf Basis von Zahlen getroffen werden müssen.
Was Du dann ja bestimmt auch ganz brav als geldwerten Vorteil versteuerst, oder?
Gut das die Finanzverwaltung hier nicht mitliest
; oder?
Entsprechend wird der M4 Ultra dann oberhalb einer 4090 liegen.
???
Der M4 Max hat 5200 Punkte, gedoppelt (was selbst Apple nicht schafft, linear zu skalieren) würde der M4 Ultra bei 10.400 liegen, eine 4090 liegt aber bei 10.800. Aber aus dem M2 Ultra abgeleitet, skaliert das eben nicht zu 100% sondern zu 77,45%; sprich ein potenzieller M4 Ultra würde bei 9.200 Punkten liegen.
Bereits der M2Ultra hat nach meinem Kenntnisstand wenig Anklang gefunden, da die theoretische Rechenleistung zwar enorm war, er aber dank der Verbindung untereinander viele Nachteile mit sich brachte und so seine theoretische, synthetische Leistung nur selten auf die Straße brachte. Ein Viererverbund wird davon noch stärker betroffen sein, fraglich ob das Sinn macht.
Am Ende sind wir hier alle in einer Blase unterwegs, Apple, Gamer und so weiter. Wir entfernen uns aber zunehmend vom alltäglichen Umfeld, wo Rechenleistung zusehends unwichtiger wird. Denn OnPremise Lösungen sterben gerade und bei Apple habe ich Sorge, dass die das verschlafen. Aktuell sehe ich die Gamingniesche, wo viel Hardwareleistung on Premise gebraucht wird, vieles andere kann ich meines Erachtens nach viel besser und günstiger, dazu planbarer und beliebig skalierbar in die Cloud schieben.