Also das hier ist keine wirkliche Kaufberatung, mich interessiert das Thema Thin Clients einfach.
Mal angenommen, ich habe 5 Computer über ein Gebäude verteilt, die von verschiedenen Menschen benutzt werden. Alle haben ihre eigenen Einstellungen und Daten und benutzen ab und an rechenaufwändigere Prozesse, um z.B. Programme zu kompilieren oder hochauflösende Videos zu schauen, ansonsten stehen aber nur "Bürotätigkeiten" an.
Jetzt könnte man ein schönes Applet mit Schieberegler machen, bei dem die vollkommene Dezentralisierung von Rechenkraft und gemeinsamer Daten bis hin zur vollkommen Zentralisierung auf einem rechenstarken Server (gibts da einen Fachbegriff?) mit Boot der Thin-Clients über das LAN, ohne eigene Festplatte, visualisiert wird. Übergangsstufen sind etwa das "Leihen" von freier Rechenkraft oder die zentralisierte Speicherung von Benutzer- und gemeinsamen Daten.
Irgendwo zwischen den beiden Extremen vermute ich ein oder mehrere Punkte mit maximaler Kosteneffizienz. Hängen diese Maxima sehr stark vom Szenario ab oder kennt ihr vllt. Richtlinien, z.B. dass es sich ab 19 PCs meistens lohnt, die Rechenkraft vollständig zu zentralisieren?
Als Grund dafür sehe ich steigende Hardwarekosten bei z.B. 16x 1GB-RAM statt 4x 4GB, das gleiche bei Festplatten, oder eine bessere Verteilung von Rechenkraft auf die Thin-Clients, z.B. durch die Verwendung von virtuellen Maschinen auf dem Zentralserver, wodurch Leistungsspitzen besser ausgeglichen werden könnten.
LG, Blackbird++
Edit: Mir fällt gerade auf, dass ich diese Frage hier schonmal vom Grafen beantwortet bekommen habe... ich denke aber dieser Thread ist dennoch ein eigenes Thema wert.
Edit2: Gutes Rechenbeispiel wären hier "Zero Clients", also ohne CPU, da dabei die Anzahl der Variablen geringer ist. Ich selber hab ja aber leider keine Ahnung.
Mal angenommen, ich habe 5 Computer über ein Gebäude verteilt, die von verschiedenen Menschen benutzt werden. Alle haben ihre eigenen Einstellungen und Daten und benutzen ab und an rechenaufwändigere Prozesse, um z.B. Programme zu kompilieren oder hochauflösende Videos zu schauen, ansonsten stehen aber nur "Bürotätigkeiten" an.
Jetzt könnte man ein schönes Applet mit Schieberegler machen, bei dem die vollkommene Dezentralisierung von Rechenkraft und gemeinsamer Daten bis hin zur vollkommen Zentralisierung auf einem rechenstarken Server (gibts da einen Fachbegriff?) mit Boot der Thin-Clients über das LAN, ohne eigene Festplatte, visualisiert wird. Übergangsstufen sind etwa das "Leihen" von freier Rechenkraft oder die zentralisierte Speicherung von Benutzer- und gemeinsamen Daten.
Irgendwo zwischen den beiden Extremen vermute ich ein oder mehrere Punkte mit maximaler Kosteneffizienz. Hängen diese Maxima sehr stark vom Szenario ab oder kennt ihr vllt. Richtlinien, z.B. dass es sich ab 19 PCs meistens lohnt, die Rechenkraft vollständig zu zentralisieren?
Als Grund dafür sehe ich steigende Hardwarekosten bei z.B. 16x 1GB-RAM statt 4x 4GB, das gleiche bei Festplatten, oder eine bessere Verteilung von Rechenkraft auf die Thin-Clients, z.B. durch die Verwendung von virtuellen Maschinen auf dem Zentralserver, wodurch Leistungsspitzen besser ausgeglichen werden könnten.
LG, Blackbird++
Edit: Mir fällt gerade auf, dass ich diese Frage hier schonmal vom Grafen beantwortet bekommen habe... ich denke aber dieser Thread ist dennoch ein eigenes Thema wert.

Edit2: Gutes Rechenbeispiel wären hier "Zero Clients", also ohne CPU, da dabei die Anzahl der Variablen geringer ist. Ich selber hab ja aber leider keine Ahnung.
Zuletzt bearbeitet: