Ab wann lohnen sich Thin Clients?

Also das hier ist keine wirkliche Kaufberatung, mich interessiert das Thema Thin Clients einfach.
Mal angenommen, ich habe 5 Computer über ein Gebäude verteilt, die von verschiedenen Menschen benutzt werden. Alle haben ihre eigenen Einstellungen und Daten und benutzen ab und an rechenaufwändigere Prozesse, um z.B. Programme zu kompilieren oder hochauflösende Videos zu schauen, ansonsten stehen aber nur "Bürotätigkeiten" an.
Jetzt könnte man ein schönes Applet mit Schieberegler machen, bei dem die vollkommene Dezentralisierung von Rechenkraft und gemeinsamer Daten bis hin zur vollkommen Zentralisierung auf einem rechenstarken Server (gibts da einen Fachbegriff?) mit Boot der Thin-Clients über das LAN, ohne eigene Festplatte, visualisiert wird. Übergangsstufen sind etwa das "Leihen" von freier Rechenkraft oder die zentralisierte Speicherung von Benutzer- und gemeinsamen Daten.
Irgendwo zwischen den beiden Extremen vermute ich ein oder mehrere Punkte mit maximaler Kosteneffizienz. Hängen diese Maxima sehr stark vom Szenario ab oder kennt ihr vllt. Richtlinien, z.B. dass es sich ab 19 PCs meistens lohnt, die Rechenkraft vollständig zu zentralisieren?

Als Grund dafür sehe ich steigende Hardwarekosten bei z.B. 16x 1GB-RAM statt 4x 4GB, das gleiche bei Festplatten, oder eine bessere Verteilung von Rechenkraft auf die Thin-Clients, z.B. durch die Verwendung von virtuellen Maschinen auf dem Zentralserver, wodurch Leistungsspitzen besser ausgeglichen werden könnten.

LG, Blackbird++

Edit: Mir fällt gerade auf, dass ich diese Frage hier schonmal vom Grafen beantwortet bekommen habe... ich denke aber dieser Thread ist dennoch ein eigenes Thema wert. :)
Edit2: Gutes Rechenbeispiel wären hier "Zero Clients", also ohne CPU, da dabei die Anzahl der Variablen geringer ist. Ich selber hab ja aber leider keine Ahnung.
 
Zuletzt bearbeitet:
Für reines Office, wo die Mitarbeiter alle Programme auf einem zentralen TErminalserver/Citrix nutzen koennten, wuerde ich in jedem Fall thin clients oder zumindest winzige Rechner/Atom mit flash, vorziehen.

Sobald aber richtig gerechnet werden muss, wie bei Grafikbearbeitung oder Coden, kann ich es nicht empfehlen da es immer Krieg um Ressourcen gibt.

Ein Nachteil bei Thin Clients bzw. zentralisierung ist natuerlich ein Ausfall. Hat die zentrale Maschine ein Problem, so kann mal schnell ne ganze Abteilung stehen.

Am besten listest Du die Fälle in einer Tabelle auf und spielst mit den Zahlen, wobei du eben Ausfaelle und Arbeitszeit mit Stunden kalkulierst.

Was sich rechnet und sicher/stabil ist, ist mE dann die beste Lösung, sofern sich das nicht auf Mitarbeiterfragen auswirkt.
 
Das müsstest du einfach mal statistisch auswerten und schauen, ob der Server so etwas leisten kann.

(Die Frage klingt wie von der IHK gestellt - nur ist deine weniger schwammig :D )
 
Die Frage klingt wie von der IHK gestellt - nur ist deine weniger schwammig :D
Weniger schwammig bedeutet - mindestens Schaumstoff? :D Ich weiß, die Frage ist ziemlich ungenau... aber ich erwarte ja auch keine genaue Antwort, sondern finds bloß interessant und bin neugierig, was ihr mir darüber erzählen könnt. Da hier, hoffe ich, viele Leute sind, die mehr Erfahrungen gemacht haben als ich und auch darüber quatschen wollen.

Hat jemand Erfahrungen mit diesen "Zero Clients" von Pano Logic? Hört sich ja ganz innovativ an.
Das müsstest du einfach mal statistisch auswerten und schauen, ob der Server so etwas leisten kann.
Die Frage ist: sollten nicht theoretisch n Clients mit der Leistung L/n immer insgesamt teurer sein als ein zentrales System mit der Leistung L?
 
Die Frage ist: sollten nicht theoretisch n Clients mit der Leistung L/n immer insgesamt teurer sein als ein zentrales System mit der Leistung L?

Also ich hab das Prinzip von ThinClients anderst verstanden.
Sie lohnen sich eigentlich eben dann, wenn der FatClient am Arbeitsplatz eben
praktisch nie ausgenutzt wird. Dadurch benötigt man eben nicht die n-fache
Rechenleistung auf dem Server, sondern gerade bei Bürosoftware eben nur einen Bruchteil,
um für den User keinen spürbaren Geschwindigkeitsverlust zu generieren.
Hier müsstest du wirklich die rechenaufwendigen Prozesse analysieren und im Blick
behalten ob das Netzwerk (Netzwerkkarte) nicht zum Flaschenhals wird.

Gruss
 
Zurück
Oben