Web-basierte OS? Hui oder Pfui?

Was haltet ihr von Web-basierten OS', bzw. Applikationen?

  • Chrome OS & Co. sind die Zukunft!

    Abstimmungen: 1 7,7%
  • Sind vielleicht für einen Teil der Benutzer attraktiv.

    Abstimmungen: 4 30,8%
  • Bleibt ein nettes Feature für ohnehin Standalone-Apps (z.B. Word im Browser und auf dem Client)

    Abstimmungen: 2 15,4%
  • Das ist ein Hype der vorrübergeht.

    Abstimmungen: 5 38,5%
  • Bah! Viel zu langsam, ineffizient und hardwarefern!

    Abstimmungen: 1 7,7%

  • Anzahl der Umfrageteilnehmer
    13

ntor

Stammuser
#1
Hallöchen!

Was sagt ihr zu pur Web-basierten Betriebssystemen?
Ist Chrome OS Vorreiter oder Verschwendung von Entwicklungskosten?
Wird die Qualität der (Web-)Apps besser oder erhöht sich die Anzahl von Trash-Entwicklungen?
Entwickelt ihr lieber fürs Web, bzw mit HTML, CSS & Co., oder doch für Stand-alone PC-Applikationen in traditionallen Sprachen?
Und vorallem: Was findet ihr angenehmer, cooler, schöner und produktiver?

LG ntor
 
Zuletzt bearbeitet:

CDW

Moderator
Mitarbeiter
#2
Hm, Terminal/Thinclient/Virtualisierungs-Konzept neu aufgegossen?

Ein "Web-basierendes OS" ist imho nix anderes als eine schöne Wortzusammenstellung ;).
Wir haben auch in diesem Fall eine VM (Browser) mit vordefinierten Schnittstellen (für Anwendungsentwickler) und einer zum Betrieb notwendigen Anbindung an ein "Mainframe".

Die Vor und Nachteile bleiben die gleichen:

+ Leistung bei Bedarf => Enegrieeffizienz
+ keine teure Hardware nötig
+ immer und überall gleiche Umgebung, einfacher Betrieb

- keine Kontrolle über eigene Daten
- permanente I-Net Verbindung nötig
- nur vordefinierte Anwendungen, grafikintensive Apps problematisch

Entwickelt ihr lieber fürs Web, bzw mit HTML, CSS & Co., oder doch für Stand-alone PC-Applikationen in traditionallen Sprachen?
Ändert sich da wirklich was? Statt Qt/GTK/wxWidgets & Co hat man dann HTML/CSS mit dem Browser. Das Backend wird man trotzdem in irgendeiner Sprache (Python & Co) entwickeln müssen. Und Portierung bestehender Anwendungen nach JS stelle ich mir doch etwas mühselig vor ;).

Wobei: auch das ist an sich nix neues - früher (zumindest als ich mir solche Sachen noch gekauft habe - Ende 90ger, Anfang 2000) war es bei Spiel/ZeitschriftenCDs durchaus üblich, den Inhalt mittels eine Anwendung zu präsentieren, die auf HTML, VBS/JScript und InternetExplorer aufsetzte.

Wird die Qualität der (Web-)Apps besser
Hm, warum? Bei HTML&Co muss man für GUIs ziemlich "weit unten" ansetzen, um ein Desktop-Feeling hinzubekommen (Bsp: Drag/Drop, Editfelderverhalten oder gar Eingabevorschläge/vervollständigung).
Aktuell haben wir im Web ziemlich viele Seiten, die "Desktopguis" nachbilden - und zwar so, wie es der jeweilige Entwickler für richtig hält (und meist dem User aufzwingt) :rolleyes: .

GUI-Richtlinien könnten da eine Abhilfe sein. Allerdings mögen es die Poweruser trotzdem, ihre GUIs/Fenstermanager anzupassen (manch einer schwört auf tiling, der andere möchte "focus follows mouse" oder C&P mit der mittleren Maustaste haben usw.). Diese User bilden dann die 1-3% der Gesamtnutzerschaft und werden wohl eher ignoriert.

Gut, das sind keine unüberwindlichen Hürden und können mit einem anständigen Framework gelöst werden.

Es bleiben aber einige Fragen:
Wer kontrolliert meine Daten?
Wie finanziert sich das ganze? Und was passiert mit meinen Daten, wenn der Hersteller nach ein paar Jahren keine Lust mehr hat?
Wie schaut es mit der Sicherheit aus? Bei einer Lücke können dann quasi die gesamten Daten abgegriffen werden - wer haftet dann?
"Qualitäts/Spyware" Kontrolle der Apps?

Und nicht zuletzt:
So ein "Web-OS" entmündigt den User komplett - man hat ein Gerät, auf dem man nur das machen kann, was der Hersteller erlaubt (gut, das hat man bereits mit Smartphones/Tablets, aber möchte man das auch auf dem Desktop haben?).
Während man bei einem "normalen" Desktop (i.d.R) OS, Browser/Software, Internetzugangsanbieter und jeweilige Webdienste selbst bestimmen (und getrennt voneinander halten) kann, ist man bei einem "Web-OS" auf einen Anbieter (und seine Gutwilligkeit) angewiesen. SSH/VPN &Co lassen sich wunderbar aushebeln - entweder von dem Anbieter selbst oder von einer "bösartigen" App. "Bösartiges" Verhalten wird man auch nicht feststellen können - dafür hat man schlicht keinerlei Möglichkeit. Passwörter und private Schlüssel - alles liegt "irgendwo in der Wolke".
Das weckt Begehrlichkeiten - und das führt früher oder später dazu, dass diesen nachgegeben wird.
 

bluez

Member of Honour
#3
Ich hab das Konzept nie so ganz verstanden, aber jetzt kannst du es mir ja erklären. Das ist doch exakt dasselbe, wie es früher, als es den PC noch nicht gab, Standard war. Ich hab einen hochparallelen Großrechner an den ich meine Terminals anbinde und so vielen Benutzern in einem überschaubaren Bereich Zugriff biete.

+ Leistung bei Bedarf => Enegrieeffizienz
Mein Rechner taktet CPU und GPU runter, wenn er die Leistung nicht braucht. Bei manchen Modellen werden gar Kerne abgeschaltet. Inwiefern unterscheidet sich das im Verbrauch zu einem Großrechner, der Bestenfalls dieselbe Mechanismen kennt? Stattdessen geht sogar noch Strom für den Datentransport (Signalverstärkung mindestens) drauf.
Und das ist ein weiterer wichtiger Punkt: Zu den unzähligen potentiellen Flaschenhälsen (Busse, Latenzzeiten) im normalen Rechner, kommt jetzt ein viel engerer Flaschenhals: Die Internetverbindung. Durchsatzraten, Verzögerungen durch lange Transportwege, Paketverlust etc.. Ich verstehe wirklich nicht, wie das ordentlich Funktionieren soll. Früher waren die entsprechenden Netzwerke klein und sehr lokal. Zudem brauchten die Anwendungen keine so großen Durchsatzraten, wie heute.
 

CDW

Moderator
Mitarbeiter
#4
Mein Rechner taktet CPU und GPU runter, wenn er die Leistung nicht braucht. Bei manchen Modellen werden gar Kerne abgeschaltet. Inwiefern unterscheidet sich das im Verbrauch zu einem Großrechner, der Bestenfalls dieselbe Mechanismen kennt?
Reden wir über die (teueren) MobileCPUs? Sonst fressen die üblichen DesktopCPUs im idle immer noch immens viel (50-60 Watt, so ganz ohne GPU/Monitor etc. sind afaik durchaus üblich - vs 6-8 Watt inklusive Display bei einem Notebook). Inbesondere würde ich hier "manche" betonen - die meisten Leute suchen sich die Kisten nicht nach Energieeffizienz aus. Es muss billig und "potent" sein :rolleyes:

Zudem: bessere Skalierung - bei Bedarf kann i.d.R viel mehr Leistung hinzugeschaltet werden, als man üblicherweise unter dem Schreibtisch hat.
Und vor allem: wenn man diese Leistung nicht braucht, wird sie (im Idealfall) von anderen verbraucht oder komplett abgeschaltet - steht aber nicht "blöd" unter dem Tisch 'rum ;). Schließlich brauchen CPUs und andere Komponenten auch Enegrie zur Herstellung.

Verzögerungen durch lange Transportwege, Paketverlust etc.. Ich verstehe wirklich nicht, wie das ordentlich Funktionieren soll. Früher waren die entsprechenden Netzwerke klein und sehr lokal. Zudem brauchten die Anwendungen keine so großen Durchsatzraten, wie heute.
Glaub' mir - es funktioniert ;).
Bevor Gaikai (vor 8-9 Monaten) aufgekauft und abgeschaltet wurde, konnte man sich davon selbst überzeugen ;)
Das aktuelle FarCry auf 'nem alten Schlepptopp (800Mhz, on-board 950GMA und 2GB RAM)? Lief ganz gut, trotz "nur" 10k "Standardtelekomleitung".
Ebenso andere grafiklastige Spielchen.
Und welche immensen Durchsatzraten brauchen die Anwendungen? Meist doch "fertiggerechnete" Daten für den aktuellen Output. Vielleicht sollte man den X11-Forwarding-Traffik/Problemchen nicht als das Maß der Dinge betrachten ;)

Im übrigen funktioniert das Konzept mit Online-Spielen (ohne Online-Rendering) schon länger ganz wunderbar - obwohl diese meist auch nicht weniger empfindlich ggü. Packetverlust/Verzögerungen sind, als sonstige Anwendungen ;).
 

ntor

Stammuser
#5
So ein "Web-OS" entmündigt den User komplett - man hat ein Gerät, auf dem man nur das machen kann, was der Hersteller erlaubt (gut, das hat man bereits mit Smartphones/Tablets, aber möchte man das auch auf dem Desktop haben?).
Entmündigt sind die "normalen User" doch schon längst, wenn sie bspw. zu Apple greifen. Die immer beliebteren MACs sind fertige Komplettpakete, die fast alle Standard-Abläufe abdecken. Aus dieser "Apple-Sandbox" auszubrechen ist nicht ganz ohne, weshalb die meisten sich dann im vorgegebenen Rahmen bewegen.
Benutzer wollen keine Mündigkeit. Sie wollen ein schickes und schnelles System. Und das wäre durch Web-OS mit ihren stärker ausgeprägten Design-Möglichkeiten leichter umzusetzen.
 
#6
Die immer beliebteren MACs sind fertige Komplettpakete, die fast alle Standard-Abläufe abdecken. Aus dieser "Apple-Sandbox" auszubrechen ist nicht ganz ohne, weshalb die meisten sich dann im vorgegebenen Rahmen bewegen.
Immer wieder herrlich Urteile über Macs von Nicht-Mac-Usern zu lesen. Ich glaube du verwechselst hier was mit iOS und das entmündigt den User nicht wirklich weniger als Android. User tun sich immer schwer ihr System zu wechseln, weil sie zumeist irgendwelche Programme nutzen, die es nur unter diesem System gibt und eine Umgewöhnung zeitaufwendig ist und weil sie oft nicht einmal wissen wo ihre Daten sich auf dem Rechner befinden (d.h. in welchen Ordnern). Die User entmündigen sich in den meisten Fällen also selbst. Würden sie sich mit der Technik, die sie nutzen, auseinandersetzen, wären auch Datenumzüge kein Problem. Die vermeintliche Apple-Sandbox "iCloud" speichert Kopien der dort abgelegten Dokumente nämlich auch lokal auf der Platte. Man muss nur wissen wo. Wer seinen Mac kennt, der kann mit seinen Daten genauso auf ein anderen System umziehen, wie es bei jedem FreeBSD auch der Fall ist.

Da aber Deutschland nicht das Maß der Dinge ist, wo persönliche Daten nicht gern irgendwelchen Providern überlassen werden, denke ich, dass es durchaus Teile in der Welt geben wird, wo sich webbasierte Systeme durchsetzen können. Gerade in Firmen kann es relativ aufwendige Infrastrukturen ersparen, die sonst für das gemeinsame Bearbeiten von Dokumenten u.ä. bereit gestellt werden müssen. Insofern könnten gerade im Office-Bereich solche Systeme durchaus Fuss fassen. Für Privatanwender wird es vorerst uninteressant bleiben, da der Ausbau mobiler Netze zu schlecht und ihre Nutzungskosten zumindest hierzulande noch zu hoch sind und mobile Geräte befinden sich im privaten Anwendungsbereich mehr und mehr auf dem Vormarsch. Weitere mögliche Marktnischen sehe ich bei Internet-Cafes und sonstigen Bereichen mit öffentlichen Computern, da dort Wartungskosten eingespart werden können und die User hätten überall die gleichen Daten zur Verfügung.
 

Chromatin

Moderator
Mitarbeiter
#7
Die Frage ist zu indifferent und erweckt den Eindruck als wuerde die IT Landschaft nur aus Konsumvieh bestehen die sich auch noch einbildet eine solche Frage kompetent beantworten zu koennen.

Und Danke an CDW für die Mühe der Differenzierung und Erleuchtung.
 
#9
Ändert sich da wirklich was? Statt Qt/GTK/wxWidgets & Co hat man dann HTML/CSS mit dem Browser. Das Backend wird man trotzdem in irgendeiner Sprache (Python & Co) entwickeln müssen. Und Portierung bestehender Anwendungen nach JS stelle ich mir doch etwas mühselig vor ;).
Die Technology ist schon da. LLVM / Emscripten / asm.js können LLVM-Bytecode von C/C++ nach JavaScript übersetzen und mit fast nativer Geschwindigkeit ausführen.

Sogar Qt läuft per Emscripten/JavaScript im Browser (ist nicht asm.js optimiert): http://vps2.etotheipiplusone.com:30176/redmine/projects/emscripten-qt/wiki/Demos


Epic Games' Unreal 3 Engine läuft auch schon im Browser. Die Industrie setzt sehr viel daran, mehr Möglichkeiten über das Web zu schaffen.

Es gibt allerdings noch einige Probleme:
- Der Content muss bislang immer wieder neu geladen werden (1GB neuladen)
- Die verfügbaren C/C++-Bibliotheken müssen noch ordentlich in Firefox integriert werden (WinRTC ist zum Beispiel TCP/IP-Bibliothek-Ersatz). Derzeit hat WinRTC jedoch 100ms Latenz im lokalen Netzwerk

Ich möchte kein OS als Browser, aber mehr OS-Anwendungen im Browser. Damit wird man sehr viele Kunden erreichen können.
 

Chromatin

Moderator
Mitarbeiter
#10
@ntor
Entmündigt sind die "normalen User" doch schon längst, wenn sie bspw. zu Apple greifen. Die immer beliebteren MACs sind fertige Komplettpakete, die fast alle Standard-Abläufe abdecken. Aus dieser "Apple-Sandbox" auszubrechen ist nicht ganz ohne, weshalb die meisten sich dann im vorgegebenen Rahmen bewegen.
Das ist eine generelle Entwicklung und sie ist gar nicht mal neu. Und da sehe ich den Mac ueberhaupt nicht, sondern viel mehr den Markt für mobiles Gerät.


Da moechte ich gerne diesen Beitrag auf unserem Blog empfehlen: Freiheit im Internet
 
Oben