Wird Software immer schlechter?

Den OSS Gemeinden laufen schlichtweg die Entwickler weg, bzw werden von grossen Softwareschmieden eingekauft.

Und der Programmierernachwuchs ist im Durchschnitt eher bescheiden.
Die Leute, die dann gute Abgaenge an Hochschulen und somit gute Chancen haben, setzen sich nicht mehr hin und frickeln OSS zusammen.

Mir ist "schlechtere" Software eher im Desktopbereich aufgefallen. Was Serverseitiges angeht finde ich eher, dasz alles hochwertiger wird.

Für die namhaften Hersteller mag das stimmen. Allerdings wundere ich mich immer über, vor allem Branchen- und Nieschensoftware die mir vorgesetzt wird, die jeder Beschreibung strotzen. Es gibt offenbar immer mehr Softwarefirmen im "Mittelstandsbereich", die mit grauenhaftem Halbwissen, Grauenhaftes tun und dabei offenbaren, dass Sie nicht wissen wie man bestimmte Probleme elegant löst.

Kaum sagt man hier was, kommen die "Schwätzer" aus dem Gebüsch, und reden alles schön, alls wäre alles eine Droge.

Da Sie in Ihrem tiefsten Inneren ahnen, dass Ihr Treiben am Rande der Albernheit rangiert, kompensieren Sie Ihr schlechtes Gewissen mit einem besonders selbtsherrlichen Auftritt.:wink:
 
Das Update von 9.04 nach 9.10 war aber eine Katastrophe. Kommentare in der /etc/fstab, die nicht als Kommentare eingefügt wurden und somit das ganze System lahm gelegt haben. Dann noch einige andere Bugs usw.

Also ich kann das nicht bestätigen, immer wenn bei mir ein Bug auftrat in Ubuntu, war der in der nächsten Version weg. Oder es wurde stabiler, oder irgendwas. Für mich war bisher jede Ubuntu-Version eine Bereicherung. Einen PC habe ich von 9.04 auf 9.10 geupgraded, auf einen Laptop gleich 9.10 installiert, beides problemlos.

Zum Thema: Ja, Open Source Software wird immer schlechter. Ich entwickel derzeit an zwei wirklich kleinen Open Source Projekten, bei denen ich aber auch bestätigen kann: Es fehlt an Beta-Testern. Ich habe hier einen Rechner mit Dualboot WinXP/Ubuntu 64bit und einen Laptop mit Ubuntu 32bit. Beide natürlich im Rahmen von Programmierarbeiten durch zahllose libraries und was weiß ich nicht alles "vorbelastet". Ich weiß also nicht, wie meine Software auf einem 08/15-System aussieht. Ich kenne schon ein paar Leute, denen ich das dann schicken kann, aber dann bekomme ich zurück "DAS TUT NICHT!" und maximal noch einen Screenshot mit der Fehlermeldung "Es ist ein Fehleraufgetreten", die das try...except geworfen hat. Das hilft wenig. Und wenn man dann meint, jetzt funktioniert das Programm, es jemandem schickt und nichts geht dann ist das auch nicht gerade motivierend.
 
Hilft das denn auch was? Bei Fedora hab ich das nicht so verfolgt, aber bei Axis wars z.B. so, daß die Bugs meiner Meinung nach vollkommen falsch priosiert haben und man deshalb auf Fixes ewig warten.

Wir sind um jeden Bug froh den du eingibst - es dauert zwar ab und an bis er gefixt ist, aber wenn er nicht in bugzilla ist, wird er gar nicht gefixt. Ausser er kommt durch einen upstream Fix rein.

Wegen den fehlerhaften Fehlerübersetzungen - wir haben genau aus diesem Grund angefangen unsere Systeme auf Englisch laufen zu lassen. Du findest mit der orginale englischen Fehlermeldung meistens mehr als mit der deutschen Übersetzung davon.
 
Ich halte bei Fehlermeldungen/Runtime Exceptions immer noch einen Verweis auf eine Supportseite mit einem Fehlercode am sinnvollsten. Dort kann man aktuelle Lösungen anbieten, User können ihre Erfahrungen mit dieser Art von Fehler schildern und erfolgreiche Behebungen dokumentieren. Außerdem verstehen das selbst Laien.
 
Mir ist auch aufgefallen, dass die "großen" OpenSource-Projekte wie z.B. OpenOffice zunehmend ueberladen und instabil werden.
Z.B. an Ubuntu kann man das sehr schoen sehen... Ubuntu 6.06 aka "Dapper Drake" war ein super OS. Die aktuelle Version 9.10 kann man meiner Meinung nach in die Tonne kloppen...

Mir scheint, als ob die "Benutzerfreundlichkeit" inzwischen total uebertrieben wird. Es wird versucht dem User ueberall so viele Entscheidungen wie moeglich abzunehmen, wodurch sich jemand der sich eigentlich mit der Software auskennt oft ziemlich verarscht vorkommt... Man muss immer erst 500 "Features" abschalten, bevor man endlich mal einigermassen vernuenftig mit der Software arbeiten kann. Dies gilt sowohl fuer Open- als auch fuer Closed-Source...


OT:
Der Vergleich "Closed- vs. Open-Source" ist meiner Meinung nach aber auch vollkommen unangebracht.

OpenSource-Projekte sind schliesslich i.d.R. "Freizeit-Projekte".
Jemanden zu finden, der einen dafuer bezahlt ein stueck Software zu produzieren, dass mit hoher Wahrscheinlichkeit nichtmal die eigenen Kosten decken, geschweige denn Gewinn einbringen wird, ist nunmal nicht gerade einfach...

Du kannst von solchen Projekten nicht erwarten, dass sich ihre Arbeit auf dem gleichen "professionellen Niveau" befindet, wie komerzielle Software.
 
Zuletzt bearbeitet:

OpenSource-Projekte sind schliesslich i.d.R. "Freizeit-Projekte".
Jemanden zu finden, der einen dafuer bezahlt ein stueck Software zu produzieren, dass mit hoher Wahrscheinlichkeit nichtmal die eigenen Kosten decken, geschweige denn Gewinn einbringen wird, ist nunmal nicht gerade einfach...


Das stimmt natürlich grundsätzlich, aber gerade im Falle von Apache-Projekten kann ich den Qualitätsverfall trotzdem nicht verstehen. Die haben eigentlich einen verdammt guten Ruf zu verlieren. Von der Ehre eines Programmieres will ich mal gar nicht reden.

Orniflyer hat gesagt.:

Ich halte bei Fehlermeldungen/Runtime Exceptions immer noch einen Verweis auf eine Supportseite mit einem Fehlercode am sinnvollsten.

Finde ich jetzt eigentlich nicht. Mich würde es furchtbar ärgern wenn ich wegen jeder Kleinigkeit (Division durch 0; Strichpunkt vergessen; ...) erstmal ins Internet müsste um mir dann eine anständige Fehlermeldung abzuholen. Sowas macht ja Oracle recht gerne. Im Endeffekt steht dann meistens auch nichts wirklich hilfreiches.
 
Finde ich jetzt eigentlich nicht. Mich würde es furchtbar ärgern wenn ich wegen jeder Kleinigkeit (Division durch 0; Strichpunkt vergessen; ...) erstmal ins Internet müsste um mir dann eine anständige Fehlermeldung abzuholen. Sowas macht ja Oracle recht gerne. Im Endeffekt steht dann meistens auch nichts wirklich hilfreiches.
Man darf dem Fehler natürlich trotzdem einen Namen neben dem Fehlercode geben ;)
wenn da irgendein normalfehler im sinne von 'division durch 0', 'index außerhalb des arrays' oder 'unerwarteter variablentyp' ... rumkommt dann kann man als fortgeschrittener Software Entwickler auch oftmals vermuten worans nun gelegen hat, ggf. an einer eigenen Usereingabe o.ä.

Aber zur effektiven Fehlerbehebung kenne ich keine bessere Variante.
Ich hätte mich schon des öfteren gefreut wenn die fehlermeldung mich auf eine supportseite geleitet hätte. Sich durch Foren zu kämpfen wo die Antworten oftmals von Leuten stammen die mit entsprechender Software/Hardware kaum was am Hut haben. Eine Sammelstelle des Entwicklers wo User mit exakt diesem spezifischen Problem eine kleine einfache Diskusionsplattform hätten wär perfekt. Auf diese Art würden mal ganz nebenbei die Entwickler auch effizienter Fehlerbehebung durchführen können.
 
Software wird nicht immer schlechter, sondern immer komplexer, da die Ansprüche der Anwender steigen. Mit der Komplexität erhöht sich auch die Wahrscheinlichkeit für Fehler signifikant. Durch die Fülle von Funktionalitäten und deren Verknüpfungen miteinander, ist es auch ziemlich schwierig und aufwendig umfangreiche Software bis in's Detail zu testen. Ausserdem bestehen die meisten Projekte/Programme schon seit Jahren und werden fortwährend weiterentwickelt, wodurch es immer mehr Code-Abschnitte gibt, die seit längerem kein Programmierer mehr eingesehen hat, so dass viele Seiteneffekte von Änderungen, die sich erst in irgendwelchen Unterfunktionen auswirken, garnicht erst bemerkt werden.
 
Hallo,
Also ich kann das nicht bestätigen, immer wenn bei mir ein Bug auftrat in Ubuntu, war der in der nächsten Version weg. Oder es wurde stabiler, oder irgendwas. Für mich war bisher jede Ubuntu-Version eine Bereicherung. Einen PC habe ich von 9.04 auf 9.10 geupgraded, auf einen Laptop gleich 9.10 installiert, beides problemlos.
Also mit Ubuntu 9.04 war ich sehr zufrieden. Das Update war für mich aber eine Katastrophe. Konnte (sowie einige andere auch) mit dem aktuellen Kernel nicht mehr booten (da jemand ein # in der fstab vergessen hatte), bzw. mir wurde beim boot gesagt, dass die Partition nicht eingebunden werden kann (nutze LVM+cryptsetup).
Mit dem alten Kernel konnte ich komischerweise problemlos booten, nur ging dort auf einmal der Grafikkartentreiber nicht mehr und es war unerträglich lagsam. Surfen unmöglich.
Nachdem ich dann endlich fstab gefixt hatte, ging mein wLan nicht mehr. Schon ätzend wenn man nur einen Laptop hat und auf wLan angewiesen ist. Musste also unter Windows googlen, dann Ubuntu booten und das probieren.

Nun läufts, allerdings sind da noch einige Probleme. Bsp. wenn beim Mounten von Partitionen nach dem root-PW gefragt wird, geht das Passwort-Feld nach der Eingabe weg, das Fenster bleibt aber weiterhin offen und man muss es per Klick auf X schließen. Ebenso habe ich Problem mit ein paar Icons (z.B. FF), die nicht mehr angezeigt werden.
Alles verschmerzbar, dass ich aber nach dem Update nicht mehr booten konnte war sehr ätzend und hat ne Menge Zeit gekostet.

Wenn man neu installiert mag es evt. anders sein. Aber war mit Ubuntu 9.04 super zufrieden. Überleg es mir aber nun doppelt, ob ich auf 10.05 (04?) dann updaten soll, bei 9.10 bleiben werde oder den Laptop ganz neu aufsetze. Denn eins was ich überhaupt nicht leiden kann, sind Probleme mit meinem Computer.



Und natürlich wird Software immer größer/umfangreicher. Die Computer werden i.d.R. schneller, so dass man weniger Zeit aufwenden muss, um schlanken und performanten Code zu schreiben.

Was ich empfehlen kann, ist nicht immer die neuste Version zu nutzen. Auf meinem alten WinXP Rechner (5+ Jahre alt), hatte ich z.B. noch Acrobat Reader 5 installiert, da die neuen Version (Adobe Reader 9) einfach vieeeeeel zu langsam sind. Und mit der alten Version bin ich vollkommen zufrieden, kann damit PDF lesen, was will ich mehr?

Und ebenso bin ich Fan von 'Eckiger'-Software. Kann mich mit dem neuen Style, wo alles rund ist, nicht wirklich anfreunden. Hatte unter XP Classic-Style aktiviert, nutze noch Word 2000, da es für mich bedienerfreundlicher als z.B. Office 2007 ist.


Also nicht immer die neuste Software verlangen. Mit älterer Software (Adobe Reader, Office etc.) fährt man meines erachtens auch sehr gut.



Und kommerzielle Software muss nicht unbedingt immer besser sein. Es gibt auch viel Drecks-Software auf dem Markt, die mit teuren Service-Verträgen ausgeliefert werden. Beispielsweise bei Spezialsoftware für z.B. Arztpraxen. Oder Software die unter großen Zeitdurck geschrieben wurde, z.B. Diebold voting machines.
Das Problem an OpenSource ist teilweise fehlenden Strukturen und Absprachen (jeder spielt am Source rum, ohne klar zu kommunizieren wer was gemacht hat) sowie auch das Können der Entwickler.
Die ersten veröffentlichten Programme im Leben eines Programmierers sind doch oft OpenSource. Sprich, es finden sich auch viele Programmierer, die noch nicht die notwendigen Fähigkeiten erlangt haben.

Ich merke es selber gerade an einem Software-Projekt hier an der Uni, wie schlechte Kommilitonen die Qualität ganz erheblich nach unten drücken kann, wozu schlechte Kommunikationen führen kann usw.
Ist gar nicht so einfach das gemanagt zu bekommen.

Aber davon mal abgesehen gibts auch wirklich gute OpenSource Software. Hatte bisher nie Probleme mit Firefox und Thunderbird, beispielsweise.
 
Also nicht immer die neuste Software verlangen. Mit älterer Software (Adobe Reader, Office etc.) fährt man meines erachtens auch sehr gut.
...
Aber davon mal abgesehen gibts auch wirklich gute OpenSource Software. Hatte bisher nie Probleme mit Firefox und Thunderbird, beispielsweise.

Oh, ich auch nicht, bis Thunderbird 3 rauskam. Jetzt nutze ich wieder Evolution.
 
bis Thunderbird 3 rauskam
Warum? Ich finde es bisher knorke, allerdings auf Win. :)

Also nicht immer die neuste Software verlangen. Mit älterer Software (Adobe Reader, Office etc.) fährt man meines erachtens auch sehr gut.

Ja, das mache ich auch gerne. Aber ich stoße mittlerweile immer wieder an 2 Probleme:
1) Kompatibilität
2) Verfügbarkeit (man sucht sich manchmal die Finger Wund nach alten Versionen) und die externen HDDs füllen sich immer weiter :(
(ein Glück, dass die VMWare Jungs da gnädig waren und die V1 noch zum DL anbieten)

lG

Brabax
 
Also ich gehöre eher andersrum zur "Bleeding Edge" Nutzerschaft ... allerdings sind Argumente beider Seiten vernünftig.


Bei Software welche ich unterstützen möchte, wie mein aktuelles Beispiel GIMP, hole ich mir gerne beta versionen von der 64-bit Variante o.ä. um mögliche Bugs zu berichten. Natürlich hat das schon gelegentlich zu Problematiken geführt aber im Allgemeinen denke ich ist es wichtig das diese Dinge von irgendwem getestet werden, und wenn man's selbst nicht tut, wer dann ?

Bei nem OS nehm ich allerdings ungern nicht stabile builds, verständlicherweise.


Was alte Software angeht, eine interessante Geschichte hab ich da zu erzählen:
Ich studiere Angewandte Systemwissenschaft, wir beschäftigen uns mit Modellierung und Optimierung dynamischer Systeme. Nun, das ist vom mathematischen Standpunkt etwas sehr komplexes. Haufenweise Differentialgleichungen, irrwitzige Anzahlen an beeinflussenden (auch dynamischen) Parametern/Variablen und oftmals alles andere als überschaubare Zusammenhänge, machen es einem alles andere als leicht.

Worauf ich hinaus will, ohne eine Software die uns da unterstützt, wären wir quasi komplett aufgeschmissen. (Weswegen ein sehr großer Teil des Studiums nunmal auch informatischer Natur ist) Und der Knaller ist, die beste Software die es hierfür gibt (Powersim), die wir verwenden, wurde 1993-1999 entwickelt, ist somit 10 Jahre alt.
(Zumindest die Versionsreihe die wir verwenden, es gibt neue Versionen, aber die sind nunmal vom Funktionsaspekt für unsere Zwecke recht inakzeptabel)

Und sie ist wirklich toll. Sicher, von der Aufbereitung, sprich Software Ergonomie (Interface) ist sie alles andere als zeitgemäß, aber Funktionsumfang und Workflow sind super und ich finde den Bedienkomfort gar nicht mal übel.
 
Software wird nicht immer schlechter, sondern immer komplexer, da die Ansprüche der Anwender steigen. Mit der Komplexität erhöht sich auch die Wahrscheinlichkeit für Fehler signifikant. Durch die Fülle von Funktionalitäten und deren Verknüpfungen miteinander, ist es auch ziemlich schwierig und aufwendig umfangreiche Software bis in's Detail zu testen. Ausserdem bestehen die meisten Projekte/Programme schon seit Jahren und werden fortwährend weiterentwickelt, wodurch es immer mehr Code-Abschnitte gibt, die seit längerem kein Programmierer mehr eingesehen hat, so dass viele Seiteneffekte von Änderungen, die sich erst in irgendwelchen Unterfunktionen auswirken, garnicht erst bemerkt werden.

Das ist etwas was sich ändern wird. Netbooks haben ja inzwischen einen beachtlichen Marktanteil. Software die völlig langsam und überladen ist läuft auf den Teilen einfach nicht. Ich habe neulich einen Artikel gelesen in dem genau dieser Fakt darrgestellt wurde und einige Beispiele für Software gegeben wurden die gerade Deswegen einfacher werden. Ein Atom 1,6 GHZ Prozessor solte für einfache Office arbeiten reichen. Die PC Branche hat meiner ansicht nach verpasst, Das Wachstum zu beschränken aus Profitgier. Niemand, der gelegentlich nen Film schaut (mal abgesehen von HD aber da gibt es mit ION auch schon Low-Cost ansätze), seine 3 websites anschaut und seine Worddokumente tippt braucht nen Dual oder QuadCore 3-6 GB und mindestens ne 8800GTS. Nettops Netbooks und preiswerte Low End PCs haben die Leistung erreicht die man als Ottonormal User WIRKLICH braucht.

Daher gehe ich davon aus, das sich die Software entwicklung und CPU/GPU entwicklung daran orientieren wird. Wenn Software nur das tut was man effektiv braucht, und das Stabil und den Rest Plugins überlässt und somit nicht jedem User jedem Bug überlässt, wird sich ein völlig neues "PC Gefühl" entwicklen und der Gigahertz wahn aufhören.

Ich für meinen Teil muss sagen, dass immer komplizierter werdende Software zum Teil unnötig ist. Beispiele für Softwares die einfacher geworden sind gibt es wenige, aber dafür Prominente:
Google Chrome ist ein Minimalistischer Browser. Trotzdem oder gerade deswegen ist er mein Lieblingsbrowser.
Anstatt Komplexe Bunte Software für Backups zu haben benutz ich MS Synctool. Sehr einfache Software aber tut genau das was man damit machen will.
Völlig Bunte IM Software wie ICQ oder MSN empfinde ich als irsinnig nervig. Pidgin ist hier einfach die Beste lösung da es Chatten übersichtlicher macht.

Auf der anderen seite gibt es Software die zwar an komplexität zunimmt, aber dies relativ bugfrei und ohne große Performance verlsute schafft. Leider sind das keine OpenSource Produkte, wohl auch weil in die Software Qualitätssicherung ein haufen geld gesteckt wurde (mein Vater macht das beruflich deswegen hab ich so das ein oder andere augeschnappt). Beispielhaft herfür ist Office 2007. Kann mehr als die Alten Office Versionen und ist auch "bunter" geworden. Aber ich finde es Open Office von der Performance und durch die RibbOns Oberfläche auch von der Usability überlegen. Wenn ich das Geld hätte, wäre das die erste Software die ich kaufen würde.

Einen anderen Weg geht hierbei Adobe. CS4 setzt SSE2 oder sogar 3 CPUs voraus. das schliesst eine Menge alter und langsamer Systeme von Grund auf aus. Ein system auf dem Photoshop CS4 läuft, ist auch schnell genug es zu bediehnen. Das finde ich ist eine richtige Lösung. Ein Singlecore 2 GHZ System mit 512MB Ram ist zwar theoretisch schnell genug die Software zu benutzen (siehe CS2/3) aber anständig arbeiten geht damit nicht.
 
@detrexer: Ich glaube da siehst du die Ansprüche des Großteils der User falsch. Photoshop verbraucht nicht umsonst soviel Rechenleistung, da die Ansprüche von Grafikern, die dieses Programm nunmal primär benutzen, nicht gerade gering sind. Da müssen hochauflösende Bilder Pixel für Pixel neu berechnet werden um Filter anzuwenden u.ä. und die Kameras schaffen immer höhere Auflösungen mit immer mehr Pixeln. Sowas würde nunmal selbst bei noch so gut optimierter Software auf langsamen Systemen zu lange dauern, als dass man dann noch flüssig arbeiten könnte.

Und selbst der Otto-Normal-User will immer tollere Effekte, in seinen Spielen immer bessere Grafik und Filme sollen natürlich auch möglichst überrealistisch und 3-dimensional wirken. Netbooks und ähnliche kleine Rechner mit wenig Rechenleistung reichen zwar für unterwegs aus, aber der Großteil der Desktop-Rechner wird nunmal für Foto-Bearbeitung, Spiele, Videobearbeitung und komplexe Office-Lösungen (Datev, umfangreiche tabellenübergreifende Berechnungen mit Excel usw.) genutzt und _das_ wird auf einem Netbook niemals laufen. Die Dinger haben ihren Namen nicht umsonst. Sie sind ausreichend für's "Net", also für einen Browser, Email-Programm, grundlegende Office-Tools und dann war's das auch schon. Die schnellen Desktops werden sie so schnell nicht ersetzen können und deswegen wird auch kaum Software dafür angepasst werden. Der User erwartet nämlich garnicht erst, dass darauf die neuesten 3D-Spiele laufen oder ein Grafiker darauf anständig arbeiten kann. Google-Chrom ist eine noch sehr junge Software. Warte mal ab, bis da 10 Jahre Entwicklungszeit reingeflossen sind. Da wird das auch nicht mehr so schlank sein, da die Ansprüche der User auch bei diesem Programm weiter wachsen werden und gerade Google immer versucht den Usern das zu bieten, was sie wollen, nicht was sie wirklich brauchen.

Auch die Entwickler selbst nehmen sich da nicht viel. Früher hat man Quelltexte noch selbst geschrieben. Heutzutage erwarten Entwickler, dass sie eine IDE mit Auto-Complete haben, die automatisch die Parameter einer Funktion anzeigt, ein Projektmanagement integriert hat, Zugriff auf Dokumentationen ermöglicht usw., also quasi die Programmierung mit möglichst minimalem Aufwand ermöglicht. Aus Sicht des Entwicklers ist das verständlich, denn er will ja möglichst effektiv arbeiten. Aus Sicht der verbrauchten Leistung ist es aber unsinnig, denn all diese tollen IDE-Funktionalitäten fressen RAM und CPU-Leistung. Von den Leistungen, die Compiler heutzutage brauchen, mal ganz zu schweigen. Ich finde es beim Schreiben von Software jedenfalls angenehmer, wenn ich ein Projekt in wenigen Minuten kompilieren kann anstatt wie früher ewig drauf warten zu müssen. Während ich heutzutage z.B. auf einem modernen Rechner ein LFS an einem Tag aufsetzen kann, brauchte ich vor 10 Jahren dafür noch ca. eine Woche, weil die Kisten ewig kompiliert haben.

Ich bin jedenfalls davon überzeugt, dass wir noch lange nicht an dem Punkt angekommen sind, wo Software ihre maximale Komplexität erreicht hat und nun optimiert werden kann, geschweige denn wird. Eher im Gegenteil. Es gibt noch zuviele Techniken, die kaum ausgereizt werden können, weil die notwendige Rechenleistung fehlt, z.B. echte 3D-Darstellung, Hologramme, komplexe Sprachsteuerung usw.. Kommt der User erstmal auf die Idee diese Techniken haben zu wollen, wird der Hardware-Industrie nichts anderes übrig bleiben als diese Wünsche zu befriedigen oder von Konkurrenten, die dies tun, aus dem Markt gekickt zu werden. Die nächsten Jahre wird der Trend erstmal zum verteilten Rechnen auf mehreren CPUs bzw. CPU-Kernen gehen und allein dadurch wird die Komplexität weiter steigen. Das wird auch bei den Netbooks nicht lange auf sich warten lassen, wenn erstmal eine Technik entwickelt wurde, wie man Multicores stromsparender machen kann.
 
Hm du hast ein paar Aspekte genannt bei denen ich dir zustimme aber bei anderen nicht.

Ich glaube da siehst du die Ansprüche des Großteils der User falsch. Photoshop verbraucht nicht umsonst soviel Rechenleistung, da die Ansprüche von Grafikern, die dieses Programm nunmal primär benutzen, nicht gerade gering sind. Da müssen hochauflösende Bilder Pixel für Pixel neu berechnet werden um Filter anzuwenden u.ä. und die Kameras schaffen immer höhere Auflösungen mit immer mehr Pixeln. Sowas würde nunmal selbst bei noch so gut optimierter Software auf langsamen Systemen zu lange dauern, als dass man dann noch flüssig arbeiten könnte.

Nunja der Grafiker braucht natürlich höhere Leistung da stimme ich dir zu. Ich habe eigentlich sagen wollen, dass der Ottonormaluser der auf die Idee kommt Photoshop zu benutzen das nur kann wenn er genug Rechenpower hat.

Und selbst der Otto-Normal-User will immer tollere Effekte, in seinen Spielen immer bessere Grafik und Filme sollen natürlich auch möglichst überrealistisch und 3-dimensional wirken.[...] Die schnellen Desktops werden sie so schnell nicht ersetzen können und deswegen wird auch kaum Software dafür angepasst werden. Der User erwartet nämlich garnicht erst, dass darauf die neuesten 3D-Spiele laufen oder ein Grafiker darauf anständig arbeiten kann.


Hmm vllt. sehe ich einen Anderen Ottonormal User als du. Ich kenne sehr viele Leute die mit ihrem PC nur Excel Word und Internetexplorer benutzen. Da sind für mich die echten Ottonormal User. Die wollen überhaupt nicht spielen und Filme schauen die meisten aufm Fernseher. Ausserdem hab ich ja bereits gesagt, dass es mit ION auch dafür lösungen gibt.

Netbooks und ähnliche kleine Rechner mit wenig Rechenleistung reichen zwar für unterwegs aus, aber der Großteil der Desktop-Rechner wird nunmal für Foto-Bearbeitung, Spiele, Videobearbeitung und komplexe Office-Lösungen (Datev, umfangreiche tabellenübergreifende Berechnungen mit Excel usw.) genutzt und _das_ wird auf einem Netbook niemals laufen. Die Dinger haben ihren Namen nicht umsonst. Sie sind ausreichend für's "Net", also für einen Browser, Email-Programm, grundlegende Office-Tools und dann war's das auch schon. Die schnellen Desktops werden sie so schnell nicht ersetzen können und deswegen wird auch kaum Software dafür angepasst werden.

Also aus Erfahrung kann ich dazu soviel: Photoshop CS3 läuft zwar nicht schnell, aber sogar verflüsigen ist völlig benutzbar, "selbst" bei ca 2 megapixel bildern.
Ältere Spiele laufen auch. Und mit ION wird es sogar bei neuren spielen möglich sein
Videobearbeitung braucht wirklich mehr leistung, aber das was die meisten NomalUser unter "videobearbeitugn" verstehen ist musik mit bildern unterlegen und das geht damit auch noch so gerade.
Ich habe noch nie mit Komplexen Office sachen gearbeitet deswegen fehlt mir da der vergleich aber mit CUDA sollte das ganze eigentlich möglich sein.
Als beispiel für bereits angepasste Software fällt mir da Torchlight ein, dass einen Netbook mode hat und Micrsoft hat auch was in der Richtung vor.


Google-Chrom ist eine noch sehr junge Software. Warte mal ab, bis da 10 Jahre Entwicklungszeit reingeflossen sind. Da wird das auch nicht mehr so schlank sein, da die Ansprüche der User auch bei diesem Programm weiter wachsen werden und gerade Google immer versucht den Usern das zu bieten, was sie wollen, nicht was sie wirklich brauchen.
Es sollte nur ein beispiel sein und ehrlich gesagt ja, sie werden Chrome verunstalten aber es wird ein neuen "Chrome" geben. Und wenn viele User verstehen das einfache software besser sein kann (siehe z.B. Gnome) wird diese verkomplexisierung mit sicherheit auch grenzen finden.

Auch die Entwickler selbst nehmen sich da nicht viel. Früher hat man Quelltexte noch selbst geschrieben. Heutzutage erwarten Entwickler, dass sie eine IDE mit Auto-Complete haben, [...]

Ich sage ja nicht das die Entwicklung aufhören wird. Und Developer sind sicher Leute die gerne immer mehr leistung wollen. Ich wollte nur sagen das Low-End Computing an Bedeutung gewinnen wird.

Ich bin jedenfalls davon überzeugt, dass wir noch lange nicht an dem Punkt angekommen sind, wo Software ihre maximale Komplexität erreicht hat und nun optimiert werden kann, geschweige denn wird. Eher im Gegenteil. Es gibt noch zuviele Techniken, die kaum ausgereizt werden können, weil die notwendige Rechenleistung fehlt, z.B. echte 3D-Darstellung, Hologramme, komplexe Sprachsteuerung usw.. Kommt der User erstmal auf die Idee diese Techniken haben zu wollen, wird der Hardware-Industrie nichts anderes übrig bleiben als diese Wünsche zu befriedigen oder von Konkurrenten, die dies tun, aus dem Markt gekickt zu werden. Die nächsten Jahre wird der Trend erstmal zum verteilten Rechnen auf mehreren CPUs bzw. CPU-Kernen gehen und allein dadurch wird die Komplexität weiter steigen. Das wird auch bei den Netbooks nicht lange auf sich warten lassen, wenn erstmal eine Technik entwickelt wurde, wie man Multicores stromsparender machen kann.

Ich hoffe auch nicht das wir dieses Level je erreichen bitmuncher, denn dann wäre Informatik langweilig. Aber es wird sich sicher zeigen für bestimmte Aufgaben (Surfen, Office, Musik abspielen) die Leistung die jetzt im Low-End bereich verfügbar ist völlig ausreicht. Ich tippe mal das man in 2 Jahren für 100€ einen PC bekommt der für diese Aufgaben mehr als ausreicht.
 
Nunja der Grafiker braucht natürlich höhere Leistung da stimme ich dir zu. Ich habe eigentlich sagen wollen, dass der Ottonormaluser der auf die Idee kommt Photoshop zu benutzen das nur kann wenn er genug Rechenpower hat.
Der Otto-Normal-User kauft sich aber nicht für fast 900€ ein Programm ohne vorher zu wissen dass es einen starken Rechner voraussetzt.
GIMP kostet nichts und bietet ansatzweise den Funktionsumfang den auch Photoshop für den unbedarften Nutzer bietet.
 
Der Otto-Normal-User kauft sich aber nicht für fast 900€ ein Programm ohne vorher zu wissen dass es einen starken Rechner voraussetzt.
GIMP kostet nichts und bietet ansatzweise den Funktionsumfang den auch Photoshop für den unbedarften Nutzer bietet.

Der Otto-Normal-User lädt sich Photoshop runter. Auch ohne zu wissen ob er genug Rechenpower hat.
 
Zurück
Oben