Linux Flame

-Start-Schwierigkeiten
Irgendwas machst du falsch, dass du die so häufig hattest. Kommt bei mir allenfalls nach einer neuen Kernelversion vor. wie 2.6.31 -> 2.6.32. Oder wenn mal ein komplett neues xorg kommt. Und das ist ganz sicher nicht "jeden Tag".
-Programm-Abstürze
Ja, es gibt viele instabile Programme. Aber die muss man ja nicht benutzen. Macht man doch unter anderen Systemen auch nicht.
-Treiber-Probleme
Ja klar, mit einem Mac läuft jede denkbare Hardware gut.

Ich kann mich noch an ganz früher erinnern, da ist irgendein Programm beim importieren der Musik immer abgeschmiert, aber ich kann mich schon gar nicht mehr erinnern, welches das war, so lange ist das her.
Ein paar Beiträge vorher habe ich geschrieben, dass rhythmbox langsam indiziert. Aber immerhin fehlerfrei. Ich habe jetzt 17583 Tracks in 191 Genres in der Bibliothek. Davor hatte ich quodlibet. Und gmusicbrowser auch. Und mpd auch (teste grade Ario, ist nicht schlecht).
So saß ich also vor diesen Programmen und wartete auf den Absturz, aber der kam nicht.
Amarok dagegen habe ich nicht probiert, von dem weiß ich schon, dass er schlecht ist.

Bevor ich mich auf ein Mac OS einlassen kann, muss ich mir leider erstmal komplett neue Hardware kaufen (will es ja nicht illegal machen!). Solaris ist sicherlich etwas, das ich mir genauer anschauen werde, aber nicht, solange ich nur 1 gb Ram habe.


Ich verteidige hier gar nichts, sondern beschreibe nur ein bisschen meine Erfahrungen, die sich so gar nicht mit deinen decken.
Du darfst gerne rumflamen, warum syslog bei einem Freezem, des radeon Treibers anfängt, binary-Daten in die Logdatei zu spammen.
(Passiert momentan, wenn man versucht, mit aktiviertem KMS X zu starten)
 
Teilzitat von: bitmuncher
Nun, bisher kann ich mich auf mein MacOSX verlassen. Ich muss nicht jeden Tag mehrere Minuten damit verbringen irgendwelche Start-Schwierigkeiten, Programm-Abstürze, Treiber-Probleme etc. zu umgehen und ich muss auch keine Kompromisse eingehen, wie ich es unter Linux musste.

Wenn du dich unter Linux jeden Tag mehrere Minuten mit auftretenden Problemen rumschlagen musstest, dann sitzt das Problem höchstwahrscheinlich vor dem Bildschirm.

Zum anderen benutzt ein Großteil der bestehenden Mac-Gemeinschaft auch die dafür angedachte Mac-Hardware, sodass Treiber-Fehler meistens verhindert werden können.


Ich kann dir nur nochmal empfehlen... lasse dich einfach mal auf die Erfahrungen mit einem anderen System ein und du wirst schnell feststellen, dass Linux eines der schlechtesten Desktop-Systeme ist, das derzeit auf dem Markt existiert.
Diese Aussage wird durch die steigende Anzahl der Desktop-Nutzer (Linux) widerlegt. Außerdem ist das ganze Geschmackssache, da nirgendwo belegt ist, dass Linux das angeblich schlechteste Desktop-System auf dem Markt ist.
Zudem gibt es unter Linux sehr viele unterschiedliche Derivate von Linux-Systemen, sodass man dies nicht verallgemeinern kann.

Das wollte ich nur mal gesagt haben.
 
Wenn du dich unter Linux jeden Tag mehrere Minuten mit auftretenden Problemen rumschlagen musstest, dann sitzt das Problem höchstwahrscheinlich vor dem Bildschirm.
Genau, ich bin der totale Linux-Noob und hab von Computern allgemein keine Ahnung. Dafür bin ich ja bekannt. :D Vielleicht bin ich als Linux/Unix-Admin aber auch einfach gezwungen Software zu testen, individualisierte Systeme zu erstellen etc. und kenne daher ein paar Probleme mehr, als der durchschnittlicher User, der nach dem Motto handelt "never touch a running system". Vielleicht sind deswegen meine Ansprüche an ein System auch einfach etwas höher... wer weiss.

Zudem gibt es unter Linux sehr viele unterschiedliche Derivate von Linux-Systemen, sodass man dies nicht verallgemeinern kann.

Linux bleibt Linux. Wer das noch nicht begriffen hat, macht irgendwas im Umgang mit Linux falsch. Da ich mit jeder Distro gleichermaßen gut (oder schlecht) arbeiten kann und die meisten auch kenne, bin ich einfach mal so frech und verallgemeinere das sehr wohl.

Steigende Zahl an Desktop-Systemen unter Linux? Wäre mir neu, dass es dazu jemals eine annehmbare statistische Erhebung gab. Gib mal bitte einen Link zu einer repräsentativen Statistik. Wer die üblichen Wege kennt, über die Linux verteilt wird, der wird wissen, dass es garnicht möglich dazu statistische Erhebungen zu machen. Ein Download einer Distro bedeutet nicht automatisch, dass es auch produktiv eingesetzt wird.

Das einzige einigermaßen zuverlässige Linux, das ich jemals erlebt habe, war/ist mein LFS und damit dieser Zustand erreicht wurde, musste ich da eine Menge Zeit investieren und für einige Programme selbst Patches schreiben. Die "fertigen" Distros auf dem Markt sind bei mir noch nie zuverlässig gelaufen. Spätestens beim Update auf die nächste Distro-Version gab es Probleme. Oft reichte aber schon ein Kernel-Update aus damit die Probleme losgingen. Dass ich nicht der einzige mit dieser Erfahrung bin, belegen fast alle Linux-Foren und Diskussionsgruppen. Gründe dafür:
- Einsatz von Beta- und Alpha-Software
- schlechtes Projektmanagement bei den Distributoren
- Auswahl von Software, deren Zusammenspiel für jeden logisch denkenden Informatiker von Anfang an fraglich ist
- Einbringen von experimentellen Treibern um möglichst viel Hardware zu unterstützen
- falsche und schlecht zusammenspielende Parameter beim Kompilieren um auch ja alle Features aus den Programmen rauzukitzeln
usw. usf.

@Chris_XY: Das mit der Hardware bei Mac ist leider ein gutes Argument. Ich wäre auch froh, wenn dieses System auch auf anderer Hardware nutzbar wäre. Aber wenn du dir OpenSolaris anschaust, wirst du auch schnell feststellen, dass Linux einige Schwächen gegenüber einem echten Unix hat. Das betrifft sowohl die Stabilität als auch die Sicherheit. Mit der nächsten Version dürfte auch 1GB RAM kein Problem mehr darstellen. Gerade an der Performance wird ja derzeit intensiv gearbeitet. Mit der aktuellen Entwicklungsversion betreiben diverse Leute sogar ihre Netbooks mittlerweile schon erfolgreich. In dieser Hinsicht merkt man OSol an, dass es erst seit relativ kurzer Zeit als Desktop-System entwickelt wird. Hätte es bereits die Entwicklungszeit von Linux hinter sich, wäre Linux vermutlich niemals so groß geworden. Gibt ja mittlerweile diverse Linux-Entwickler, die aufgrund der Vorteile des Systems zu OSol gewechselt sind.
 
Linux bleibt Linux. Wer das noch nicht begriffen hat, macht irgendwas im Umgang mit Linux falsch. Da ich mit jeder Distro gleichermaßen gut (oder schlecht) arbeiten kann und die meisten auch kenne, bin ich einfach mal so frech und verallgemeinere das sehr wohl.

Dem muss ich mal ein klein wenig widersprechen.
Selbst zwischen Debian und Ubuntu (welches ja bekanntlich auf Debian basiert) gibt es einige Unterschiede.

Ich dachte z.B. als Ubuntu 9.10 raus kam, ich probiere dieses mal aus, um für meine Multimedia-Geschichten nicht immer einen Debian stable-/testing-Mix nutzen zu müssen... wollt halt eigentlich mal 'ne Distri, ohne dass ich da rum-mixe...

Aber der WLAN-Treiber (Intel 3945) im Ubuntu kam nichtmal mit AdHoc-Netzen klar (brauche ich für Lappi--[WLAN AdHoc]-->Handy-->UMTS)

Und seit Ubuntu hatte ich auch plötzlich Probleme, dass er nicht mehr genug gelüftet hat und sich dann eben Not-Ausgeschaltet hat... (und nach deinen Schilderungen vermute ich, dass das Ubuntu tatsächlich mein ACPI ein wenig geärgert hat...)

Hatte ja auch ursprünglich vor, auf meiner Schwester ihrem Lappi mal Linux Mint (welches ja wiederrum auf Ubuntu basiert) zu probieren, da dort per Default alle möglichen Codecs dabei sind und man nicht erst noch die sources.list anpassen muss...

Aber mittlerweile festigt sich der Gedanke, auch bei ihrem Lappi lieber bei Debian zu bleiben - die Pakete sind zwar nicht so aktuell, dafür aber wenigstens stabil. (ich möchte sogar mal behaupten, selbst die "testing"-Pakete bei Debian sind noch stabiler als die "stable"-Pakete manch anderer Distri...)
 
Linux bleibt Linux.
[...]
Das einzige einigermaßen zuverlässige Linux, das ich jemals erlebt habe,
??

Das Problem, das ich mit Solaris ein bisschen habe ist auch, dass ich ein Fan von aktueller Software bin.
Deshalb benutze ich auch Archlinux, das bei mir einen ziemlich stabilen Eindruck macht. Ich habe den Verdacht, dass das daran liegt, dass Archlinux die Pakete möglichst wenig patcht, im Gegensatz zu anderen Distris.
 
  • nicht alle Programme bekommen mit, wenn die Netzwerkverbindung getrennt/aufgebaut wurde. XChat merkt z.B. erst nach dem eigenen Timeout, dass das Netz weg war. Stattdessen könnte auf das "Signal" von NetworkManager gehört werden.
  • elendige Performance, wenn man die CPU auslastet. Ein "dd if=/dev/urandom of=/dev/null" macht das System ziemlich träge. Auf MacOSX merkt man davon (iirc) ziemlich gar nichts.
  • der Multi-Monitor Support ist grausam. Ich kann nicht ernsthaft einstellen, dass mein Desktop rechts auf dem Notebook, und die Erweiterung links auf dem VGA Ausgang dargestellt wird.
  • der Support für Proxys sollte nicht per-Anwendung sein, sondern vom System verwaltet werden. Der Kernel (o.ä.) sollte mein Traffic (mit Ausnahme dem Traffic zum Proxy :D) automatisch verpacken und zum Proxy schicken.
  • der Updatezyklus bei Ubuntu nervt mich mittlerweile irgendwie. Schön wär ein Rolling-Release, dass simpel durchzuführen ist und mein System nicht zerstört.
  • ich will einstellen können, wann/wie mein Akku geladen werden soll. Derzeit wird er geladen, sobald er mal unter 95% fällt. Im dauernden Netzbetrieb entläd er sich eben immer ein bisschen. Da kann er von mir aus auch mal deutlich unter 95% fallen, bevor er aufgeladen wird.
  • der NTFS-3g Treiber verspricht, dass er kaum fragmentiert. Als ich nach einem Jahr mal mein NTFS unter Windows defragmentiert habe, sah es aus wie ein Schweizer Käse. (Keine Ahnung, ob das ernsthafte Auswirkungen auf Performance hat. Der Treiber ist sowieso gefühlsmäßig nicht der schnellste)
  • ich kann von Nautilus aus das Label von FAT32 Dateisystemen nicht ändern.
  • dass sämtliche Programme einfach in /var/log/syslog oder so schreiben ist etwas... unübersichtlich. Eine schöne Aufteilung in separate Files wäre sinnvoller. Kann man bestimmt konfigurieren - aber ich will das per default :D
  • WLAN-Knopf geht hier mittlerweile - aber es gab Zeiten wo es nicht ging. Jedes mal spannend, wenn ich draufdrücke.
  • Firefox ist eine absolute Grausamkeit, sobald ein Tab viel Rechenzeit benötigt. Dann geht gar nix mehr in den anderen.
Okay, irgendwie ist daraus mehr ein Request-for-Features geworden als ein ernsthaftes Flame ;-)

Ich weiß nicht so recht, ob es nicht vielleicht ganz gut ist, dass MacOSX offiziell nur auf Mac-Hardware läuft. So kann man bei Apple mit relativ wenig Aufwand neue Software/Updates auf der weltweit eingesetzten Hardware austesten.
 
@beavisbee: Dann entferne die Ubuntu-eigenen Patches aus dem Kernel nimm die gleichen DSDT, die Debian verwendet, und schon wird das genauso laufen. Glaub mit Linux ist Linux, auch wenn es nicht auf Anhieb gleichermaßen läuft. ;)
 
Ich finds auch nen bischen doof das Linuxer die guten Sachen unter Linux mit userland verwechseln.

Linux, wieviele Entwickler? Tausende? Sie bauen einen Kern, der laeuft ueber von Features, die nicht wirklich funktionieren. Zig Dateisysteme, von denen man gerade mal 3-4 in the wild findet. Wesentlichste Sicherheitsfeatures sind noch immer nicht implementiert. Treiberhacker prostituieren sich fuer NDA's. Und selbst die Gemeinde ist mittlerweile auf dem Standpunkt "Lieber so einen als gar keinen". Der OSS Gedanke von Linux ist sowas von ausgelutscht und tot.

Und diese ewige Verteidigungshaltung ist auch ziemlich verdaechtig ;)

Ich hab sowas von nem SUN OS Admin noch kaum gelesen, bisher...

*shruggg*
 
Dann entferne die Ubuntu-eigenen Patches aus dem Kernel nimm die gleichen DSDT, die Debian verwendet, und schon wird das genauso laufen. Glaub mit Linux ist Linux, auch wenn es nicht auf Anhieb gleichermaßen läuft. ;)

Okay, sogesehen hast du nicht ganz unrecht...

Aber wieviel Prozent der Linux-Desktop-Anwender wollen nach der Installation erstmal an Kernel und ACPI rumspielen?

Ich dachte, die Zeiten, wo man nach 'ner Linux-Installation sich erstmal mit Kernel-Bäckerei beschäftigt hat, damit alles läuft, sind vorbei?!...

Ich glaub, meinen letzten per Hand konfigurierten Kernel habe ich unter Debian "Woody" gebaut...

Dementsprechend rechne ich in die "Unterschiede zwischen Distributionen" auch mit ein, wie gut per Default die Hardware-Unterstützung klappt, wie stabil die distri-eigene Software läuft, etc...

Sicher - man kann sich jede Software direkt vom Entwickler holen und selbst kompilieren und dann ist Linux=Linux...
Aber dann untergrabe ich ja wieder den Vorteil, den ich an Linux mag: die zentrale Paket-Verwaltung...




@Garfield: das sinnvollste wäre hier für die einzelnen Programme, sie würden alle auf dbus-Signale hören. (so machen es jedenfalls meist die Programme, die die abgebrochene Netzwerk-Verbindung mitbekommen...)
und den eigenen TimeOut-Mechanismus könnte man als Fallback drin lassen, falls jemand die Software auf einem System laufen hat, wo kein dbus läuft.

Ich weiß jedoch nicht, in wie weit sich die verschiedenen Netzwerk-Manager (network-manager,wicd, lxnm und wie sie alle heißen) in dem, was sie an dbus schicken, unterscheiden... das könnte wieder zum Problem werden...

Und da ist wieder der Punkt, wo OSS an seine Grenzen stößt:
dadurch, dass meist unkoordinierter entwickelt wird, als in irgend 'ner kommerziellen Software-Schmiede, gibt es in vielen Bereichen leider keine / unzureichende Standards und somit macht's jeder so, wie's ihm gefällt und ein vernünftiges Zusammenspiel mit anderen Projekten funktioniert nicht mit jedem Programm...
 
Und da ist wieder der Punkt, wo OSS an seine Grenzen stößt:
dadurch, dass meist unkoordinierter entwickelt wird, als in irgend 'ner kommerziellen Software-Schmiede, gibt es in vielen Bereichen leider keine / unzureichende Standards und somit macht's jeder so, wie's ihm gefällt und ein vernünftiges Zusammenspiel mit anderen Projekten funktioniert nicht mit jedem Programm...

Naja.... SMTP und die MTAs, BIND, Http und die Server, BGP und seine daemons, Espresso und Registrybetriebe, ntpd und seine daemons, IDN und implementierungen in aller Software ...

Die Welt der Computer und OSS besteht nicht nur aus frickeligen Desktopanwendungen. Es gibt zig. OSS Projekte die das ganze Internet zusammenhalten und von bester Qualitaet sind.

Nur weil Linux so eine miserable frickelei ist, darf man das nicht auf die komplette OSS Welt beziehen.
 
sry, war bisschen unsauber ausgedrückt... sollte OSS-Desktop-Anwendungen heißen - wobei man selbst damit noch das ein oder andere Programm zu unrecht mit erwischt... aber weißt ja, wie ich's meine... bei vielen Tools, die im Prinzip das gleiche machen aber von verschiedensten Entwicklern stammen, ist es einfach schwer, etwas Einheitliches zu schaffen...
und so merkt halt z.B. jeder IRC-Client an anderen Dingen, dass kein Netzwerk mehr da ist... der eine ehr, der andere später... und je nachdem, welche Software man für sich verwendet, hat man mal ein System, was besser aufeinander abgestimmt ist und mal ein System, wo jedes Progrämmchen sein eigenes Zeugs macht...

wer damit leben kann (wie ich), bleibt trotz dieser kleinen Schönheitsfehler bei Linux, wer ein Betriebssystem mit Abstimmung in Perfektion will, kauft sich 'nen angebissenen Apfel...
 
und Pinguine sind Vögel, die nur fliegen, wenn man sie schmeißt... :D
Aber wunderbar hart am Boden der Tatsachen wieder landen: Ubuntu 9.10 frisch installiert, Updates installiert (schändlicherweise mit der schönen GUI). Daraufhin fror dann das System ein, vollständig, weshalb es zu einem brutalen Reboot kam. Beim Hochfahren fror das System schon wieder ein.
Das einzig wirklich vollkommen stabile Desktop-Linux war bei mir bisher Gentoo. Welches ich aber auch nur kurz getestet habe, da der Grund für die Stabilität die Ausmaskierung von fast allen Paketen ist, welche ja noch unstable sind. Als Beispiel sei mein Versuch genannt, eine C++-IDE zu installieren: KDevelop -> unstable, Code::Blocks -> unstable, Codelite -> unstable, Netbeans -> unstable, ... Und dann "~x86" zu akzeptieren ist irgendwie auch pervers, ich will mit dem System arbeiten, nicht daran herum basteln.
Meine Meinung: Es reicht, ich mag zwar Windows nicht, aber inzwischen doch weniger nicht als Linux. Mal hoffen dass ich damit noch umgehen kann. :)

mfg benediktibk
 
  • nicht alle Programme bekommen mit, wenn die Netzwerkverbindung getrennt/aufgebaut wurde. XChat merkt z.B. erst nach dem eigenen Timeout, dass das Netz weg war. Stattdessen könnte auf das "Signal" von NetworkManager gehört werden.
Networkmanager habe ich hier nicht. Viele Archlinuxer benutzen anscheinend wicd. Oder netcfg. Oder mit einem Lan eine einfache Systemeinstellung.
Du müsstest schon ganz schön viel Bloat hinzufügen, wenn du die Möglichkeiten abdecken wolltest.
Bei Linux fehlt eben ein einheitlicher Standard zum Überwachen von Netzwerkverbindungen.

  • elendige Performance, wenn man die CPU auslastet. Ein "dd if=/dev/urandom of=/dev/null" macht das System ziemlich träge. Auf MacOSX merkt man davon (iirc) ziemlich gar nichts.
Scheint Sheduler-Abhängig zu sein.

Ich habe jetzt mal 20 von diesen Dingern gestartet und merke keine allzugroße Verlangsamungung trotz 100% CPU-Auslastung.
Bei 50 bemerkt man aber einen Lag. Youtube Videos z.B. laufen noch, aber fangen schon ganz schön an, frames zu droppen...

Standardkernel von Arch:


Linux chrispc 2.6.32-ARCH #1 SMP PREEMPT Sat Jan 23 13:53:44 UTC 2010 i686 AMD Athlon(tm) II X2 240 Processor AuthenticAMD GNU/Linux

Was das System wirklich träge macht, sind Festplatten Lese- und Schreibzugriffe.
Das ist echt scheiße unter Linux.
Ist wohl noch eher darauf optimiert, dass Services darauf unter allen Umständen schnell antworten und die GUI erstmal vernachlässigbar ist.

  • der Multi-Monitor Support ist grausam. Ich kann nicht ernsthaft einstellen, dass mein Desktop rechts auf dem Notebook, und die Erweiterung links auf dem VGA Ausgang dargestellt wird.
Sofern der Grafikkartentreiber xrandr voll unterstützt, ist das kein Problem.
arandr war eine recht gute GUI dafür, glaube ich.
Da ist ausnahmsweise mal ein Standard da, jetzt müssen ihn die Treiberentwickler nur noch benutzen. :)
Mit Intel geht es gut, zumindest bei meinem eee. nvidia hat ja mit den nvidia-settings gute Einstellungsmöglichkeiten für Twinview (aber eben auch was eigenes gefrickelt)

  • der Support für Proxys sollte nicht per-Anwendung sein, sondern vom System verwaltet werden. Der Kernel (o.ä.) sollte mein Traffic (mit Ausnahme dem Traffic zum Proxy :D) automatisch verpacken und zum Proxy schicken.
Es gibt eine extra Variable dafür:
Code:
http_proxy=http://username:password@host:port/
export http_proxy
Das ist ausnahmsweise auch mal ein quasi-Standard. Jetzt müssen es nur noch alle Programme unterstützen.

  • der Updatezyklus bei Ubuntu nervt mich mittlerweile irgendwie. Schön wär ein Rolling-Release, dass simpel durchzuführen ist und mein System nicht zerstört.
Ubuntu. :P
  • ich kann von Nautilus aus das Label von FAT32 Dateisystemen nicht ändern.
Ein Programm nutzen, das für solche Operationen gedacht ist?
  • dass sämtliche Programme einfach in /var/log/syslog oder so schreiben ist etwas... unübersichtlich. Eine schöne Aufteilung in separate Files wäre sinnvoller. Kann man bestimmt konfigurieren - aber ich will das per default :D
Ubuntu-spezifisch, würde ich sagen.
  • WLAN-Knopf geht hier mittlerweile - aber es gab Zeiten wo es nicht ging. Jedes mal spannend, wenn ich draufdrücke.
Wlan Treiber eine fertige Version oder aus staging? Ich habe einen rt2860 und da hatte ich auch schon Spaß damit. Aber da er aus staging ist, weiß ich ziemlich genau, dass er einfach noch under development ist.
  • Firefox ist eine absolute Grausamkeit, sobald ein Tab viel Rechenzeit benötigt. Dann geht gar nix mehr in den anderen.
Anderen Browser benutzen? :)

Nein, also wenn schon Linux flamen, dann richtig!

@beavisbee
Gleich eine anständige Distribution nehmen. Ist doch kein Problem.

Wie wäre es mit einem Thread "Ubuntu Flame"?

@bit
Schön, dass du keinen beachball of death hast. Ich habe auch kaum eines der Probleme, die du beschreibst.
 
@Chris_XY: Dafür hast du offenbar andere. Ich fasse einfach mal zusammen, welche du hier bereits genannt hast.

Chris_XY hat gesagt.:
Stell' dir vor, dein Cups spawnt ein paar Prozesse, die auf deiner Festplatte rumrödeln und du kannst nicht mal mehr deinen Mauszeiger bewegen.
Und das habe ich mir ganz bestimmt nicht eingebildet.

Ergebnis: Festplatte rödelt, System minutenlang unbenutzbar. Umschalten auf ein tty (mit KMS!) eine gute halbe Minute, anmelden quasi nicht möglich. Irgendwann kam dann doch von XFCE die Meldung, dass das Programm nicht reagiert. Nach dem Schließen war dann die Festplatte und die CPU wieder beruhigt. Naja fast. Hotkey für den Taskmanager - nichts passiert. Hotkey für Tilda - nichts passiert. Klick auf das Menü-Applet - nichts passiert.

Jedes mal, wenn ich KDE installiere crasht mir plasma ständig, kmix und andere Programme gehen nicht, kwin schmiert oft ab und zudem ist es auch noch ziemlich lahm.

Auch wenn rhythmbox ewig lahm indiziert...

...wenn es z.B. um die Auslastung des Systems bei Festplatten-IO geht. Daher kommt auch die hohe Auslastung bei dem, was rhythmbox da macht. Der Kernel frisst da verdammt viel weg.

Das wirklich einzige, das ich da kenne, ist das nm-applet, das manchmal nicht starten will, wenn ein bestimmtes gtk-Theme eingestellt ist.

Aber oft scheint ja das Problem zu sein, dass ACPI einfach nicht so genau erkennt, auf was für einem System es läuft. So musste ich bei meinem eee 1000h bei 2.6.32 mit apci_osi=Linux booten...

Ich frage nur, weil bei meinem eee so etwas passiert. Teilweise innerhalb weniger Minuten verliert er laut ACPI plötzlich 20% Ladung... Dann wird bei der Last Full Capacity angezeigt, dass er nur noch 80% Kapazität hat... dann 70, dann 50...

Vermutlich war ein Plugin noch nicht so richtig stabil.

- Start-Schwierigkeiten
...
Kommt bei mir allenfalls nach einer neuen Kernelversion vor. wie 2.6.31 -> 2.6.32. Oder wenn mal ein komplett neues xorg kommt.

Du darfst gerne rumflamen, warum syslog bei einem Freezem, des radeon Treibers anfängt, binary-Daten in die Logdatei zu spammen.
(Passiert momentan, wenn man versucht, mit aktiviertem KMS X zu starten)

Bei Linux fehlt eben ein einheitlicher Standard zum Überwachen von Netzwerkverbindungen.

Was das System wirklich träge macht, sind Festplatten Lese- und Schreibzugriffe.
Das ist echt scheiße unter Linux.

Soviel zum Thema "Linux macht kaum Probleme". :D Soll ich die der anderen User auch noch aufzählen oder nur mal die, die in der letzten Woche z.B. im Unixboard aufgetaucht sind? Ich glaube dann bekommt der Thread gleich doppelt soviele Seiten. ;)
 
Aaaalso:
1) Cups.
Das war nach 1.3.x -> 1.4.x, als sich die Config Syntax geändert hat. Da cups von apple kommt, ist das kaum ein Linux - Problem.

Das eigentliche Problem, das ich beschreiben wollte, war das mit dem lahmen System bei IO - Aktivität. (1)

2) IO - Aktivität erzeugt so hohe Auslastung, dass andere Programme abschmieren. Wahrscheinlich X (2). Gehört zu (1)

3) KDE lief bei mir eigentlich nie gut. Würde ich aber als kein Linux-Problem bezeichnen, da es ziemlich viele Linux-Nutzer gibt, die kein KDE benutzen. Deshalb keine Nummer dafür.

4) Beschreibung meiner KDE - Erlebnisse. Kriegt keine Nummer.

5) Rhythmbox indiziert lahm. Ehm ja. Ein Programm indiziert langsam Dateien. Nicht wirklich ein Problem.

6) IO -> (1)

7) nm-applet mit bestimmten Themes. Ich will ja nicht sagen, was ich von der bugfixing-Strategie von gnome halte... :)
Übrigens ein Bug, dem du nie begegnen wirst, wenn du dir nicht Themes herunterlädst und ausprobierst = am System herumspielst, sondern nur damit arbeitest. Am System herumspielen bedeutet unter jedem System potentiell Ärger.

8) ACPI (3)

9) Akku verliert Kapazität. Ich halte es immer noch für ein Hardwareproblem.

10) Ich habe mit diversen Plugins in ccsm herumgespielt = am System herumgespielt. Irgendwann habe ich damit compiz zum abschmieren gebracht. Unter einem mittlerweile über zwei Jahre alten System (von dem ich sowieso nicht besonders viel halte. Wahrscheinlich war es sogar noch irgendeine -dev Version, wie sie Ubuntu ja gerne in die Releases packt). Und als compiz fusion sowieso noch nicht so besonders ausgereift war (Ubuntu packt gerne nicht ausgereifte Software, andererseits aber auch gerne veraltete Software)
Compiz ist im Normalbetrieb aber kein Problem, wie die Aktivierung per default auf mindestens 150 InformatikPoolrechnern an meiner Uni zeigt.

11) Startschwierigkeiten nach Kernelupdates, aktuell nur auf dem eee und zwar mit ACPI -> (3)
Oder catalyst läuft nicht mehr. -> Ati ist schuld. Außerdem kann man xorg ja problemlos downgraden.

12) syslog wird vollgespammt mit Daten, die nicht reingehören (4)

13) ist kein Problem für mich

14) IO -> (1)

==>
(1) IO-Zugriffe machen das System extrem lahm. Darüber flame ich gerne, ist aber im Normalbetrieb nicht so wirklich ein Problem.
(2) X ... möchte ich gerne sterben sehen. Oder komplett modernisiert. Tut aber im Normalbetrieb seinen Dienst gut. :)
(3) ACPI. Weiß momentan nicht, was ich davon halten soll. Ich denke, die Akkuprobleme sind ein Hardwareproblem, weil ich einen anderern mit selber Kernelversion (allerdings Ubuntu) und selbem Gerät kenne, dessen Akku noch überdurchschnittlich gut ist nach viel längerer Benutzung. Seit ich Archlinux drauf installiert habe (also seit 2.6.29 glaube ich), musste ich jetzt das erste mal wirklich etwas tun. Und der Aufwand war ungefähr 20 Sekunden.
edit: Ach, hab 4 vergessen
(4) syslog wird vollgespammt: Liegt an einem Treiber unter heavy development. Sollte aber nicht passieren. Per default ist KMS für Radeon unter Arch übrigens deaktiviert, weil es solche Probleme damit gibt. Ich bin nur darauf gestoßen, weil ich KMS aktiviert habe = am System herumgespielt habe. Macht im Normalbetrieb natürlich keine Probleme.

"Echte" Probleme: Kaum.
 
Zuletzt bearbeitet:
ja chris, lass uns einen Ubuntu-Flame draus machen :D

interessanterweise hatte ich wirklich die meisten Probleme mit den Distris, die besonders benutzerfreundlich sein wollen (z.B. am eigenen Laptop schon genannte Erfahrungen mit Ubuntu und bei SuSE damals der Versuch, bei meiner Freundin ihren Eltern von SuSE 8 auf SuSE 9 zu upgraden - das ging damals derartig schief, dass ich seit dem SuSE entgültig nicht mehr mag)...

btw:
ich muss mal suchen, ob ich irgendwo noch die Bilder von der CeBit 2004 hab... da war direkt gegenüber vom Novell-Stand eine große grüne Mülltonne und jmd. hat 'nen Zettel mit der Aufschrift "Suse" drauf geklebt... :D
 
Zurück
Oben