Linux Flame

Es wäre vielleicht an der Zeit das OS zu redesignen. Modular heißt nicht unbedingt, dass man Treiber laden/entladen kann oder 20 000 Configfiles hat ;).

Gucke da: http://www.minix3.org/

Realistisch kann man kein Linux, BSD, SunOS, Windows "re-designen".
Dann kann man es genausogut neu machen :)

Es wird fuer entsprechende Zwecke Nachfolgearchitekturen geben und das werden moeglicherweise Mikrokernel sein.

Nuechtern betrachtet fehlt es allerdings an guten Leuten, die man braeuchte um ueberhaupt ein neues und freies Betriebssystem zu entwickeln.

Die guten gehen in die Wirtschaft (MS, Oracle) und hacken nebenbei SunOS und BSD. Und die anderen....Nun ja. Bei Linux gibts ja auch immer was zu tun.
 
Minix kenne ich ;)
Nehme ich aber nicht sonderlich ernst (obwohl zugegebenermaßen nur bis v2 angeschaut), da "studentenfrickelei" ;)

Realistisch kann man kein Linux, BSD, SunOS, Windows "re-designen".
Dann kann man es genausogut neu machen
Naja, ist die "Freiheit" nicht das, was OpenSource Projekte theoretisch unterscheiden soll? :rolleyes:.
Bei einem kommerziellen Projekt steht Geld eben an erster Stelle und daher wird auch möglichst lange auf den alten Sourcen aufgebaut. Bei einem OpenSource Projekt wäre die Freiheit gegeben auch von 0 anzufangen, da kein "gewinnorientierter Chef" im Hintergrund Druck macht.

Vielleicht sollten die Linuxer auch mal der Wahrheit ins Auge sehen - nämlich dass auch hier der Großteil der Entwicklungsschübe durchaus kommerziellen Hintergrund hat?


ps:
seL4 erstmals ein für allgemeine Anwendungen tauglicher Betriebssystemkern formal verifiziert, d.h. es wurde mathematisch bewiesen, dass die Implementierung die Spezifikation des Kerns erfüllt und somit funktional korrekt ist. Dies bedeutet unter anderem, dass der Kern nachweislich keinen der bisher verbreiteten Entwurfsfehler (Speicherüberläufe (Buffer Overflow), Zeigerfehler und Speicherlecks) enthält
 
ROFL, so viele N00bs kommen nicht mit Linux zu recht und jammern rum =)
Was sucht ihr auf einem Hackerboard? Bleibt doch bei eurer WinD0ze.
 
Ja, ist hübsch:
minix.png


Linux ist ja aber nicht so beliebt, weil es technisch irgendwie überlegen wäre, sondern weil anständig viel Hardware untertützt wird
http://wiki.minix3.org/en/UsersGuide/HardwareRequirements
und es auch schon anständig viele Anwendungen dafür gibt:
http://wiki.minix3.org/en/UsersGuide/WebBrowsers

Realistisch kann man kein Linux, BSD, SunOS, Windows "re-designen".
Dann kann man es genausogut neu machen :)
Es wird fuer entsprechende Zwecke Nachfolgearchitekturen geben und das werden moeglicherweise Mikrokernel sein.
Man könnte ja einfach den Kernel austauschen.
http://www.debian.org/ports/hurd/
http://www.debian.org/ports/netbsd/
http://www.debian.org/ports/kfreebsd-gnu/

Oder was mir besser gefallen würde:
http://www.archhurd.org/

Es geht doch kaum einem Linuxer wirklich um den Linuxkernel, sondern eher um die jeweilige Distribution.
Nur, wenn es um Features wie KMS und die Entwicklung des freien radeon Treibers geht, dann interessiert das.

Die guten gehen in die Wirtschaft (MS, Oracle) und hacken nebenbei SunOS und BSD. Und die anderen....Nun ja. Bei Linux gibts ja auch immer was zu tun.
Ach tatsächlich, die Linux Entwickler sind nicht die guten Programmierer.

Meine Theorie ist ja, dass die vielfach angesprochenen häufigen Sicherheitslücken nur deshalb so häufig sind, weil momentan die Entwicklungsgeschwindigkeit höhere Priorität zu haben scheint als das Testen und die Qualitätssicherung.
Das gefällt mir einerseits auch nicht, aber wie will man denn andererseits neue Features sonst so schnell reinbringen und weiterentwickeln...

Das ist doch eben das, wo es bei den anderen Systemen krankt. Neue Treiber brauchen zu lange, Programme laufen nicht darauf...

Mein Favorit ist ja menuetOS. Das ist wenigstens klein und braucht nicht so viele Ressourcen.
 
Meine Theorie ist ja, dass die vielfach angesprochenen häufigen Sicherheitslücken nur deshalb so häufig sind, weil momentan die Entwicklungsgeschwindigkeit höhere Priorität zu haben scheint als das Testen und die Qualitätssicherung.

War das bei Linux jemals anders?
Das Entwicklungsmodell ist IMHO(!) nicht wirklich geeignet fuer ein solch verbreitetes Produkt und traegt schon lange nicht mehr zur Qualitaet bei.
 
@VierZwei

Das kommt wohl erstmal drauf woran man Qualitaet misst


  • Der reine Code bei gleichen Features? Und bei welchen kriterien? Lesbarkeit, Wartbarkeit, etc?
  • Focus auf Sicherheit / Stabiliaet anstatt Geschwindigkeit?
  • Innovation einzelner Features? (pf vs. netfilter)
  • Welche Ressourcen sind verfuegbar? (Geld, manpower)
  • Wie Optimal im Hinblick auf einzelne Ziele werden Ressourcen genutzt? (Investitionen, Engagement)
  • Sind einzelne Entwicklungen im Hinblick auf ihr Ziel zuende gedacht worden?

Was deine Frage zu diesen Punkten betrifft: definitiv ja.


Ja. Aber Qualität ist in der Realität eben nutzlos, wenn sie hoffnungslos veraltet ist oder nicht genügend kann.

Das kann sich hoechstens auf den Desktop Bereich beziehen.
Es gibt darueber hinaus ja auch noch "Männermaschinen": Router, DNS Server, Mailserver, DB Server etc. pp.
 
Zuletzt bearbeitet:
Alsa ist scheiße.

Zuersteinmal gibt es anscheinend keinen Standard, um ganz einfach einzustellen, welche Soundkarte die Standardsoundkarte sein soll.
Das darf man dann mit Utilities wie asoundconf set-default-card notdürftig richten. Das schreibt dann in ~/.asoundconf.asoundrc irgendeinen Müll, der mit ein bisschen Glück die gewählte Soundkarte tatsächlich als Standard einstellt.
Weiter geht es mit den Mixern und den Beschriftungen darin.
mixer1.png

Na, wer kann auf Anhieb den Sinn dahinter entdecken?
Man kann zwei Input Sources einstellen. Welchen Sinn hat das?
Weiter geht's:
mixer2.png

Oh, ich kann "Aufnahme" und "Aufnahme 1" einstellen. Das ist aber schön.

Wie sieht es also in der Praxis aus?
Beispiel mumble:
Ich schließe mein Mikrofon am Front Panel an checke nochmal, ob das auch alles richtig geht, indem ich beim Mixer die Stummschaltung von "Front Mic" entferne - geht.
Ich starte Mumble, stelle die Defaultsoundkarte ein und klicke mich durch den Assistent bis zur Einstellung des Mikrofons. Selbstverständlich kommt dort kein Ton an.
Ich checke nochmal den Mixer - Front Mic ist eingestellt.
Ich starte Audacity. Tatsache, bei "default" kommt kein Ton an, es erscheint aber ein Device, mit dem die Aufnahme funktioniert.
Aber bloß kein falsches Device anklicken. Sonst hängt sich das Programm auf mit
Code:
Expression 'ret' failed in 'src/hostapi/alsa/pa_linux_alsa.c', line: 1027
Expression 'AlsaOpen( hostApi, parameters, streamDir, &pcm )' failed in 
'src/hostapi/alsa/pa_linux_alsa.c', line: 1059

In Mumble gibt es auch so eine Deviceauswahl. Die Devices sind aber ersteinmal ganz anders benannt. Also probieren wir durch, freuen uns bei einer falschen Auswahl wieder über ein Programmfreeze, diesmal mit
Code:
ALSAAudio: snd_pcm_hw_params_set_format(pcm_handle, hw_params, SND_PCM_FORMAT_S16): Das Argument ist ungültig
und haben schließlich alle durch. Keins funktioniert.

Also rmmod'det man die Module für die HDMI "Soundkarte und die TV-Karte. Auf wundersame Weise kommt über die "default"-Einstellung in Mumble plötzlich Sound herein.

\o/
 
Ubuntu is still fucking a pain in the ass:
http://www.hackerboard.de/linux-uni...ler-krunner-reagiert-garnicht.html#post308138
PS: Ich meine das Thema, nicht die Poster!!
Wer da nicht mal auf nen richtiges OS wie Archlinux umsteigt, ist Masochist.


*fixed

Wer nicht auf GUIs zum updaten und auf einen in Versionen gegliederten Updatezyklus verzichtet, ist Masochist.
Hast du wohl gemeint?

Ein Großteil der Archlinux-User ist zum Minimalismus gezwungen weil gerade das "Zusammenbauen" eines Desktops wie Ubuntu ein Schmerz im Arch ist. Wer's mit den ungepatchten Paketen von Arch macht hat genau die Probleme die Ubuntus weg-gepatcht haben. Und kommt jetzt nicht mit den -ubuntu Paketen aus dem AUR :P

Wer da nicht mal auf nen richtiges OS umsteigt, ist Masochist.

*Fix fixed!
 
Mir ist Minimalismus um einiges lieber als Bloatware.

Bei Releasebasierten Systemen hat man eben immer diese veralteten Pakete. Und dann auch noch das reinpatchen von Funktionen der neuerne Versionen in die alten. Das ist überhaupt nichts für mich.
Außerdem, hat man das Problem, dass sich dann beim dist-upgrade viel zu viel ändert. Da funktioniert dann oft das grafische Updateprogram gar nicht (siehe verlinkter Thread) und man muss doch mit dem Paketmanager herumfrickeln.
Sowas hatte ich nach einem pacman -Syu noch nie. Man muss hin und wieder mal eine config neu anlegen, wenn sich die Syntax ändert, aber das geht immer problemlos.

Mich würde auch mal interessieren, welche konkreten Probleme du meinst, die Ubuntu wegpatcht. Denn üblicherweise funktioniert es ziemlich gut, dass die Pakete Upstream gepatcht werden. Naja, ziemlich, der Fix für den gtk-Bug mit thunar und pcmanfm läst noch auf sich warten.
http://bugs.archlinux.org/task/18904
Verstehe gar nicht, warum das so schwer ist...

Aber ja, erkläre ihm hier
http://www.hackerboard.de/linux-uni...ler-krunner-reagiert-garnicht.html#post308138
, warum Adept "Something broke. Adept will exit when you click OK. Please recover manually." weniger "masochistisch" ist als pacman.

Aber wenn es dann schon so losgeht
das 'sudo apt-get -f install' machst du, weil das Upgrade nicht fehlerfrei durchgelaufen ist. Damit sollten (theoretisch, ist aber Linux, daher nicht praktisch ;) ) die vorhandenen Fehler gefixt werden
was eben sachlich schon falsch ist... apt ist nicht "linux" sondern eben "debian"...
 
Ähnliche Probleme wie im verlinkten Thread hab ich auch schon mit rpm und tar.gz erlebt. dist-upgrades sind zumeist nur für Profis problemlos. Wobei man da sagen muss, dass die oftmals garnicht merken um wieviele Probleme sie gewohnheitsgemäß schon herumschiffern.
 
Das mag schon sein, aber Gentoo [...] sind "linux".

und bei Gentoo hatte ich es auch oft genug, dass man während eines Updates immer mal die standardmäßig zu verwendende GCC-Version ändern musste, weil sich manche Pakete nur mit der einen, andere nur mit der anderen Version haben bauen lassen...

und da es wesentlich frustrierender ist, wenn nach 30 Minuten Kompilieren plötzlich ein Fehler kommt und man nochmal von vorne anfangen muss, finde ich das Lösen einzelner Abhängigkeiten mit apt wesentlich weniger masochistisch - aber jeder hat halt andere Vorlieben, was den Masochismus angeht... ;)
 
Hach, war das heut morgen so toll.
Gegen 9-10 Uhr habe ich mal auf mein Blackberry geschaut um zu sehen, was ich an neuen Emails habe und musste feststellen, dass keine neuen Mails vorhanden sind. Da war ich doch etwas verwundern, denn nachts laufen einige Wartungsskripte auf den von mir betreuten Servern durch und es werden Status-Mails generiert.
Also ein kurzen Blick ins mail.log des Mailservers geworfen und ausgehend von den Tausend clamav-Fehlermeldungen habe ich noch einen Blick ins clamav-Log geworfen. Da sprang mir folgende Meldung lachend ins Gesicht:
This ClamAV version has reached End of Life!

Joah, es wurde ja erst im Oktober 2009 bekanntgegeben, dass die clamav-Versionen <0.95 net mehr supportet werden. Selbes Spiel wie beim 2010-Bug von Spamassassin.
Scheinbar kam das einfach zu plötzlich für die Debian-Maintainer...

Ich glaub ich such mir bald eine andere Distribution für meine Produktiv-Systeme. Das ist einfach net tragbar, wenn innerhalb von 4 Monaten 2mal das Mailsystem für Stunden komplett oder teilweise ausfällt.
 
Zurück
Oben