Linux Flame

@bitmuncher.

Du hast es nicht verstanden. Es liegt nicht an Linux. Es liegt am Managment und daran das die MS Landschaft dort so kacke ist.
Selbst schuld wenn die da produktiv arbeiten und eine Migration nach Linux unmoeglich machen!!11 ;)
 
Das ist ja auch ein flame thread :P
Und ein ziemlich schlechter dazu.

Ich habe immer mehr das Gefühl, Chromatin und Bitmuncher hätten ihre Accounts an BWL-Studenten abgegeben.

Es geht ja nicht nur um Lizenzkosten, die man JETZT spart. Der Umstieg auf offene Formate und Systeme ist ja auch eine Investition in die Zukunft.
 
Es geht ja nicht nur um Lizenzkosten, die man JETZT spart. Der Umstieg auf offene Formate und Systeme ist ja auch eine Investition in die Zukunft.

Als wenn Lizenzkosten die einzigen laufenden Kosten waeren. Jede "spezielle" Anforderung an Software muesste entwickelt werden (wenn es sie nicht gibt) Geraete muessen sich nach vorhandenen Treibern richten und es gibt genug solcher Exotensoftware die ganz spezielle Drucker *brauchen* (DrDoc, ArztpraxenSW etc.pp) Lesegeraetesupport fuer diverse Kartenleser und und und. Dazu der sicher hoehere Supportaufwand in solchen Netzen.
 
Es geht ja nicht nur um Lizenzkosten, die man JETZT spart. Der Umstieg auf offene Formate und Systeme ist ja auch eine Investition in die Zukunft.

Was bringt denn ein offenes System in der Zukunft, wenn es schon jetzt nicht mehr zeitgemäß ist? Wenn man irgendwann Computer mittels Sprache bedient, wird man bei Linux immernoch Befehle in die Textkonsole eingeben müssen. Zumindest wird es so sein, wenn die Entwicklung so weiter geht wie in den letzten Jahren und die beteiligten Entwickler nicht endlich mal die Zeichen der Zeit erkennen. Und wenn man das Kernel-Design nicht endlich mal ändert, wird es mit wachsender Treiber-Anzahl irgendwann tägliche Sicherheitsupdates für den Kernel geben müssen, weil man die Unzahl möglicher Sicherheitsmängel kaum noch überblicken, geschweige denn einheitlich testen kann. In was investiert man also, wenn man in Linux investiert? In ein unsicheres und schon heutigen Ansprüchen kaum noch gerecht werdendes System, dessen Entwickler nicht bereit sind sich einer modernen Software-Entwicklung anzupassen und die immernoch auf Prinzipien der 90er Jahre rumreiten. Da kann ich auch die Weiterentwicklung von DOS unterstützen. Kommt etwa auf das Gleiche raus.
 
Was bringt denn ein offenes System in der Zukunft, wenn es schon jetzt nicht mehr zeitgemäß ist? Wenn man irgendwann Computer mittels Sprache bedient, wird man bei Linux immernoch Befehle in die Textkonsole eingeben müssen.

Das will ich auch hoffen, sonst such ich echt ein altes DOS raus ;). Mit Sprache, was soll denn der Unfug?
 
Jede "spezielle" Anforderung an Software muesste entwickelt werden (wenn es sie nicht gibt)
Und langfristig lohnt es sich nicht, offene System für so etwas zu haben statt eines propritären Monopols, von dem man dann auf Gedeih und Verderb abhängig ist?

Geraete muessen sich nach vorhandenen Treibern richten und es gibt genug solcher Exotensoftware die ganz spezielle Drucker *brauchen* (DrDoc, ArztpraxenSW etc.pp) Lesegeraetesupport fuer diverse Kartenleser und und und.
Braucht die Stadtverwaltung das etwa? :)

Ich weiß, ich weiß, du willst lieber die proprietären Treiber, damit du die Geräte wegschmeißen kannst, sobald der Hersteller pleite geht und du deine Software irgendwann Mal upgraden willst (wenn der Support dafür ausläuft z.B.).

Dazu der sicher hoehere Supportaufwand in solchen Netzen.
Erzähl' doch mal.


Was bringt denn ein offenes System in der Zukunft, wenn es schon jetzt nicht mehr zeitgemäß ist?
Es geht um die Anforderungen einer Stadtverwaltung hier.

Wenn man irgendwann Computer mittels Sprache bedient, wird man bei Linux immernoch Befehle in die Textkonsole eingeben müssen. Zumindest wird es so sein, wenn die Entwicklung so weiter geht wie in den letzten Jahren und die beteiligten Entwickler nicht endlich mal die Zeichen der Zeit erkennen.
Behauptung?

Und wenn man das Kernel-Design nicht endlich mal ändert, wird es mit wachsender Treiber-Anzahl irgendwann tägliche Sicherheitsupdates für den Kernel geben müssen, weil man die Unzahl möglicher Sicherheitsmängel kaum noch überblicken, geschweige denn einheitlich testen kann. In was investiert man also, wenn man in Linux investiert? In ein unsicheres und schon heutigen Ansprüchen kaum noch gerecht werdendes System, dessen Entwickler nicht bereit sind sich einer modernen Software-Entwicklung anzupassen und die immernoch auf Prinzipien der 90er Jahre rumreiten.
Wenn dir Linux nicht gefällt, dann kannst du ja auf ein BSD umsteigen. Wenn du schon offene Formate und Protokolle benutzt, dann kannst du das nämlich ziemlich einfach, ohne ersteinmal Sondermüll beseitigen zu lassen (siehe Artikel)

Da kann ich auch die Weiterentwicklung von DOS unterstützen. Kommt etwa auf das Gleiche raus.
Mach' doch.
 
Es geht um die Anforderungen einer Stadtverwaltung hier.

Gerade in einer Stadtverwaltung wo mit vertraulichen Daten der Bürger umgegangen wird, würde ich erwarten, dass ein sicheres Betriebssystem zum Einsatz kommt. Ein System, das schon für seinen Kernel monatlich Sicherheitspatches herausbringen muss, ist erstmal als unsicher einzustufen. Wenn dann auch noch eine extra Distro für die Stadtverwaltung entwickelt wird, anstatt sich auf eine der großen zu verlassen, bei der sichergestellt ist, dass Sicherheitspatches auch in angemessener Zeit eingespielt werden können, dann ist das noch weniger als sicher einzustufen und verursacht unnötig hohe Kosten durch Pflege der Distribution.
 
Da kann ich auch die Weiterentwicklung von DOS unterstützen. Kommt etwa auf das Gleiche raus.
Da es einen ungeheuren Haufen proprietärer Legacy-Software gibt, die nur auf DOS läuft, ist das gar nicht so abwegig. :)
FreeDOS wurde nicht aus Jux und Dollerei entwickelt, sondern weil der Support für MS-DOS eingestellt wurde - aber es weiterhin zu viele Software gibt, die nur auf DOS läuft.
 
Ein System, das schon für seinen Kernel monatlich Sicherheitspatches herausbringen muss, ist erstmal als unsicher einzustufen.
Und du meinst, ein System, das Sicherheitspatches für den Kernel nur ein mal im Jahr rausbringt, ist sicherer? :D
Wenn dann auch noch eine extra Distro für die Stadtverwaltung entwickelt wird, anstatt sich auf eine der großen zu verlassen, bei der sichergestellt ist, dass Sicherheitspatches auch in angemessener Zeit eingespielt werden können, dann ist das ist das noch weniger als sicher einzustufen (...)
Das ist tatsächlich ein Problem. Es wäre vermutlich sicherer, eine große oder gar kommerzielle Distribution zu benutzen, und die dann nur an die Bedürfnisse anzupassen.
 
normalerweise sagt man es ja immer Windows nach, dass man es recht leicht kaputt spielen kann... ich habe mein Debian (ziemlich wirrer stable-testing-mix) jetzt auch kaputt bekommen: plötzlich hat er nach 'nem Update meinen Akku nicht mehr als solchen erkannt, sondern war der Meinung, er würde fest am Netz hängen und hätte keinen Akku... macht sich schlecht, wenn der Akku leer wird und das System nicht mitbekommt, dass es besser mal in hibernate fahren sollte...
(acpi-kernelmodule waren geladen, acpi-zeugs war alles installiert - keine Ahnung, woran es lag...)

Also kam auch ich heut mal in den Genuss einer Betriebssystem-Neuinstallation. :)
 
@Blackbird++: Ich bin der Meinung, dass ein System, bei dem nicht wöchentlich neue Sicherheitslücken im Kernel bekannt werden, erstmal als sicherer einzustufen ist. Mir ist übrigens kein System bekannt, dass Sicherheitslücken im Kernel nicht "umgehend" schliesst. Mir ist allerdings auch kein System bekannt, das soviele Sicherheitsprobleme schon im Kernel aufzuweisen hat wie Linux und erst recht keines, bei dem man so leicht root-Zugriff erlangen kann, wenn man es nur schafft einen Zugriff mittels unauthorisiertem User zu bekommen. Man muss sich ja nur mal bei Debian den aktuellen Monat anschauen, neben dem Kernel gab es Fixes für Pango, pulseaudio, dpkg, cups und sudo, um nur mal die aufzuführen, die auf fast jedem Desktop installiert sind. Wenn man dann auch noch schaut, wann die entsprechenden Lücken bekannt wurden, weiss man auch, wie lange diese Lücken im System waren. Die Lücke in pulseaudio wurde z.B. im Dezember 2009 veröffentlicht. Eine der Lücken, die im Kernel gefixt wurden, wurde im Oktober 2009 bekannt. Angesichts solcher Umstände ist es einfach nur lächerlich, wenn Linuxer behaupten, dass ihr System sicherer sei als andere.
 
bitmuncher, ich bin und bleibe zwar trotzdem überzeugter Linuxianer und muss in deinem Blog-Artikel auch dem Kommentar von Kalle in vielen Bereichen zustimmen, aber gerade hab ich mal wieder einen erschreckenden Beitrag zu dem in deinem Blog angesprochenen Problem des Newbie-Bashing gefunden:

http://sidux.com/PNphpBB2-viewtopic-p-153898.html

da verteitigt ein User (EvoX) den Thread-Ersteller und schon wird er - da er halt nicht der Meinung des Moderators ist - für 2 Wochen gesperrt... nicht gerade die feine englische Art... bisher fand ich Sidux eigentlich ein ganz interessantes Projekt... die Meinung hat sich dank EINES Moderators plötzlich geändert...
 
Und langfristig lohnt es sich nicht, offene System für so etwas zu haben statt eines propritären Monopols, von dem man dann auf Gedeih und Verderb abhängig ist?

Es gibt kein Monopol in der Welt der Betriebssysteme. Btw. verlaeuft _diese_ Argumentation nach dem Motto "Wir koennen genausogut Linux nehmen, denn windows ist AUCH scheisze".
Im uebrigen ist der Begriff OFFENES System bei Linux resp. der GNU Welt eh mit vorsicht zu benutzen und irrefuehrend. Und manchmal so unglaublich zutreffend :D



Zitat:
Zitat von Chromatin
Geraete muessen sich nach vorhandenen Treibern richten und es gibt genug solcher Exotensoftware die ganz spezielle Drucker *brauchen* (DrDoc, ArztpraxenSW etc.pp) Lesegeraetesupport fuer diverse Kartenleser und und und.

Braucht die Stadtverwaltung das etwa? :)

Ich weiß, ich weiß, du willst lieber die proprietären Treiber, damit du die Geräte wegschmeißen kannst, sobald der Hersteller pleite geht und du deine Software irgendwann Mal upgraden willst (wenn der Support dafür ausläuft z.B.).

DMS, oh ja! Und das bei mancher SW nur recht spezielle Geraete unterstuetzt werden, ist nunmal fakt. Im uebrigen besteht das Problem wegfallender Hartwarehersteller generell. Oder meinst Du, irgendein Kernelhacker baut Treiber fuer 10 Jahre alte Drucker zusammen, wo er keine Zeile technische Doku fuer einen Treiber finden wird (OK, Linuxhacker prostituieren sich ja auch ganz gerne mal).


Zitat:
Zitat von Chromatin
Dazu der sicher hoehere Supportaufwand in solchen Netzen.

Erzähl' doch mal.
Erfahrung. Du kannst diesbezueglich auch jeden anderen Techniker fragen, der sowas mitgemacht hat.
 
Bin nur einfacher User und hab damals mit SuSE Linux 6.3 angefangen. War alles noch recht verständlich und ich hab mir den Kernel selbst angepasst und compiliert. Hat auch echt Spaß gemacht, wenn man in der gleichen Zeit das Mehrfache an MP3s generieren konnte als unter Win 98 SE, oder wenn Hardware unter Linux lief und trotz Herstellertreiber unter Win nicht.
Damals war ich von Linux begeistert.

Hab aber jetzt Linux komplett runter geschmissen, weil ich keine Lust mehr hab, mich tagelang mit dem Durcheinander zu beschäftigen, nur um eine Allerwelts-Hardware so ans laufen zu bringen das ich die Hardware auch vernünftig nutzen kann und nicht nur die Grundfunktionen. Vorausgesetzt, ich bekomme die Hardware überhaupt dazu unter Linux zu funktionieren.

In meiner ehemaligen Firma wird in einem Bereich immer noch SuSE Linux 5.9 eingesetzt, da es um sehr schützenswerte Daten geht. Die werden wohl ihre Gründe haben, warum sie nicht updaten , oder nicht ? ( Die Daten werden nur im Bedarfsfall in den Rechner verfrachtet, ansonsten liegen die im Tresor. )

Soweit die Meinung von jemand, der jahrelang für Linux eingetreten ist, auch wegen GNU und OpenSource. Damit hier auch mal ein Nicht-Fachmann zu Worte kommt, denn was nutzt es wenn Linux nur noch von Informatikern bedient werden kann ???
 

after installation, the machine wouldn’t boot. Grub had fucked things up and wouldn’t even launch. This can happen sometimes if you install a new version of grub 2 over an old grub 1. I had to boot the unetbootin stick into rescue mode and do grub-install /dev/sda and update-grub to get it to work.
GRUB 2 is a complete rewrite and is at a developmental phase.
Ergo: Debian Problem, wenn sie unfertige Software einsetzen.
Aber da es Debian "testing" ist, sind wohl noch Probleme zu erwarten.

I didn’t have any 3D acceleration (NVIDIA) yet, and Debian is very much against non-free software so they don’t include a proprietary driver manager like Ubuntu does. On Ubuntu, NVIDIA drivers are a one click thing. On Debian, I instead downloaded the binary NVIDIA proprietary driver installer from NVIDIA, entered a text shell, killed GDM and X, installed the driver, wrote out a default xorg.conf file using Xorg –config, changed the driver to nvidia and restarted GDM.
Stattdessen hätte er auch das Wiki lesen können:
http://wiki.debian.org/NvidiaGraphicsDrivers#InstalltheNVIDIAXdriveranduser-spacelibraries
Dann hätte er gesehen, dass er Unsinn schreibt.

Later I started on a quest to enable 3D window effects and all that Compiz eye candy. The official documentation says to install some compiz packages and then a simple compiz --replace would take care of things. This didn’t go down well on my system, no window manager comes up so I end up with X windows but without borders or decorations. I’ll have to investigate a bit more.
Ohne Decorator geht's eben nicht.
Wiederum steht im Wiki, was man da macht: http://wiki.debian.org/Compiz

So I tried mounting things, using the exact same /etc/fstab as on my Ubuntu box. But on Debian I get “Operation not permitted.” Apparently the authors decided that normal users should never, not under any circumstances be able to mount CIFS filesystems, and Debian is now following these instructions.
Wie er selbst schreibt, ist das eine Entscheidung von Debian und hat mit Linux selbst wenig zu tun.

Ich frage mich, warum ich überhaupt antworte, wenn er doch selber schreibt, dass er Probleme beschreibt, die einem Umsteiger von Ubuntu, auffallen könnten. Also hatte er sie offenbar unter Ubuntu nicht. Also solltest du ein Thema "Debian Flame" aufmachen.
Und jetzt habe ich mir die Mühe gemacht, selbst die Antworten zu schreiben, dabei hätte ich doch nur in die Kommentare schauen müssen...
 
Nichtsdestotrotz ein starkes Stueck.

Das Debian-Projekt wurde durch Ian Murdock am 16. August 1993 ins Leben gerufen. Heute arbeiten über 1.000 Personen mit, die das System zusammenstellen.

Hab ich gerade mal gesucht. Also.. 8 Jahre Entwicklung und noch immer solche Mätzchen?

Dann sind da tatsaechlich 1000 Leute mit bei? Und trotzdem nichts besseres als netfilter, kein eigenes MTA und ueberhaupt. Mal ehrlich, gehoert man schon zu diesen 1000 Entwicklern wenn man sich bei denen im Wiki anmeldet?

Zum vergleich: OpenBSD hat nichtmal 100 aktive Entwickler und die setzen Massstaebe, dauerhaft.
 
Was für Mätzchen denn?
Du musst die Entscheidungen ja nicht gut finden, aber was er da ankreidet ist eigentlich alles dokumentiert. Vielleicht nicht so gut, wie du es von den BSDs gewohnt bist, aber doch ausreichend.
Und wie ich schonmal gesagt hatte und wie auch er gesagt hatte: Es ist debian TESTING. Da werden Sachen, naja, getestet.
 
Du musst die Entscheidungen ja nicht gut finden, aber was er da ankreidet ist eigentlich alles dokumentiert. Vielleicht nicht so gut, wie du es von den BSDs gewohnt bist, aber doch ausreichend.

Das schlimme ist nach wie vor nicht, das manche Dinge nicht auf anhieb laufen (immerhin ist Linux immer noch sehr jung und logischerweise unreif).

Das unangenehme ist diese "Mit Linux geht alles, Linux ist Desktop tauglich, etc. pp." Haltung.
 
OT:
Das unangenehme ist diese "Mit Linux geht alles, Linux ist Desktop tauglich, etc. pp." Haltung.
fullACK. Und das ohne Flaming.
Und wie ich schonmal gesagt hatte und wie auch er gesagt hatte: Es ist debian TESTING. Da werden Sachen, naja, getestet.
Mir ist letztens das so stabile Lenny (direkt nach der minimalen Installation) beim Xorg -configure nachvollziehbar abgeschmiert (blackscreen, nichts ging mehr - Monitor blieb bis zum reboot schwarz).
Ich meine, soo groß ist das Problem auch nicht, die xorg.conf manuell anzulegen und zu füllen - aber wenn man versucht aus Prinzip nach Lösungen und Ursachen zu googlen, darf man sich durch zig Querverweise verschiedener Linuxforen klicken. Und sehr häufig ist das beliebte "man muss sich auch mit dem System beschäftigen!!! RTFM" zu lesen, obwohl gerade da nichts davon steht :rolleyes:
Die meisten Wiki/Dokus sind quasi Schritt-für-Schritt Anleitungen zum abtippen - blöd nur, wenn es eben nicht so klappt, wie in der Anleitung.

Topic:
Bitmuncher hat recht - auf Dauer ist der Monokernel nicht tragbar. Anstatt auf aber Mikrokernel umzusteigen, wird immer mehr Arbeit in den Monokernel gesteckt - nach dem Prinzip "wir haben uns ja die Mühe nicht umsonst gemacht!". Alleine von der Kernelversion 2.6.29 auf 2.6.32 sind 1.6 Mio Zeilen hinzugekommen. Zun Vergleich: die 2.4er Version hat gerade mal insgesamt 3 Mio Zielen.

Und was ist dann? Schon jetzt sind gibt es
http://www.securityfocus.com/cgi-bi...isplay_list&vendor=Linux&version=&title=&CVE=
(das sind 30 Einträge an Kernel-Vulns alleine für März) und Hurd dümpelt immer noch vor sich hin.

Ich sehe das ganz einfach: die "Ressourcen"/Manpower werden grundlos verschleudert. In einen Kernel, der ohne drastische Änderungen keine Zukunft hat. In die paar hundert Distributionen und genauso viele unsinnige halbfertige Dokumentationen sowie halbherziges Testing eben dieser Distris. Vor allem aber in den Versuch, es allen recht zu machen und unbedingt Desktop+Servertauglich zu sein.

Es wäre vielleicht an der Zeit das OS zu redesignen. Modular heißt nicht unbedingt, dass man Treiber laden/entladen kann oder 20 000 Configfiles hat ;). Sonst schaut es tatsächlich so aus, als ob zu viele Köche den Brei verderben würden. Denn ganz ehrlich: wenn ich aktuelle Ubuntu/Debian Distributionen mit dem freien BSD vergleiche - von der Funktionalität (abgesehen von 3rd party Tools) nimmt es sich nicht viel. Und das obwohl beim BSD viel weniger Leute werkeln. Das soll aber kein "schlechtermachen" sein, sondern quasi ein Bedauern - was die Linuxcommunity mit ihren Ressourcen tatsächlich erreichen könnte.
 
Zurück
Oben