Linux Sicherheit

Chromatin

0
Mitarbeiter
Ich weiss, die Uberschrift reizt.

Aber aus gegeben Anlass moechte ich noch mal ne nette Mail von Linus Posten:
On Tue, 15 Jul 2008, Linus Torvalds wrote:
>
> So as far as I'm concerned, "disclosing" is the fixing of the bug. It's
> the "look at the source" approach.

Btw, and you may not like this, since you are so focused on security, one
reason I refuse to bother with the whole security circus is that I think
it glorifies - and thus encourages - the wrong behavior.

It makes "heroes" out of security people, as if the people who don't just
fix normal bugs aren't as important.

In fact, all the boring normal bugs are _way_ more important, just because
there's a lot more of them. I don't think some spectacular security hole
should be glorified or cared about as being any more "special" than a
random spectacular crash due to bad locking.

Security people are often the black-and-white kind of people that I can't
stand. I think the OpenBSD crowd is a bunch of masturbating monkeys, in
that they make such a big deal about concentrating on security to the
point where they pretty much admit that nothing else matters to them.

To me, security is important. But it's no less important than everything
*else* that is also important!

Linus

(http://article.gmane.org/gmane.linux.kernel/706950)



Wirklich beruhigend :)
 
Er(Linus) hat doch recht.

Alle Bugs sind wichtig, net nur die Security fixes.
Was bringt mir ein System welches keine bekannten Exploits hat, aber bei bestimmten dingen nur Müll prodiziert.
 
Und was bringt mir ein System, für das es ständig neue Kernel-Exploits gibt? Sowas ist selbst bei den ach so doofen MS-Leuten wesentlich seltener der Fall. Die Kernel-Entwickler sollten langsam mal einsehen, dass der monolithische Ansatz des Kernels für ein modernes System einfach nicht mehr zeitgemäss ist. Allein dadurch ist bereits abzusehen, dass es immer wieder Kernel-Lücken geben wird, die einfach übersehen werden. Fehlende Funktionalitäten wie RBAC usw. sorgen für weitere Sicherheitsschwächen und machen Lücken im Kernel nochmal um einiges "gefährlicher". Ein System, das primär im Server-Bereich eingesetzt wird, kann es sich nicht leisten so lasch mit der Sicherheitsproblematik umzugehen. Dass für ihn Sicherheit wichtig ist, kann er jedenfalls seiner Grossmutter erzählen, sonst wäre es z.B. niemals möglich gewesen eine Backdoor in den Kernel einzuschleusen, wie es vor ein paar Jahren der Fall war, wunderbar_emporium wäre nie aufgetaucht, wenn man regelmässig das Zusammenspiel von vorhandenem mit neuem Code testen würde und eine anständige/zeitgemässe Rechtekontrolle des Systems wäre dann Standard. Ich denke daher, dass L.Torvalds den Blick für zeitgemässes Systemdesign verloren hat. Wir sind schliesslich nicht mehr in den 80ern und sowohl die Hardware als auch die meisten Betriebssysteme haben sich mittlerweile weiterentwickelt. Linux tat dies (leider) nicht und mittlerweile halte ich Linux für weniger stabil als Windows, für unsicherer als *BSD und auch die Performance lässt immer mehr zu wünschen übrig. Es bleibt zu hoffen, dass Torvalds seine Einstellung bezüglich Systemdesign möglichst bald ändert, sonst kickt er Linux zurück in die 90er Jahre, als es "ein System für Hacker" war, was heutzutage einfach niemand mehr braucht, nicht mal die Hacker, denn es gibt genug OpenSource-Alternativen.
 
Original von bitmuncher
Und was bringt mir ein System, für das es ständig neue Kernel-Exploits gibt? Sowas ist selbst bei den ach so doofen MS-Leuten wesentlich seltener der Fall.
Ich als Laie stelle einfach mal eine Behauptung auf: Das liegt daran, dass man bei einem Closed-Source-Kernel um einiges länger braucht, eine Lücke zu finden, als bei einem Open-Source-Kernel. Stelle ich mir jedenfalls so vor.

Linux tat dies (leider) nicht und mittlerweile halte ich Linux für weniger stabil als Windows, für unsicherer als *BSD und auch die Performance lässt immer mehr zu wünschen übrig.
Stabilität halte ich für eine subjektive Angelegenheit, da sie sich nicht messen lässt. Zur Sicherheit kann ich nichts sagen, weil ich mich auf diesem Gebiet kaum bis garnicht auskenne und die Performance finde ich persönlich trotzdem noch um einiges stärker als die von Windows XP/Vista (Seven habe ich zuletzt in der Beta auf ner uralten Kiste getestet - zur Produktivgeschwindigkeit kann ich nix sagen).
 
Original von r@mi
Ich als Laie stelle einfach mal eine Behauptung auf: Das liegt daran, dass man bei einem Closed-Source-Kernel um einiges länger braucht, eine Lücke zu finden, als bei einem Open-Source-Kernel. Stelle ich mir jedenfalls so vor.
Ich rede u.a. auch von OpenSource-Kernels wie z.B. FreeBSD oder OpenSolaris. Wann hast du z.B. das letzte Mal von einer kritischen Lücke im Solaris-Kernel gehört? Von einer im Linux-Kernel hörte man allein dieses Jahr mindestens 2 Mal.

Original von r@mi
Stabilität halte ich für eine subjektive Angelegenheit, da sie sich nicht messen lässt. Zur Sicherheit kann ich nichts sagen, weil ich mich auf diesem Gebiet kaum bis garnicht auskenne und die Performance finde ich persönlich trotzdem noch um einiges stärker als die von Windows XP/Vista (Seven habe ich zuletzt in der Beta auf ner uralten Kiste getestet - zur Produktivgeschwindigkeit kann ich nix sagen).

Ich halte es nicht für eine subjektive Angelegenheit, wenn ich auf Linux-Servern ständig mit Kernel-Panics zu tun habe und auf Solaris-Maschinen z.B. so gut wie nie. Dass ein System bei überlaufendem Swap anfängt Prozesse zu killen und zwar nicht etwa den, der den Swap belegt, sondern einfach sequentiell durch die PIDs geht, spricht auch nicht unbedingt für eine gute geschweige denn brauchbare Skalierbarkeit.
 
Ich halte es nicht für eine subjektive Angelegenheit, wenn ich auf Linux-Servern ständig mit Kernel-Panics zu tun habe und auf Solaris-Maschinen z.B. so gut wie nie.
Hmm, da wirst du wohl vom Pech verfolgt.
Den letzten Kernel Panic irgendeines Linux Rechners an dem ich gearbeitet hab, hatte ich als ich versehentlich nen USB-Port kurzgeschlossen hab.

Und eine Local-Exploit ist bei Servern wohl ein eher geringes Problem.
Schließlich hat man nicht viele lokale User(im normalfall). Außerdem mmap_min_addr auf einer Mehrheit der Systeme per default > 0. (Außer Redhat Enterprise Linux... und damit vermutlich auch be Centos).

Sicher konfigurierte Serverdienste ermöglichen entfernten Angreifern garnicht erst einen local-Exploit auszunutzen.
 
Original von SP4C3
Sicher konfigurierte Serverdienste ermöglichen entfernten Angreifern garnicht erst einen local-Exploit auszunutzen.

Es sei denn diese Dienste oder die Daten, die sie anbieten, enthalten auch wiederum Sicherheitslücken. Gerade deswegen ist ein sicherer Kernel umso notwendiger, denn schliesslich regelt er die Rechtevergabe. Wenn man diese umgehen kann, ist das mehr als fatal und führt sie ad absurdum. Mit einem sicheren Kernel sind die Schäden, die ein Remote-Exploit verursachen kann, wesentlich geringer, sofern der Dienst korrekt rechtlich eingeschränkt ist, d.h. nur Zugriff auf seine eigenen Dateien hat. Eine infizierte Webserver-Binary oder Library ist z.B. wesentlich leichter wieder rückgängig zu machen als ein bis in die Tiefen verseuchtes System wo mit root-Rechten Dateien ausgetauscht, Dienste manipuliert, Konfigurationen geändert und Kernel-Trojaner eingeschleust wurden. Deswegen gilt bei Linux- wie auch bei Windows-Rechnern z.B. bis heute die Devise "Wenn der Rechner erfolgreich gehackt wurde, sollte man ihn neu einrichten." Das stimmt zwar auch nicht so 100%ig, weil man es durch ein gutes Monitoring, das Änderungen im Dateisystem überwacht, durchaus zumeist hinbiegen kann, aber es macht halt zusätzlichen Aufwand, der nicht notwendig wäre, wenn man sich auf die Rechteverwaltung des Systems verlassen könnte. Dazu wäre aber RBAC, ACL o.ä. unverzichtbar, da die Rechte über Gruppen und User mehr als "ungenau" sind. Sowas ist bei Linux aber bis heute optional und muss nachgerüstet werden.

Im übrigen denke ich nicht, dass ich vom Pech verfolgt werde. Ich habe einfach mit vielen unterschiedlichen Rechnern zu tun.
 
Der Post ist ueber ein Jahr alt.
Im Prinzip gehts auch darum dasz Linux Entwickler *wissentlich* diesen Bug einfach ignoriert haben.
In OpenBSD wurde er vor einem Jahr gefixt und war schon lange Zeit zuvor bekannt (angeblich 2006) Ilja praesentierte den Bug auf nem CCC Congress im Winter 2007 (http://blogs.23.nu/ilja/2007/01/).

Trotz allem, Class of Bug!


Dazu wäre aber RBAC, ACL o.ä. unverzichtbar, da die Rechte über Gruppen und User mehr als "ungenau" sind. Sowas ist bei Linux aber bis heute optional und muss nachgerüstet werden.
Leider ist sowas aber auch wirklich schwer bis nahezu unmoeglich anstaendig "nach"zuimplementieren. Ich haette zb sehr gerne eine WindowsNT-maeszige Rechtegranularitaet in BSD :)


Schließlich hat man nicht viele lokale User(im normalfall). Außerdem mmap_min_addr auf einer Mehrheit der Systeme per default > 0. (Außer Redhat Enterprise Linux... und damit vermutlich auch be Centos).
Interessant, bei dir gibts also nur root? :)

Sicher konfigurierte Serverdienste ermöglichen entfernten Angreifern garnicht erst einen local-Exploit auszunutzen.
Es geht doch nicht um Expertensysteme, die NUR von IT Superprofis gemanagt werden koennen. Es geht um eine Bug-Art, die definitiv, zumindest so gut es geht, abgeschafft werden sollte. Darueber hinaus findet sich Linux in immer mehr Geraeten in allen Lebensbereichen. Und da kann kein Sysadmin oder Kernel Entwickler garantieren dasz Software sauber entwickelt ist. Und mal ehrlich: Die BEste Software auf dem Markt SIND Betriebssysteme. Denn die muessen den ganzen Dreck an Software Dritter laufen lassen koennen ohne abzuscheissen.
 
Zurück
Oben