Hey Leute,
zuerst verwirrte es mich, dass Bits und Bytes parallel verwendet werden könnten und dass man sich entscheiden könne, welche Einhait man benutzen darf. Ich machte mich schlau und erfuhr, dass Bytes generell bei Dateien verwendet werden und Bits bei Übertragungen. Dazu kenne ich auch die Geschichte dahinter ein wenig - aber wieso macht man es so schwierig?
Ich meine ganz ehrlich. Es reicht schon, dass die "uns" die Basen für SI-Einheiten in der Informatik unnötig verkomplizieren muss. Ich bin sowieso dafür, dass 1 MB = 1024 KB (ja, ein großes K, da es meiner Ansicht nach dann auch egal ist, die Schreibweise zu befolgen und evtl. räumt das auch Verwechslungsgefahren aus dem Weg).
In Ordnung, zu meiner Frage. Ich kann verstehen, dass einigen Leuten dies nicht gefallen mag, da sie es eben schon seit Ewigkeiten so kennen, aber ich denke man muss auch offen für Neues sein. Meiner Meinung nach stiften die zwei verschiedenen Schreibweisen nur Verwirrung. Doch mein Ansatz ist der (sehr vereinfacht): Daten sind auf der Festplatte abgespeicht und dort mit Byte-Angaben versehen. Will man etwas versenden, wird jedoch die Übertragung, dieser in Byte angegebenen Daten, in Bit angeben. Also 24 Mbit/s oder so. Man müsse die 24 mit 8 erst multiplizieren, um die Dateigröße zu erhalten, da 1 Byte = 8 Bit(s) und so.
Als Computernutzer hat man sich schon an die Byte-Formate gewöhnt.
Was meint ihr so?
Außerdem: Jeder kennt ja die Mobiltelefonwerbung von 1&1 oder schieß mich tot. "1 Gbit/s mit bestem blablabla..", kennt ihr ja. Nun, jemand, der auf "Sie sind der eine Millionste Besucher! Sie haben ein iPhone gewonnen! Jetzt hier klicken!" reinfällt und sich einfach nicht für Computer interessiert, also sehr viele Menschen, mag zwischen den beiden Sachen nicht mal einen Unterschied feststellen. Ich finde die Werbeindustrie nutzt das aus, man glaubt, 1 Gigabyte pro Sekunde zu haben. Doch in der Realität ist das lediglich ein Achtel.
Ich würde das Ändern, um Dinge einfach simpler zu machen, denn es gibt schon genug kompliziertes Zeug in der Informatik ¯\_(ツ)_/¯https://www.youtube.com/channel/UChrh7morqhczDOTIkRD5chA
zuerst verwirrte es mich, dass Bits und Bytes parallel verwendet werden könnten und dass man sich entscheiden könne, welche Einhait man benutzen darf. Ich machte mich schlau und erfuhr, dass Bytes generell bei Dateien verwendet werden und Bits bei Übertragungen. Dazu kenne ich auch die Geschichte dahinter ein wenig - aber wieso macht man es so schwierig?
Ich meine ganz ehrlich. Es reicht schon, dass die "uns" die Basen für SI-Einheiten in der Informatik unnötig verkomplizieren muss. Ich bin sowieso dafür, dass 1 MB = 1024 KB (ja, ein großes K, da es meiner Ansicht nach dann auch egal ist, die Schreibweise zu befolgen und evtl. räumt das auch Verwechslungsgefahren aus dem Weg).
In Ordnung, zu meiner Frage. Ich kann verstehen, dass einigen Leuten dies nicht gefallen mag, da sie es eben schon seit Ewigkeiten so kennen, aber ich denke man muss auch offen für Neues sein. Meiner Meinung nach stiften die zwei verschiedenen Schreibweisen nur Verwirrung. Doch mein Ansatz ist der (sehr vereinfacht): Daten sind auf der Festplatte abgespeicht und dort mit Byte-Angaben versehen. Will man etwas versenden, wird jedoch die Übertragung, dieser in Byte angegebenen Daten, in Bit angeben. Also 24 Mbit/s oder so. Man müsse die 24 mit 8 erst multiplizieren, um die Dateigröße zu erhalten, da 1 Byte = 8 Bit(s) und so.
Als Computernutzer hat man sich schon an die Byte-Formate gewöhnt.
Was meint ihr so?
Außerdem: Jeder kennt ja die Mobiltelefonwerbung von 1&1 oder schieß mich tot. "1 Gbit/s mit bestem blablabla..", kennt ihr ja. Nun, jemand, der auf "Sie sind der eine Millionste Besucher! Sie haben ein iPhone gewonnen! Jetzt hier klicken!" reinfällt und sich einfach nicht für Computer interessiert, also sehr viele Menschen, mag zwischen den beiden Sachen nicht mal einen Unterschied feststellen. Ich finde die Werbeindustrie nutzt das aus, man glaubt, 1 Gigabyte pro Sekunde zu haben. Doch in der Realität ist das lediglich ein Achtel.
Ich würde das Ändern, um Dinge einfach simpler zu machen, denn es gibt schon genug kompliziertes Zeug in der Informatik ¯\_(ツ)_/¯https://www.youtube.com/channel/UChrh7morqhczDOTIkRD5chA