Können Computer Fehler machen?

Hallo HaBo,

Ich hoffe mal dass ich das hier im richtigen Bereich gepostet habe, sonst bitte verschieben.
Meine Frage ist eigendlich ganz einfach: Ist es möglich, dass Computer Fehler machen können? Damit meine ich jetzt keine normalen Bugs (die ja eigendlich nicht vom Computer selber herrühren), sondern etwas was wir beim Menschen als Flüchtigkeitsfehler bezeichnen würden.

Vllt. ein Beispiel:

Ein Anwender gibt z.B. eine 1 in eine Maske ein. Diese 1 soll nun in einer Textdatei gespeichert werden. Ist es durch was weis ich dumme Zufälle etc. möglich das der Computer "ausversehen" z.B. eine 2 speichert, obwohl das Programm einwandfrei programmiert ist?
 
Kann ich mir nicht vorstellen, woher sollte er die 2 nehmen? Soll heißen, wie sollte er darauf kommen?

mfg soul
 
Da wird sich kaum etwas dran ändern, schätz ich mal, da die "Technik" (Einsen und Nullen) die gleiche geblieben ist.
Flüchtigkeitsfehler wird es wohl eher nicht geben, da der Rechner bzw das Programm nicht in dem Sinne "denkt", sondern einfach nur einen Code abarbeitet.
 
Echt interessant, hätte nicht gedacht, dass eine Supernova in meinem RAM rumpfuschen kann... wo bleibt da denn noch der Datenschutz? *scnr*

Aber wäre ein "Fehler" im Betriebsablauf des Computers nicht trotzdem immernoch auf den Menschen zurückzuführen? Denn schließlich wächst der Computer ja nicht auf Bäumen. Wie gesagt, der Computer macht das was der Mensch ihm sagt, wenn nun eine kosmische Strahlung die Informationen auf einem Speicherchip (ohne Parity oder ECC) verändert, ist das doch im Grunde genommen immernoch ein (Flüchtigkeits-)Fehler des Menschen, wie wenn dir etwas auf die Tastatur fällt und deswegen Informationen im RAM verändert werden... Naja, ich denke das geht aber mehr in die Philosophie.
 
Original von brain21
Aber wäre ein "Fehler" im Betriebsablauf des Computers nicht trotzdem immernoch auf den Menschen zurückzuführen? Denn schließlich wächst der Computer ja nicht auf Bäumen. Wie gesagt, der Computer macht das was der Mensch ihm sagt, wenn nun eine kosmische Strahlung die Informationen auf einem Speicherchip (ohne Parity oder ECC) verändert, ist das doch im Grunde genommen immernoch ein (Flüchtigkeits-)Fehler des Menschen, wie wenn dir etwas auf die Tastatur fällt und deswegen Informationen im RAM verändert werden...

Wenn ein Mensch Flüchtigkeitsfehler macht, liegt das Problem in der "Software".
Das Gehirn arbeitet nunmal unscharf assoziativ und stellt keinen Anspruch auf exakte Ergebnisse.
Naja und zu Fremdeinwirkungen... Wenn du den ganzen Tag neben einer aktiven Mikrowelle arbeitest, wirst du vermutlich auch weniger präzise Ergebnisse erzielen.
Das ist dann aber eine Wechselwirkung mit der Extelligenz, die Fehler im Denkprozess verursacht.
 
ich glaube sie machen nur fehler wenn hardware defekt ist. unter optimalen bedingungen (sagen wir pc im faradayschen käfig und prozessoren fehlerfrei) wird er wenig fehler machen. und dass die im RAm umkippen ist vermutlich auch ein hardwaredefekt
kann es durch äußere Einflüsse vorkommen, dass aus einer logischen Eins eine Null wird und umgekehrt.
 
Ich denke, vom Philosophischen gesehen kann ein Computer keine Fehler machen.
Der Computer versteht eigentlich nur 0 und 1, wahr oder falsch. Er hat keinen freien Willen, mit dem er einen Fehler begehen könnte, er trifft ja keine Entscheidungen. Bei Stromschwankungen kann vielleicht mal eine 0 zu einer 1 werden, aber das ist dann nicht die ?Schuld? des Computers, sondern nur die Folge eines Fehlers, eines anderen Systems.

Das ist auch der Grund, warum ein Computer nicht lügen kann.

?Computerfehler? und Falschinformationen sind immer auf Problem Mensch zurückzuführen.

Autos bauen ja auch nicht von sich aus Unfälle.
 
Da Computer dumm sind und stupide dem vorgegebenen Code folgen, sind
sie unfähig Fehler im Sinne eines Flüchtigkeits- oder Denkfehlers zu machen.
Der Fehler beruht entweder im Code oder an äusseren physikalischen Einflüssen.

Denkfehler setzen nunmal Denken vorraus, deshalb ist mein Laptop jetzt auch nicht
sauer auf mich :D

Wäre es anders wären sie unbrauchbar, da du jedes Ergebnis kontrollieren müsstest.

Gruss
 
Bei downloads stellt meines Wissens nach TCP mithilfe einer Prüfsumme sicher, dass die Übertragenen Pakete keine Fehler enthalten.

Es gibt aber auch andere Verfahren, um Übertragungs, bzw Lese/Schreibfehler zu vermeiden:
Ich möchte beispielsweise die Bits 1101 übermitteln. Um Fehler wie 1001 zu vermeiden, sende ich für jede 1 4 Einsen, und für jede 0 4 Nullen. Die Wahrscheinlichkeit für einen Fehler wird dann geringer. Bsp. von gerade: 1111 1111 0000 1111. Tritt ein Fehler auf
1111 1101 0000 1111, kann trotzdem erkannt werden wo der Fehler liegt (nämlich im zweiten Bit) da hier eine ungültige Folge (1101) auftritt. Es ist hier am wahrscheinlichsten, dass es richtig 1111 heißen muss.
In der Praxis wird natürlich mit mehr als 4 bit, bzw. mit weitaus gerisseneren Methoden gearbeitet...

mfg, loose
 
der computer ist ja gerade als deterministische maschine konzipiert. damit ist das gerät bei flüchtigkeitsfehlern defekt! da diese defekte durch äußere einwirkungen entstehen können, muss eine redundanz der daten vorgesehen werden, um die maschine deterministisch zu halten, sodass das system robust gegen äußere einwirkungen wird.

besonders durch die anwachsende speicherkapazität ist die energiedifferenz, die den unterschied zwischen 0 und 1 ausmacht immer kleiner, sodass auch schon geringe effekte ausreichen um das ergebnis zu verfälschen.
 
Ich kann mir bestenfalls noch vorstellen, dass gewisse Bauteile z.b. bei Überhitzung sich nicht korrekt verhalten - wessen Fehler das jetzt ist, sei mal dahingestellt. Ein Mensch hat auch eine maximale Betriebstemperatur, wobei ich die Schuld natürlich dann auch dem nächstbesten Techie gebe, der die Klimaanlage nicht in Schuss hält.

Fehler in "KI"s (sprich, Regelwerke :D) sind natürlich auch Fehler, die der Entwickler nicht bedacht hat, aber irgendwann kommt man auch an den Punkt, an dem man sich als Mensch bei Mutter Natur oder dem Gott seiner Wahl beschweren kann.

Und gerade fällt mir da "lernende" Software ein, also neuronale Netze, evolutionäre Alorithmen usw..

Letztendlich ist ein "Fehler" immer noch Definitionssache, ein Mensch funktioniert vielleicht auch deterministisch, nur hat noch niemand ne vernünftige Gleichung gefunden, die seine physischen & psychischen Kapazitäten und Zustände erfasst. Und jetzt wirds philosophisch, daher geh ich was Essen.
 
Original von t3rr0r.bYt3
Letztendlich ist ein "Fehler" immer noch Definitionssache, ein Mensch funktioniert vielleicht auch deterministisch, nur hat noch niemand ne vernünftige Gleichung gefunden, die seine physischen & psychischen Kapazitäten und Zustände erfasst. Und jetzt wirds philosophisch, daher geh ich was Essen.

Der Unterschied ist, dass wir einen freien Willen und Bewusstsein haben, daher können wir uns bewusst für einen Weg entscheiden. Das kann ein Computer nicht.
Das gehört nach meiner Definition von Fehler dazu, dass man eine Wahl hat sich so oder so zu entscheiden. Ein Fehler ist eine falsche Entscheidung, egal ob beabsichtigt oder nicht.
 
Die Grundlage der Datenverarbeitung - daß z.B. irgendwelche elektrischen Signale verarbeitet werden, die bestimmte Zustände annehmen können - unterscheidet sich überhaupt nicht zwischen Mensch und Computer - oder, um es mal etwas toleranter zu formulieren: zwischen natürlichem und künstlichem Gehirn.

Die nächst höhere Ebene der Signalverarbeitung - daß den Signalen irgendwelche Bedeutungen zugeordnet sind - unterscheidet sich ebenfalls überhaupt nicht.

Auch der nochmals nächst höhere Level - daß und wie die Signale verknüpft werden - ist mindestens mittels neuronaler Netze gleichartig organisierbar. Wobei noch lange nicht feststeht (obwohl wegen natürlicher Selektion durchaus anzunehmen), daß die Art der Organisation im natürlichen Gehirn tatsächlich die effektivst mögliche ist.

Daß Computer heutzutage noch keine "reale" künstliche Intelligenz besitzen, liegt meiner Meinung nach am Ansatz der Verwendung auf noch höheren Ebenen. Solange wir die Computer als bloße Werkzeuge HABEN WOLLEN, werden sie nichts "höheres" entscheiden. Und einen Automatismus von der Entstehung höherer Intelligenz durch bloße Anreicherung von Komplexität anzunehmen, dürfte schlicht falsch sein.

DASS Computer nicht auf stupide Geradeaus-Entscheidungen beschränkt sind, dürfte jedem klar werden, der schon mal irgendeine Art von optimierendem Programm geschrieben hat: Solche Probleme expandieren in ihrer Komplexität meistens exponentiell. Es ist geradezu trivial, ein praktisch nicht optimal lösbares Problem zu formulieren. Ein Computer kann dann genauso wenig wie ein Mensch eine mit Sicherheit optimale oder vollständige Lösung finden, sondern höchstens eine halbwegs sinnvolle Näherung oder Teilmenge der Lösungen. Einfachste Problemlösungen dieser Art haben wir jede Menge hier im Forum und ausufernd viele im Internet und in Literatur zu finden.

Das ist eben einfach eine andere EBENE der Anwendung. Die geradlinigen Entscheidungen mit Nullen und Einsen finden sehr schnell ihre Grenzen. Was mich wundert, ist, wie schnell in Diskussionen um Sinn und Grenzen der künstlichen Intelligenz dieser Umstand immer wieder außer Sicht gerät...
 
Original von Harry BoeckWas mich wundert, ist, wie schnell in Diskussionen um Sinn und Grenzen der künstlichen Intelligenz dieser Umstand immer wieder außer Sicht gerät...

Dazu müsste man vorher genau definieren, was Intelligenz ist. Ab welchem Punkt gilt man als intelligentes Wesen? Was macht einen zu einem intelligenten Wesen?

Für mich ist ein wichtiges Merkmal von Intelligenz die Fähigkeit der Abstraktion. Ich kann mir im Moment nicht vorstellen, wie man einer Maschine Abstraktion, die nicht vorgefertigt ist, beibringen sollte.

Des Weiteren geht die Entwicklung in der IT-Branche nicht zu besserem und leistungsfähigeren Code, sondern einfach zu brachialer Rechenpower und immensen Kapazitäten. Es geht bei Intelligenzbildung aber weniger um die vorhandenen Ressourcen, sondern wie man diese nutzt (das menschliche Gehirn ist nicht unbedingt groß, im Vergleich zu anderen Tieren).
Es gibt einen schönen Werbespruch eines Reifenherstellers: Power is nothing without control.
Passt irgendwie, finde ich.

@Iarumas:
Das ist dann aber eine Fehlfunktion, und kein Fehler (ja, das ist ein Unterschied).
Wenn ein Epileptiker einen Anfall hat, und sich dabei verletzt, war das dann sein Fehler, oder eine Fehlfunktion seines Körpers?
 
Zurück
Oben