Können Computer Fehler machen?

Original von linuxerr
Aber mit oder ohne QM-Zufall, Platz für freien Willen(völliger Zufall != freier Wille) sehe ich dort einfach nicht

genau in solch chaotischen systemen sehe ich den platz für freien willen. ich bin der meinung, dass du vom völligen zufall eine falsche vorstellung hast. völliger zufall bedeutet doch nicht sinnloses chaos. zufall kann struktur besitzen, da bestimmte ereignisse zwar zufällig, aber wahrscheinlicher sind als andere ereignisse. determinismus und freier wille (wenn er denn keine täuschung ist) sind aus meiner sicht unvereinbar miteinander, sodass der freie wille also mit indeterministischen systemen zusammenhängen muss.

Nach meiner Vorstellung gehört zu freiem Willen eine Wirkung der Intentionen/Gedanken usw. auf die daraufhin ausgeführte Handlung. Jedoch sieht es hier genau andersherum aus: Die Prozesse auf subatomarer Ebene, die zufällig sind, bestimmen die Gedanken, Handlungen und Entscheidungen und diese Prozesse, sind nicht Ausdruck einer intentionalen Entscheidung auf der Bewusstseinsebene, sondern steuern diese Entscheidung, ja das gesamte Bewusstsein.
Das meinte ich auch, als ich von "statistischem Freiheitsgrad" sprach. Die Ergebnisse quantenmechanischer Prozesse als bewusstes Wollen zu bezeichnen erscheint mir doch recht absurd, da sie das Bewusstsein bestimmen, und nicht das Bewusstsein die Prozesse. Sonst könnte man auch sagen, ein Uran-235-Kern habe ebenso einen freien Willen, bei der Abgabe von radioaktiver Strahlung, da diese durch quantenmechanischen Zufall bedingt ist.
 
nun gut, und auf welches system (physikalische realität) willst du denn den freien willen beruhen lassen? ein deterministisches system kann es nicht sein, sonst würde der freie wille nicht existieren. es bleiben also nur indeterministische systeme, die den freien willen tragen.
 
Hmmm, nochmal ein Gedanke zum Abgrenzen der physikalischen Grundlagen von den darauf ablaufenden Prozessen:

Die Ursache-Wirkungs-Beziehungen von komplexen Systemen sind schon bei relativ geringen Komplexitätssprüngen zwischen Basis- und höherer funktionaler Ebene auf der letzteren zu einem erheblichen Teil von Zusammenhängen geprägt, die nichts mehr mit den Gesetzen der Basis-Ebene zu tun haben, sondern mit dem Signalaustausch auf der höheren Ebene. Der ohne weiteres vollkommen andere Formen annehmen kann (und dies in aller Regel auch tut) als die Signalverarbeitung auf der Basisebene des Systems.

Dadurch ist das relevante Verhalten des Systems nur noch von der Signalverarbeitung auf der höheren Ebene geprägt, während die untere Ebene auch gern komplett ausgetauscht werden könnte.

Beim natürlichen Denken gibt es etliche solcher Ebenen, ehe das Level erreicht ist, daß wir als "bewußtes Denken" empfinden.

Die Signalrezeption und -erzeugung auf den höheren Ebenen hat mit den Gesetzmäßigkeiten auf den niederen Ebenen jeweils NUR NOCH über Massenwirkungsgesetze zu tun, sonst NICHTS!
Und über jene Massenwirkungsgesetze hinweg bleibt von sowas wie Quanteneffekten keine Abhängigkeit mehr übrig. Bis auf den Umstand, daß die Massenwirkung selbst für die höhere Ebene jeweils nichts als einen Zufallsprozeß darstellt.

Besser als sich über die aller tiefsten Ebenen der physikalischen Grundlagen Gedanken zu machen wäre es, zu überlegen, was in den OBERSTEN Ebenen der Datenverarbeitung geschehen muß, um der realen Intelligenz näher zu kommen!
 
Original von Harry Boeck
Hmmm, nochmal ein Gedanke zum Abgrenzen der physikalischen Grundlagen von den darauf ablaufenden Prozessen:

Die Ursache-Wirkungs-Beziehungen von komplexen Systemen sind schon bei relativ geringen Komplexitätssprüngen zwischen Basis- und höherer funktionaler Ebene auf der letzteren zu einem erheblichen Teil von Zusammenhängen geprägt, die nichts mehr mit den Gesetzen der Basis-Ebene zu tun haben, sondern mit dem Signalaustausch auf der höheren Ebene. Der ohne weiteres vollkommen andere Formen annehmen kann (und dies in aller Regel auch tut) als die Signalverarbeitung auf der Basisebene des Systems.
hört sich toll an, trifft aber nicht den kern. dein datenaustausch auf höherer ebene kommt auch wieder durch kommunikation mit einem anderen system zu stande. wenn sich beide systeme zb mit den gesetzen der mechanik vollständig beschreiben lassen (zb der steinchenrechner von dem du oben als beispiel gesprochen hast), dann steckt in der lösung der bewegungsgesetze auch die lösung des schachproblems. die elektronen im computer lösen ja ihre "quantengleichungen" und bewältigen die schachaufgabe. die argumentation der höheren ebene, also der "schachregel" von der die elektronen nichts wissen, impliziert in dieser sichtweise ja schließlich einen gott. beziehe ich das gehirn mit ein und behaupte, das ich es durch quantenwechselwirkungen vollständig beschreiben kann, dann befindet sich in der lösung dieser gleichungen auch das schachproblem! das bedeutet aber nicht, dass ich mit den gesetzen das schachproblem als solches vorhersagen könnte, heisst also, das wenn ich die gleichungen zur beschreibung des gehirns hätte, jede entscheidung vorhersagen kann.


und
natürlich muss man sich über die physikalische realisierung gedanken machen, denn wenn ich ein deterministisches system benutze (steinchenrechner), dann werde ich niemals einen indeterministischen prozess damit simmulieren können, die wirkungsweise bleibt deterministisch, egal wie komplex die maschine ist und wie viele ebenen du da sehen und schichten willst. deshalb ist die diskussion, dass es dann wechselwirkungen gibt und der komplexitätsgrad steigt etc am thema vorbei.
wenn dein computer funktioniert, dann bist du mit dem gerät nicht in der lage zufallszahlen zu erzeugen, egal wie komplex das programm wird und wie viele rechner du nimmst und welche prozessoren sie auch besitzen. du kannst zahlen erzeugen, die wie zufallszahlen wirken, aber wenn du den rechner zwei mal hintereinander mit den selben startbedingungen startest, wird er die selbe zahlenfolge erzeugen. also benötigt der rechner indeterministische hilfe (tastendrücke durch den menchen, hardware-zufallsgeneratoren die quantenrauschen benutzen).


Und über jene Massenwirkungsgesetze hinweg bleibt von sowas wie Quanteneffekten keine Abhängigkeit mehr übrig. Bis auf den Umstand, daß die Massenwirkung selbst für die höhere Ebene jeweils nichts als einen Zufallsprozeß darstellt.

falsch und richtig.
wenn ich einen ziegelstein auf den boden lege und ihn 1mill jahre beobachte, kann ich danach behaupten, dass sich quanteneffekte herausmitteln und ich die zur beschreibung des ziegelsteins nicht benötige. das ist ein stabiles system und die umgebungsbedingungen ändern sich sehr sehr langsam. das sind systeme, die in der physik (physikunterricht bis ca klasse 10) gut beschrieben wurden, die aber praktisch nirgends vorkommen. wenn ein system zb extrem instabil ist oder sehr empfindlich auf zustandsänderungen reagiert, dann kann eine winzige änderung einer größe extreme auswirkungen auf die geschichte des systems haben. wenn ich das beil einer guilliotine mit einem schalttransistor auslöse, dann tunneln da etliche elektronen durch eine sperrschicht, weil die auffenthaltswahrscheinlichkeit für die elektronen hinter dem potentialwall (den sie klassisch nicht durchdringen dürften) grösser ist als null und damit ein sehr merklicher kollektorstrom fließt. das beil wird ausgelöst und die rübe ist ab. da haben quantenprozesse "plötzlich" eine riesenwirkung aus eine person.
der zufall ist doch nicht wahllos. das verhalten der elektronen wird durch den zufall bestimmt und das vberhalten eines einzelnen elektrons ist nicht vorhersehbar. durch elektrische felder ist aber die auffenthaltswahrscheinlichkeit der elektrons an verschiedenen stellen des bauelements unterschiedlich groß und kann deshalb also gesteuert werden. damit bewirkt die beeinflussung des zufalls ein gewolltes verhalten des bauelements.
zufall kann struktur erzeugen!
 
Original von linuxerr
nun gut, und auf welches system (physikalische realität) willst du denn den freien willen beruhen lassen? ein deterministisches system kann es nicht sein, sonst würde der freie wille nicht existieren. es bleiben also nur indeterministische systeme, die den freien willen tragen.

Auf keinem. Ich halte den freien Willen nach dieser Definition und nach unserem momentanen Forschungsstand schlicht für nicht existent. Aber ich stimme dir zu, dass freier Wille und Determinismus nicht vereinbar sind.

Die Signalrezeption und -erzeugung auf den höheren Ebenen hat mit den Gesetzmäßigkeiten auf den niederen Ebenen jeweils NUR NOCH über Massenwirkungsgesetze zu tun, sonst NICHTS!
Und über jene Massenwirkungsgesetze hinweg bleibt von sowas wie Quanteneffekten keine Abhängigkeit mehr übrig. Bis auf den Umstand, daß die Massenwirkung selbst für die höhere Ebene jeweils nichts als einen Zufallsprozeß darstellt.

Besser als sich über die aller tiefsten Ebenen der physikalischen Grundlagen Gedanken zu machen wäre es, zu überlegen, was in den OBERSTEN Ebenen der Datenverarbeitung geschehen muß, um der realen Intelligenz näher zu kommen!

Ganz kurze Frage: Woher willst du das wissen? Weißt du derart genau über die Vorgänge im Gehirn Bescheid, dass du mit Sicherheit sagen kannst, dass die Prozesse der unteren Ebenen die oberen gar nicht beeinflussen? Das Gehirn ist nicht zu diesem Ziel entworfen worden, sondern hat sich mehr oder weniger "zufällig" über lange Zeit entwickelt. Somit ist noch keineswegs sicher, dass die Prozesse so gut abstrahiert sind, dass die Quanteneffekte keine Rolle spielen. Es könnte sein, dass Quanteneffekte über Neuronen hinweg keinen ausreichenden Einfluss haben, aber es könnte auch das Gegenteil der Fall sein. Ich muss allerdings zugeben, dass ich hier den aktuellen Forschungsstand der Neurologen nicht kenne und daher nicht weiß, wie die Expertenmeinungen zu dieser Frage aussehen, jedenfalls lässt sich diese Frage nicht a priori bejahen oder verneinen.
Bei einem Computer sieht die Sache ja etwas anders aus, da er so entworfen wurde, dass die oberen Schichten von manchen Prozessen auf den unteren Ebenen unabhängig sind.
 
Nun ja: WISSEN tue ich es (noch zumindest) NICHT. Denn dann hätte ich längst eines meiner ursprünglichen Lebensziele verwirklicht.

Wenn man allerdings nicht mal ansatzweise in diese RICHTUNG zu denken beginnt, hat man auch keine Chance, das Ziel zu erreichen.

Soll heißen: Ich werde den Eindruck nicht los, daß alle diese Diskussionen schon vor zig Jahren ganz genauso gelaufen sind (und wahrscheinlich - wie ich aus den Beträgen hier durchaus entnehmen kann - sogar schon lange vor der Erschaffung der ersten Computer) und bisher keinen Schritt auf dem Weg zur künstlichen Intelligenz vorangebracht haben. (Ich habe solche Gedanken auch schon vor 25 Jahren im Staatsbürgerkunde-Unterricht gewälzt...)
 
Original von Lesco
Ich halte den freien Willen nach dieser Definition und nach unserem momentanen Forschungsstand schlicht für nicht existent.
die existenz oder nichtexistenz des freien willen hängt ja nicht vom forschungsstand ab. freier wille ist aber ein sinnvolles konzept, um die stabilität der zivilisation zu garantieren.

die frage ist natürlich, wie man testen will, ob der wille frei ist.

@hary Boeck
und bisher keinen Schritt auf dem Weg zur künstlichen Intelligenz vorangebracht haben.

doch, wenn ich küstliche intelligenz mit freiem willen erzeugen will, dann ist das auf einem computer wie wir ihn kennen prinzipiell nicht möglich. die programme können maximal so tun als ob sie intelligent wären, sind es aber nicht, da ihr verhalten im prinzip vorhersagbar ist. man kann also intelligenz maximal vortäuschen.
 
Genau DEM will ich allerdings widersprechen. Ich halte es für notwendig, nicht mehr fortlaufend nach irgendwelchen magischen Freiheitsgraden in abgrundtief liegenden physikalischen Grundlagen zu suchen, sondern mindestens als Arbeitshypothese davon auszugehen, daß das Erschaffen von künstlichem Denken eine andere Denkweise auf den obersten Ebenen der Datenverarbeitung erfordert.
 
Original von Harry Boeck
Genau DEM will ich allerdings widersprechen. Ich halte es für notwendig, nicht mehr fortlaufend nach irgendwelchen magischen Freiheitsgraden in abgrundtief liegenden physikalischen Grundlagen zu suchen, sondern mindestens als Arbeitshypothese davon auszugehen, daß das Erschaffen von künstlichem Denken eine andere Denkweise auf den obersten Ebenen der Datenverarbeitung erfordert.
was da auf der obersten ebene abläuft ist egal. eine deterministische maschine kann prinzipiell keinen indeterminismus erzeugen, egal wie raffiniert die software ist. das problem ist ganz einfach prinzipieller natur. solange die wirkprinzipien der maschine absolut deterministisch sind, wird das programm deterministisch abgearbeitet, sodass die ergebnisse genau reproduzierbar sind. das ist ein widerspruch zur vorstellung vom freiem willen. dh die deterministische maschine kann allenfals eine raffinierte simulation von freiem willen erzeugen.
wzbw. :)
 
Das stimmt nicht: Das WÜRDE nur dann stimmen, wenn das Programm mitsamt seinem Input und Output und dessen Rückkopplung über die Umwelt ein abgeschlossenes System darstellen würde. Was es schon in relativ einfachen Anwendungsfällen unmöglich sein kann.

Sobald die auf einer beliebigen Ebene der Systemorganisation auftretenden Rahmenbedingungen eines für sich betrachtet deterministischen Systems nicht mehr deterministisch sind, ist das Gesamtverhalten des Systems in seiner Umwelt zwingend ebenfalls nicht mehr deterministisch.

Damit kommen wir auf eine Grundbedingung für nichtdeterministische datenverarbeitende Systeme zu sprechen: Es muß den Systemen unmöglich sein, die Rahmenbedingungen der Umwelt in einem solchen Maße zu erfassen, daß ihre Vorausberechnung möglich wird.

Dies ist nun wieder von den natürlichen Gegebenheiten her trivial einsehbar: Ein beliebig aufgebautes datenverarbeitendes System muß immer aus einer physikalischen GRUNDLAGE bestehen, die im Detail um mindestens eine logische Größenordnung komplexer sein muß als das, was das System abzubilden in der Lage ist (sprich: ein einzelnes Bit reicht niemals aus, um die Komplexität der Speicherzelle abzubilden, mit der dieses Bit abgebildet wird).

Wir können aber auch erkennen: in gewissen Abstraktionsrahmen ist es durchaus möglich, deterministische Systeme zu erzeugen. Gerade mit der digitalen Technik ist es wegen der Stabilität der Schaltzustände überhaupt erstmals möglich, nahezu beliebig komplexe Systeme zu erzeugen, die innerhalb eines (im Vergleich zur Komplexität der Natur zwar unendlich hoch einige Potenzen kleinen, aber im Vergleich zur Komplexität des bewußten menschlichen Denkens doch recht ansehnlich umfangreichen) gewissen Rahmens als deterministisch angesehen werden können.

Worauf ich hinaus will: Eure Sorge um die Vorherrschaft des totalen Determinismus kann ich EBEN GERADE NICHT nachvollziehen. Sondern nur das genaue Gegenteil feststellen - wohin ich auch immer gucke. Bis auf doch ziemlich abgeschlossene Systeme, die aus abgeschlossenen virtuellen Welten INNERHALB von digital arbeitenden Computern bestehen. Aber auch dort nur, solange die nicht in Wechselwirkung mit einer realen Umwelt gebracht werden.

----

Ach ja: Und Begriffe wie "groß" und "klein" sind halt immer sehr relativ zu beurteilen - wie ich aus dem Nachlesen meiner eigenen Sätze recht deutlich erkennen muß...

----

Sorry, im Nachhinein gewinne ich dieser Diskussion eher immer mehr interessante Seiten ab... Ich will nochmal ein Argument von Lesco weiter vorn aufgreifen:
http://www.hackerboard.de/thread.php?threadid=36526#post267562

aber dennoch kann z.B. der Springerzug durch seine Vorgänge nicht den Energieerhaltungssatz o.ä. verletzen

Da haben wir einen ganz entscheidenden Knackpunkt: Er KANN!

Er ist ein "virtueller" alias "modellierter" alias "vorgestellter" Springer in einer virtuellen Welt. Er kann in dieser Welt faktisch alles. Und die modellierte Welt kann jede x-beliebige Funktion annehmen.

Wobei das aber noch nichts besagt über den Weg zur künstlichen Intelligenz oder die Art, als Computer Fehler zu machen. Oder?

Sobald der Computer die Aufgabe HÄTTE, etwas aus der realen Welt zum Zwecke der Optimierung seines Verhaltens abzubilden, und dabei Fehler machen würde, weil seine deterministisch funktionierenden Algorithmen schlicht mit gewissen Erscheinungsformen von Eindrücken überfordert sind (mir fallen da aus dem Stehgreif geradezu unendlich viel anmutende Beispiele sowohl für Computer als auch für menschliche Signalverarbeitung ein), wäre das ja wohl als identisch zueinander (Mensch versus Computer) anzusehen, oder? Selbe Art von Ursache (nicht vorgesehene Signalspiele), selbe Art von Wirkung (falsches Umweltmodell)...

Insofern bin ich SCHON geneigt, den soweit schon entwickelten Roboter-Maschinen eine Art eigene Intelligenz und eigenes Fehlverhalten zuzusprechen. Egal, wie niedrig deren Niveau auch im Vergleich zu selbst primitiven Lebewesen sein mag und wie schwer es dadurch unserem Vorstellungsvermögen fallen mag, sowas als Schritt in Richtung von künstlichem Denken zu verstehen...
 
mag ja sein, aber der rechner wird nicht dadurch indeterministisch, weil er auf indeterministische signale reagieren muss. du verlagerst die indeterministische komponente einfach ausserhalb des rechners (deshalb ist ja das billigste zufallszahlenprogramm schon auf signale von aussen angewiesen, weil auch eine höhere ebene der programmierung das problem nicht lösen <b>kann</b>). wenn das indeterministische verhalten eine grundvoraussetzung für freien willen ist, dann wäre es höchst eigenartig, wenn diese indeterminiertheit <b>von aussen</b> in das wesen/system hineingetragen werden müsste. wenn wir mal davon ausgehen, dass deterministische maschinen einen wirklichen freien willen durch eine komplexe programmierung (auf welcher ebene auch immer) erzeugen könnten, dann könnte man ja eine welt vieler solcher wesen simulieren und die müssten dann ja aus ihrer vollkommenen determiniertheit sich den zufall selbst erzeugen. das ist theoretisch unmöglich!
 
Wieso sollte letzteres gelten? Die gerade formulierten Randbedingungen eignen sich eher zum Beweis der Möglichkeit: Eine indeterministische Umwelt KANN ohne weiteres komplex genug sein, um für JEDES Individuum einen massig ausreichend unterschiedlichen Rahmen zu erzeugen, um eine vollkommene Individualität SELBST DANN zu gerantieren, wenn die Individuen nicht nur komplett deterministisch, sondern auch noch von den Algorithmen her identisch wären.

Bei uns Menschen ist das alles in vielfacher Potenz in Richtung Indeterminiertheit gegeben: Nicht nur, daß die Umwelt schon innerhalb einer einzelnen Familie in einer einzelnen Wohnhöhle hinreichend komplex wäre, zusätzlich unterscheiden sich auch noch die Algorithmen mindestens auf Ebene der bewußten Prozesse, weil diese weitgehend erst im Laufe des Lebens herausgebildet werden und außerdem gibt es selbst auf den darunterliegenden Ebenen hinreichend Varianzen, für die nicht erst Quanteneffekte bemüht werden müssen.

Für Maschinen kann zwar erzwungen werden, daß die Algorithmen und die Voraussetzungen beim Start der Individuen INNERHALB derselben nahezu gleich sind, aber schon beim ersten Kontakt mit der Umwelt in der ersten Lebenssekunde eines Roboters hört diese Gleichschaltung auf.

Wenn wir so weiterdiskutieren, komme ich eher immer nachhaltiger zu dem Schluß, daß mir deterministisch reagierende Roboter unmöglich vorstellbar erscheinen!
Sicher: Als sehr beschränkt agierende Industrieroboter mit extrem beschränktem Aufgabenbereich und vor allem OHNE die Aufgabe, ein Umweltmodell zu erstellen, mag das noch zutreffen. Aber schon die Geräte, die in inzwischen üblichen Roboterwettbewerben gegeneinander antreten und eben ein Umweltmodell erzeugen und benutzen, um ihre eigenen Aktionen festzulegen, dürften unmöglich dazu zu bringen sein, zweimal exakt dieselbe Sitzung durchzuspielen - solange ihr Umweltmodell nicht zwischendurch gelöscht und die Bewegung ihrer selbst und der Objekte in ihrer Umwelt künstlich digitalisiert wird.

----

Ähmmmm...- Ja: WENN der Determinismus so allgegenwärtig WÄRE, wie hier immer wieder behauptet, sollte es doch trivial sein, genau letzteres mal eben aus dem Handgelenk geschüttelt vorzuführen, oder? Ich wette mal eben dagegen, daß das vollkommen unmöglich sein dürfte...
 
Original von Harry Boeck
Wenn man allerdings nicht mal ansatzweise in diese RICHTUNG zu denken beginnt, hat man auch keine Chance, das Ziel zu erreichen.

Nur mit Denken kommt man bei dieser Frage(Einfluss von Quanteneffekten auf Hirnprozesse) aber nicht weiter, da beide Antworten logisch möglich sind. Dazu braucht es nun einmal die Hirnforschung und soweit ich weiß gibt es dort noch keine sichere Antwort auf diese Frage.

Originial von linuxerr
die existenz oder nichtexistenz des freien willen hängt ja nicht vom forschungsstand ab.

Ich habe auch nicht gesagt, dass die Existenz davon von dem Forschungsstand abhänge, sondern meine Meinung zu dem Thema. Sollte es neue Erkenntnisse im Bereich der Wissenschaft geben, die belegen, dass freie Entscheidungen/mehrere Handlungsmöglichkeiten jenseits vom QM-Zufall gibt, dann werde ich auch meine Meinung zum freien Willen revidieren müssen. Derzeit sieht es aber nicht danach aus.

freier wille ist aber ein sinnvolles konzept, um die stabilität der zivilisation zu garantieren.
Die Nützlichkeit sagt nichts über die Wahrheit eines Konzeptes aus. Für die Stabilität braucht es keinen wirklichen, real existierenden freien Willen, die Illusion reicht dafür völlig aus, auch wenn man weiß, dass es eine Illusion ist.

die frage ist natürlich, wie man testen will, ob der wille frei ist.

Ich habe versucht meine Definition vom freien Willen einigermaßen präzise und nachprüfbar zu formulieren: Freier Wille heißt für mich, dass es zum Zeitpunkt der Entscheidung zwei physikalisch mögliche Handlungen gibt, aber nicht bloß aufgrund quantenmechanischen Prozessen, die ich aus oben genannten Gründen ausgeschlossen habe.
Und diese Definition ist m.E. nach momentanem Forschungsstand nicht erfüllt, da kein solcher Freiheitsgrad bekannt ist.

Originial von Harry Boeck
Da haben wir einen ganz entscheidenden Knackpunkt: Er KANN!

Er ist ein "virtueller" alias "modellierter" alias "vorgestellter" Springer in einer virtuellen Welt. Er kann in dieser Welt faktisch alles. Und die modellierte Welt kann jede x-beliebige Funktion annehmen.

Wobei das aber noch nichts besagt über den Weg zur künstlichen Intelligenz oder die Art, als Computer Fehler zu machen. Oder?

Was ich damit meinte ist, dass die Bauelemente(Transistoren, usw.) die diesen Zug _simulieren_ die bekannten Naturgesetze nicht verletzen können(oder diese Gesetze sind falsch, wobei ich hier zugeben muss, dass es sich hierbei um die Annahme handelt, dass soetwas wie Naturgesetze existieren, was aber recht gut durch die Realität unterstützt wird ;)).
Dass der Springer in seiner Simulation nicht der Gesetzen unserer Physik gehorcht, wenn man sie auf die Simulation überträgt ist klar, doch die Bauelemente durch die die Simulation geschaffen wird, sind dennoch an die Naturgesetze gebunden und somit ist auch die höhere Ebene des Schachspiels in diesem Fall durch die Bauteilebene bestimmt. So ist es m.M.n. auch in unserem Gehirn(sei diese Bestimmung nun deterministisch oder nicht, Emergenz allein reicht noch nicht für einen freien Willen).

Ähmmmm...- Ja: WENN der Determinismus so allgegenwärtig WÄRE, wie hier immer wieder behauptet, sollte es doch trivial sein, genau letzteres mal eben aus dem Handgelenk geschüttelt vorzuführen, oder? Ich wette mal eben dagegen, daß das vollkommen unmöglich sein dürfte...

Wie schon gesagt: Determinismus und Berechenbarkeit und Durchführbarkeit sind ganz verschiedene Dinge. Desweiteren sehe ich nicht, wer hier einen völligen Determinismus vertritt, ich vertrete ihn nur in Bezug auf Makrosysteme, bei denen Quanteneffekte keinen Einfluss auf das Ergebnis haben, der für selbiges relevant ist.(Simple Analogie: Man wirft einen Klumpen radioaktives Material in die Luft. Der Zerfall ist dabei indeterministisch, sofern man jedoch nur an Dingen wir Geschwindigkeit und Falldauer interessiert ist(wobei man den Massenverlust durch die Strahlung vernachlässigen kann), so kann man dies dennoch als deterministischen Vorgang bezeichnen, auch wenn dies nicht für alle Teilaspekte und beliebige Genauigkeit zutrifft.)
 
Ja, an der Stelle komme ich mit meinem Latein nicht weiter. In meiner Jugend war ich ein recht eiserner Verfechter der These, daß die Welt determiniert sein muß. Inzwischen bin ich aus Intuition (Bauchgefühl, aber nicht aus einer kurzweiligen Laune, sondern langjährigen Eindrücken) heraus zur Ansicht gewechselt, daß Datenverarbeitung eine eigenständige Rückkopplung auf die Umwelt ausüben können MÜSSTE. Ich kann diese allerdings dennoch nicht BEWEISEN.

Das hat analoge Ursachen wie die Auffassung von der Determiniertheit: Die offensichtlichen gesetzmäßigen Vorgänge in der Umwelt legen den Schluß nahe. Aber eben sowohl den von Seite der Determiniertheit als auch den von der Seite des freien Willens (alias das eingangs reingeworfene Fehlerkonzept).

Wobei eben die Determiniertheit immer dann offensichtlich erscheint, wenn man die Umwelt von der Ebene der physikalischen Grundlagen her betrachtet, während das Gegenteil immer dann offensichtlich erscheint, wenn man die von der Seite eines intelligenten Wesens her betrachtet.

Ich schmeiße an der Stelle erstmal wieder das Handtuch (wie schon seit reichlich 20 Jahren immer wieder): Mal seh'n, was die Zukunft noch so bringt...
 
Original von Harry Boeck
Ja, an der Stelle komme ich mit meinem Latein nicht weiter. In meiner Jugend war ich ein recht eiserner Verfechter der These, daß die Welt determiniert sein muß.

schon die klassische thermodynamik zeigt, dass die welt nicht deterministisch ist, das war ja boltzmanns problem!

Das hat analoge Ursachen wie die Auffassung von der Determiniertheit: Die offensichtlichen gesetzmäßigen Vorgänge in der Umwelt legen den Schluß nahe.
genau das tun sie doch nicht. sei doch mal ganz ehrlich, welchen vorgang in deiner umgebung kannst du wirklich mir 100%-iger wahrscheinlichkeit vorhersagen, keinen!
der determinismus ist eine physikalische abstraktion, genau wie die gleichförmige bewegung oder der freie fall. das sind physikalische modelle mit ganz engen gültigkeitsbedingungen. es gibt keinen realen prozess, der diesen modellen entspricht. der determinismus ist einfach eine fiktion, die physiker wählen diese modelle jedoch, damit die differentialgleichungen letztendlich noch praktisch lösbar sind und sind froh, wenn das ergebnis noch nahe an der realität liegt. das ist wie der witz, wo der ingeneur, der informatiker und der physiker eine gleichung finden sollen, um den ausgang eines pferderennens vorherzusagen. nach einer woche treffen sie sich und der physiker hat die lösung gefunden, für reibungsfreie kugelförmige pferde im vakuum!.

selbst wenn man ein system durch seine glkeichungen genau beschreiben kann, ist eine vorhersage der systemgeschichte nur für einen gewissen zeitraum möglich, der ljapunov-zeit. danach divergiert die geschichte von der vorhersage. deshalb ist es zb nur möglich aus ca 100mill jahre die planetenkonstellationen in unserem planetensystem in die zukunft oder vergangenheit zurückzuverfolgen. darüber hinausgehende aussagen sind extrem unsicher und das hat nichts mit der leistungsfähigkeit der rechner zu tun.

würde ich die vorausberechnung zb auf 200mill jahre einstellen und würde jupiter um 0.1mm verrücken, dann würde meine berechnung nach 200mill jahren eine vollkommen andere konstellation des planetensystems ergeben. über diesen zeitraum ist also das system nicht robust gegen kleine veränderungen. damit nützt auch der beste determinismus nichts und extrem kleine veränderungen haben einen einfluss auf die geschichte. da mittelt sich auch nichts heraus, sondern weil zb die quanten dieses verhalten zeigen, nimmt das system genau diese eine geschichte an. ich kann aber letzendlich nicht eine einzige quantenwirkung vor 10000 jahren dafür verantwortlich machen, sondern es ist die gesamtheit aller wechselwirkungen. hätte nur eines der quantenereignisse gefehlt, dann hätte das system in großen zeitabständen eine vollkommen andere geschichte genommen.
wie schnell ein system auf solche winzigen einflüsse reagiert, hängt von der robustheit des systems gegenüber änderungen ab und wird durch den ljapunov-exponenten ausgedrückt.
 
Bei Boltzmann kann ich zwar momentan nicht mitreden, aber der Rest kann nochmal relativiert werden. Ich stehe in dieser Beziehung auf Seite des Lesco:

Determinismus ist ungleich Berechenbarkeit.

Determinismus kann bewiesen werden. In der Tat ist alles, was heutzutage als "wissenschaftlich" angesehen wird, determiniert. Die Determiniertheit (die exakte Zuordnung von Ursache und Wirkung samt Nachweis innewohnender gesetzmäßiger alias beliebig wiederholbarer Zusammenhänge) ist Voraussetzung für die Anerkennung als "wissenschaftlich".

Insofern stimmen durchaus sämtliche Menschen, die von sich behaupten, wissenschaftlich zu arbeiten, ganz diskussionsfrei implizit diesem Umstand zu.

Andererseits - vermute ich mal - wird es für jedermann ganz trivial einsehbar sein, daß (mindestens praktische) Unberechenbarkeit schon bei ganz einfachen Problemen konstruiert werden kann.

Dennoch vertrete ich momentan den Standpunkt, daß nicht zwingend alles in unserer Welt determiniert sein muß. Und rechne namentlich bestimmte Datenverarbeitungsprozesse dazu. Namentlich alles, was keine absolute Berechenbarkeit aufweist, aber dennoch algorithmisch behandelt werden kann (wobei ich immer gern Optimierungsprozesse als Argument heranziehe). Wobei ich da wegen oben genannten Argumenten allerdings immer auch am Zweifeln bin.

Was passiert bzw. ist gemeint, wenn wir von "freien Entscheidungsmöglichkeiten" bei uns Menschen sprechen?

Es ist Fakt, daß schon ein eindeutig berechenbares Optimierungsziel vollkommen abhängig von den zugrundegelegten Interessen ist: Wenn es z.B. die Möglichkeit gäbe, sich in einer Situation "nett" oder "böse" zu verhalten, müßte ein Optimierungsalgorithmus abhängig von den aktuell geltenden Interessen mal das eine, mal das andere auswählen. Solange wir einsehen, daß keine Optimierung jemals eine total globale Umweltsicht haben kann und lokale Optimierung als zumindest überhaupt eine Optimierung erlaubt ist. Wobei hier die Diversität immer noch deterministisch zu erklären ist.

Wenn nun das Optimierungsziel NICHT eindeutig berechenbar ist, wie werden in biologischen und künstlichen Systemen DANN die Entscheidungen getroffen?

Offenbar benutzen wir doch auch nichts anderes als einen Zufallsgenerator, oder? Also irgendwas, was momentan gerade aus welchen Gründen auch immer zum blind tippen herangezogen werden kann. Wobei man bei genauer Betrachtung sicherlich zeigen kann, daß das deterministische Prozesse sind.

Aber sie sind eben dermaßen weltenweit von den Dingen, ÜBER DIE entschieden wird, entfernt!

Ich bleibe erstmal dabei: Ich werfe an dieser Stelle das Handtuch...
 
Nun ehrlich gesagt, sind meine linuxerrs Auffassungen über Determinismus oder nicht, anscheinend recht ähnlich. Ich habe ja oben gesagt, dass man nur von Determinismus sprechen kann, wenn man nicht alle Aspekte eines Phänomens betrachtet und eine gewisse Ungenauigkeit(die sich nach Heisenberg ohnehin nicht verhindern lässt) in Kauf nimmt.
Unsere beliebig wiederholbaren Experimente sind nur ab einer gewissen Abstraktionsebene beliebig wiederholbar und liefern nur deshalb "deterministische" Ergebnisse, weil man nur die Teile des Vorgangs betrachtet, bei denen indeterministische Quanteneffekte so gut wie keinen Einfluss haben(z.B. oben genannte Wurf mit dem radioaktiven Klumpen). Genau genommen sind diese Dinge auf unterster Ebene alle indeterministisch, doch ist der Einfluss auf die Aspekte die man untersuchen will, zu gering um eine Rolle zu spielen(oder statistisch ausgemittelt), daher kann man diese Vorgänge als deterministisch ansehen.

Doch wie gesagt: In meinen Augen rettet bloßer Indeterminismus freien Willen noch lange nicht, da die Ergebnisse von eventuell relevantem Quantenzufall im Gehirn nicht durch unsere Intentionen gesteuert sind, sondern diese Ergebnisse unseren Willen darstellen, also zwar frei sind, aber nicht gewollt, sondern es gibt daher nur eine "statistische Freiheit", die meinem Verständnis von freiem Willen nicht genügt.
 
Original von Lesco
Ich habe ja oben gesagt, dass man nur von Determinismus sprechen kann, wenn man nicht alle Aspekte eines Phänomens betrachtet und eine gewisse Ungenauigkeit(die sich nach Heisenberg ohnehin nicht verhindern lässt) in Kauf nimmt.
Unsere beliebig wiederholbaren Experimente sind nur ab einer gewissen Abstraktionsebene beliebig wiederholbar und liefern nur deshalb "deterministische" Ergebnisse, weil man nur die Teile des Vorgangs betrachtet, bei denen indeterministische Quanteneffekte so gut wie keinen Einfluss haben
genau richtig. diese deterministischen zusammenhänge kann man eben auch nur an robusten systemen finden, nichts destotrotz wirken sich auch andere phänomene auf das endergebnis aus, die dann im messfehler stecken. das ist auch alles kein beinbruch, solange man robuste systeme beobachtet. das bedeutet, wenn ich die anfangsbedingungen ein wenig ändere, dann reagiert das system ein wenig anders. so zb wenn ich auf eine schiessscheibe ziele. wenn mein schuss nur die 3 trifft, dann bedeutet dass, das ich das gewehr ein wenig in der position verändern muss, um näher an die 10 zu kommen. zum glück reagieren viele systeme auf solch robuste art und weise, was mit den grundlegenden wechselwirkungskräften zusammenhängt, die starke kernkraft, die schwache kernkraft, elektromagnetismus und gravitation. die stärke und der winrkungsradius dieser kräfte unterscheiden sich um mehrere zehnerpotenzen, sodass sich diese kräfte nur sehr wenig gegenseitig stören. deshalb kann man also bei der betrachtung des freien falls eines ziegelsteins die kernkräft vernachlässigen und muss nur elektromagnetismus und gravitation betrachten. die wirkungen der kernteilchen sind durch ihren geringen wirkungsradius vernachlässigbar. wenn ich aber diese abweichungen einfach unter den tisch kehre und sie als messfehler abtue, dann gewinnt man ganz schnell den eindruck einer deterministischen welt.
deshalb stimme ich mit Lesco vollkommen darin überein, es gibt deterministische gesetze, aber sie wirken nicht allein.

habe ich nun ein system, dass sehr empfindlich auf anfangsbedingungen reagiert (instabile oder chaotische systeme), dann können auch sehr schwache ww einen wesentlichen einfluss auf das endergebnis haben.

@harry boeck
mal noch zur datenverarbeitung. das problem sind ja nicht nur optimierungsaufgaben, für die es eine lösung geben muss, aber noch kein algorithmus bekannt ist oder dieser unendlich lange laufen müsste, etc.
es gibt auch aufgaben, die durch deterministische gleichungen vollständig beschreibbar ist und trotzdem nicht lösbar ist. der klassiker ist das 3-körper problem. du hast eine sonne und zwei planeten und es sollen mit einem computer die bahnen simuliert werden, um die stellung der planeten zu einem beliebigen zeitpunkt auszurechnen. wir nehmen an, dass dieses minisonnensystem allein im universum ist, es gibt keine anderen massen und keine störenden einflüsse, nichts, nur die drei massen. es ist unmöglich auszurechnen, welche stellung die planeten nach zb 1mill umläufen haben. mit einer sonne und einem planeten ist das ganze kein problem, das 2körper-problem ist vollständig lösbar, das 3körper-problem nicht (ausser ein paar sonderfälle).
 
Zurück
Oben