KI - Was denkt ihr darüber?

Reanimation

KI ist (und bleibt vermutlich) ein ständiges Streitthema, da der Terminus: Ab wann spricht man von KI? nicht eindeutig definiert werden kann. Ist KI gelerntes auf neue Situationen anwenden, oder gelerntes verknüpfen mit neuen Situationen und über Wahrscheinlichkeiten eine neue Strategie erschließen, die über Try und Error erprobt wird? Erlerntes spielt immer eine Rolle, aber können Computer "richtig" verallgemeinern?

Schön ist es einem Kind beim Lernen zuzuschauen. Da wird ein Hund schnell generalisiert mit dem Namen des eigenen, anstelle des Begriffs Hund. Auch gucken sich Kinder bis zu einem gewissen Alter das Verhalten bei ihren Eltern ab und dann an der Gesellschaft. Einige erlangen die Fähigkeit das eigene Verhalten zu reflektieren und sich selber ein eigenes zu definieren, welches Konform mit der Lebenseinstellung geht. Diese Konformität ist wieder eine Verknüpfung mit (neuem) Erlerntem. Also ist die "ICH"-Bildung ein stetiger, dynamischer Prozess. Bei einer KI ist es gedanklich schwierig von einem "ICH" zu sprechen.

Wir definieren viele Dinge über unsere "Sensoren", d.h. über den Input, den wir bekommen. Die Verarbeitung ist daran geknüpft, wie wir gelernt haben, zu denken und zu lernen. (Rekonstruktion oder Produktion) Diese erworbene Fähigkeit scheint mir bei der KI der Quellcode zu sein. Dadurch lernt ein Computer zu lernen und ggf. zu denken. Kann die KI daran Änderungen/Anpassungen vornehmen?


[Edit] Hier ein paar nette, weiterführende Quellen:
- Vortrag von Prof. Dr. Wolfgang Ertel zum Thema
Vortrag Prof. Ertel uber kunstliche Intelligenz - YouTube&fs=1" width="644" height="390">Vortrag Prof. Ertel uber kunstliche Intelligenz - YouTube&fs=1" />Vortrag Prof. Ertel uber kunstliche Intelligenz - YouTube">https://www.youtube.com/watch?v=Vortrag Prof. Ertel uber kunstliche Intelligenz - YouTube

- Buch "Grundkurs künstliche Intelligenz" von Prof. Dr. Wolfrang Ertel
Amazon: Grundkurs Kunstliche Intelligenz: Eine praxisorientierte Einfuhrung Computational Intelligence: Amazon.de: Wolfgang Ertel: Bucher
 
Zuletzt bearbeitet:
KI ist (und bleibt vermutlich) ein ständiges Streitthema, da der Terminus: Ab wann spricht man von KI? nicht eindeutig definiert werden kann.
Ich wäre ja auch dafür, dass man sich (generell) auf "Intelligenz-Simulation", denn faktisch ist es nichts anderes.

Wir definieren viele Dinge über unsere "Sensoren", d.h. über den Input, den wir bekommen. Die Verarbeitung ist daran geknüpft, wie wir gelernt haben, zu denken und zu lernen.
Diese mechanistische Ansicht entspricht nicht dem, was wir über Lernprozesse wissen.
Natürlich ist der Input die wesentliche Voraussetzung. Aber der Input formt auch das, was in einem Menschen angelegt ist.
Und ab einem gewissen Punkt, wo das Gehirn sich in seiner Grundstruktur ausgeformt hat, sind wir trotzdem in der Lage komplette Paradigmenwechsel vorzunehmen und lange zuvor gemachte Erfahrungen unter anderen Blickwinkeln zu interpretieren oder auch komplett auszublenden. Letztendlich ist es so, dass sich Körper und Geist (Gehirn und Erfahrung) in ihrer Entwicklung gegenseitig bedingen und daraus erwachsen weitere "Abzweigungen". Ungeachtet dessen, wissen wir auch dass das allermeiste komplett unbewusst abläuft und wir keine wirklichen Kenntnisse darüber haben.

Weiterhin ist Kommunikation untrennbar mit dem Denken verbunden und dort haben die Maschinen in Sachen Semantik seit den 50ern nichts anzubieten.

Unterm Schnitt wird man wohl dem Mathematiker recht geben wenn er behauptet, dass sich ein komplexes System nicht aus sich selbst heraus erkennen kann.
So geht es uns als Mensch und deswegen bleibt die dem Menschen gleichberechtigte Stellung von Denken und Intelligenz eine unlösbare Aufgabe.

Allerdings habe ich keine Zweifel, dass wir Maschinen bauen die notwendigerweise erkennen, dass wir lediglich Ballast sind uns deswegen den Arsch aufreissen :D
 
Wir verarbeiten äußere Reize immer kognitiv, das Wie wird im Laufe des Verarbeitungsprozesses angepasst. Jede Reaktion liefert uns ein Feedback, an dessen wir (in der Bewusstseinsbildung und Wesensausprägung) weiter lernen und uns verändern.

Wie wir damit umgehen, um uns selber zu entwickeln, ist abhängig von vielen Faktoren: Familiäre Voraussetzungen (Wie werden wir Gefördert und woran können wir uns im frühen Leben orientieren?), eigene Veranlagungen (Wie stark ist meine Fähigkeit Dinge zu Begreifen und zu Erlernen?), kognitive Entwicklung (Wie gehe ich mit neuem Wissen um? Kann ich eigenständig Kausalitäten erkennen bzw. Schlussfolgerungen ziehen, oder bin ich nur in der Lage zu reproduzieren?)

Ich denke, dass man einen Computer mit Quellcode auf ein Baby mit Eltern abbilden kann. Der Computer kann erstmal nur so gut lernen, wie es der Quellcode (der Entwickler) vorsieht. Irgendwann ist das Baby/Kleinkind in der Lage, über diese Muster hinaus seine eigenen Muster anzupassen und es beginnt den Vergleich außerhalb des eigenen Umfelds. Der Computer wird auch mit Informationen gefüttert, dieser kann sich aber nur selten an anderen orientieren und seinen Lernprozess verbessern. Beginnt er abweichende Strukturen zu bilden, wird die KI getötet, ein Kind nicht. Jedenfalls in den meisten Orten der Welt nicht..

Durch unsere Lehrer in der Schule wird unsere kognitive Welt geprägt, wenn wir zuhause kein entsprechendes Vorbild auffinden. Dazu werden wir aber in die Obhut anderer gegeben, sodass ein fremder Entwickler an unserer Entwicklung teilhaben kann. Bei der KI wird der Quellcode selten verändert und die Maschinen haben keine Berechtigung diesen anzupassen, nur um diesen zu ergänzen.

Ich versuche irgendwie den Entwicklungsprozess: Baby - KiTa - Schule - Ausbildung auf eine KI abzubilden. Ich versuche also die bekannten Strukturen bei der KI anzuwenden. Gerade hier sieht man auch, dass die KI beschänkt und damit nur virtualisiert ist.


Ich denke, dass man die Abgrenzung, von automatisierten Prozessen mit Reaktion auf Sensorrückmeldungen von der KI vornehmen muss.
 
Der Schritt, bis KIs ihren eigenen Code anpassen können, ist allerdings auch nicht mehr in allzu großer Ferne. Man schaue sich nur mal Experimente wie DeepCoder an.

Davon abgesehen denke ich, dass dies gar nicht mal notwendig ist. Unsere Lernprozesse sind im Prinzip großteils auch nur Verknüpfungen von Synapsen in unserem Gehirn, ähnlich wie es KIs tun. Wir modifizieren dabei ja auch nicht unser Gehirn. Insofern bleibt unsere "Quellcode", die DNA, auch immer gleich.
 
Ja, die DNA verändern wir (noch) nicht. Aber unsere Möglichkeiten und Denkweisen. Hier ist es nur eine Frage, ob man die grundlegenden Dinge ändert oder nur um weitere Funktionalitäten erweitert und ein neues Verständnis und damit eine neue Auslegung der vorherigen Regeln hat.
 
Ja, die DNA verändern wir (noch) nicht. Aber unsere Möglichkeiten und Denkweisen. Hier ist es nur eine Frage, ob man die grundlegenden Dinge ändert oder nur um weitere Funktionalitäten erweitert und ein neues Verständnis und damit eine neue Auslegung der vorherigen Regeln hat.

Auch eine KI verändert ihre "Denkweisen", wenn sie Informationen neu miteinander verknüpft oder neue Informationen in ihren Datenpool integriert. Was anderes geht in unserem Gehirn auch nicht vor. Auch dort werden nur neue Informationen mit vorhandenen abgeglichen, verknüpft und integriert. Ausserdem werden vorhandene Informationen immer wieder neu evaluiert um die Verknüpfungen zu optimieren/verändern, was moderne KIs allerdings auch ständig tun, wenn auch (noch) nicht in den kurzen Intervallen wie unser Gehirn das tut.

Was KIs von Menschen tatsächlich noch unterscheidet ist die hormongesteuerte emotionale Ebene. Die neuronalen Prozesse im Gehirn werden aber in guten KIs abgebildet und stetig weiter verbessert um eine noch bessere Annäherung an das menschliche Denken zu erreichen. Wobei auch hierbei bedacht werden muss, dass eine einzelne KI in den meisten Anwendungsfällen eben nicht das komplette menschliche Denken + die Wahrnehmung abbilden soll. KIs sind heutzutage hoch spezialisiert und bilden somit nur einzelne Teile des menschlichen Denkens ab. Bei Bedarf werden dann einfach diese spezialisierten KIs miteinander verknüpft. Das hat sich in der Praxis als einfacher zu handhaben und effizienter herausgestellt. So kann auch mit weniger Rechenleistung mehr erreicht werden. Es macht ja nunmal keinen Sinn, dass eine Spracherkennung auch noch Daten für die Bilderkennung integriert, wenn ihre Sensoren Bilder gar nicht aufnehmen können. Das würde nur die Datenbasis unnötig aufblähen und entsprechend mehr Rechenleistung für die Verarbeitung der Daten (Suche, Integration neuer Daten, Verknüpfung vorhandener Informationen etc.) verheizen.

Ausserdem sollte man sich bei der Betrachtung von KIs nicht nur auf die aktuellen Computer-Architekturen beschränken sondern auch mal die aktuellen Entwicklungen und Forschungen betrachten. An "Bio-Chips" wird ja auch bereits gearbeitet, die ziemlich sicher für KIs neue Möglichkeiten eröffnen werden. Und spinnt man diese Entwicklung mal weiter, ist der Weg zu den Posbis aus Perry Rhodan gar nicht mal so weit, wo dann biologische Komponenten mit elektronischen verknüpft werden und in Zukunft vielleicht sogar mit Quantencomputern. Dadurch wären dann auch hormoninduzierte Prozesse und unlogische Entscheidungen durchaus denkbar und wir werden uns die Frage stellen müssen: Ab wann wird eine KI zu einem Lebewesen?
 
Auch eine KI verändert ihre "Denkweisen", wenn sie Informationen neu miteinander verknüpft oder neue Informationen in ihren Datenpool integriert. Was anderes geht in unserem Gehirn auch nicht vor. Auch dort werden nur neue Informationen mit vorhandenen abgeglichen, verknüpft und integriert. Ausserdem werden vorhandene Informationen immer wieder neu evaluiert um die Verknüpfungen zu optimieren/verändern, was moderne KIs allerdings auch ständig tun, wenn auch (noch) nicht in den kurzen Intervallen wie unser Gehirn das tut.

Da muss ich mal widersprechen.
1. Keine KI ist in der Lage so etwas wie einen Paradigmenwechsel aus sich heraus durchzuführen. Ist auch kein Problem, denn bisherige KIs sind idR auf eine Aufgabe beschränkt. Die Google Go KI kann toll Go spielen - aber das war's dann auch.
Mit "Denken" (auch nicht in Anführungsstrichen) hat es bei aktuellen (derzeit) KIs gar nichts zu tun.

2. Die Lernprozesse, die im Gehirn ablaufen sind uns unterm Schnitt noch völlig unbekannt. Wir kennen ein Stück weit die Chemie. Und wir kennen die primitiven Konditionierungsmuster. Die gesamte Psychologie agiert noch immer sehr bemüht wenn es darum geht, ein bestimmtes Verhalten einer bestimmten Entwicklung zuzuordnen. Aber Aussagen darüber was man machen muss, damit man XYZ entwickelt, ist nicht einmal im Ansatz in Sicht. Die Unterbewussten Lernprozesse oder die Frage danach, woher die "Idee" kommt, sind völlig ungeklärt. Man ist sich aber seit langem einig dass genau diese Prozesse den Großteil des "Denkens" ausmachen.

3. Alle bisherigen Entwicklungen basieren auf der Imitation intelligenten Verhaltens. Und zwar auf dem Teil, der sich erkennbar in Handlung/Aktion ausdrückt. Roboter, die selbst Bewegungsabläufe erlernen sind in der Konsequenz noch nicht über das Level des pawlowschen Hundes hinausgekommen.

4.
Unsere Lernprozesse sind im Prinzip großteils auch nur Verknüpfungen von Synapsen in unserem Gehirn, ähnlich wie es KIs tun. Wir modifizieren dabei ja auch nicht unser Gehirn.
In frühen Jahren tun wir aber eben genau das: Wir beeinflussen das Wachstum im Gehirn. Und heute weiß man auch, dass wir das u.U. auch später noch können.

5. Gleichschaltung der Nervensysteme. In der Robotik und KI Forschung sprechen wir vom "Denken" und lernen. In lebenden System sind für Dinge wie Nachdenken, atmen, gehen usw. verschiedene System zuständig, inkl. sowas wie Präprozessoren beim Hörsinn.



Wenn wir von KI sprechen, die mit menschlichen Denken vergleichbar sein SOLL, so kommen wir an diesen Baustellen doch nicht vorbei:

- Semantik und Sprache. Wesentliches Element des Denkens und untrennbar vom Bewusstsein.

- Kontext: Kinder werden kritisiert: Ein Kind lässt das kalt. Ein anderes Kind schöpft daraus Motivation, ein weiteres Kind ist gekränkt. Lebenserfahrungen werden im Detail individuell verarbeitet.

- Das, was im wesentlichen einer KI zugrunde liegen müsste, ist die Möglichkeit universell und allgemein Probleme zu lösen. Das wusste man bereits in den 50ern und war damals in einen regelrechten Rausch verfallen. Man weiß heute, dass sich dieses System nicht
im Sinne menschlicher Denkprozesse beschreiben lässt.

- Formalisierung: Menschliche Denkprozesse lassen sich nicht universal formalisieren. Es ist so als wenn jeder Mensch ein eigenes Universum ist und seine ganz eigene Physik und eigene Fundamentalgesetze hat.

Der letzte Punkt ist der deutlichste. Einer _Maschine_ muss eine formalisierte Struktur zugrunde liegen - eine Art "Schöpfung" die in irgendeiner Weise Sinngebunden ist.
Man kann zu einem Haufen Einsen und Nullen nicht sagen "lebt und denkt". Sondern man muss sie nach einem Plan anordnen, damit es in ihrem Kontext einen Sinn ergibt: Nämlich die Programmierung einer Hardware.


Was wir bisher wirklich geschafft haben, ist es, die Komplexität und die Geschwindigkeit von Systemen zu erhöhen. Das wurde durch bessere Maschinen und ausgeklügelte Algorithmen erreicht.

Also - Kirche im Dorf lassen :D
 
Da muss ich mal widersprechen.
1. Keine KI ist in der Lage so etwas wie einen Paradigmenwechsel aus sich heraus durchzuführen. Ist auch kein Problem, denn bisherige KIs sind idR auf eine Aufgabe beschränkt. Die Google Go KI kann toll Go spielen - aber das war's dann auch.
Mit "Denken" (auch nicht in Anführungsstrichen) hat es bei aktuellen (derzeit) KIs gar nichts zu tun.
Wirf mal einen Blick in die moderne Robotik. Da sind KIs ganz und gar nicht mehr nur auf eine Aufgabe beschränkt sondern werden immer universeller einsetzbar. Klar ist das bisher alles im Experimentierstadium, aber das war das Internet vor 50 Jahren auch.

2. Die Lernprozesse, die im Gehirn ablaufen sind uns unterm Schnitt noch völlig unbekannt. Wir kennen ein Stück weit die Chemie. Und wir kennen die primitiven Konditionierungsmuster. Die gesamte Psychologie agiert noch immer sehr bemüht wenn es darum geht, ein bestimmtes Verhalten einer bestimmten Entwicklung zuzuordnen.
Das liegt aber in erster Linie daran, dass Psychologen nicht in der Lage sind ihre Probanden jede Minute ihres Lebens zu begleiten und somit alle Vorgänge zu identifizieren, die auf die Entwicklung von Denkmustern Einfluss haben. Als Vater, der aufgrund von Homeoffice seine Kinder ständig um sich hat, kann ich z.B. wesentlich genauer sagen, warum mein Sohn eher der vorsichtige Typ ist und meiner Tochter das genaue Gegenteil als es ein Psychologe jemals könnte. Das liegt schlicht daran, dass ich ihre Entwicklung gesehen habe und weiss, welche Schlüsselsituationen bisher in ihrem Leben aufgetreten sind. Ich behaupte aufgrund dieser Erfahrung, dass der Psychologie lediglich eine ausreichende Datenbasis fehlt.

3. Alle bisherigen Entwicklungen basieren auf der Imitation intelligenten Verhaltens. Und zwar auf dem Teil, der sich erkennbar in Handlung/Aktion ausdrückt. Roboter, die selbst Bewegungsabläufe erlernen sind in der Konsequenz noch nicht über das Level des pawlowschen Hundes hinausgekommen.
Moderne Roboter befinden sich auf dem Level von Kleinkindern, wenn es um das Erlernen von Bewegungsabläufen geht. Dabei muss man allerdings bedenken, dass sie zumeist auch noch nicht älter sind als Kleinkinder. Somit steht noch ziemlich in den Sternen was sie noch alles im Bereich der Bewegungsabläufe erlernen werden.

In frühen Jahren tun wir aber eben genau das: Wir beeinflussen das Wachstum im Gehirn. Und heute weiß man auch, dass wir das u.U. auch später noch können.
Genau so, wie die Datenbasis für KIs stetig wächst und die Komplexität der Informationsverknüpfungen zunimmt.

5. Gleichschaltung der Nervensysteme. In der Robotik und KI Forschung sprechen wir vom "Denken" und lernen. In lebenden System sind für Dinge wie Nachdenken, atmen, gehen usw. verschiedene System zuständig, inkl. sowas wie Präprozessoren beim Hörsinn.
Und da man dies erkannt hat, geht man mittlerweile bei Robotern dazu über mehrere KIs miteinander zu verknüpfen/verbinden.



- Kontext: Kinder werden kritisiert: Ein Kind lässt das kalt. Ein anderes Kind schöpft daraus Motivation, ein weiteres Kind ist gekränkt. Lebenserfahrungen werden im Detail individuell verarbeitet.
Und genau da ist der Punkt: Lebenserfahrung. Kinder mit verschiedenen Erfahrungen werden unterschiedlich auf Ereignisse reagieren. Gleiches gilt für KIs.

- Das, was im wesentlichen einer KI zugrunde liegen müsste, ist die Möglichkeit universell und allgemein Probleme zu lösen. Das wusste man bereits in den 50ern und war damals in einen regelrechten Rausch verfallen. Man weiß heute, dass sich dieses System nicht
im Sinne menschlicher Denkprozesse beschreiben lässt.
Weiss man das? Ich habe irgendwie das Gefühl du hast ein wenig die Entwicklungen der letzten 10 Jahre in der Robotik verschlafen. Dort weiss man mittlerweile, dass man nicht EINE KI zur universellen und allgemeinen Problemlösung braucht, sondern einen KI-Verbund, bei der die einzelnen KIs spezialisiert sind. So wie es unser Gehirn ja auch tut, wo jedes Gehirnareal bestimmte Spezialisierungen hat.

- Formalisierung: Menschliche Denkprozesse lassen sich nicht universal formalisieren. Es ist so als wenn jeder Mensch ein eigenes Universum ist und seine ganz eigene Physik und eigene Fundamentalgesetze hat.
Das ist eine Behauptung, die du aufstellst, der aber keineswegs mehr alle Forscher in diesem Bereich zustimmen. Diese Behauptung basiert nämlich auf der Annahme, dass die Erkenntnisse über Denkprozesse ein bestimmtes Level nicht überschreiten können. Doch gerade die modernen Möglichkeiten von IT-Systemen bieten mittlerweile die Möglichkeit immer mehr Aspekte in die Erforschung von Denkprozessen einfliessen lassen zu können. Es gab auch mal Zeiten, da dachte man, man könne nicht bestimmen, worauf sich der visuelle Fokus von Menschen richtet, wenn sie einen Raum betreten. Heutzutage weiss man, dass man mit dieser Annahme grundverkehrt lag.

Der letzte Punkt ist der deutlichste. Einer _Maschine_ muss eine formalisierte Struktur zugrunde liegen - eine Art "Schöpfung" die in irgendeiner Weise Sinngebunden ist.
Man kann zu einem Haufen Einsen und Nullen nicht sagen "lebt und denkt". Sondern man muss sie nach einem Plan anordnen, damit es in ihrem Kontext einen Sinn ergibt: Nämlich die Programmierung einer Hardware.
Warum sollte man das zu einem Haufen Kohlenstoffverbindungen sagen können, nicht jedoch zu einem Haufen 0-1-Verbindungen? Man bedenke weiterhin, dass mit dem Quantencomputing zukünftigen KIs weitaus mehr Zustände zur Verfügung stehen werden als es mit simplen Nukleotiden möglich ist.

Was wir bisher wirklich geschafft haben, ist es, die Komplexität und die Geschwindigkeit von Systemen zu erhöhen. Das wurde durch bessere Maschinen und ausgeklügelte Algorithmen erreicht.

Und wir haben es durch die erhöhte Komplexität und Geschwindigkeit gleichermaßen geschafft immer komplexere Zusammenhänge durch diese Systeme erfassen zu lassen.
 
Das liegt aber in erster Linie daran, dass Psychologen nicht in der Lage sind ihre Probanden jede Minute ihres Lebens zu begleiten und somit alle Vorgänge zu identifizieren, die auf die Entwicklung von Denkmustern Einfluss haben. Als Vater, der aufgrund von Homeoffice seine Kinder ständig um sich hat, kann ich z.B. wesentlich genauer sagen, warum mein Sohn eher der vorsichtige Typ ist und meiner Tochter das genaue Gegenteil als es ein Psychologe jemals könnte. Das liegt schlicht daran, dass ich ihre Entwicklung gesehen habe und weiss, welche Schlüsselsituationen bisher in ihrem Leben aufgetreten sind. Ich behaupte aufgrund dieser Erfahrung, dass der Psychologie lediglich eine ausreichende Datenbasis fehlt.

Auch Forscher der Psychologie oder Entwicklungstheorien haben Kinder.
Im Übrigen siehst du "lediglich" ein Ergebnis von Prozessen deren Kenntnis uns trotzdem fehlt. Oder anders: Du kannst es beschreiben aber nicht erklären.

Weiss man das? Ich habe irgendwie das Gefühl du hast ein wenig die Entwicklungen der letzten 10 Jahre in der Robotik verschlafen. Dort weiss man mittlerweile, dass man nicht EINE KI zur universellen und allgemeinen Problemlösung braucht, sondern einen KI-Verbund, bei der die einzelnen KIs spezialisiert sind. So wie es unser Gehirn ja auch tut, wo jedes Gehirnareal bestimmte Spezialisierungen hat.

Zufällig verfolge ich die Diskussion sogar ziemlich genau ;) Und deswegen sehe ich auch, dass es in der KI Forschung keine nennenswerte Fortschritte gibt, wenn es darum (dem Menschen analoge) Denkprozesse zu formalisieren.
Wir kommen nur (scheinbar) vom Fleck, weil wir mehr Rechenleistung haben. Konzeptionell sind wir 50er. Die Tatsache dass man mehrere KIs zusammenschaltet ist eben auch "nur" eine operative Leistungssteigerung.


Moderne Roboter befinden sich auf dem Level von Kleinkindern, wenn es um das Erlernen von Bewegungsabläufen geht. Dabei muss man allerdings bedenken, dass sie zumeist auch noch nicht älter sind als Kleinkinder. Somit steht noch ziemlich in den Sternen was sie noch alles im Bereich der Bewegungsabläufe erlernen werden.
Wirklich moderne Roboter laufen auch nicht mehr auf zwei Beinen ;)


Warum sollte man das zu einem Haufen Kohlenstoffverbindungen sagen können, nicht jedoch zu einem Haufen 0-1-Verbindungen? Man bedenke weiterhin, dass mit dem Quantencomputing zukünftigen KIs weitaus mehr Zustände zur Verfügung stehen werden als es mit simplen Nukleotiden möglich ist.
Weil der Alte nicht würfelt :D *scnr*

Quantencomputer helfen dir auch nicht dabei zu formalisieren.


Das ist eine Behauptung, die du aufstellst, der aber keineswegs mehr alle Forscher in diesem Bereich zustimmen. Diese Behauptung basiert nämlich auf der Annahme, dass die Erkenntnisse über Denkprozesse ein bestimmtes Level nicht überschreiten können. Doch gerade die modernen Möglichkeiten von IT-Systemen bieten mittlerweile die Möglichkeit immer mehr Aspekte in die Erforschung von Denkprozessen einfliessen lassen zu können. Es gab auch mal Zeiten, da dachte man, man könne nicht bestimmen, worauf sich der visuelle Fokus von Menschen richtet, wenn sie einen Raum betreten. Heutzutage weiss man, dass man mit dieser Annahme grundverkehrt lag.


Du bringst hier zwei Dinge zusammen, die nicht zusammen gehören. Deine erste Aussage basiert darauf dass sich ein komplexes System nicht selbst beschreiben kann - das ist wohl eher ein mathematisches Theorem. Das andere ist schlichtweg die Verbesserung von Technologie in einer Sache, die zu verbessern ist. Das ist konsequenter technischer Fortgang, der i.d.R. immer auf einer Sache beruht, die schon da ist.
Wissenschaftliche und/oder technologische "Quantensprünge" sind sogar ziemlich selten...

Sollte sich herausstellen dass das "Denken" tatsächlich von Quantenprozessen _beeinflusst_ wird, so hört die Erkenntnis darüber definitiv auf. Das hat dann nichts mehr mit "jetzt nicht - spaeter schon" zu tun, sondern mit den Fundamentaleigenschaften dieses Universums. Das führt wieder dazu, dass man darauf reduziert bleibt, Effekte zu beschreiben.

Und wir haben es durch die erhöhte Komplexität und Geschwindigkeit gleichermaßen geschafft immer komplexere Zusammenhänge durch diese Systeme erfassen zu lassen.

Erinnerst du dich noch an den Gen-Hype? An die ersten Verlautbarungen vom "entschlüsselten" Genom und was nun jetzt alles Möglich sein wird? Keine Sau spricht mehr davon - und von den ganzen geklonten Tieren auch nicht.
Die Massen an Daten und die Komplexität musste die Leute erst wieder erden und haben uns die lange Nase gemacht.


Ich will auch eigentlich nur dafür werben, die Komplexität und das Mysterium des "Denkens" deutlicher anzuerkennen. Und nicht nur des Denkens, sondern der Natur im allgemeinen. Es fließen seit fast 100 Jahren nun zig Milliarden USD und Hunderttausende Mannjahre in die KI Entwicklung und trotzdem können die Dinger noch nicht mal Autofahren: Weil es den Maschinen einfach an Fantasie mangelt sich Verkehrsstationen auch aus den Augen anderer vorzustellen. Für einen Menschen ist das Pillepalle. Der lernt nebenbei noch Englisch, hört Musik, denkt über etwas nach oder führt eine Unterhaltung. Manchen kommen sogar die besten Ideen beim Autofahren.

Und überhaupt - Der Mensch versteht sich als solchen doch selbst nicht.


 
Und überhaupt - Der Mensch versteht sich als solchen doch selbst nicht.

Dennoch hat er in den letzten 100 Jahren riesige Schritte im Bereich des Selbstverständnisses gemacht. Ich wage daher zu bezweifeln, dass das Verständnis von Denkprozessen unmöglich ist, selbst wenn es noch eine Weile dauern wird, bis es bis in's kleinste Detail verstanden wird. Bis dahin können wir aber unsere derzeitigen Erkenntnisse in KIs abbilden und damit die Denkprozesse abbilden, für die bisher bereits Verständnis vorhanden ist: Raumwahrnehmung, Sprache und Sprachmodulation, Mustererkennung, Bewegungssteuerung uvm.. Allein das wird dafür sorgen, dass sich unsere Gesellschaft sehr grundlegend verändern wird, z.B. im Bereich des Erwerbslebens, des Sports, der Freizeitgestaltung etc..
 
Dennoch hat er in den letzten 100 Jahren riesige Schritte im Bereich des Selbstverständnisses gemacht.

Meinst du damit das Selbstverständnis darüber, wo sich der Mensch als solches im Universum verortet oder die mechanistische Sicht, wie irgendwas funktioniert?
 
Das Lernen in einer Maschine kann statistisch oder induktiv erfolgen. Gibt es noch weitere Lernstrategien?

Statistisch interpretiere ich als Berechnung einer besten Strategie auf Basis aller Messdaten und induktiv entsprechend als Entwicklung eines Prozesses, ausgehend von wenigen Beispielen, d.h. als Generalisierung.

Ich kann mir jedoch nicht vorstellen, dass das alle Lerntypen sind, die praktiziert werden.

Wie Chrom bereits konstatierte, enden statistische Lernmodelle in complexen Situationen häufiger in einer Endlosschleife (Beispiel?). Nachvollziehbar, denkbar: ja, rekonstruierbar, möglicherweise, habe ich noch keine Ressourcen drauf angewendet.
 
Statistisch interpretiere ich als Berechnung einer besten Strategie auf Basis aller Messdaten und induktiv entsprechend als Entwicklung eines Prozesses, ausgehend von wenigen Beispielen, d.h. als Generalisierung.

Wie ich schon sagte - uns fehlen noch elementare Kenntnisse darüber, wie Lernprozesse überhaupt funktionieren. Wir können Kinder oder Schlaganfall/Unfallpatienten beobachten und _beschreiben_, wie sich das Lernen auswirkt.
Was wir aber nicht können, ist, die Prozesse im Gehirn formal zu beschreiben. Hier kommen eben aktuell die Methoden in Spiel, die wir bereits seit den 50ern verwenden - auch wenn sie Komplexer geworden sind.
Und damit können wir tatsächlich nur primitivste Lernschritte nachbilden.

Abstrakte Gebilde, wie eine "Idee", Intuition oder das Schaffen von "neuen" Gedanken, liegen bzgl. der Prozesse noch völlig im Dunkeln.

Ich kann mir jedoch nicht vorstellen, dass das alle Lerntypen sind, die praktiziert werden.
Langfristig sicher nicht und ich denke dass wir noch einige Dekaden Grundlagenforschung brauchen werden um auf den "richtigen" Weg zu kommen.
 
Abstrakte Gebilde, wie eine "Idee", Intuition oder das Schaffen von "neuen" Gedanken, liegen bzgl. der Prozesse noch völlig im Dunkeln.

Ich denke nicht, dass der Anspruch an künstliche Intelligenz das kreative Denken ist sondern das rein logische Denken. Allein dadurch werden KIs bereits in die Lage versetzt einen Großteil der heute üblichen Arbeiten zu übernehmen. Die Kreativität wird aber ganz sicher auf nicht absehbare Zeit den Menschen vorbehalten bleiben, zumindest so lange, bis bio-basierte Chips zum State-of-the-Art werden.

Und genau deswegen sollte man das heutige Bildungssystem überdenken. Es wird mittelfristig nicht mehr notwendig sein, dass die Menschen Bücherweisheiten nachplappern können. Es wird vielmehr notwendig sein, dass die Menschen kreativ werden. Weitaus kreativer als das, was das heutige Bildungssystem ermöglicht, in dem Fähigkeiten wie Verständnis von Kunst völlig verkümmern, weil die Köpfe der Kids mit Wissen vollgepfropft werden, das jederzeit im Internet nachgeschlagen werden kann.
 
Ich denke nicht, dass der Anspruch an künstliche Intelligenz das kreative Denken ist sondern das rein logische Denken. Allein dadurch werden KIs bereits in die Lage versetzt einen Großteil der heute üblichen Arbeiten zu übernehmen.


Problemlösungsstrategien sind aber nun auch eben kreative Leistungen. Insbesondere wenn es um "neue" Wege/Modelle geht.
Ohne das ist es nichts weiter als eine besonders schnelle Rechenmaschine. In der (öffentlichen) Diskussion geht es aber um KIs, die in durchaus brisanten Bereichen zum Einsatz kommen (wie etwa dem Verkehr).

Die Kreativität wird aber ganz sicher auf nicht absehbare Zeit den Menschen vorbehalten bleiben, zumindest so lange, bis bio-basierte Chips zum State-of-the-Art werden.
Kreativität hat viele Gesichter - Fakt ist aber, dass Lern- und Problemlösungsstrategien der heilige Gral der KI Forschung sind. Ohne das - keine K"I" ;)

Btw - spielt es keine Rolle welche Art Chips du benutzt, solange du keine Formale Beschreibung der Aufgabe hinbekommst.
 
Zurück
Oben