Danke Danke:  0
Dislikes Dislikes:  0
Seite 2 von 3 ErsteErste 123 LetzteLetzte
Ergebnis 16 bis 30 von 36

Thema: KI - Was denkt ihr darüber?

  1. #16
    Moderator Avatar von Chromatin
    Registriert seit
    30.06.08
    Danke (erhalten)
    33
    Gefällt mir (erhalten)
    847

    Standard

    Anzeige
    Der statistische Ansatz ist schon seit den 50ern als tote Gasse identifiziert worden. Am Ende ganz einfach deswegen, weil sich nicht formale-Systeme nicht formal beschreiben lassen und das trifft eben auf unseren Denkapparat zu, den wir als Sitz des Geistes identifiziert haben.

    Deine Ansätze sind tauglich, wenn es um (primitive) Dialogsysteme geht. Dann reden wir aber im besten Fall von einer gelungen Imitation intelligenten Verhaltens in einer speziellen Sache. Beispielsweise könnte dein Roboter simple Haushaltstätigkeiten durchführen, wie z.B. Staub saugen. Die Überlegung, ob er aber diesen Schmetterling/Spinne/Kaefer am Boden mit einsaugen oder herausbringen sollte, wird er nicht vollführen.
    Wenn ein Gesetz nicht gerecht ist, dann geht die Gerechtigkeit vor dem Gesetz!

    Habo Blog - http://blog.hackerboard.de/

  2. #17

    Registriert seit
    13.02.18
    Danke (erhalten)
    0
    Gefällt mir (erhalten)
    1

    Standard

    Zitat Zitat von Chromatin Beitrag anzeigen
    Der statistische Ansatz ist schon seit den 50ern als tote Gasse identifiziert worden. Am Ende ganz einfach deswegen, weil sich nicht formale-Systeme nicht formal beschreiben lassen und das trifft eben auf unseren Denkapparat zu, den wir als Sitz des Geistes identifiziert haben.
    Finde nur seltsam, aus welchem Grund den die Diagnostik von Emotionen nicht bewerkstelligen lassen soll. Als Beispiel mit Hilfe des Ansatzes der Universität Trier: https://www.uni-trier.de/fileadmin/f..._Emotionen.pdf also bzgl. der Emotionserkennung. Oder meinst du was anderes? Könntest du mit vielleicht einen Link schicken, wieso der statistische Ansatz eine Sackgasse ist? Das war mir nicht bekannt.
    Deine Ansätze sind tauglich, wenn es um (primitive) Dialogsysteme geht. Dann reden wir aber im besten Fall von einer gelungen Imitation intelligenten Verhaltens in einer speziellen Sache. Beispielsweise könnte dein Roboter simple Haushaltstätigkeiten durchführen, wie z.B. Staub saugen. Die Überlegung, ob er aber diesen Schmetterling/Spinne/Kaefer am Boden mit einsaugen oder herausbringen sollte, wird er nicht vollführen.
    In meinen Augen ist es logisch, dass man bei einer KI von Imitation einer Intelligenz spricht, es ist nun mal eine KI. Ich sehe es allerdings als vollkommen egal wie man es nennt, Hauptsache es funktioniert. Doch ich begreife nicht aus welchem Grund ein Roboter nicht in der Lage sein soll zu entscheiden, ob er etwas einsaugt oder nicht. Bei bereits programmiertem Befehl wie if(object.isEqual(Schmetterling)){->strecke Arm aus->greife zu->fahre zum Ausgang->lasse Arm los} else {sauge ein}

    Nur mal so BTW. Ich weis nicht, ob ihr mal davon gehört habt. Es gab vor ungefähr einem Jahr einen interessanten Fall im Bereich des Gamings. Es handelte sich um ein Game, in welchem man beim Aufsteigen das eigene Schiff verbessern/weiterentwickeln konnte. Verrückterweise ist die KI "durchgedreht" was dazu führte, dass diese anfing Waffen eigenständig zu entwickeln, welche so im Spiel nicht vorgesehen waren. Damit hatte natürlich keiner der Spieler eine Chance, da die Waffen übermächtig waren. Die KI von Elite: Dangerous dreht durch und entwickelt ganzlich neue Superwaffen - Motherboard Es ist zwar nur ein Spiel, doch für mich hat es schon etwas was auch außerhalb des Gamings passieren kann. Ein Fehler des Programmierers könnte reichen.
    Geändert von Venik (22.02.18 um 10:20 Uhr)

  3. #18
    Moderator Avatar von Chromatin
    Registriert seit
    30.06.08
    Danke (erhalten)
    33
    Gefällt mir (erhalten)
    847

    Standard

    Finde nur seltsam, aus welchem Grund den die Diagnostik von Emotionen nicht bewerkstelligen lassen soll. Als Beispiel mit Hilfe des Ansatzes der Universität Trier: https://www.uni-trier.de/fileadmin/f..._Emotionen.pdf also bzgl. der Emotionserkennung. Oder meinst du was anderes? Könntest du mit vielleicht einen Link schicken, wieso der statistische Ansatz eine Sackgasse ist? Das war mir nicht bekannt.
    Eine KI muss lernen, sonst ist daran kein "I". Zu einem Lernprozess gehört unmittelbar die Fähigkeit einer situativen Verortung: D.h. ich als lernender muss den Kontext, in dem ich mich befinde, begreifen. Ohne das, ist keine "intelligente" Handlung möglich.
    Als Beispiel nehme den Satz "Bleib in meiner Nähe!".
    Dieser Satz beinhaltet erst mal eine krasse Mehrdeutigkeit. Eine Handlung (Befolgung der Aussage) kann aber nur konkret folgen, wenn die Mehrdeutigkeit aufgelöst ist. Mehrdeutigkeit löst sich im Kontext auf. Die Reduktion einer Situation von einer Mehrdeutigkeit auf eine Eindeutigkeit, ist (offenbar) irgendeine Art call&response Prozess, welcher zwar auch auf vorhandenen Erfahrungen basiert (was sich durch Dateneingabe lösen lässt), aber auch immer etwas neues erzeugen kann.
    Ein Statistischer Ansatz bietet schlichtweg und per Definition keinen Raum Und keine Methode) für die Schaffung von etwas neuem.


    In meinen Augen ist es logisch, dass man bei einer KI von Imitation einer Intelligenz spricht, es ist nun mal eine KI. Ich sehe es allerdings als vollkommen egal wie man es nennt, Hauptsache es funktioniert.
    Weil wir hier von KI sprechen und nicht von Automaten. Ein Automat kann durchaus den Eindruck erwecken intelligent zu handeln. Aber ein Automat würde keinen Turing-Test bestehen

    Doch ich begreife nicht aus welchem Grund ein Roboter nicht in der Lage sein soll zu entscheiden, ob er etwas einsaugt oder nicht. Bei bereits programmiertem Befehl wie if(object.isEqual(Schmetterling)){->strecke Arm aus->greife zu->fahre zum Ausgang->lasse Arm los} else {sauge ein}
    Du kannst für primitive Vorgänge genau so vorgehen, wirst aber ab einem bestimmten Grad der Komplexität feststellen, dass du die Aufgabe so nicht gelöst bekommst.
    - Ist der Schmetterling tot?
    - Ist der Schmetterling verletzt?
    - ist der Schmetterling ein Schädling?
    - Ist der Schmetterling regungslos und bewegt sich dann doch (in der Hand)?
    - Ist der Schmetterling echt (gehört er zu einem Kinderspielzeug, ist es Schmuck, ein Teil eines Kleidungsstücks)?
    - usw...

    Mit deinem Ansatz würdest du einen Dschungel von Bedingungen und Sprüngen entwerfen und unweigerlich in einem Deadlock/Endlosschleife versauern.
    Denn es gibt in dieser Herangehensweise früher oder später einen Punkt wo sich, aufgrund dieser Art der formalen Beschreibung, einfach keine Entscheidung herbeiführen lässt.
    Etwa, wenn sich Bedingungen gleichen.

    Man kommt immer wieder darauf zurück, dass es notwendig ist, die Situation (nach dem eigenen Vermögen) zu erfassen und einen "Schluss zu ziehen".
    Wenn ein Gesetz nicht gerecht ist, dann geht die Gerechtigkeit vor dem Gesetz!

    Habo Blog - http://blog.hackerboard.de/

  4. #19

    Registriert seit
    13.02.18
    Danke (erhalten)
    0
    Gefällt mir (erhalten)
    1

    Standard

    Zitat Zitat von Chromatin Beitrag anzeigen
    Eine KI muss lernen, sonst ist daran kein "I". Zu einem Lernprozess gehört unmittelbar die Fähigkeit einer situativen Verortung: D.h. ich als lernender muss den Kontext, in dem ich mich befinde, begreifen. Ohne das, ist keine "intelligente" Handlung möglich.
    Als Beispiel nehme den Satz "Bleib in meiner Nähe!".
    Dieser Satz beinhaltet erst mal eine krasse Mehrdeutigkeit. Eine Handlung (Befolgung der Aussage) kann aber nur konkret folgen, wenn die Mehrdeutigkeit aufgelöst ist. Mehrdeutigkeit löst sich im Kontext auf. Die Reduktion einer Situation von einer Mehrdeutigkeit auf eine Eindeutigkeit, ist (offenbar) irgendeine Art call&response Prozess, welcher zwar auch auf vorhandenen Erfahrungen basiert (was sich durch Dateneingabe lösen lässt), aber auch immer etwas neues erzeugen kann.
    Ein Statistischer Ansatz bietet schlichtweg und per Definition keinen Raum Und keine Methode) für die Schaffung von etwas neuem.



    Weil wir hier von KI sprechen und nicht von Automaten. Ein Automat kann durchaus den Eindruck erwecken intelligent zu handeln. Aber ein Automat würde keinen Turing-Test bestehen



    Du kannst für primitive Vorgänge genau so vorgehen, wirst aber ab einem bestimmten Grad der Komplexität feststellen, dass du die Aufgabe so nicht gelöst bekommst.
    - Ist der Schmetterling tot?
    - Ist der Schmetterling verletzt?
    - ist der Schmetterling ein Schädling?
    - Ist der Schmetterling regungslos und bewegt sich dann doch (in der Hand)?
    - Ist der Schmetterling echt (gehört er zu einem Kinderspielzeug, ist es Schmuck, ein Teil eines Kleidungsstücks)?
    - usw...

    Mit deinem Ansatz würdest du einen Dschungel von Bedingungen und Sprüngen entwerfen und unweigerlich in einem Deadlock/Endlosschleife versauern.
    Denn es gibt in dieser Herangehensweise früher oder später einen Punkt wo sich, aufgrund dieser Art der formalen Beschreibung, einfach keine Entscheidung herbeiführen lässt.
    Etwa, wenn sich Bedingungen gleichen.

    Man kommt immer wieder darauf zurück, dass es notwendig ist, die Situation (nach dem eigenen Vermögen) zu erfassen und einen "Schluss zu ziehen".
    Ah okay jetzt hab ich es begriffen. Ist leider etwas länger her mit der Softwareentwicklung, somit ist mir auch das aktuelle wohl etwas abhanden gekommen . Danke für deine Erklärung. Gruß

  5. #20
    Moderator Avatar von Chromatin
    Registriert seit
    30.06.08
    Danke (erhalten)
    33
    Gefällt mir (erhalten)
    847
    Wenn ein Gesetz nicht gerecht ist, dann geht die Gerechtigkeit vor dem Gesetz!

    Habo Blog - http://blog.hackerboard.de/

  6. #21

    Registriert seit
    05.12.15
    Danke (erhalten)
    10
    Gefällt mir (erhalten)
    21

    Standard Reanimation

    KI ist (und bleibt vermutlich) ein ständiges Streitthema, da der Terminus: Ab wann spricht man von KI? nicht eindeutig definiert werden kann. Ist KI gelerntes auf neue Situationen anwenden, oder gelerntes verknüpfen mit neuen Situationen und über Wahrscheinlichkeiten eine neue Strategie erschließen, die über Try und Error erprobt wird? Erlerntes spielt immer eine Rolle, aber können Computer "richtig" verallgemeinern?

    Schön ist es einem Kind beim Lernen zuzuschauen. Da wird ein Hund schnell generalisiert mit dem Namen des eigenen, anstelle des Begriffs Hund. Auch gucken sich Kinder bis zu einem gewissen Alter das Verhalten bei ihren Eltern ab und dann an der Gesellschaft. Einige erlangen die Fähigkeit das eigene Verhalten zu reflektieren und sich selber ein eigenes zu definieren, welches Konform mit der Lebenseinstellung geht. Diese Konformität ist wieder eine Verknüpfung mit (neuem) Erlerntem. Also ist die "ICH"-Bildung ein stetiger, dynamischer Prozess. Bei einer KI ist es gedanklich schwierig von einem "ICH" zu sprechen.

    Wir definieren viele Dinge über unsere "Sensoren", d.h. über den Input, den wir bekommen. Die Verarbeitung ist daran geknüpft, wie wir gelernt haben, zu denken und zu lernen. (Rekonstruktion oder Produktion) Diese erworbene Fähigkeit scheint mir bei der KI der Quellcode zu sein. Dadurch lernt ein Computer zu lernen und ggf. zu denken. Kann die KI daran Änderungen/Anpassungen vornehmen?


    [Edit] Hier ein paar nette, weiterführende Quellen:
    - Vortrag von Prof. Dr. Wolfgang Ertel zum Thema
    Vortrag Prof. Ertel uber kunstliche Intelligenz - YouTube&fs=1" width="644" height="390">Vortrag Prof. Ertel uber kunstliche Intelligenz - YouTube&fs=1" />Vortrag Prof. Ertel uber kunstliche Intelligenz - YouTube">https://www.youtube.com/watch?v=Vortrag Prof. Ertel uber kunstliche Intelligenz - YouTube

    - Buch "Grundkurs künstliche Intelligenz" von Prof. Dr. Wolfrang Ertel
    Amazon: Grundkurs Kunstliche Intelligenz: Eine praxisorientierte Einfuhrung Computational Intelligence: Amazon.de: Wolfgang Ertel: Bucher
    Geändert von Shalec (18.04.18 um 11:39 Uhr)

  7. #22
    Moderator Avatar von Chromatin
    Registriert seit
    30.06.08
    Danke (erhalten)
    33
    Gefällt mir (erhalten)
    847

    Standard

    KI ist (und bleibt vermutlich) ein ständiges Streitthema, da der Terminus: Ab wann spricht man von KI? nicht eindeutig definiert werden kann.
    Ich wäre ja auch dafür, dass man sich (generell) auf "Intelligenz-Simulation", denn faktisch ist es nichts anderes.

    Wir definieren viele Dinge über unsere "Sensoren", d.h. über den Input, den wir bekommen. Die Verarbeitung ist daran geknüpft, wie wir gelernt haben, zu denken und zu lernen.
    Diese mechanistische Ansicht entspricht nicht dem, was wir über Lernprozesse wissen.
    Natürlich ist der Input die wesentliche Voraussetzung. Aber der Input formt auch das, was in einem Menschen angelegt ist.
    Und ab einem gewissen Punkt, wo das Gehirn sich in seiner Grundstruktur ausgeformt hat, sind wir trotzdem in der Lage komplette Paradigmenwechsel vorzunehmen und lange zuvor gemachte Erfahrungen unter anderen Blickwinkeln zu interpretieren oder auch komplett auszublenden. Letztendlich ist es so, dass sich Körper und Geist (Gehirn und Erfahrung) in ihrer Entwicklung gegenseitig bedingen und daraus erwachsen weitere "Abzweigungen". Ungeachtet dessen, wissen wir auch dass das allermeiste komplett unbewusst abläuft und wir keine wirklichen Kenntnisse darüber haben.

    Weiterhin ist Kommunikation untrennbar mit dem Denken verbunden und dort haben die Maschinen in Sachen Semantik seit den 50ern nichts anzubieten.

    Unterm Schnitt wird man wohl dem Mathematiker recht geben wenn er behauptet, dass sich ein komplexes System nicht aus sich selbst heraus erkennen kann.
    So geht es uns als Mensch und deswegen bleibt die dem Menschen gleichberechtigte Stellung von Denken und Intelligenz eine unlösbare Aufgabe.

    Allerdings habe ich keine Zweifel, dass wir Maschinen bauen die notwendigerweise erkennen, dass wir lediglich Ballast sind uns deswegen den Arsch aufreissen
    Wenn ein Gesetz nicht gerecht ist, dann geht die Gerechtigkeit vor dem Gesetz!

    Habo Blog - http://blog.hackerboard.de/

  8. #23

    Registriert seit
    05.12.15
    Danke (erhalten)
    10
    Gefällt mir (erhalten)
    21

    Standard

    Wir verarbeiten äußere Reize immer kognitiv, das Wie wird im Laufe des Verarbeitungsprozesses angepasst. Jede Reaktion liefert uns ein Feedback, an dessen wir (in der Bewusstseinsbildung und Wesensausprägung) weiter lernen und uns verändern.

    Wie wir damit umgehen, um uns selber zu entwickeln, ist abhängig von vielen Faktoren: Familiäre Voraussetzungen (Wie werden wir Gefördert und woran können wir uns im frühen Leben orientieren?), eigene Veranlagungen (Wie stark ist meine Fähigkeit Dinge zu Begreifen und zu Erlernen?), kognitive Entwicklung (Wie gehe ich mit neuem Wissen um? Kann ich eigenständig Kausalitäten erkennen bzw. Schlussfolgerungen ziehen, oder bin ich nur in der Lage zu reproduzieren?)

    Ich denke, dass man einen Computer mit Quellcode auf ein Baby mit Eltern abbilden kann. Der Computer kann erstmal nur so gut lernen, wie es der Quellcode (der Entwickler) vorsieht. Irgendwann ist das Baby/Kleinkind in der Lage, über diese Muster hinaus seine eigenen Muster anzupassen und es beginnt den Vergleich außerhalb des eigenen Umfelds. Der Computer wird auch mit Informationen gefüttert, dieser kann sich aber nur selten an anderen orientieren und seinen Lernprozess verbessern. Beginnt er abweichende Strukturen zu bilden, wird die KI getötet, ein Kind nicht. Jedenfalls in den meisten Orten der Welt nicht..

    Durch unsere Lehrer in der Schule wird unsere kognitive Welt geprägt, wenn wir zuhause kein entsprechendes Vorbild auffinden. Dazu werden wir aber in die Obhut anderer gegeben, sodass ein fremder Entwickler an unserer Entwicklung teilhaben kann. Bei der KI wird der Quellcode selten verändert und die Maschinen haben keine Berechtigung diesen anzupassen, nur um diesen zu ergänzen.

    Ich versuche irgendwie den Entwicklungsprozess: Baby - KiTa - Schule - Ausbildung auf eine KI abzubilden. Ich versuche also die bekannten Strukturen bei der KI anzuwenden. Gerade hier sieht man auch, dass die KI beschänkt und damit nur virtualisiert ist.


    Ich denke, dass man die Abgrenzung, von automatisierten Prozessen mit Reaktion auf Sensorrückmeldungen von der KI vornehmen muss.

  9. #24
    Moderator Avatar von bitmuncher
    Registriert seit
    30.09.06
    Danke (erhalten)
    159
    Gefällt mir (erhalten)
    1667

    Standard

    Der Schritt, bis KIs ihren eigenen Code anpassen können, ist allerdings auch nicht mehr in allzu großer Ferne. Man schaue sich nur mal Experimente wie DeepCoder an.

    Davon abgesehen denke ich, dass dies gar nicht mal notwendig ist. Unsere Lernprozesse sind im Prinzip großteils auch nur Verknüpfungen von Synapsen in unserem Gehirn, ähnlich wie es KIs tun. Wir modifizieren dabei ja auch nicht unser Gehirn. Insofern bleibt unsere "Quellcode", die DNA, auch immer gleich.

  10. #25

    Registriert seit
    05.12.15
    Danke (erhalten)
    10
    Gefällt mir (erhalten)
    21

    Standard

    Ja, die DNA verändern wir (noch) nicht. Aber unsere Möglichkeiten und Denkweisen. Hier ist es nur eine Frage, ob man die grundlegenden Dinge ändert oder nur um weitere Funktionalitäten erweitert und ein neues Verständnis und damit eine neue Auslegung der vorherigen Regeln hat.

  11. #26
    Moderator Avatar von bitmuncher
    Registriert seit
    30.09.06
    Danke (erhalten)
    159
    Gefällt mir (erhalten)
    1667

    Standard

    Zitat Zitat von Shalec Beitrag anzeigen
    Ja, die DNA verändern wir (noch) nicht. Aber unsere Möglichkeiten und Denkweisen. Hier ist es nur eine Frage, ob man die grundlegenden Dinge ändert oder nur um weitere Funktionalitäten erweitert und ein neues Verständnis und damit eine neue Auslegung der vorherigen Regeln hat.
    Auch eine KI verändert ihre "Denkweisen", wenn sie Informationen neu miteinander verknüpft oder neue Informationen in ihren Datenpool integriert. Was anderes geht in unserem Gehirn auch nicht vor. Auch dort werden nur neue Informationen mit vorhandenen abgeglichen, verknüpft und integriert. Ausserdem werden vorhandene Informationen immer wieder neu evaluiert um die Verknüpfungen zu optimieren/verändern, was moderne KIs allerdings auch ständig tun, wenn auch (noch) nicht in den kurzen Intervallen wie unser Gehirn das tut.

    Was KIs von Menschen tatsächlich noch unterscheidet ist die hormongesteuerte emotionale Ebene. Die neuronalen Prozesse im Gehirn werden aber in guten KIs abgebildet und stetig weiter verbessert um eine noch bessere Annäherung an das menschliche Denken zu erreichen. Wobei auch hierbei bedacht werden muss, dass eine einzelne KI in den meisten Anwendungsfällen eben nicht das komplette menschliche Denken + die Wahrnehmung abbilden soll. KIs sind heutzutage hoch spezialisiert und bilden somit nur einzelne Teile des menschlichen Denkens ab. Bei Bedarf werden dann einfach diese spezialisierten KIs miteinander verknüpft. Das hat sich in der Praxis als einfacher zu handhaben und effizienter herausgestellt. So kann auch mit weniger Rechenleistung mehr erreicht werden. Es macht ja nunmal keinen Sinn, dass eine Spracherkennung auch noch Daten für die Bilderkennung integriert, wenn ihre Sensoren Bilder gar nicht aufnehmen können. Das würde nur die Datenbasis unnötig aufblähen und entsprechend mehr Rechenleistung für die Verarbeitung der Daten (Suche, Integration neuer Daten, Verknüpfung vorhandener Informationen etc.) verheizen.

    Ausserdem sollte man sich bei der Betrachtung von KIs nicht nur auf die aktuellen Computer-Architekturen beschränken sondern auch mal die aktuellen Entwicklungen und Forschungen betrachten. An "Bio-Chips" wird ja auch bereits gearbeitet, die ziemlich sicher für KIs neue Möglichkeiten eröffnen werden. Und spinnt man diese Entwicklung mal weiter, ist der Weg zu den Posbis aus Perry Rhodan gar nicht mal so weit, wo dann biologische Komponenten mit elektronischen verknüpft werden und in Zukunft vielleicht sogar mit Quantencomputern. Dadurch wären dann auch hormoninduzierte Prozesse und unlogische Entscheidungen durchaus denkbar und wir werden uns die Frage stellen müssen: Ab wann wird eine KI zu einem Lebewesen?

  12. #27
    Moderator Avatar von Chromatin
    Registriert seit
    30.06.08
    Danke (erhalten)
    33
    Gefällt mir (erhalten)
    847

    Standard

    Auch eine KI verändert ihre "Denkweisen", wenn sie Informationen neu miteinander verknüpft oder neue Informationen in ihren Datenpool integriert. Was anderes geht in unserem Gehirn auch nicht vor. Auch dort werden nur neue Informationen mit vorhandenen abgeglichen, verknüpft und integriert. Ausserdem werden vorhandene Informationen immer wieder neu evaluiert um die Verknüpfungen zu optimieren/verändern, was moderne KIs allerdings auch ständig tun, wenn auch (noch) nicht in den kurzen Intervallen wie unser Gehirn das tut.
    Da muss ich mal widersprechen.
    1. Keine KI ist in der Lage so etwas wie einen Paradigmenwechsel aus sich heraus durchzuführen. Ist auch kein Problem, denn bisherige KIs sind idR auf eine Aufgabe beschränkt. Die Google Go KI kann toll Go spielen - aber das war's dann auch.
    Mit "Denken" (auch nicht in Anführungsstrichen) hat es bei aktuellen (derzeit) KIs gar nichts zu tun.

    2. Die Lernprozesse, die im Gehirn ablaufen sind uns unterm Schnitt noch völlig unbekannt. Wir kennen ein Stück weit die Chemie. Und wir kennen die primitiven Konditionierungsmuster. Die gesamte Psychologie agiert noch immer sehr bemüht wenn es darum geht, ein bestimmtes Verhalten einer bestimmten Entwicklung zuzuordnen. Aber Aussagen darüber was man machen muss, damit man XYZ entwickelt, ist nicht einmal im Ansatz in Sicht. Die Unterbewussten Lernprozesse oder die Frage danach, woher die "Idee" kommt, sind völlig ungeklärt. Man ist sich aber seit langem einig dass genau diese Prozesse den Großteil des "Denkens" ausmachen.

    3. Alle bisherigen Entwicklungen basieren auf der Imitation intelligenten Verhaltens. Und zwar auf dem Teil, der sich erkennbar in Handlung/Aktion ausdrückt. Roboter, die selbst Bewegungsabläufe erlernen sind in der Konsequenz noch nicht über das Level des pawlowschen Hundes hinausgekommen.

    4.
    Unsere Lernprozesse sind im Prinzip großteils auch nur Verknüpfungen von Synapsen in unserem Gehirn, ähnlich wie es KIs tun. Wir modifizieren dabei ja auch nicht unser Gehirn.
    In frühen Jahren tun wir aber eben genau das: Wir beeinflussen das Wachstum im Gehirn. Und heute weiß man auch, dass wir das u.U. auch später noch können.

    5. Gleichschaltung der Nervensysteme. In der Robotik und KI Forschung sprechen wir vom "Denken" und lernen. In lebenden System sind für Dinge wie Nachdenken, atmen, gehen usw. verschiedene System zuständig, inkl. sowas wie Präprozessoren beim Hörsinn.



    Wenn wir von KI sprechen, die mit menschlichen Denken vergleichbar sein SOLL, so kommen wir an diesen Baustellen doch nicht vorbei:

    - Semantik und Sprache. Wesentliches Element des Denkens und untrennbar vom Bewusstsein.

    - Kontext: Kinder werden kritisiert: Ein Kind lässt das kalt. Ein anderes Kind schöpft daraus Motivation, ein weiteres Kind ist gekränkt. Lebenserfahrungen werden im Detail individuell verarbeitet.

    - Das, was im wesentlichen einer KI zugrunde liegen müsste, ist die Möglichkeit universell und allgemein Probleme zu lösen. Das wusste man bereits in den 50ern und war damals in einen regelrechten Rausch verfallen. Man weiß heute, dass sich dieses System nicht
    im Sinne menschlicher Denkprozesse beschreiben lässt.

    - Formalisierung: Menschliche Denkprozesse lassen sich nicht universal formalisieren. Es ist so als wenn jeder Mensch ein eigenes Universum ist und seine ganz eigene Physik und eigene Fundamentalgesetze hat.

    Der letzte Punkt ist der deutlichste. Einer _Maschine_ muss eine formalisierte Struktur zugrunde liegen - eine Art "Schöpfung" die in irgendeiner Weise Sinngebunden ist.
    Man kann zu einem Haufen Einsen und Nullen nicht sagen "lebt und denkt". Sondern man muss sie nach einem Plan anordnen, damit es in ihrem Kontext einen Sinn ergibt: Nämlich die Programmierung einer Hardware.


    Was wir bisher wirklich geschafft haben, ist es, die Komplexität und die Geschwindigkeit von Systemen zu erhöhen. Das wurde durch bessere Maschinen und ausgeklügelte Algorithmen erreicht.

    Also - Kirche im Dorf lassen
    Wenn ein Gesetz nicht gerecht ist, dann geht die Gerechtigkeit vor dem Gesetz!

    Habo Blog - http://blog.hackerboard.de/

  13. #28
    Moderator Avatar von bitmuncher
    Registriert seit
    30.09.06
    Danke (erhalten)
    159
    Gefällt mir (erhalten)
    1667

    Standard

    Zitat Zitat von Chromatin Beitrag anzeigen
    Da muss ich mal widersprechen.
    1. Keine KI ist in der Lage so etwas wie einen Paradigmenwechsel aus sich heraus durchzuführen. Ist auch kein Problem, denn bisherige KIs sind idR auf eine Aufgabe beschränkt. Die Google Go KI kann toll Go spielen - aber das war's dann auch.
    Mit "Denken" (auch nicht in Anführungsstrichen) hat es bei aktuellen (derzeit) KIs gar nichts zu tun.
    Wirf mal einen Blick in die moderne Robotik. Da sind KIs ganz und gar nicht mehr nur auf eine Aufgabe beschränkt sondern werden immer universeller einsetzbar. Klar ist das bisher alles im Experimentierstadium, aber das war das Internet vor 50 Jahren auch.

    Zitat Zitat von Chromatin Beitrag anzeigen
    2. Die Lernprozesse, die im Gehirn ablaufen sind uns unterm Schnitt noch völlig unbekannt. Wir kennen ein Stück weit die Chemie. Und wir kennen die primitiven Konditionierungsmuster. Die gesamte Psychologie agiert noch immer sehr bemüht wenn es darum geht, ein bestimmtes Verhalten einer bestimmten Entwicklung zuzuordnen.
    Das liegt aber in erster Linie daran, dass Psychologen nicht in der Lage sind ihre Probanden jede Minute ihres Lebens zu begleiten und somit alle Vorgänge zu identifizieren, die auf die Entwicklung von Denkmustern Einfluss haben. Als Vater, der aufgrund von Homeoffice seine Kinder ständig um sich hat, kann ich z.B. wesentlich genauer sagen, warum mein Sohn eher der vorsichtige Typ ist und meiner Tochter das genaue Gegenteil als es ein Psychologe jemals könnte. Das liegt schlicht daran, dass ich ihre Entwicklung gesehen habe und weiss, welche Schlüsselsituationen bisher in ihrem Leben aufgetreten sind. Ich behaupte aufgrund dieser Erfahrung, dass der Psychologie lediglich eine ausreichende Datenbasis fehlt.

    Zitat Zitat von Chromatin Beitrag anzeigen
    3. Alle bisherigen Entwicklungen basieren auf der Imitation intelligenten Verhaltens. Und zwar auf dem Teil, der sich erkennbar in Handlung/Aktion ausdrückt. Roboter, die selbst Bewegungsabläufe erlernen sind in der Konsequenz noch nicht über das Level des pawlowschen Hundes hinausgekommen.
    Moderne Roboter befinden sich auf dem Level von Kleinkindern, wenn es um das Erlernen von Bewegungsabläufen geht. Dabei muss man allerdings bedenken, dass sie zumeist auch noch nicht älter sind als Kleinkinder. Somit steht noch ziemlich in den Sternen was sie noch alles im Bereich der Bewegungsabläufe erlernen werden.

    Zitat Zitat von Chromatin Beitrag anzeigen
    In frühen Jahren tun wir aber eben genau das: Wir beeinflussen das Wachstum im Gehirn. Und heute weiß man auch, dass wir das u.U. auch später noch können.
    Genau so, wie die Datenbasis für KIs stetig wächst und die Komplexität der Informationsverknüpfungen zunimmt.

    Zitat Zitat von Chromatin Beitrag anzeigen
    5. Gleichschaltung der Nervensysteme. In der Robotik und KI Forschung sprechen wir vom "Denken" und lernen. In lebenden System sind für Dinge wie Nachdenken, atmen, gehen usw. verschiedene System zuständig, inkl. sowas wie Präprozessoren beim Hörsinn.
    Und da man dies erkannt hat, geht man mittlerweile bei Robotern dazu über mehrere KIs miteinander zu verknüpfen/verbinden.



    Zitat Zitat von Chromatin Beitrag anzeigen
    - Kontext: Kinder werden kritisiert: Ein Kind lässt das kalt. Ein anderes Kind schöpft daraus Motivation, ein weiteres Kind ist gekränkt. Lebenserfahrungen werden im Detail individuell verarbeitet.
    Und genau da ist der Punkt: Lebenserfahrung. Kinder mit verschiedenen Erfahrungen werden unterschiedlich auf Ereignisse reagieren. Gleiches gilt für KIs.

    Zitat Zitat von Chromatin Beitrag anzeigen
    - Das, was im wesentlichen einer KI zugrunde liegen müsste, ist die Möglichkeit universell und allgemein Probleme zu lösen. Das wusste man bereits in den 50ern und war damals in einen regelrechten Rausch verfallen. Man weiß heute, dass sich dieses System nicht
    im Sinne menschlicher Denkprozesse beschreiben lässt.
    Weiss man das? Ich habe irgendwie das Gefühl du hast ein wenig die Entwicklungen der letzten 10 Jahre in der Robotik verschlafen. Dort weiss man mittlerweile, dass man nicht EINE KI zur universellen und allgemeinen Problemlösung braucht, sondern einen KI-Verbund, bei der die einzelnen KIs spezialisiert sind. So wie es unser Gehirn ja auch tut, wo jedes Gehirnareal bestimmte Spezialisierungen hat.

    Zitat Zitat von Chromatin Beitrag anzeigen
    - Formalisierung: Menschliche Denkprozesse lassen sich nicht universal formalisieren. Es ist so als wenn jeder Mensch ein eigenes Universum ist und seine ganz eigene Physik und eigene Fundamentalgesetze hat.
    Das ist eine Behauptung, die du aufstellst, der aber keineswegs mehr alle Forscher in diesem Bereich zustimmen. Diese Behauptung basiert nämlich auf der Annahme, dass die Erkenntnisse über Denkprozesse ein bestimmtes Level nicht überschreiten können. Doch gerade die modernen Möglichkeiten von IT-Systemen bieten mittlerweile die Möglichkeit immer mehr Aspekte in die Erforschung von Denkprozessen einfliessen lassen zu können. Es gab auch mal Zeiten, da dachte man, man könne nicht bestimmen, worauf sich der visuelle Fokus von Menschen richtet, wenn sie einen Raum betreten. Heutzutage weiss man, dass man mit dieser Annahme grundverkehrt lag.

    Zitat Zitat von Chromatin Beitrag anzeigen
    Der letzte Punkt ist der deutlichste. Einer _Maschine_ muss eine formalisierte Struktur zugrunde liegen - eine Art "Schöpfung" die in irgendeiner Weise Sinngebunden ist.
    Man kann zu einem Haufen Einsen und Nullen nicht sagen "lebt und denkt". Sondern man muss sie nach einem Plan anordnen, damit es in ihrem Kontext einen Sinn ergibt: Nämlich die Programmierung einer Hardware.
    Warum sollte man das zu einem Haufen Kohlenstoffverbindungen sagen können, nicht jedoch zu einem Haufen 0-1-Verbindungen? Man bedenke weiterhin, dass mit dem Quantencomputing zukünftigen KIs weitaus mehr Zustände zur Verfügung stehen werden als es mit simplen Nukleotiden möglich ist.

    Zitat Zitat von Chromatin Beitrag anzeigen
    Was wir bisher wirklich geschafft haben, ist es, die Komplexität und die Geschwindigkeit von Systemen zu erhöhen. Das wurde durch bessere Maschinen und ausgeklügelte Algorithmen erreicht.
    Und wir haben es durch die erhöhte Komplexität und Geschwindigkeit gleichermaßen geschafft immer komplexere Zusammenhänge durch diese Systeme erfassen zu lassen.

  14. #29
    Moderator Avatar von Chromatin
    Registriert seit
    30.06.08
    Danke (erhalten)
    33
    Gefällt mir (erhalten)
    847

    Standard

    Das liegt aber in erster Linie daran, dass Psychologen nicht in der Lage sind ihre Probanden jede Minute ihres Lebens zu begleiten und somit alle Vorgänge zu identifizieren, die auf die Entwicklung von Denkmustern Einfluss haben. Als Vater, der aufgrund von Homeoffice seine Kinder ständig um sich hat, kann ich z.B. wesentlich genauer sagen, warum mein Sohn eher der vorsichtige Typ ist und meiner Tochter das genaue Gegenteil als es ein Psychologe jemals könnte. Das liegt schlicht daran, dass ich ihre Entwicklung gesehen habe und weiss, welche Schlüsselsituationen bisher in ihrem Leben aufgetreten sind. Ich behaupte aufgrund dieser Erfahrung, dass der Psychologie lediglich eine ausreichende Datenbasis fehlt.
    Auch Forscher der Psychologie oder Entwicklungstheorien haben Kinder.
    Im Übrigen siehst du "lediglich" ein Ergebnis von Prozessen deren Kenntnis uns trotzdem fehlt. Oder anders: Du kannst es beschreiben aber nicht erklären.

    Weiss man das? Ich habe irgendwie das Gefühl du hast ein wenig die Entwicklungen der letzten 10 Jahre in der Robotik verschlafen. Dort weiss man mittlerweile, dass man nicht EINE KI zur universellen und allgemeinen Problemlösung braucht, sondern einen KI-Verbund, bei der die einzelnen KIs spezialisiert sind. So wie es unser Gehirn ja auch tut, wo jedes Gehirnareal bestimmte Spezialisierungen hat.
    Zufällig verfolge ich die Diskussion sogar ziemlich genau Und deswegen sehe ich auch, dass es in der KI Forschung keine nennenswerte Fortschritte gibt, wenn es darum (dem Menschen analoge) Denkprozesse zu formalisieren.
    Wir kommen nur (scheinbar) vom Fleck, weil wir mehr Rechenleistung haben. Konzeptionell sind wir 50er. Die Tatsache dass man mehrere KIs zusammenschaltet ist eben auch "nur" eine operative Leistungssteigerung.


    Moderne Roboter befinden sich auf dem Level von Kleinkindern, wenn es um das Erlernen von Bewegungsabläufen geht. Dabei muss man allerdings bedenken, dass sie zumeist auch noch nicht älter sind als Kleinkinder. Somit steht noch ziemlich in den Sternen was sie noch alles im Bereich der Bewegungsabläufe erlernen werden.
    Wirklich moderne Roboter laufen auch nicht mehr auf zwei Beinen


    Warum sollte man das zu einem Haufen Kohlenstoffverbindungen sagen können, nicht jedoch zu einem Haufen 0-1-Verbindungen? Man bedenke weiterhin, dass mit dem Quantencomputing zukünftigen KIs weitaus mehr Zustände zur Verfügung stehen werden als es mit simplen Nukleotiden möglich ist.
    Weil der Alte nicht würfelt *scnr*

    Quantencomputer helfen dir auch nicht dabei zu formalisieren.


    Das ist eine Behauptung, die du aufstellst, der aber keineswegs mehr alle Forscher in diesem Bereich zustimmen. Diese Behauptung basiert nämlich auf der Annahme, dass die Erkenntnisse über Denkprozesse ein bestimmtes Level nicht überschreiten können. Doch gerade die modernen Möglichkeiten von IT-Systemen bieten mittlerweile die Möglichkeit immer mehr Aspekte in die Erforschung von Denkprozessen einfliessen lassen zu können. Es gab auch mal Zeiten, da dachte man, man könne nicht bestimmen, worauf sich der visuelle Fokus von Menschen richtet, wenn sie einen Raum betreten. Heutzutage weiss man, dass man mit dieser Annahme grundverkehrt lag.


    Du bringst hier zwei Dinge zusammen, die nicht zusammen gehören. Deine erste Aussage basiert darauf dass sich ein komplexes System nicht selbst beschreiben kann - das ist wohl eher ein mathematisches Theorem. Das andere ist schlichtweg die Verbesserung von Technologie in einer Sache, die zu verbessern ist. Das ist konsequenter technischer Fortgang, der i.d.R. immer auf einer Sache beruht, die schon da ist.
    Wissenschaftliche und/oder technologische "Quantensprünge" sind sogar ziemlich selten...

    Sollte sich herausstellen dass das "Denken" tatsächlich von Quantenprozessen _beeinflusst_ wird, so hört die Erkenntnis darüber definitiv auf. Das hat dann nichts mehr mit "jetzt nicht - spaeter schon" zu tun, sondern mit den Fundamentaleigenschaften dieses Universums. Das führt wieder dazu, dass man darauf reduziert bleibt, Effekte zu beschreiben.

    Und wir haben es durch die erhöhte Komplexität und Geschwindigkeit gleichermaßen geschafft immer komplexere Zusammenhänge durch diese Systeme erfassen zu lassen.

    Erinnerst du dich noch an den Gen-Hype? An die ersten Verlautbarungen vom "entschlüsselten" Genom und was nun jetzt alles Möglich sein wird? Keine Sau spricht mehr davon - und von den ganzen geklonten Tieren auch nicht.
    Die Massen an Daten und die Komplexität musste die Leute erst wieder erden und haben uns die lange Nase gemacht.


    Ich will auch eigentlich nur dafür werben, die Komplexität und das Mysterium des "Denkens" deutlicher anzuerkennen. Und nicht nur des Denkens, sondern der Natur im allgemeinen. Es fließen seit fast 100 Jahren nun zig Milliarden USD und Hunderttausende Mannjahre in die KI Entwicklung und trotzdem können die Dinger noch nicht mal Autofahren: Weil es den Maschinen einfach an Fantasie mangelt sich Verkehrsstationen auch aus den Augen anderer vorzustellen. Für einen Menschen ist das Pillepalle. Der lernt nebenbei noch Englisch, hört Musik, denkt über etwas nach oder führt eine Unterhaltung. Manchen kommen sogar die besten Ideen beim Autofahren.

    Und überhaupt - Der Mensch versteht sich als solchen doch selbst nicht.


    Wenn ein Gesetz nicht gerecht ist, dann geht die Gerechtigkeit vor dem Gesetz!

    Habo Blog - http://blog.hackerboard.de/

  15. #30
    Moderator Avatar von bitmuncher
    Registriert seit
    30.09.06
    Danke (erhalten)
    159
    Gefällt mir (erhalten)
    1667

    Standard

    Anzeige
    Zitat Zitat von Chromatin Beitrag anzeigen
    Und überhaupt - Der Mensch versteht sich als solchen doch selbst nicht.
    Dennoch hat er in den letzten 100 Jahren riesige Schritte im Bereich des Selbstverständnisses gemacht. Ich wage daher zu bezweifeln, dass das Verständnis von Denkprozessen unmöglich ist, selbst wenn es noch eine Weile dauern wird, bis es bis in's kleinste Detail verstanden wird. Bis dahin können wir aber unsere derzeitigen Erkenntnisse in KIs abbilden und damit die Denkprozesse abbilden, für die bisher bereits Verständnis vorhanden ist: Raumwahrnehmung, Sprache und Sprachmodulation, Mustererkennung, Bewegungssteuerung uvm.. Allein das wird dafür sorgen, dass sich unsere Gesellschaft sehr grundlegend verändern wird, z.B. im Bereich des Erwerbslebens, des Sports, der Freizeitgestaltung etc..

Ähnliche Themen

  1. Tor auf FritzBox darüber mit Win7 Rechner
    Von Coolzero1982 im Forum Network · LAN, WAN, Firewalls
    Antworten: 0
    Letzter Beitrag: 04.05.15, 21:34
  2. Wer denkt MS sind Arschlöcher...
    Von detrexer im Forum News & Ankündigungen
    Antworten: 4
    Letzter Beitrag: 26.07.07, 20:10
  3. Oracle denkt über Linux-Distribution nach
    Von non im Forum News & Ankündigungen
    Antworten: 5
    Letzter Beitrag: 17.04.06, 17:14
  4. Antworten: 6
    Letzter Beitrag: 26.12.04, 16:35

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •