KI - Was denkt ihr darüber?

Hallo allerseits,

mal eine kleine Brainstormingfrage: Was denkt ihr über KI, was wisst ihr darüber und wie seht ihr der Zukunft entgegen?
 
Im Spiegel war dazu ein recht interessanter Artikel: Was kunstliche Intelligenz schon leisten kann - und was nicht - SPIEGEL ONLINE
Leider kostenpflichtig, aber guter Journalismus kostet halt...

Die Quintessenz ist jedenfalls die, dass KI immer nur in hoch spezialisierten und gut abgrenzbaren Gebieten erfolgreich ist, wie z.B. Schach oder anderen Strategiespielen. Wenn es darum geht, das Gelernte auf andere Bereiche zu übertragen - was wahre Intelligenz ja eigentlich ausmacht - versagen die Computer kläglich. So wird zum Beispiel ein Regenschirm von einer Bilderkennungs-KI fälschlicherweise als Baseballmütze identifiziert, sobald man nur ein paar Pixel für den Menschen unmerklich in dem Bild verändert. Eine KI, welche auf ein bestimmtes Computerspiel losgelassen wurde, und über mehrere Millionen Spiele lang geübt hat, ist von einem Menschen praktisch unbesiegbar. Wenn du allerdings die Farbe der Spielsteine veränderst, was für einen Menschen de facto keinen Unterschied macht, steht die KI wieder ganz am Anfang und versteht die Welt nicht mehr.
Man kann daher den Begriff künstliche Intelligenz als solchen ablehnen, da das, was diese Programme tun, nichts mit Intelligenz zu tun hat. Es ist vielmehr ein hoch komplizierter Algorithmus um Informationen, wie z.B. Spielzüge, in einer Art Baumstruktur, die einem neuronalem Netzwerk nachempfunden ist, zu speichern, doch mit wahrer, menschlicher Intelligenz hat das nur wenig zu tun.

Mit anderen Worten: Auf die Übernahme der Weltherrschaft durch Skynet, die ja laut Terminator 4 in diesem Jahr kommen soll, müssen wir wohl noch eine Weile warten! :D

Viele Grüße,
Pik-9
 
Wenn ich hier die Quintessenz des Spiegel-Artikels lese, stelle ich mal wieder fest, dass man diesen Journalismus ganz und gar nicht als gut bezeichnen kann und er sein Geld offenbar nicht wert ist. ;) Der Spiegel sollte solche Themen eventuell doch lieber den Fachzeitschriften überlassen. Die Zeiten, in denen KIs noch mit Baumstrukturen arbeiteten, sind bereits seit Jahren vorbei. KIs wie die von Alexa und Siri haben mittlerweile so komplexe Datenverknüpfungen, dass sie nicht mal mehr für die Macher durchschaubar sind. Dadurch ist z.B. Siri bereits jetzt in der Lage, verschiedene Wörter je nach Satzbau und Kontext unterschiedlich zu betonen und damit immer häufiger annähernd menschlich zu klingen. Sowas lässt sich in Baumstrukturen gar nicht abbilden. Und das System lernt immer weiter dazu und perfektioniert seine Fähigkeiten, verknüpft die Daten also ständig neu und nimmt neue Daten auf.

Heutzutage gibt es auch bereits KIs, die, eine ausreichende Datenbasis vorausgesetzt, den Inhalt von Bildern schneller identifizieren können als das menschliche Auge. Das lässt sich z.B. mittels Wimmelbildern sehr einfach ermitteln. Dafür ist nur die Datenbasis entscheidend, die der KI zur Verfügung steht um die Erkennung zu erlernen. Das ist übrigens bei Menschen nicht anders. Wie malen Kleinkinder eine Sonne oder eine Zitrone? Beides als gelben Kreis, weil sie noch keine ausreichende Datenbasis haben um die Unterschiede zu differenzieren. Die Lernfähigkeit von KIs und Menschen unterscheidet sich also bereits heute in den Grundzügen nicht. Lediglich an den Feinheiten muss bei KIs noch gearbeitet werden. Oder genauer gesagt: Kis müssen so verbessert werden, dass sie auch bereits mit einer relativ kleinen Datenbasis in der Lage sind genaue Unterscheidungen zu treffen. Dass das gelingt, ist aber nur eine Frage der Zeit.

Mit anderen Worten: Es gibt durchaus immer mehr Bereiche, in denen KIs die Fähigkeiten von Menschen sogar überschreiten. Diese Bereiche sind vor allem Tätigkeiten, bei denen es darauf ankommt Daten auszuwerten (Business Intelligence, Marketing, Sales, Statistik, Brokerage u.ä.) oder präzise Abläufe einzuhalten und Unterschiede zu erkennen (Fliessbandarbeit, Quality Assurance u.ä.). Genau das wird auch dazu führen, dass immer mehr Tätigkeiten vor allem im Dienstleistungs- und Finanzsektor in den nächsten Jahren durch KIs ersetzt werden. Bereits heutzutage hat man es beim Online-Support häufig mit Chatbots zu tun, die erstmal auf Basis der eingegebenen Fragen die möglichen Antworten präsentieren und das erstaunlich präzise. Ein echter Mensch schaltet sich erst dann ein, wenn in der DB der KI keine passende Antwort vorhanden ist. Der Support-Mitarbeiter wird dadurch zum Lehrer für die KI und wird somit auch irgendwann obsolet sein. Der Handel mit Werten an der Börse wird immer mehr an KIs übergeben, weil sie schneller und präziser auf Kursentwicklungen reagieren als die meisten menschlichen Broker und weil sie vor allem schneller aktuelle Wirtschaftsdaten auswerten können. Während der menschliche Broker noch News liest, hat die KI bereits darauf reagiert. BigData, also die Auswertung richtig großer Datenmengen wäre ohne KIs in manchen Bereichen kaum machbar. Mustererkennung wäre ohne KIs weitaus aufwendiger. Wer's nicht glaubt, kann ja mal versuchen im Satellitenbild eines Waldes alle Stellen mit Windbruch zu erkennen. Moderne Erntemaschinen sind bereits in der Lage mittels Bilderkennung zwischen reifen und unreifen Pflanzen zu unterscheiden, wodurch Gemüseernten um mehr als 30% effektiver werden. Auch beim Aussortieren fehlerhafter Werkstücke auf einem Fliessband sind KIs in Verbindung mit Robotern schneller als jeder Mensch, vor allem dann, wenn auf dem Fliessband Dutzende verschiedene Werkstücke durchlaufen.

In allen Bereichen werden KIs aber vermutlich nie effizienter werden, da es auch Tätigkeiten gibt, in denen es nicht auf Effizienz ankommt. Ein Paradebeispiel dafür sind Tätigkeiten, bei denen es auf Zwischenmenschlichkeit ankommt. Da viele Teile der Zwischenmenschlichkeit nicht nur reine Denkprozesse sind, dürfte es schwierig sein, diese KIs beizubringen, die ja auf reine Denkprozesse beschränkt sind. Mit anderen Worten: KIs werden kein echtes Einfühlungsvermögen entwickeln können. Das können sie höchstens simulieren. Ich gehe aber davon aus, dass sie auch das irgendwann ziemlich gut können werden. Bereits die Anfänge, die in dieser Richtung gemacht werden, sind schon sehr vielversprechend, obwohl bisher nur die Mimik, Gestik und Körperhaltung des Gegenüber ausgewertet wird. Bringt man dort auch noch Faktoren wie Stimmlage oder gar Körpertemperatur oder Durchblutung der Haut ein, dürfte es KIs nicht mehr schwer fallen sehr individuell darauf einzugehen. Dennoch werden sie nicht in der Lage sein z.B. einen depressiven Menschen zu therapieren, weil da zu sehr individuelle Faktoren eine Rolle spielen, die sie für jeden Patienten neu erlernen müssten, während ein menschlicher Psychotherapeut intuitiv darauf reagieren kann. Intuition ist also etwas, was man KIs kaum oder nur sehr schwer beibringen kann. Wobei es ja auch Entwickler gibt, die dabei die vorhandene Rechenleistung als einzigen begrenzenden Faktor sehen. Die Rechenleistung eines einzelnen menschlichen Gehirns ist nunmal heutigen Computern noch immer überlegen. Wir werden es daher erst wissen, wenn wir Computernetzwerke haben, die diese Leistung aufbringen und für KIs zur Verfügung stehen.

Vom Terminator sind wir allerdings gar nicht mehr so weit entfernt, denn der zeichnet sich ja durch fehlendes Einfühlungsvermögen und reine logische Schlussfolgerungen auf Basis der vorhandenen Umstände aus. Dazu sind moderne KIs durchaus in der Lage, vorausgesetzt man gibt ihnen für den Lernprozess eine entsprechend geartete Datenbasis. Allerdings ist es auch ein Irrglauben, dass in einem Terminator nur eine KI werkelt. Wir wissen heute, dass KIs sich einfacher trainieren lassen, wenn sie hoch spezialisiert sind. Ein militärischer Roboter arbeitet daher mit verschiedenen KIs zur Auswertung von Zielen, der Umgebung, den Umweltbedingungen usw.. Selbst einfache menschenähnliche Roboter haben mehrere KIs für Umgebungswahrnehmung, Spracherkennung und Sprachsynthese. Selbst Siri, Alexa & Co sind genau genommen bereits min. 2 KIs, die miteinander vernetzt sind, da Spracherkennung und Sprachsynthese in verschiedenen Systembereichen bzw. verschiedenen (miteinander verbundenen) Netzwerken stattfindet und auf verschiedenen Algorithmen basiert.

Ich denke, dass es nur noch eine Frage von wenigen Jahren ist, bis KIs den Turing-Test oder auch den Lovelace- und Metzinger-Test bestehen, zumindest wenn die Entwicklung weiter so rasant voranschreitet wie in den letzten 5-10 Jahren. Und das wiederum ist relativ wahrscheinlich, da KIs in immer mehr Bereichen eingesetzt werden, wodurch ein wirtschaftliches Interesse für deren Entwicklung besteht. Für die meisten Unternehmen sind die Mitarbeiter schliesslich noch immer der größte Kostenfaktor.

Die Gefahr sehe ich allerdings weniger in einem möglichen Skynet. Die viel größere Gefahr besteht darin, dass auf absehbare Zeit keine lokale Verarbeitung der Daten stattfinden kann. Die von einer KI oder einem Roboter erfassten Daten müssen also in fast allen Anwendungsbereichen erstmal in ein Rechenzentrum geleitet werden, wo dann die Auswertung und Generierung des Ergebnisses/der Reaktion stattfindet. Wer also die Kontrolle über diese Rechenzentren hat, der hat auch die Kontrolle über die Daten. Werden nun immer mehr Bereiche der Wirtschaft an KIs übergeben, werden immer weniger Unternehmen die Kontrolle über immer größere Teile der Wirtschaft haben. Damit wird der gläserne Bürger immer durchsichtiger und zusätzlich entwickeln sich auch die gläsernen Unternehmen, so dass die Daten der einzelnen Unternehmen noch einfacher mit denen der Menschen, die mit den Unternehmen zu tun haben, verknüpft werden können. Das bedeutet dann, dass nicht mehr nur bekannt ist, wo Person XY eingekauft hat und was, sondern auch, welche Zulieferketten genutzt wurden, um Person XY mit dem gekauften Artikel zu versorgen u.ä.. Und damit haben wir ein Problem. Denn schauen wir uns an, wer diese Rechenzentren zum Großteil kontrolliert, stellen wir fest, dass es vor allem Unternehmen der USA sind. Europäische Unternehmen, die Konkurrenz zu Google, Amazon und Microsoft darstellen, gibt es kaum. Und diese 3 kaufen und bauen gerade weltweit Rechenzentren. Es läuft also darauf hinaus, dass, wenn der Einsatz von KIs in der Wirtschaft weiter so voranschreitet wie bisher, ein paar wenige US-Unternehmen bald die Kontrolle über die meisten Wirtschaftsdaten der Welt haben werden. Wenn die dann ein Unternehmen vom Markt kicken wollen, brauchen sie nur deren eingesetzten KIs den Saft abdrehen. Wollen sie europäische Unternehmen von den USA abhängig machen, brauchen sie nur deren Zulieferer aufkaufen. Solche und ähnliche Szenarien sind also durchaus denkbar und würden den USA in einem Wirtschaftskrieg die Kontrolle über große Teile der Weltwirtschaft geben.
 
Das stimmt so nicht. Selbst die "Neue" AlphaGO Maschine benutzt die Baumsuche als einen wesentlichen Bestandteil.

Richtig, die Betonung liegt hier aber auf Bestandteil. Sie beschränkt sich nicht darauf. Die Verbindungen, die von den meisten KIs heutzutage zwischen den Daten genutzt werden, als Baumstruktur zu bezeichnen ist, als würde man ein Fischernetz als Geäst bezeichnen.
 
Richtig, die Betonung liegt hier aber auf Bestandteil.

Richtig. Bei AlphaGO ist sie eine der drei wesentlichen Merkmale, die sich aktuell bei Fragestellungen zu Entscheidungen nicht ersetzen lassen.
Somit ist sie noch immer ein Werkzeug, auf welches noch immer nicht verzichtet werden kann - auch wenn andere Methoden damit interagieren.
 
Habt ihr vlt. eine Quelle, die die Funktionsweise von Alexa beschreibt? (Gerne auf einem wissenschaftlichem lvl)
 
Bei der Frage zu KIs stimme ich Piks Interpretation erstmal zu.
Und ich glaube es wäre unangemessen darüber zu spekulieren was eine KI perspektivisch leisten kann oder leisten wird.

Ich denke die weitaus wichtigere Frage ist, wo wir - als verantwortungsvolle Menschen - eine KI (egal welche Leistung sie bringt) einsetzen werden.
Oder, welche Verantwortung wir einer Technologie überantworten. Und damit ist die Fragestellung zwar nicht ganz neu, aber durch die Möglichkeiten gewinnt sie neue Dimensionen, denn solche Technologie greift dann in der Tat in Lebensbereiche ein, die wir eigentlich nicht weg-delegiert haben wollen.

Unsere Aufgabe ist es also dafür zu sorgen dass das Wohlfeil der Menschen nicht weiter der Rationalisierung von Prozessen anheim fällt, sondern in allem - wirklichen allem - die menschliche Würde (und idealerweise die Würde des Lebens insgesamt) dass Maß der Dinge sein muss.

Leider gibt bisherige Entwicklung eben wenig Hoffnung, dass die Gesellschaften das wirklich ausdifferenzieren werden. Dafür ist ein noch so lächerliches Feature (aka Alexa) so viel reizvoller als die echte Mühe sich auch Intellektuell mit den Implikationen auseinanderzusetzen.

Mein Pessimismus sagt mir, dass wir es schon bald mit Bedrängnissen zu tun haben werden, wo wir keine Verantwortlichkeit mehr gegenüber einem Menschen ausmachen können, sondern die KI Bestandteil eines Systems wird, welches UNS als Peripherie behandelt und damit die Freiheit eines Menschen massiv tangiert wird.

Wer sich schon jemals völlig verloren vorkam, wenn er ein Problem mit einem Produkt einer "Company" hatte und vergeblich versucht ueber Hotlines einen Verantwortlichen oder Entscheider zu erwischen - oder einfach nur mal jemanden, der sich im eigenen Interesse "kümmert" - der wird eine Vorstellung darüber entwickeln können, wenn man einem System gegenübersteht, welches ein individuelles Bedürfnis nicht mal mehr als solches identifizieren kann.
 
Also ich denke ich gebe auch mal meinen "Senf" dazu. Es ist zwar etwas länger her, dass ich mich im Studium damit auseinandersetzte, bin aber immer noch fasziniert davon. Ich bin durchaus der Meinung, dass die Terminator "Vorhersage" möglich wäre eben noch nicht jetzt. Meine Begeisterung geht immer in Richtung der Vernetzung, bereits als wir an der Uni damals mit Roboterfußball anfingen. Klasse Sache und ohne menschlichem eingreifen während des Spiels. So wie ich das sehe lässt sich alles, ob Emotionen oder sonst etwas mathematisch erklären bzw. berechnen. Und wenn nicht jetzt dann wird es so kommen. Allerdings ist meine Meinung nicht die, dass USA die führende Nation wird, sondern China, welche Unmengen an Unternehmen einkauft, vor allem auch in diesem Bereich. Unterschätzen darf man auch Südkorea nicht, ich sage nur Samsung oder die Robotertechnik der Japaner. Ich finde auch wir sind nicht so schlecht. Beispiel was mir so einfällt wäre momentan Kuka.
 
So wie ich das sehe lässt sich alles, ob Emotionen oder sonst etwas mathematisch erklären bzw. berechnen.

Würdest du in dieser Frage etwas ins Detail gehen?

Ich greife aber schon mal vor. Du kannst mit der Mathematik alles mögliche _mathematisch_ beschreiben - das ist vielleicht das Wort, das du benutzen wolltest, denn die Mathematik _erklärt_ erst einmal überhaupt gar nichts.

Des weiteren bleibt eine mathematische Beschreibung (oder Erklärung) auch auf die Mathematik beschränkt und die Mathematik ist, für sich alleine genommen, ohne Nutzen, sofern sich aus mathematischen Beschreibungen nicht etwas in andere Disziplinen ausleiten lässt. Und je abstrakter die Disziplin wird, desto sinnloser wird die Mathematik.
In der Physik kann man das Phaenomen gerade prima überall dort beobachten, wo es schlicht unmöglich ist, noch irgendetwas zu messen. Jenseits dieser Grenzen mag es eine gültige Mathematik geben - aber wen interessiert es, wenn es sich niemals durch ein Experiment beweisen lässt?

Wenn du hier weiterspielst, sitzt du Gott auf dem Schoss.


Aber ich bin gespannt.
 
Würdest du in dieser Frage etwas ins Detail gehen?

Ich greife aber schon mal vor. Du kannst mit der Mathematik alles mögliche _mathematisch_ beschreiben - das ist vielleicht das Wort, das du benutzen wolltest, denn die Mathematik _erklärt_ erst einmal überhaupt gar nichts.

Des weiteren bleibt eine mathematische Beschreibung (oder Erklärung) auch auf die Mathematik beschränkt und die Mathematik ist, für sich alleine genommen, ohne Nutzen, sofern sich aus mathematischen Beschreibungen nicht etwas in andere Disziplinen ausleiten lässt. Und je abstrakter die Disziplin wird, desto sinnloser wird die Mathematik.
In der Physik kann man das Phaenomen gerade prima überall dort beobachten, wo es schlicht unmöglich ist, noch irgendetwas zu messen. Jenseits dieser Grenzen mag es eine gültige Mathematik geben - aber wen interessiert es, wenn es sich niemals durch ein Experiment beweisen lässt?

Wenn du hier weiterspielst, sitzt du Gott auf dem Schoss.


Aber ich bin gespannt.

Du hast selbstverständlich Recht und ich nahm natürlich an meine Aussage sei klar und für jeden halbwegs intelligenten Menschen verständlich. Da entschuldige ich mich, mein Gedanke hierbei wäre allerdings der, dass man durchaus in der Lage ist bestimmte Regionen des menschlichen Gehirns entsprechend zu lokalisieren EEG als bescheidenes Beispiel, teilweise auch entsprechende Reize zu erzeugen durch Einwirkung auf das menschliche Gehirn. Sollte ein Computer in der Lage sein diese Informationen zu verarbeiten und das ist er, wäre er somit in der Lage genau auf diese bestimmte Reize zu reagieren und entsprechend die Emotionen zu "verstehen" und zu simulieren. Und da für mich Algorithmus durchaus eine mathematische eben besitzt, wäre hier für mich der gemeinsame Nenner. Doch das ist nur meine bescheidene Meinung.
 
Da entschuldige ich mich, mein Gedanke hierbei wäre allerdings der, dass man durchaus in der Lage ist bestimmte Regionen des menschlichen Gehirns entsprechend zu lokalisieren EEG als bescheidenes Beispiel, teilweise auch entsprechende Reize zu erzeugen durch Einwirkung auf das menschliche Gehirn. Sollte ein Computer in der Lage sein diese Informationen zu verarbeiten und das ist er, wäre er somit in der Lage genau auf diese bestimmte Reize zu reagieren und entsprechend die Emotionen zu "verstehen" und zu simulieren.

Nehmen wir an, eine Emotion lässt sich bei einem bestimmten Menschen zweifelsfrei lokalisieren.
Wie trägst du der Tatsache Rechnung, dass auf Emotionen völlig verschiedenen reagiert wird? In manchen Kulturräumen zeigt man Freude nicht, in manchen ist es unhöflich Zähne zu zeigen und bei manchen gilt ein lächeln als Zeichen von Verlegenheit, Dienstbarkeit oder sogar Angst.
Gehen wir in Sprache über, wird es noch mal komplizierter, denn die emotionale Welt von Menschen ist mehr oder weniger stark und unmittelbar mit der Sprache verknüpft.

Wo würde man also eine Maschine verorten, die durchaus messen, aber ohne eine Vielzahl von Metadaten gar nicht in der Lage wäre, die (für eine bestimmte Gruppe) korrekte Reaktion zu ermitteln?
 
Nehmen wir an, eine Emotion lässt sich bei einem bestimmten Menschen zweifelsfrei lokalisieren.
Wie trägst du der Tatsache Rechnung, dass auf Emotionen völlig verschiedenen reagiert wird? In manchen Kulturräumen zeigt man Freude nicht, in manchen ist es unhöflich Zähne zu zeigen und bei manchen gilt ein lächeln als Zeichen von Verlegenheit, Dienstbarkeit oder sogar Angst.
Gehen wir in Sprache über, wird es noch mal komplizierter, denn die emotionale Welt von Menschen ist mehr oder weniger stark und unmittelbar mit der Sprache verknüpft.

Wo würde man also eine Maschine verorten, die durchaus messen, aber ohne eine Vielzahl von Metadaten gar nicht in der Lage wäre, die (für eine bestimmte Gruppe) korrekte Reaktion zu ermitteln?

Das was du aufzählst ist ebenfalls bekannt. Zum Teil würde hier also auch eine Spracherkennung reichen und nicht nur das. Man ist auch noch in der Lage mit heutiger Technik Gesichtsmuster zu erkennen. Ja sogar ob man lügt etc. etc. Auch die höhe der Töne bzw. entsprechende Betonungen einzelner Wörter/Sätze kann ein Rechner bestimmen um einen Akzent zuzuordnen, soviel zu der von mir gemeinten Spracherkennung. Und ja man kann Tatsächlich unter anderem durch die Hautfarbe + Sprache + Gesichtsmuster(das kann Abstand zwischen den Augen sein, Nasenform usw. usf.) aus einer vorgegeben Datenbank bestimmen, woher man kommt. Wenn ein Mensch nicht in der Lage ist solche Dinge zu bewerkstelligen heißt es nicht, dass es eine Maschine mit entsprechender Hardware + Software es ebenfalls nicht kann. Mithilfe solcher Datenbanken, können die von dir genannten Unterschiede bzgl. der Emotionen vom Rechner erkannt und verarbeitet werden. Da ich eher theoretisch veranlagt bin, sehe ich nichts was nicht erklärt werden kann bzw. mit etwas Einfallsreichtum nicht bewerkstelligt werden kann. Und ja man braucht eine Datenbank, sagen wir einen Zentralrechner, von welchem die Daten live abgerufen werden können.

Nicht das mir vorgeworfen wird das sei alles nicht möglich. Hier ein Beitrag zum Thema Erkennung:
Was ist Gesichtserkennung? - Definition von WhatIs.com Und dies ist natürlich erst der Anfang die Entwicklung geht natürlich viel weiter.
 
Zuletzt bearbeitet:
Zum Teil würde hier also auch eine Spracherkennung reichen und nicht nur das.
Eine simple Spracherkennung ohne semantischen Kontext?

Mithilfe solcher Datenbanken, können die von dir genannten Unterschiede bzgl. der Emotionen vom Rechner erkannt und verarbeitet werden.
Und ja man kann Tatsächlich unter anderem durch die Hautfarbe + Sprache + Gesichtsmuster(das kann Abstand zwischen den Augen sein, Nasenform usw. usf.) aus einer vorgegeben Datenbank bestimmen, woher man kommt.
Du kannst eine ethnische Herkunft bestimmen, ja. Aber was machst du, wenn der Mensch Afrikaner ist, in einem asiatischen Land aufgewachsen und geprägt wurde und mit 45 Jahren eine indische Muslime geheiratet hat, deren Familiengewohnheiten er auch versucht, so gut es geht anzunehmen - auch wenn es bei ihm häufiger zu inneren Konflikten führt.

Wie könnte eine Maschine eine solche Konstellation einordnen und wie würde sie welche Ausdrucksform welcher Emotion zuordnen?
 
Eine simple Spracherkennung ohne semantischen Kontext?



Du kannst eine ethnische Herkunft bestimmen, ja. Aber was machst du, wenn der Mensch Afrikaner ist, in einem asiatischen Land aufgewachsen und geprägt wurde und mit 45 Jahren eine indische Muslime geheiratet hat, deren Familiengewohnheiten er auch versucht, so gut es geht anzunehmen - auch wenn es bei ihm häufiger zu inneren Konflikten führt.

Wie könnte eine Maschine eine solche Konstellation einordnen und wie würde sie welche Ausdrucksform welcher Emotion zuordnen?

Gute Frage, ich liebe es einfach bei HaBo zu sein.
Es ist möglich einen Roboter zu programmieren, damit dieser Fragen stellt. Als kleines und irgendwie auch witziges Beispiel hätten wir den Jobroboter Matilda: Bewerbungsgesprach 4.0: HR-Roboter bieten Chancen fur Unternehmen und Bewerber – Ihr Personalberater Hans Ulrich Gruber. Die Antworten werden abgespeichert und man geht mit Statistiken ran. Als Beispiel hätten wir einen Psychologen. Er hat studiert und ist so in der Lage die Emotionen zu interpretieren. Interessant an einem Psychologiestudium allerdings ist, dass es nicht um Gefühle oder Emotionen direkt geht, sondern um Statistiken und Mathematik. Man Verwendet in der Psychologie die so genannte "Emotionale Diagnostik" um die aktuelle emotionale Situation zu erkennen. Wenn diese ausgewertet sind und die Diagnose klar, wäre der Roboter durchaus in der Lage entsprechende Antwort als Reaktion auszugeben und einen Menschen sogar zu Therapieren wenn man so möchte.
 
Der statistische Ansatz ist schon seit den 50ern als tote Gasse identifiziert worden. Am Ende ganz einfach deswegen, weil sich nicht formale-Systeme nicht formal beschreiben lassen und das trifft eben auf unseren Denkapparat zu, den wir als Sitz des Geistes identifiziert haben.

Deine Ansätze sind tauglich, wenn es um (primitive) Dialogsysteme geht. Dann reden wir aber im besten Fall von einer gelungen Imitation intelligenten Verhaltens in einer speziellen Sache. Beispielsweise könnte dein Roboter simple Haushaltstätigkeiten durchführen, wie z.B. Staub saugen. Die Überlegung, ob er aber diesen Schmetterling/Spinne/Kaefer am Boden mit einsaugen oder herausbringen sollte, wird er nicht vollführen.
 
Der statistische Ansatz ist schon seit den 50ern als tote Gasse identifiziert worden. Am Ende ganz einfach deswegen, weil sich nicht formale-Systeme nicht formal beschreiben lassen und das trifft eben auf unseren Denkapparat zu, den wir als Sitz des Geistes identifiziert haben.
Finde nur seltsam, aus welchem Grund den die Diagnostik von Emotionen nicht bewerkstelligen lassen soll. Als Beispiel mit Hilfe des Ansatzes der Universität Trier: https://www.uni-trier.de/fileadmin/fb1/prof/PSY/KPW/Hank/6Diagnostik_von_Emotionen.pdf also bzgl. der Emotionserkennung. Oder meinst du was anderes? Könntest du mit vielleicht einen Link schicken, wieso der statistische Ansatz eine Sackgasse ist? Das war mir nicht bekannt.
Deine Ansätze sind tauglich, wenn es um (primitive) Dialogsysteme geht. Dann reden wir aber im besten Fall von einer gelungen Imitation intelligenten Verhaltens in einer speziellen Sache. Beispielsweise könnte dein Roboter simple Haushaltstätigkeiten durchführen, wie z.B. Staub saugen. Die Überlegung, ob er aber diesen Schmetterling/Spinne/Kaefer am Boden mit einsaugen oder herausbringen sollte, wird er nicht vollführen.

In meinen Augen ist es logisch, dass man bei einer KI von Imitation einer Intelligenz spricht, es ist nun mal eine KI. Ich sehe es allerdings als vollkommen egal wie man es nennt, Hauptsache es funktioniert. Doch ich begreife nicht aus welchem Grund ein Roboter nicht in der Lage sein soll zu entscheiden, ob er etwas einsaugt oder nicht. Bei bereits programmiertem Befehl wie if(object.isEqual(Schmetterling)){->strecke Arm aus->greife zu->fahre zum Ausgang->lasse Arm los} else {sauge ein}

Nur mal so BTW. Ich weis nicht, ob ihr mal davon gehört habt. Es gab vor ungefähr einem Jahr einen interessanten Fall im Bereich des Gamings. Es handelte sich um ein Game, in welchem man beim Aufsteigen das eigene Schiff verbessern/weiterentwickeln konnte. Verrückterweise ist die KI "durchgedreht" was dazu führte, dass diese anfing Waffen eigenständig zu entwickeln, welche so im Spiel nicht vorgesehen waren. Damit hatte natürlich keiner der Spieler eine Chance, da die Waffen übermächtig waren. Die KI von Elite: Dangerous dreht durch und entwickelt ganzlich neue Superwaffen - Motherboard Es ist zwar nur ein Spiel, doch für mich hat es schon etwas was auch außerhalb des Gamings passieren kann. Ein Fehler des Programmierers könnte reichen.
 
Zuletzt bearbeitet:
Finde nur seltsam, aus welchem Grund den die Diagnostik von Emotionen nicht bewerkstelligen lassen soll. Als Beispiel mit Hilfe des Ansatzes der Universität Trier: https://www.uni-trier.de/fileadmin/f..._Emotionen.pdf also bzgl. der Emotionserkennung. Oder meinst du was anderes? Könntest du mit vielleicht einen Link schicken, wieso der statistische Ansatz eine Sackgasse ist? Das war mir nicht bekannt.

Eine KI muss lernen, sonst ist daran kein "I". Zu einem Lernprozess gehört unmittelbar die Fähigkeit einer situativen Verortung: D.h. ich als lernender muss den Kontext, in dem ich mich befinde, begreifen. Ohne das, ist keine "intelligente" Handlung möglich.
Als Beispiel nehme den Satz "Bleib in meiner Nähe!".
Dieser Satz beinhaltet erst mal eine krasse Mehrdeutigkeit. Eine Handlung (Befolgung der Aussage) kann aber nur konkret folgen, wenn die Mehrdeutigkeit aufgelöst ist. Mehrdeutigkeit löst sich im Kontext auf. Die Reduktion einer Situation von einer Mehrdeutigkeit auf eine Eindeutigkeit, ist (offenbar) irgendeine Art call&response Prozess, welcher zwar auch auf vorhandenen Erfahrungen basiert (was sich durch Dateneingabe lösen lässt), aber auch immer etwas neues erzeugen kann.
Ein Statistischer Ansatz bietet schlichtweg und per Definition keinen Raum Und keine Methode) für die Schaffung von etwas neuem.


In meinen Augen ist es logisch, dass man bei einer KI von Imitation einer Intelligenz spricht, es ist nun mal eine KI. Ich sehe es allerdings als vollkommen egal wie man es nennt, Hauptsache es funktioniert.
Weil wir hier von KI sprechen und nicht von Automaten. Ein Automat kann durchaus den Eindruck erwecken intelligent zu handeln. Aber ein Automat würde keinen Turing-Test bestehen ;)

Doch ich begreife nicht aus welchem Grund ein Roboter nicht in der Lage sein soll zu entscheiden, ob er etwas einsaugt oder nicht. Bei bereits programmiertem Befehl wie if(object.isEqual(Schmetterling)){->strecke Arm aus->greife zu->fahre zum Ausgang->lasse Arm los} else {sauge ein}

Du kannst für primitive Vorgänge genau so vorgehen, wirst aber ab einem bestimmten Grad der Komplexität feststellen, dass du die Aufgabe so nicht gelöst bekommst.
- Ist der Schmetterling tot?
- Ist der Schmetterling verletzt?
- ist der Schmetterling ein Schädling?
- Ist der Schmetterling regungslos und bewegt sich dann doch (in der Hand)?
- Ist der Schmetterling echt (gehört er zu einem Kinderspielzeug, ist es Schmuck, ein Teil eines Kleidungsstücks)?
- usw...

Mit deinem Ansatz würdest du einen Dschungel von Bedingungen und Sprüngen entwerfen und unweigerlich in einem Deadlock/Endlosschleife versauern.
Denn es gibt in dieser Herangehensweise früher oder später einen Punkt wo sich, aufgrund dieser Art der formalen Beschreibung, einfach keine Entscheidung herbeiführen lässt.
Etwa, wenn sich Bedingungen gleichen.

Man kommt immer wieder darauf zurück, dass es notwendig ist, die Situation (nach dem eigenen Vermögen) zu erfassen und einen "Schluss zu ziehen".
 
Eine KI muss lernen, sonst ist daran kein "I". Zu einem Lernprozess gehört unmittelbar die Fähigkeit einer situativen Verortung: D.h. ich als lernender muss den Kontext, in dem ich mich befinde, begreifen. Ohne das, ist keine "intelligente" Handlung möglich.
Als Beispiel nehme den Satz "Bleib in meiner Nähe!".
Dieser Satz beinhaltet erst mal eine krasse Mehrdeutigkeit. Eine Handlung (Befolgung der Aussage) kann aber nur konkret folgen, wenn die Mehrdeutigkeit aufgelöst ist. Mehrdeutigkeit löst sich im Kontext auf. Die Reduktion einer Situation von einer Mehrdeutigkeit auf eine Eindeutigkeit, ist (offenbar) irgendeine Art call&response Prozess, welcher zwar auch auf vorhandenen Erfahrungen basiert (was sich durch Dateneingabe lösen lässt), aber auch immer etwas neues erzeugen kann.
Ein Statistischer Ansatz bietet schlichtweg und per Definition keinen Raum Und keine Methode) für die Schaffung von etwas neuem.



Weil wir hier von KI sprechen und nicht von Automaten. Ein Automat kann durchaus den Eindruck erwecken intelligent zu handeln. Aber ein Automat würde keinen Turing-Test bestehen ;)



Du kannst für primitive Vorgänge genau so vorgehen, wirst aber ab einem bestimmten Grad der Komplexität feststellen, dass du die Aufgabe so nicht gelöst bekommst.
- Ist der Schmetterling tot?
- Ist der Schmetterling verletzt?
- ist der Schmetterling ein Schädling?
- Ist der Schmetterling regungslos und bewegt sich dann doch (in der Hand)?
- Ist der Schmetterling echt (gehört er zu einem Kinderspielzeug, ist es Schmuck, ein Teil eines Kleidungsstücks)?
- usw...

Mit deinem Ansatz würdest du einen Dschungel von Bedingungen und Sprüngen entwerfen und unweigerlich in einem Deadlock/Endlosschleife versauern.
Denn es gibt in dieser Herangehensweise früher oder später einen Punkt wo sich, aufgrund dieser Art der formalen Beschreibung, einfach keine Entscheidung herbeiführen lässt.
Etwa, wenn sich Bedingungen gleichen.

Man kommt immer wieder darauf zurück, dass es notwendig ist, die Situation (nach dem eigenen Vermögen) zu erfassen und einen "Schluss zu ziehen".

Ah okay jetzt hab ich es begriffen. Ist leider etwas länger her mit der Softwareentwicklung, somit ist mir auch das aktuelle wohl etwas abhanden gekommen :wink:. Danke für deine Erklärung. Gruß
 
Zurück
Oben