Psychologisches Interface

morgen

ich hab mich vor einiger zeit im zug mit einem psycholigiestudenten im 2. semeseter unterhalten und er meinte ihn wuerde vorallem mensch maschiene interaktion interessieren. das hat mich nicht mehr losgelassen und jetzt will ich wissen, wie sich sowas in der programmierung (bei z.b. desktop applikationen) niederschlaegt. betrifft sowas nur das layout (ggf. die tooltips) oder ist das tiefgehender?? habt ihr erfahrung mit sowas?? ich nicht und das wuerde ich gern aendern.

greetz
 
Zuletzt bearbeitet:
Als erstes hängt es denke ich sehr davon ab, was du unter Mensch - Maschine Interaktion verstehst.
Für mich ist es bei diesem speziellen Begriff mehr, also nur das Mausklicken oder Eingeben. Für mich ist da schon eine gewisse künstliche Intelligenz mit verbunden und in diesem Fall ist das Ganze natürlich tiefergehender als nur die GUI.

Bei "normalen" Desktopprogrammen ist es aber vermutlich hauptsächlich die GUI und vielleicht ein paar Schnittstellen, sofern das Programm welche bietet, die im psychologischen Hinblick designt werden.


Ach ja, achte bitte ein wenig auf deine Rechtschreibung, dazu gehört unter anderem auch Großschreibung.
 
Ich werfe mal Scareware in den Raum. Eine Software die eine Bedrohung suggeriert, ist sicherlich ein gutes Beispiel für ein psychologisches Interface.
 
navi

naja mein erster gedanke war die software von einem navigationsgeraet(erkennen vom abweichen der route und den fahrer darauf hinweisen/korektur vorschlagen, erkennen das es sich nur um geringfuegige abweichungen von der route handelt z.b.: rastplatz, etc.). ist das schon mensch maschiene interakton und vorallem, wie setzt man sowas codetechnisch um??
oder ein wenig verallgemeinert: kennt einer von euch eine open source navi software in die ich mich mal einlesen könnte??

greetz und thx
 
Bei regulären Navigationssystemen wird nur deine Position bestimmt und von dort aus der optimale Weg zum Ziel gesucht. D.h. wenn du von der optimalen Route abweichst, dann kann es passieren das ein anderer Weg nun optimaler ist oder du wirst dazu aufgefordert:"Bitte wenden!".
Jedoch hat TomTom nun ein Navigationssystem veröffentlicht welches dir den optimalen Weg aufgrund von Erwartungswerten berechnet. Also es wurden über 5 Jahre lang Daten gesammelt, durch die dir z.B. zwischen 6.00 und 9.00 nicht die B1 empfohlen wird, da sich dort in der Regel der Berufsverkehrt staut.
Das wäre z.B. eine künstliche Intelligenz in Navigationssystemen (Ich nehme zur Zeit an "Jugend forscht" teil mit einem Navigationssystem welches innerhalb von Gebäuden funktioniert und einem Algorithmus der wahrscheinlich schneller ist als A* und vorher habe ich mich mit Intelligenten Navigationssystemen beschäftigt).

Ich vermute aber mal das dein Psychologie Kompane "Chatterbots" meinte. Das sind wie der Name schon sagt Bots die mit Menschen chatten und Ziel ist es dem User vor zu gaukeln es würde ein echter Mensch mit ihm schreiben. Beispiele wären Simonlaven oder Alicebot
 
ist das schon mensch maschiene interakton und vorallem, wie setzt man sowas codetechnisch um??
Ein Interface das versucht auf Gedanken etc. des Menschen einzugehen, kannst du nicht in Codeform suchen, sondern eher als Konzept oder eine Analyse des Problems.
(erkennen vom abweichen der route und den fahrer darauf hinweisen/korektur vorschlagen, erkennen das es sich nur um geringfuegige abweichungen von der route handelt z.b.: rastplatz, etc
In diesem Fall wäre es aber kein "psychologisches Interface", sondern nur ein Wegfindealgorithmus, der den Sonderfall Rastplatz etc. nicht als Grund zur Umkehr/Neuberechnung sieht, sondern als Teil der Straße und deshalb nicht motzt.

@Topic: Unter einem solchen Interface würde ich mir ein System vorstellen, dass, z.B. beim Einsatz auf dem Desktop, versucht aus den Verhaltensweisen eines Users versucht herauszufindes was er vermutlich als nächstes tun wird und ihn dann dort irgendwie unterstützt.
Beispiel: Das System merkt, dass der User immer wieder etwas in eine Textdatei schreibt, eine gewissen Programm übergibt und das Ergebnis auf einen Server hochlädt. Das Interface würde anbieten diese Schritte zu automatisieren.
Andere Ebene: Ein User hat nicht Verstanden wie Tabs beim Browsen funktionieren. Das System erkennt, dass er nur vor/zurück und mehrere Fenster, statt Tabs nutzt und zeigt dem User, wie es die Fenster in Tabs steckt.

EDIT: Das wäre doch eher ein verhaltenorientiertes System.
 
also in richtung codevervollständigung alla visual studio 2k8, sprich der computer analysiert die eingabe des benutzers und schlägt optionen vor?
 
Warum denken eigentlich alle bei Mensch-Maschinen-Interaktion nur an Computer? Schon die sinnvolle Anordnung von Knöpfen auf der Waschmaschine fällt in diesen Bereich. Daher umfasst dieses Thema selbst rein computerbezogen natürlich einiges mehr als nur die Tooltipps, nämlich alles, was irgendwie mit der Interaktion zwischen Mensch und Computer zu tun hat... die Anordnung der Tasten auf der Tastatur und auf dem Rechner selbst, die Anordnung von Menüs und Buttonleisten, die Benennung von Menüpunkten, das Aussehen von Dialogboxen, die automatische Anordnung der Fenster auf dem Desktop, die Darstellung der Informationen in einer leicht aufnehmbaren und sinnvollen Weise, die Autokorrektur bei Texteingaben, die Shortcuts, die innerhalb eines Programms verwendet werden uvm.. Wie das Wort "Mensch-Maschinen-Interaktion" ja eigentlich schon sagt, fällt also alles da rein, was irgendwie mit der Benutzung einer Maschine zu tun hat. Vieles davon ist offensichtlich (wie z.B. die Menüpunkte-Benennung), vieles nicht unbedingt (z.B. das Verhalten beim Drücken von Tastenkombinationen, die das Programm nicht kennt oder das Verhalten bei Doppelklicks auf einen Bereich eines Fensters).

Mit Gedankensteuerung hat das aber nur bedingt zu tun. Dabei geht es dann eher darum welche Gehirnstrommuster bei bestimmten Interaktionen mit Maschinen aktiviert werden und das wiederum hat mit Mensch-Maschinen-Interaktion nichts zu tun, sondern mit Psychologie und der Reaktion auf externe Reize.
 
Zurück
Oben