IBM meldet Durchbruch mit "Synapsen-Chip"

Eine spannende Meldung gibt es heute in der SZ: Prototyp für Synapsen-Prozessor - IBM feiert Durchbruch beim Menschenhirn-Chip - Digital - sueddeutsche.de

Laut dem Artikel hat IBM einen Chip entwickelt, der Neuronen oder Synapsen simuliert. Angeblich ist der Chip in der Lage auch Informationen zu verarbeiten, für die er nicht programmiert wurde.

Hier mal ein paar Zitate aus dem Artikel:
Dharmendra Modha, der Projektleiter bei IBM Research, erklärte, die neuen Chips hätten Teile, die sich wie digitale "Neuronen" und "Synapsen" verhielten. Jeder einzelne Kern des Prozessor habe Rechen-, Kommunikations- und Speicherfunktionen.
Die Parallelität der Vorgänge sei dabei das wesentlich Neue: Computer, die mit dem neuen Chip ausgestattet sind, könnten ähnlich dem menschlichen Gehirn Erfahrungen sammeln und darauf Hypothesen bilden.
[...]
Was IBM daran interessiert, ist die Fähigkeit der Chips, Signale aus der realen Welt wie Temperaturen, Geräusche oder Bewegung so zu verarbeiten, dass ein Computer sie nutzen kann. Ziel ist es, bestehende Infrastrukturen wie etwa Kraftwerke oder auch Straßenlampen mit Computern zu verbinden.
[...]
Viel interessanter sei, wie sie arbeiteten. Die besondere Eigenschaft der Chips sei, dass sie auch Informationen verarbeiten können, für die sie nicht programmiert wurden. "Es gibt sicher noch viel Arbeit, aber der erste Schritt ist immer der wichtigste", sagte Tononi in einem Interview. "Und das ist nicht ein Schritt, es sind mehrere."
Klingt wirklich spannend, leider ist wie immer die DARPA beteiligt...
 
Ich frage mich, wie dieser Chip programmiert werden soll. Kann man ihn, der klassischen Programmierung entsprechend, auf ein Gebiet einstellen und dann handelt er auch die nicht vorhergesehenen Inputs, oder muss er von Grund auf "erzogen" werden? :D
 
bad_alloc hat gesagt.:
[...]oder muss er von Grund auf "erzogen" werden?
Gute Frage! Möglicherweise ändern sich bald die Anforderungen an Programmierer - weg von einem mathematisch-logischen, hin zu einem pädagogischen Hintergrund...:D
Oder, wenn Computer erst einmal Psychosen entwickeln können, gehören plötzlich psychotherapeutische Fähigkeiten zu den wichtigsten Anforderungen - z. B. wenn man einen manisch-depressiven Computer bei Laune halten muß: "Ich weiß, Marvin, Du hast es wirklich schwer - aber könntest Du bitte trotzdem das Kühlsystem des Reaktors wieder hochfahren?"
 
Ausser dem Faktor der starken Parallelisierung sehe ich in dem Artikel nicht wirklich was Neues - oder was habe ich uebersehen.

Abgesehen davon das solche Überschriften mehr als peinlich sind.

Gehirn -> 20 Petaflops bei 7 Watt ;)
 
Solange es bloss Simulationen sind und die Teile nicht mit Traubenzucker gefüttert werden müssen ist mir das egal:D.

Was soll das übrigens bringen- Programmierer arbeitslos zu machen? Mir fehlt das Verständnis, was soetwas bringen soll.

Jeder einzelne Kern des Prozessor habe Rechen-, Kommunikations- und Speicherfunktionen
??? Was machen denn die jetzigen Prozessoren? Sind da Ameisen drin, die Relais steuern und dann irgendwas in die Level-Caches meisseln bzw nagen?
 
Ich denke es geht darum:
Blue Gene kann „nur“ etwa 10.000 Neuronen simulieren, und das auch nicht in Echtzeit, dafür aber mit einem vollständigen Modell. Deshalb gibt es Bestrebungen, solche künstlichen neuronalen Netzwerke in Hardware zu implementieren (Neuromorphing).
Also ein NN in Hardware...
 
Zurück
Oben