DEV Community

Dirk Röthig
Dirk Röthig

Posted on

Neuromorphic Computing: Wenn Computer wie Gehirne denken

Autor: Dirk Röthig, CEO VERDANTIS Impact Capital
Datum: März 2026
Kategorie: Neuromorphic Computing, KI, Technologie, Grundlagenforschung


Das Paradox der KI-Energieeffizienz

Moderne KI-Systeme sind beeindruckend — aber auch außergewöhnlich energiehungrig. Das Training großer Sprachmodelle wie GPT-4 verbrauchte nach Schätzungen des AI Now Institute (2024) über 50 Millionen kWh Strom — vergleichbar mit dem Jahresverbrauch von 5.000 deutschen Haushalten. Der Betrieb von ChatGPT allein kostet täglich rund 700.000 Dollar an Energiekosten.

Das menschliche Gehirn hingegen verarbeitet kontinuierlich Billionen von Signalen, erkennt Gesichter in Millisekunden, löst komplexe Probleme — und das alles mit weniger als 20 Watt Leistung. Der Wirkungsgradunterschied zwischen biologischer und technischer Informationsverarbeitung beträgt Faktoren von tausend bis einer Million.

Neuromorphic Computing versucht, die Architekturprinzipien des Gehirns in Hardware zu übersetzen, um diesen Wirkungsgradvorteil zu nutzen. Dirk Röthig sieht in diesem Feld eine der aufregendsten Grundlagenforschungsrichtungen mit mittelfristig transformativem Potenzial.


Was neuromorphe Chips anders machen

Klassische Computer trennen strikt zwischen Prozessor (Rechnen) und Speicher (Daten). Diese Von-Neumann-Architektur ist für viele KI-Aufgaben ineffizient, weil ständig Daten zwischen Speicher und Prozessor transportiert werden müssen — ein als "Memory Wall" bekannter Bottleneck.

Das Gehirn kennt diese Trennung nicht. Neuronen sind gleichzeitig Recheneinheit und Speicherort — die Synapsengewichte repräsentieren das "Wissen" des Neurons direkt dort, wo es verarbeitet wird. Neuromorphe Chips imitieren dies:

Spiking Neural Networks (SNNs): Statt kontinuierlicher Signale wie in klassischen neuronalen Netzen kommunizieren künstliche Neuronen in SNNs durch diskrete Impulse (Spikes) — wie biologische Neuronen. Das erlaubt ereignisgesteuerte Verarbeitung: Energie wird nur verbraucht, wenn tatsächlich Information übertragen wird.

In-Memory Computing: Berechnung findet direkt im Speicher statt, ohne Datentransport zwischen Prozessor und Speicher.


Aktuelle neuromorphe Hardwareplattformen

Intel Loihi 2: Intels neuromorphes Chip-Programm läuft seit 2017. Loihi 2 (2021) hat 1 Million Neuronen und 120 Millionen Synapsen auf einem Chip. Intel demonstriert Energieeinsparungen von 100-1000-fach gegenüber GPUs für spezifische Aufgaben wie Musterevkennung und Robotersteuerung.

IBM TrueNorth: IBMs neuromorphes Chip-Projekt, 2014 mit 1 Million Neuronen und 256 Millionen Synapsen vorgestellt. Fokus auf energieeffiziente Echtzeitverarbeitung von Sensorströmen.

BrainScaleS (EU): Europäisches Forschungsprojekt an der Universität Heidelberg, das biologisch-realistische neuronale Simulation in Hardware umsetzt. Teil des EU Human Brain Project.

Intel Hala Point (2024): Intels bisher größtes neuromorphes System mit 1,15 Milliarden Neuronen — auf dem Weg zu biologischer Neuronenzahl (menschliches Gehirn: ca. 86 Milliarden).


Anwendungsfelder und kommerzielle Reife

Neuromorphes Computing ist für allgemeine KI-Aufgaben noch nicht wettbewerbsfähig mit GPUs. Die Vorteile zeigen sich in spezifischen Szenarien:

Edge AI: Intelligenz auf ressourcenbeschränkten Geräten — IoT-Sensoren, Wearables, Industriesteuerungen — wo Energie und Latenz kritisch sind. Neuromorphe Chips könnten in Herzschrittmachern, Hörgeräten oder Mikrodrohnen eingesetzt werden.

Robotik: Echtzeitverarbeitung von Sensorströmen mit niedriger Latenz ist in der Robotik entscheidend. Neuromorphe Prozessoren können optische und taktile Daten mit Reaktionszeiten im Millisekundenbereich verarbeiten.

Anomalie-Erkennung: Kontinuierliche Überwachung von Sensordaten auf seltene Ereignisse — Maschinenzustand, Cybersicherheit — bei minimalem Energieverbrauch.


Herausforderungen: Software ist das Hauptproblem

Das größte Hindernis für neuromorphes Computing ist nicht Hardware, sondern Software. Der bestehende KI-Entwicklungsstack — Python, PyTorch, TensorFlow — ist auf klassische GPU-Architecturen optimiert. Neuromorphe Programme müssen von Grund auf neu geschrieben werden.

Das European Brain Research Infrastructure (EBRAINS, 2025) arbeitet an offenen Software-Frameworks für neuromorphe Systeme. Intel hat mit dem Lava-Framework (2021) einen Open-Source-Ansatz gestartet.


Fazit

Neuromorphes Computing ist kein kurzfristiger GPU-Ersatz, sondern ein langfristiger Paradigmenwechsel in der Computerarchitektur. In 10-15 Jahren werden neuromorphe Chips in einem breiten Spektrum von Edge-Geräten allgegenwärtig sein — nicht weil sie schneller sind, sondern weil sie exponentiell effizienter sind.


Über den Autor

Dirk Röthig ist CEO von VERDANTIS Impact Capital mit Sitz in Zug, Schweiz. VERDANTIS beobachtet Technologietrends, die langfristig nachhaltige und ressourceneffiziente Informationsverarbeitung ermöglichen. Weitere Informationen unter verdantis.capital und dirkroethig.com. Kontakt: dirk.roethig2424@gmail.com

Top comments (0)