Neuronen ©Colin Behrens (Pixabay)

Obwohl Neurowissenschaftler immer größere Datensätze aus dem Gehirn aufnehmen, können sie viele der darin enthaltenen Informationen, den neuronalen Code, bislang nicht entschlüsseln. Ein internationales Team unter der Leitung des Max-Planck-Instituts für Kognitions- und Neurowissenschaften hat nun ein künstliches neuronales Netzwerk entwickelt, das in der Lage ist, automatisch neuronale Rohdaten zu verstehen, ohne sie manuell analysieren zu müssen.

KI versteht neuronale Rohdaten

„In den meisten Fällen wissen wir bislang nicht, welche Botschaften übertragen werden“, erklärt der leitende Forscher Markus Frey vom Max-Planck-Institut für Kognitions- und Neurowissenschaften (MPI CBS) in Leipzig und Kavli Institute for Systems Neuroscience in Trondheim. „Wir haben daher eine spezielle Art von Deep-Learning-Algorithmus, ein sogenanntes Convolutional Neural Network, entwickelt, das in der Lage ist, verschiedene Verhaltensweisen und Reize aus den Signalen vieler Gehirnregionen zu entschlüsseln.

Mithilfe des Netzwerks DeepInsight konnten die Forscher beispielsweise genau vorhersagen, wie Ratten ein etwa zwei Quadratmeter großes Testfeld erkunden, also welche Position, Kopfrichtung und Laufgeschwindigkeit die Tiere zu welchem Zeitpunkt einnehmen. Auch ohne manuelle Bearbeitung waren die Vorhersagen dabei genauer als bei herkömmlichen Analysen. Möglich wird das, indem die Forscher die gesamten neuronalen Rohdaten nutzen. Die werden bisher üblicherweise manuell bereinigt, wodurch auch Informationen verloren gehen.

Besonderheit des Netzwerks DeepInsight

Das Netzwerk schafft es aber nicht nur, die neuronalen Signale einer Hirnregion bei Ratten zu entschlüsseln. Es ist auch in der Lage, Verhalten über unterschiedliche neuronale Methoden (etwa der Mikroskopie oder der Einsatz von Tetroden) und Hirnareale hinweg beim Menschen vorherzusagen. Den Forschern gelang es etwa die Handbewegungen von StudienteilnehmerInnen vorherzusagen, indem sie die Bewegung der einzelnen Finger vorher aufgenommen hatten. Das Netzwerk konnte dann aus den neuronalen Rohdaten bestimmen, wie lange und in welche Richtung die Bewegung der Finger stattfand.

„Bisherige Methoden übersehen in neuronalen Aufzeichnungen viele potenzielle Informationen, weil sie nur die Elemente entschlüsseln können, die wir bereits verstehen“, sagt Caswell Barry vom University College (UCL) und Letztautor der zugrundeliegenden Studie, die jetzt im Fachmagazin elife erschienen ist. „Unser Netzwerk ist aber in der Lage, auf viel mehr des neuronalen Codes zuzugreifen und lehrt uns so, einige dieser unbekannten Elemente zu lesen.“

„Unser Netzwerk macht eine schnelle automatisierte Analyse von unverarbeiteten neuronalen Daten möglich. Dadurch sparen wir Zeit, die wir wiederum nur für die vielversprechendsten Hypothesen verwenden können“, ergänzt Christian Doeller, Direktor am MPI CBS. Zudem könne es in Zukunft ermöglichen, kognitive Prozesse auf höherer Ebene beim Menschen genauer vorherzusagen, etwa das Denken und Problemlösen.

Wissenschaftliche Ansprechpartnerin

Verena Müller
Max-Planck-Institut für Kognitions- und Neurowissenschaft
Tel. +49 341 9940-148
E-Mail verenamueller@cbs.mpg.de

Originalpublikation

Markus Frey, Sander Tanni, Catherine Perrodin, Alice O’Leary, Matthias Nau, Jack Kelly, Andrea Banino, Daniel Bendor, Julie Lefort, Christian F Doeller, Caswell Barry. Interpreting wide-band neural activity using convolutional neural networks. eLife 2021;10:e66551
doi: 10.7554/eLife.66551

Pressemitteilungen & Quelle


0 Kommentare

Eigenen Kommentar verfassen

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.

%d Bloggern gefällt das: