Viele Schichten der Künstlichen Intelligenz

Deep Learning“ wird von einigen Stimmen in Medien und Politik als Innovation der Künstlichen-Intelligenz-Forschung gefeiert. Einige Unternehmer aus Robotik und Informatik wie Elon Musk warnen aber vor den Gefahren von KI-Technologien. Eine der aktuell erfolgreichsten Methoden der künstlichen Intelligenz ist das sogenannte Deep Learning. Worum es sich dabei genau handelt und welchen Nutzen sie besonders in der Medizintechnik hat, beschreibt Daniel Hiekel in einem Gastbeitrag.

Gastautor: Daniel Hiekel

Was ist „Deep Learning“ und wofür wird es genutzt?

„Deep Learning“ ist eine Datenverarbeitungsmethode, die sich an die Verschaltung von Nervenzellen beim menschlichen Lernen anlehnt. Ziel der Methode ist es, Daten so zu analysieren, dass Muster erkannt und Probleme gelöst werden können. Ein Verarbeitungsschritt, eine so genannte Schicht von virtuellen Nervenzellen, nimmt Daten auf und eine Ausgangsschicht gibt Informationen zu Eigenschaften dieser Daten aus. Dazwischen liegen weitere Schichten – die Zahl kann variieren -, in denen der Algorithmus bestimmte Informationen gewichtet und extrahiert – je nach Form der Muster die die jeweilige Schicht lernt zu erkennen. Gerade zu Beginn des Lernvorgangs des Algorithmus entstehen Unterschiede zwischen der Ausgabe des Netzes und dem Wunschergebnis. Deshalb werden Fehler zurück in das künstliche neuronale Netz gespeist, wodurch sich der Ausgabewert mit der Zeit an ein Optimum annähert – ähnlich dem menschlichen Erlernen von einer Bewegung. Ein Beispiel findet sich in der Bilderkennung. In den einzelnen Verarbeitungsschritten, den Schichten, können Bilder anhand Ihrer Helligkeit, Konturen und Strukturen analysiert werden. Die Software erlernt dadurch Merkmale. Erkennt sie beispielsweise ein bestimmtes Merkmal – wie eine Kontur – im Bild wieder, aktiviert dies die erste Schicht. Die zweite reagiert hingegen, wenn Gesichtsausschnitte erkennbar werden. Mit jeder weiteren Schicht wird die Erkennung präziser, aber auch anspruchsvoller was die Rechenleistung betrifft. Seit einigen Jahren herrschen jedoch perfekte technische Bedingungen für die Methode: Computer sind leistungsfähiger denn je, elektronische Daten sind leicht zu produzieren und dank des Internets immer und überall in großen Mengen verfügbar.

Viele Anwendungen für ein Rechensystem

Deep Learning wurde also durch technologischen Fortschritt möglich und erlaubt in Zeiten von Big Data eine besonders schnelle Verarbeitung von hohen Datenmengen. Allerdings funktioniert Deep Learning bislang nur innerhalb abgeschlossener Domänen: In der Bild- und Spracherkennung führte es beispielsweise schon zu großen Fortschritten und auch bei der Umgebungswahrnehmung von mobilen Robotern, autonomen Fahrzeugen oder Drohnen wird es derzeit intensiv genutzt. Insbesondere in der Medizintechnik zeigt die Methode ihr Potenzial.

Zum einen kann die Methode Forschern ermöglichen, mentale Zustände in Hirndaten zu entdecken:

Im Exzellenzcluster BrainLinks-BrainTools der Albert-Ludwigs-Universität Freiburg arbeiten mehrere Forschungsgruppen, unter anderem die Arbeitsgruppe des Neurowissenschaftlers PD Dr. Tonio Ball an künstlichen neuronalen Netzen, die helfen sollen, Gehirnzustände zu entschlüsseln. Welche Hirnareale werden etwa bei der Bewegung eines Fingers aktiviert, welche Bereiche arbeiten zusammen, wenn wir sprechen? Die Computerprogramme erkennen dank ihrer lernenden Algorithmen Muster innerhalb der Gehirnaktivitätsmessungen. So können die Forschenden beispielsweise elektrische Spannungsschwankungen, die mithilfe der Elektroenzephalografie (EEG) gemessen wurden, zur Dekodierung nutzen. Vier Aktivitätsmuster entstanden daraus bereits, unter anderem zu Fuß- und Handbewegungen. Die gleichen Algorithmen wurden von den Forschenden bereits dazu genutzt, automatisiert EEG-Daten aus dem Krankenhaus zu diagnostizieren.

Bild
Schematische Darstellung der Aufnahmefelder des Convolutional Neuronal Network (ConvNet)
Das Schema zeigt Output, Input und Aufnahmefelder einer Einheit pro Schicht. Die verschiedenen Einheiten sind durch Farben gekennzeichnet. Die ausgefüllten Rechtecke stellen einzelne Einheiten dar, die über die durchgezogenen Linien mit der vorherigen Ebene verbunden sind, dies bezeichnet also direkten Input aus der vorherigen Schicht. Die gestrichelten Linien stellen den korrespondieren Bereich für alle vorherigen Schichten, bis einschließlich der Eingangsschicht, dar. Mit zunehmender Tiefe der Schicht wird das Aufnahmefeld immer größer. Foto: Schirrmeister et al. 2017

Die EEG-Daten werden über mehrere unsichtbare Schichten, daher Verarbeitungsschritte, hindurch ausgewertet. Je umfassender die Anzahl der Schichten ist, desto präziser wird oft das Modell. In der zuletzt im Journal „Human Brain Mapping“ erschienenen Studie arbeitete das Team mit bis zu 31 Schichten an einer Karte der Hirnaktivität.

Mit der Studie vom Juli 2017 war es den Forschenden zudem auch möglich eine Dekodierung in Echtzeit durchzuführen. Die Ergebnisse wurden diesen September auf der European Conference for Mobile Robotics (ECMR) in Paris präsentiert.

Deep Learning könnten zum anderen Ärzte schon bald bei Diagnosen und der Therapiewahl unterstützen:

Um Krebserkrankungen schneller zu erkennen, könnten sie riesige Datenbanken nach vergleichbaren Fällen durchsuchen, helfen Behandlungen zu entwickeln und richtig zu diagnostizieren. Bisher war die Arbeit der Computer in der Diagnose von Krankheiten reaktiv – Datensätze wurden eingespeist und die Software glich einen Fall mit bestehenden Informationen ab.

Dies könnte sich durch künftige Systeme von IBM Watson Health oder Google Deep-Mind ändern. Bei Röntgenuntersuchungen, vielleicht aber auch bei pathologischen Diagnosen könnten sie ebenso eine Rolle spielen wie bei psychischen Erkrankungen, wo eine Rückfallvorhersage von Interesse für das medizinische Personal ist. Gerade wenn die Maschine lernen würde, bisherige Fehleinschätzungen nachzukorrigieren, könnten die Programme Menschen gegenüber im Vorteil sein.

In einer 2017 erschienenen Studie von Sebastian Thrun und seinem Team an der Standford University wurden rund 14.000 Bilder von hautkrebsverdächtigen Hautveränderungen ausgewertet, bei 72% der Zuordnungen lag das System mit seiner Diagnose richtig, auch wenn es nur eine Schätzung des Zustands des Tumors angab. Somit arbeitete – rein statistisch gesehen – die Maschine bereits heute genauer als Dermatologinnen und Dermatologen. Die zwei staatlich geprüften Dermatologen lagen nur bei 66% der Zuordnungen richtig. Auch im weiterführenden Test mit 25 Dermatologen lag die Maschine vorn.

„Deep Learning“ könnte in Zukunft in der medizinischen Früherkennung eine wichtige Rolle spielen. Doch was sind die Bedenken?

Bei der Jahrestagung des Deutschen Ethikrats im Juli 2017 wurden folgende Anwendungsgebiete und die damit verbundenen ethischen Bedenken für intelligente Maschinen genannt: selbstfahrende Autos, Medizinmaschinen, Pflegeroboter, das vernetzte Heim (Smart Home) und autonome Waffensysteme. Nach Henning Kagermann, Präsident der Deutschen Akademie der Technikwissenschaften (acatech), sei für alle vier Bereiche, gerade durch die Wandlungsfähigkeit der KI, „ein frühzeitiger und langfristig angelegter gesellschaftlicher Dialog nötig, in dem Chancen und Risiken transparent gemacht und gegeneinander abgewogen werden“.

Auch Unternehmer wie Elon Musk und Mustafa Suleyman von Google unterzeichneten einen Offenen Brief an die Vereinten Nationen. Die Autoren warnen vor Weiterentwicklungen der KI-Technologien im Bereich autonomer Waffensysteme, die sie als eine neue Dimension der Kriegsführung ansehen.

Deep Learning selbst ist jedoch nur ein Baustein in dieser Entwicklung. Nach Lukas Fiederer, Doktorand im Exzellenzcluster BrainLinks-BrainTools, sind Künstliche Intelligenz und Maschinelles Lernen allgemein bereits lange im Umlauf und bieten auch ohne Deep Learning genügend potenzielle Gefahr „Deep Learning alleine reicht nicht um Terminators zu bauen, dazu braucht man eine ganze Industrie und den dazu passenden Willen.“, gibt Fiederer zu bedenken.

Eine ähnliche Aussage wird auch im „Artificial Intelligence and Life in 2030“-Report der Stanford University aus dem Jahr 2016 getroffen. Zwar wird KI stetig weiterentwickelt, Langzeitziele, gar Absichten existieren jedoch noch nicht.

Laut Katharina A. Zweig von der Technischen Universität Kaiserslautern, bedarf es „einer gesamtgesellschaftlichen Diskussion darüber, welche gesellschaftlichen Prozesse sich überhaupt für algorithmische Entscheidungssysteme eignen und nach welchen Kriterien sie optimiert werden sollen.“ Daraus resultiere auch, dass „demokratisch legitimierte, industrieunabhängige Prüfstellen etabliert werden“, berichtete sie auf der Tagung des Rates im Juni.

Eine proaktive Regulierung der Software bleibt somit grundsätzlich weiterhin dringend notwendig.

 

Quellen:

R. T. Schirrmeister, J. T. Springenberg, L. D. J. Fiederer, M. Glasstetter, K. Eggensperger, M. Tangermann, F. Hutter, W. Burgard, and T. Ball, “Deep learning with convolutional neural networks for EEG decoding and visualization,” Human Brain Mapping, Aug. 2017

https://ai100.stanford.edu/2016-report

https://www.technologyreview.com/s/608604/how-machine-learning-is-helping-neuroscientists-crack-our-neural-code/

http://www.newyorker.com/magazine/2017/04/03/ai-versus-md

http://www.nature.com/nature/journal/v542/n7639/full/nature21056.html?foxtrotcallback=true

http://spectrum.ieee.org/the-human-os/biomedical/diagnostics/ibm-watson-makes-treatment-plan-for-brain-cancer-patient-in-10-minutes-doctors-take-160-hours

http://spectrum.ieee.org/the-human-os/biomedical/bionics/brainy-startup-neurable-unveils-the-worlds-first-braincontrolled-vr-game

http://www.spektrum.de/news/gehirn-computer-schnittstellen-werden-alltagstauglicher/1398145

http://www.spektrum.de/news/die-unsichtbare-hand-der-gedanken/1002878

http://www.faz.net/aktuell/wirtschaft/kuenstliche-intelligenz-elon-musk-und-co-warnen-vor-killer-robotern-15161436.html

http://www.faz.net/aktuell/wirtschaft/kuenstliche-intelligenz/elon-musk-tesla-chef-warnt-vor-kuenstlicher-intelligenz-15182958.html

https://arxiv.org/pdf/1708.08012.pdf

https://arxiv.org/pdf/1703.05051.pdf

http://www.ethikrat.org/dateien/pdf/infobrief-02-17.pdf

 

 

 

 

Advertisements

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s