Leistungseffiziente neuronale Netze

Leistungseffiziente neuronale Netze

Contact
Rohan Asthana, M.Sc.
E-Mail: rohan.asthana@fau.de
Link to person
Aktuelle Architekturen für das lernen mittels tiefer neuronaler Netze (engl. Deep Learning) sind komplex und benötigen damit einhergehend viel Rechenleistung. Das Trainieren derartiger Netzwerke auf Geräten, die nur bedingt über Hardware Ressourcen verfügen stellt daher eine besondere Herausforderung dar. Um dieses Problem zu lösen, müssen die Netzwerkarchitekturen unter Berücksichtigung von Speicher, Fließkomma-Operationen und Faktoren zur Parameter Diskretisierung neu gestaltet werden. Dieser Prozess wird als Komprimierung  von neuronalen Netzen (engl. neural network compression) bezeichnet. Darüber hinaus muss sog. „Edge hardware“ untersucht und neu definiert werden, um effizientes Lernen mittels neuronaler Netze zu ermöglichen. In diesem Kontext bezieht sich „Edge hardware“ auf die Hardware, die am „Rand“ eines Netzwerks verwendet wird, um Daten zu sammeln und zu verarbeiten.  Edge-Geräte sind gewöhnlich Geräte mit geringen Rechenressourcen, wie beispielsweise IoT-Geräte (engl. Internet of Things), die Daten erfassen und an größere Netzwerke weitergeben. Sog. Spezialisierte integrierte Schaltkreis (ICs) Beschleuniger können hierbei eine große Anpassbarkeit hinsichtlich der Speicherhierarchie bieten und durch den Einsatz von mixed-signal Berechnungen den Stromverbrauch reduzieren.

 

Kollaborationspartner: Prof. V. Belagiannis (FAU), Prof. M. Ortmanns (Universität Ulm)

Dieses Projekt ist finantiert durch die DFG . Projektnummer-493129587.