Automatisiertes Lernen von Neuronalen Netzen zur Objektklassifikation auf heterogenen Systemen
Objektklassifikation. Hierbei wird sowohl das Training als auch die Ausführung von Neuronalen Netzen im Detail betrachtet, um beide Bereiche zu optimieren. Um den Trainingsprozess zu beschleunigen, wird ein Verfahren zum Automatisierten Lernen von Neuronalen Netzen entwickelt, das unter Angabe von gewünschten Objektklassen eigenständig Datenbanken zum Trainieren Neuronaler Netze aus dem Internet erstellt. Dabei wird ein GPU-basiertes Systemdesign zusammen mit einer Quantisierung in Form von Binären Neuronalen Netzen genutzt, um den Trainingsprozess in einer effizienten automatisierten Umsetzung zu beschleunigen. Um trotz der reduzierten Datensatzgröße die Trainingsergebnisse der State-of-the-Art Implementierungen zu erreichen, wird hierfür ein adaptives Verfahren zur Anpassung des Lernprozesses eingesetzt. Zusätzlich wurde eine Optimierung der Eingangsdaten durch Einbindung von Tiefeninformationen zur Verbesserung der Klassifikationsergebnisse betrachtet. Für die Ausführung der trainierten Modelle wurde ein eingebettetes heterogenes System auf Basis eines Xilinx FPGA SoC entwickelt. Das vorgestellte Kamerasystem bietet integrierte Hardwareeinheiten, um Tiefeninformationen in Echtzeit zu berechnen. Für dieses Verfahren wurden eigene Algorithmen zur Tiefenbestimmung aus Stereobildern erforscht und als Hardware-basierte Lösung effizient umgesetzt. Die so bereitgestellten Tiefeninformationen konnten genutzt werden, um die Klassifikation durch Anwendung eines Segmentierungsverfahrens weiter zu verbessern. Für das entwickelte Kamerasystem wurden bestehende Implementierungen Binärer Neuronaler Netze angepasst und um eine eigene Implementierung einer abgestimmten Netzarchitektur erweitert. Das so entstandene AL BNN Framework kann durch Angabe gewünschter Objektklassen diese eigenständig antrainieren und liefert abschließend Modelle mit einer ausgezeichneten Klassifikationsgenauigkeit von 82,3% zur Ausführung auf GPU-basierten Systemen und auf dem neu entwickelten eingebetteten Kamerasystem. Durch das AL BNN Framework können neue Objekte in unter einer Stunde antrainiert werden und so die Funktionalität des Kamerasystems für viele Anwendungen flexibel erweitert werden. Dabei konnte die Klassifikation durch die Hardwareunterstützung mit einer Bildwiederholrate von bis zu 108 Bildern pro Sekunde bei einem sehr geringen Energieverbrauch von unter 5W realisiert werden.
This work examines the learning process of neural networks using the example of object classification. Here, the training and execution of neural networks will be considered in detail to optimize both areas. In order to speed up the training process, a method for the automated learning of neural networks is developed, which independently creates databases for training neural networks from the Internet, specifying desired object classes. It uses a GPU-based system design in conjunction with a quantization in the form of binary neural networks to accelerate the training process in an efficient automated implementation by a factor of 1000x. In order to achieve the training results of the state-of-the-art implementations despite the reduced data set size, an adaptive method for adapting the learning process is used for this purpose. In addition, an optimization of the input data was considered by incorporating depth information to improve the classification results. For the execution of the trained models, an embedded heterogeneous system based on a Xilinx FPGA SoC was specially developed for this work. The presented camera system offers integrated hardware units to calculate depth information in real time. For this procedure, own algorithms for depth determination from stereo images were researched and implemented efficiently as a hardware-based solution. The depth information thus provided could be used to further enhance classification by using a segmentation method. This was confirmed in test series. For the developed camera system, existing implementations of binary neural networks were adapted and extended by an own implementation of a coordinated network architecture. Extensive investigations were carried out to find an optimal architecture for the special conditions of automatically generated data sets. The resulting AL BNN Framework can independently train these by specifying desired object classes and finally delivers models with an excellent classification accuracy of 82.3% for execution on GPU-based systems and the newly developed embedded camera system. New objects can be trained in less than an hour thanks to the optimized training procedure of the AL BNN Framework, thus flexibly expanding the functionality of the camera system for many object classification applications. The classification could be realized by the hardware support with an image refresh rate of up to 108 images per second with a very low power consumption of less than 5W.
Preview
Cite
Access Statistic

Rights
Use and reproduction:
All rights reserved