Commit 07d18c8e authored by David Peter's avatar David Peter
Browse files

Kurzfassung ausbessern

parent 03428676
No preview for this file type
\addcontentsline{toc}{chapter}{Abstract (German)}
\begin{center}\Large\bfseries Abstract (German)\end{center}\vspace*{1cm}\noindent
Diese Masterarbeit beschäftigt sich mit unterschiedlichen Methoden zur Entwicklung von \glspl{cnn} für \gls{kws} Anwendungen in Umgebungen mit eingeschränkten Speicher- und Rechenressourcen. Unser Ziel ist es, die Klassifizierungsgenauigkeit zu maximieren und gleichzeitig die Speicheranforderung sowie die Anzahl der Rechenoperationen zu minimieren. Um dieses Ziel zu erreichen setzen wir auf eine differenzierbare Architektursuche für neuronale Netzwerke, welche uns dabei hilft, die Struktur von \glspl{cnn} zu optimieren. Nachdem ein entsprechendes \gls{kws} Modell mit der Architektursuche gefunden wurde, quantisieren wir die Gewichte und Aktivierungen des Modells um die Speicheranforderungen weiter zu minimieren. Beim Quantisieren vergleichen wir die Quantisierung mit fixen Bitbreiten mit der Quantisierung bei der die Bitbreiten automatisch bestimmt werden. Im Anschluss verwenden wir die Architektursuche erneut um die Struktur von Ende-zu-Ende \gls{kws} Modellen zu optimieren. Ende-zu-Ende Modelle führen die Klassifizierung direkt anhand der rohen Audiodaten durch und überspringen dabei die Merkmalsextraktion von z.B. \gls{mfcc}. Wir vergleichen unsere \gls{mfcc} Modelle mit Ende-zu-Ende Modellen in Bezug auf die Klassifizierungsgenauigkeit, der Speicheranforderungen sowie der Anzahl an Rechenoperationen. Wir zeigen außerdem, dass Multi-Exit Modelle viel Flexibilität in Bezug auf \gls{kws} Systeme liefern und uns erlauben, die Klassifizierung frühzeitig zu unterbrechen, sofern dies benötigt wird. Alle Experimente wurden auf dem \gls{gsc} Datensatz evaluiert. Der \gls{gsc} Datensatz ist ein populärer Datensatz um die Klassifizierungsgenauigkeit von \gls{kws} Systemen zu evaluieren.
Diese Masterarbeit beschäftigt sich mit unterschiedlichen Methoden zur Entwicklung von \glspl{cnn} für \gls{kws} Anwendungen in Umgebungen mit eingeschränkten Speicher- und Rechenressourcen. Unser Ziel ist es, die Klassifizierungsgenauigkeit zu maximieren und gleichzeitig die Speicheranforderung sowie die Anzahl der Rechenoperationen zu minimieren. Um dieses Ziel zu erreichen, setzen wir auf eine differenzierbare Architektursuche für neuronale Netzwerke, welche uns dabei hilft, die Struktur von \glspl{cnn} zu optimieren. Nachdem ein entsprechendes \gls{kws} Modell mit der Architektursuche gefunden wurde, quantisieren wir die Gewichte und Aktivierungen des Modells, um die Speicheranforderungen weiter zu minimieren. Beim Quantisieren vergleichen wir die Quantisierung mit fixen Bitbreiten mit der Quantisierung, bei der die Bitbreiten automatisch bestimmt werden. Im Anschluss verwenden wir die Architektursuche erneut um die Struktur von Ende-zu-Ende \gls{kws} Modellen zu optimieren. Ende-zu-Ende Modelle führen die Klassifizierung direkt anhand der rohen Audiodaten durch und überspringen dabei die Merkmalsextraktion von z.B. \gls{mfcc}. Wir vergleichen unsere \gls{mfcc} Modelle mit Ende-zu-Ende Modellen in Bezug auf die Klassifizierungsgenauigkeit, der Speicheranforderungen sowie der Anzahl an Rechenoperationen. Wir zeigen außerdem, dass Multi-Exit Modelle viel Flexibilität in Bezug auf \gls{kws} Systeme liefern und uns erlauben, den Klassifizierungsvorgang frühzeitig zu unterbrechen, sofern dies benötigt wird. Alle Experimente wurden auf dem \gls{gsc} Datensatz evaluiert. Der \gls{gsc} Datensatz ist ein populärer Datensatz um die Klassifizierungsgenauigkeit von \gls{kws} Systemen zu evaluieren.
Supports Markdown
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment