URN to cite this document: urn:nbn:de:bvb:703-epub-4600-5
Title data
Dumpert, Florian:
Statistische Eigenschaften lokalisierter maschineller Lernverfahren.
Bayreuth
,
2020
. - ix, 81 P.
(
Doctoral thesis,
2020
, University of Bayreuth, Faculty of Mathematics, Physics and Computer Sciences)
|
|||||||||
Download (2MB)
|
Project information
Project financing: |
Deutsche Forschungsgemeinschaft |
---|
Abstract
Neben anderen Methoden des maschinellen Lernens spielen Support Vector Machines (SVMs) heute in vielen Wissenschaftsbereichen eine wichtige Rolle. In den letzten zwei Jahrzehnten wurde beträchtlich im Bereich statistischer Eigenschaften und der Berechenbarkeit von Support Vector Machines und verwandten kernbasierten Methoden geforscht. Auf der einen Seite ist man aus statistischer Sicht an der Konsistenz und Robustheit der Methode interessiert. Auf der anderen Seite, aus Sicht der Berechenbarkeit, ist man an einer Methode interessiert, die mit vielen Beobachtungen und vielen erklärenden Variablen umgehen kann. Da SVMs viel Rechenleistung und Speicherkapazität benötigen, wurden verschiedene Möglichkeiten zur Handhabung großer Datensätze vorgeschlagen. Eine davon, die als Regionalisierung bezeichnet wird, teilt den Raum der erklärenden Variablen datengesteuert in möglicherweise überlappende Bereiche auf und definiert den Prädiktor durch das Zusammenspiel lokal erlernter Support Vector Machines. Diese Arbeit zeigt, dass ein so erlernter Prädiktor Konsistenz und Robustheitseigenschaften unter Annahmen bewahrt, die vom Anwender dieser Methode geprüft werden können.
Abstract in another language
Among different machine learning methods, support vector machines (SVMs) play an important role in many fields of science nowadays. A lot of research about statistical and computational properties of support vector machines and related kernel methods has been done during the last two decades up to now. On the one hand, from a statistical point of view, one is interested in consistency and robustness of the method. On the other hand, from a computational point of view, one is interested in a method that can deal with many observations and many features. As SVMs need a lot of computing power and storage capacity, different ways to handle big data sets were proposed. One of them, which is called regionalization, divides the space of the declaring variables into possibly overlapping regions in a data driven way and defines the output predicting function by composing locally learnt support vector machines. This thesis shows that a predictor learnt in this way conserves consistency and robustness results under assumptions that can be checked by the user of this method.
Further data
Item Type: | Doctoral thesis (No information) |
---|---|
Keywords: | localized learning; support vector machines; universal consistency; robustness |
DDC Subjects: | 500 Science > 510 Mathematics |
Institutions of the University: | Faculties > Faculty of Mathematics, Physics und Computer Science > Department of Mathematics > Chair Mathematics VII - Stochastics and Machine Learning > Chair Mathematics VII - Stochastics and mashine learning - Univ.-Prof. Dr. Andreas Christmann Faculties Faculties > Faculty of Mathematics, Physics und Computer Science Faculties > Faculty of Mathematics, Physics und Computer Science > Department of Mathematics Faculties > Faculty of Mathematics, Physics und Computer Science > Department of Mathematics > Chair Mathematics VII - Stochastics and Machine Learning |
Language: | German |
Originates at UBT: | Yes |
URN: | urn:nbn:de:bvb:703-epub-4600-5 |
Date Deposited: | 07 Feb 2020 15:10 |
Last Modified: | 07 Feb 2020 15:10 |
URI: | https://epub.uni-bayreuth.de/id/eprint/4600 |