Titlebar

Export bibliographic data
Literature by the same author
plus on the publication server
plus at Google Scholar

 

Statistische Eigenschaften lokalisierter maschineller Lernverfahren

DOI zum Zitieren der Version auf EPub Bayreuth: https://doi.org/10.15495/EPub_UBT_00004600
URN to cite this document: urn:nbn:de:bvb:703-epub-4600-5

Title data

Dumpert, Florian:
Statistische Eigenschaften lokalisierter maschineller Lernverfahren.
Bayreuth , 2020 . - ix, 81 P.
( Doctoral thesis, 2020 , University of Bayreuth, Faculty of Mathematics, Physics and Computer Sciences)

[img]
Format: PDF
Name: Dissertation.pdf
Version: Published Version
Available under License Creative Commons BY 4.0: Attribution
Download (2MB)

Project information

Project financing: Deutsche Forschungsgemeinschaft

Abstract

Neben anderen Methoden des maschinellen Lernens spielen Support Vector Machines (SVMs) heute in vielen Wissenschaftsbereichen eine wichtige Rolle. In den letzten zwei Jahrzehnten wurde beträchtlich im Bereich statistischer Eigenschaften und der Berechenbarkeit von Support Vector Machines und verwandten kernbasierten Methoden geforscht. Auf der einen Seite ist man aus statistischer Sicht an der Konsistenz und Robustheit der Methode interessiert. Auf der anderen Seite, aus Sicht der Berechenbarkeit, ist man an einer Methode interessiert, die mit vielen Beobachtungen und vielen erklärenden Variablen umgehen kann. Da SVMs viel Rechenleistung und Speicherkapazität benötigen, wurden verschiedene Möglichkeiten zur Handhabung großer Datensätze vorgeschlagen. Eine davon, die als Regionalisierung bezeichnet wird, teilt den Raum der erklärenden Variablen datengesteuert in möglicherweise überlappende Bereiche auf und definiert den Prädiktor durch das Zusammenspiel lokal erlernter Support Vector Machines. Diese Arbeit zeigt, dass ein so erlernter Prädiktor Konsistenz und Robustheitseigenschaften unter Annahmen bewahrt, die vom Anwender dieser Methode geprüft werden können.

Abstract in another language

Among different machine learning methods, support vector machines (SVMs) play an important role in many fields of science nowadays. A lot of research about statistical and computational properties of support vector machines and related kernel methods has been done during the last two decades up to now. On the one hand, from a statistical point of view, one is interested in consistency and robustness of the method. On the other hand, from a computational point of view, one is interested in a method that can deal with many observations and many features. As SVMs need a lot of computing power and storage capacity, different ways to handle big data sets were proposed. One of them, which is called regionalization, divides the space of the declaring variables into possibly overlapping regions in a data driven way and defines the output predicting function by composing locally learnt support vector machines. This thesis shows that a predictor learnt in this way conserves consistency and robustness results under assumptions that can be checked by the user of this method.

Further data

Item Type: Doctoral thesis (No information)
Keywords: localized learning; support vector machines; universal consistency; robustness
DDC Subjects: 500 Science > 510 Mathematics
Institutions of the University: Faculties > Faculty of Mathematics, Physics und Computer Science > Department of Mathematics > Chair Mathematics VII - Stochastics > Chair Mathematics VII - Stochastics - Univ.-Prof. Dr. Andreas Christmann
Faculties
Faculties > Faculty of Mathematics, Physics und Computer Science
Faculties > Faculty of Mathematics, Physics und Computer Science > Department of Mathematics
Faculties > Faculty of Mathematics, Physics und Computer Science > Department of Mathematics > Chair Mathematics VII - Stochastics
Language: German
Originates at UBT: Yes
URN: urn:nbn:de:bvb:703-epub-4600-5
Date Deposited: 07 Feb 2020 15:10
Last Modified: 07 Feb 2020 15:10
URI: https://epub.uni-bayreuth.de/id/eprint/4600

Downloads

Downloads per month over past year