Kernel (Maschinelles Lernen)
aus Wikipedia, der freien Enzyklopädie
Im Bereich des Maschinellen Lernens wurden in den letzten Jahren eine Klasse von Algorithmen entwickelt, die sich eines Kernels (dt. Kern) bedienen, um ihre Berechnungen implizit in einem hochdimensionalen Raum auszuführen. Bekannte Algorithmen, die mit Kerneln arbeiten, sind die Support-Vector-Maschinen und die Kernel-PCA.
Inhaltsverzeichnis |
[Bearbeiten] Formale Definition
Sei X ein Eingaberaum. Eine Abbildung heißt Kernel, wenn es einen Skalarproduktraum und eine Abbildung in diesen Raum gibt mit: . F heißt Featurespace oder Merkmalsraum, Φ Featuremapping oder Merkmalsabbildung. In der Praxis muss der Featurespace nicht explizit bekannt sein, da Kernels durch Mercers Theorem eine einfache Charakterisierung besitzen.
[Bearbeiten] Verschiedene Klassen von Kernel-Funktionen
Es gibt verschiedene Arten von Kerneln, die sich zum Teil über Parameter an die gegebene Problemstellung anpassen lassen:
- lineare Kernel
- polynomielle Kernel
- RBF-Kernel
Inzwischen sind auch Kernel auf Graphen und Strings definiert worden.
[Bearbeiten] Literatur
- Bernhard Schölkopf, Alex Smola: Learning with Kernels, MIT Press, Cambridge, MA, 2002.
- http://www.learning-with-kernels.org/ - 3 Kapitel daraus in PDF-Format
- Nello Cristianini, John Shawe-Taylor: Kernel Methods for Pattern Classification, Cambridge, 2004