Web - Amazon

We provide Linux to the World


We support WINRAR [What is this] - [Download .exe file(s) for Windows]

CLASSICISTRANIERI HOME PAGE - YOUTUBE CHANNEL
SITEMAP
Audiobooks by Valerio Di Stefano: Single Download - Complete Download [TAR] [WIM] [ZIP] [RAR] - Alphabetical Download  [TAR] [WIM] [ZIP] [RAR] - Download Instructions

Make a donation: IBAN: IT36M0708677020000000008016 - BIC/SWIFT:  ICRAITRRU60 - VALERIO DI STEFANO or
Privacy Policy Cookie Policy Terms and Conditions
Stödvektormaskin - Wikipedia, den fria encyklopedin

Stödvektormaskin

Wikipedia

En stödvektormaskin (eng. Support Vector Machine) är en typ av statistisk klassificerare, närmare bestämt en generaliserad linjär klassificerare. Den linjära formuleringen av algoritmen introducerades av Vladimir Vapnik 1963.

Metoden kan även användas för regression.

Stödvektormaskiner betraktas som robusta och har använts i många praktiska tillämpningar, till exempel för optisk teckenigenkänning samt ett stort antal olika områden inom språkteknologin och även objektigenkänning i datorseende. De kan hantera relativt stora träningsmängder och har metoder för att förhindra överanpassning.

[redigera] Träning av stödvektormaskin

Antag att vi har en mängd exempel \left\{ (y_i, x_i) \right\}, där varje yi är ett klassvärde som är +1 eller -1, och varje xi är en attributvektor.

En stödvektormaskin med linjär kärna får vi då genom att finna det hyperplan (i det tvådimensionella fallet den linje) som maximalt separerar de två klasserna +1 och -1. Klassificeraren beskrivs då med hjälp av skalärprodukter med exempelvektorn och har den vanliga formen för en linjär klassificerare:

f(x) = \mathbf{sign} \sum \alpha_i \left\langle x_i, x \right\rangle + b

Ofta används inte den vanliga skalärprodukten (linjär kärna K(x_i, x) = \left\langle x_i, x\right\rangle) utan en skalärprodukt i ett högre rum (olinjär kärna K(x_i, x) = \left\langle \phi(x_i) , \phi(x) \right\rangle). Då finns inte hyperplanet i attributrummet självt utan i ett rum av högre dimension (se generaliserad linjär klassificerare).

Eftersom träningsdata ofta innehåller felaktigt klassificerade exempel ("brus") brukar man sätta en gräns C för hur stora konstanterna αi får bli, för att undvika överanpassning av klassificeraren.

För att finna hyperplanet löses ett kvadratiskt optimeringsproblem. Den vanligaste metoden att lösa optimeringsproblemet kallas SMO (sequential minimal optimisation) och är relativt enkel att implementera och snabb att lösa problemet.

[redigera] Externa länkar

Our "Network":

Project Gutenberg
https://gutenberg.classicistranieri.com

Encyclopaedia Britannica 1911
https://encyclopaediabritannica.classicistranieri.com

Librivox Audiobooks
https://librivox.classicistranieri.com

Linux Distributions
https://old.classicistranieri.com

Magnatune (MP3 Music)
https://magnatune.classicistranieri.com

Static Wikipedia (June 2008)
https://wikipedia.classicistranieri.com

Static Wikipedia (March 2008)
https://wikipedia2007.classicistranieri.com/mar2008/

Static Wikipedia (2007)
https://wikipedia2007.classicistranieri.com

Static Wikipedia (2006)
https://wikipedia2006.classicistranieri.com

Liber Liber
https://liberliber.classicistranieri.com

ZIM Files for Kiwix
https://zim.classicistranieri.com


Other Websites:

Bach - Goldberg Variations
https://www.goldbergvariations.org

Lazarillo de Tormes
https://www.lazarillodetormes.org

Madame Bovary
https://www.madamebovary.org

Il Fu Mattia Pascal
https://www.mattiapascal.it

The Voice in the Desert
https://www.thevoiceinthedesert.org

Confessione d'un amore fascista
https://www.amorefascista.it

Malinverno
https://www.malinverno.org

Debito formativo
https://www.debitoformativo.it

Adina Spire
https://www.adinaspire.com