Språk :
SWEWE Medlem :Inloggning |Registrering
Sök
Encyclopedia gemenskap |Encyclopedia Svar |Submit fråga |Ordförråd Kunskap |Överför kunskap
Föregående 1 Nästa Välj Sidor

Support Vector Machine

SVM (Support Vector Machine, SVM) är lika med Corinna Cortes och Vapnik8 först föreslogs 1995, tar det det lilla urvalet, olinjära och höga dimensionella Pattern Recognition uppvisar många unika fördelar, och för att kunna främja tillämpningen att fungera aggregerade och andra maskinverktyg inlärningsproblem.

Kort introduktion

Support Vector Machine Metoden bygger på statistisk inlärningsteori och struktur VC dimension teori bygger på principen om riskminimering, baserat på ett begränsat urval av information modellens komplexitet (dvs. särskilda utbildningsprogram prover för lärande noggrannhet) och inlärningsförmåga (dvs. inget fel möjlighet att identifiera eventuella prover) för att hitta den bästa kompromissen mellan, för att få den bästa generalisering förmåga.

Kunskap

Vi vill ofta att klassificera processen är en maskin inlärningsprocess. Dessa datapunkter är n-dimensionell verkliga rymden punkt Vi hoppas att kunna sätta dessa punkter genom en n-1 dimensionella hyperplan isär. Vanligtvis kallas en linjär klassificerare. Det finns många klassificerare är i linje med detta krav. Men vi vill också att hitta den bästa klassificeringen av planet, även med tillhörande två olika klasser av datapunkter som den största ytan intervall, planet också känd som den största marginalen hyperplanet. Om vi ​​kan hitta den ytan, då den klassificerare som kallas högsta marginal klassificerare.Stötta orsaka

Support vektor maskin vektorer mappas till en högre dimensionell rymd, i detta utrymme för att inrätta en högsta marginal hyperplan. Uppgifterna i den separata sidor hyperplanet har två inbördes parallella hyperplan. Upprätta en lämplig riktning för att göra två separata hyperplan parallellt för att maximera avståndet mellan hyperplanet. Antagandet är, att avståndet mellan de parallella hyperplan eller ju större gapet, ju mindre det totala felet av klassificerare. En utmärkt guide är CJC Burges "mönsterigenkänning SVM Guide."

Support vektor Översikt

De så kallade support vektorer är de vid kanten av utbildningen sampelintervall punkten. Här är "maskinen (maskin, maskin)" är faktiskt en algoritm. Inom maskininlärning, vissa algoritmer ses ofta som en maskin.

SVM (Support Vector Machines, SVM) och neurala nätverk liknande, lär mekanism, men det neurala nätverket skiljer SVM hjälp av matematiska metoder och tekniker optimering.

Tekniskt stöd

Support Vector Machine leds av Vapnik AT & TBell laboratorium forskargrupp föreslog 1995 ett nytt mycket lovande klassificeringen teknik, är SVM bygger på statistisk inlärningsteori mönsterigenkänning metod, främst inom mönsterigenkänning . Eftersom dessa studier är ännu inte perfekt, i mönsterigenkänning problemlösning är ofta konservativa och abstrakta matematiska jämförelse av dessa studier har inte helt uppskattat. Fram till 1990-talet, eftersom den statistiska inlärningsteori (Statistical Learning Theory, SLT) och förverkligandet av neurala nätverk jämfört med nya metoder för maskininlärning några viktiga svårigheter, t.ex. hur man bestämmer nätverksstruktur av problemet, over-lärande och lärande problem på grund , lokala minima problem, vilket gör den snabb utveckling och förbättring av SVM att lösa små provmängder, olinjära och hög dimensionella mönster problem med erkännande i utförandet av många unika fördelar, och kunna främja tillämpningen att fungera montering och andra maskinverktyg inlärningsproblem . Sedan dess har utvecklats snabbt, är nu på många områden (bioinformatik, text och handskrift, etc.) har gjort en lyckad ansökan.

Att lösa olinjära inversion geofysiska inversion som har betydande resultat, såsom (support vektor maskiner i förutsägelsen av vatten inflöde av grundvatten problem). Algoritmen är nu känt som skall tillämpas är: oljekälla logga dataloggning med predict porositet och lerhalt, väder och så vidare.

Support Vector Machines är en stor höjdpunkt av optimeringsproblem i traditionella dualitetsteori föreslås, finns det högsta och lägsta Lagrangedualitet.

Nyckeln ligger i SVM kernel-funktionen. Låg-dimensionell rymd vektor uppsättning ofta svårt division, är lösningen att mappa dem till hög-dimensionell rymd. Men denna strategi är att de svårigheter som orsakas av den ökade beräkningskomplexitet, medan kärnan fungerar bara smart lösning på detta problem. Det är, så länge som valet av lämplig kernel-funktionen, kan du få en hög-dimensionell funktion rymden klassificering. I SVM teorin, kommer att använda olika kernel funktioner resultera i olika SVM algoritm.

"Network dold kanal upptäckt teknik"

Efter bestämning av kärn-funktionen, som kallas kärnan funktion för att fastställa att det finns några fel i uppgifterna, med hänsyn tagen till frågor marknadsföring, så införandet av avslappning koefficient och straffet koefficient som skall rättas två referensvariabler. Vid fastställandet grundval av kernel-funktionen, och sedan genom ett stort antal jämförande experiment planeras äga dessa två faktorer, den studie avslutad i grunden, inom lämpligt program eller affärsrelaterade discipliner, och det finns en viss förmåga till ökad resistens. Naturligtvis är felet absoluta, olika discipliner och olika professionella krav varierar.


Föregående 1 Nästa Välj Sidor
Användare Omdöme
Inga kommentarer
Jag vill kommentera [Besökare (44.192.*.*) | Inloggning ]

Språk :
| Kontrollera kod :


Sök

版权申明 | 隐私权政策 | Copyright @2018 World uppslagsverk kunskap