Mitä puolueellisuus vaihtelee koneoppimisessa?



Tämä artikkeli kattaa koneoppimisen puolueellisuuden ja varianssin käsitteen niiden välisellä suhteella, joka määrittää mallin ennustavan tarkkuuden.

Sisään , mallin suorituskyky perustuu sen ennusteisiin ja siihen, kuinka hyvin se yleistää näkymättömiä, riippumattomia tietoja. Yksi tapa mitata mallin tarkkuus on pitää huomioon mallin ennakko- ja varianssi. Tässä artikkelissa opitaan, miten ennakko-varianssilla on tärkeä rooli mallin aitouden määrittämisessä. Tässä artikkelissa käsitellään seuraavia aiheita:

Pelkistämätön virhe

Mikä tahansa malli arvioidaan uuden riippumattoman, näkymättömän tietojoukon ennustusvirheen perusteella. Virhe ei ole muuta kuin todellisen ja ennustetun lähdön välinen ero. Virheen laskemiseksi teemme pelkistettävän ja pelkistämättömän virheen summauksen eli bias-varianssin hajoamisen.





Kääntymätön virhe ei ole muuta kuin virheitä, joita ei voida vähentää mistä tahansa riippumatta jota käytät mallissa. Sen aiheuttavat epätavalliset muuttujat, joilla on suora vaikutus ulostulomuuttujaan. Joten mallisi tehokkuuden takaamiseksi meillä on pienennettävä virhe, joka meidän on optimoitava hinnalla millä hyvänsä.

Pelkistettävällä virheellä on kaksi komponenttia - Bias ja varianssi , puolueellisuuden ja varianssin esiintyminen vaikuttavat mallin tarkkuuteen monin tavoin, kuten ylisovitus, alisovitus , jne.Tarkastelkaamme ennakkoluuloja ja variansseja ymmärtääksemme kuinka käsitellä vähennettävissä olevaa virhettä .



Mikä on puolueellisuus koneoppimisessa?

Bias on pohjimmiltaan kuinka pitkälle olemme ennustaneet arvon todellisesta arvosta. Sanomme, että puolueellisuus on liian suuri, jos keskimääräiset ennusteet ovat kaukana todellisista arvoista.

Suuri esijännitys saa algoritmin menettämään hallitsevan mallin tai suhteen tulo- ja lähtömuuttujien välillä. Kun esijännitys on liian suuri, oletetaan, että malli on melko yksinkertainen eikä ymmärrä tietojoukon monimutkaisuutta suhteen määrittämiseksi ja sitenaiheuttaen alivarustusta.

Varianssi koneoppimismallissa?

Itsenäiselle, näkymättömälle tietojoukolle tai vahvistusjoukolle. Kun malli ei toimi yhtä hyvin kuin koulutetulla tietojoukolla, on mahdollista, että mallilla on varianssi. Se kertoo pohjimmiltaan, kuinka ennustetut arvot ovat hajallaan todellisista arvoista.



Suuri varianssi tietojoukossa tarkoittaa, että malli on harjoittanut paljon melua ja epäolennaisia ​​tietoja. Täten aiheuttaen mallin ylisovittamisen. Kun mallin varianssi on suuri, siitä tulee erittäin joustava ja se antaa väärät ennusteet uusille datapisteille. Koska se on virittänyt itsensä harjoitusjoukon datapisteisiin.

Yritetään myös ymmärtää bias-varianssin käsite matemaattisesti. Olkoon muuttujan, jonka ennustamme olevan Y, ja muiden itsenäisten muuttujien olevan X. Oletetaan nyt, että kahden muuttujan välillä on suhde, joka:

mikä on actionlistener java

Y = f (X) + e

Yllä olevassa yhtälössä Here On on arvioitu virhe, jonka keskiarvo on 0. Kun teemme luokittelijan käyttämällä kaltaisia ​​algoritmeja lineaarinen regressio , , jne., odotettu neliövirhe kohdassa x on:

err (x) = Bias2+ Varianssi + pelkistämätön virhe

Ymmärtäkäämme myös, miten ennakko-varianssi vaikuttaa a Koneoppiminen mallin suorituskykyä.

oppia tietotekniikkaa askel askeleelta

Kuinka se vaikuttaa koneoppimiseen?

Bias-varianssin suhde voidaan sijoittaa neljään seuraavaan luokkaan:

  1. Suuri varianssi - suuri ennakkoluulo - Malli on epäjohdonmukainen ja myös keskimäärin epätarkka
  2. Matala varianssi - suuri ennakkoluulo - mallit ovat johdonmukaisia, mutta keskimäärin pieniä
  3. Suuri varianssi - matala ennakkoasento - Melko tarkka, mutta epäjohdonmukainen keskiarvoissa
  4. Matala varianssi - matala ennakkoluulot - Se on ihanteellinen skenaario, malli on keskimäärin johdonmukainen ja tarkka.

bias-varianssi koneoppimisessa-edureka

Vaikka ennakkoluulojen ja varianssien havaitseminen mallissa on melko ilmeistä. Suurella varianssilla varustetulla mallilla on pieni harjoitteluvirhe ja suuri validointivirhe. Ja jos kyseessä on suuri puolueellisuus, mallilla on suuri harjoitteluvirhe ja validointivirhe on sama kuin harjoitteluvirhe.

Vaikka havaitseminen näyttää helpolta, todellinen tehtävä on vähentää se minimiin. Siinä tapauksessa voimme tehdä seuraavaa:

  • Lisää lisää syöttöominaisuuksia
  • Monimutkaisempi ottamalla käyttöön polynomiominaisuudet
  • Pienennä laillistamisaikaa
  • Hanki enemmän harjoitustietoja

Nyt kun tiedämme mikä on puolueellisuus ja varianssi ja miten se vaikuttaa malliin, katsokaamme puolueellisuus-varianssi-kompromissi.

Bias-Variance-kompromissi

Oikean tasapainon löytämistä mallin puolueellisuuden ja varianssin välillä kutsutaan Bias-Variance-kompromissiksi. Se on pohjimmiltaan tapa varmistaa, ettei mallissa ole missään tapauksessa liian suurta tai liian vähäistä varustusta.

Jos malli on liian yksinkertainen ja siinä on hyvin vähän parametreja, se kärsii suuresta ennakkoarvosta ja pienestä varianssista. Toisaalta, jos mallilla on suuri määrä parametreja, sillä on suuri varianssi ja pieni esijännitys. Tämän kompromissin pitäisi johtaa täysin tasapainoiseen suhteeseen näiden kahden välillä. Ihannetapauksessa pieni koneellisuus ja pieni varianssi ovat minkä tahansa koneoppimismallin tavoite.

Yhteensä virhe

Missä tahansa koneoppimismallissa hyvä tasapaino ennakkoluulojen ja varianssien välillä toimii täydellisenä skenaariona ennustettavuuden tarkkuudessa ja ylikokemuksen välttämisessä. Optimaalinen tasapaino biasin ja varianssin välillä algoritmien monimutkaisuuden kannalta varmistaa, että mallia ei koskaan ylitetä tai soviteta lainkaan.

Keskimääräistä neliövirhettä tilastollisessa mallissa pidetään neliön poikkeaman ja varianssin ja virheen varianssina. Kaikki tämä voidaan sijoittaa kokonaisvirheeseen, jossa meillä on mallissa ennakkoluuloja, variansseja ja pelkistämättömiä virheitä.

Kerro meille, kuinka voimme vähentää kokonaisvirhettä käytännön toteutuksen avulla.

Olemme luoneet a lineaarinen regressio luokittelija että Lineaarinen regressio koneoppimisessa artikkeli Edurekasta käyttäen Datasets-moduulin diabeteksetietojoukkoa scikit oppia kirjasto.

Kun arvioimme luokittelijan keskimääräisen neliövirheen, saimme kokonaisvirheen noin 2500.

Kokonaisvirheen vähentämiseksi syötimme enemmän tietoja luokittelijaan ja vastineeksi keskimääräinen neliövirhe vähennettiin vuoteen 2000.

Se on yksinkertainen toteutus kokonaisvirheen vähentämiseksi syöttämällä malliin enemmän harjoitustietoja. Vastaavasti voimme käyttää muita tekniikoita vähentämään virheitä ja pitämään tasapainon puolueellisuuden ja varianssin välillä tehokkaassa koneoppimismallissa.

Tämä tuo meidät tämän artikkelin loppuun, jossa olemme oppineet Bias-Varianssin Machissaine Learning sen toteuttamis- ja käyttötapauksissa. Toivon, että olet selvillä kaikesta, mitä sinulle on jaettu tässä opetusohjelmassa.

Jos löysit tämän artikkelin aiheesta 'Bias-Variance In Machine Learning', tutustu artikkeliin luotettava verkko-oppimisyritys, jolla on yli 250 000 tyytyväisen oppijan verkosto, levinneenä ympäri maailmaa.

Autamme sinua matkan jokaisessa vaiheessa ja keksimme opetussuunnitelman, joka on suunniteltu opiskelijoille ja ammattilaisille, jotka haluavat olla . Kurssi on suunniteltu antamaan sinulle etumatka Python-ohjelmointiin ja kouluttamaan sinua sekä ydin- että edistyneille Python-käsitteille yhdessä muiden kanssa Kuten , , jne.

Jos kohtaat kysymyksiä, voit kysyä kaikki kysymyksesi “Bias-Variance In Machine Learning” -kommenttiosassa, ja tiimimme vastaa mielellään.

mikä on dynaaminen taulukko