Tweet Jaa Jaa

Viimeksi Päivitetty 20. elokuuta 2020 mennessä

Klusterointi tai klusterin analyysi on ilman valvontaa oppimisen ongelma.

Se on usein käytetty data-analyysi tekniikka löytämässä mielenkiintoisia kuvioita tietoja, kuten ryhmien asiakkaita perustuu niiden käyttäytymistä.

valittavana on monia klusterointialgoritmeja, eikä kaikissa tapauksissa ole yhtä parasta klusterointialgoritmia. Sen sijaan on hyvä tutkia erilaisia klusterointialgoritmeja ja erilaisia konfiguraatioita kullekin algoritmille.,

tässä opetussuunnitelmassa huomaat, miten Pythonin top clustering-algoritmit sopivat ja käytetään.

kun olet suorittanut tämän opetusohjelman, tiedät:

  • klusterointi on valvomaton ongelma luonnollisten ryhmien löytämisessä syöttötietojen ominaisavaruudesta.
  • on olemassa monia erilaisia klusterointialgoritmeja eikä yhtä ainoaa parasta menetelmää kaikille dataseteille.
  • Miten toteuttaa, fit, ja käyttää alkuun klusterointi algoritmit Python kanssa scikit-learn machine learning library.,

Kick-aloittaa projektin, jossa minun uusi kirja Machine Learning Mastery Python, mukaan lukien askel-askeleelta opetusohjelmia ja Python lähdekoodi tiedostot kaikki esimerkkejä.

aloitetaan.

Klusterointi Algoritmit Python
Kuva: Lars Plougmann, jotkut oikeudet pidätetään.,/div>

Opetusohjelma Yleistä

Tämä opetusohjelma on jaettu kolmeen osaan; ne ovat:

  1. Klusterointi
  2. Klusterointi Algoritmit
  3. Esimerkkejä Klusterointi Algoritmit
    1. Kirjasto Asennus
    2. Klusterointi Aineisto
    3. Affiniteetti Eteneminen
    4. Agglomerative Clustering
    5. KOIVU
    6. DBSCAN
    7. K-means
    8. Mini-Erä K-means
    9. Merkitse Muutos
    10. OPTIIKKA
    11. Spektrin Klusterointi
    12. Gaussian Mixture Model

Klusterointi

Cluster analysis, tai klusterointi, on ohjaamaton koneoppiminen tehtävä.,

siihen liittyy automaattisesti luonnollisen ryhmittelyn löytäminen tiedoissa. Toisin kuin valvottu oppiminen (kuten ennustava mallinnus), klusterointi algoritmit tulkita ainoastaan lähtötiedot ja löytää luonnollisia ryhmiä tai klustereita ominaisuus tilaa.

Klusterointi tekniikoita sovelletaan, kun ei ole luokan voida ennustaa vaan kun tapauksia on jaettu luonnollisia ryhmiä.

— Page 141, Data Mining: Practical Machine Learning Tools and Techniques, 2016.,

klusteri on usein alueen tiheys ominaisuus tila, jossa esimerkkejä domain (huomautukset tai rivien tiedot) ovat lähempänä klusterin kuin muut klusterit. Klusteri voi olla center (centroid), joka on näyte tai kohta ominaisuus tilaa ja voi olla rajat tai laajuuden.

Nämä klusterit oletettavasti heijastaa joitakin mekanismi töissä alalla, josta tapauksia on piirretty, mekanismi, joka aiheuttaa joissain tapauksissa oltava vahvempi muistuta toisiaan kuin he tekevät loput esiintymät.,

— sivut 141-142, tiedonlouhinta: käytännön koneoppimisen Työkalut ja tekniikat, 2016.

Klusterointi voi olla hyödyllistä, kuten tietojen analysointi toimintaa, jotta lisätietoja ongelmasta domain, niin sanottu pattern discovery tai tietoa löytö.

esimerkiksi:

  • fylogeneettinen puu voidaan pitää tulosta manuaalinen klustereiden analyysiin.
  • normaalien tietojen erottamista poikkeavista tai poikkeavista voidaan pitää klusterointiongelmana.,
  • klusterien erottelu niiden luonnollisen käyttäytymisen perusteella on klusterointiongelma, jota kutsutaan markkinoiden segmentoitumiseksi.

Klusterointi voi olla hyödyllinen myös eräänlainen ominaisuus suunnittelu, jossa olemassa olevia ja uusia esimerkkejä voi olla kartoitettu ja merkitty kuuluvaksi johonkin tunnistaa klustereita tiedot.

tunnistettujen klusterien arviointi on subjektiivista ja saattaa vaatia toimialueen asiantuntijaa, vaikka monia klusterikohtaisia määrällisiä toimenpiteitä on olemassa., Tyypillisesti klusterointialgoritmeja verrataan akateemisesti synteettisiin datasetteihin ennalta määritellyillä klustereilla, jotka algoritmin odotetaan löytävän.

Klusterointi on ohjaamaton oppiminen tekniikkaa, joten on vaikea arvioida laatua lähtö tietyn menetelmä.

— Sivu 534, Machine Learning: A Probabilistic Näkökulmasta, 2012.

Klusterointialgoritmeja

on monenlaisia klusterointialgoritmeja.,

Monet algoritmit käyttää samankaltaisuutta tai etäisyyttä toimenpiteiden välillä esimerkkejä ominaisuus tilaa yrittäessään löytää tiheä alueilla havaintoja. Sellaisenaan datan skaalaaminen ennen klusterointialgoritmien käyttöä on usein hyvä käytäntö.

Keski-kaikkia tavoitteita klusterin analyysi on käsite samankaltaisuus (tai erilaisuus) välillä yksittäisiä esineitä on ryhmitelty. Klusterointimenetelmä yrittää ryhmitellä objektit sille toimitetun samankaltaisuuden määritelmän perusteella.,

— Sivu 502, The Elements of Statistical Learning: Data Mining, Päättely, ja Ennustus, 2016.

Jotkut klusterointi algoritmit vaativat voit määrittää tai arvaus määrä klustereita löytää tiedot, kun taas toiset vaativat erittely jotkut pienin etäisyys havaintoja, jotka esimerkkejä voidaan pitää ”lähellä” tai ”yhteydessä.,”

sellaisenaan klusterianalyysi on iteratiivinen prosessi, jossa yksilöityjen klusterien subjektiivinen arviointi syötetään takaisin algoritmin konfiguraation muutoksiin, kunnes haluttu tai asianmukainen tulos saavutetaan.

scikit-learn library tarjoaa valikoiman erilaisia klusterointialgoritmeja, joista valita.,

luettelo 10 enemmän suosittu algoritmeja on seuraava:

  • Affiniteetti Eteneminen
  • Agglomerative Clustering
  • KOIVU
  • DBSCAN
  • K-means
  • Mini-Erä K-means
  • Merkitse Muutos
  • OPTIIKKA
  • Spektrin Klusterointi
  • Sekoitus Gaussians

Jokainen algoritmi tarjoaa erilaisen lähestymistavan haasteena on löytää luonnollinen ryhmien tiedot.

ei ole olemassa parasta klusterointialgoritmia, eikä ole helppoa tapaa löytää parasta algoritmia tiedoillesi ilman kontrolloituja kokeita.,

tässä opetussuunnitelmassa käydään läpi, miten näitä 10 suosittua klusterointialgoritmia käytetään scikit-learn-kirjastosta.

esimerkit antavat pohjan esimerkkien kopioinnille ja menetelmien testaamiselle omilla tiedoilla.

emme sukella teoriaan sen takana, miten algoritmit toimivat tai vertaile niitä suoraan. Hyvä lähtökohta aiheesta:

  • Klustering, scikit-learn API.

Let ’ s dive in.,

Esimerkkejä Klusterointi Algoritmit

tässä osiossa tarkastelemme, miten käyttää 10 suosittu klusterointi algoritmit vuonna scikit-learn.

tähän sisältyy esimerkki mallin sovittamisesta ja esimerkki tuloksen visualisoinnista.

esimerkit on suunniteltu kopioimaan-liitä omaan projektiin ja soveltamaan menetelmiä omiin tietoihisi.

Kirjastoinstallaatio

ensin, asennetaan kirjasto.

älä ohita tätä vaihetta, koska sinun on varmistettava, että uusin versio on asennettu.,>

1
sudo pip install scikit-learn

For additional installation instructions specific to your platform, see:

  • Installing scikit-learn

Next, let’s confirm that the library is installed and you are using a modern version.,

suorita seuraava skripti tulostaaksesi kirjaston versionumeron.,

1
2
3

# tarkista scikit-learn versio
tuo sklearn
print(sklearn.,__versio__)

Running esimerkiksi, sinun pitäisi nähdä seuraava versio numero tai korkeampi.

1
0.22.,1

Klusterointi Aineisto

käytämme make_classification () – funktio luo testi binary luokittelu aineisto.

aineistossa on 1 000 esimerkkiä, joissa on kaksi syöttöominaisuutta ja yksi klusteri per luokka. Klusterit ovat visuaalisesti ilmeinen kaksi ulottuvuutta, niin voimme juoni tietoja sirontakuvio ja väri pistettä juoni määritetty klusterin. Tämä auttaa näkemään ainakin testiongelman osalta, miten ”hyvin” klusterit tunnistettiin.,

klusterit tässä testissä ongelma perustuvat monimuuttuja Gaussin, ja kaikki klusterointi algoritmit tehokkaasti tunnistaa nämä tyypit klustereita. Sellaisenaan, tulokset tässä opetusohjelma ei pitäisi käyttää perustana vertailuun menetelmiä yleensä.

alla on esimerkki synteettisten klusterointitietojen luomisesta ja tiivistämisestä.

Käynnissä oleva esimerkki luo synteettinen klusterointi aineisto, sitten luo sirontakuvio lähtötiedot pistettä värittää class label (idealisoitu klustereita).,

Voimme selvästi nähdä kaksi erillistä ryhmää tiedot kaksi ulottuvuutta ja toivoa, olisi, että automaattinen klusterointi algoritmi voi tunnistaa nämä ryhmittymät.

Scatter Tontti Synteettinen Klusterointi Aineisto Pistettä Värittää Tunnettu Klusterin

Seuraavaksi voimme alkaa tarkastella esimerkkejä klusterointi algoritmit soveltaa tässä aineistossa.

olen tehnyt joitakin minimaalisia yrityksiä virittää jokainen menetelmä datasetille.

Saatko paremman tuloksen yhdelle algoritmeista?
kerro alla olevissa kommenteissa.,

Affiniteetti Eteneminen

Affiniteetti Eteneminen liittyy löytää joukko esikuvia, joka parhaiten tiivistää tiedot.

– Olemme kehittäneet menetelmää, jota kutsutaan ”affiniteetti lisääminen”, joka ottaa syötteenä toimenpiteiden samankaltaisuus paria tietojen pistettä. Reaaliarvoinen viestit ovat välillä vaihdettujen tietojen pistettä, kunnes laadukas joukko esikuvia ja vastaavia klustereita nousee vähitellen,

— Klusterointi Kulkee Viestien Välillä Tietojen Pistettä, 2007.,

tekniikka on kuvattu kirjassa:

  • Klusterointi Kulkee Viestien Välillä Tietojen Pistettä, 2007.

Se on toteutettu kautta AffinityPropagation luokan ja tärkein kokoonpano virittää on ”vaimennus” asettaa välillä 0,5 ja 1, ja ehkä ”etusija.”

täydellinen esimerkki on alla.

Running esimerkiksi sopii malli koulutus-datajoukon ja ennustaa klusterin kunkin esimerkin aineisto. Scatter-juoni luodaan sitten pisteillä, joita värittää niiden määritetty klusteri.

tässä tapauksessa en päässyt hyvään tulokseen.,

Scatter Tontti Aineisto Klustereita Tunnistetaan Käyttämällä Affinity Propagation

Agglomerative Clustering

Agglomerative clustering liittyy sulautuvan esimerkkejä, kunnes haluttu määrä klustereita on saavutettu.

Se on osa laajempaa luokan hierarkkinen klusterointi menetelmiä ja voit oppia lisää täältä:

  • Hierarkkinen klusterointi, Wikipedia.,

Se on toteutettu kautta AgglomerativeClustering luokan ja tärkein kokoonpano virittää on ”n_clusters” asettaa, arvio määrä klustereita tiedot, esim. 2.

täydellinen esimerkki on alla.

Running esimerkiksi sopii malli koulutus-datajoukon ja ennustaa klusterin kunkin esimerkin aineisto. Scatter-juoni luodaan sitten pisteillä, joita värittää niiden määritetty klusteri.

tässä tapauksessa löytyy kohtuullinen ryhmittely.,

Scatter Tontti Aineisto Klustereita Tunnistetaan Käyttämällä Agglomerative Clustering

KOIVU

KOIVU Klusterointi (KOIVU on lyhyt Tasapainoinen Iteratiivinen Vähentää ja Klusterointia käyttäen
Hierarkiat) liittyy rakentaa puurakenne, josta cluster centroids ovat uutettu.

KOIVU vähitellen ja dynaamisesti klustereita saapuvat multi-ulotteinen metrinen tiedot pistettä yrittää tuottaa parasta laatua klusterointi, jossa käytettävissä olevat resurssit (en. e.,, käytettävissä oleva muisti ja aikarajoitukset).

— KOIVU: tehokas tietojen klusterointi menetelmä suuria tietokantoja, 1996.

tekniikka on kuvattu kirjassa:

  • KOIVU: tehokas tietojen klusterointi menetelmä suuria tietokantoja, 1996.

Se on toteutettu kautta Koivu luokan ja tärkein kokoonpano virittää on ”kynnys” ja ”n_clusters” hyperparameters, joista jälkimmäinen tarjoaa arvio määrä klustereita.

täydellinen esimerkki on alla.,

Running esimerkiksi sopii malli koulutus-datajoukon ja ennustaa klusterin kunkin esimerkin aineisto. Scatter-juoni luodaan sitten pisteillä, joita värittää niiden määritetty klusteri.

tässä tapauksessa löytyy erinomainen ryhmitys.,

Scatter Tontti Aineisto Klustereita Tunnistetaan Käyttämällä KOIVU Klusterointi

DBSCAN

DBSCAN Klusterointi (jossa DBSCAN on lyhyt Density-Based Spatial Clustering Sovelluksia Melu) löytyminen korkean tiheyden alueita domain ja laajentaa niitä alueita ominaisuus tilaa ympärilleen kuin klusterit.

– meidän esitellä uusi klusterointi algoritmi DBSCAN vedoten tiheys-pohjainen käsite klustereita, jotka on suunniteltu löytää klustereita mielivaltainen muoto., DBSCAN vaatii vain yksi input-parametri ja tukee käyttäjän määritettäessä sopiva arvo, sillä se

— Tiheys-Pohjainen Algoritmi Löytää Klustereita Suuria Maankäytön Tietokantojen kanssa Melua, 1996.

tekniikka on kuvattu kirjassa:

  • Tiheys-Pohjainen Algoritmi Löytää Klustereita Suuria Maankäytön Tietokantojen kanssa Melua, 1996.

Se on toteutettu kautta DBSCAN-luokan ja tärkein kokoonpano virittää on ”eps” ja ”min_samples” hyperparameters.

täydellinen esimerkki on alla.,

Running esimerkiksi sopii malli koulutus-datajoukon ja ennustaa klusterin kunkin esimerkin aineisto. Scatter-juoni luodaan sitten pisteillä, joita värittää niiden määritetty klusteri.

tässä tapauksessa löytyy järkevä ryhmittymä, vaikka viritystä tarvitaan lisää.,

Scatter Tontti Aineisto Klustereita Tunnistetaan Käyttämällä DBSCAN Klusterointi

K-means

K-means Klusterointi voi olla kaikkein laajalti tunnettu klusterointi algoritmi ja liittyy määrittäminen esimerkkejä klustereiden pyrkimys minimoida varianssi kunkin klusterin.

tärkein tämän kirjan tarkoituksena on kuvata prosessi, jolla osiointi N-ulotteinen väestön osaksi k-sarjaa perusteella näyte., Prosessi, joka on nimeltään ’k-means,’ tulee antaa osioita, jotka ovat kohtuullisen tehokas siinä mielessä, että sisällä-luokan varianssi.

— Joitakin menetelmiä luokittelu ja analyysi monimuuttuja havaintoja, 1967.

tekniikka on kuvattu täällä:

  • k-means klusterointi, Wikipedia.

Se on toteutettu kautta KMeans-luokan ja tärkein kokoonpano virittää on ”n_clusters” hyperparameter asetettu arvioitu määrä klustereita tiedot.

täydellinen esimerkki on alla.,

Running esimerkiksi sopii malli koulutus-datajoukon ja ennustaa klusterin kunkin esimerkin aineisto. Scatter-juoni luodaan sitten pisteillä, joita värittää niiden määritetty klusteri.

tässä tapauksessa, järkevä ryhmittely on löytynyt, vaikka epätasainen yhtä suuri varianssi jokainen ulottuvuus tekee menetelmä, vähemmän sopivia tähän datajoukkoon.,

Scatter Tontti Aineisto Klustereita Tunnistetaan Käyttäen K-means Klusterointi,

Mini-Erä K-means

Mini-Erä K-means on muokattu versio k-tarkoittaa, että tekee päivitykset cluster centroids käyttäen mini-erien näytteistä eikä koko aineisto, joka voi tehdä sen nopeammin suuria aineistoja, ja ehkä enemmän vankka tilastollinen melua.

– me ehdottaa käyttää mini-erän optimointi k-means klusterointi., Tämä vähentää laskenta kustannusten suuruusluokkaa verrattuna klassinen erä-algoritmi taas tuottaa merkittävästi parempia ratkaisuja kuin verkossa stokastinen kaltevuus laskeutuminen.

— Web-Asteikko K-means Klusterointi, 2010.

tekniikka on kuvattu kirjassa:

  • Web-Asteikko K-means Klusterointi, 2010.

Se on toteutettu kautta MiniBatchKMeans luokan ja tärkein kokoonpano virittää on ”n_clusters” hyperparameter asetettu arvioitu määrä klustereita tiedot.

täydellinen esimerkki on alla.,

Running esimerkiksi sopii malli koulutus-datajoukon ja ennustaa klusterin kunkin esimerkin aineisto. Scatter-juoni luodaan sitten pisteillä, joita värittää niiden määritetty klusteri.

tässä tapauksessa löytyy standardia k-means-algoritmia vastaava tulos.

Scatter Tontti Aineisto Klustereita Tunnistetaan Käyttämällä Mini-Erä K-means Klusterointi,

Mean Shift

Mean shift klusterointi löytyminen ja sopeutuminen centroids, joka perustuu tiheys esimerkkejä ominaisuus tilaa.,

Me todistaa, diskreetti tiedot lähentyminen rekursiivinen mean shift menettelyllä lähimpään pisteeseen taustalla tiheysfunktio ja siten sen hyödyllisyys havaitsemisessa eri tiheys.

— Mean Shift: vankka lähestymistapa kohti ominaisuus tilaa analyysi, 2002.

tekniikka on kuvattu kirjassa:

  • Tarkoittaa Vaihto: vankka lähestymistapa kohti ominaisuus tilaa analyysi, 2002.

Se on toteutettu kautta MeanShift luokan ja tärkein kokoonpano virittää on ”kaistanleveys” hyperparameter.,

täydellinen esimerkki on alla.

Running esimerkiksi sopii malli koulutus-datajoukon ja ennustaa klusterin kunkin esimerkin aineisto. Scatter-juoni luodaan sitten pisteillä, joita värittää niiden määritetty klusteri.

tässä tapauksessa aineistosta löytyy kohtuullinen joukko klustereita.,

Scatter Tontti Aineisto Klustereita Tunnistetaan Käyttämällä Tarkoita Vaihto Klusterointi

OPTIIKKA

OPTIIKKA klusterointi (jossa OPTIIKKA on lyhyt Tilaus Pistettä Tunnistamaan Klustereiden Rakenne) on muokattu versio DBSCAN edellä on kuvattu.

otamme käyttöön uuden algoritmin varten klusterin analyysi, joka ei tuota klusterointi aineiston asettaa eksplisiittisesti, mutta sen sijaan luo lisätyn tilaaminen tietokantaan eli sen tiheys perustuva klusterointi rakenne., Tämä klusterin tilaaminen sisältää tietoja, jotka vastaavat tiheyspohjaisia klusterointeja, jotka vastaavat monenlaisia parametriasetuksia.

— OPTIIKKA: tilaaminen pistettä tunnistamaan klustereiden rakenne, 1999.

tekniikka on kuvattu kirjassa:

  • OPTIIKKA: tilaaminen pistettä tunnistamaan klustereiden rakenne, 1999.

Se on toteutettu kautta OPTIIKKA luokan ja tärkein kokoonpano virittää on ”eps” ja ”min_samples” hyperparameters.

täydellinen esimerkki on alla.,

Running esimerkiksi sopii malli koulutus-datajoukon ja ennustaa klusterin kunkin esimerkin aineisto. Scatter-juoni luodaan sitten pisteillä, joita värittää niiden määritetty klusteri.

tässä tapauksessa en voinut saavuttaa kohtuullista tulosta tässä aineistossa.

Scatter Tontti Aineisto Klustereita Tunnistetaan Käyttämällä OPTIIKKA Klusterointi

Spektrin Klusterointi

Spektrin Klusterointi on yleinen luokka klusterointi menetelmiä, vetää lineaarinen algebra.,

lupaava vaihtoehto, joka on viime aikoina syntynyt useita aloja on käyttää spektrin menetelmiä klusterointi. Tässä käytetään pisteiden välisestä etäisyydestä johdetun matriisin ylimpiä eigenvektoreita.

— Spektrinen Klusterointi: Analysis ja algoritmi, 2002.

tekniikka on kuvattu kirjassa:

  • Spektrinen Klusterointi: Analysis ja algoritmi, 2002.,

Se on toteutettu kautta SpectralClustering luokan ja tärkein Spektrin Klusterointi on yleinen luokka klusterointi menetelmiä, vetää lineaarinen algebra. virittää on” n_clusters ” hyperparametri, jota käytetään määrittämään arvioitu määrä klustereita tiedot.

täydellinen esimerkki on alla.

Running esimerkiksi sopii malli koulutus-datajoukon ja ennustaa klusterin kunkin esimerkin aineisto. Scatter-juoni luodaan sitten pisteillä, joita värittää niiden määritetty klusteri.

tässä tapauksessa löytyi järkeviä klustereita.,

Scatter Tontti Aineisto Klustereita Tunnistetaan Käyttämällä Spectra Klusterointi Klusterointi

Gaussian Mixture Model

Gaussian mixture model yhteenveto monimuuttuja-todennäköisyystiheysfunktion seoksella Gaussin todennäköisyys jakaumat, kuten nimestäkin voi päätellä.

Lisää mallista, Katso:

  • seosmalli, Wikipedia.,

Se on toteutettu kautta GaussianMixture luokan ja tärkein kokoonpano virittää on ”n_clusters” hyperparameter käyttää määrittää arvioitu määrä klustereita tiedot.

täydellinen esimerkki on alla.

Running esimerkiksi sopii malli koulutus-datajoukon ja ennustaa klusterin kunkin esimerkin aineisto. Scatter-juoni luodaan sitten pisteillä, joita värittää niiden määritetty klusteri.

tässä tapauksessa voidaan nähdä, että klusterit tunnistettiin täydellisesti., Tämä ei ole yllättävää, kun otetaan huomioon, että aineisto syntyi gaussilaisten sekoituksena.

Scatter Tontti Aineisto Klustereita Tunnistetaan Käyttämällä Gaussin Seos Klusterointi

kirjallisuutta

Tämä osa sisältää enemmän resursseja aiheesta jos etsit mennä syvemmälle.

Papers

  • Clustering viestittelemällä datapisteiden välillä, 2007.
  • BIRCH: an efficient data clustering method for large databases, 1996.,
  • Tiheyspohjainen algoritmi suurten Paikkatietokantojen klustereiden löytämiseen melulla, 1996.
  • joitakin monimuuttujahavaintojen luokittelumenetelmiä ja analyysimenetelmiä, 1967.
  • Verkkoasteikko K-Means Clustering, 2010.
  • Mean Shift: a robust approach to feature space analysis, 2002.
  • on Spectral Clustering: Analysis and an algorithm, 2002.

Kirjat

  • tiedonlouhinta: käytännön koneoppimisen Työkalut ja tekniikat, 2016.
  • tilastollisen oppimisen elementit: tiedonlouhinta, päättely ja ennustaminen, 2016.,
  • Machine Learning: A Probabilistic Perspective, 2012.

APIs

  • Klusterointi, scikit-learn API.
  • sklearn.tietojoukko.make_classification API.
  • sklearn.cluster API.

Artikkelit

  • Klusterin analyysi, Wikipedia.
  • Hierarkkinen klusterointi, Wikipedia.
  • k-tarkoittaa klusterointia, Wikipediaa.
  • Sekoitusmalli, Wikipedia.

Yhteenveto

tässä opetussuunnitelmassa selvitit, miten Pythonin top clustering-algoritmeja voi sovittaa ja käyttää.,

Erityisesti, opit:

  • Klusterointi on ilman valvontaa ongelma löytää luonnollinen ryhmien ominaisuus tilaa lähtötietoja.
  • on olemassa monia erilaisia klusterointialgoritmeja, eikä yhtä ainoaa parasta menetelmää kaikille dataseteille.
  • Miten toteuttaa, fit, ja käyttää alkuun klusterointi algoritmit Python kanssa scikit-learn machine learning library.

onko sinulla kysyttävää?
kysy kysymyksesi alla olevissa kommenteissa ja teen parhaani vastatakseni.

Löydä Nopeasti Machine Learning Python!,

Kehittää Omia Malleja Minuuttia

…vain muutaman rivin scikit-learn code

Lue, miten minun uusi Ebook:
Machine Learning Mastery Python

Kattaa self-opinto-oppaat ja end-to-end hankkeita, kuten:
Lastaus tietoja, visualisointi, mallintaminen, viritys ja paljon muuta…

tuo Koneoppiminen lopulta
omille projekteille

Skip the Academics. Vain Tuloksia.

Nähdä, Mitä on Sisällä

Tweet Jaa Jaa

Articles

Vastaa

Sähköpostiosoitettasi ei julkaista. Pakolliset kentät on merkitty *