Ml In Ai

20 najboljših algoritmov, metod in tehnik AI in strojnega učenja

Top 20 Ai Machine Learning Algorithms

Domov ML in AI 20 najboljših algoritmov, metod in tehnik AI in strojnega učenja Avtor:Mehedi Hasan VPredstavljenoML in AI 1361 1

VSEBINA

  1. Najboljši algoritmi AI in strojnega učenja
    1. 1. Naivni Bayes
    2. 2. Podprite vektorski stroj
    3. 3. Linearna regresija
    4. 4. Logistična regresija
    5. 5. K-najbližji sosed (KNN)
    6. 6. K-pomeni
    7. 7. Drevo odločitev
    8. 8. Naključni gozd
    9. 9. VOZIČEK
    10. 10. Apriori algoritem strojnega učenja
    11. 11. Analiza glavnih komponent (PCA)
    12. 12. CatBoost
    13. 13. Iteracijski dihotomizer 3 (ID3)
    14. 14. Hierarhično združevanje v gruče
    15. 15. Povratno širjenje
    16. 16. AdaBoost
    17. 17. Globoko učenje
    18. 18. Algoritem za povečanje gradienta
    19. 19. Omrežje Hopfield
    20. 20. C4.5
    21. Konec misli

Ko sem začel delati s težavami strojnega učenja, me je panika, kateri algoritem naj uporabim? Ali katero je enostavno uporabiti? Če ste podobni meni, vam bo ta članek morda pomagal spoznati algoritme, metode ali tehnike za umetno inteligenco in strojno učenje za reševanje vseh nepričakovanih ali celo pričakovanih težav.





Strojno učenje je tako močna tehnika AI, ki lahko učinkovito opravi nalogo brez uporabe izrecnih navodil. Model ML se lahko uči iz svojih podatkov in izkušenj. Aplikacije za strojno učenje so samodejne, robustne in dinamične. Za reševanje te dinamične narave resničnih težav je razvitih več algoritmov. Na splošno obstajajo tri vrste algoritmov strojnega učenja, kot so nadzorovano učenje, nenadzorovano učenje in okrepljeno učenje.

Najboljši algoritmi AI in strojnega učenja


Izbira ustrezne tehnike ali metode strojnega učenja je ena glavnih nalog pri razvoju projekt umetne inteligence ali strojnega učenja . Ker je na voljo več algoritmov in vsi imajo svoje prednosti in uporabnost. Spodaj pripovedujemo 20 algoritmov strojnega učenja za začetnike in profesionalce. Torej, poglejmo.





1. Naivni Bayes


Naivni Bayesov klasifikator je verjetnostni klasifikator, ki temelji na Bayesov izrek , s predpostavko neodvisnosti med značilnostmi. Te funkcije se razlikujejo od aplikacije do aplikacije. To je ena izmed udobnih metod strojnega učenja za začetnike.

Naive Bayes je model pogojne verjetnosti. Glede na problem, ki ga je treba razvrstiti, ga predstavlja vektor x = ( x jaz . . . x n ) ki predstavlja nekaj n lastnosti (neodvisne spremenljivke), trenutnemu primerku dodeli verjetnosti za vsakega od K potencialnih rezultatov:



naivni bayes 1Težava pri zgornji formulaciji je v tem, da če je število značilnosti n pomembno ali če lahko element prevzame veliko število vrednosti, potem utemeljitev takega modela na verjetnostnih tabelah ni mogoča. Zato smo model preoblikovali, da bo bolj sledljiv. Pogojno verjetnost lahko z Bayesovim izrekom zapišemo kot:

naivni bayes 2

Z uporabo Bayesove terminološke verjetnosti lahko zgornjo enačbo zapišemo kot:

naivni bayes 3

Ta algoritem umetne inteligence se uporablja pri razvrščanju besedil, to je analizi občutkov, kategorizaciji dokumentov, filtriranju neželene pošte in razvrščanju novic. Ta tehnika strojnega učenja se dobro obnese, če so vhodni podatki razvrščeni v vnaprej določene skupine. Prav tako zahteva manj podatkov kot logistična regresija. Odlikuje se na različnih področjih.

2. Podprite vektorski stroj


Support Vector Machine (SVM) je eden najpogosteje uporabljenih nadzorovanih algoritmov strojnega učenja na področju razvrščanja besedil. Ta metoda se uporablja tudi za regresijo. Lahko ga imenujemo tudi podporna vektorska omrežja. Cortes & Vapnik je to metodo razvil za binarno klasifikacijo. Model nadzorovanega učenja je pristop strojnega učenja, ki sklepa o rezultatih označenih podatkov o usposabljanju.

svm

Podporni vektorski stroj konstruira hiperravnino ali niz hiperplanov na zelo visokem ali neskončno dimenzionalnem območju. Izračuna linearno ločitveno površino z največjo mejo za določeno vadbeno garnituro.

Le podmnožica vhodnih vektorjev bo vplivala na izbiro marže (obkroženo na sliki); take vektorje imenujemo podporni vektorji. Če linearna ločevalna površina ne obstaja, na primer ob prisotnosti hrupnih podatkov, so primerni algoritmi SVM s spremenljivo spremenljivko. Ta klasifikator poskuša razdeliti podatkovni prostor z uporabo linearnih ali nelinearnih razmejitev med različnimi razredi.

kalkulator neto sedanje vrednosti v

SVM se je pogosto uporabljal pri problemih klasifikacije vzorcev in nelinearne regresije. Je tudi ena najboljših tehnik za samodejno kategorizacijo besedila. Najboljša stvar pri tem algoritmu je, da ne podaja močnih predpostavk o podatkih.

Za izvajanje Support Vector Machine: knjižnice podatkovnih zbirk v Pythonu - SciKit Learn, PyML, SVMStruktKnjižnice Python, LIBSVM in podatkovne znanosti v R - Klar, e1071.

3. Linearna regresija


linearna regresija

Linearna regresija je neposreden pristop, ki se uporablja za modeliranje odnosa med odvisno spremenljivko in eno ali več neodvisnimi spremenljivkami. Če obstaja ena neodvisna spremenljivka, se imenuje preprosta linearna regresija. Če je na voljo več neodvisnih spremenljivk, se temu reče večkratna linearna regresija.

Ta formula se uporablja za oceno realnih vrednosti, kot so cena stanovanj, število klicev, skupna prodaja na podlagi stalnih spremenljivk. Tu se razmerje med neodvisnimi in odvisnimi spremenljivkami vzpostavi z ujemanjem najboljše črte. Ta najprimernejša črta je znana kot regresijska črta in je predstavljena z linearno enačbo

Y = a * X + b.

tukaj,

  • Y - odvisna spremenljivka
  • a - pobočje
  • X - neodvisna spremenljivka
  • b - prestreči

Ta metoda strojnega učenja je enostavna za uporabo. Izvaja se hitro. To se lahko uporablja v podjetjih za napovedovanje prodaje. Uporablja se lahko tudi pri oceni tveganja.

4. Logistična regresija


logistična regresija

Tu je še en algoritem strojnega učenja - logistična regresija ali logit regresija, ki se uporablja za oceno diskretnih vrednosti (binarne vrednosti, kot je 0/1, da/ne, res/napačno) na podlagi danega niza neodvisne spremenljivke. Naloga tega algoritma je napovedati verjetnost incidenta s prilagajanjem podatkov logični funkciji. Njegove izhodne vrednosti so med 0 in 1.

Formulo je mogoče uporabiti na različnih področjih, kot so strojno učenje, znanstvena disciplina in medicinska področja. Uporablja se lahko za napovedovanje nevarnosti za nastanek določene bolezni na podlagi opazovanih značilnosti pacienta. Logistično regresijo lahko uporabimo za napoved kupčeve želje po nakupu izdelka. Ta tehnika strojnega učenja se uporablja pri napovedovanju vremena za napovedovanje verjetnosti dežja.

Logistično regresijo lahko razdelimo na tri vrste -

  • Binarna logistična regresija
  • Več-nominalna logistična regresija
  • Navadna logistična regresija

Logistična regresija je manj zapletena. Prav tako je robusten. Zmore nelinearne učinke. Če pa so podatki o usposabljanju redki in obsežni, se lahko ta algoritem ML preveč prilega. Ne more napovedati stalnih rezultatov.

5. K-najbližji sosed (KNN)


K-najbližji sosed (kNN) je dobro znan statistični pristop k razvrščanju, ki je bil skozi leta široko raziskan in se je že zgodaj uporabljal pri nalogah kategorizacije. Deluje kot neparametrična metodologija za klasifikacijske in regresijske probleme.

Ta metoda AI in ML je precej preprosta. Določa kategorijo preskusnega dokumenta t na podlagi glasovanja niza k dokumentov, ki so najbližje t glede na razdaljo, običajno evklidsko razdaljo. Bistveno pravilo odločitve, podano v preskusnem dokumentu t za klasifikator kNN, je:

knn

Kadar je y (xi, c) binarna klasifikacijska funkcija za dokument usposabljanja xi (ki vrne vrednost 1, če je xi označen s c ali 0 drugače), to pravilo označi s t kategorijo, ki ima največ glasov v k -najbližja soseska.

KNN nas lahko preslika v naše resnično življenje. Na primer, če bi radi izvedeli nekaj ljudi, o katerih nimate podatkov, bi se morda raje odločili glede njegovih bližnjih prijateljev in s tem krogov, v katerih se premika, ter pridobili dostop do svojih podatkov. Ta algoritem je računalniško drag.

6. K-pomeni


k pomeni

k-pomeni združevanje je metoda učenje brez nadzora ki je dostopen za analizo grozdov pri rudarjenju podatkov. Namen tega algoritma je razdeliti n opazovanj v k grozdov, kjer vsako opazovanje spada v najbližjo sredino grozda. Ta algoritem se med številnimi drugimi področji uporablja pri segmentaciji trga, računalniškem vidu in astronomiji.

7. Drevo odločitev


drevo odločanja

Drevo odločanja je orodje za podporo odločanju, ki uporablja grafični prikaz, to je drevesnemu grafu ali modelu odločitev. Običajno se uporablja pri analizi odločitev in je tudi priljubljeno orodje pri strojnem učenju. Drevesa odločanja se uporabljajo pri operativnih raziskavah in upravljanju operacij.

Ima strukturo, podobno diagramu poteka, v kateri vsako notranje vozlišče predstavlja 'test' na atributu, vsaka veja predstavlja rezultat testa, vsako listno vozlišče pa oznako razreda. Pot od korenine do lista je znana kot klasifikacijska pravila. Sestavljen je iz treh vrst vozlišč:

kako vstaviti makro v
  • Odločitvena vozlišča: običajno predstavljena s kvadrati,
  • Naključna vozlišča: običajno predstavljena s krogi,
  • Končna vozlišča: običajno predstavljena s trikotniki.

Drevo odločanja je preprosto razumeti in razlagati. Uporablja model bele škatle. Prav tako se lahko kombinira z drugimi tehnikami odločanja.

8. Naključni gozd


Naključni gozd

Naključni gozd je priljubljena tehnika ansambelskega učenja, ki deluje tako, da v času usposabljanja oblikuje množico dreves odločanja in prikaže kategorijo, ki je način kategorij (klasifikacija) ali povprečna napoved (regresija) vsakega drevesa.

Ta algoritem strojnega učenja je hiter in lahko deluje z neuravnoteženimi in manjkajočimi podatki. Ko pa smo ga uporabili za regresijo, ne more napovedati presega območja v podatkih o usposabljanju in lahko preveč ustreza podatkom.

9. VOZIČEK


voziček

Drevo klasifikacije in regresije (CART) je ena vrsta drevesa odločanja. Drevo odločitev deluje kot rekurzivni pristop particioniranja in CART razdeli vsako od vhodnih vozlišč v dve podrejeni vozlišči. Na vsaki ravni drevesa odločanja algoritem identificira pogoj - katero spremenljivko in raven, ki se uporablja za razdelitev vhodnega vozlišča na dva podrejena vozlišča.

Koraki algoritma CART so navedeni spodaj:

  • Vzemite vhodne podatke
  • Najboljši Split
  • Najboljša spremenljivka
  • Razdelite vhodne podatke na levo in desno vozlišče
  • Nadaljujte s korakom 2-4
  • Obrezovanje odločilnega drevesa

10. Apriori algoritem strojnega učenja


a priori

Apriorijev algoritem je kategorizacijski algoritem. Ta tehnika strojnega učenja se uporablja za razvrščanje velikih količin podatkov. Uporablja se lahko tudi za spremljanje razvoja odnosov in oblikovanja kategorij. Ta algoritem je nenadzorovana učna metoda, ki ustvarja pravila povezovanja iz danega niza podatkov.

Apriorijev algoritem strojnega učenja deluje tako:

  • Če se niz elementov pogosto pojavlja, se pogosto pojavljajo tudi vse podskupine nabora elementov.
  • Če se niz elementov pojavlja redko, se redko pojavljajo tudi vsi nadnapisi niza elementov.

Ta algoritem ML se uporablja v različnih aplikacijah, na primer za odkrivanje neželenih učinkov zdravil, za analizo tržne košarice in samodejno dokončanje aplikacij. Izvajanje je preprosto.

11. Analiza glavnih komponent (PCA)


pca

Analiza glavnih komponent (PCA) je nenadzorovani algoritem . Nove funkcije so pravokotne, kar pomeni, da niso povezane. Preden izvedete PCA, morate vedno normalizirati nabor podatkov, ker je preoblikovanje odvisno od obsega. Če tega ne storite, bodo lastnosti, ki so najpomembnejše, prevladovale nad novimi glavnimi komponentami.

PCA je vsestranska tehnika. Ta algoritem je enostaven in enostaven za izvedbo. Lahko se uporablja pri obdelavi slik.

12. CatBoost


CatBoost

CatBoost je odprtokodni algoritem strojnega učenja, ki prihaja iz Yandexa. Ime 'CatBoost' izhaja iz dveh besed 'Kategorija' in 'Okrepitev'. Lahko se kombinira z ogrodji za poglobljeno učenje, to je Googlov TensorFlow in Appleov Core ML. CatBoost lahko sodeluje s številnimi vrstami podatkov, da reši več težav.

13. Iteracijski dihotomizer 3 (ID3)


ID3

Iterativni dihotomiter 3 (ID3) je algoritemsko pravilo učnega drevesa, ki ga je predstavil Ross Quinlan in se uporablja za dobavo drevesa odločanja iz nabora podatkov. Je predhodnik algoritemskega programa C4.5 in se uporablja na področjih strojnega učenja in jezikovnega komuniciranja.

ID3 se lahko preveč prilega podatkom o usposabljanju. To algoritemsko pravilo je težje uporabiti pri neprekinjenih podatkih. Ne zagotavlja optimalne rešitve.

14. Hierarhično združevanje v gruče


združevanje v gruče

Hierarhično združevanje je način analize grozdov. Pri hierarhičnem združevanju se za ponazoritev podatkov razvije drevo grozdov (dendrogram). Pri hierarhičnem združevanju se vsaka skupina (vozlišče) poveže z dvema ali več naslednjimi skupinami. Vsako vozlišče v drevesu gruče vsebuje podobne podatke. Skupina vozlišč na grafu poleg drugih podobnih vozlišč.

Algoritem

To metodo strojnega učenja lahko razdelimo na dva modela - od spodaj navzgor ali od zgoraj navzdol :

Od spodaj navzgor (Hierarchical Agglomerative Clustering, HAC)

  • Na začetku te tehnike strojnega učenja vzemite vsak dokument kot eno skupino.
  • V novi gruči sta združili dva elementa hkrati. Način združevanja kombinacij vključuje izračun razlike med vsakim vgrajenim parom in s tem alternativnih vzorcev. Za to obstaja veliko možnosti. Nekateri med njimi so:

a. Popolna povezava : Podobnost najbolj oddaljenega para. Ena od omejitev je, da lahko odstopanja povzročijo združitev tesnih skupin pozneje, kot je optimalno.

b. Enosmerna povezava : Podobnost najbližjega para. Lahko povzroči prezgodnje združevanje, čeprav so te skupine precej različne.

kako narediti palični graf

c. Povprečje skupine : podobnost med skupinami.

d. Podobnost centroidov: vsaka ponovitev združi grozde s skrajno podobno osrednjo točko.

  • Dokler se vsi elementi ne združijo v eno samo gručo, poteka postopek seznanjanja.

Od zgoraj navzdol (razdeljeno združevanje v gruče)

  • Podatki se začnejo s kombinirano gručo.
  • Skupina se glede na določeno stopnjo podobnosti deli na dva različna dela.
  • Grozdi se vedno znova delijo na dva, dokler grozdi ne vsebujejo samo ene podatkovne točke.

15. Povratno širjenje


blok diagram nazaj širjenje

Razmnoževanje nazaj je a algoritem nadzorovanega učenja . Ta algoritem ML prihaja iz področja ANN (Umetna nevronska omrežja). To omrežje je večplastno omrežje za prenos naprej. Namen te tehnike je oblikovati dano funkcijo s spreminjanjem notranjih uteži vhodnih signalov za izdelavo želenega izhodnega signala. Lahko se uporablja za klasifikacijo in regresijo.

razmnoževanje nazaj

Algoritem povratnega širjenja ima nekaj prednosti, to je, da je enostaven za izvedbo. Matematično formulo, uporabljeno v algoritmu, je mogoče uporabiti za katero koli omrežje. Čas izračuna se lahko skrajša, če so uteži majhne.

Algoritem povratnega širjenja ima nekatere pomanjkljivosti, na primer, da je lahko občutljiv na hrupne podatke in odstopanja. To je popolnoma matrični pristop. Dejanska zmogljivost tega algoritma je v celoti odvisna od vhodnih podatkov. Izhod je lahko neštevilski.

16. AdaBoost


adaboost - algoritem strojnega učenja

AdaBoost pomeni Adaptive Boosting, metodo strojnega učenja, ki jo predstavljata Yoav Freund in Robert Schapire. Je meta-algoritem in ga je mogoče integrirati z drugimi učnimi algoritmi za izboljšanje njihove učinkovitosti. Ta algoritem je hiter in enostaven za uporabo. Dobro deluje z velikimi nabori podatkov.

17. Globoko učenje


globoko učenje

Globoko učenje je sklop tehnik, ki jih navdihuje mehanizem človeških možganov. Pri klasifikaciji besedil se uporabljata dve primarni poglobljeni metodi učenja, tj. Konvolucijska nevronska omrežja (CNN) in Ponavljajoča se nevronska omrežja (RNN). Algoritmi za poglobljeno učenje, kot sta Word2Vec ali GloVe, se uporabljajo tudi za pridobivanje visoko uvrščenih vektorskih predstavitev besed in izboljšanje natančnosti klasifikatorjev, ki jih usposabljajo s tradicionalnimi algoritmi strojnega učenja.

Ta metoda strojnega učenja potrebuje veliko vzorcev usposabljanja namesto tradicionalnih algoritmov strojnega učenja, to je najmanj milijone označenih primerov. Nasprotno pa tradicionalne tehnike strojnega učenja dosegajo natančen prag, če dodajanje več vzorcev usposabljanja na splošno ne izboljša njihove natančnosti. Klasifikatorji za poglobljeno učenje bolje prenašajo rezultate z več podatki.

18. Algoritem za povečanje gradienta


algoritem za povečanje gradienta

Povečanje gradienta je metoda strojnega učenja, ki se uporablja za klasifikacijo in regresijo. To je eden najmočnejših načinov razvoja modela napovedovanja. Algoritem za povečanje gradienta ima tri elemente:

  • Funkcija izgube
  • Slab učenec
  • Aditivni model

19. Omrežje Hopfield


hopfield network - algoritem strojnega učenja

Omrežje Hopfield je ena vrsta ponavljajočih se umetno nevronsko omrežje avtor John Hopfield leta 1982. Namen tega omrežja je shraniti enega ali več vzorcev in priklicati celotne vzorce na podlagi delnega vnosa. V omrežju Hopfield so vsa vozlišča vhodi in izhodi ter so popolnoma medsebojno povezana.

20. C4.5


C4.5

C4.5 je drevo odločitev, ki ga je izumil Ross Quinlan. To je nadgradnja različice ID3. Ta algoritemski program obsega nekaj osnovnih primerov:

  • Vsi vzorci na seznamu spadajo v podobno kategorijo. Ustvari listno vozlišče za drevo odločanja, ki pravi, da se odloči za to kategorijo.
  • Ustvari vozlišče odločanja višje v drevesu z uporabo pričakovane vrednosti razreda.
  • Ustvari vozlišče odločanja višje v drevesu z uporabo pričakovane vrednosti.

Konec misli


Za razvoj učinkovitega je zelo pomembno, da uporabite ustrezen algoritem, ki temelji na vaših podatkih in domeni projekt strojnega učenja . Razumevanje kritične razlike med vsakim algoritmom strojnega učenja je bistvenega pomena za obravnavo 'ko izberem katerega.' Kot se je v pristopu strojnega učenja stroj ali naprava naučil z učnim algoritmom. Trdno verjamem, da vam ta članek pomaga razumeti algoritem. Če imate kakršen koli predlog ali vprašanje, vas prosimo, da vprašate. Nadaljujte z branjem.

  • Oznake
  • Rudarjenje podatkov
  • Globoko učenje
Deliti Facebook Twitter Pinterest WhatsApp ReddIt Telegram Viber

    1 KOMENTAR

    1. Emilia Jazz 12. november 2019 ob 14:15

      Zgrajen je z matematičnim modelom in ima podatke, ki se nanašajo tako na vhod kot na izhod. Na primer, če je cilj ugotoviti, ali določena slika vsebuje vlak, bodo različne slike z vlakom in brez njega označene in vnesene kot podatki o usposabljanju.

      V bistvu imate vhode 'A' in izhod 'Z'. Nadzorovano učenje uporablja funkcijo za preslikavo vhoda, da dobi želeni rezultat.

      Z = f (A)

      Odgovori

    PUSTITE ODGOVOR Prekliči odgovor

    Komentar: Prosimo, vnesite svoj komentar! Ime:* Prosimo, vnesite svoje ime tukaj E -pošta:* Vnesli ste napačen e -poštni naslov! Tukaj vnesite svoj e -poštni naslov Spletna stran:

    Shrani moje ime, e -pošto in spletno mesto v ta brskalnik za naslednjič, ko bom komentiral.

    spot_img

    Najnovejša objava

    Android

    10 najboljših aplikacij za zamenjavo obrazov za naprave Android in iOS

    OS Windows

    Kako načrtovati samodejno izpraznitev koša Windows 10

    Android

    10 najboljših aplikacij za izdajanje računov za naprave Android za hitro plačilo

    OS Windows

    10 najboljših grafičnih programov za vaš računalnik

    Morati prebrati

    Ukazi A-Z

    Cheat Sheet 40 najboljših ukazov za Linux za skrbnike Linuxa

    Ukazi A-Z

    50 neverjetnih ukazov Linux Crontab za SysAdminove

    Linux

    Najboljše stvari po namestitvi Linux Mint 20 Ulyana

    ML in AI

    10 najboljših trendov obdelave naravnega jezika (NLP), ki jih je treba gledati naprej

    Sorodna objava

    Linux Mint proti Ubuntu: 15 dejstev, ki jih morate vedeti, preden izberete najboljšo

    Debian proti Ubuntu: 15 stvari, ki jih morate vedeti, preden izberete najboljšo

    30 najboljših terminalskih emulatorjev in urejevalnikov bash v sistemu Linux

    Najboljša kriptovaluta za vlaganje: 20 najboljših seznamov kriptovalut za vas

    10 najboljših idej za projekte globokega učenja za začetnike in profesionalce

    10 novih trendov globokega učenja, ki jih je treba spremljati v bližnji prihodnosti



    ^