Perceptron ni Ufafanuzi wa neno, vipengele, matumizi

Orodha ya maudhui:

Perceptron ni Ufafanuzi wa neno, vipengele, matumizi
Perceptron ni Ufafanuzi wa neno, vipengele, matumizi
Anonim

Katika kujifunza kwa mashine, perceptron ni kanuni ya ujifunzaji inayosimamiwa kwa viainishi vya mfumo wa jozi. Pia mara nyingi huitwa perceptron. Kiainishi cha binary ni chaguo la kukokotoa ambalo linaweza kuamua ikiwa ingizo, linalowakilishwa na vekta ya nambari, ni ya darasa fulani. Hii ni aina ya kiainishaji cha mstari, yaani, algoriti ya uainishaji ambayo hufanya ubashiri wake kulingana na kitendakazi cha kitabiri cha mstari ambacho huchanganya seti ya uzani na vekta ya kipengele.

Fomula za Perceptron
Fomula za Perceptron

Katika miaka ya hivi majuzi, mitandao ya neva bandia imeangaziwa kutokana na maendeleo ya kujifunza kwa kina. Lakini mtandao wa neva bandia ni nini na unajumuisha nini?

Kutana na Perceptron

Katika makala haya, tutaangalia kwa haraka mitandao ya neva bandia kwa ujumla, kisha tutazame niuroni moja, na hatimaye (hii ndiyo sehemu ya usimbaji) tutachukua toleo la msingi zaidi la bandia. neuron, perceptron, na kuainisha pointi zake kuwandege.

Je, umewahi kujiuliza kwa nini kuna kazi ambazo ni rahisi kwa mtu yeyote, lakini ngumu sana kwa kompyuta? Mitandao ya Neural Bandia (ANN kwa kifupi) iliongozwa na mfumo mkuu wa neva wa binadamu. Kama ilivyo kwa wenzao wa kibaolojia, ANN zimeundwa kwa vipengele rahisi vya uchakataji wa mawimbi ambavyo vimeunganishwa kuwa gridi kubwa.

Mitandao ya neva lazima ijifunze

Tofauti na algoriti za kitamaduni, mitandao ya neva haiwezi "kupangwa" au "kupangwa" kufanya kazi inavyokusudiwa. Kama vile ubongo wa mwanadamu, lazima wajifunze kukamilisha kazi. Kwa kusema, kuna mbinu tatu za kujifunza.

Njia rahisi zaidi inaweza kutumika ikiwa kuna kesi (kubwa ya kutosha) yenye matokeo yanayojulikana. Kisha mafunzo huenda kama hii: kuchakata seti moja ya data. Linganisha matokeo na matokeo yanayojulikana. Sanidi mtandao na ujaribu tena. Huu ndio mkakati wa kujifunza tutakaotumia hapa.

Mafunzo yasiyosimamiwa

Inatumika ikiwa hakuna data ya jaribio inayopatikana na ikiwezekana kupata utendakazi fulani wa gharama kutoka kwa tabia inayotaka. Utendakazi wa gharama huambia mtandao wa neva ni umbali gani kutoka kwa lengo. Mtandao unaweza kisha kurekebisha vigezo vyake kwa kuruka, ukifanya kazi na data halisi.

Mafunzo Yaliyoimarishwa

Mbinu ya "karoti na fimbo". Inaweza kutumika ikiwa mtandao wa neva utatoa kitendo kinachoendelea. Baada ya muda, mtandao hujifunza kupendelea vitendo vinavyofaa na kuepuka zisizo sahihi.

Sawa, sasa tunajua machache kuhusuasili ya mitandao ya neva bandia, lakini imeundwa na nini hasa? Tutaona nini tukifungua kifuniko na kutazama ndani?

Neuroni ndio vijenzi vya mitandao ya neva. Sehemu kuu ya mtandao wowote wa neva wa bandia ni neuroni ya bandia. Sio tu kwamba yamepewa majina ya wenzao wa kibiolojia, bali pia yanaigwa kutokana na tabia ya niuroni katika akili zetu.

Biolojia dhidi ya teknolojia

Kama vile neuroni ya kibayolojia ina dendrites za kupokea mawimbi, seli ya seli ili kuzichakata, na akzoni ya kutuma mawimbi kwa niuroni zingine, niuroni bandia ina chaneli nyingi za ingizo, hatua ya kuchakata na towe moja linaloweza. ungana na wengine wengi. niuroni bandia.

Je, tunaweza kufanya jambo muhimu kwa perceptron moja? Kuna darasa la shida ambazo perceptron moja inaweza kutatua. Fikiria vekta ya pembejeo kama kuratibu za uhakika. Kwa vekta yenye vipengele vya n, hatua hii itaishi katika nafasi ya n-dimensional. Ili kurahisisha maisha (na nambari iliyo hapa chini), wacha tuchukue ni 2D. Kama kipande cha karatasi.

Inayofuata, fikiria tukichora baadhi ya alama nasibu kwenye ndege hii na kuzigawanya katika seti mbili kwa kuchora mstari ulionyooka kwenye karatasi. Mstari huu unagawanya pointi katika seti mbili, moja juu na moja chini ya mstari. Seti hizi mbili kisha huitwa zinazoweza kutenganishwa kwa mstari.

Mtazamo mmoja, hata uonekane rahisi kiasi gani, unaweza kujua ni wapi mstari huu ulipo, na unapomaliza mafunzo, unaweza kubainisha kama sehemu fulani iko juu au chini ya mstari huu.

Historiauvumbuzi

Algoriti ya mbinu hii ilivumbuliwa mwaka wa 1957 katika Maabara ya Usafiri wa Anga ya Cornell na Frank Rosenblatt (mara nyingi huitwa jina lake), iliyofadhiliwa na Ofisi ya Utafiti wa Wanamaji ya Marekani. Perceptron ilikusudiwa kuwa mashine, sio programu, na ingawa utekelezaji wake wa kwanza ulikuwa katika programu ya IBM 704, ilitekelezwa baadaye kwenye maunzi maalum kama "Mark 1 Perceptron". Mashine hii iliundwa kwa ajili ya utambuzi wa picha: ilikuwa na safu ya seli 400 zilizounganishwa kwa niuroni nasibu. Vipimo vilisimbwa katika vipima nguvu na usasishaji wa uzito wakati wa mafunzo ulifanywa na injini za umeme.

Kwenye mkutano na waandishi wa habari ulioandaliwa na Jeshi la Wanamaji la Marekani mwaka wa 1958, Rosenblatt alitoa taarifa kuhusu dhana iliyosababisha mjadala mkali miongoni mwa jumuiya changa ya AI; kulingana na madai ya Rosenblatt, gazeti la New York Times liliripoti kwamba perceptron ni "kompyuta ya elektroniki ya kiinitete ambayo Jeshi la Wanamaji linatarajia kuwa na uwezo wa kutembea, kuzungumza, kuona, kuandika, kujitayarisha yenyewe, na kufahamu kuwepo kwake."

Sehemu za Perceptron
Sehemu za Perceptron

Maendeleo zaidi

Ingawa kielekezi hapo awali kilionekana kuahidi, ilithibitishwa kwa haraka kuwa vitambulisho havikuweza kufunzwa kutambua aina nyingi za ruwaza. Hii ilisababisha vilio katika uwanja wa utafiti na mitandao ya neural ya perceptron kwa miaka mingi kabla ya kutambuliwa kuwa mtandao wa neva wa kusambaza na tabaka mbili au zaidi (pia huitwa.multilayer perceptron) ilikuwa na nguvu nyingi zaidi za usindikaji kuliko perceptron za safu moja (pia huitwa perceptron za safu moja). Perceptron ya safu moja inaweza tu kusoma miundo inayoweza kutenganishwa kwa mstari. Mnamo 1969, kitabu maarufu "Perceptrons" na Marvin Minsky na Seymour Papert kilionyesha kuwa madarasa haya ya mitandao hayakuweza kujifunza kazi ya XOR. Hata hivyo, hii haitumiki kwa vitendakazi vya uainishaji visivyo vya mstari ambavyo vinaweza kutumika katika kihisia cha safu moja.

Perceptron Rosenblatt
Perceptron Rosenblatt

Matumizi ya chaguo za kukokotoa hupanua uwezo wa utambuzi, ikijumuisha utekelezaji wa chaguo za kukokotoa za XOR. Mara nyingi inachukuliwa (isiyo sahihi) kwamba pia walidhani kuwa matokeo sawa yangeshikilia mtandao wa multilayer perceptron. Hata hivyo, hii sivyo, kwa kuwa Minsky na Papert tayari walijua kwamba perceptrons za multilayer zilikuwa na uwezo wa kuzalisha kazi ya XOR. Miaka mitatu baadaye, Steven Grossberg alichapisha msururu wa karatasi zinazowasilisha mitandao inayoweza kuiga vitendaji tofauti, vitendaji vya uboreshaji utofautishaji, na vitendaji vya XOR.

Kazi zilichapishwa mnamo 1972 na 1973. Hata hivyo, maandishi ya Minsky/Papert yanayopuuzwa mara nyingi yalisababisha kupungua kwa kiasi kikubwa kwa riba na ufadhili wa utafiti na mtandao wa neva wa perceptron. Miaka mingine kumi ilipita kabla ya utafiti wa mtandao wa neva kufufuliwa katika miaka ya 1980.

Vipengele

Algoriti ya Perceptron Kernel ilianzishwa mwaka wa 1964 na Yzerman et al. Mori na Rostamizadeh (2013), ambao huongeza matokeo ya awali na kutoa mipaka mipya L1.

Perceptron ni muundo uliorahisishwa wa niuroni ya kibiolojia. Ingawa uchangamano wa miundo ya neva ya kibayolojia inahitajika ili kuelewa kikamilifu tabia ya neva, utafiti unaonyesha kuwa muundo wa mstari unaofanana na perceptron unaweza kushawishi baadhi ya tabia inayoonekana katika niuroni halisi.

Perceptron ni kiainishi cha mstari, kwa hivyo hakitawahi kuingia katika hali iliyo na vekta zote za ingizo zilizoainishwa ipasavyo ikiwa seti ya mafunzo D haiwezi kutenganishwa kimstari, n.k. ikiwa mifano chanya haiwezi kutenganishwa na mifano hasi na hyperplane. Katika kesi hii, hakuna suluhisho la "takriban" litakalo hatua kwa hatua kupitia algorithm ya kawaida ya kujifunza, badala yake kujifunza kutashindwa kabisa. Kwa hivyo, ikiwa utengano wa mstari wa seti ya mafunzo haujulikani kama kipaumbele, mojawapo ya chaguo za mafunzo hapa chini inapaswa kutumika.

Mahusiano ya Perceptron
Mahusiano ya Perceptron

Algorithm ya Mfukoni

Algoriti ya mfuko wa ratchet hutatua tatizo la uthabiti wa kujifunza kwa perceptron kwa kuweka suluhu bora zaidi kufikia sasa "mfukoni". Algorithm ya mfukoni basi inarudisha suluhisho kwenye mfuko badala ya suluhisho la mwisho. Inaweza pia kutumika kwa hifadhidata zisizoweza kutenganishwa ambapo lengo ni kupata kielelezo kilicho na uainishaji mbaya chache. Walakini, suluhisho hizi zinaonekana kuwa ngumu na kwa hivyo algorithm ya mfukoni haifai.hatua kwa hatua wakati wa mafunzo, na hawajahakikishiwa kugunduliwa kwa idadi fulani ya hatua za mafunzo.

Maxover Algorithm

Algoriti ya Maxover ni "imara" kwa maana kwamba itaungana bila kujali ujuzi wa utengano wa kimstari wa seti ya data. Katika kesi ya mgawanyiko wa mstari, hii itasuluhisha shida ya kujifunza, kwa hiari hata kwa utulivu kamili (kiwango cha juu kati ya madarasa). Kwa hifadhidata zisizoweza kutenganishwa, suluhu iliyo na idadi ndogo ya uainishaji mbaya itarejeshwa. Katika hali zote, algorithm hatua kwa hatua inakaribia suluhisho wakati wa mchakato wa kujifunza, bila kukumbuka majimbo ya awali na bila kuruka kwa random. Muunganisho upo katika ukamilifu wa kimataifa kwa seti za data zilizoshirikiwa na ukamilifu wa ndani kwa seti za data zisizoweza kutenganishwa.

mlinganyo wa perceptron
mlinganyo wa perceptron

Perceptron Iliyochaguliwa

Algoriti ya Perceptron Iliyopigwa Kura ni toleo linalotumia vielelezo vingi vyenye uzani. Algorithm huanza perceptron mpya kila wakati mfano unawekwa vibaya, ikianzisha vekta ya uzani na uzani wa mwisho wa perceptron ya mwisho. Kila perceptron pia itapewa uzito tofauti unaolingana na ni mifano mingapi wanayoainisha kwa usahihi kabla ya kuainisha moja kimakosa, na mwishowe matokeo yatakuwa kura iliyopimwa kwenye perceptron nzima.

Maombi

Katika matatizo yanayotenganishwa, mafunzo ya perceptron pia yanaweza kulenga kutafuta mpaka mkubwa zaidi wa utengano kati ya madarasa. KinachojulikanaPerceptron mojawapo ya uthabiti inaweza kubainishwa kwa kutumia mbinu za mafunzo ya mara kwa mara na uboreshaji kama vile kanuni ya Min-Over au AdaTron. AdaTron hutumia ukweli kwamba shida inayolingana ya uboreshaji wa quadratic ni laini. Perceptron uthabiti bora, pamoja na hila ya kernel, ndio msingi wa dhana ya mashine ya kusaidia vekta.

Perceptron ya safu nyingi
Perceptron ya safu nyingi

Mbadala

Njia nyingine ya kutatua matatizo yasiyo ya mstari bila kutumia safu nyingi ni kutumia mitandao ya hali ya juu (sigma-pi block). Katika aina hii ya mtandao, kila kipengele cha vekta ya pembejeo hupanuliwa kwa kila mchanganyiko wa jozi wa pembejeo zilizozidishwa (agizo la pili). Hii inaweza kupanuliwa kwa mtandao wa kuagiza. Perceptron ni kitu kinachonyumbulika sana.

Hata hivyo, kumbuka kuwa kiainishaji bora zaidi si lazima kiwe kile kinachoainisha kwa usahihi data zote za mafunzo. Hakika, ikiwa tulikuwa na kikwazo cha hapo awali kwamba data hutoka kwa ugawaji wa lahaja wa Gaussian, mgawanyiko wa mstari katika nafasi ya ingizo ni mojawapo, na suluhu isiyo ya mstari inabatilishwa.

Algoriti zingine za uainishaji wa mstari ni pamoja na Winnow, vekta ya usaidizi na urejeshaji wa vifaa. Perceptron ni seti ya jumla ya algoriti.

Tafsiri ya Kirusi ya mpango huo
Tafsiri ya Kirusi ya mpango huo

Mawanda makuu ya masomo yanayosimamiwa

Mafunzo yanayosimamiwa ni kazi ya kujifunza kwa mashine ambayo hujifunza mbinu ya kupanga data kwenye matokeokwa kuzingatia mifano ya jozi za I/O. Wanakisia kipengele kutoka kwa data ya mafunzo iliyo na lebo inayojumuisha seti ya mifano. Katika ujifunzaji unaosimamiwa, kila mfano ni jozi inayojumuisha kitu cha kuingiza (kawaida vekta) na thamani inayotakiwa ya pato (pia huitwa ishara ya kudhibiti).

Algoriti ya kujifunza inayosimamiwa huchanganua data ya mafunzo na kutoa makadirio ya utendakazi ambayo yanaweza kutumika kuonyesha mifano mipya. Hali bora ingeruhusu algoriti kubainisha kwa usahihi lebo za darasa kwa matukio yasiyoonekana. Hili linahitaji kanuni ya ujifunzaji kujumlisha data ya kujifunza kwa hali zisizoonekana kwa njia "inayofaa".

Kazi sambamba katika saikolojia ya binadamu na wanyama mara nyingi huitwa kujifunza dhana.

Ilipendekeza: