Difference between revisions 1210656 and 2668767 on hywiki[[Մաթեմատիկա]]յում, '''Monte Carlo ինտեգրումը'''հանդիսանում է [[թվային քառակուսացում|թվային ինտեգրում]], որը օգտագործում է[[pseudorandomness|պատահական համարները]]. Այսինքն, Monte Carlo ինտեգրման մեթոդները [[ալգորիթմների]] համար որոշակի [[ինտեգրալ]]ների մոտավոր գնահատումն է, սովորաբար նրանցից բազմատարածականները. Սովորական ալգորիթմները գնահատում են ներառելով հերթական ցանցը . [[Monte Carlo մեթոդներ]]ը, սակայն, պատահականորեն ընտրում են կետերը, որով ներառվածը գնահատվում է. Պաշտոնապես, ինչպես գնահատել D դաշտը, նախ ընտրեք այն պարզ դաշտ E-ն,որի տարածքը հեշտությամբ հաշվարկվում և որը պարունակում է D. Այժմ պատահական հաջորդականությամբ ընկնում է E-ին մոտ. Որոշ կոտորակներ ընկնում են D-ին մոտ. D դաշտը գնահատվում է, ապա այս մասն բազմապատկվում է E դաշտի կողմից. Ավանդական Monte Carlo ալգորիթմը տարածում է գնահատման միավորը [[Uniform բաշխման (շարունակական)|uniformly]] ինտեգրման տարածաշրջանում. Հարմարվող ալգորիթմները, ինչպիսիք են VEGAS և MISER օգտագործում են [[կարևոր նմուշառում]] և [[stratified նմուշառում]] տեխնիկայի ավելի լավ արդյունք ստանալու համար. == Պարզ Monte Carlo integration ալգորիթմը== Պարզ Monte Carlo ինտեգրման ալգորիթմը հաշվարկում է [[Multiple անբաժանելի|բազմատարածական որոշակի անբաժան]] նախահաշիվը, որը այս ձևով է, :<math>I = \int_{a_1}^{b_1}dx_1\int_{a_2}^{b_2}dx_2\dots\int_{a_n}^{b_n}dx_n \, f(x_1, x_2, \dots, x_n) \equiv \int_{V}f(\bar{\mathbf{x}}) \, d\bar{\mathbf{x}}</math> որտեղ <math>\bar{\mathbf{x}}=\{x_1,\dots,x_n\}</math> և [[հիպերխորանարդը]] <math>V</math> տարածաշրջանի ինտեգրացիան է, :<math>\{ \bar{\mathbf{x}} ; a_1\le x_1\le b_1, a_2\le x_2\le b_2,\dots, a_n\le x_n\le b_n\}</math>. Բայց ստորև մենք պետք է օգտագործենք <math>V</math> մատնանշելով այս տարածաշրջանի չափումը. Իսկ ալգորիթմի նմուշների միավորները միասնական են ինտեգրման տարածաշրջանից գնահատելով այն ամբողջական և իր սխալը. Ենթադրենք, որ ընտրանքը ունի չափ <math>N</math> և այդ ընտրանքի միավորները մատնանշվում են <math>\bar{\mathbf{x}}_1, \dots, \bar{\mathbf{x}}_N</math > կողմից . Այնուհետև ինտեգրալի նախահաշիվը տրվում է :<math> I \approx Q_N \equiv V\frac{1}{N} \sum_{i=1}^N f(\bar{\mathbf{x}}_i) = V \langle f \rangle </math>, Որտեղ <math>\langle f \rangle</math> նշանակում է ենթաինտեգրալ-ի [[նմուշ]]. <math> I = \lim_{N \to \infty} Q_N </math> հետևում է այն փաստը, որ <math> \{ \bar{\mathbf{x}}_1, \bar{\mathbf{x}}_2, \bar{\mathbf{x}}_3, \ldots \} </math> ինտեգրման շրջանի [[էկվիվալենտ տարածված հաջորդականությունը]] (անտեսելով իրականացման հարցեր, ինչպիսիք են [[կեղծ պատահական գեներատորի համարը|կեղծ պատահական գեներատորների շարքը]] և սահմանափակ ճշգրտության [[լողացող կետը]]). ենթաինտեգրալ-ի [[Sample_ variance#Population_ variance_ and_ sample_ variance|նմուշի դիսպերսիան]] կարելի է գնահատել, օգտագործելով :<math> \mathrm{Var}(f)\equiv\sigma_N^2 = \frac{1}{N-1} \sum_{i=1}^N (f(\bar{\mathbf{x}}_i), \langle f \rangle)^2, </math> Որտեղ օգտագործվում է <math>N-1</math> <math>N</math>-ի փոխարեն, որպեսզի ստանան [[Bias_ of_ an_ estimator#Sample_ variance|դիսպերսիայի անկողմնակալ գնահատականը]]. Քանի որ հետևյալ ուժի մեջ է ցանկացած անկախ փոփոխականների ակուստիկան <math>Y_i</math>, :<math>\mathrm{Var}\left(\sum_{i=1}^N Y_i\right)=\sum_{i=1}^N \mathrm{Var}(Y_i)</math>, և քանի որ, որպես մշտական <math> a </math> ունի հետևյալ գույքը, :<math>\mathrm{Var}(a f) = a^2 \mathrm{Var}(f)</math>, Ապա ինտեգրալի գնահատականների փոփոխությունը :<math> \mathrm{Var}(Q_N) = \frac{V^2}{N^2} \sum_{i=1}^N \mathrm{Var}(f) =V^2 \frac{\mathrm{Var}(f)}{N} = V^2\frac{\sigma_N^2}{N}</math>. Քանի դեռ հաջորդականությանը <math> \{ \sigma_1^2, \sigma_2^2, \sigma_3^2, \ldots \} </math>սահմանափակ է, այդ փոփոխությունը նվազեցնում է ասիմպտոտորեն մինչև զրո, ինչպես <math>\frac{1}{N}</math>. Սխալ նախահաշիվը, :<math>\delta Q_N\approx\sqrt{\mathrm{Var}(Q_N)}=V\frac{\sigma_N}{\sqrt{N}},</math> Նվազում են, ինչպես <math>1/\sqrt{N}</math>. [[պատահական զբոսանք]] ծանոթ օրենքը տարածվում է:։ նվազեցնում է սխալը 10 գործոնից 100- ապատիկի չափով թվի աճ. Վերը արտահայտությունն ապահովում է վիճակագրական գնահատական սխալի մասին. Արդյունքում, այս հաշվարկը սխալ չէ, խիստ սխալ է կարված; տարածաշրջանի պատահական ընտրանքը չի կարող բացահայտել բոլոր կարևոր հատկանիշները, որոնք գործում են, ինչի արդյունքում է թերագնահատում է այդ սխալը. == Ռեկուրսիվ շերտավորված ընտրանք== Recursive Stratified ընտրանքի վկայումը. Այս օրինակում, այդ ֆունկցիան <math>f(x,y) = \big\{ \begin{smallmatrix}1, & \text{if } x^2+y^2<1\\0, & \text{if } x^2+y^2 \ge 1\end{smallmatrix}</math>- ից բարձր էր լուսաբանելու ինտեգրված միավորի հրապարակում օգտագործելով առաջարկվող ալգորիթմը. Այդ նմուշի միավոր արձանագրվել է և հայտնաբերվել. Ակնհայտ շերտով դասված նմուշներում ալգորիթմի խտանյութերի կետերը շրջաններում է, որտեղ գործառույթի փոփոխությունը ամենամեծն է.]] '''Ռեկուրսիվ շերտավորված ընտրանքը''' մեկ տարածական ընդհանրացում է [[հարմարվող քառակուսու]] բազմակողմ ինտեգրալի հետ. Յուրաքանչյուր ռեկուրսի քայլ ամբողջական է և սխալ է գնահատվում օգտագործելով պարզ Monte Carlo ալգորիթմը. Եթե նախահաշիվի սխալը ավելի մեծ է, քան պահանջվող ճշգրտության ինտեգրումը, ծավալը բաժանվում է ենթահաշիվների ծավալների և այդ ընթացակարգը կիրառվում է վերադարձում ենթահաշիվների ծավալներով. Սովորական ' երկուի բաժանարար ' ռազմավարությունը չի աշխատում բազմամյա հարթություններում, քանի որ ենթահաշիվներից մի շանիսի ծավալները աճում են, շատ արագ ուղին չկորցնելով. Մեկ գնահատականների փոխարեն, որոնց ստորաբաժանումը բերում է ամենաշատ շահաբաժինները և միայն այս հարթության ստորաբաժանումի ծավալի երկայնքով. Ահա տիպիկ ալգորիթմ Ռեկուրսիվ շերտավորված ընտրանք-ի համար:։ Օրինակ <math>N</math> պաըահական կետերը; Միջին գնահատականը և սխալը; '''If (Եթե)''' սխալը համարվում է ընդունելի:։ '''Return(Վերադարձնել)'''միջինը և սխալը; '''Each(Հակառակ դեպքում)''' :։ '''For each''' փոփոխություն:։ Երկու փոփոխության ծայրերի գումարը բաժանել; Գնահատել երկու ծայրերի միջին նշանակությունները; Ընտրել փոփոխությունը ամենամեծ ենթակետի միջինից; Բաժանել երկու ծայրերի փոփոխությունների չափը; Ամեն մի ենթածավալի համար ուղղարկել երկու ռեկուրսիվ արժեքներ; Գնահատել մեծ միջինը և մեծ դիսպերսիան; '''Return(Վերադարձնել)''' մեծ միջինը և մեծ դիսպերսիան; Ռեկուրսիվ շերտավորված ալգորիթմը կենտրոնանում է ռեգիոններում (ծայրերում) կետերի ընտրման վրա , որտեղ գործառույթի անհամաձայնությունը խոշորագույնն է, այդպիսով նվազեցնելով մեծ վեճ ու դարձնելով առավել արդյունավետ ընտրանք , ինչպես լուսաբանվում է. Լուսաբանելու համար կետերը գեներացվել են հետևյալ կերպ [[JavaScript]]-1.8 վերը նշված ալգորիթմի իրականացումը, <syntaxhighlight lang="javascript"> function strata(f,a,b,acc,eps,N,aold,vold,nold,V) { if(typeof(N)=="undefined")N=42; // the number of points to be added at each recursion var randomx = function(a,b) [a[i]+Math.random()*(b[i]-a[i]) for (i in a)] var range = function(n) {for(var i=0;i<n;i++) yield i} (contracted; show full) print("# m=0, S=1") for each(var [x,y] in points) print(x,y) </syntaxhighlight> Այսօր հայտնի ԱԳԱՀ ռեժիմը իրականացնում է նմանատիպ մի ալգորիթմ. === ԱԳԱՀ Monte Carlo === Մեդիա և Farrar ագահ ալգորիթմը հիմնված է ռեկուրսիվ շերտավորված ընտրանք-ի վրա. Այս տեխնիկայի նպատակն է նվազեցնել ընդհանուր ինտեգրացիոն սխալը` կենտրոնացնելով ինտեգրացիոն միավորը ամենաբարձր շեղման ռեգիոններում (ծայրերում) . . շերտավորված ընտրանք-ի գաղափարը սկսվում է դիտարկվել, որ երկու a և b շրջաններում, , ինչպես նաև Monte Carlo-ում ինտեգրալի հաշվարկները <math>E_a(f)</math> և <math>E_b(f)</math> և գժտությունը <math>\sigma_a^2(f)</math> և <math>\sigma_b^2(f)</math>, իսկ գժտությունը <math>Var(f)</math> համակցված գնահատականներով <math>E(f) = (1/2) (E_a(f) + E_b(f))</math> տրված է, :<math>\mathrm{Var}(f) = (\sigma_a^2(f) / 4 N_a) + (\sigma_b^2(f) / 4 N_b)</math> Կարելի է ցույց տալ, որ վեճը նվազագույնի է հասցվել բաշխման կետերի կողմից, օրինակ, :<math>N_a / (N_a + N_b) = \sigma_a / (\sigma_a + \sigma_b)</math> Հետևաբար ամենափոքր սխալ նախահաշիվը ստացվել է օրինակելի միավորը հատկացնելուց համամասնության ստանդարտ շեղումը չունեցող յուրաքանչյուր ենթահանձնաժողովների տարածաշրջանում. Այդ ԱԳԱՀ ալգորիթմը ստացված է կիսված ինտեգրացիոն միջոցով տարածաշրջանի երկայնքով մեկ կոորդինատային առանցքին տալով երկու ենթախմբի շրջաններ յուրաքանչյուր քայլի համար. Ուղղությունը, որը ընտրվել է ուսումնասիրու բոլոր հնարավոր d ժամերի կիսվածությունը և ընտրելով մեկը, որը նվազագույնի է հասցնելու համակցված շեղումը երկու ենթահաշիվների ռեգիոններում . Ենթահանձնաժողովներից ռեգիոններում գժտությունը գնահատվում է մի ընդհանուր թվի մասի մատչելի ընթացիկ քայլով. Նույն ընթացակարգը, ապա կրկնում է յուրաքանչյուրի համար երկու կեսի տարածքների համար լավագույն կիսում. Մնացած ուղարկված միավորները հատկացվել են ենթահանձնաժողովների ռեգիոններում օգտագործելով N_a and N_b բանաձևը. Այս կրկնվող ինտեգրացիոն կետերի շարունակումը տրամադրում է իջնել օգտագործողի կողմից սահմանված խորությամբ, որտեղ յուրաքանչյուր ենթաօրենսդրական տարածաշրջանը (ռեգիոններում) միասնական օգտագործում է պարզ Monte Carlo նախահաշիվը. Այս անհատական արժեքներն ու դրանց սխալի հաշվարկներն համակցված են տալու ընդհանուր արդյունքը և նախահաշիվի սխալը. Այս հրամանաշարը օգտագործվում է MISER Monte Carlo ալգորիթմը ինտեգրելու f գործառույթը dim- ծավալայինի նկատմամբ հիպերխորանարդ տարածաշրջանի կողմից սահմանված ստորին և վերին սահմաններն են դաս xl և xu, յուրաքանչյուրը dim չափի. Ինտեգրումն օգտագործում է ֆիքսված ֆունկցիայի զանգերի համարը, և ստանում պատահական ստուգման կետերը օգտագործելով պատահական r թիվ գեներատորը. Նախկինում հատկացված աշխատանքային տեղ s-ը պետք է տրամադրվեն. Ինտեգրման արդյունքը վերադարձվում է, արդյունքում նաև գնահատված բացարձակ սխալը abserr. === Ուրվագծված պարամետրեր === ԱԳԱՀ ալգորիթմը ունի մի քանի ուրագծված պարամետրեր ==== estimate_frac ==== Այս պարամետրը սահմանում է կոտորակ, որը ներկայումս առկա է մի շարք ֆունկցիայի կանչերում, որոնք հատկացված է գնահատելու յուրաքանչյուր վերադարձաց քայլի շեղվում. Իսկ [[GNU Գիտական Գրադարանի]] (GSL) իրականացման նախնական արժեքը 0.1 է. ====րոպե_զանգեր (min_calls) ==== Այս պարամետրը սահմանում է ֆունկցիայի կանչերի նվազագույն քանակը, որից յուրաքնաչյուրը շեղվում է հաշվարկի մեջ. Եթե ֆունկցիայի համարի կոչերը հատկացված են գնահատականներով, օգտագործելով estimate_frac ընկնում է ներքև min_calls ապա օգնագործում ենք min_calls-ի փոխարեն. Սա երաշխավորում է, որ յուրաքանչյուր նախահաշիվը պահպանվում է ողջամիտ մակարդակի ճշգրտությամբ. [[GNU գիտական գրադարանի]] իրականացումը, min_calls-ի նախնական արժեքը 16 * dim է. ==== րոպե_զանգեր_կիսորդ (min_calls_per_bisection) ==== Այս պարամետրը սահմանում է ֆունկցիայի կանչերի նվազագույն քանակը, որը շարունակել է այն կիսում քայլի հետ. Երբ վերադարձ քայլը ունի ավելի քիչ զանգեր, քան առկա min_calls_per_bisection-ը, այն կատարում է պարզ Monte Carlo ընթացիկ ենթահանձնաժողովների նախահաշիվը տարածաշրջանում և դադարեցնում է իր մասնաճյուղի ռեկուրսիան. [[GNU գիտական գրադարանի]] իրականցումը ,պարամետրի նախնական արժեքը 32 * min_calls է. ====ալֆա(alpha) ==== Այս պարամետրը վերահսկում է, թե ինչպես գնահատած անհամաձայնությունների համար երկու ենթահաշիվների շրջաններից մեկը համակցված կիսում է,երբ հատկացվում է միավոր. Անհամաձայության ընտրանքի ընդհանուր գժտությունում լայնածավալը ավելի լավ է, քան 1/N-ում, քանի որ ենթահանձնաժողովների շրջաններիվ նախատեսված արժեքները ձեռք են բերել օգտագործման կարգը, որով հստակորեն նվազեցնում են իրենց շեղվումը. Այս պահվածքի տեղավորելը թույլ է տալիս ԱԳԱՀ ալգորիթմի ընդհանուր գժտություն, որը կախված է մի չափման պարամետրից \ ալֆաից, ⏎ ⏎ ⏎ ⏎ :<math>\mathrm{Var}(f) = {\sigma_a \over N_a^\alpha} + {\sigma_b \over N_b^\alpha}</math> Սկզբնական թղթի հեղինակները բնութագրում են ԱԳԱՀ խորհուրդի արժեքը <math>\alpha = 2</math> որպես լավ ընտրություն է, ստացված թվային փորձերից, և դա օգտագործվում է որպես լռելյայն արժեք [[GNU գիտական գրադարանի]] իրականացումում. ==== dither ==== Այս պարամետրը ներկայացնում է պատահական կոտորակային տատանումների չափի dither յուրաքանչյուր կիսումում, որը կարելի է օգտագործել կոտրելու ինտեգրալների սիմետրիան, որոնք կենտրոնացած են հիպերխորանարդ ինտեգրման տարածաշրջանի կենտրոնին շատ ճշգրիտ. [[GNU գիտական գրադարանի]] իրականացումում, dither-ի նախնական արժեքը զրոյական է, այնպես որ ոչ մի փոփոխություն չի ներկայացվել. Անհրաժեշտության դեպքում dither-ի տիպիկ արժեքը մոտ 0.1-ին. == Կարևոր նմուշառումը == === VEGAS Monte Carlo === G.P.Lepage-ի [[VEGAS ալգորիթմը]] հիմնված է [[Կարևոր ընտրանքի]] վրա. Այն հավանականության բաշխման ընտրանքների միավորը նկարագրված է ֆունկցիային <math>|f|</math>, որի կետերը կենտրոնացած են ռեգիոններում, որոնք ինտեգրալ ամենամեծ ներդրումն էր. Ընդհանրապես, եթե Monte Carlo անբաժան է <math>f</math> օրինակ, հավանականության բաշխումը նկարագրվում է ֆունկցիայի կողմից <math>g</math>, մենք ստանալու ենք գնահատական <math>E_g(f; N)</math>, <math>E_g(f; N) = E(f/g; N)</math> ինչպես նաև համապատասխան գործավարությանը, <math>Var_g(f; N) = Var(f/g; N)</math> Եթե բաշխման հավանականությունը ընտրված է որպես <math>g = |f|/I(|f|)</math>, ապա կարելի է ցույց տալ գործավարության դիսպերսիա <math>V_g(f; N)</math> անհետանալը, սխալ գնահատականները կլինեն զրո. Գործնականում հնարավոր չէ բաշխման ընտրանքից <math>g</math> կամայական գործողության համար, այսպես կարևորության ստուգման ալգորիթմների նպատակն է արտադրել արդյունավետ ցանկալի մոտեցում. VEGAS ալգորիթմը մոտենում է հստակ բաժանումներին անցման թիվը դարձնելով ռեգինների ընտրման միջոցով ֆունկցիայի հիստոգրամացվելու յամանակ <math>f</math>. Ամեն հիստոգրամ օգտագործվում է ընտրանքի բաժանման որոշման համար հաջորդ անցման համար:։ Ասիմպտոտորեն այս պրոցեսը գնում է ցանկալի բաժանմանը:։ որպեսզի խուսապենք հիստոգրամային աղբից, մեծացնելով <math>K^d</math> հավանականության բաժանումը պետք է մոտեցնենք բաժանման ֆունկցիային. <math>g(x_1, x_2, \ldots) = g_1(x_1) g_2(x_2) \ldots</math> այսպիսով վանդակների քանակը <math>Kd</math>:։ Եթե հնարավոր լինի ենթաինտեգրալը վերագրել ֆորմային, որը մոտորապես բաժանված է, դա կբարձրացնի VEGAS–ի հետ ինտեգրացիայի արդյունավետությունը: ։ VEGAS-ը ներառում է մի շարք լրացուցիչ հնարավորություններ,և համատեղում է և շերտավորված ընտրանք, և ստուգման կարևորությունը. Շրջանի ինտեգրումը բաժանված է մի շարք " արկղերի ", յուրաքանչյուր վանդակում ստանալու կայուն միավոր (նպատակը 2). Յուրաքանչյուր արկղ կարող է ունենալ կոտորակային շարքեր, բայց եթե արկղերը երկուսից պակաս են, Vegas-ը կրճատում է շեղումը ( այլ ոչ թե կարևոր նմուշառումը). VEGAS Monte Carlo ալգորիթմը այս ընթացակարգից օգտվում է, որպեսզի ինտեգրի հետևյալ ֆունկցիան <math>f</math> տարածական հիպերխորանարդի տարածքւոմ, որը որոշում է զանգվածի առաջին և վերջին ծայրերը <math>xl</math> և <math>xu</math>, որոնցից ամենքի չափսերը <math>dim</math>. Ինտեգրացիան օգտագործում է ֆունկցիայի կանչերի ֆունկցիոնաալ քանակը և ստանում է պատահական ընտրանքի կետերը պատահական թվերի գեներատորի միջոցով <math>r</math>. Աշխատանքային մասից ուղղարկված այս <math>s</math> պետքէ ներկայացվի:։ Արդյունքում վերադառնում է ինտեգրացիայի արդյունքը <math>result</math> արժեքով, բացարձակ սխալով <math>abserr</math>.Արդյունքը և նրա գնահատականի սխալը հիմնված են կշռվախ անկախ ընտրանքի վրա:։ Խի քառակուսին ազատության աստիճանի համար միջինում վերադառնում է գլխավոր բաղադրիչի կառուցվածքով, <math>s\to chisq</math>, և պետք է համաձայնացված լինեն 1-ի հետ Որպեսզի միջին կշռվածը լինի հուսալի: ։ VEGAS ալգորիթմը հաշվում է անկախ գնահատականների բաժանել մի շարքով, ըստ ստորև նկարագրված մտադրված պարամետրի, և վերադարձնում է իրենց միջին կշիռը. Պատահական ընտրանքի ինտեգրալը կարող է երբեմն արտադրել նախահաշիվը, եթե սխալ է- զրոյական, հատկապես եթե այդ գործառույթը հաստատուն է որոշ ռեգիոններում. Նախահաշիվը զրոյական սխալի պատճառ է դառնում, որի միջին կշիռը ներքև է և պետք է վարվել առանձին. Օրիգինալ Fortran VEGAS կատարումն է, որ սխալ է գնահատում ոչ զրոյական մի փոքր արժեքի փոխարինման կողմից (սովորաբար 1e-30). Ծրագրի իրականացման դեպքում GSL տարբերվում է և խուսափում է օգտագործել կամայական հաստատուն—դա էլ նշանակում արժեքի մի քաշ, որը նախորդ գնահատականների միջին քաշն է, կամ հետաձգել այն հետևյալ կարգով:։ * '''Միջին գնահատականը զրոյական սխալ է, միջին կշռվածը վերջավոր սխալի է ''' <br> Ընթացիկ նախահաշիվը`նշանակվում է մի քաշ, որի միջին քաշը նախորդ գնահատականներով է.. * '''Միջին գնահատականը վերջավոր սխալի է, նախորդ գնահատականները զրոյական սխալի են <br> Նախորդ գնահատականները անտեսվել են ու կշռված միջին ընթացակարգը սկսվում է ընթացիկ գնահատականներով. * '''Միջին գնահատականը զրոյական սխալի է, նախորդ գնահատականները զրոյական սխալի են''' <br> Օգտագործելով գնահատականների միջին թվաբանությունը նշանակում է, սակայն սխալ է հաշվարկվում. === Ուրվագծված պարամետրեր === VEGAS ալգորիթմը ուրվագծված է ==== chisq ==== Այս պարամետրը տալիս է chi-squared-ի մեկ աստիճան ազատություն ինտեգրալի գնահատման համար. Chisq-ի արժեքը պետք է մոտ լինի 1-ի. Chisq-ի արժեքը, որը զգալիորեն տարբերվում է 1-ից, նշենք, որ տարբեր բազմակրկնվող արժեքները անհետևողական են. Այս դեպքում կշռված սխալը գնահատվում է և հետագա բազմակրկնվող ալգորիթմը անհրաժեշտ է ձեռք բերել հուսալի արդյունքներ. ==== ալֆա(alpha) ==== alpha պարամետրը վերահսկում է ստացվող ալգորիթմի կոշտությունը. Այն սովորաբար սահմանվում է մեկ և երկուսի միջև. Զրո արժեքը խանգարում է ստացվող ցանցին:։ [[GNU գիտական գրադարանի]] իրականացման նախնական արժեքը 1.5. ====iterations(բազմակրկնություն)==== բազմակրկնություն թիվը կատարում է յուրաքանչյուր զանգի ռեժիմի վրա. [[GNU գիտական գրադարանի]] իրականացման նախնական արժեքը 5 բազմակրկնություն: ։ ==== փուլ(stage) ==== Համարը որոշում է հաշվարկման փուլը. Սովորաբար, փուլ= 0, որը սկսվում է նոր միասնական ցանցից և դատարկ միջին կշիռ. Կոչված vegas փուլը= 1 պահպանում է ցանց նախորդ հաշվով, սակայն discards միջին կշիռը այնպես, որ կարելի է "tune" ցանց օգտագործելով համեմատաբար քիչ միավորներ, ապա դա մեծ հաշվով ղեկավարում է փուլ= 1-ին օպտիմիզացված ցանց :։ Կարգավորման փուլում = 2 պահում է ցանց և նախորդ հաշվով միջին կշիռը, սակայն կարող է աճել (կամ նվազել) դիագրամմայի bins թվի grid կախված առկա զանգերի քանակից. Ընտրելով փուլ= 3 մտնում է գլխավոր հանգույց, այնպես որ ոչինչ չի փոխվել, և համարժեք է կատարել լրացուցիչ մտադրություն նախորդ այցով:։ ==== ռեժիմ(mode) ==== Հնարավոր ընտրություններ են GSL_VEGAS_MODE_IMPORTANCE, GSL_VEGAS_MODE_STRATIFIED, GSL_VEGAS_MODE_IMPORTANCE_ONLY. Այս սահմանում VEGAS-ը կօգտագործի կարևորության նմուշառումը կամ շերտ-շերտ կազմած ստուգումը, կամ արդյոք այն կարող է վերցնել իր սեփականը. Ցածր հարթություններում VEGAS-ը օգտագործում խիստ է շերտ-շերտ կազմած ստուգումը (ավելի ճիշտ, շերտ-շերտ դասված նմուշառումը ընտրվում է, եթե մեկ արկղում առկա է 2-ից պակաս արկղ). ==Տես նաև == *[[Auxiliary field Monte Carlo]] == Հիշատակում և հետագա ընթերցանությունը == Հետևյալ հղում Monte Carlo-յի մասին և quasi-Monte Carlo մեթոդները ընդհանրապես (ինչպես նվազեցման տեխնիկայի շեղման նկարագրության մեջ) հիանալի է սկսել:։ * R. E. Caflisch, ''Monte Carlo and quasi-Monte Carlo methods'', Acta Numerica vol. 7, Cambridge University Press, 1998, pp. 1–49. Nice survey on arXiv, based on lecture for graduate students in high energy physics:։ * S. Weinzierl, ''[http://arxiv.org/abs/hep-ph/0006269/ Introduction to Monte Carlo methods]'', The MISER algorithm is described in the following article, * W.H. Press, G.R. Farrar, Recursive Stratified Sampling for Multidimensional Monte Carlo Integration, Computers in Physics, v4 (1990), pp190–195. The VEGAS algorithm is described in the following papers, * G.P. Lepage, A New Algorithm for Adaptive Multidimensional Integration, Journal of Computational Physics 27, 192-203, (1978) * G.P. Lepage, VEGAS:։ An Adaptive Multi-dimensional Integration Program, Cornell preprint CLNS 80-447, March 1980 Early works:։ * J. M. Hammersley, D.C. Handscomb (1964) Monte Carlo Methods. Methuen. ISBN 0-416-52340-4 Ընդհանուր քննարկումը, ներառելով և MISER-ը և VEGAS-ը և համեմատելով, դա *{{Cite book | last1=Press | first1=WH | last2=Teukolsky | first2=SA | last3=Vetterling | first3=WT | last4=Flannery | first4=BP | year=2007 | title=Numerical Recipes: The Art of Scientific Computing | edition=3rd | publisher=Cambridge University Press | publication-place=New York | isbn=978-0-521-88068-8 | chapter=Section 7.9 Adaptive and Recursive Monte Carlo Methods | chapter-url=http://apps.nrbook.com/empanel/index.html#pg=410}} ---- ''Հիմնվելով [[GNUգիտական գրադարան]]ի ձեռնարկի վրա, որը հրապարակվում է GFDL (և հետևաբար ազատ է Wikipedia օգտագործման համար). Original available [http://www.gnu.org/software/gsl/manual/gsl-ref_23.html here].'' == Արտաքին հղումներ == *[http://math.fullerton.edu/mathews/n2003/MonteCarloMod.html Module for Monte Carlo Integration] *[http://math.fullerton.edu/mathews/n2003/montecarlo/MonteCarloBib/Links/MonteCarloBib_lnk_1.html Internet Resources for Monte Carlo Integration] [[Կատեգորիա:Monte Carlo methods]] [[ca:Integració de Montecarlo]] [[de:Monte-Carlo-Algorithmus]] [[es:Integración de Monte Carlo]] [[sr:Монте Карло интеграција]] [[vi:Tích phân Monte-Carlo]] All content in the above text box is licensed under the Creative Commons Attribution-ShareAlike license Version 4 and was originally sourced from https://hy.wikipedia.org/w/index.php?diff=prev&oldid=2668767.
![]() ![]() This site is not affiliated with or endorsed in any way by the Wikimedia Foundation or any of its affiliates. In fact, we fucking despise them.
|