Probabilitati Si Statistica

  • Uploaded by: Dan TheMan
  • 0
  • 0
  • February 2021
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Probabilitati Si Statistica as PDF for free.

More details

  • Words: 64,921
  • Pages: 174
Loading documents preview...
Gabriel V. ORMAN Gabriel NEPOTU

2008 – 2009 REPROGRAFIA UNIVERSITĂŢII “TRANSILVANIA” DIN BRAŞOV

1

2

CUPRINS Prefata ................ ………………………………………………...…………….… 2 Introducere ........................ ...............................................………… ......................3 1. Preliminarii de teoria multimilor ………………….............… ........................5 1.1. Elemente de teoria multimilor ..................................… .......................5 1.2. Elemente de teoria semigrupurilor ..........................… ........................13 2. Camp de Probabilitate …. .......... ...........................................… ......................17 2.1. Camp de evenimente ………………………………………...............17 2.2. Probabilitate pe campuri finite de evenimente ……… ........................28 2.3. Camp de probabilitate complet aditiv ………………………………...45 2.4. Metode clasice in teoria probabilitatilor ………… ...............................50 2.5. Formule utile in aplicatiile teoriei probabilitatilor. ……… .....................54 2.6. Independenta stochastica. Extractii repetate ………………………….61 2.7. Teorema Borel-Cantelli ………………………………………………69 2.8. Aplicatii ………………………………………………………………71 3. Variabile aleatoare. Caracteristici numerice. Functia de repartitie ...............80 3.1. Definitii. Exemple ……………………………………….…................80 3.2. Valori medii ……………………………………………….................87 3.3. Dispersia ……………………………………………………...............92 3.4. Corelatia ………………………………………………….…..............93 3.5. Inegalitatea lui Cebîsev …………………………………...................97 3.6. Inegalitatea lui Kolmogorov ……………………………...................98 3.7. Raport de corelatie ……………………………………….… ……….99 3.8. Variabile aleatoare pe un camp de probabilitate complet aditiv ……..100 3.9. Functia de probabilitate …………………………………….............103 3.10. Functia de repartitie ……………………………………….............104 4. Repartitia binomiala si repartitia Poisson …………………… ...................107 4.1. Repartitia binomiala ………………………………………...............107 4.2. Legea numerelor mari …… …………………………………............111 4.3. Repartitia Poisson ……………………………………… .................112 4.4. Repartitia multinomiala …………………………………….............121 4.5. Repartitia normala. Teorema limita DeMoivre-Laplace …..................122 5. Elemente de teoria selectiei ……………………….……………….................136 5.1. Selectie.Repartitie empirica…………………………………..............136 5.2. Valori tipice (empirice) de selectie………………………… ...............141 5.3. Aplicatii………….…………………………………………................145 6. Elemente de teoria estimatiei ……………………….……………..................151 6.1. Estimatii.Tipuri de estimatii…………………………………..............151 6.2. Metode de determinare a estimatiilor…………………………............156 6.3. Aplicatii……………………………………………………….............162 ANEXE …………………………………………………………………………...168 BIBLIOGRAFIE ……………………….……………………………...............172

3

PREFATA Teoria probabilitatilor este o disciplina matematica avand scopuri asemenea acelora pe care le are geometria sau mecanica aplicata, spre exemplu. De aceea, la fel ca oricare domeniu, trebuiesc distinse, si in cadrul teoriei probabilitatilor trei aspecte ale teoriei: continutul logicoformal, fundamentul intuitiv si aplicatiile. Fara considerarea acestor trei aspecte, atat in totalitatea lor cat si in interdependenta dintre ele, nu pot fi apreciate caracterul si armonia intregii structuri a domeniului. Astazi, teoria probabilitatilor si statistica matematica sunt aplicate in atat de multe domenii diferite, incat este necesara o teorie generala foarte flexibila pentru a putea prevedea instrumentele de lucru cele mai potrivite pentru o varietate atat de mare de cerinte. Orientarea empirica sau statistica, in directia probabilitatii, a fost dezvoltata, in special, de R.A. Fisher si R von Mises. De altfel, una dintre notiunile fundamentale ale teoriei probabilitatilor, aceea de camp de evenimente, o datoram lui R von Mises. Aceasta notiune a facut posibila constituirea unei teorii a probabilitatilor riguroasa din punct de vedere matematic, bazata pe teoria mas urii. O teorie, insa, devine matematica atunci cand ea poate furniza un model matematic al fenomenelor de care se ocupa. Pe masura ce numarul fenomenelor, impreuna cu proprietatile lor cunoscute a crescut, modelul matematic s-a dezvoltat, de la notiunile primare pe care s-a construit intuitia noastra, in directia unei generalizari si abstractizari inalte. Dar, in acest fel, consistenta intrinseca a modelului fenomenelor aleatoare a devenit indoielnica, ceea ce a impus o reconstructie a intregii structuri in al doilea sfert al secolului nostru, incepand cu o definitie axiomatica a insusi conceptului de probabilitate (datorata lui A.N. Kolmogorov). Asa a aparut o ramura noua a matematicilor - teoria probabilitatilor - interesata in construirea si studierea modelului matematic al intamplarii. Este, fara doar si poate, saltul calitativ inregistrat in chiar istoria dezvoltarii acestei teorii. Conceptul lui Kolmogorov a fost confirmat, destul de repede, de cercetarile si rezultatele obtinute mai ales de W. Feller, care furnizeaza si o serie de exemple si aplicatii capabile sa intregeasca si sa completeze teoria. Acest mod de abordare a teoriei s-a facut remarcat, in mod treptat, datorita influentei multor cercetatori, dintre care mai amintim pe M. Loève, P.P. Halmos, G.V. Gnedenko, I.I. Gihman, A.V. Skorohod, M. Rosenblatt, ale caror rezultate au condus, pe parcursul anilor, la consacrarea unei teorii moderne a probabilitatilor. In acest context, remarcam scoala ramaneasca de teoria probablitatilor si statistica matematica creata, cu aproape sase decenii in urma, de O. Onicescu si Gh. Mihoc. In aplicatii, modelele matematice abstracte servesc ca instrumente, modele diferite putand sa descrie aceeasi situatie empirica. Modul in care sunt aplicate teoriile matematice nu depinde de idei preconcepute; aceasta este o tehnica aplicata cu premeditare, care depinde de experienta si se schimba odata cu ea. In lucrarea de fata ne-am oprit doar la cateva dintre problemele fundamentale care trebuie sa intre in cultura unui intelectual. 4

Autorul INTRODUCERE Matematicile aplicate au devenit, de mai multi ani, un domeniu prioritar in intreaga lume, atat in procesul de instruire a studentilor, cat si in cercetare si in specializarea de varf. Desi la noi, in tara, se vorbeste de matematici aplicate, mai ales dupa 1990, adica de un timp relativ scurt, totusi, handicapul fata de lumea “avansata”, in special din punct de vedere conceptual, a fost, dupa parerea noastra depasit. Vorbim si noi, acum, destul de mult, despre matematici aplicate care au fost introduse ca domeniu prioritar chiar in specializarea de cel mai inalt nivel, cum este doctoratul. Dar cat de cuprinzator este acest domeniu, ce directii de studiu si cercetare pot fi urmate, sau chiar create, este o chestiune nu chiar atat de simpla. Situatia credem ca este comparabila cu ceea ce se intampla in cazul studiului sistemelor. De exemplu, se vorbeste destul de des despre systems theory, systems science si systems engineering, existand evenimente internationale, de mare prestigiu, consacrate acestora. Dar pana unde tine una dintre aceste directii si de unde incepe alta, este greu de spus. Cert este ca ele pot fi privite atat din punct de vedere ingineresc (in sensul pe care îl da computing engineering). cat si din punctul de vedere al matematicianului interesat in cercetari de matematici aplicare. In mod cert insa, cand vorbim de matematici aplicate intelegem atat cercetari de natura sistemica (inclusiv sisteme de decizie si sisteme informatice), cat si cercetari operationale, calculul probabilitatilor si statistica matematica, grafuri, programare matematica, fiabilitate, structuri algebrice, optimizari, combinatorica si operatori. Din toate aspectele ce pot fi luate in discutie se detasaza, in literatura universala, tematici care se refera, mai ales, la management, modele in economie, retele de comunicatii, probleme de transport, fiabilitate, sisteme expert si inteligenta artificiala, simulare si calcul. Lucrarea este conceputa pe baza prelegerilor tinute de autor, ca profesor la Universitatea “Transilvania” din Brasov, studentilor de la specializarile matematica, informatica, matematicafizica, relatii internationale (profil economic) si autovehicule rutiere (profil mecanic). Ne referim, in aceasta lucrare, la cateva aspecte oferite de studiul unor elemente, de baza, din teoria probabilitatilor si statistica matematica, instrument de lucru deosebit de fin care, in mod clar, se evidentiaza printre studiile privind ceea ce ne-am obisnuit sa numim, in mod cotidian, spre exemplu, proces economic. Nu ne referim, deci, la elemente de analiza matematica domeniu in care exista o bogata literatura de specialitate si care consideram ca trebuie sa faca parte din “alfabetul” fiecarui student care se specializeaza in sistemele economice, tehnice, matematice, fizice, chimice, biologice (ca sa numin doar cateva) si al cercetatorilor interesati in asemenea studii. Nu ne-am propus, de asemenea, sa rezolvam problemele specifice, dintr-un anume domeniu de preocupari, ca cel economic sau social, de exemplu, aceasta fiind exclusiv sarcina specialistilor din acel domeniu care, insa, nu vor putea obtine rezultate riguros fundamentate stiintific fara a implica, in studiile lor, modele matematice ca cele pe care le promovam aici, sau ca altele, dar, bineinteles la fel de eficiente.

5

Lucrarea este conceputa in patru capitole, capitolul preliminar fiind rezervat prezentarii catorva elemente de teoria multimilor si a semigrupurilor. Acestea sunt de un real folos in aplicatiile din informatica, studiul limbajelor formale si al automatelor, discipline care ofera modele eficiente, si usor de manevrat, pentru diferite aspecte ale fenomenelor economice, lingvistice, biologice, sociologice, etc.. Prin acest capitol preliminar speram sa acoperim, cel putin partial, lipsa unor cunostinte temeinice in aceasta directie, pe care multi cititori o acuza. In acest fel se inlesneste intelegerea faptelor, discutate in lucrare, de catre o categorie foarte larga de cititori. Celelalte trei capitole sunt dedicate unor probleme be baza din teoria probabilitatilor si statistica matematica. Istoria dezvoltarii teoriei probabilitatilor evidentiaza o armonioasa si stimulativa îmbinare intre teorie si aplicatii: progresul teoriei deschide noi campuri pentru aplicatii care, la randul lor, conduc la noi probleme si cercetari fructuoase. Astazi teoria probabilitatilor este aplicata in atat de multe domenii diferite incat este necesara o teorie generala foarte flexibila pentru a putea prevedea instrumentele de lucru cele mai potrivite pentru o varietate atat de mare de cerinte. La inceput, scopul teoriei probabilitatilor a fost de a descrie domeniul extrem de marginit al experientei legata de jocul intamplarii, efortul principal fiind indreptat spre calcularea anumitor probabilitati. Abia din deceniul al patrulea al secolului nostru putem vorbi de o tratare axiomatica, reprezentand dezvoltarea moderna a teoriei probabilitatilor, si aceasta o datoram lui A.N. Kolmogorov. Aceasta linie este urmata si in lucrarea de fata. Pornind de la o serie de neclaritati privind fenomenul probabilistic, constatate de autor din discutiile purtate cu diferite persoane, in lucrare au fost introduse multe si variate exemple, culese cu deosebita grija, dar trebuie inteles faptul ca probabilitatile numerice nu fac obiectul principal al teoriei. Scopul lor este de a scoate la iveala legi generale si de a constitui modele teoretice satisfacatoare. In capitolul 2 sunt introduse notiunile de camp de evenimente, probabilitate si camp de probabilitate, sunt stabilite formule utile de calcul si se discuta unele probleme referitoare la independenta stochastica. S-a pus accect, in acest capitol, pe conceptul de algebra booleana ca model matematic adecvat studierii proprietatilor unui camp de evenimente. Multiplele exemple prezentate au menirea de a stimula interesul cititorului pentru chestiunile discutate. Capitolul urmator este dedicat repartitiilor binomiala, Poison, multinomiala si normala, precum si discutarii unor aspecte privitoare la aproximarea normala a repartitiei binomiale. Notiunea de variabila aleatoare este introdusa in capitolul 4 unde se definesc si caracteristicile sale numerice. In final, se cerceteaza functia de probabilitate si functia de repartitie a unei variabile aleatoare. Lucrarea se adreseaza mai ales studentilor de la I.I.D, fie ca este vorba de specializari economice, matematica si informatica, matematica-fizica, biologie, fizica, specializarile tehnice. Desi este restrictiva ea poate fi folosita cu succes si de profesorii din invatamantul preuniversitar (inclusiv pentru pregatirea examenelor in vederea obtinerii gradelor didactice), inginerilor,

6

economistilor, precum si cercetatorilor interesati in utilizarea modelelor matematice bazate pe metode ale teoriei probabilitatilor si statisticii matematice.

CAPITOLUL 1 Preliminarii de teoria multimilor OBIECTIVE Elementele de teoria multimilor si teoria semigrupurior ancoreaza ulterioarele elemente probabiliste in cadrul matematicii de termininiste. Astfel cele doua laturi, cea probabilista si cea determinista, coexista si se completeaza reciproc.

-

La sfarsitul acestui capitol, studentii trebuie sa-si insuseasca: Operatiile cu multimi Indicatorul unei multimi.

Acest capitol contine notiuni de baza si unele rezultate relevante din teoria multimilor si teoria semigrupurilor. El este introdus tinand seama de faptul ca nu toti cititorii poseda, in egala masura, un fond matematic, de baza, in acest domeniu. Speram ca, prin notiunile si rezultatele prezentate, sa reamintim, si sa fixam, chestiunile fundamentale inlesnind, astfel, unei categorii foarte largi de cititori, intelegerea multora dintre faptele discutate. 1.1 Elemente de teoria multimilor Notiunea de multime (sau de colectie, de familie) are un caracter primitiv si nu se defineste. Ea se considera ca fiind deja cunoscuta. O multime poate fi pusa in evidenta in doua moduri diferite. Astfel, putem obiectele (elementele) multimii intre doua acolade, separandu-le prin virgula.

insira

De exemplu: 2,3,5, a,b,c,d,e, 1,2,3,4,5,....,n. Mai putem indica o multime exprimand proprietatea care caracterizeaza elementele multimii. De exemplu : x  x este un numar intreg si x2. Sa notam elementele multimii prin litere mici din alfabetul latin sau grec: a, b ,..., x, y, z;

,  , , ... Multimile vom fi notate prin litere mari A, B, C, ... O multime de multimi se numeste clasa sau familie. Clasele se noteaza prin litere mari ronde A, B, C, ... . Daca obiectul a este un element al multimii A, se scrie aA, in timp ce daca acesta nu apartine multimii A, se scrie aA. 7

Vom nota o multime care nu are nici un obiect prin  si o vom numi multime vida. De exemplu x x este un numar real ai x20. Pentru orice element a al multimii A, multimea a va insemna multimea care are un singur element a. In sensul notatiilor introduse mai inainte, rezulta ca a1, a2,...,an este multimea ale carei elemente sunt a1, a2, ...,an si nu altele. Daca o multimea A este finita, numarul elementelor sale, deci cardinalul multimii, va fi notat prin card A. Evident, card A este un numar intreg nenegativ. Definitia 1.1. Daca A si B sunt doua multimi astfel incat pentru orice obiect a, aA implica aB, atunci se spune ca A este o submultime a lui B. Se va scrie AB sau BA. In aceste cazuri se spune ca A este inclusa sau continuta in B (sau ca B include sau contine pe A). In egala masura se poate utiliza exprimarea : A este o parte a lui B. In particular, pentru orice multime avem AA. Ne referim la  ca fiind o relatie de incluziune, astfel ca ori de cate ori AB spunem ca A si B sunt legate prin relatia de incluziune. Daca AB si BA, atunci AB , adica multimea A este egala cu multimea B. In caz contrar AB. Daca AB si AB, se spune ca A este o submultime proprie a lui B. Acest fapt poate fi precizat prin notatia “AB si AB”. Definitia 1.2. Fie A si B doua multimi. Multimea x  xA sau xB se numeste reuniunea multimilor A si B si se noteaza AB. Daca A este o familie de multimi, atunci se defineste A x  xA pentru AA . Daca se considera o familie de multimi indexate dupa i, AiiI, atunci se utilizeaza notatia 

U A i  x x  A i pentru un i  I  . In cazul in care IN*, se scrie U A n ; n loc de U A n .

i I

n 1

nN *

Definitia 1.3. Dandu-se multimile A si B, se numeste intersectia lor multimea x  xA ¿i xB si se noteaza AB. Pentru o familie de multimi A se defineste A x xA pentru toate multimile AA . Pentru familia de multimi AiiI, avem  Ai  {x xAi pentru toti iI}. In mod analog se scrie i I



 An in loc de  An , daca IN*. n 1

n N *



De exemplu, daca AnxR,x1/n, nN*, atunci  An  {0} . Reamintim ca x inseamna n 1

valoarea absoluta a lui x definita astfel :

8

 x , daca  x   0, daca  x , daca 

x 0, x  0, x

0.

Fiind data o multime A, familia tuturor submultimilor lui A este o familie bine definita de multimi, numita familia partilor multimii A. Definitia 1.4. Multimile A si B se numesc disjuncte, daca AB. Daca A este o familie de multimi astfel incat fiecare pereche de multimi distincte din A sunt disjuncte, atunci se spune ca A este o familie disjuncta (sau ca A este o familie de multimi disjuncte doua cate doua). Prin urmare, o familie de multimi AiiI , indexate dupa i, este disjuncta daca AiAj pentru orice ij. Sa convenim ca multimile considerate sa fie submultimi ale unei multimi “universale” care s-a fixat, E. Definitia 1.5. Daca AE, se numeste complementara multimii A (in raport cu E) multimea x  xE si xA. Aceasta va fi notata CA sau Ac. Din aceasta definitie se deduce imediat ca CE si CE. Urmatorul rezultat este, de asemenea, bine sa fie retinut. Teorema 1.1. Pentru orice submultimi A si B, ale multimii universale E, astfel incat AB, au loc incluziunile : 1) CBACA ;

2) CBCA,

CBA fiind complementara multimii A in raport cu multimea B. Urmeaza, deci, ca pentru orice AE avem C(CA)A. Definitia 1.6. Dandu-se multimile A si B, multimea x  xA ¿i xB se numeste diferenta multimilor A si B. O vom nota A\B. Operatiile definite pot fi exemplificate in felul urmator. Fie multimile Aa, b, c si Bb, d. Atunci ABa, b, c, d ; ABb . A\Ba, c , CAB nu are sens. Referitor la complementarele unor multimi sunt imediate relatiile din teorema urmatoare. Teorema 1.2. (Relatiile lui De Morgan). Au loc urmatoarele relatii intre multimi: a) C(AB)CA  CB ; b) C(AB)CA  CB ; 9

  c) C A i   CA i ;  i I  i I   d) C A i   CA i .  i I  i I Cu ajutorul operatiilor de reuniune si intersectie se poate defini o noua operatie importanta cu multimi. Definitia 1.7. Se numeste diferenta simetrica a multimilor A si B multimea xxA sau xB si xAB. Se noteaza in felul urmator: A  B. Prin urmare, un obiect x apartine diferentei simetrice a multimilor A si B daca x apartine in mod precis uneia dintre multimile A si B (vezi fig, 1).

Rezulta de aici ca diferenta simetrica a multimilor A si B poate fi exprimata fie prin egalitatea A  B(A\B)(B\A),

B

A

fie prin egalitatea A B(ACB)(CAB).

A B Fig.1

Definitia 1.8. Fie A si B doua multimi. Se numeste produsul cartezian al multimilor A si B multimea tuturor perechilor ordonate (x,y) cu x A si yB. Se noteaza astfel A x B. Este important de retinut ca in definitia produsului cartezian a doua multimi se tine seama de ordinea in care sunt date acestea. Deci, se scrie (x,y)(a,b) daca si numai daca xa si yb. De exemplu, (2,5)(5,2). Definitia 1.8. poate fi extinsa la un numar arbitrar A n, n 1, de multimi. Astfel, produsul cartezian al multimilor A 1,A2,...,A n se defineste in felul urmator A1  A2  ...  An(x1,x2,...,x n) xiAi pentru orice i, 1 i  n. Daca A1A2...AnA se scrie A1  A2  ...  AnAn . Apare, in acest fel, ca naturala urmatoarea definitie. Definitia 1.9. O secventa ordonata de n obiecte (sau simplu secventa sau n-uplu) consta dintr-un numar de n obiecte date intr-o anumita ordine. Se intelege ca n nu poate fi zero si trebuie sa fie un numar finit. O secventa de doua elemente se numeste pereche, o secventa de trei elemente se numeste triplet, etc. 10

Definitia 1.10 Se numeste relatie orice multime de perechi. Cu alte cuvinte, o relatie este orice multime care este o submultime a produsului cartezian a doua multimi. Din aceasta definitie se deduce ca  este o relatie. O submultime R a produsului cartezian AB al multimilor A si B este o relatie de la A la B. Fie A si B doua multimi arbitrare si fie o relatie de la AB la B. Daca fiecare pereche ordonata (a1, a2) AA apare numai intr-o singura pereche ((a1, a2 ), b) a acestei relatii, atunci aceasta relatie este o operatie binara definita pe elementele multimii A cu valori in multimea B. (Aici “binar” inseamna ca doua elemente din A produc un element din B.) Se scrie, in acest caz, a1a2 b (buneinteles ca operatia  poate fi inlocuita dupa caz cu ,  sau alta operatie cunoscuta). Daca, de exemplu, A este multimea tuturor vectorilor din spatiul cu trei dimensiuni, iar B este multimea tuturor numerelor reale, atunci o relatie binara este produsul scalar ((v1, v2), r), sau scris in modul obisnuit v1 v2r. Daca, insa, B este de asemenea, multimea tuturor vectorilor tridimensionali, atunci produsul vectorial ((v1, v2),v3), scris in mod obisnuit v1v2v3 , este, si acesta, o relatie binara. Este util de retinut, de aici, ca o operatie definita pe elementele unei multimi poate duce la un rezultat din aceeasi multime sau dintr-o alta multime. Definitia 1.11. Relatia f2 este o extensie a relatiei f1 daca f1f2. Despre f1 se spune, in acest caz, ca este o restrictie a lui f2. Prin conventie vom utiliza notatia xfy pentru a indica faptul ca (x,y)f. Un tip special de relatie deosebit de importanta este relatia de echivalenta. Definitia 1.12. Fie X o multime. Se numeste relatie de echivalenta definita pe X o relatie notata ~ care este o submultime a produsului cartezian X  X si care, pentru orice x,yX, are proprietatile: 1) x~x (reflexivitate); 2) x~y implica y~x (simetrie); 3) x~y si y~z implica x~z (tranzitivitate). De asemenea, definitia urmatoare are mare utilitate. Definitia 1.13. Se numeste ordine partiala definita pe o multime A o relatie  care este o submultime a produsului cartezian A  A si satisface conditiile: 1) xx (reflexiva); 2) xy si yx implica xy (antisimetrica); 3) xy si yz implica xz (tranzitiva). Daca o relatie de ordine partiala satisface si conditia

11

4) x,y A implica xy sau yx, atunci aceasta se numeste relatie de ordine liniara definita pe A (numita si simpla, completa sau totala). Se scrie xy ori de cate ori xy si xy (xy inseamna yx, iar xy inseamna yx). Daca relatia  satisface, de asemenea, si conditia 5) BA implica existenta unui element bB cu proprietatea ca bx pentru fiecare xB (adica b este cel mai mic element din B), atunci A este o multime bine ordonata. Prin urmare , o multime partial ordonata este o pereche ordonata (A,), unde A este o multime, iar  este o ordine partiala pe A. Analog, o multime liniar ordonata este o pereche ordonata (A,), unde A este o multime, iar  este o ordine liniara (sau simpla, completa, totala) pe A. In sfarsit, (A,) cu  o relatie de buna ordonare pe A este o multime bine ordonata. Fie A o multime liniar ordonata si (x,y)A. Daca xy, atunci se defineste maxx,yy; iar daca yx, se defineste maxx,yx. Daca x1,x2,...,xn este o submultime finita a lui A (cu elemente xi,i1,2,...,n, nu in mod necesar toate distincte) se defineste maxx1,x2,...,xn ca fiind maxxn, maxx1,x2,...,xn-1 . In mod similar se definesc expresiile minx,y si minx1,x2,...,xn. In sensul definitiilor date rezulta ca relatia de incluziune  este o relatie de ordine partiala pe o familie A de multimi; iar perechea ordonata (A, ) este o multime partial ordonata. Ori de cate ori vom intalni asemenea situatii, ne vom exprima spunand ca familia A de multimi este partial ordonata prin relatia de incluziune. Exemple: 1. Sa consideram multimea tuturor numerelor rationale nenegative AxxQ, x0 si fie  ordinea naturala definta pe A. Atunci,  este o relatie de ordine liniara pe A si cel mai mic element al lui A este 0. Multimea A, insa, cu aceasta ordine, nu este bine ordonata deoarece exista submultimi nevide ale lui A care nu contin un cel mai mic element. Astfel, considerand multimea BxA  x 0 , ori de cate ori xB , avem x/2B , deci B nu contine un cel mai mic element. 2. Multimea N* a tututor numerelor intregi pozitive, cu relatia de ordine naturala, este o multime liniar ordonata. De asemenea, N* este si o multime bine ordonata. Daca f este o relatie si A o multime atunci, prin definitie, multimea f(A)y (x,y)f pentru xA poarta denumirea de imagine a lui A prin f. 12

Definitia 1.14. Daca f este o functie astfel incat dom fX si codom fY, atunci se spune ca f este o functie de la (pe) X in (la) Y. Se scrie f:XY. Daca codom f Y, atunci se spune ca f este o functie pe Y. Revenind la definitia 1.9, se poate spune ca o secventa este o functie al carei domeniu de definitie este N*. Daca x este o secventa, valoarea sa in n se noteaz xn sau x(n). Valoarea xn se 

numeste al n-lea termen al secventei. Secventa x avand al n-lea termen xn se noteaza prin  x n  n1 sau simplu prin (xn). O secventa (xn) se spune ca este din X daca xnX pentru orice nN* 1) . Prin abuz de notatie se scrie (xn)X. Teorema 1.3. Fie F o familie de functii astfel incat f,g  F implica ori fg, ori gf, adica F este ordonata liniar relativ la . Sa notam h  F. Atunci: 1) h este o functie; 2) dom hdom f  f F ; 3) x dom h implica h(x)f(x) pentru orice f  F astfel incat x dom f; 4) codom hcodom f  f F. Demonstratie: 1) In mod clar h este o relatie deoarece este o reuniune de multimi de perechi ordonate. Ramane, deci, de aratat ca h este monovalenta. Fie (x,y)h si (x,z)h. Atunci exista f si g in F astfel incat (x,y)f si (x,z)g . Se stie insa, din iopteza, ca fg sau gf. Sa presupunem ca fg. Atunci (x,y)g si (x,z)g, iar, pentru ca g este o functie, avem yz. Prin urmare, h este o functie. 2) Aceasta rezulta din faptul ca urmatoarele afirmatii sunt doua cate doua echivalente: x dom h; (x,y)h pentru elemente y; (x,y)f pentru fF; x dom f pentru fF. 3) Fie x dom h  dom f  dom f, unde fF. Atunci, (x,f(x))fh si h este monovalenta asa ca h(x)f(x). 4) Are loc succesiunea de egalitati codom hh ( dom h)  h(  dom f  fF)  h (dom f)  fF f (dom f) fF  codom f fF. In sfarsit, urmatoarea definitie introduce notiunea de functie caracteristica (sau indicatorul ) unei multimi. Definitia 1.15. Fie A o multime si B o submultime a sa. Functia IB, cu domeniul de definitie A si domeniul de valori continut in 0,1 astfel incat

1, daca IB(x) =  0, daca 1)

xB , x  A  CA B

N*1,2,3,...,n,..., N0,1,2,3,...,n,..., Z..., -n,...,-1,0,1,...,n,.... 13

se numeste functia caracteristica ( sau indicatorul ) a multimii B. Reciproc, fiecare functie de x care ia valori 0 sau 1 este o functie caracteristica a multimii pentru punctele in care aceasta ia valoarea 1. Se verifica urmatoarele corespondente biunivoce si relatii ( va insemna corespondenta biunivoca): I0, IE, IA  I A C 1, IAIB  A B, IA  IB  AB, IAB0  AB, IAn  IAn , daca An sunt multimi disjuncte, atunci IAn = Ian , IAn = I A1  (1  I A1 ) I A2  (1  I A1 )(1  I A2 ) I A3 ....... . Exista o functie caracteristica particulara careia, datorita frecventei cu care este folosita, i s-a atribuit un simbol special. In acest scop se defineste diagonala D a produsului cartezian A  A ca fiind multimea D(x,x)xA. Valoarea functiei caracteristice a multimii D in (x,y) se noteaza prin xy si se numeste simbolul  al lui Kronecker. Astfel, pentru punctele arbitrare x si y din A avem 1, dac \ x  y ,  xy   0, dac \ x  y.

Definitia 1.16. O multime se numeste recursiva daca are o functie caracteristica recursiva

2)

.

Cu alte cuvinte, o multime A este recursiva daca si numai daca exista o functie recursiva f astfel incat, oricare ar fi x, atunci xA implica f(x)1 si xCA implica f(x)0. Prin urmare, ori de cate ori exista un procedeu efectiv pentru a decide, dandu-se un x, daca x este sau nu un element al multimii A, se va spune ca A este recursiva. De exemplu, multimea numerelor intregi pozitive pare 0,2,4,... este recursiva. In general, orice multime finita este recursiva. Definitia 1.17. Se spune ca multimea A este enumerabila recursiv daca ori are loc egalitatea A, ori exista o functie recursiva f astfel incat Acodom f. Prin urmare, o multime este enumerabila recursiv daca exista un procedeu efectiv pentru inregistrarea elementelor multimii ( care se pot repeta). Amintim urmatoarele doua rezultate importante. Teorema 1.4. Daca A este o multime recursiva atunci, ea este o multime enumerabila recursiv.

2)

O procedura consta, in general, dintr-o multime finita de instructiuni care pot fi executate intr-un interval fixat de timp si cu un volum de munca, de asemenea, fixat. O procedura poate avea un numar arbitrar de intrari si iesiri. Ea defineste o aplicatie de la multimea tuturor intrarilor permise la o multime de iesiri. Aplicatia definita de o procedura se numeste functie partial recursiva sau functie recursiva. 14

Teorema 1.5. Multimea A este recursiva daca si numai daca A si CA sunt ambele enumerabile recursiv.

1.2 Elemente de teoria semigrupurilor O lege interna de compozitie (sau lege de compozitie) pe o multime A este o aplicatie a produsului cartezian AA in A, adica o aplicatie care asigura fiecarei perechi ordonate (a,b), de elemente din A, un element C din A, numit compusul lor. In general, compusul elementelor a si b se noteaza ab sau ab sau ab. In primul caz compusul se numeste suma elementelor a si b si se va spune ca legea de compozitie este aditiva ; iar in celelalte doua cazuri compusul se numeste produsul elementelor a si b si se va spune ca legea de compozitie este multiplicativa. Exista, insa, situatii in care nu se face distinctie intre legea aditiva de compozitie si cea multiplicativa. In acest caz compusul elementelor a si b poate fi notat ab, acesta putand fi ori suma ori produsul dintre a si b. Se va spune despre o lege de compozitie , definita pe multimea A, ca este asociativa daca

 abc  a bc

pentru toate elementele a, b si c din A. Exemplu. Fie S o multime arbitrara si A multimea tuturor aplicatiilor lui S in ea insasi, cu legea de compozitie (f,g)  fg, unde (f g)(x)f(g(x)) pentru orice xS. Aceasta lege de compozitie este asociativa intrucat daca f, g si h sunt elemente din A, atunci

  f  g  h x   f  g h x  f  g h x   f   g  h x  f   g  h x  f  g h x  ,

Si

oricare ar fi xS, ceea ce dovedeste ca legea de compozitie data este asociativa.

Un element e

se numeste element neutru, pentru o lege de compozitie  din A, daca

ae  ea  a , oricare ar fi aA. Teorema 2.1. Exista un element neutru si numai unul singur pentru o lege de compozitie  pe A. Demonstratie. Sa presupunem ca exista doua elemente neutre distincte e si e’ . Atunci au loc egalitatile ee’e’ si ee’e , de unde rezulta ee’ . Elementul neutru pentru o lege de compozitie aditiva se noteaza, de obicei, prin 0, in timp ce elementul neutru pentru o lege de compozitie multiplicativa se obisnuieste sa se noteze prin 1. 15

Definitia 2.1. Un semigrup este o pereche ordonata (A,), unde A este o multime nevida, iar  o operatie binara asociativa (adica o aplicatie a produsului cartezian AA in A). Prin urmare, daca x1, x2, x3, sunt elemente arbitrare din A, are loc relatia (x,x2)x3x1(x2x3). Ori de cate ori nu exista pericolul unei confuzii, vom nota semigrupul prin A in loc de (A, ) ; de asemenea, vom scrie x1x2 in loc de x1x2. Se va intelege prin ordinul semigrupului A cardinalul multimii A, care va fi notat prin card A. Elementul eA este un idempotent daca si numai daca e2e . Se va spune ca e este un element unitate stang (drept) daca si numai daca pentru orice xA, exx (xex) . In particular, daca exe (xee) , se mai spune ca e este un zero stang (drept). Evident, orice element unitate (in particular zero) este idempotent. Daca pentru orice xA are loc dubla egalitate

xexex ,

atunci eA este un element unitate (daca xeeex, atunci eA este un zero). Definitia 2.2. Un monoid este un semigrup cu element unitate. Un grup este un monoid A astfel incat pentru fiecare xA exista un elemet x-1A , numit invers lui x , cu proprietatea ca xx1

ex-1x, unde e este elementul unitate al lui A. Se observa fara dificultate ca daca x1 si x2 ar fi doua inverse distincte ale elementului

xA, atunci x1xxx2(x1x)x2ex2x2. Prin urmare, orice element xA are cel mult un invers. Un semigrup A este comunicativ sau abelian daca si numai daca x1x2x2x1 pentru orice x1,x2A . Daca (x1, . . . , xn) este o secventa finita de elemente din A, atunci x1x2 . . . xn  x1(x2 . . . (xn-1xn) . . . ). Definitia 2.3. Fie semigrupul A. Atunci SA este un subsemigrup al lui A daca si numai daca S si, pentru orice s1,s2S, s1s2S,. Se spune ca S este un subsemigrup propriu maximal al lui A daca si numai daca SA si, ori de cate ori au loc incluziunile SVA cu V un semigrup al lui A, atunci S V sau V S. Daca X este o submultime nevida a lui A atunci, se obisnuieste sa se noteze prin <X> subsemigrupul generat de X , adica cel mai mic subsemigrup al lui A care contine pe X. Cu alte cuvinte, subsemigrupul generat de X este intersectia tuturor subsemigrupurilor lui A care contin pe X. Este vizibil ca intersectia subsemigrupurilor unui semigrup este vida sau este un alt subsemigrup. <X> este, atunci, multimea tuturor produselor finite x1x2 . . . xn ale elementelor lui X. Se va spune ca X genereaza multimea A daca si numai daca <X> A. Este evident ca  A.

16

Definitia 2.4. Fie A1 si A2 doua semigrupuri. Atunci aplicatia h:A1 A2 este un omomorfism daca si numai daca h(x1x2)h(x1)h(x2) pentru orice x1,x2A1. Daca XA1, se va nota prin h(X) multimea yA2  yh(x) pentru xX. Avand in vedere clasificarea aplicatiilor, se poate face o clasificare a omomorfismelor. Astfel, un omomorfism care este injectiv se numeste monomorfism (adica daca pentru orice x1,x2A1, x1x2 implica h(x1)h(x2) ). Un omomorfism care este surjectiv se numeste epimorfism (adica daca h(A1)A2); in acest caz se va spune despre A2 ca este imaginea omomorfa a lui A1. Un omomorfism care este o bijectie poarta numele de izomorfism. Se va spune ca A1 este izomorf cu A2 (se scrie A1A2) daca si numai daca exista un izomorfism h al lui A1 cu A2. Daca h este un izomorfism, atunci se poate defini inversul lui h, notat h-1, astfel: pentru fiecare xA2, h-1(x) este unicul element din A1 astfel incat

hh-1(x)  x. Cum h-1 este

un izomorfism, nu este greu de observat ca  este o relatie de echivalenta pe clasa semigrupurilor. Un omomorfism al unui semigrup A in el insusi poarta denumirea de endomorfism al lui A; in cazul in care acesta este un izomorfism al lui A cu el insusi, se numeste un automorfism al lui A. Teorema 2.2. Fie h un omomorfism al lui A1 in A2 si se presupune ca exista o aplicatie f a lui A2 in A1 cu urmatoarele proprietati: f



h este aplicatia identitate a lui A1 si h f este

aplicatia identitate a lui A 2. Atunci h este un izomorfism al lui A 1 cu A 2. Demonstatie. Fie pentru aceasta x1 si x2 elemente din A1 astfel incat h(x1)h(x2). Atunci x1  (f



h)(x1)f(h(x1))f(h(x2))(f



h)(x2)x2, ceea ce dovedeste ca h este o injectie. Fie x3 un

element oarecare din A2 astfel incat f(x3)x. Atunci h(x)h(f(x3))(h  f)(x3)x3, de unde rezulta ca h este o surjectie. Prin urmare, h este un izomorfism. Exemple: 1. Fie X o multime data. Printr-o relatie R definita pe X se intelege orice submultime RXX (conform definitiei 1.10). Pentru x1,x2X se va scrie x1Rx2 sau x1x2

(mod R) daca

si numai daca (x1,x2)R. Atunci semigrupul tuturor relatiilor definite pe X, adica (2XX, ) are legea de compozitie R1  R2 (x,y)  exista zX, (x,z)R1,(z,y)R2. Fie R o relatie si sa notam R-1(y,x) (x,y)R. Atunci (RT)-1T-1  R-1 pentru toate relatiile T, R definite pe X. Se poate defini pe X o relatie identica I(X)(x,x)  xX. Incluziunea este o relatie de ordine partiala pe multimea tuturor relatiilor definite pe X (conform cu 1.1.); aceasta ordine partiala formeaza o latice cand este limitata la relatii de echivalenta. Astfel, o latice este o relatie de ordine partiala pentru care orice pereche de elemente are o cea mai mica margine superioara (M) si o cea mai mare margine inferioara (m). Daca R1 si R2 sunt relatii de echivalenta, m(R1,R2)R1  R2, iar

M(R1,R2)(R1  R2)n  1 n , 17

inchiderea tranzitiva a lui R1R2. Deci x este echivalent cu y in M(R1,R2) daca si numai daca exista secventa xx0,x1,....,xny astfel incat xiR1xi1 sau xiR2xi1 pentru i0,1,2,...,n-1. Daca R1 si R2 sunt relatii de echivalenta pentru care R1R2R2R1 atunci, se observa ca R1 R2 este o relatie de echivalenta si R1R2M(R1R2) de asemenea. 2. Fie S o multime nevida. Atunci semigrupul liber necomutativ fara element unitate generat de S, notat S, este multimea tuturor multimilor finite nevide ordonate de elemente ale lui S cu operatia de semigrup definita prin concatenare, adica

(x1,...,xn)



(y1,...,ym)(x1,...,xn,y1,...,ym) . S este un semigrup infinit. Se spune ca S este semigrupul liber generat de S, deoarece orice aplicatie  a multimii S intr-un semigrup A are o extensie unica  la un omomorfism al lui S in A, definit prin relatia

(x1,...,xn)(x1)...(xn). In particular, daca S este o multime de generatori ai lui A, iar  aplicatia identica atunci, > S A este un epimorfism astfel incat fiecare semigrup este o imagine omomorfa a unui semigrup liber. 3. Fie A un semigrup. a) Se defineste semigrupul A1 dupa cum urmeaza. Daca A este monoid, A1A. Daca A nu este un monoid atunci, A1A1, unde 1A, operatia de multiplicare in A ramane neschimbata si 1 opereaza ca un element unitate pentru A1. b) Se defineste semigrupul A0 in felul urmator. Daca A are un zero si card A1 atunci, A0A. In caz contrar, A0A0, unde oA, operatia de multiplicare in A ramane neschimbata, iar 0 actioneaza ca un zero pentru A0. c) Se defineste semigrupul AI ca fiind AI, unde IA, operatia de multiplicare in A ramane neschimbata, iar I actioneaza ca un element unitate pentru AI. De retinut ca AAI, chiar daca A este un monoid. De asemenea, A este un subsemigrup al lui A1, A0 si AI. Elementul 1 din (A)1 va fi identificat cu multimea vida. Vom utiliza pentru ( A)1 notatia A*. 4. Fie A si B multimi nevide si F(A,B) multimea tuturor functiilor de la A la B. Se scrie F(A) in loc de F(A, B). Se noteaza prin FS(A) semigrupul (F(A),) unde (fg)(a)f(g(a)) pentru aA. In mod similar FD(A) este semigrupul (F(a),), unde (f



g)(a)g(f(a)). In cazul

semigrupului FD(A) se mai obisnuieste sa de scrie (a)f in loc de f(a) , astfel ca (a)(f  g)(((a)f)g). Fie A un semigrup. Se defineste aplicatia S:FS(A1) prin S(x)(y)xy pentru xA si yA1. Aplicatia S este un omomorfism injectiv deoarece S(x1x2)(y)x1x2yS(x1)S(x2)(y)S(x1)S(x2)(y) si S(x)(1)x pentru orice x, x1, x2A si yA1. Monomorfismul S se numeste reprezentarea regulata stanga a lui A. Prin urmare, fiecare semigrup este izomorf cu un semigrup al lui FS(A) pentru o multime A. Analog se defineste aplicatia D:AFD(A1) data prin (y)D(x)yx pentru yA1 si xA. De asemenea, D este un momomorfism numit reprezentarea regulata dreapta a lui A. Este bine de retinut ca FD(X) este izomorf cu subsemigrupul semigrupului (2 XX , ), care consta din toate relatiile R avand proprietatea ca, pentru fiecare x, (x,y)R pentru un singur y. Analog, FS(X) este izomorf cu subsemigrupul care consta din toate relatiile R cu proprietatea ca, pentru orice y,

(x, y)R pentru un singur x. 18

CAPITOLUL 2 CAMP DE PROBABILITATE OBIECTIVE Elementele de baza ale Teoriei Probabilitatii:(camp de evenimente, camp de probabilitate, scheme probabiliste) sunt de natura pragmatica. Este facuta legatura intre multime si probabilitate. Se face trecerea spre abstract.

-

La sfarsitul acestui capitol, studentii trebuie sa-si insuseasca: Definitia empirica a Probabilitatii Probabilitate ca functie de multime si proprietatile ei Probabilitati conditionate Scheme de probabilitate

2.1. Camp de evenimente In acest paragraf se arata ca multimea evenimentelor asociata unei experiente provocate sau nu, in care apar fenomene intamplatoare, are o structura algebrica asemanatoare cu structura algebrica a partilor unei multimi, anume are o structura de algebra Boole. Rezultatul central este exprimat in teorema care afirma ca orice camp de evenimente finit, este izomorf cu algebra Boole a multimii partilor unei multimi finite. De asemenea, se pun in evidenta particularitatile care diferentiaza algebra Boole asociata unui camp de evenimente infinit si algebra Boole a multimii partilor unei multimi de cardinal transfinit (multime infinita). Sa efectuam, de exemplu, experienta aruncarii, pe o suprafata plana, a unui zar. Acest obiect paralelipipedic regulat are fetele numerotate de la unu la sase. Aruncandu-l pe suprafata considerata, el se va opri aratand una din fete; iar aparitia acesteia este un fapt intamplator, caci putem fi in prezenta fetei 1, sau 2, sau ... a fetei 6. Aparitia fetei numerotata cu numarul natural i, 1 i 6, este un eveniment si îl notam cu E i. Sa asociem experientei unele reguli de joc. De exemplu, sa cerem ca declarat castigator sa fie cel care obtine o fata numerotata cu un numar par. Sa indicam acest eveniment cu litera A. Daca apare o fata pe care figureaza un numar impar zicem ca suntem in prezenta evenimentului non A pe care îl indicam prin A (numit si eveniment comlementar sau contrar). Evident nu putem avea in acelasi timp A si A, insa are loc cu siguranta evenimentul A sau evenimentulA. Ne vom exprima spunand ca evenimentul A si A este evenimentul imposibil si ca A sau A este evenimentul sigur.

Observand ca aparitia fetei 2 atrage dupa sine

realizarea evenimentului A, spunem ca evenimentul E2 implica evenimentul A si scriem E2  A.

19

Astfel, E 2 A , E4  A , E6  A , E3  A etc.; insa E2 nu implica evenimentul A si scriem E2   A. Asociind jocului de fata si regula: jucatorul primeste dublul mizei daca are loc evenimentul Ei cu i 3, eveniment pe care îl desemnam prin litera B, rezulta ca evenimentul E 2 este privilegiat si are loc, daca si numai daca au loc evenimentele A si B. Imaginand diverse reguli de joc se vede ca experientei aruncarii cu zarul îi putem asocia o multime de evenimente. Sa indicam aceasta multime prin litera P. Daca facem conventia, de altfel naturala, sa consideram ca doua evenimente sunt identice (egale) daca se implica reciproc, observam ca implicatia “  “ este o relatie binara pe multimea P care are urmatoarele proprietati: 1. Orice AP se autoimplica, adica avem A  A. 2. Daca A1, A 2  P si A 1  A2, A 2  A1 atunci A 1  A2. 3. Daca A1, A2, A3  P si A1  A2, A2  A3 atunci A1  A3 fapt care ne permite sa spunem ca implicatia este o relatie de ordine pe P. De asemenea, observand ca odata cu evenimentele A 1, A2  P apartin multimii P si evenimentele A1 sau A2, respectiv A1 si A2, ultimul putand fi si evenimentul imposibil, pe care îl desemnam prin simbolul  , primul putand fi si evenimentul sigur pe care îl desemnam prin E, suntem in prezenta a doua legi de compozitie interne definite pe multimea P , disjunctia “sau” si conjunctia “si”. Punand ““ in loc de “ “, “ “ in loc de “sau” si ““ in loc de “si”, se poate constata, fara dificultate ca : Oricare ar fi evenimentele A, A 1, A 2, A 3  P avem : a. A1 A1  A2, A2  A1  A2 ; b. Daca A1 A, A2  A atunci A1  A2  A; c. A1  A2  A1, A1  A2  A2; d. Daca A  A1, A  A2 atunci A  A1 A2; e. A1  ( A2 A3)  (A1  A2 ) (A1  A3); f. Odata cu A P, A apartine lui P si A A E, A A   , fapte care au loc pe multimea evenimentelor asociate oricarei experiente in care intervin fenomene intamplatoare. Pentru a fixa ideile introducem Definitia 2.1.1 O multime L se numeste latice daca pe L s-a dat o relatie ““ numita relatie de ordine si doua operatii ““, ““ numite supremum si infimum, care satisfac urmatoarele axiome: L1. Oricare ar fi elementele m,n,p  L avem : a. m  m; b. daca m  n si n  m atunci mn; c. daca m  n si n  p atunci m  p. 20

L2. Oricare ar fi elementele m,n,p  L avem : a. m  m  n, n  m n; b. relatiile m  p, n  p implica m n  p; c. m  n  m, m  n  n; d. relatiile p  m, p  n implica p  m n . O latice L se zice ca este distributiva daca oricare ar fi m,n,p L avem m  (n p)  (m  n ) (m  p). O latice L se zice ca este complementata daca in L exista : e. un element T numit element total cu proprietatea ca orice l L satisface conditia lT; f. un element  numit element nul cu proprietatea ca orice l L satisface conditia   l si g. pentru orice lL exista cel putin un l din L numit complementul elementului l, astfel incat sa avem l l   , l  lT. O latice L complementata si distributiva se numeste algebra Boole. Indicand, in general, cu  multimea evenimentelor asociate unei experiente, in care intervin fenomene intamplatoare, avem Teorema 2.1.1. Multimea  are o structura de algebra Boole in raport cu implicatia considerata drept relatie de ordine, disjunctia, respectiv conjunctia evenimentelor considerate drept supremum si infimum, rolul elementului total fiind jucat de evenimentul sigur, iar cel al elementului nul de evenimentul imposibil. Un exemplu tipic de algebra Boole îl constituie multimea partilor unei multimi finite sau infinite X notata de obicei cu P(X). Incluziunea joaca rolul de relatie de ordine, reuniunea rolul de supremum, intersectia de infimum, elementul total fiind insasi multimea X, iar elementul nul multimea vida. Definitia 2.1.2. Algebra Boole  asociata unei experiente in care intervin fenomene aleatoare (intamplatoare) poarta numele de camp de evenimente. Campul de evenimente se spune ca este finit daca cardinalul multimii  este un numar natural, si se spune ca este infinit in cazul contrar. Astfel, algebra Boole apare ca un model matematic al notiunii noastre intuitive de camp de evenimente. Un exemplu de camp de evenimente finit este campul P asociat experientei aruncarii cu zarul. In adevar P este multimea alcatuita din 6 evenimente de tipul Ei, 15 evenimente de tipul

E i1  E i 2

i1  i 2 , 20 evenimente de tipul E i1  E i 2  E i 3

E i1  E i 2  E i 3  E i 4

i1  i 2  i 3  i 4 ,

E i1  E i 2  E i 3  E i 4  E i 5

6

i1  i 2  i 3  i 4  i 5 ,

i1  i 2  i 3 , 15 evenimente de tipul evenimente

de

tipul evenimentul

21

E i1  E i 2  E i 3  E i 4  E i 5  E i 6 care este, de fapt, evenimentul total si evenimentul imposibil  , cum se constata imediat daca observam ca in orice algebra Boole L avem :

m m  m ; m  m  m ; m  (n  p)  (m  n ) p ; m  (n  p)  (m  n )  p ; m  (n  p)  (m  n )  (m  p) oricare ar fi m, n, p L. Numarul total de evenimente care alcatuiesc acest sistem este egal cu 26. Vom spune ca multimea P, considerata mai sus, formeaza un sistem complet de evenimente. De asemenea, campul de evenimente asociat experientei aruncarii cu banul este finit si este alcatuit din evenimentele: E1 (stema), E 2 (banul), E 1  E2 evenimentul total si E1  E2   evenimentul imposibil. Campul de evenimente asociat experientei urmatoare nu este finit. Se considera un recipient umplut cu un fluid. In acest recipient sa distingem unele portiuni delimitate prin membrane permeabile. Aparitia unei particole intr-o portiune S este un eveniment intamplator. Pozitia particolei intr-un punct oarecare din recipient este un eveniment si, cum recipientul are o infinitate de puncte, campul evenimentelor asociat experientei este infinit. Evenimentul sigur este SS, iar cel imposibil este, de exemplu, SS deoarece particola nu poate fi in acelasi timp si in portiunea S si in afara ei. Definitia 2.1.3. Fie L o algebra Boole. Un element aL, nenul, (a  ), daca exista, se numeste atom daca relatia x a , (x a, xa), implica x  . Astfel, in algebra Boole asociata experientei aruncarii cu zarul, evenimentele E 1,E2,...,E 6 sunt atomi. In algebra Boole P(X) a partilor unei multimi X, multimile x cu x X sunt atomi. Definitia 2.1.4. O algebra Boole se zice ca este elementara daca are atomi si daca orice element al algebrei se exprima ca supremul atomilor care îl preced, anume daca

x   L x   p,  A este

multimea tuturor atomilor care preced elementul p, avem

p   x  . Aici A este o multime de indici care indexeaza atomi ce preced elementul p.  A

Algebra partilor unei multimi este elementara. De asemenea un alt exemplu este dat in Teorema 2.1.1 Orice algebra Boole finita este elementara. In adevar, fie L o algebra finita. Sa numerotam elementele nenule ale lui L astfel x1, x2, ..., xn. Daca elementul x1 nu are precedenti el este un atom. Daca x1 are precedenti, renumerotand elementele xi cu i convenabil, putem presupune ca x 2 este unul dintre acestia. Daca x2 nu are precedenti el este un atom. Daca are precedenti, putem proceda cu acesta asa cum am procedat cu x1. In acest mod putem afirma ca oricare ar fi elementul xL, exista un atom aL cu proprietatea a x. Fie a   A familia tuturor atomilor care preced elementul x. Multimea A este o multime finita. Afirmam ca x   a  . Sa presupunem contrarul, adica  A

 a  x. Indicand cu

 A

22

 a complementul elementului  a trebuie sa avem x    a    . Conform celor de  A  A

 A

mai sus, exista un atom a cu proprietatea a  x    a  .  A De aici rezulta ca ax si contrazicem faptul ca familia a   A este alcatuita din toti atomii care-l preced pe x. O consecinta importanta a rezultatului infatisat in teorema 2.1.1. îl exprimam in Teorema 2.1.2. Orice algebra Boole finita este izomorfa cu algebra partilor unei multimi finite X, convenebil aleasa. Inainte de a da demonstratia teoremei 2.1.2 vom preciza termenii si vom da un rezultat exprimat in propozitia 2.1.1 privind izomorfismele algebrelor Boole. Spunem ca doua algebre Boole L1, L2 sunt izomorfe daca pot fi puse in corespondenta bijectiva printr-o aplicatie   L1 L2 astfel incat pentru orice

x, y L1 sa avem

xyxy xyxy. Propozitia 2.1.1. Conditia necesara si suficienta ca doua algebre Boole L1, L2 sa fie izomorfe este sa existe o bijectie   L1 L2 astfel incat pentru orice x, y L1, din x y sa rezulte

x) (y) si din (x) (y) sa rezulte x y. In adevar, sa presupunem ca   L1 L2 este un izomorf. Deoarece relatia xy este echivalenta cu xxy, avem (x)(x)(y), deci (x)(y). Deoarece relatia (x)(y) este echivalenta cu (x)(x)(y) si (x)(y)(xy) rezulta (x)(xy). Ca urmare xxy de unde x y. Reciproc, sa aratam ca ansamblul implicatiilor ( x y implica (x) (y)) si ((x)(y) implica xy) implica calitatea bijectiei   L1 L2 de a fi un izomorfism. Din xy x, xy y rezulta (xy)  (x), (xy)  (y) de unde

(xy)  (x)  (y).

Insa (x)  (y)  (x), (x)  (y)  (y). Cum (x)  (y)  L2 exista z  L1 astfel incat sa avem (z) (x)  (y). Asadar (z)  (x), (z)  (y) de unde z  x, z  y, fapt care ne spune ca z  xy. Drept urmare (z)  (x  y). Deci (x)  (y)  (x  y). Dar, dupa cum am aratat, (xy)  (x)  (y), de unde rezulta (xy)  (x)  (y). Procedand asemanator, lasam in seama cititorului sa arate ca are loc si relatia (xy) 

(x)  (y). Acestea fiind spuse, sa trecem la demonstratia teoremei 2.1.2. Fie L o algebra Boole finita. Sa notam cu X multimea atomilor ei. Daca p L sa notam cu Xp multimea

 x  X x  p .

Evident XpP(x), unde P(x) este multimea partilor lui X.

Considerand aplicatia   L P(x) definita prin conditia (p)xp , suntem in prezenta unui izomorfism intre algebrele L si P(x). Evident imaginea elementului nul este multimea vida, iar imaginea elementului total T este X. In plus (p q)  Xp  Xq, (xy)  Xp  Xq. 23

Drept consecinte ale teoremelor 2.1.1, 2.1.2 avem Teorema 2.1.3 Orice camp de evenimente poate fi identificat cu algebra Boole a partilor unei multimi finite, convenabil aleasa. In aceasta identificare atomii campului se identifica cu multimile alcatuite din cate un element, implicatia se inlocuieste cu relatia de incluziune, supremul cu reuniunea iar infimul cu intersectia. Definitia 2.1.5. Daca admitem ca atomii campului sunt evenimente elementare ale acestuia, campul evenimentelor asociat experientei aruncarii cu zarul se identifica cu algebra Boole a partilor multimii E {1,2,3,4,5,6} care joaca rolul evenimentului sigur. Multimile , se identifica cu evenimentele elementare.

Sa cercetam acum cazul algebrelor

Boole infinite. Un exemplu de algebra Boole infinita este algebra partilor unei multimi infinite 1) . Fie X o astfel de multime si P(x) algebra Boole a partilor ei. O particularitate deja semnalata a acestei algebre este aceea ca este o algebra elementara, sau punctuala daca vrem sa ne apropiem de limbajul geometric punand atom  punct. O alta particularitate a acestei algebre este aceea ca este o algebra completa. Prin definitie o algebra Boole infinita L se zice ca este completa daca oricare ar fi familia PA cu PL elementele  P ,  P numite supremul si infimul familiei PA exista si  A

apartin algebrei L. 2)

 A

Astfel daca X este o familie arbitrara de parti ale lui X,  A

 A

X  si

X  exista si apartin multimii P(x). Fie, acum, o latice infinita oarecare L, de exemplu un camp de evenimente infinit. In general algebrele Boole infinite nu sunt elementare (punctuale) si nici complete. In cele ce urmeaza, din consideratii de natura practica, vom lua in consideratie numai

campuri de evenimente infinite care sunt algebre Boole elementare  - complete. Definitia 2.1.6. O algebra Boole infinita L se zice  - completa daca odata cu orice familie PA , cel mult numerabila 3) , cu P  L,  P ,  P exista si apartin algebrei.  A

 A

Fie L o algebra elementara  - completa si  multimea atomilor (punctelor) ei. Daca p L, fie

p     p multimea tuturor atomilor lui L care preced elementul p. Din modul cum a fost definita pP() si p    p , considerand aplicatia  L P() definita prin conditia p p

(p)p, suntem in prezenta unei aplicatii injective a algebrei Boole L pe multimea (L)  P(). 1)

Amintim ca, daca indicam prin card X numarul elementelor unei multimi X, cardinalul multimii P(X) se calculeaza dupa formula P(X)=2card X . 2)  P se defineste astfel: pentru orice A avem P  P si, daca pentru orice A, avem P  A

 A

p L, atunci  P p ;  P se defineste astfel: pentru orice A avem  P P si, daca pentru  A

 A

 A

orice A avem p P (pL), atunci p  P .  A 3)

Adica multimea A este finita sau in corespondenta biunivica cu multimea numerelor naturale. 24

Injectivitatea aplicatiei  confera multimii (L) o structura de algebra Boole in raport cu ““ incluziunea, ““ intersectia, si ““ reuniunea de elemente care organizeaza multimea partilor lui  drept algebra Boole. Cum (L) este izomorfa cu L prin , (L) este o algebra  - completa. Ca urmare (L) este o familie de parti ale multimii  care are proprietatile   ( L )  odata cu X (L), complementara multimii X apartine lui (L) si   I

X  ( L ) pentru orice I ,unde I este o multime cel mult numarabila. Am

demonstrat astfel Teorema 2.1.4. Orice algebra Boole L  - completa este izomorfa cu un corp  complet (corp borelian) de parti ale unei multimi  convenabil aleasa. Definitia 2.1.7. Intelegem

prin corp  - complet (corp borelian) de parti ale unei

multimi infinite , orice familie K()  P() de parti ale lui  care satisface conditiile: a)   K() (  multimea vida ); b) odata cu X  K(), complementara X a lui X, apartine lui K(); c) oricare ar fi familia ce l mult numarabila XI cu X  K() avem  I

X   K().

Rezultatele formulate in teoremele 2.1.3, 2.1.4., ne permit sa identificam campurile de evenimente cu care lucram fie cu algebra Boole a partilor unei multimi finite , fie cu un corp borelian al unei multimi infinite .. De aceea, de acum incolo vom desemna aceste campuri de evenimente prin (, P()), respectiv ( , K()), punand in evidenta multimea  gandita ca ansamblul evenimentelor elementare, care este totodata evenimentul sigur. Deci, in general un camp de evenimente nu este izomorf cu familia partilor unei multimi infinite. Cuplul (, K()) îl vom numi camp borelian de evenimente. Exemplul 2.1.1. (Distributia a trei bile in trei urne). Tabelul de mai jos infatiseaza toate situatiile posibile care apar in experimentul constand din asezarea a trei bile in trei urne. 1.

abc -  - 

10.

a  bc  - 

19.

-  a  bc 

2.

-  abc - 

11.

 b  ac  - 

20.

 -  b  ac 

3.

 -  - abc

12.

 c  ab  - 

21.

 -  c  ab 

4.

ab  c  - 

13.

 a  -  bc 

22.

ab c

5.

ab  b  - 

14.

 b  -  ac 

23.

acb 

6.

bc  a  - 

15.

 c  -  ab 

24.

bac 

7.

ab  -  c 

16.

 -  ab c 

25.

bc a

8.

ac  -  b 

17.

 -  ac b 

26.

ca b

9.

bc  -  a 

18.

 -  bc a 

27.

cb a

Tabelul 2.1

25

Fiecare dintre aceste aranjamente reprezinta un eveniment simplu, adica un punct. Evenimentul A intr-o urna se afla un produs este realizat in grupele 1-21 si exprimam acest fapt spunand ca evenimentul A este totalitatea punctelor 1-21. In mod similar, evenimentul B prima urna nu este goala este totalitatea punctelor 1, 4-15, 22-27. In sfarsit, evenimentul C definit astfel evenimentele A si B se realizeaza simultan este totalitatea celor treisprezece puncte 1, 4-15. In acest exemplu particular s-a intamplat ca fiecare din cele 27 de puncte sa apartina fie lui A, fie lui B, fie ambelor evenimente. Prin urmare, evenimentul ori A ori B ori ambele se realizeaza este tot spatiul simplu si se realizeaza cu certitudine. Evenimentul D definit prin A nu se realizeaza consta din punctele 22-27 si poate fi descris prin conditia ca nici o urna nu ramane goala. Evenimentul prima urna este goala iar in celelalte nu se afla vreun produs este imposibil (adica nu se realizeaza) deoarece nici un punct nu satisface aceste conditii. Exemplul 2.1.2. (Distribuirea a r bile in n urne). Cazul general al repartizarii a r bile in n urne poate fi studiat in acelasi mod, doar ca numarul aranjamentelor creste rapid împreuna cu r si n. Pentru r3 bile si n4 urne, spatiul simplu contine deja 64 puncte; iar pentru rn10 sunt 1010 puncte. Folosim acest exemplu pentru a ilustra faptul important ca natura punctelor este neesentiala din punct de vedere al teoriei. La noi spatiul simplu (împreuna cu probabilitatea de distributie definita in el) defineste experimentul idealizat. Utilizam limbajul pitoresc al bilelor si urnelor dar, de fapt, acelasi spatiu simplu admite o mare varietate de interpretari practice diferite. De aceea, atat pentru a clarifica acest aspect, cat si in vederea referirilor noastre ulterioare, prezentam, mai jos, un numar de situatii in care fundamentul intuitiv variaza. Toate sunt, insa, prin abstractizare echivalente cu schema plasarii a r bile in n urne, in sensul ca rezultatele difera numai prin descrierea lor verbala. Atribuirea adecvata a probabilitatilor nu este aceeasi in toate cazurile, dar aceasta chestiune o vom discuta mai tarziu. a. Zile de nastere. Configuratiile posibile ale zilelor de nastere a r oameni corespunde diferitelor aranjamente a r bile in n365 urne (presupunand ca anul are 365 zile). b. Accidente. Clasificarea a r accidente dupa zilele din saptamana, in care ele s-au produs, este echivalenta cu introducerea a r bile in n7 urne. c. In tragerea asupra a n tinte loviturile corespund bilelor, iar tintele urnelor. d. Oameni si profesii. Fie un grup de oameni clasificati dupa profesia pe care o au. Clasele joaca rolul urnelor, iar oamenii pe acela al bilelor. e. Iradiatia in biologie. Atunci cand celulele din retina ochiului sunt expuse luminii, particulele de lumina joaca rolul bilelor, iar celulele sunt urnele modelului nostru. In mod similar, in studiul efectului genetic al iradiatiei, cromozomii corespund urnelor din modelul discutat iar particulele  bilelor. f. In experimentele cu raze cosmice particulele care lovesc contoarele Geiger reprezinta bilele, in timp ce contoarele functioneaza ca urne. g. Un lift porneste cu r persoane si se opreste la n etaje. Diferitele aranjamente in care coboara persoanele corespunde diferitelor distribuiri a r bile in n urne.

26

h. Zarul. Rezultatele posibile ale unei aruncari cu r zaruri corespund plasarii a r bile in n6 urne. In cazul aruncarii unei monede, insa, avem numai n2 urne. i. Cifre aleatoare. Posibilitatile de ordonare a unei secvente de r cifre corespund distribuirii a r bile (corespunzatoare locurilor pe care le ocupa cifrele in secventa) in zece urne numite 0,1,...,9. j. Distribuirea dupa sex a r persoane. In aceasta situatie avem n2 urne si r bile. k. Colectie de timbre. Diferitele feluri de timbre reprezinta urnele, iar timbrele colectionate reprezinta bilele. l. Distributia genelor. Fiecare descendent dintr-un individ (persoana, planta sau animal) mosteneste de la stramosi anumite gene. Daca o gena particulara poate sa apara in n forme A1, ..., An, atunci descendentii pot fi clasificati dupa tipul de gena. Descendentii corespund bilelor, in timp ce genotipurile A1, ..., An corespund urnelor. m. Chimie. Presupunem ca un lung lant de polimeri reactioneaza cu oxigenul. Un lant partal al acestuia poate reactiona cu 0,1,2,3,... molecule de oxigen. Aici, moleculele de oxigen cu care se reactioneaza joaca rolul bilelor, iar lanturile de polimeri rolul urnelor in care sunt puse bilele. n. Greseli de tipar. Distributiile posibile a r greseli de tipar in cele n pagini ale unei carti corespund tuturor distributiilor diferite a r bile in n urne, cu conditia ca r sa fie mai mic decat numarul de litere pe pagina. Exemplul 2.1.3. (Cazul bilelor care nu se pot distinge). Sa ne intoarcem la exemnlul 2.1.1 si sa presupunem ca cele trei bile nu sunt distincte. Aceasta inseamna ca nu mai putem distinge intre trei aranjamente cum ar fi, de exemplu, 4,5,6 din tabelul 2.1, si, prin urmare, tabelul 2.1 se reduce la urmatoru l 1.

xxx -  - 

6.

x  xx  - 

2.

-  xxx - 

7.

 x  -  xx 

3.

 -  - xxx

8.

 -  xx  x 

4.

xx  x  - 

9.

 -  x  xx 

5.

xx  -  x 

10.

x x  x

Tabelul 2.2. Tabelul 2.2 defineste spatiul simplu al experimentului idealizat pe care îl numim plaseaza trei bile nedistincte in trei urne. Un procedeu similar se aplica in cazul distribuirii a r bile in n urne. Daca bilele pot sau nu pot fi distincte, in practica nu este un fapt semnificativ din punctul de vedere al teoriei. Chiar daca ele sunt distincte, putem decide sa le tratam ca nedistincte si vice-versa. Persoanele dintr-un lift (exemplul 2.1.2.g) evident ca sunt distincte si totusi adesea este preferabil sa le tratam ca nedistincte. De asemenea, zarurile din exemplul 2.1.2.h pot fi colorate pentru a le face distincte dar, daca in discutarea unei probleme particulare, folosim modelul bilelor distincte sau nedistincte, aceasta este numai o chestiune dependenta de scopul 27

urmarit si de comoditate. Alegerea poate fi dictata de natura unei probleme concrete, dar in toate împrejurarile teoria incepe numai dupa ce a fost ales modelul adecvat, adica dupa ce a fost definit spatiul simplu. In schema de mai sus am considerat bilele nedistincte, dar tabelul 2.2 inca se mai refera la prima, a doua, a treia urna, ordinea lor fiind esentiala. Sa mergem, acuma, mai departe si sa presupunem ca nici urnele nu sunt distincte ( adica urna poate fi alesa la intamplare fara a privi continutul ei). Atunci, daca bilele si urnele sunt nedistincte , sunt posibile numai trei aranjamente diferite, adica xxx -  - , xx  x  - ,  x  x  x . Exemplul 2.1.4. (Selectia). Presupunem ca se ia o selectie de 100 oameni pentru a estima cati oameni fumeza. Singura proprietate a selectiei care intereseaza, in aceasta ordine de idei, este numarul x de fumatori, care poate fi orice intreg intre 0 si 100. In acest caz putem accepta ca spatiul nostru abstract consta din cele 101 puncte 0, 1, ..., 100. Fiecare selectie particulara sau observatie este descrisa complet prin indicarea punctului corespunzator x. Un exemplu de eveniment compus este realizarea evenimentului majoritatea oamenilor selectionati sunt fumatori. Aceasta inseamna ca experimentul se realizeaza intr-unul din cele 50 de evenimente simple 51, ..., 100, dar nu se precizeaza in care. In mod similar fiecare proprietate a selectiei poate fi descrisa prin enumerarea cazurilor corespunzatoare sau a punctelor. Pentru uniformitate, vom folosi termenul de evenimente in loc de “proprietati” ale selectiei. Matematic, un eveniment este pur si simplu totalitatea punctelor corespunzatoare. Sa presupunem, acum, ca cei 100 de oameni din selectia noastra sunt clasificati nu numai ca fumatori sau nefumatori dar si dupa sex. Selectia poate fi caracterizata, deci, printr-un cvadruplu (Bf, Ff, Bn, Fn) de intregi reprezentand, in ordine, numarul de barbati si femei care fumeaza, barbati si femei care nu fumeaza. Putem lua ca puncte cvadruplele de intregi situati intre 0 si 100. Acestea constituie spatiul abstract. Evenimentul sunt mai multi fumatori barbati decat femei inseamna ca in modelul nostru raportul Bf / Bn este mai mare decat Ff / Fn. Punctul (73, 2, 8, 17) are aceasta proprietate, in timp ce (0, 1, 50, 49) nu o are. Evenimentul formula t anterior poate fi descris in principiu prin enumerarea tuturor cvadruplelor avand proprietatea specificata. Exemplul 2.1.5. (Aruncarea monedei). Considerand experimentul constand din aruncarea unei monede de trei ori, spatiul abstract consta din opt puncte care pot fi reprezentate astfel: BBB, BBM, BMB, MBB, BMM, MBM, MMB, MMM. Evenimentul A apare banul de cel putin doua ori este totalitatea primelor patru punte; iar evenimentul C apare o singura data marca inseamna ori BBM ori BMB ori MBB, deci A contine aceste trei puncte. Dupa cum s-a vazut, nu ne referim la probabilitati decat in legatura cu un spatiu abstract dat. Pornim, deci, de la notiunea de spatiu abstract si puncte ale sale pe care le vom considera, de acum incolo, ca fiind date. Ele constituie notiuni primitive si nedefinite ale teoriei, asa cum notiunile de punct si dreapta, de exemplu, raman nedefinite in tratarea axiomatica a geometriei euclidiene. Natura punctelor nu priveste teoria. Spatiul abstract reprezinta un model de 28

experiment ideal in sensul ca, prin definitie, fiecare rezultat imaginabil al experimenului este complet descris printr-un punct si numai unul singur. Are sens sa se vorbeasca despre un eveniment A numai atunci cand este clar pentru fiecare rezultat al experimentului daca evenimentul A s-a realizat sau nu. Colectia tuturor acelor puncte care reprezinta rezultatele in care A s-a realizat descrie complet evenimentul. Invers, orice colectie data A care contine unul sau mai multe puncte se poate numi un eveniment; acest eveniment poate sau nu sa se realizeze dupa cum rezultatul experimentului este sau nu este reprezentat printr-un punct al colectiei A. Prin urmare, definim cuvantul eveniment pentru a insemna acelasi lucru ca o totalitate de puncte. Vom spune ca un eveniment A consta din anumite puncte, anume acelea care reprezinta rezultatele experimentului ideal in care se realizeaza A. Exemplul 2.1.6. In spatiul abstract din exemplul 2.1.1. sa consideram evenimentul U constand din punctele numerotate 1, 7, 13. Evident aceasta este o definitie formala si simpla, dar U poate fi descris in multe moduri echivalente. De exemplu, U poate fi definit ca eveniment pentru care sunt satisfacute urmatoarele trei conditii: 10 urna a doua este goala, 20 bila a se gaseste in prima urna, 30 bila b nu apare dupa c. Fiecare dintre aceste conditii descrie ea insasi un eveniment. Evenimentul U1 definit prin conditia 10 consta din punctele 1, 3, 7-9, 13-15. Evenimentul U2 definit numai prin conditia 20 consta din punctele 1, 4, 5, 7, 8, 10, 13, 22, 23. In sfarsit , evenimentul U3 definit prin conditia 30 contine punctele 1-4, 6, 7, 9-11, 13, 14, 16, 18-20, 22, 24, 25. Evenimentul U poate fi descris, de asemenea, ca realizarea simultana a celor trei evenimente U1, U2, U3. Aplicatii 2.1. Fie L o algebra Boole elementara. Sa se arate ca, daca a, b sunt atomi si ab, atunci ab  . 2.2. Fie (, P()), (, K()) un camp de probabilitate finit, respectiv infinit. Sa se arate ca o conditie necesara si suficienta ca un eveniment  P(), ( K()) sa fie un eveniment elementar este ca, dat fiind X P(), (XK()), sa avem: sau X  sau  X. Solutii. 2.1. Evident aba, abb. Daca am avea aba, atunci ab. Cum ab rezulta a  , fapt care nu poate avea loc. Asadar aba, deci ab  . In limbajul campurilor de evenimente aplicatia 2.1 poate fi formulata si astfel: in orice camp de evenimente, orice doua evenimente elementare sunt incompatibile. Spunem ca doua evenimente X,YP() sau X,YK() sunt incompatibile daca XY   . Cu alte cuvinte doua evenimente sunt incompatibile daca realizarea unuia exclude posibilitatea realizarii celuilalt in aceeasi proba. 2.2. Sa presupunem ca  este un eveniment elementar. Atunci, dandu-se X arbitrar, avem X  . De aici rezulta ca: X   ; sau X  de unde urmeaza X.

29

Reciproc, sa presupunem ca   si ca X fiind dat, avem: sau X   sau X. Luand X cu X, avem X  X . Daca X   , rezulta X  ; iar daca X rezulta X  fapt care trebuie exclus. Asadar, pentru orice X cu X rezulta X  si deci  este un eveniment elementar. Observatie. Se poate face, deci, o prima clasificare a evenimentelor: sigure, imposibile, intamplatoare. De asemenea, drept consecinta a aplicatiei 2.1 avem o a doua clasificare a evenimentelor: compatibile si incompatibile. 2.2. Probabilitate pe campuri finite de evenimente In paragraful precedent s-au introdus notiunile de camp de evenimente finit si infinit. In acest paragraf subiectul fundamental il constituie studiul campurilor finite de evenimente inzestrate cu o posibilitate de evaluare a sansei, evaluare care sa dea o idee asupra realizarii sau nerealizarii intr-o experienta a unui eveniment dorit. Amintim ca orice camp finit de evenimente se identifica cu algebra Boole a multimii partilor unei multimi finite , multime care este evenimentul sigur. In aceasta identificare, rolul evenimentelor elementare este jucat de multimile alcatuite din cate un element din multimea , rolul evenimentelor oarecare este jucat de partile lui , rolul implicatiei de incluziune, al disjunctiei evenimentelor de catre reuniune, iar cel al conjunctiei evenimentelor de intersectia lor. Probabilitatile diferitelor evenimente sunt numere de aceeasi natura ca si distantele in geometrie sau masele in mecanica. Teoria le presupune ca fiind date, dar nu presupune numic referitor la valoarea lor numerica reala sau la modul in care ele sunt masurate in practica. Unele dintre cele mai importante aplicatii sunt de natura calitativa si nu depind de valorile numerice. Concluziile generale ale teoriei sunt aplicate in multe moduri, tot asa cum teoremele geometriei, spre exemplu, servesc ca o baza temeinica pentru teorii fizice sau pentru aplicatii tehnice. In relativ putinele exemple unde sunt necesare valori numerice pentru probabilitati, metodele de procedura variaza la fel de mult ca si metodele de determinare a distantelor. Spre exemplu, sunt putine elemente comune in practica masurarii distantelor de catre un tamplar, un topograf, un pilot sau un astronom. In contextul nostru, insa, putem considera gradul de difuzie constant, care este o notiune a teoriei probabilitatilor. Pentru a gasi valoarea sa numerica sunt necesare consideratii fizice care sa o lege cu alte teorii, o masurare directa fiind imposibila. Din contra, tabelele privind procesul mortalitatii se intocmesc pe baza unor observatii neprelucrate. In cele mai multe aplicatii concrete determinarea probabilitatilor, sau compararea teoriei si observatiei, necesita metode statistice mai rafinate care, la randul lor, se bazeaza pe o teorie a probabilitatilor perfectionata. Cand aruncam o moneda “perfecta”, obisnuim sa asociem probabilitatea ½ ori cu banul ori cu stema. Aceasta este echivalent cu a spune ca, atunci cand se arunca o moneda de n ori toate cele 2n rezultate posibile au aceeasI probabilitate. Din punct de vedere teoretic aceasta este o conventie. In mod frecvent s-a sustinut ca aceasta conventie este in mod logic inevitabila si singura posibila, desi unii statisticieni au desconsiderat aceasta conventie, luand ca punct de 30

plecare presupuneri contradictorii (uniformitatea sau neuniformitatea din natura). De asemenea, s-a revendicat faptul ca probabilitatile ½ se datoresc experientei. De fapt, ori de cate ori s-au folosit metode statistice rafinate pentru a descrie o aruncare reala a monedei, rezultatul a fost invariabil pentru ca banul si stema nu sunt egal probabile . Si totusi, asociem modelului nostru o moneda ideala, chiar daca nu exista monede perfecte. Astfel ca vom mentine acest model nu numai pentru simplitatea sa logica ci, in special pentru utilitatea si aplicabilitatea sa. Desi in multe aplicatii este suficienta o descriere exacta a realitatii, mai important este, insa, faptul empiric ca abaterile de la schema noastra sunt totdeauna cuplate cu fenomene ca acela al pozitiei excentrice a centrului de gravitate, spre exemplu. In acest mod, modelul nostru idealizat poate fi extrem de folositor chiar daca el nu se aplica niciodata exact. De exemplu, in controlul statistic de calitate modern, bazat pe metodele lui Shewhart, modelele probabiliste idealizate sunt folosite pentru a descoperi cauzele plauzibile ale abaterilor flagrante de la aceste modele si, astfel, a le reduce cat mai mult intr-o etapa urmatoare. Observatii similare se pot face si in alte cazuri. Exemplul 2.2.1. (Bile care se pot distinge). In exemplul 2.1.1. apare cu totul natural sa se presupuna ca toate evenimentele elementare sunt egal probabile, adica fiecare eveniment elementar are probabilitatea 1/27. Sa consideram ca punct de pornire aceasta definitie si sa cercetam consecintele sale. Daca modelul nostru va deveni sau nu suficient de adecvat unei experiente reale, va depinde de tipul de fenomene la care el este aplicat. In unele aplicatii, presupunerea probabilitatilor egale este impusa de consideratii fizice; in altele ea se introduce pentru a servi ca cel mai simplu model pentru o orientare generala chiar daca, in mod cu totul evident, ea reprezinta numai o prima aproximatie bruta (spre ilustrare pot fi considerate exemplele 2.1.2.(a) - zilele de nastere; 2.1.2.(g) - liftul; 2.1.2.(k) - colectia de timbre). Exemplul 2.2.2. (Bile care nu se pot distinge; statistica Bose-Einstein). Sa ne intoarcem la exemplul 2.1.3. al repartizarii a trei bile nedistincte in trei urne. Se poate arata ca experimentul fazic real nu este afectat de neputinta noastra de a distinge bilele intre ele; din punct de vedere fizic raman 27 de posibilitati diferite, chiar daca se pot distinge numai zece forme diferite. Aceasta consideratie ne conduce sa atribuim urmatoarele probabilitati celor zece puncte din tabelul 2. Numarul ordine punctului Probabilitatea

de al

1

2

3

4

5

6

7

8

9

10

1/27

1/27

1/27

1/9

1/9

1/9

1/9

1/9

1/9

2/9

Trebuie remarcat ca pentru cele mai multe dintre aplicatiile care urmeaza exemplului 2.1.2. acest rationament apare logic, iar atribuirea probabilitatilor rezonabila. Din punct de vedere istoric acest rationament a fost acceptat multa vreme fara rezerve si a servit in mecanica statistica drept baza pentru derivarea statisticii Maxwell-Boltzmann pentru repartizarea a r bile in 31

n urne. In acest context a fost, evident, o surpriza cand Bose si Einstein au aratat ca anumite particule se supun statisticii Bose-Einstein (vezi aplicatii). In cazul nostru, cu rn3 modelul Bose-Einstein atribuie probabilitatea 1/10 fiecaruia dintre cele zece puncte. Acest exemplu arata ca atribuirea diferitelor probabilitati este compatibila cu aceeasi multime de evenimente elementare si ilustreaza complicata corelatie dintre teorie si experienta. In particular, el ne invata sa nu avem incredere prea mare in rationamente a priori, ci sa fim pregatiti sa acceptam scheme noi si neprevazute. Exemplul 2.2.3. (Aruncarea monedei). O frecventa interpretare a postulatului probabilitatilor egale necesita informatii cu privire la experiente reale. Dar, in realitate, fiecare moneda sufera influente si este posibil sa se conceapa experimente fizice care sa fie mult mai apropiate de modelul ideal al aruncarii monedei decat ar face-o monedele adevarate vreodata. Pentru a avea o idee asupra fluctuatiilor la care ne putem astepta, prezentam rezultatele unui astfel de experiment simulat care corespunde unui numar de 10000 probe cu o moneda. Tabelul de mai jos contine numarul de aparitii ale “banului”intr-o serie de 100 experiemente., fiecare corespunzand unei secvente de 100 probe cu o moneda. Totalul general este 4979. Privind aceste rezultate este foarte probabil ca cititorul, la prima vedere, sa se intrebe: este necesara, oare, o teorie mai avansata pentru a judeca in ce masura asemenea date empirice concorda cu modelul nostru abstract? Vom reveni, deci, asupra acestei chestiuni. Numarul probelor

Numarul de ori in care a aparut banul

Total

0 - 1000

54

46

53

55

46

54

41

48

51

53

501

- 2000

48

46

40

53

49

49

48

54

53

45

485

- 3000

43

52

58

51

51

50

52

50

53

49

509

- 4000

58

60

54

55

50

48

47

57

52

55

536

- 5000

48

51

51

49

44

52

50

46

53

41

485

- 6000

49

50

45

52

52

48

47

47

47

51

488

- 7000

47

47

41

51

49

59

50

55

53

50

500

- 8000

53

52

46

52

44

51

48

51

46

54

497

- 9000

45

47

46

52

47

48

59

57

45

48

494

- 10000

47

41

51

48

59

51

52

55

39

41

484

Tabelul 2.3 Sa ne oprim, acum, asupra definirii probabilitatii unui eveniment oarecare si sa stabilim cateva reguli importante de calcul. Fie   , P un camp finit de evenimente asociat unei experiente.

32

Fiind dat un eveniment AP() se ridica intrebarile: Efectuand experienta, evenimentul A va avea loc sau nu ? Care este sansa ca evenimentul A sa aiba loc ? Ce se intelege prin sansa si cum o evaluam ? Pentru a preciza ideile sa consideram, de exemplu, experienta aruncarii cu banul. Campul asociat experientei in cauza este alcatuit din partile multimii   1,2 unde1 este evenimentul care marcheaza aparitia stemei, iar {2} este evenimentul care marcheaza aparitia valorii. Alegand evenimenul 1 , la intrebarea: care este sansa ca aruncand moneda, aceasta sa prezinte fata marcata cu stema? Credem ca oricine va raspunde: sansele aparitiei stemei, sau fetei pe care este marcata valoarea monedei, sunt egale. In esenta, cel chestionat, gandeste sansa aparitiei evenimentului 1 , sau a evenimentului

2 , ca numar. Definitia 2.2.1. Se numeste probabilitate (dupa matematicianul A.A. Kolmogorov) a evenimentului AP() o functie nenegativa P(A)0, care satisface axiomele: a) P() = 1; b) Daca A,B  P  si A  B   , atunci are loc relatia P A  B  P A  P B . Definitia 2.2.2 . Orice pereche de evenimente

A,BP() care satisfac conditia

A  B   se spune ca sunt evenimente incompatibile.

Proprietati ale probabilitatii. Luand in definitia 2.2.1. b) A  B   obtinem

P    P      P    P    2 P   de unde rezulta (2.1) P()0, fapt care ne spune ca evenimentul imposibil are probabilitatea nula. Luand, acum, in 2.2.1. b), B  A , unde A este evenimentul contrar obtinem relatia

4)

evenimentului A,

 

(2.2) P A  1  P A formula care exprima legatura intre probabilitatea evenimentului A si probabilitatea evenimentului contrar. Definitia 2.2.3 . Evenimentele A1, . . . ,A n din P  se spune ca sunt evenimente incompatibile daca oricare ar fi numerele i,j{1,2, ..., n} in relatia ij, avem Ai  Aj   . Fara dificultate, prin inductie, se poate demonstra Teorema 2.2.1. Daca A1  P  , i  1,..., n sunt n evenimente incompatibile, atunci  n  PU Ai    i 1 

n

 P A  . i

i 1

4)

Unii autori utilizeaza notatia CA sau Ac pentru a desemna evenimentul contrar (numit si complementar) al evenimentului A. 33

Sa observam ca aceasta egalitate ramane adevarata si in cazul cand se ia o multime de indici I infinita, adica   P U A    P A  .   I   I

Intr-adevar, daca I este o multime infinita de indici, atunci, deoarece P 

este o

multime finita, cel putin unul dintre evenimentele A se repeta de mai multe ori. Dar evenimentele care se repeta trebuie sa coincida cu evenimentul imposibil ; iar evenimentele care nu se repeta sunt in numar finit. Fie J multimea indicilor  pentru care evenimentul A nu se repeta. Atunci, daca   I  J urmeaza ca A n si, prin urmare,     P U A   P  A    P ( A )   P ( A ) .   I    J    J  I

Teorema 2.2.2. Daca A, B  P  si AB atunci, P(A)  P(B) si exprimam acest fapt spunand ca probabilitatea este functie monotona peste P( ) . In adevar, observand ca =A(BA)B si ca evenimentele A, B A , B sunt evenimente incompatibile, aplicand teorema 2.2.1. rezulta



  

P A   P B  A  P B  1 Dar

 

P B  1  P B astfel ca





P A   P B  A  P B . Cum numerele P(A), P(B), P(B A ) sunt numere pozitive, rezulta P(A)  P(B) . Fie A, B P () si A  B. Atunci,

B  A  B  A  si cum A   B  A    obtinem

P B  P A   P B  A  sau

P B  A   P B  P A  . Sa ne reamintim ca, in acest paragraf, campurile de evenimente luate in consideratie, sunt campuri finite. Aceasta inseamna ca multimea  este o multime finita. Indicand prin x 1, . . . , x n elementele ei,  x1, . . . , x n , evenimentele elementare x1, xj, ij, sunt incompatibile. Daca P este o probabilitate pe campul (,P()) atunci, punand P(x1)pi, avem (2.3) P1  P2 ... Pn  1 ,





iar daca A P() este evenimentul A x i1 ,..., x i p atunci (2.4) P(A) = Pi1 ... Pi p . 34

Acest fapt ne spune ca putem intotdeauna defini o probabilitate P peste un camp finit de evenimente (,P()),  x1, . . . , x n , daca luam P(xi)  pi, unde pi sunt numere reale arbitrare supuse conditiei pi0,1, astfel incat sa avem indeplinita conditia (2.3) si, daca pentru orice A

x

i1 ,..., x i p

  P(), calculam probabilitatea evenimentului A cu (2.4).

In particular, daca presupunem ca evenimentele elementare ale campului de evenimente (

x1,

.

.

.

,

xn

,

P())

,

sunt

egal

probabile,

deci

daca

luam

P x1  P x 2 ....  P x n   p, p  0, p 0,1 , atunci np1 deci p1/n , (adica probabilitatile evenimentelor sunt egale intre ele) si (2.5) P A  

cardA num \ rul  card num \ rul

elemntelor

ml ]imii

A

elemntelor

ml ]imii



formula care poate fi luata drept definitie a probabilitatii unui eveniment oarecare A apartinand unui camp finit cu evenimente. Aceasta este definiia clasica a probabilitatii. Ne referim la cardA ca fiind numarul rezultatelor favorabile realizarii evenumentului A, iar la card ca fiind numarul rezultatelor incompatibile egal posibile ale experimentului in urma caruia se poate realiza evenimentul A (cardA  card). Exista situatii, insa, in care aceasta definitie clasica a probabilitatii se dovedeste insuficienta, manifestand lipsuri care nu pot sa nu fie luate in seama. Ne vom referi aici, pe scurt, la trei aspecte care vor evidentia fie imposibilitatea clasificarii evenimentelor in cazuri egal posibile, atunci cand se aplica definitia clasica a probabilitatii, fie neputinta de a determina, in general, numarul cazurilor. Am vazut ca notiunea de probabilitate apare in legatura cu procesul efectuarii unei experiente. Dar, cand se arunca zarul, sa zicem de 100 de ori, se poate numara efectiv de cate ori a aparut fata sase. Suntem, astfel, in prezenta unei noi notiuni numita frecventa relativa, definita in modul urmator: Daca in n experiente un eveniment s-a produs de  ori, raportul

/n se

numeste frecventa relativa a evenimentului considerat in seria de experiente efectuate. Daca experienta se repeta de un numar mare de ori, atunci se constata ca frecventele relative ale unor evenimente oscileaza in jurul unor anumite valori. Deci, se poate vorbi despre o stabilitate a frecventelor relative, notiunea teoretica de probabilitate a unui eveniment neputand fi despartita de notiunea de frecventa relativa. Mai mult chiar, se poate spune ca teoria probabilitatilor se poate aplica numai acelor fenomene pentru care exista o stabilitate a frecventelor relative in jurul probabilitatii. Aici este esenta legilor de probabilitate dupa care se desfasoara o multime de fenomene ale naturii si ale vietii sociale. Dar, pentru multe fenomene, indeplinirea unui sistem de conditii nu conduce in mod necesar la un eveniment A. In schimb, daca se repeta experienta de un numar de ori, cu indeplinirea de fiecare data a conditiilor date, se va observa o anumita legitate exprimata prin oscilarea frecventei relative in jurul unui numar reprezentand elementul stabil, pe care obisnuim sa-l notam cu p. Se va spune ca, pentru aceste fenomene, probabilitatea ca la indeplinirea sistemului de conditii date sa se realizeze evenimentul A este egala cu p. 35

Prin urmare probabilitatea unui eveniment are sens numai atata timp cat nu se schimba conditiile in care are loc experienta respectiva. Schimbarea acestor conditii implica schimbarea probabilitatii. In acest sens, apare deja o prima deficienta a definitiei clasice a probabilitatii anume, aceea de a fi rupta de realitate. Dar numai atat. Prin relatia (2.5) se defineste probabilitatea unui eveniment A prin raportul dintre numarul cazurilor favorabile realizarii lui A si numarul cazurilor egal posibile. Or, o astfel de definitie are la baza tocmai posibilitatea de a discrimina aceste cazuri egal posibile. Dar, daca ne gandim nu la fenomene mai complexe, ci doar la aceeasi experienta simpla care consta din aruncarea cu zarul, acest zar, presupus ipotetic perfect construit si omogen, in realitate nu poseda aceste calitati relative la perfectiunea sa. Deci in conditiile realitatii dispare chiar probabilitatea de clasificare a fetelor zarului in cazuri egal posibile astfel ca, nici atunci cand se considera un numar finit de cazuri posibile, de cele mai multe ori nu se poate face discriminarea lor in cazuri egal posibile. In sfarsit, al treilea aspect pe care-l discutam se refera la situatiile in care trebuie considerat un numar infinit de cazuri. Sa presupunem, de exemplu, ca vrem sa determinam probabilitatea de a obtine un numar prim luand la intamplare un numar din sirul numerelor naturale. Este clar ca in acest caz, nu numai ca nu putem discrimina numarul cazurilor posibile, dar ne lovim de dificultatea determinarii chiar a numarului total de cazuri. Daca, in plus, ne gandim si la faptul ca definitia clasica a probabilitatii nu se poate aplica unei categorii largi de fenomene naturale si sociale, tocmai din cauza imposibilitatii de a determina numarul cazurilor favorabile sau al tuturor cazurilor egal posibile, ajungem la concluzia ca aceste neajunsuri ale definitiei clasice a probabilitatii trebuiesc inlaturate pentru a putea vorbi de o teorie a probabilitatii consistenta, puternic ancorata in realitate si aplicabila fenomenelor care apar in natura si societate. Iata doar cateva aspecte care justifica, pe deplin, incercarile facute de-a lungul timpului pentru a da o definitie a probabilitatii care sa raspunda acestor cerinte si de construi o teorie a probabilitatilor bazata pe algebra si analiza moderna (ne gandim la cercetarile care au urmat orientarilor date de Banach si Lebesgue). Asa cum s-a putut constata pana acum, una din notiunile fundamentale ale teoriei probabilitatilor este aceea de camp de evenimente datorata initial lui von Mises 5) . Aceasta notiune a facut posibila construirea unei teorii a probabilitatilor riguroasa din punct de vedere matematic, bazata pe teoria masurii. Acest mod de abordare a teoriei s-a facut remarcat in mod treptat datorita influentei multor autori. O tratare axiomatizata, reprezentand dezvoltarea moderna a teoriei probabilitatilor a fost realizata de A. N. Kolmogorov 6) caruia i se datoreste definitia 2.2.1, capabila sa elimine neajunsurile definitiei clasice a probabilitatii. De aceea, si in expunerea de fata s-a preferat

5)

Este vorba de cartea sa Wahrscheinlichkeitsrechnung, Leipzig ind Wien , 1931 cu referiri la articolele sale originale datand din jurul anului 1921. 6) A.Kolmogoroff ,Grundhegriffe der Wahrscheinlichkeitsrechnung, fasc..3, vol.2 din “Ergebnisse der Mathematic, Berlin, 1933, 36

obtinerea formulei (2.5) ca o consecinta a definitiei axiomatice 2.2.1, in locul introducerii ei apriori, prin definitie. Revenind la cazul experientei aruncarii cu zarul “nefalsificat”, avem   1,2,3,4,5,6 , P  i  

P( A ) 

card2,3,5 card



1 pentru i  1,2,...,6 si, de exemplu, daca A  2,3,5, atunci 6

3 1 1 1 1 3 1 , adica P( A )      .  6 2 6 6 6 6 2

Definitia 2.2.4 . Un camp finit de evenimente

 P inzestrat cu o probabilitate P

poarta numele de camp finit de probabilitate si se noteaza astfel: (, P(), P) Tehnica prin care putem defini o probabilitate pe un camp finit de evenimente (, P()), indicand probabilitatile evenimentelor elementare supuse conditiilor exprimate in formulele (2.3), (2.4), poate fi utilizata cu succes intr -o gama de probleme cu caracter aplicativ. De exemplu sa incercam sa rezolvam urmatoarea problema: Se stie ca un electromotor, o masina unealta, un automobil etc., este un asamblaj de piese numit “repere” . Sa indicam cu R 1, R2, . . . , R n reperele din care este asamblata o masina M. In depozitul uzinei, ri% din piesele marcate Ri au defecte. Indicand cu r% numarul masinilor M la care se constata greseli de montaj, intrebarea care se ridica este urmatoarea: care este probabilitatea ca luand la intamplare o masina M, aceasta sa nu aiba nici un defect ? Luata ca atare, problema de mai sus pare dificil de rezolvat. Lucrurile nu stau, insa, chiar asa ea reducandu-se, in esenta la urmatoarea: Fie  1 , P1 , P1  campurilor

de

  2 , P 2 , P2 

evenimente

doua campuri finite de probabilitate . Sa asociem

 1 , P1  ,   2 , P 2  campul

de

evenimente

 1   2 ,P1   2  unde 1   2 este produsul cartezian al multimilor 1, 27) . Sa se defineasca pe campul  1   2 ,P 1   2  o probabilitate “intim” legata de probabilitatile P1, P2. Urmarind scopul propus, sa presupunem ca 1  x1 ,..., x n  ,

2 = {y1, ..., y m),

P1({x i})=pi , iI={1,2, ..., n}, P 2({yj})=qj , jJ={1,2, ..., m}. Observand ca

7)

Produsul cartezian a doua multimi X,Y este multimea

X  Y    x, y  x  X , y  Y  37



1   2  x i , y j



i  I , j  J,

x , y   x   y  i

j

i

j

sunt evenimentele elementare ale campului



1   2  U U x i , y j i I i J



1



  2 , P 1   2





punand



(2.6) P x i , y j

  P x  P y   p q 1

i

2

j

i

8) j

si cerand sa avem   (2.7) P U U x i y j    pi q j  i I ' I jJ'  J  i I ' jJ'

 

pentru orice I’I , J ’J, alcatuite din elemente distincte, functia P : P   1   2    0,1 definita mai sus, este probabilitate pe campul

   1   2 ,P1   2 ,   numita produsul cartezian al pobabilitatilor P1, P2 . Va fi notat P  P1  P2 . Verificarea ca functia P este o probabilitate se face fara dificultate astfel:



a) Aratam ca P1   2   1 .

In adevar 1   2  U U x i , y j i I jJ

 si tinand seama de

formula (2.7) avem



P 1   2     P x i , y j i I jJ

n m

n m

    Px , y     p q i

i 1 j 1

j

i 1 j 1

i

j

 n  m     pi    q j   1 1  1 .  i 1   j 1 

b) Aratam ca, daca 8)

In virtutea relatiei (2.5) avem

pi  P1  x i  

  

q j  P2 j j



cardx i  card1



cardx i  m

   cardy 

card y j

card 2

j

m

Dar, fiecare din cele n rezultate incompatibile egal posibille ale experimentului in care poate sa se produca xi poate fi asociat cu fiecare din cele m rezultate incompatibile egal posibile ale experimentului in care poate sa se produca xj, astfel ca numarul rezultatelor incompatibile egal posibile ale experimentului in care se produc xi si xj este egal cu nm . Din aceste nm rezultate egal posibile se deduce, rationand analog, ca sunt favorabile producerii simultane a evenimentelor xi si xj un numar de cardxi cardxj rezultate. Prin urmare

38

(X1Y1)(X2Y2) =  unde X 1, X 2P(1) , Y 1, Y2P(2) rezulta P((X 1Y1)  (X 2Y2)) = P(X 1Y1) +P(X 2Y2). In adevar, din teoria multimilor se stie ca

 X 1  Y1    X 2  Y 2    X 1  X 2    Y1  Y 2  si ca relatia XY implica X= sau Y= sau XY. Aceste fapte amintite, din

 X 1  Y1    X 2  Y 2    rezulta ca (X1X2)  (Y 1Y2) =  si deci sau

X 1  X 2   , sau Y1  Y 2   , sau X 1  X 2  Y1  Y 2   . Pentru a face o alegere sa luam X 1X2 si sa punem X 1  x11 ,..., x1a1



X2

  

Y1 Y2

  x  y  y

21 ,..., x 2a2

11 ,..., y ba1

I 1  1,..., a1  I

,

I 2  1,..., a2  I

,

J1  1,..., b1  J

,

21 ,..., y 2b2

,

J2  1,..., b 2  J

In virtutea ipotezei X 1X2 , avem x 1ix2i’ oricare ar fi iI1 , i’ I2. Asadar

x , y ,x , y ,...,x , y ,x , y ,...,x , y ,..., x , y ,...,x , y    x , y ,  x , y ,...,  x , y ,  x , y ,...,  x , y ,...,  x , y  ,...,  x , y 

X 1  Y1  X 2  Y2

11

11

21

11

21

12

21

11

22

21

1b1

12

2b2

11

21

12

21

1b1

21

1a1

2b2

11

2a2

1a1

21

1b1

2a2

2b2

 X 1  Y1 U  X 2  Y 2     x11 , y 11 ,  x11 , y 12 ,...,  x11 , y 1b ,  x12 , y 11 ,...,  x12 , y 1b ,...,  x1a , y 11  ,...,  x1a , y 1b ,  x 21 , y 21 , 1 1 1 1 1  x 21 , y 22 ,  x 21 , y 21 ,  x 21 , y 22 ,...,  x 21 , y 2b2 ,  x 21 , y 21 ,...,  x 21 , y 2b2 ,...,  x 2a2 , y 21  ,...,  x 2a2 , y 2b2  Or,

x

1i , y 1j



   x

P xi ,y j 

 

1i , y 1 j

      cardx   cardy  

cardx i card x j nm

j

i

n

m

 

cardx i  card y j   pi q j card1 card 2 39

unde i , i  I 1 , j, j  J1 , daca i  i sau j  j



 x , y    x ' , y '  2i '' 2j'   2i 2j   '

  

unde i , i '  I 2 , j, j  J2 , daca i '  i

x

1i , y 1 j

   x

pentru ca x1i  x

2i '

2i '

'

sau j '  j

,

, y '     2j 

oricare ar fi i  I 1 , i '  I 2 .

Ca urmare,

P X 1  Y1     p1i q1j i I1 jJ1

P X 2  Y 2     p 2i ' q 2j ' i 'I1 j 'J1

P X 1  Y1    X 2  Y 2   p11q11 ... p1a1 q1b1 ... p 2a2 q 2b2 unde am pus P1  x1i   p1i , P2  x 2i '  p 2i ' . Asadar

    P  X 1  Y1    X 2  Y 2      p1i q1j      p 2i ' q 2j '  P X 1  Y1    X 2  Y 2  ceea  i I1 jJ1   i 'I 2 j 'J2  ce era de aratat. Observand ca notiunea de produs cartezian a doua campuri de probabilitate poate fi extins la un numar finit de campuri, raspunsul la problema pusa privind probabilitatea ca masina M sa nu aiba nici un defect poate fi dat in felul urmator. Fie   i  Ei1 , Ei 2, P  i1  campul de probabilitate asociat extragerii unei piese dintr-un numar de o suta piese purtand indicativul R i, unde Ei1 este evenimentul ca piesa extrasa sa fie fara defect, iar E i2 Ei1 evenimentul contrar. Sa luam Pi  Ei 2   ri / 100 si Pi  E1i   1  P Ei 2   1  ri / 100. Notand cu (0={E01, E02}, P( 0))

campul de evenimente corespunzator extragerii unei

masini M luata la intamplare, dintr-un lot de 100 bucati , unde E01 este evenimentul ca masina sa nu aiba vicii de montaj, luand

P0  E02  E01   r / 100

P0  E01   1  r / 100 , P0

este o

probabilitate pe acest camp. Fie

     0  1 ...  n  , P  0  1 ...  n  , P  P0  P1 ... Pn   

campul

de

probabilitate produs cartezian al campurilor ( k, P(k), Pk) k  0, 1, . . . ...,n . Ca urmare, probabilitatea ca masina M sa nu aiba nici un defect este

40



P E0 , E11,...,En1 P1  E11

  P E  0

01

r   ... Pn  En1  1    100

r1 r   ... 1  n  . 1   100 100

Aplicatie la problema distributiei bilelor. Exemplele din paragraful 2.1 indica larga aplicabilitate a modelului privind introducerea in mod aleator a r bile in n une. Ne propunem, acuma, o discutie pe baza acestui model presupunand, fireste, ca fiecare dintre cele nr distributii posibile au probabilitatea n-r . Cele mai importante proprietati ale unei distributii particulare sunt exprimate prin numerele de reprezentare r 1, . . . , r n unde ri este numarul de bile din urna i. Avem (2.8) r 1 + r2 + .... r n = r ,

ri  0 ; 1  i  n .

Convenim sa tratam bilele in ideea ca nu le putem distinge. Atunci, distributia lor este complet descrisa de numerele de reprezentare ri , 1  i  n; iar doua distributii se pot distinge numai daca n-uplele ordonate corespunzatoare (r 1, . . . , r n) nu sunt identice. Un prim rezultat este continut in lema urmatoare. Lema 2.2.1. Numarul de distributii distincte (adica numarul de solutii diferite ale ecuatiei (2.8) este  n  r  1  n  r  1 A r ,n      r   n 1    r  1 Numarul de distributii distincte in care nici o urna nu ramane vida este   .  n  1

Demonstratie. Cazul r  100, n  4, a fost folosit in partea a doua a exemplului 2.1.4. Sa folosim, acum, forma simpla a reprezentarii celor n urne prin spatii situate intre n1 bare, iar bilele prin asteriscuri . Astfel, scrierea   este folosita in mod simbolic pentru

o

distributie a r  8 bile in n  6 urne cu numerele de reprezentare 3, 1, 0, 0, 0, 4. Un asemenea simbol in mod necesar incepe si se termina cu o bara, dar cele n - 1 bare care raman si cele r asteriscuri pot sa apara intr-o ordine arbitrara. In acest fel, apare clar ca numarul de distributii distincte este egal cu numarul de moduri in care se pot selectiona r locuri din n  r - 1 posibilitati,  n  r  1 adica   . Pentru a doua parte a lemei se observa ca, prin conditia ca nici o urna sa nu fie r  

vida, se impune ca doua bare sa nu fie adiacente. Cele r asteriscuri permit r-1 spatii, din care n-1  r  1 ar fi ocupate de bare. Astfel avem   posibilitati si lema este dovedita.  n  1  r  5 Exemplul 2.2.4. Exista   rezultate distincte ale unei aruncari cu r zaruri identice.  5 

Exemplul 2.2.5. (Derivatii partiale).

41

Derivatiile partiale de ordinul r ale unei functii analitice f  x1 ,..., x n  de n variabile nu depinde de ordinea de derivare ci numai de numarul de ori in care apare fiecare variabila. Astfel, fiecare variabila corespunde unei urne si, deci, exista

 n  r  1   derivate partiale diferite de r  

ordinul r. De exemplu o functie de trei variabile are 15 derivate partiale de ordinul patru si 21 derivate partiale de ordinul cinci. Exemplul urmator ilustreaza o metoda extrem de simpla si obisnuita in rezolvarea multor probleme de analiza combinatorie. Exemplul 2.2.6. (Configuratiile a r7 bile in n 7 urne). [Urnele ar putea fi interpretate ca zile ale saptamanii, iar bilele ca vizite, scrisori, accidente etc.t. Sa consideram distributiile cu numerele de reprezentare 2, 2, 1, 1, 1, 0, 0, care apar intr-o ordine arbitrara . Aceate sapte numere de reprezentare indica o partitie a celor sapte urne in trei subpopulatii (categorii) constand respectiv din cele doua ocupate de cate doua bile, urmatoarele trei ocupate de cate o bila si ultimele doua urne goale. O asemenea partitie in trei grupe de marimi 2,3 si 2 se poate efectua in

7! moduri. Fiecarei atribuiri particulare a 2!3!2!

numerelor de reprezentare celor sapte urne ii corespund

7! 7! distributii  2!2!1!1!1!0! 0! 2!2!

diferite ale celor r7 bile in cele sapte urne. In consecinta, numarul total de distributii astfel incat numerele de reprezentare sa coincida cu 2,2,1,1,1,0,0, intr-o ordine este

7! 2!3!2!

7 . 2!2!

Este bine de retinut ca acest rezultat a fost obtinut printr -o dubla aplicare a formulei (2.9)

n! r1 ! r2 !... rk !

adica, atat bilelor cat si urnelor. Bineinteles ca acelasi rezultat poate fi obtinut si scris in mai multe moduri, dar metoda prezentata furnizeaza cea mai simpla tehnica, obisnuita pentru o mare varietate de probleme. Pentru completa ilustrare a metodei dam, in tabelul de mai jos, toate configuratiile posibile ale numerelor de reprezentare in cazul r  n  7 si probabilitatile corespunzatoare. Numere de reprezentare

Numarul de aranjamente egale cu 7! 7! impartite prin

Probabilitatea (Numarul de aranjamente impartit prin 77)

1,1,1,1,1,1,1

7! .1!

0,006120

2,1,1,1,1,1,0

5! . 2!

0,128518

2,2,1,1,1,0,0

2!3!2! . 2!2!

0,321295

2,2,2,1,0,0,0

3!3! . 2!2!2!

0,107098

3,1,1,1,1,0,0

4!2! . 3!

0,107098

3,2,1,1,0,0,0

2!3! . 3!2!

0,214197 42

3,2,2,0,0,0,0

2!4! . 3!2!2!

0,026775

3,3,1,0,0,0,0

2!4! . 3!3!

0,017850

4,1,1,1,0,0,0

3!3! . 4!

0,035699

4,2,1,0,0,0,0

4! . 4!2!

0,026775

4,3,0,0,0,0,0

5! . 4!3!

0,001785

5,1,1,0,0,0,0

2!4! . 5!

0,005355

5,2,0,0,0,0,0

5! . 5!2!

0,001071

6,1,0,0,0,0,0

5! . 6!

0,000357

7,0,0,0,0,0,0

6! . 7!

0,000008

Tabelul 2.4 Distributiile aleatoare a 7 bile in 7 urne Observatii. 10. Am folosit mai sus termenul de populatie nu n indivizi pentru a semnifica o totalitate de n elemente fara a lua in consideratie ordinea lor. Astfel, doua populatii sunt considerate diferite daca exista un element continut in una, dar nu si in cealalta. Extragand r elemente dintr-o populatie data cu n indivizi se formeaza o subpopulatie cu r indivizi. Se poate arata fara  n dificultate ca o populatie cu n indivizi poseda   subpopulatii diferite cu r  n indivizi.  r

20. Referitor la numerele (2.2), numite si coeficienti multinomiali si care se intalnesc frecvent in statistica matematica, precizam ca acestea se leaga de urmatoarea teorema: fie r1, . . . ,rk intregi astfel incat r1  r2 ... rk  n . Numarul de moduri in care o populatie cu n indivizi poate fi impartita in k parti ordonate (adica partitionata in k subpopulatii) din care prima contine r1 elemente, a doua r 2 elemente, etc. este n! r1 ! r2 !... rk !

adica tocmai (2.9). In incheierea acestui paragraf vom da cateva detalii referitor la statisticile Bose-Einstein si Fermi-Dirac, prima invocata deja la inceputul paragrafului. Am presupus mai sus, ca fiecare dintre cele n r distributii posibile are probabilitatea n -r. Este interesant ca faptele si experientele i-au constrans pe fizicieni sa abandoneze aceasta ipoteza si sa atribuie probabilitatile in diferite moduri. Sa consideram un sistem mecanic din r particule care nu se pot distinge intre ele. In mecanica statistica se obisnuieste sa se subimparta spatiul fazelor intr-un numar mare, n, de regiuni mici sau celule astfel incat fiecare particula este repartizata intr-o celula. In acest mod, starea intregului sistem este descrisa in termenii unei distributii aleatoare a r particule in n celule. Pentru moment, s-ar parea (cel putin cu o definitie adecvat a celor n celule) ca toate cele nr aranjamente ar avea probabilitati egale. Daca acest lucru este adevarat, fizicienii vorbesc despre statistica Maxwell-Boltzmann (evident, termenul statistica are aici un sens specific fizicii). S-au 43

facut numeroase incercari pentru a dovedi ca particulele fizice se comporta potrivit statisticii Maxwell-Boltzmann, dar teoriile moderne au aratat, fara indoiala ca aceasta statistica nu se aplica oricaror particule cunoscute. Deci, in nici un caz, nu ne putem astepta ca toate aranjamentele nr sa fie aproximativ egal probabile. Au fost astfel introduse doua modele probabiliste diferite, fiecare descriind in mod satisfacator comportarea unui tip de particule. Nici unul dintre ele nu are caracter universal si cum, justificarea oricarui model depinde de succesul pe care-l are, este posibil ca intr-o buna zi sa se introduca un al treilea model pentru anumite feluri de particule. Prin urmare, consideram r particule nedistincte intre ele si n celule. Prin statistica BoseEinstein se intelege ca se considera numai aranjamente distincte si ca fiecaruia i se atribuie

probabilitatea

(2.10)

   

n  r  1 r

 1

   

Din mecanica statistica se stie ca aceasta presupunere ramane adevarata pentru fotoni, nuclei si atomi care contin un numar par de particule elementare. Pentru a descrie alte particule trebuie sa se introduca o noua posibilitate de atribuire a probabilitatilor. Statistica Fermi-Dirac se bazeaza pe urmatoarele ipoteze: 10 este imposibil ca doua sau mai multe particule sa fie in aceeasi celula; 20 toate aranjamentele distincte care satisfac prima conditie au probabilitati egale.

Prima ipoteza cere ca r  n. Un aranjament este atunci

descris complet enuntand care dintre cele n celule contine o particula si, intrucat exista r  n particule, celulele corespunzatoare pot fi alese in    r

 n  n   aranjamente posibile, fiecare avand probabilitatea    r  r

moduri. Deci, exista in total

1

. Acest model se aplica la electroni,

neutroni si protoni. Avem, prin urmare, un exemplu instructiv privitor la imposibilitatea selectionarii sau justificarii modelelor probabilitate prin discutii purtate apriori in conditii cu totul generale. De fapt, prin nici un rationament pur nu s-ar putea spune ca fotonii si protonii nu s-ar supune acelorasi legi de probabilitate. In concluzie, deci, putem spune ca probabilitatea ca celulele cu numarul de ordine 1, 2, 3 , ..., n sa contina r 1, r2, r3, . . . , r n bile respectiv (unde r 1 r2 r3+ . . .  rn1) este egala cu r! nr r1 ! r2 !... rn !

in cazul statisticii Maxwell-Boltzmann (este bine de retinut ca statistica Maxwell-Boltzmann este, de altfel, termenul folosit de fizicieni pentru ceea ce noi numim introducerea in mod intamplator a bilelor in urne). Aceasta probabilitate este dat de (2.10) in cazul statisticii Bose-

 n Einstein si este egala cu    r

1

din statistica Fermi-Dirac cu conditia ca fiecare rj sa fie egal cu 0

sau 1. 44

Exemplul 2.2.7. Fie n5, r3. Atunci aranjamentul  *  * *   are probabilitatea

6 1 1 , ,sau 125 35 10

dupa cum se considera statistica Maxwell-Boltzmann, Bose-Einstein sau Fermi-Dirac respectiv. Exemplul 2.2.8. O carte contine n simboluri (litere), din care r sunt tiparite gresit. Distribu tia greselilor de tipar corespunde unei distributii a r bile in n urne, nici o urna necontinand mai mult de o bila. Este, prin urmare, normal sa presupunem ca, aproximativ, greselile de tipar se supun, statisticii Fermi-Dirac . Aplicatii 2.3. Se arunca doua zaruri. Care este probabilitatea ca la o aruncare sa apara dubla (6,6) ? Solutie. Se considera campul de evenimente

  11, ,...,1,6,...,61, ,...,6,6 , P si se presupune ca evenimentele elementare sunt egal probabile. Or, card   36. Ca urmare,





P  6,6 

Se

1 . 36 putea

proceda

la

rezolvarea

acestei

probleme

considerand

campul

 '  1,2,...6 , P , P' unde P' i  16 , asociat experientei aruncarii unui zar si campul produs  '' , P'' , P' P' . . Ca urmare, P' P'  6,6  P'  6  P'  6 

1 1 1  . 6 6 36

2.4. Se arunca doua zaruri. Care este probabilitatea ca la o aruncare ambele zaruri sa prezinte fete avand un numar par de puncte. Solutie. In campul

 , P, P

considerat in problema precedenta, evenimentul in cauza

este A   2,2,  2,4,  2,6,  4,2,  4,4,  4,6,  6,2,  6,4,  6,6 . Ca urmare, P A  

cardA 9 1   . card 36 4

Daca consideram campurile  ', P', P'

 '' , P'' , P'P'

evenimentul

care ne intereseaza este A’= ({2}{2})  ({2}{4})  ({2}{6})  ...  ({6}{2})  ...  ({6}{6}) Deci P’P’(A’) = P’P’({2}{2}) + ... + P’P’({6}{6}) = 9((1/6).(1/6)) = 1/4 . 2.5. Se presupune ca numerele 1,2, . . . , n sunt asezate la intamplare. Care este probabilitatea ca numerele 1, 2 sa fie asezate consecutiv in ordine crescatoare ?

45

 ,P campul de evenimente asociat problemei. Un  1,...,  n unde  este o permutare a numerelor 1, 2, . . .

Solutie. Sa indicam cu eveniment elementar este

, n . Ca urmare, cardn! . Sa observam, in continuare, ca perechea 1, 2 poate ocupa n-1 locuri in sirul celor n numere si ca alaturi de numerele 1, 2 celelalte numere pot fi asezate in (n-2)! moduri. Asadar indicand cu A evenimentul respectiv, avem

cardA(n-1).(n-2)!  (n-1)!. Prin

urmare, P(A) cardA / card  (n-1)! / n!  1/n. 2.6. O carte de telefon contine toate numerele formate cu cate sase cifre dintre cifrele 0, 1, 2, ..., 9. Sa se determine probabilitatea ca un numar ales la ;intamplare sa fie alcatuit: a) din cifre distincte; b) din cifre consecutive; c) prima cifra sa fie 1. Solutie. Sa indicam cu  multimea tuturor numerelor de telefon. Numarul elementelor lui  este 106 si reprezinta numarul aranjamentelor cu repetitie care se pot forma cu 10 cifre luate cate 6. Sa notam acest numar prin simbolul (A 610). Pentru a da raspunsul la punctul a) trebuie sa determinam numarul elementelor multimii A alcatuita din toate numerele de telefon formate cu cate 6 cifre distincte din cele 10 numere. Acest numar coincide cu numarul 6 aranjamentelor ce se pot forma cu 10 elemente luate cate 6, adica cu numarul A 10  10.98 . .7.6.5 .

Ca urmare, P A  

A6 cardA  10  0,1512 . 6 card A 10

 

b). Fie B multimea numerelor de telefon alcatuita din sase cifre consecutive.

, ,0,...,  4,5,6,7,8,9,  9,8,7,6,5,4 .Deci cardB10. Evident, B   0,1,2,3,4,5,  5,4,3,21 Asadar, P B 

cardB 10  6  10 5  0,00001 . card 10

c). Fie C multimea tuturor numerelor care incep cu cifra 1. Numarul elementelor multimii C este egal cu numarul aranjamentelor cu repetitie a cifrelor 0,2,3,4,5,6,7,8,9 luate cate cinci. Prin urmare, cardC   A 59  95 , de unde P C 

cardC  95  10 6  0,059049 . card

2.7. Cu liftul unei cladiri, avand n etaje, urca k persoane, k  n. Care este probabilitatea ca la fiecare etaj sa opreasca cel mult o persoana ?. Solutie. Sa notam cu e1, . . . , en etajele si cu x1, . . . , x k personale. Fie  multimea tuturor opririlor posibile ale liftului dictate de cele k persoane. Aceasta multime coincide cu multimea aplicatiilor multimii

K = {1, ..., k} in multimea

N  1,..., n ; deci

card   cardN   n k .

46

Deoarece la fiecare etaj poate opri cel mult o persoana, numarul opririlor este dat de



A kn

 . Prin urmare, p 

A kn . nk

2.3. Camp de probabilitate complet aditiv In paragraful 2.1 am aratat ca orice algebra Boole L, completa, poate fi aplicata izomorf pe un corp complet (corp borelian) de parti ale unei multimi infinite , convenabil aleasa. Astfel, teorema 2.1.4 ne-a permis sa luam drept model, care sa descrie campurile de evenimente cu un numar infinit de stari, campurile (, K()) unde K() sunt corpuri complete de parti ale multimii P() a partilor multimii . Or, prin izomorfismul de care este vorba in teorema invocata, algebra L se identifica cu K() si, ca urmare, K() afortiori este ea insasi o algebra boole

completa, deci are

proprietati mult mai tari decat cele cerute in definitia 2.1.7. Faptul este aparent deoarece se pote demonstra urmatorul rezultat pe care il formulam in Teorema 2.3.1. Orice corp complet K() de parti ale unei multimi infinite este o

algebra completa. Faptul rezulta direct din definitia 2.1.7 observand ca avem

x 

 I

x  pentru orice

 I

familie cel mult numerabila {X }I de elemente X K(), ( vezi definitia 2.1.6). De asemenea, din  = rezulta  K() si ca  joaca rolul elementului total; distributivitatea operatiei “” fata de “” apare ca o proprietate naturala a operatiilor “”, “” , in K(). In plus, in K() se gasesc si multimile

lim sup x    

lim inf x    





x

 1     

x

r 1  r

daca {X}I este o familie cel mult numerabila de elemente din K(). Un mijloc cu ajutorul caruia putem asocia la familii de parti ale unei multimi infinite , corpuri complete, este urmatorul : Fie F o familie arbitrara de parti ale multimii  . Cum intersectia unui numar oarecare de corpuri complete ale multimii  este un corp complet, corpul pe care il asociem, in mod unic, familiei F este intersectia tuturor

corpurilor multimii  care cuprind familia F.

Acest corp complet este cunoscut sub numele de corpul generat de familia F. Definitia 2.3.1. Fie (, K()) un camp infinit de evenimente. O probabilitate pe campul (, K()) este, prin definitie, o aplicatie P : K()  [0, 1] cu proprietatile a) P()1 47

b) P (

x  )   P( x  )

 I

 I

oricare ar fi familia {X }I cel mult numerabila de evenimente incompatibile din K() 9). Direct din definitia 2.3.1 rezulta ca aplicatia P : K()0,1 are urmatoarele proprietati : 1) P( )  0 ;

Teorema 2.3.2.

2) Daca XY si X,Y P(), atunci P(X)  P(Y) ; 2’) Daca X Y si X,Y P(), atunci P(Y-X) P(Y)-P(X) ; 3) P( X )  1  P( X ) ; 4) Daca multimea I este numerabila, seria  P( x  ) este convergenta.  I

Proprietatile 1), 2), 3) ale probabiltatii P rezulta imediat deoarece, daca luam card I 0, deci daca presupunem ca multimea I este finita, conform lui b) rezult a

P( )  P(  )  2P( ) de unde P( )  0 . Din P( X

X )  P( X )  P( X )  1 rezulta 3); iar 2) urmeaza din observatia ca avem

Y  X (Y X ) Y . Daca in 2) luam Y, avem P(X)P()1 si, deci, 4) are loc daca avem card I 0. In adevar, pentru orice numar natural n n

X 

 1

X

 I

si, ca urmare, sirul n

Sn   P( X  )  P(  1

X )  1

 I

este monoton si marginit, deci convergent. O proprietate importanta a probabilitatii P, pe (, K()), este exprimata in teorema 2.3.3. cunoscuta sub numele de teorema de continuitate. Teorema 2.3.3. Daca XN

10)

este un sir monoton descrescator de elemente

apartinand campului (,K()), deci daca X1X2 ... Xn ... si daca

X    , atunci

N

lim P( X  )  0 .



Demonstratie.

X   (X 

Intr-adevar,

este

lesne

de

vazut

ca

dandu-se

nN

avem

X  1 ) ( X  1 X   2 )

si, in particular,

X 1  (X 1 X 2 ) (X 2 X 3 ) 9 )

Familia {X }I se spune ca este alcatuita din evenimente incompatibile daca pentru orice 1, 2  I , cu 1 2 avem X 1 X 2 = . 10) N = {1,2,3, ...} 48

Insa

evenimentele 

P( X 1 )   P( X i

{XX+1}N



ce

ne

spune

ca

 P( X i

seria

i 1 

lim P( X  )  lim (  P( X 

 

incompatibile,

avem

X i 1 )

i 1

ceea

fiind

  i  

X i 1 )

este

convergenta.

Drept

urmare,

X  1 ))  0

ceea ce era de aratat.

XN este un sir monoton descrescator, atunci

Corolarul 2.3.1. Daca

lim P( X  )  P(

 

X ) .

 N

Pentru a verifica ca proprietatea exprimata in corolarul 2.3.1. este adevarata sa punem

X   X si sa observam ca sirul YN cu Y  X 

X este un sir care indeplineste

N

conditiile teoremei 2.3.3. Drept urmare,

lim P( Y )  0 .



Insa

P( Y )  P( X 

X )  P( X  )  P( X ) .

In adevar,

X   (X 

X ) (X 

X)

de unde P( X  )  P( X )  P( X 

P( X 

Asadar

X ) pentru ca XX.

X )  P( X  )  P( X )

si

trecand

la

limita

obtinem

lim P( X  )  P( X )  0



adica

lim P( X  )  P( X )  P(

 

X ).

 N

Sa presupunem, acum, ca se da un sir monoton crescator, adica X X, N. Atunci, sirul

evenimentelor

( X  )  K ( )

contrare

este

monoton

descrescator,

adica

( X  1 )  X  ,  N . Deci , pentru acest sir, in virtutea corolarului 2.3.1. avem lim P( X  )  P(



X  ).

N

Deoarece

X 

 N

si

X  ,  N

 N

P( X  )  1  P( X  ),  N

rezulta ca

P(

X  )  P(

 N

X  )  1  P(

 N

X  ).

 N

49

Deci

lim P( XX  )  lim (1  P( X  ))  1  P(





X )

N

adica

lim P( X  )  P(

 

X  ).

 N

Obtinem astfel Corolarul

lim P( X  )  P(

 

XN

Daca

2.3.2.

este

un

sir

monoton

crescator,

atunci

X  ).

 N

Corolarul 2.3.3. Daca XN este o multime cel mult numerabila de evenimente apartinand campului de evenimente (K()), atunci

P(

X  )   P( X  ) .

 I

 I

Demonstratie. Daca multimea I este finita, proprietatea este evidenta si ne convingem imediat daca observam ca, in cazul a doua evenimente X1,X2 avem

P( X 1 )  P( X 1 ( X 1 X 2 ))  P( X 1 X 2 ) P( X 2 )  P( X 2 ( X 1 X 2 ))  P( X 1 X 2 ) P( X 1 X 2 )  P( X 1 ( X 1 X 2 ))  P( X 1 X 2 )  P( X 2 ( X 1 X 2 )) .  n  este un sir monoton crescator deci, conform corolarului 2.3.2. , X  1  nN

Daca IN, sirul 

n

lim P(

n

Insa

P(

n

 1



X  ).

 1

n

X  )   P( X  )

 1

astfel ca P(

X  )  P(



 1

X  )  lim P(

 1

 

n

n



X  )  lim  P( X  )   P( X  )

 1

n  1

 1

ceea ce era de aratat. Prin urmare, probabilitatea este o functie subaditiva daca evenimentele considerate sunt oarecare si este complet aditiva in cazul evenimentelor incompatibile doua cate doua. Definitia 2.3.2. Campurile de evenimente ( K()), pe care s-a definit o probabilitate P in sensul definitiei 2.3.1, se noteaza ( K(), P) si se numesc campuri de probabilitate complet aditive. Exemple 2.3.1. Fie R multimea numerelor reale si fie B corpul borelian ( - corpul) generat de multimea intervalelor deschise. (R, B) este un camp de evenimente. Daca X B si  este indicatorul multimii, aplicatia P:BR 50

P( X ) 

definita prin conditia

1  x2   x ( x )e dx R 

 x2

este o probabilitate pe campul (R, B), deoarece  e

dx   si 

X     X  daca

 I



 I

multimea I este cel mult numarabila, iar familia XI este alcatuita din evenimente incompatibile . 2.3.2. Fie Rn = R ... Rn (n factori) spatiul euclidian n dimensional si fie Bn corpul borelian ( - corpul) generat de multimea intervalelor deschise

11)

din Rn. (Rn, Bn) este un camp

de evenimente. Daca f este o functie reala definita pe R n si, daca f este integrabila Riemann astfel incat sa avem 1

n

1

n

(2.11)  f ( x ,..., x )dx ...dx  1 Rn

si daca punem 1

n

1

n

1

(2.12) P( X )   ( x ,..., x )f ( x ,..., x )dx ...dx

n

Rn

unde x este indicatorul multimii XBn atunci, P este o probabilitate pe (R n,Bn). Daca E este o multime boreliana din Rn (adica daca EBn) si f este o functie reala integrabila Reimann definita pe E, care satisface la conditia (2.11) definind P(X) conform formulei (2.12), unde XK{XBnXE} atunci, E,K,P este un camp de probabilitate complet aditiv. 1

n

2.3.3. Daca E este o multime boreliana din R n si daca  dx ...dx este finita atunci, daca E

1 n x dx ... dx punem P( x )  unde XK{XBnXE atunci, E,K,P este un camp de 1 n E dx ... dx

probabilitate complet aditiv. Acest rezultat sta la baza teoriei probabilitatilor in geometrie. [Integrala  dx 1 ... dx n este gandita, aici, ca integrala de volum in sensul analizei clasice. Anumite E

considerente de natura generala au impus, drept instrument eficient de investigare in teoria probabilitatilor, integrala in sensul lui Lebesgue.] 2.3.4. Fie EiiI o multime numerabila si piiI o multime de numere reale pozitive cu proprietatea  pi  1. Daca, pentru orice XP(E), punem P( x )   p j unde i I

jJ

JI este multimea care indexeaza submultimea XE atunci, (E, P(E), P) este un camp de probabilitate complet aditiv.

11 )

Un interval deschis este o multime I = {x1 ... xn : a1x1b1 , ..., anxnbn} unde a1 , ..., an , b1 , ..., bn sunt numere reale 51

2.4. Modele clasice in teoria probabilitatilor In acest paragraf se considera unele modele din teoria probabilitatilor, anume: Modelul lui Bernoulli, modelul lui Poisson, modelul bilei neintoarse. Aceste modele cunoscute si sub numele de scheme clasice, apar frecvent in aplicatii. Modelul lui Bernoulli consta dintr-o urna in care se afla N bile, din care n sunt de culoare alba, iar restul de culoare neagra, bilele neputandu-se distinge decat prin culoare. Se extrag succesiv din urna N1 bile punandu-se de fiecare data bila inapoi in urna. Se cere probabilitatea evenimentului ca, printre cele N 1 bile extrase, n 1 sa fie de culoare alba. Pentru a evalua probabilitatea evenimentului in cauza sa observam, mai intai, ca probabilitatea de a extrage din urna bila alba este p 

n . Evenimentul contrar are deci N

probabilitatea q1-p. Asociem problemei campul de probabilitate (A, A , P(), P), unde A este evenimentul bila extrasa este alba, A este evenimentul contrar, P(A)  p, P( A )1-pq si consideram campul produs

( N1 , P () N1 , P N1 )unde N1      ...  ( N 1 factori )



Un eveniment elementar apartinand acestui camp este de forma ( x1 ,



este sau o bila alba sau o bila neagra si, drept urmare, PN 1 x1 ,



extractia ( x1 ,



, x N 1 ) unde xi



, x N 1  p n1 q N 1  n1 daca



, x N 1 ) cuprinde n 1 bile albe.

In campul ( N 1 , P( ) N 1 ) exista C N11 12) evenimente elementare de tipul indicat mai sus n

si

fie

E

multimea

aceastora.

E

fiind

evenimentul

care

ne

intereseaza,

avem

n PN 1 ( E)  CN1 p n1 q N 1  n1 ceea ce constituie raspunsul la chestiunea pusa. 1

In esenta modelul lui Bernoulli poate fi asimilat cu orice experienta careia ii corespunde un camp de probabilitate finit (A, A , P(), P), unde A si A sunt evenimente contrare, P(A)  p, P( A )q, cu pq1, impreuna cu problema determinarii probabilitatii evenimentului E, repetand experienta in aceleasi conditii de N ori ( adica evenimentul A sa aiba loc de nN ori). Notand cu P N(n,p) probabilitatea evenimentului E avem (2.13) PN ( n, p)  C nN p n q N  n . Inainte de a trece la o generalizare a modelului lui Bernouli observam ca numarul P N(n,p) este termenul n1 in dezvoltarea binomului (pq)N sau este tocmai coeficientul puterii a n-a a variabilei t in dezvoltarea binomului (ptq)N.

12)

n

C N11 reprezinta numarul combinarilor ce se pot forma cu N1 obiecte luate cate n1N1 : n

C

n1 N1



AN11 n1 !



N1 ! n1 !( N 1  n1 )!

52

Fie dat un sir cunoscut de probabilitati (2.14) P 0, P 1, P2, ..., P n si 0    n acel numar intreg pentru care P , din sirul precedent, are cea mai mare valoare, cu alte cuvinte evenimentul cu probabilitatea P are cea mai mare sansa de realizare. Numarul  se numeste, din acest motiv, valoarea cea mai probabila. Ne propunem sa cercetam cate valori corespund acesteia. Fie  un element din sirul 0,1,2,...,n. Atunci, P  Cn p q n

[i

P1  Cn 1 p1q n1

de unde se obtine P Cn p q n n! (  1)!( n    1)! n    1 p  1 1 n1  p 2q n    . P1 C n p q  !( n   )!  q n ! p1q n1

Prin urmare, daca P n   1 p  1 P1  q sirul initial de proba bilitati (2.14) este crescator. Deci, in acest caz avem

qnp-pp. Dar

pq, astfel ca (1-q)np-pp, adica npp. Daca, insa, P n   1 p  1 P1  q se obtine, in aceeasi maniera, npp, caz in care sirul initial de probabilitati (2.14) este descrescator. Dar, in general, npp este un numar intreg. Deoarece P  este cea mai mare valoare din sirul (2.14), rezulta ca  este numarul intreg cel mai apropiat de valoarea npp care indeplineate conditia   npp. Prin urmare, avem

np-q  npp, adica se gaseste pentru  o valoare

unica. Se gasesc doua valori numai intr-un singur caz, anume cand npp este intreg, caz in care si np-q este numar intreg. Deci, valoarea cea mai probabila se apropie foarte mult de valoarea medie np care, insa, nu corespunde unei proprietati generale a variabilelor aleatoare. Modelul general al lui Bernoulli priveste extractiile repetate dintr-o urna alcatuita din bile de diverse culori. Stiind ca probabilitatea scoaterii bilei de culoarea i1,2,...,k este p i, (p1...p k=1), se cere probabilitatea ca, in N extractii succesive, cu reintroducerea bilei extrase, n 1 bile sa aiba culoarea 1, n2 bile sa aiba culoarea 2, ..., n k bile sa aiba culoarea k. Evident, Nn1...nk. Indicand cu P N(n1,...,n k) probabilitatea evenimentului in discutie avem N! p n1 ... p nk k . (2.15) PN ( n1 ,..., n k )  n1 !... n k ! 1 Se obtine aceasta formula luand produsul cartezian de N ori al campului (A1,...,A k P(), P) unde P(Ai)pi, i1,2,...,k si calculand probabilitatea evenimentului elementar de forma (x 1, ..., x N) unde n1 dintre evenimentele x 1, ..., x N coincid cu evenimentul A1, n2 coincid cu

53

evenimentul A2, etc. Expresia din (2.15) este tocmai termenul general din dezvoltarea polinomului (p 1+ ... +p k)N . Modelul lui Poisson. Se considera N urne U1,...,U N, fiecare continand bile de doua culori, de exemplu albe si negre. Presupunand ca probabilitatea evenimentului A i, de a extrage o bila alba din urna U i, este pi, iar a evenimentului contrar A i este qi (pi qi1), se cere probabilitatea evenimentului ca, extragand din cele N urne cate o bila, sa ontinem n bile albe. Indicand cu E acest eveniment, determinarea probabilitatii acestuia se obtine imediat aplicand, din nou, tehnica produselor carteziene. Este sufucient sa asociem campurilor iAi, A i  P(i), P i(Ai)pi, P i(Ai)=qi  campul 1... N, P(1...N), P 1...PN. Se constata ca (2.16) P( E)   pi1 ... pi n q i n1 ... q i N unde suma se ia dupa toate combinarile in ordine naturala ale numerelor 1,2,...,N. De exemplu, pentru N4, n2, avem P(E)p1p2q3q4p1p3q2q4p1p4q2q3p2p3q1q4p2p4q1q3p3p4q1q2 . Sa observam ca, in formula (2.16), P(E) este coeficientul puterii a n-a a nedeterminatei t in produsul (p1t+q1)(p2t+q2) ... (pNt+qN) si ca modelul lui Bernouli se obtine din cel al lui Poisson daca se considera urnele U 1,...,U N identice. Modelul bilei neintoarse. Se considera o urna care contine N bile din care a sunt de culoare alba iar celelalte de culoare neagra. Din urna se extrag dintr-o data n bile. Se cere sa se calculeze probabilitatea ca printre cele n bile extrase  sa fie albe. Altfel spus: se fac n extrageri, dupa fiecare extragere neintroducandu-se bila inapoi in urna. Indicand cu E evenimentul in cauza, obtinem (2.17) P( E) 

Ca C nNa . C nN

Justificarea acestei formule se poate face imediat daca apelam la calculul probabilitatilor in campuri de evenimente cu evenimente egal posibile. Pentru aceasta sa numerotam bilele punand A1, ..., A a, Ba1, ..., B N. Numarul extragerilor a n bile din N este dat de C nN . Asociind problemei campul de evenimente ( P()), unde  este multimea tuturor nplelor alcatuite cu cate n bile din cele N, un eveniment elementar are drept probabilitate numarul 1 . C nN

54

Un caz favorabil, deci un eveniment elementar apartinand evenimentului E, este alcatuit dintr-o combinatie de  elemente din cele a bile albe urmata de o combinatie de n- bile din cele N-a bile negre. Asadar card E  Ca CnNa si, drept urmare, P(E) (card E)/(card ) =

Ca C Nn a , C Nn

ceea ce era de aratat. Modelul bilei neintoarse se poate generaliza. Aceasta generalizare se refera la o urna alcatuita din bile de culorile 1,2,...,k. Daca n i desemneaza numarul bilelor de culoarea i si n1...nkN, se cere probabilitatea evenimentului ca intr-o extractie, dintr-o data, a n  N bile , 1 bile sa fie de culoarea 1, 2 de culoarea 2, ... , k de culoarea k, (1...kn). Procedand la fel ca in cazul precedent se constata ca probabilitatea evenimentului respectiv E este data de formula 

(2.18) P( E) 



C n11 C n22  

C n11



C nkk  k nk

Aplicatii 2.8. Se arunca o moneda de 8 ori. Care este probabilitatea ca stema sa apara de 6 ori? Solutie. Se aplica schema lui Bernoulli. Probabilitatea ceruta este coeficientul puterii a 68

1 1 1 a a nedeterminateei t in  t   . Deci, p  C86    2 2  2

6

4

1   .  2

2.9. Un tintas nimereste tinta de 7 ori din 9 trageri. Sa se calculeze probabilitatea ca el sa nimereasca tinta de 8 ori consecutiv. Solutie. Schema lui Bernoulli ne da pentru p7/9, q2/9, N8 : p(7/9)8. 2.10. Se arunca doua zaruri de 15 ori. Sa se calculeze probabilitatea ca dubla 6 sa apara cel putin o data. Sa se determine si probabilitatea ca dubla 6 sa apara cel putin de doua ori. Solutie. Se considera campul de probabilitate (A, A , P(), P). Daca A este evenimentul ca dubla 6 sa apara cel putin o data, iar A evenimentul ca dubla 6 sa nu apara niciodata atunci, deoarece aruncarile sunt independente, avem P(A)=(35/36)15. Ca urmare, P(A)1-P(A)=1-(35/36)15. Pentru a da raspunsul la cel de-al doilea punct fie E evenimentul ca dubla 6 sa apara cel mult o data si E1 evenimentul ca dubla 6 sa apara o singura data. Deoarece evenimentele E1 si A sunt incompatibile rezulta P(E)=P(E 1A)=P(E)+P(A). 14

15

Prin urmare, obtinem P(E)(35/36) +

C115

1  35    36  26 

.

Asadar, notand cu D evenimentul ca dubla 6 sa apara cel putin de doua ori rezulta, in fina l, 15

1  35   35  P(D)1-    C151   36  36   36 

14

2.11. O urna contine 5 bile albe si 3 negre, o alta urna 6 bile albe si 2 negre, iar a treia, 7 albe si una neagra. Sa se determine probabilitatea evenimentului ca, extragand din fiecare urna cate o bila, sa obtinem doua bile albe si una neagra. 55

Solutie. Se aplica schema lui Poisson. Se ia p15/8, q13/8, p26/8, p37/8, q31/8 si se inlocuiesc in formula

pp1p2q3p1p3q2p2p3q1

lucru echivalent cu determinarea coeficientului puterii a doua a variabilei t din produsul 2  7 1   5 3  6  t    t    t  .  8 8  8 8   8 8

2.12.. Un magazin vinde in cursul unei saptamani 2600 bucati dintr-o marfa primita de la fabricile A, B, C in urmatoarele cantitati. De la fabrica A 3600 bucati, de la fabrica B 2000 bucati, iar de la fabrica C 4200 bucati. Marfa fiind de aceeasi calitate, sa se determine probabilitatea ca 820 bucati din marfa vanduta sa fie de la fabrica A, 500 bucati de la fabrica B si restul de, 1280 bucati, de la fabrica C. Solutie. Se aplica schema lui Bernoulli, cazul general. Se ia p13000/980015/49, p22600/980013/48, p34200/980021/49, n1820, n2500, n31280 si se aplica formula N! PN ( n1 , n 2 , n 3 )  , unde Nn1n2n3. n1 ! n 2 ! n 3 ! 2.13..Intr-un lot de 100 piese, sase piese au defecte remarcabile, patru piese sunt rebuturi, iar restul sunt piese bune. Din acest lot se iau, la intamplare, 10 piese. Care este probabilitatea ca din piesele extrase sapte sa fie bune, doua sa aiba defecte remarcabile si una sa fie rebut ? Solutie. Se aplica schema bilei neintoarse, cazul general (urna cu bile de mai multe culori). Se ia in formula (2.18), k3, n 16, n 24, n390, 11, 22, 37. 2.14. Intr-o grupa de 30 studenti, 18 sunt baieti, iar restul fete. La un examen sunt introdusi in sala loturi de cate 10 candidati. Care este probabilitatea ca intr-un lot sa fie 4 fete si restul baieti? Solutie. Se aplica schema bilei neintoarse. Se ia in formula (2.18), k2, n118, n212, 16, 24. Obtinem p 

6 4 C18 C12

C10 30

 0,9 .

2.15. La loterie, din N numere se extrag n. Care este probabilitatea de a obtine  numere stabilite dinainte? Solutie. Se aplica formula (2.17), unde luam n. In cazul extragerii Loto, N90, n45, 3, daca se participa la joc cu un bilet de trei numere. 2.5. Formule utile in aplicatiile teoriei probabilitatilor. Probabilit ati conditionate. In acest paragraf se prezinta situatii tipice care pot sa apara in aplicatii. Se introduc, in continuare, notiunile de probabilitate conditionata, de evenimente independente si se da formula lui Bayes. Se stabileste, de asemenea, inegalitatea lui Boole. Fie (, P(), P) un camp finit de probabilitate si fie A 1, ...,A n un sistem de n evenimente din acest camp, (A i P()). Se stie ca, daca evenimentele A 1,...,A n sunt incompatibile, avem

 n  n (2.19) P A i    P( A i ) .  i 1  i 1 56

Problema care se pune este aceea de a vedea ce se intampla in cazul general, anume in cazul cand evenimentele A 1, ..., A n sunt oarecare. Pentru simplificare sa luam cazul a doua evenimente A 1, A2 si fie A1A2 intersectia lor. Observam ca

A 1  (A 1

A 2 ) (A 1

A 2)

A 2  (A 2

A 1 ) (A 1

A 2)

A1

A 2  (A 1

A 2 ) (A 2 A 1 ) (A 1 In virtutea formulei (2.19) avem

A 2)

(2.19’)

P( A 1 )  P( A 1 A 2 )  P( A 1 A 2 )

(2.19”)

P( A 2 )  P( A 2

(2.19’”) P( A 1

A 1 )  P( A 1

A 2 )  P( A 1

A 2)

A 2 )  P( A 2

A 1 )  P( A 1

A 2)

deci (2.20) P( A 1

A 2 )  P( A 1 )  P( A 2 )  P( A 1

A 2)

formula care leaga, intre ele, probabilitatile evenimentelor A 1, A 2, A 1A2, A1A2. In cazul a trei evenimente avem (2.21) P(A 1  A2  A3) = P(A 1) + P(A 2) + P(A 3) - P(A 1  A2) - P(A 1  A3) -P(A2  A3) + + P(A

1

 A 2  A3) ;

iar in cazul a n evenimente A 1,...,A n , prin recurenta, obtinem formula lui Poincaré n  n   n  n P U Ai    P ( Ai )    P ( Ai1 I Ai2 )   P ( Ai1 I Ai2 I Ai3 )   (2.22)  i 1  i 1 i1  i2  i3  i1  i2 

 ...  (1) n 1 P ( A1 I A2 I ... I An ) n

formula care arata ca, in calculul evenimentului

A i , este necesara cunoasterea tuturor i 1

evenimentelor intersectiei. Atragem atentia ca formula (2.22) poate fi utilizata si in cazul cand evenimentele A1,...,A n sunt luate dintr-un camp de probalibitate complet aditiv (vezi paragraful 2.3). O margine inferioara a probabilitatii intersectiei a n evenimente A1,...,A n P() este data de inegalitatea n

(2.23) P ( A1 I A2 I .. I An )   P ( Ai )  (n  1) i 1

cunoscuta sub numele de inegalitatea lui Boole. Pentru a o obtine sa punem formula (2.20) sub forma (2.24) P( A 1

A 2 )  P( A 1 )  P( A 2 )  P( A 1

A 2)

si sa tinem seama ca 0P(A1A2). Ca urmare, avem (2.25) P( A 1

A 2 )  P( A 1 )  P( A 2 )  1 . 57

Aplicand inegalitatea (2.25) in cazul a trei evenimente A 1, A 2, A 3, gasim (2.26) P( A 1 A 2 A 3 )  P( A 1 )  P( A 2 )  P( A 3 )  2 si, prin inductie, rezulta inegalitatea (2.23). Un exemplu de aplicare a acestei inegalitati, in cazul n3, este urmatorul. La un examen un candidat trebuie sa treaca trei probe A,B,C. Stiind ca sansa acestuia de a trece proba A este de 0,92, proba B este de 0,86 si proba C este de 0,98, candidatul se intreaba ce sansa globala are de a promova exemenul. Pentru evaluarea sansei, aplicand inegalitatea lui Boole, el constata ca p0,860,89-20,66 fapt care spune ca pregatirea sa nu este prea stralucita. Aplicatie. O forma echivalenta a inegalitatii lui Boole se obtine utilizand contrarele evenimentelor considerate. Astfel , P(A i)  1  P( A i ) si, deci, n

n

n

i 1

i 1

i 1

 P( A i )   1  P( A i )  n   P( A i ) . Atunci, n

n

P ( A1 I A2 I ... I An )  n   P ( Ai )  n  1  1   P ( Ai ) i 1

i 1

Prin urmare, inegalitatea lui Boole se mai poate scrie in felul urmator n

(2.27) P ( A1 I A2 I ... I An )  1   P ( Ai ) . i 1

Sa revenim, acum, la formula (2.19’) pe care sa o scriem astfel (2.19 IV) P( A 1

A 2 )  P( A 1 )  P( A 1

A 2) .

Avem, astfel, o formula care evalueaza probabilitatea ca, din ansamblul de evenimente A1, A 2, numai evenimentul A 1 sa aiba loc. Daca suntem in prezenta a trei evenimente A 1, A2, A3, probabilitatea ca dintre aceste evenimente sa aiba loc numai evenimentul A 1 este data de

P( A1 I ( A2 U A3 ))  P( A1 )  P( A1 I ( A2 U A3 ))  P( A1 )  P( A1 I A2 ) U ( A1 I A3 )   P( A1 )  P( A1 I A2 )  P( A1 I A3 )  P( A1 I A2 I A3 )   P( A1 )  P( A1 I A2 )  P( A1 I A3 )  P( A1 I A2 I A3 ) iar, in cazul a n evenimente A 1, A 2, ..., A n, obtinem n

(2.28)

P( A1 I ( A2 U ... U An ))  P( A1 )   P( A1 I Ai )   P( A1 I Ai1 I Ai2 )  ...  i 2

 (1)

n 1

i1  i2

P( A1 I A2 I ... I An )

sumele fiind luate de la 2 la n.

58

Daca ne intereseaza probabilitatea realizarii unui eveniment oarecare din cele n evenimente A1, A2, ..., A n, de exemplu a evenimentului Ak, si numai a acestuia, consideram formula

P ( Ak I ( A1 U ... U Ak 1 U Ak 1 U ... U An ))  P ( Ak )  n

(2.28’)   P ( Ak I Ai )   P ( Ak I Ai1 I Ai2 )  i1 1 ik

i1  i2 i1  k



P ( Ak I Ai1 I Ai2 I Ai3 )  ... 

i1  i2  i3 i1  k

 (i ) n 1 P ( A1 I A2 I ... I Ak I ... I An ) Rationamentele facute mai sus pot fi adaptate imediat la perechi de evenimente, terne de evenimente, etc. De exemplu, daca ne intereseaza probabilitatea ca din ansamblul evenimentelor A 1,...,A n sa se realizeze evenimentul A 1 A2, problema se rezolva imediat si avem n

P ( A1 I A2 ) I ( A3 I A4 I ... I An 1 I An ))  P ( A1 I A2 )   P ( A1 I A2 I Ai )  i1  3





P ( A1 I A2 I Ai1 I Ai2 )  (1) n 1 P ( A1 I A2 I ... I An )

3 i1  i2

Notand

cu

P( i )  P ( Ai I ( A1 U ... U Ai 1 U Ai 1 U ... U An )) probabilitatea

ca,

dintre

evenimentele A1,...,A n, sa aiba loc numai evenimentul A i, numarul (2.29) P (1)  P(1)  P(n) evalueaza probabilitatea ca, din ansamblul evenimentelor A 1,...,A n, sa se verifice unul si numai unul, fara ca acesta sa fie explicitat in mod expres. Inlocuind in (2.29) valorile probabilitatilor P (i), obtinem (2.29’) P (1)  T1 - 2T2  3T3 -4T4 ...(-1)n-1nTn unde

T1   P( A i ), T2   P( A i1 i1  i 2

A i 2 ),

, Tn  P( A 1

A n ) si avem expresia

explicita a numarului P (1). Indicand cu P(i,j) probabilitatea ca, din ansamblul evenimentelor A1,...,A n, sa se realizeze simultan numai evenimentele A i, A j, numarul P(2)  P(1,1)  P(1,2)  P(n-1,n) desemneaza probabilitatea ca numai doua dintre evenimentele A1,...,A n sa se verifice simultan, fara ca acestea sa fie specificate in mod expres. Procedand la fel se pot introduce probabilitatile P(i,j,k), P(i,j,k,l), ....,P (3), P (4), .... , etc. Astfel numarul (2.30) P r P(r) P(r1)  ...  P(n) evalueaza probabilitatea ca cel putin r dintre evenimentele A1,...,A n sa se verifice. Determinarea efectiva, pe cale directa, a acestei probabilitati este dificila si va fi data mai tarziu. Exprimarea ei ca functie de probabilitatile T 1, T 2, ..., T n, introduse mai sus, este (2.31) Pr  Tr  C r1Tr 1  ...  (1) s C rs s 1  ...  (1) n  r C nn1r Tn . 59

In particular, pentru r=1, obtinem (2.31’) P1  T1  T2  T3  ...  (1) n 1 Tn formula care evalueaza probabilitatea ca cel putin unul dintre evenimentele A 1,...,A n sa se realizeze. Sa revenim la campul de probabilitate (, P(), P) si fie A P() supus conditiei P(A) 0. Daca indicam prin P A aplicatia PA : P()  R definita prin conditia (2.32) PA ( B) 

P( A B) , B  P() , P( A )

PA este o probabilitate pe campul de evenimente (, P()). Definitia 2.5.1. Probabilitatea P A introdusa mai sus, pe campul de evenimente (, P()), poarta numele de probabilitate indusa de evenimentul A, iar (, P(), PA) se numeste camp de probabilitate indus de evenimentul A P() pe campul de evenimente (, P()). Numarul P A(B), asociat evenimentului B P(), exprimat in formula (2.32) poarta numele de probabilitate a evenimentului B conditionata de evenimentul A. Conform formulei (2.32) avem (2.33) P(AB)P(A) P A(B)P(B) P B(A) daca A,B P() si P(A) P(B)0; iar, daca A 1,...A n sunt n evenimente apartinand campului de evenimente (, P()), printr-un calcul direct se poate arata ca avem (2.34)

P( A1 I ... I An )  P( A1 ) PA1 ( A2 ) PA1 I A2 ( A3 )...PA1 I...I An 1 ( An ) dacaP( A1 I A2 I ... I An 1 )  0

In adevar, conditia

P ( A1 I A2 I ... I An 1 )  0 implica P( A1 )  0, P( A1 I A2 )  0,..., P ( A1 I A2 I ... I An 1 )  0 13) . Deci P(A1) P(A1) PA1 ( A2 )  P ( A1 I A2 ) / P ( A1 ) PA1 I A2 ( A3 )  P ( A1 I A2 I A3 ) / P ( A1 I A2 ) ................................................................... PA1 I...I An 1 ( An )  P ( A1 I ... I An ) / P ( A1 I ... I An 1 )

de unde prin simpla inmultire obtinem formula (2.34). Aceasta formula mai este cunoscuta ca formula de inmultire a probabilitatilor. Fie, din nou campul de probabilitate complet aditiv (, P(), P) si fie E1E2...En o descompunere a evenimentului sigur in evenimente incompatibile.

13)

Daca P(A1A2 ... An-1)0, inseamna ca A1A2 ... An-1 (adica nu este un eveniment imposibil). Deci, exista cel putin un eveniment  care apartine fiecaruia dintre evenimentele A1, A2, ..., An-1 si P()0. Aceasta implica P(A1)0, P(A1A2)0, ..., P(A1A2 ... An-2)0, P(A1A2 ... An-1)0. 60

Definitia 2.5.4. Un sistem de n evenimente incompatibile E1,...E n  P(), care realizeaza o descompunere a evenimentului sigur, se spune ca constituie un sistem complet de evenimente in campul de probabilitate (, P(), P). Daca AP() atunci, A(AE1)(AE2)...(AEn) si suntem in prezenta descompunerii evenimentului A in evenimentele incompatibile AE1, ..., AEn ( vezi definitia 2.2.3). Cu alte cuvinte, evenimentele E1, ..., En alcatuiesc un sistem complet de evenimente daca un experiment pune in evidenta unul si numai unul dintre ele. Drept urmare, P(A)P(AE1)...P(AEn) si, deoarece (2.32’) P(AEi)P(A) P A(Ei)P(Ei) P Ei (A) rezulta formula n

(2.35) P( A )   P( E i )PEi ( A ) i 1

numita formula probabilitatii totale, cu ajutorul careia se poate determina probabilitatea unui eveniment A daca se cunosc probabilitatile evenimentelor Ei, (P(E i)0), si probabilitatile evenimentului A conditionate de evenimentele E i. Daca in (2.33’) tinem seama de (2.35) obtinem P( E i )PEi ( A )

(2.36) PA ( E i ) 

n

 P( Ei )PEi ( A )

i 1

egalitate care in literatura de specialitate este cunoscuta sub numele de formula lui Bayes, prin care avem probabilitatile evenimentelor E i conditionate de evenimentul A. In unele aplicatii este util sa punem formula (2.36) sub forma (2.36’) PA ( Ei ) 

P( A

Ei )

n

 P( A Ei ) i 1

Sa revenim, din nou, la campul de probabilitate (, P(), P) si fie

AP() un

eveniment supus conditiei P(A)0. Odata cu campul de probabilitate indus de evenimentul A peste (, P()), adica odata cu campul (, P(), P A) sa consideram si campul (A , P(A), P A). Cum, PA ( A ) 

P( A A )  1, in acest camp rolul evenimentului sigur este jucat de evenimentul P( A )

A. Daca B P() atunci, AB P() si PA(B)P A(AB). Insa ABB. Ca urmare, probabilitatea evenimentului B conditionata de evenimentul A, deci numarul P A(B) poate fi interpretat ca masurand sansa realizarii evenimentului B dupa ce evenimentul A a avut loc. Aceasta interpretare este deosebit de utila in explicatii. Consideratiile facute mai sus pot fi adaptate, cu unele modificari specifice, si la campuri de probabilitate complet aditive. 61

Fie (, P(), P) un astfel de camp si fie A K() un eveniment cu proprietatea P(A)0. Atunci fiecarui B K() i se poate asocia numarul

P( A B) P( A )

P( B / A )  PA ( B) 

care, si in acest caz, poarta numele de probabilitatea evenimentului B conditionata de evenimentul A. Sa observam ca PA ( )  1 [ i

PA (

B    PA ( B  ) oricare ar fi familia cel mult  I

 I

numerabila B   I de evenimente incompatibile din K(). Intr-adevar, PA () 

P ( A I ) P ( A)  1 P ( A) P ( A)

si

PA (U B ) 

P ( A I U B )  I

P ( A)

 I

  P U ( A I B     I P ( A)

 P( A I B )

 I

P ( A)

  PA ( B )  I

Prin urmare , (, K(), P A), este un camp de probabilitate complet aditiv, pe care il vom numi, la fel cum am facut in cazul campurilor de probabilitate finite (definitia 2.5.1.), camp de probabilitate indus de evenimentul A pe campul borelian de evenimente (, K()), iar P A probabilitatea indusa de evenimentul A. Presupunand ca o familie cel mult numerabila E  I , de evenimente incompatibile, realizeaza o descompunere a evenimentului sigur , daca  

E atunci, oricare ar fi  I

aK() avem (2.35’) P( A )   P( B  )PB ( A )  I

si suntem in prezenta formulei totale adaptata cazului campurilor complet adtive. Ne dam seama de valabilitatea formulei (2.36’) daca observam ca A

(A

B )

 I

si, astfel, formula lui Bayes are un corespondent in cazul campurilor de probabilitate complet aditive. In

adevar,

daca

P(A)0

si

P(B)0

pentru

toti

I,

atunci,

din

P( A )PA ( B  )  P( B  )PB ( A ) ,

conform formulei (2.35’) obtinem (2.36”) PA ( B ) 

P( B )PB ( A )

.

 P( B )PB ( A )

I

62

De asemenea, se poate formula inegalitatea lui Boole intr-un camp de probabilitate complet aditiv dupa cum urmeaza: Daca {X}I este o familie numerabila de evenimente din campul de probabilitate complet aditiv (, K(), P), atunci   P X    1   P( X  ) .  I   I

X 

Intr-adevar, se stie ca

 I

X .  I

      Deci, 1  P X    P X    P X   .  I   I   I 

Dar, in virtutea corolarului 2.3.3, avem   P X     P( X  ) .  I  I

In felul acesta, se obtine   1  P X     P( X  )  I  I

sau   P X    1   X  .  I   I

2.6. Independenta stochastica. Extractii repetate. Din formula (2.32) se poate constata ca, dandu-se evenimentele A si H, probabilitatea P(A|H) nu este, in general, egala cu probabilitatea absoluta P(A). In termeni mai putin precisi se poate spune ca, daca H se realizeaza, informatia obtinuta influenteaza felul in care privim evenimentul A. Numai cand P(A|H)P(A) aceasta informatie nu permite nici o interpretare asupra aparitiei lui A. In acest caz, vom spune ca A este independent stochastic de H. Putem scrie conditia P(A|H)P(A) in forma (2.37) P(AH)P(A)P(H) . Aceasta ecuatie este simetrica in A si H si arata ca, daca A este independent stochastic de H, la fel este si H fata de A. Este preferabil, deci, sa pornim de la Definitia 2.6.1. Doua evenimente A si H se spune ca sunt stochastic independente ( pe scurt independente) daca are loc relatia (2.37). Aceasta definitie este, de asemenea, acceptata daca P(H)0, caz in care P(A|H) nu este definita. Precizam ca termenul independent statistic, intalnit, uneori, in literatura, este sinonim cu independent stochastic. Exemplul 2.6.1. Se consideram un pachet cu carti de joc din care sa scoatem o carte la intamplare. Din motive de simetrie ne asteptam ca evenimentele “trefla” si “as” sa fie

63

independente. De fapt, probabilitatile lor sunt 1/4 si 1/13, iar probabilitatea realizarii lor simultane este 1/52. Exemplul 2.6.2. Se arunca doua zaruri identice. Evenimentele “fata 1 la primul zar” si “fata cu un numar par la al doilea zar” sunt independente. Probabilitatea realizarii lor simultane este 3/36, adica 1/12, si reprezinta produsul probabilitatilor acestor evenimente, adica 1/6 si respectiv 3/6. Exemplul 2.6.3. (Distributia sexelor). Sa consideram familiile care au trei copii si sa notam prin b si f un baiat si respectiv o fata. Sa presupunem ca fiecare dintre cele 23 posibilitati bbb,bbf,...,fff are probabilitatea 1/8. Fie H evenimentul “familia are copii de ambe sexe” si A evenimentul “exista cel mult o fata”. Atunci , P(H)6/8 si P(A)4/8. Realizarea simultana a evenimentelor A si H inseamna una dintre posibilitatile bbf, bfb, fbb astfel ca P(HA)3/8P(H)P(A). Deci, in familiile cu trei copii, cele doua evenimente sunt independente. Este bine sa se retina ca aceasta concluzie nu mai ramane adevarata pentru familiile cu doi sau patru copii. De exemplu, considerand familiile care au exact doi copii, sa presupunem ca prima litera indica copilul cel mai mare. Exista urmatoarele patru posibilitati bb, bf, fb, ff , care constituie evenimente elementare, fiecare avand probabilitatea 1/4. Stiind ca o familie are un baiat (evenimentul H), care este probabilitatea ca ambii copii sa fie baieti (evenimentul A)? Prin urmare, evenimentul AH inseamna bb, iar evenimentul H inseamna bb sau bf sau fb. Rezulta, deci, P(AH)=1/4, in timp ce P(H)=3/4. Atunci, din P(AH)=P(H)P(A|H) se obtine P(A|H)=1/3. Cu alte cuvinte, o treime dintre familiile cu caracteristica H se pot astepte ca si evenimentul A sa se realizeze. Este interesant faptul ca multi s-ar astepta ca raspunsul la intrebarea de mai sus sa fie 1/2. Acesta este,intr-adevar, un raspuns corect dar la alta intrebare, anume “un baiat este ales la intamplare si se gaseste ca el provine dintr-o familie cu doi copii; care este probabilitatea ca celalat copil sa fie un baiat?” Acum, diferenta dintre cele doua chestiuni este explicabila. Nu avem decat sa consideram o lista a familiilor si o lista a copiilor de sex masculuin. In ultima fiecare familie cu doi copii va fi reprezentata de doua ori, ceeace explica diferenta dintre cele doua rezultate. Prin urmare, nu totdeauna este evident daca avem sau nu independenta evenimentelor. Daca evenimentul H se realizeaza, evenimentul contrar H’ nu se realizeza si reciproc. Independenaa stochastica implica faptul ca, din realizarea evenimentului H, nu se poate trage nici o concluzie relativ la A. Deci, independenta stochastica a evenimentelor A si H ar insemna acelasi lucru ca si independenta lui A si H’ (in virtutea simetriei, la fel ca a evenimentelor A’ si H si a evenimentelor A’ si H’). Aceasta rezulta cu usurinta folosind relatia P(H’)1-P(A). Daca relatia (2.37) se pastreaza atunci, pentru ca A H’  A-(AH), se obtine P(AH’)P(A)-P(AH)=P(A)-P(A)P(H)P(A)(1-P(H))P(A)P(H’), cum era de asteptat. Sa presupunem, acum, ca trei evenimente A,B si C sunt independente astfel incat P(AB)P(A) P(B) (2.38)

P(AC)P(A) P(C) P(BC)P(B) P(C) 64

S-ar putea crede ca aceasta implica totdeauna independenta unor asemenea perechi de evenimente cum ar fi A, B, si C. Din pacate , nu totdeauna se intampla astfel. Urmatorul exemplu va arata ca relatiile (2.38) sunt adevarate dar realizarea simultana a evenimentelor A, B si C este imposibila, astfel ca A , B si C nu pot fi independente. Exemplul 2.6.4. Se arunca doua zaruri si se definesc urmatoarele trei evenimente: A inseamna “fata cu un numar impar la primul zar”; B inseamna “fata cu numar impar la al doilea zar”; iar C inseamna “suma impara” ( adica o fata cu un numar par, iar cealalta cu numar impar). Daca fiecare dintre cele 36 de evenimente elementare are probabilitatea 1/36 atunci, P(A)3/61/2, P(B)3/6=1/2, si P(C)3/6=1/2. Deci, considerand oricare doua evenimente dintre A, B si C ele vor fi independente pentru ca P(AB)1/4P(A) P(B) P(AC) 1/4P(A) P(C) P(BC) 1/4P(B) P(C) Prin urmare, probabilitatea conditionata a fiecaruia dintre evenimentele A, B si C este egala cu ½, presupunand ca s-a realizat unul dintre celelalte doua evenimente. Totusi, cele trei evenimente nu pot sa se realizeze simultan pentru ca apaarand la primul zar un numar impar si la al doilea tot un numar impar, suma lor nu poate fi tot un numar impar. Cu alte cuvinte, informatia ca “evenimentul A s-a realizat iar B nu s-a realizat”, asigura realizarea lui C si rationamentul poate fi continuat pentru celelalte combinatii. Este de dorit sa se rezerve termenul de independenta stochastica pentru cazul cand nu este posibila nici o implicatie. In aceasta situatie nu este suficient sa se pastreze numai egalitatile (2.38) ci trebuie, in plus, sa avem si (2.39) P(ABC) P(A) P(B) P(C). Aceasta ecuatie asigura independenta evenimentelor A si BC, a evenimentelor B si AB si a evenimentelor C si AB. Mai mult chiar, acuma se poate dovedi ca si evenimentele A B si C sunt independente. Pentru aceasta, cunoscuta

n-avem decat sa consideram relatia de baza

P(A1A2)P(A1)P(A2)-P(A1A2) din care deducem P(AB)CP(AC)(BC)P(AC)P(BC)-P(ABC). Aplicand (2.38) si (2.39) in partea dreapta acestei egalitati se obtine P(AB)CP(A)P(B)-P(A) P(B) P(C) adica P(AB)CP(AB) P(C) Se poate spune, deci, ca orice eveniment care se poate exprima in termeni ai lui A si B va fi independent de C. In cazul general a n evenimente, se poate enunta urmatoarea definitie.

65

Definitia 2.6.2. Evenimentele A1, A2, ..., A n se numesc independente in totalitate daca, pentru toate combinatiile 1 i j ...  n, se aplica regulile de inmultire urmatoare

P ( Ai I A j )  P ( Ai ) P ( A j ) (2.40)

P ( Ai I A j I Ak )  P ( Ai ) P ( A j ) P ( Ak ) .......................................................... P ( A1 I A2 I K I An )  P ( A1 ) P ( A2 )...P ( An )

  ecuatti, a doua pentru   ecuatii etc. Prin        2  n  1 conditii care trebuie sa fie

Prima linie din (2.40) este valabila pentru

n 2

n 3

    ....   (1  1) satisfacute. Pe de alta parte, cele   conditii, continute in prima linie, sunt suficiente pentru a urmare, exista

n 2

n 3

n n

n

n 1

n 0

n

n 2

asigura independenta doua cate doua a evenimentelor. Intregul sistem (2.40) pare sa fie o multime complicata de conditii dar, de fapt, ne este deloc asa. Se observa fara greutate, prin inductie, (pornind de la n2 si P(AH’)P(A) P(H’)), ca in definitia 2.6.2 sistemul (2.40) poate fi inlocuit prin sistemul celor 2n ecuatii obtinute din ultima ecuatie a sistemului (2.40) prin inlocuirea unui numar arbitrar de evenimente Aj cu evenimentele lor contrare A’j. Deosebirea intre independenta in totalitate si independenta doua cate doua a evenimentelor este de importanta mai mult teoretica decat practica. Ezemple practice de evenimente independente doua cate doua care nu sunt independente in totalitate, in mod aparent, nu exista. Posibilitatea unei astfel de aparitii a fost descoperita de S.N. Bernstein si este ilustrata in exemplul de mai jos. Exemplul 2.6.5 (S.N. Bernstein). Fie multimea de evenimente elementare 12,3,4 cu P(i)1/4, pentru i1,2,3,4. Sa consideram evenimentele A1,2, B1,3, C1,4. Avem, atunci, P(A)  P(B) P(C) 1/2 si P(AB) P(BC) P(CA) 1/4 (1/2)(1/2), ceea ce arata ca evenimentele A, B si C sunt independente doua cate doua. In schimb, P(ABC)1/4(1/2)3P(A) P(B) P(C) , de unde rezulta ca evenimentele A, B si C nu sunt independente in totalitate (sau, pe scurt, nu sunt independente). Din definitia 2.6.1 rezulta ca doua evenimente A, B incompatibile, care satisfac conditiei P(A) P(B)0, nu sunt evenimente independente. In adevar A,B fiind evenimente incompatibile, avem AB, deci P(AB)0 si, ca urmare, egalitatea (2.39) nu poate avea loc. Pentru ca doua evenimente A, B incompatibile sa fie independente trebuie sa avem (P(A))2(P(B))20. In adevar, AB implica P(AB)0, deci P(A) P(B)0 de unde avem P(A)=0 sau P(B)=0 sau P(A)=P(B)=0, ceeace conduce la (P(A)) 2(P(B))20.

66

Direct din definitia 2.6.1 rezulta ca, daca P(A) P(B)0, conditia necesara si suficienta ca evenimentele A, B sa fie independente este sa avem (folosind relatia (2.32)) PA(B)P(B) respectiv P B(A)P(A). In particular, invocand definitia 2.6.2 avem Teorema 2.6.1 Daca A1, A2, ..., A n P() sunt evenimente independente atunci, oricare ar fi subsirul 1  i1 i2 ... in n, are loc egelitatea (2.41) P(A1A2.... An) P(A 1) P(A2)... P(A n). Sa stabilim, acum, formula (2.31). De la inceput trebuie sa observam ca probabilitatiile P(r) , P (r1), ..., P (n) sunt functii liniare de T r, T r1, ..., T n si, deci, Pr arTr ar1Tr+1 ...  anTn unde a r, ..., a n sunt constante. Presupunand ca evenimentele A1, ..., A n sunt independente si ca P1P2 10,

.. .Pr 1, Pr

..., P n0, obtinem Pr 1ar 1, deci ar1. Daca luam P1P2...Pr Pr11, Pr 2 ...Pn0

obtinem Pr  1  C1r 1 ar  ar 1 .

In general, daca P 1P2...Pr Pr1...  Prk 1, Pr k1 ...Pn0 obtinem 1= Crr k a r  Crrk1 a r 1 ... Crrkk a r  k

.

Continuand procesul constatam ca constantele a 1, ..., a n sunt solutiile sistemului ar  1 C r11  a r 1  C r2 2  C r1 2 a r 1  a r  2  1 ..................................... C nn  r  C nn  r 1 a r 1  C nn  r  2 a r  2  ...  a n  1

de unde rezulta ca ar  s  ( 1) s Csr  s1

si formula este dovedita. In continuare, ne vom referi la problema extractiilor repetate. Sa observam, in acest scop, ca notiunea de independenta stochastica, in final, ne da posibilitatea sa formulam, in mod analitic, conceptul intuitiv de experimente repetate in conditii identice. Fie  un camp de evenimente realizat de un anumit experiment. Fie E1,E2,... evenimentele elementare ale campului si p1,p2,... probabilitatile lor. Rezultatele posibile a doua experimente succesive sunt perechile (E j,Ek), care formeaza un nou camp de evenimente. In acesta, probabilitatile pot fi atribuite in multe moduri. Daca, insa, experimentatorul precizeaza ca doua masuratori sunt efectuate in conditii identice atunci, el implica independenta; primul rezultat, in aceasta situatie, n-ar avea nici o influenta asupra celui de al doilea. Aceasta inseamna ca cele doua evenimente “primul rezultat este Ej” si “al doilea rezultat este E k” ar fi independente stochastic sau ca (2.42) P( E j , E k )  p j p k .

67

Aceasta egalitate atribuie o probabilitate fiecarei perechi (E j,Ek). Mai inainte, insa, de a putea folosi relatia (2.42) ca o definitie a probabilitatilor in noul camp de evenimente, trebuie aratat ca suma cantitatilor pjpk este egala cu unitatea. Pentru acestea n-avem decat sa observam ca

in

  p j p k fiecare termen apare odata si numai odata, astfel ca

suma

j k

 p j

j

p k  ( p1  p 2  ...)( p1  p 2  ...)  1 .

k

Abia apoi putem accepta (2.42) ca o definitie a probabilitatilor mentionate. Sa notam prin A si B doua evenimente arbitrare ale campului initial de evenimente, iar prin (A,B) evenimentul “A a aparut la prima extragere si B la a doua extragere”. Sa presupunem, mai departe, ca A contine punctele E a1 , E a2 ,

in timp ce B contine punctele E b1 , E b2 ,

Atunci, evenimentul (A,B) este reuniunea tuturor perechilor ( E aj , E bk ) si, ca mai inainte, se observa ca (2.43) P A , B    p aj p bk  ( p aj )(  p bk )  P( A )  P( B) . j k

j

k

Deci evenimetele A si B sunt independente. Se vede ca (2.42), acceptata ca definitie, impune ca toate evenimentele la a doua extragere sa fie independente de evenimentele la prima extragere. Pentru scopurile pe care le urmareste teoria probabilitatilor aceasta descrie “experimente identice”. Aceste consideratii se pot aplica, desigur, la r experimente succesive ceeace ne conduce la definitia urmatoare. Definitia 2.6.3. Fie  multimea evenimentelor elementare E1, E2, ... ale caror probabilitati corespunzatoare sunt p 1, p2, .... Se intelege prin n extractii independente care corespund campului de evenimente respectiv, acel camp de evenimente ale carui puncte sunt nuplele ( E j1 , E j2 ,..., E jn ) cu probabilitatile (2.44) P[ ( E j1 , E j2 ,..., E jn ) ] p j1 p j1 ... p jn . Cu alte cuvinte, fiecare punct al noului camp este o selectie de volum n (cu posibile repetari) de puncte ale campului initial, probabilitatile fiind definite prin relatia (2.44). Reamintim ca (2.44) nu este singura definitie posibila a acestor probabilitati. Cu alte cuvinte, extractiile repetate nu sunt in mod necesar independente. Deci, (2.44) defineste extractii independente sau, in alti termeni, extractii repetate in conditii identice. Adevarul stabilit in relatia (2.43) poate fi gasit, intr-o forma mai generala, in urmatoarea teorema privitoare la extractii independente. Teorema 2.6.1. Presupunem ca un sistem de evenimente A1,A2,...,A n este astfel incat extragerea k decide singura daca evenimentul Ak se realizeaza sau nu; atunci evenimentele A1,....,A n sunt independente in totalitate daca extragerile sunt independente, adica daca (2.44) ramane adevarata. Daca  contine un numar finit N, de puncte, atunci exista N n evenimente elementare ( E j1 , E j2 ,..., E jn ) . Daca fiecare punct din  are probabilitatea 1/N atunci, (2.44) asociaza 68

probabilitatea N-n cu fiecare punct ( E j1 , E j2 ,..., E jn ) . Noua abordare este, in mod conceptural, preferabila unei asocieri formale de probabilitati egale deoarece ea se aplica atat campurilor de evenimente cu probabilitati neegale cat si campurilor de evenimente infinite. Ea este indispensabila teoriei generale a probabilitatilor, unde se considera chiar si o singura extractie ca fiind prima intr-o secventa eventual infinita. Avem, atunci, de-a face numai cu secvente infinite (Ej1, Ej2, .....) de rezultate posibile, in acest nou camp probabilitatile fiind definite in conformitate cu (2.44). Dar la acest aspect ne vom referi mai tarziu. In discutia de mai sus, s-su considerat numai repetari ale aceluiasi experiment, dar, in acelasi mod, se pot trata si secventele unor experimente diferite. Daca aruncam, spre exemplu, mai intai o moneda si, apoi, un zar, presupunem, in mod natural, ca cele doua experimente sunt independente. Aceasta revine la asocierea probabilitatilor dupa regula produsului. Astfel,  1 1 P[(ban,unu)] =    , etc. In acest caz particular, aceasta echivaleaza cu asocierea de  2 6

probabilitati egale tuturor celor douasprezece evenimente elementare dar, in general, trebuie procedat conform cu (2.44). Definitia 2.6.4. Fie ‘ si “ doua multimi de evenimente E1' , E'2 ,... [ i respectiv. Se noteaza probabilitatile corespunzatoare lor prin p1' , p '2 ,... [ i



E1" , E"2 ,...

p1" , p"2 ,... Secventa



celor doua experimente este descrisa de campul ale carui puncte sunt E'j , E"k . A spune ca cele doua experiente succesive sunt independente insemna a defini probabilitatile prin (2.45)



P E 'j , E"k

  p p

' " j k.

Observatie. Notiunile pe care le-am introdus nu sunt specifice teoriei probabilitatilor. Dandu-se doua multimi de evenimente ‘ si “ cu punctele, notate in general E’ si E”, multimea tuturor perechilor (E’,E”) se numeste produsul cartezian al lui ‘ si “ si se noteaza prin ‘“. Relatia (2.45) defineste ceeace in mod obisnuit se numeste masura produs a probabilitatilor evenimentelor din ‘ si “. Am folosit in mod curent cuvantul experiment ca echivalentul unui camp de evenimente in care s-a definit o probabilitate. In mod similar, secventa a doua evenimente independente este prescurtarea folosita pentru produsul cartezian al campurilor de evenimente corespunzatoare cu probabilitati definite de (2.45). Este bine de retinut si faptul ca reuniunea tuturor perechilor (i,j), unde i si j sunt intregi pozitivi de la 1 pana la n, formeaza produsul multimii de intregi 1,2,...,n cu ea insasi . De asemenea, in selectia nerepetata, perechi de forma (i,i) nu sunt permise totusi, asa cum va reiesi din exemplele urmatoare. Metoda indicata mai sus se aplica si in cazuri ma i complicate. Exemplul 2.6.6 (Permutari). Considerand n! permutari ale elementelor a 1,a2,....,a n, alese ca puncte ale unui camp de evenimente, putem atribui fiecaruia probabilitatea 1/n!. Putem, insa, considera acelasi camp de evenimente ca reprezentand n-1 experimente succesive dupa cum urmeaza. Incepem prin a-l scrie de a1. Primul experiment consta in a-l pune pe a2 ori inainte, ori dupa a 1. Odata realizat acest 69

lucru, vom avea trei posibilitati pentru a 3 si al doilea experiment consta in a alege dintre acestea, decizand asupra ordinei relative a lui a1,a2 si a3. In general, dupa ce a1,a2,...,a k sunt asezate intr-o ordine relativa, se trece la experimentul numarul k constand din selectionarea unuia dintre cele k 1 locuri pentru ak1. Cu alte cuvinte, avem o succesiune de n-1 experiente din care experimentul numarul k poate avea drept rezultat k alegeri diferite (evenimente elementare), fiecare avand probabilitatea 1/k. Experimentele sunt independente, adica se inmultesc. Fiecare permutare a 11 1 ... , in concordanta cu definitia de baza. 23 n Exemplu 2.6.7 (Selectie nerepetata).

celor n elemente are probabilitatea

Fie populatia (a1,a2,...,a n). In selectia nerepetata fiecare alegere elimina un element. Dupa k pasi mai raman n-k elemente si urmatoarea alegere poate fi descrisa prin specificarea numarului de locuri ale elementului ales (1,2,...,n-k). In cest mod, considerarea unei selectii nerepetate de volum r revine la o secventa de r experimente unde primul are n rezultate posibile, al doilea n-1, al treilea n-2 etc. Atribuim probabilitati egale tuturor rezultatelor experimentelor individuale si admitem ca cele r experimente sunt independente. Aceasta se rezuma la atribuirea probabilitatii

1 fiecarei selectii, in concordanta cu definitia selectiilor aleatoare. (Retinem ca ( n) r

pentru n100 si r3, selectia (a13,a40,a81) inseamna alegerea numarului 13, a lui 39 si respevtiv 79. La al treilea experiment a fost ales elementul 79 din populatia redusa de n-2 elemente, rezultatul experimentului al treilea depinzand de primele doua alegeri). Dupa cum se vede, notiunea de experimente independente repetate ne permite sa studiem selectia ca o secventa de operatii individuale. La fel ca in cazul finit, vom spune ca evenimentele A,B, K() sunt independente, daca P(AB)P(A) P(B) . Generalizand, evenimentele A1,...,A n sunt independente daca oricare ar fi i 1,i2,...,i p in relatia 1i1i2...ip n, avem p

 p  P I Aik    P( Aik )  k 1  k 1 n

unde am pus P ( Ai1 )....P ( Ai p )   P ( Aik ) k 1

Este clar ca aceasta relatie este necesara pentru independenta evenimentelor A 1,A2,...,A n oricare ar fi 1i1i2...ip n. Pentru a arata ca ea este si suficienta trebuie dovedit ca, pentru n evenimente X1,X2,...,X n, unde x A i , A i  are loc egalitatea P( X 1

X 2 ... X n )  P( X 1 )P( X 2 )... P( X n ) . Daca X1A1, X 2A2,...,X nAn, atunci aceasta egalitate rezulta din ipoteza.

Sa presupunem, deci, ca X 1A1, X2A2,... X n-1An-1, XnAn, celelalte cazuri dovedinduse in acelasi fel. Avem, astfel:

70

P ( A1 I A2 I ... I An 1 I An )  P ( A1 I A2 I ... I An 1 I A )  P ( A1 I A2 I ... I An 1 I An )   P ( A1 I A2 I ... I An 1 I An )  P ( A1 I A2 I ... I An 1 I ( An U An ))   P ( A1 I A2 I ... I An 1 I An )   P ( A1 I A2 I ... I An 1 I )  P ( A1 I A2 I ... I An 1 I An ) 

Notiunea

de

 P ( A1 I A2 I ... I An 1 )  P ( A1 I A2 I ... I An 1 I An )   P ( A1 )...P ( An 1 )  P ( A1 )...P ( An 1 ) P ( An )   P ( A1 )...P ( An 1 )1  P ( An )  P ( A1 )...P ( An 1 ) P ( An ) independenta a unei familii numerabile de evenimente X   I din (, K(), P), este data in Definitie 2.6.5. Vom spune ca familia numerabila de evenimente X  I este alcatuita dun evenimente independente, daca oricare ar fi submultimea finita JI avem P(

 P( X  )

X ) =  J

 J

Teorema 2.6.2. Daca {Xi}iN este un sir de evenimente independente atunci, 



X i ) =  P( X i )

P( i 1

i 1

Demonstatie Acest rezultat este o consecinta imediata a corolarului 2.3.1. Pentru aceasta n

sa punem

Yn =

Xi . i 1

Conform definitiei 2.5.4. avem n

P(Yn) =

 P( X

i

).

i 1

Pe de alta parte , sirul  Yi  i N fiind monoton descrescator, avem 

lim P (Yn )  P (

n 

Xi i 1

si teorema este demonstrata. 2.7. Teorema Borel-Cantelli Corespondentul proprietatii ascunsa in formula (2.30) este dat, in cazul infinit, in teorema cunoscuta in literatura de specialitate sub numele de teorema Borel-Cantelli, pe care o formulam mai jos. Teorema 2.7.1. (Teorema Borel-Cantelli) Fie X i i N un sir de evenimente apartinand unui camp de probabilitate (, K(), P) complet aditiv. 

 P( X i ) este convergenta atunci, probabilitatea realizarii unei

(i) Daca seria

i 1

infinitati de evenimente X i este zero. 

(ii) Daca seria  P(X i ) nu este convergenta si daca evenimentele i 1

X i i N

sunt

independente atunci, probabilitatea realizarii unei infinitati de evenimente Xi este egala cu unitatea.

71

Demonstatie. Sa observam, mai intai, ca realizarea unei infinitati de evenimente X i , i=1,2,3, ... , echivaleaza cu realizarea evenimentului

   Xj  i 1  j  i 

A= lim sup X i  i 

,

astfel ca, pentru a demonstra teorema, este suficient sa aratam ca P(A)=0 in primul caz si ca P(A)=1 in al doilea caz . 

X j pentru orice iN, conform corolarului 2.3.3, avem

(i) Cum A  j i

   P(A)  P  X j    P ( X j ) .  j i  j i 



i 1

j i

Seria  P( X i ) fiind presupusa convergenta, lim  P ( X j  0. Ca urmare, prin trecere la limita, i  

P(A) = lim  P ( X j )  0

rezulta

i  j  i

si prima parte a teoremei este dovedita. (ii) In cazul al doilea avem succesiv

     s   s   s  P(A)= lim P X j   lim lim P X j   lim lim1  P C X j   lim lim1  P CX j  i   j  i  i  s   j  i  i  s   j  i  i  s   j i  Dar, evenimentele X i i N fiind presupuse independente, vor fi independente si evenimentele contrare astfel ca rezulta s

s

s

CX j   P ( CX j )   (1  P ( X j )) .

P j i

j i

j i

Insa, din analiza matematica se stie ca, pentru orice 0 x1 avem 1-x e-x si, deoarece, P(X ) satisface aceasta conditie, urmeaza ca 1-P(X )e P ( X j ) . Dar, atunci, vom avea j

j

s

s

 (1  P ( X

 j

)

e

P( X j ) j i

,

j i



si, cum, prin ipoteza seria  P( X i ) nu este convergenta, avem i 1 s



lim lim e

P( X j ) ji

i  s 

0

Asadar, s

lim lim  (1  P ( X j ))  0 i  s  j  i

de unde rezulta

 s  lim lim P CX j   0 . i  s   j  i  Dar, in acest caz, P(A)=1 si teorema este complet demonstrata. 72

Nota. Este important de retinut ca partea a doua a teoremei Borel-Cantelli are loc pentru evenimente independente, ea putand sa nu fie adevarata pentru evenimente arbitrare. De exemplu, daca Xi=Y pentru orice iN atunci, daca luam 0P(Y)1, rezulta 0P(A)1, caz in care partea a doua a teoremei nu mai este adevarata. 2.8. Aplicatii In paragraful de fata ne vom referi la unele aplicatii in teoria ereditatii, care furnizeaza ilustrari instructive pentru aplicarea modelelor probabiliste simple. Tinand seama de scopul urmarit, ne vom limita la acele aspecte susceptibile unei tratari din punct de vedere matematic. Caracterele care se mostenesc depind de purtatori speciali numiti gene. Se impune o succinta prezentare a unor aspecte legate de structura celulelor pentru a putea avea o privire clara asupra genelor. celulele somatice sle corpului omenesc au in structura lor 44 de cromozomi somatici (22 de perechi) si doi cromozomi sexuali: XX pentru femei si XY pentru barbati. Pe cromozomi se gasesc structuri liniare numite gene. Genele, care sunt raspunzatoare de transmiterea carcaterelor mostenite, se afla pe cromozomii somatici si pe cei doi cromozomi X. Se pare ca pe cromozomul Y se gasesc foarte putine gene somatice (daca nu cumva nu se gasesc de loc; s-ar putea sa se gaseasca o gena anormala care ar transmite caracterul de a vaea par in cantitate mare in urechi). Astfel, pe cromozomii somatici si pe cei doi comozomi XX, genele somatice apar perechi. In cel mai simplu caz, gena unei perechi particulare poate admite doua forme A si a. Atunci, se pot forma trei perechi diferite si, in raport cu aceasta pereche particulara, organismul apartine unuia dintre cele trei genotipuri AA, Aa, aa (nu exista distinctie, intre Aa si aA). Fiecare pereche de gene determina un factor transmisibil dar, majoritatea proprietatilor observabile ale organismelor depind de diversi factori. Pentru unele caracteristici (cum ar fi, spre exemplu, “culoarea ochilor” si aceea de a fi “stangaci”) influenta unei perechi particulare de gene este predominanta, in timp ce pentru altele, ca de exemplu inaltimea, efectul este cumulat de la un numar foarte mare de gene. Ne vom margini, aici, la studiul genotipurilor si mostenirii caracterelor numai pentru o pereche particulara de gene relativ la care avem trei genotipuri AA, Aa, aa. In mod frecvent exista N forme diferite A 1,A2,...,A N pentru cele doua gene si,  N  1 corespunzator   , genotipuri A 1A1, A 1A2, ..., A NAN. Bineinteles ca teoria se aplica, in acest  2 

caz, cu unele modificari. Calculul urmator se va aplica, de asemenea, intr-un caz special, anume cand forma A este predominanta si a este respinsa. Se intelege, deci, ca indivizii Aa au aceleasi proprietati observabile ca si AA, astfel ca numai tipul pur aa prezinta o influenta observabila a formei a. In natura apar toate nuantele de predominare partiala. Proprietati tipice numai partial respinse sunt, spre exemplu, “ochi albastri”, “stangacia” etc. Celulele reproductive, sau gametii, se formeza printr-un proces complex in urma caruia numarul de cromozomi se va reduce la jumatate. Pentru ovule vom avea 22 de cromozomi somatici si un cromozom sexual X, iar pentru spermatozoizi vom putea avea doua variante: 22 cromozomi somatici si un cromozom sexual X, sau 22 cromozomi somatici si un cromozom sexual Y. Organismele de genotipurile pure AA si aa (sau homozigoti) produc, deci, gameti 73

numai de un singur fel, iar organismele de tipul Aa (hibrizi sau heterozigoti) produc gameti A si a in numar egal. Organismele noi sunt derivate din doi gameti parinti de la care primesc genele. Prin urmare, fiecare pereche include o gena paterna si una materna, si orice gena poate fi observata la un stramos particular, in orice generatie, insa eventual mai putin accentuata. Genotipurilor urmasilor sunt dependente de un proces aleator. In orice imprejurare, fiecare gena parinteasca poate fi transmisa cu probabilitatea ½, si suntem in cazul cand mai multe probe succesive sunt independente. Cu alte cuvinte, ne putem imagina genotipurile a n urmasi ca rezultatul a n probe independente, fiecare dintre ele corespunzand cazului in care sunt aruncate doua monede. Spre exemplu, genotipurile descendentilor unei imperecheri AaAa sunt AA, Aa, aa cu probabilitatile respective ¼, ½, ¼. O unire de tipul AAaa poate avea numai Aaurmasi, etc. Privind populatia ca un tot, ne putem imagina unirea partilor ca rezultatul unui al doilea proces aleator. Ne vom referi aici numai la asa numita imperechere aleatoare definita prin conditia urmatoare: daca se aleg la intamplare r descendenti din prima generatie filiala atunci, parintii lor formeaza o selectie aleatoare de volum r, cu eventuale repetari, a populatiei tuturor perechilor posibile de parinti. Cu alte cuvinte, fiecare descendent este privit ca fiind produsul unei selectii aleatoare a parintilor, toate selectiile fiind independente in totalitate. Imperecherea aleatoare este un model idealizat al situatiilor care se intalnesc in multe populatii naturale si in campul experimental. Insa este de asteptat ca selectivitatea preferentiala (cum ar fi faptul ca blondul prefera tot blond) este de asteptat sa violeze conditia imperecherii aleatoare. Si bineinteles ca mai exista asemenea situatii, ele putand fi analizate matematic. Tinand seama de scopul pe care ni l-am propus vom ramane, insa, in cadrul aspectului aleator. Deci, genotipul unui urmas este rezultatul a patru alegeri aleatoare independente. Genotipurile celor doi parinti pot fi selectionate in 33 moduri, iar genele lor in 22 moduri. Insa, putem sa combinam doua selectii si sa descriem procesul drept unul dintr-o selectie dubla astfel: genele paterne si materne sunt selectionate fiecare independent si la intamplare din populatia tuturor genelor purtate de barbati si femei din populatia sursa. Sa presupunem ca cele trei genotipuri AA, Aa, aa apar printre barbati si femei in aceeasi proportie u:2v:w. Vom presupune ca u2vw1 si vom spune ca u, 2v, w sunt frecventele genotip. Sa punem (2.46) puv, qvw. In acest fel, numarul genelor de formele A si a sunt ca p:q si, deoarece pq1, vom numi p si q frecventele gena de forma A si respectiv a. In fiecare dintre cele doua selectii o gena de forma A este selectata cu probabilitatea p si astfel, datorita presupunerii independentei, probabilitatea ca un urmas sa fie AA este p2. Genotipul Aa poate sa apara in doua moduri si, prin urmare, probabilitatea sa este 2pq. Astfel, sub conditia imperecherii aleatoare, un urmas va apartine genotipurilor AA, Aa sau aa cu probabilitatile (2.47) u 1p2, 2v 12pq si respectiv w 1q2. Exemplul 2.8.1. (i) Toti parintii sunt Aa (heterozigoti); atunci uw0, 2v1 si pq1/2. 74

(ii) Parintii AA si aa sunt combinati in proportii egale. Atunci, uw1/2, v0 si, din nou, pq1/2. (iii) In sfarsit, uw1/4, 2v1/2 si iarasi pq1/2. Deci, in toate cele trei cazuri se obtine, pentru generatia filiala, u 11/4, 2v 11/2, w 11/4. Pentru o mai buna intelegere a implicatiilor relatiilor (2.47) sa fixam frecventele gena p si q (pq 1) si sa consideram toate sistemele de frecvente genotip u, 2v, w, pentru care uvp si vwq. Toate conduc la acesleasi probabilitati (2.47) pentru prima generatie filiala. Printre ele exista distributia particulara (2.48) up2 , 2v2pq, w q2. Daca frecventele u,v,w din generatia initiala se afla in relatia particulara (2.48) - ca in cazul (iii) de mai sus - atunci se gaseste, pentru probabilitatile genotipurilor din prima generatie, u1 u, v1v si w1w. Prin urmare, vom spune ca distributiile genotip de forma (2.48) sunt stationare. Fiecarui raport p:q ii corespunde o distributie stationara (sau un echilibru). Relatiile (2.47) dau probabilitatile genotipurilor pentru un individ selectat aleator din generatia a doua. Intr-o populatie numeroasa trebuie sa ne asteptam ca frecventele genotip reale sa se apropie de distributia teoretica (o formulare precisa se da cu ajutorul legii numerelor mari si a teoremei limita centrala care permit sa se estimeze efectul fluctuatiei sansei). Oricare ar fi distributia u:2v:w in generatia parinteasca, relatiile (2.47) definesc o distributie stationara; in ea genele A si a apar cu frecventele u 1v1uvp si v1w1vwq (conform (2.46)). Cu alte cuvinte, daca frecventele observate coincid cu probabilitatile calculate atunci, prima generatie filiala ar avea o distributie genotip stationara care s-ar perpetua fara schimbare in toate generatiile care o succed. Astfel, pentru populatii numeroase se poate spune ca oricare ar fi compozitia populatiei sursa realizarea imperecherii aleatoare intr-o generatie produce aproximativ o distributie genotip stationara cu frecvente gena neschimbate. De la a doua generatie, nu exista nici o tendinta catre o schimbare sistematica. In particular, urmeaza ca, pe baza conditiei de imperechere aleatoare, frecventele celor trei genotipuri trebuie sa fie in proportia p 2:2pq:q2. Aceasta poate fi folosita, acum, in sens invers pentru verificarea presupunerii asupra imperecherii aleatoare. [G. H. Hardy a aratat ca frecventele celor trei genotipuri in a n-a generatie sunt trei variabile ale caror valori presupuse sunt date de (2.47) si nu depind de n. Valorile lor reale vor varia de la generatie la generatie si formeaza un proces stochastic de tip Markov]. In formularea de mai sus, accentul trebuie pus pe cuvantul “aproximativ” (cum preciza Hardy). Chiar cu o distributie stationara trebuie sa ne asteptam la putine schimbari de la o generatie la alta, fapt care sugereaza urmatoarea imagine. Pornind de la o populatie sursa, imperecherea aleatoare tinde sa stabileasca distributia stationara (2.48) intr-o generatie. Pentru o distributie stationara, nu exista nici o tendinta spre schimbare sistematica de vreun fel. Insa, fluctuatiile sansei vor schimba frecventele gena p si q de la generatie la generatie, astfel incat compozitia genetica va fi usor influentata; nu exista posibilitatea de restabilire a frecventelor initiale. Din contra, modelul simplificat la care s-a recurs pana acum, ne conduce la concluzia ca, pentru o populatie limitata ca marime, un genotip Aa pana la urma piere, astfel ca populatia ar 75

apartine eventual unuia dintre tipurile pure AA sau aa. In natura aceasta situatie nu apare in mod necesar din cauza aparitiei de noi gene prin mutatii, selectie si alte multe efecte. Acestea, pot fi studiate prin mijloace matematice mai rafinate ( ca lanturi Markov, teoria difuziei). Este o eroare sa se creada ca legea numerelor mari actioneaza ca un dispozitiv inzestrat cu memorie care cauta sa se intoarca la starea initiala, multe concluzii gresite putand sa se traga dintr-o asemenea presupunere (procesele biologice considerate aici sunt tipice unei clase importante de procese Markov la care, insa, nu ne vom referi aici). Remarcam faptul ca legea lui Hardy nu se aplica distributiei a doua perechi de gene (spre exemplu “culoarea ochilor” si “a fi stangaci”) cu noua genotipuri AABB, AABb, ..., aabb. Se manifesta inca o tendinta spre o distributie stationara, dar echilibrul nu este atins la prima generatie. Sa ne referim, acum, la cromozomii sexualii X si Y. Astfel, sexul este determinat de doi cromozomi: femeile sunt XX, iar barbatii XY. Mama transmit, in mod necesar, un cromozom X (ovulele sunt toate de forma 22+X) si sexul urmasului depinde de cromozomul transmis de tata. Spermatozoizii se formeaza in numar egal 22+X sau 22+Y. Daca urmasul este baiat sau fata, aceasta se explica prin variatia sanselor in perioada existentei prenatale. Se stie ca genele somatice apar in perechi atat pe cromozomii somatici cat si pe cromozomii X, insa la barbat, care are un singur cromozom X, genele somatice de pe acest cromozom apar singure. S-a stabilit ca pe cromozomii X sunt situate gene care determina daltonismul si gene care determina hemofilia. Cu privire la fiecare dintre ele, femeile pot fi inca clasificate in trei genotipui AA, Aa, aa dar, avand numai o gena, barbatii au numai cele doua genotipuri A si a. Notam ca un “fiu” are totdeauna cromozomul Y al tatalui asa incat caracterul de sex nu poate fi mostenit de la tata la fiu. Insa, el poate sa treaca de la tata la “fiica” si de la ea la nepot. In continuare, sa generalizam analiza facuta in prima parte a acestui paragraf. Sa presupunem, din nou, imperecherea aleatoare si fie u, 2v, w respectiv, frecventele genotipurilor AA, Aa, aa in populatia feminina. Sa presupunem, ca si mai inainte, puw, qvw. Frecventele celor doua genotipuri masculine A si a sa le notam prin p’ si q’ (1p’q’). Atunci, p si p’ sunt frecventele genei de forma A in populatia feminina si respectiv masculina. Probabilitatea ca un descendent feminin sa fie din genotipul AA, Aa, aa va fi notata prin u1, 2v1, w1; probabilitatile analoage pentru tipurile masculine A si a sunt p1/ si q1/ . Deci, un urmas masculin primeste cromozomul X de la parintele de sex feminin si rezulta (2.49) p1/  p si q1/  q . Pentru cele trei genotipuri feminine se gaseste ca si in cazul genelor (2.50) u 1pp’, 2v 1pq’qp’, w 1qq’. Prin urmare (2.51) p 1 u1v1 (1/2)(p p’), q 1 v1w1 (1/2)(q q’). Acestea pot fi interpretate astfel. Printre descendentii masculini genele A si a apar aproximativ cu frecventele p si q din populatia materna; frecventele gena printre descendentii de sex feminin sunt aproximativ p1 si q1, sau semisuma dintre acelea ale populatiilor paterna si

76

materna. Se simte o tendinta spre egalizarea frecventelor gena. De fapt, din (2.49) si (2.51) se obtine 1 1 ( p  p' ) , q1'  q1  ( q  q' ) . 2 2 Aceasta inseamna ca imperecherea aleatoare determina intr-o generatie reducerea aproximativ cu

(2.52) p1'  p1 

jumatate a diferentelor intre frecventele gena dintre femei si barbati. Insa ea nu elimina diferentele, ci subzista doar o tendinta spre o reducere urmatoare. In contrast cu legea lui Hardy, aici nu se intalneste o situatie stationara dupa o generatie. Se pot urmari sistematic schimbarile de la generatie la generatie omitand fluctuatiile sansei si identificand probabilitatile teoretice (2.50) si (2.51) cu frecventele corespunzatoare reale in prima generatie filiala. Pentru a doua generatie se va obtine, prin acelasi procedeu,

1 3 1 ( p1  p1' )  p  p' 2 4 4 (2.53) 1 3 1 q 2  ( q1  q1' )  q  q' 2 4 4 p2 

si, bineinteles,

p '2  p1 , q '2  q1 . Un numar mai mare de probe ne va conduce la expresia

generala a probabilitatilor pn si qn pentru cazul femeilor descendente din a n-a generatie. Sa punem (2.54)  = (1/3)(2p+p’) ,  = (1/3)(2q+q’) (retinem ca ). Atunci p  p 'n1 p  p' p n  n1    ( 1) n 2 3  2n q n1  q 'n1 q  q' (2.55) q n     ( 1) n 2 3  2n [ i p 'n  p n1 , q 'n  q n1

Deci

(2.56) p n   , p 'n   , q n   , q 'n   . Frecventele genotip in populatia feminina, ca cele date prin (2.50), sunt

u n  p n1p 'n1 , 2v n  p n1q 'n1  q n1p 'n1 , w n  q n1q 'n1 . Prin urmare,

(2.57) u n  2 , 2v n  2, w n   2 .

Aceste relatii arata ca exista o tendinta sistematica puternica, de la generatie la generatie, catre o situatie in care genotipurile A si a apar printre barbati cu frecventele  si  , genotipurile feminine AA, Aa, aa avand probabilitatile 2, 2, 2, respectiv. Convergenta este foarte rapida, asa cum reiese si din (2.54). Practic, echilibrul va fi atins la a treia sau a patra generatie. Cu siguranta, putine fluctuatii se vor suprapune peste schimbarile descrise, ultima insa reprezinta tendinta predominanta. Concluzia principala este ca, in iopteza imperecherii aleatoare, ne putem astepta ca genotipurile de sex A si a la barbati si AA, Aa, aa la femei sa apara aproximativ cu frecventele ,

, 2, 2, 2 respectiv, unde . 77

Exemplul 2.8.2. Multe gene sunt respinse, ceea ce cauzeaza defecte. Fie a o asemenea gena. Atunci toate a-masculine si aa- feminine fac sa apara defecte. Femeile de tipul Aa pot transmite defectul urmasului lor fara sa fie afectate ele insele. Deci este de asteptat ca un defect respins care apare printre barbati cu frecventa  sa apara printre femei cu frecventa 2. Deci, daca, spre exemplu, un barbat dintr-o suta este daltonist, o femeie ar fi afectata din 10.000. Un exemplu tipic de influenta a selectiei il constituie cazul in care indivizii aa nu pot reproduce. Aceasta se intampla cand gena a este respinsa in asa fel incat indivizii aa se nasc dar nu pot supravietui. Sa presupunem ca are loc imperecherea aleatoare intre indivizii AA si Aa, dar nu de tipul aa. Fie u, 2v, w frecventele cu care apar genotipurile AA, Aa, aa in populatia totala. Frecventele corespunzatoare pentru parinti sunt atunci (2.58) u *u/(1-w) , 2v * 2v(1-w), w * 0. Se poate proceda ca in prima parte a acestui paragraf, dar folosind relatiile (2.58) in loc de u, 2v, w. Prin urmare, (2.46) se inlocuieste cu u v v . , q 1 w 1 w Probabilitatile celor trei genotipuri in prima generatie filiala sunt, din nou, date de (2.47)

(2.59) p 

sau u1p2, 2v12pq, w 1q2. Ca si mai inainte, pentru a studia schimbarile sistematice de la generatie la generatie, avem de inlocuit u, v, w, prin u 1, v1, w1 obtinand, astfel, probabilitatile u 2, v2, w2 pentru a doua generatie descendenta, etc. In general, din (2.59) se obtine

u  vn vn , qn  (2.60) p n  n 1 wn 1 wn Si

(2.61) u n1  p 2n , 2v n1  2p n q n , w n1  q 2n . Compararea relatiilor (2.60) si (2.61) arata ca u  v n1 pn 1 p n1  n1   2 1  w n1 1  qn 1  qn

si, analog (2.62) q n1 

v n1 qn  . 1  w n1 1  q n

Din (2.62) se poate calcula, in mod explicit, qn. Avem 1 1  1 q n 1 qn de unde rezulta succesiv 1 1 1 1 1 ,  2 , q1 q q2 q

,

1 1 n qn q

2

sau q n 

 q  q , w n1    . 1  nq  1  nq 

78

Se observa ca, incetul cu incetul, genotipul neproductiv (sau nedorit) se elimina dar procesul este extrem de lent. Pentru q0 sunt necesare zece generatii pentru a reduce frecventa genelor a la jumatate; frecventa tipului aa se reduce, in acest fel, aproximativ de la 1 la ¼ la suta. Alte exemple 2.8.3. Se da o urna cu n bile numerotate de la 1 la n. Din urna se extrag succesiv cele n bile. Numerotand extractiile se cere probabilitatea ca in peocesul extractiei sa se obtina cel putin o concordanta, anume, ca cel putin o data, la o bila, rangul extractiei sa coincida cu numarul marcat pe bila. Solutie. Sa notam cu Ai evenimentul ca la extaractia de indice i sa obtinem bila marcata cu numarul i. Evenimentul ca in procesul extractiei sa avem cel putin o concordanta este A1A2An.. Ca urmare, este indicat sa utilizam formula (2.40) si este, deci, necesar sa determinam probabilitatile evenimentelor A i, i1,...,n A i1

A i 2 ,..., A i1

A i 2 ... A i k ,..., A 1

A 2 ... A k .

Calculul probabilitatii evenimentului Ai. Cele n bile pot fi extrase in n moduri. Cazurile favorabile evenimentului A i sunt in numar de (n-1)! deoarece bilele 1,2,...,i-1,i1,...,n pot fi extrase in (n-1) moduri. Deci P( A i ) 

( n  1)! 1  . n! n

Calculul probabilitatii evenimentului A i1

A i 2 , 1  i 1  i 2  n poate fi efectuat ovservand

ca numarul cazurilor favorabile acestui eveniment este (n-2)! pentruca bilele 1,2,...,i 1-1 ,i1 +1, ..., i2 -1,i2 1, ..., n pot fi extrase in (n -2)! moduri. Ca urmare

P( A i1

A i2 ) 

( n  2)! 1 .  n! ( n  1)n

Procedand la fel, avem

P( A i1

A i 2 ... A i k ) 

( n  k )! 1  n! ( n  k  1)... n

Observand ca P(Ai)n(1/n)1

 P( A i1 i2

i1

 Ai2 )  Cn2

1 1  ( n  1)  n 2 !

.....................................................................

 i1 ... i k

P( A i1

A i 2 ... A i k )  Ckn

1 1  , etc. ( n  k  1)... n k !

rezulta P( A 1

A 2 ... A n )  1 

1 1 1 .   ... ( 1) n1 2! 3! n!

2.8.4. Trei muncitori depasesc norma de lucru cu probabilitatile p10,65, p 20,70, p30,80. Lucrand in echipa ne intrebam: 79

a) b) c) d)

Care este probabilitatea ca cel putin unul din muncitori sa depaseasca norma ? Care este probabilitatea ca cel putin doi dintre ei sa depaseasca norm a ? Care este probabilitatea ca numai primul sa depaseasca norma ? Care este probabilitatea ca echipa sa nu depaseasca norma ?

Solutie. Fie Ai, i1,2,3, evenimentele ca fiecare muncitor sa depaseasca norma, deci P(A i) pi. Pentru solutionarea problemei adoptam ipoteza ca evenimentele Ai sunt independente, deci P(A1A2)



p1p2



0,455,

P(A 1A3)

p1p30,52,

P(A 2A3)

p2p3=0,56

si

P(A1A2A3)p1p2p3=0,364. Pentru a raspunde la prima intrebare vom calcula probabilitatea evenimentului A1A2A3. Utilizand formula (2.22) obtinem P(A 1A2A3)p1p2p3-(p1p2p1p3p2p3)p1p2p30,979. Pentru a raspunde la cea de a doua intrebare, utilizand formula (2.31) unde luam r2, n3, obtinem P2p1p2p1p3p2p3- C12 p1p2p30,804. Utilizand formula (2.28), unde luam n3, obtinem raspunsul la intrebarea a treia, adica Pp1-(p1p2p1p3) p1p2p30,039. In ce priveste raspunsul la ultima intrebare, calculam probabilitatea evenimentului A1

A2

A 3 si avem

P( A 1

A2

A 3 )1-P( A 1

A2

A 3 ) 0,029.

2.8.5. Fie A,BP() sau A,BK(). Sa se arate ca urmatoarele propozitii sunt echivalente a) Evenimentele A, B sunt independente; b) Evenimentele A, B sunt independente; c) Evenimentele A , B sunt independente; d) Evenimentele A , B sunt independente. Sa se generalizeze problema la cazul a n evenimente si la cazul a unei infinitati numerabile de evenimente din K(). Solutie.

ab.

Din

A(A B )(AB)

rezulta

P(A)P(A B )P(AB)

P(A B )P(A)P(B). Ca urmare, P(A  B )P(A)(1-P(B)) P(A)P( B ). bc. Se inlocuiesc A cu A si B cu B in formula P(A B )P(A) P(B). cd. Rezulta direct din formula P( A B)P( A ) P(B). da. Rezulta direct din formula P( A  B )P( A ) P( B ) inlocuind A cu A si B cu B . Trecerea la cazul general XI este imediat, unde I este o multime cel mult numerabila. Se arata ca, daca X i1 ,..., X i p este un numar finit arbitrar de evenimente din familia XI , independenta familiei XI implica independenta femiliei YI unde XY sau Y X  , alegerea fiind facuta in toate modurile posibile. De exemplu 80

P( X i1 I ... I X i p )  P( X i2 I ... I X i p )  P( X i1 I X i2 I ... I X i p )   P( X i2 )...P( X i p )  P( X i1 ) P( X i2 )...P( X i p )   (1  P( X i1 )) P( X i2 )...P( X i p )  P( X i1 ) P( X i2 )...P( X i p ) In acest calcul s-a utilizat formula P( A B)P(B)-P(AB). 2.8.6. Se considera patru urne cu infatisari identice. Se stie ca urna U 1 contine 7 bile albe si 2 negre, U 2 contine 8 bile albe si 4 negre, U 3 contine 10 bile albe si 12 negre iar U 4 contine 8 bile albe si 12 negre. Se alege la intamplare o urna si se extrage o bila. Se cere probabilitatea ca bila extrasa sa fie alba. Solutie Fie A evenimentul ca bila extrasa sa fie alba si Ei, i1,2,3,4, evenimentul ca bila extrasa sa fie din urna U i. Din datele problemei avem P(E1)P(E2) P(E3) P(E4)=

1/4. P(A)

se obtine aplicand formula probabilitatii totale. P(A) = P(E 1)PE1(A)+P(E 2)PE2(A)+P(E 3)PE#(A)+P(E 4)PE4(A) unde PE1(A) inseamna probabilitatea ca bila alba sa fie scoasa din urna U 1, etc.. In cazul de fata PE1(A)=7/9, P E2(A)=8/12, P E3(A)=10/22, P E4(A)=8/20. 2.8.7. Trei centre de productie fabrica piese de acelasi tip cu rebuturi de 3%, 2%, 3%. Piesele se depoziteaza in acelasi loc. Se ia o piesa la intamplare si se constata ca aceasta nu corespunde stasului. Se intreaba care este probabilitatea ca piesa in cauza sa fi fost fabricata de cel de-al doilea centru stiind ca o piesa luata la intamplare, din stoc, provine de la primul centru cu probabilitatea de 0,2, de la al doilea centru cu probabilitatea 0,7, iar de la cel de-al treilea centru cu probabilitatea 0,1. Solutie. Fie A evenimentul ca piesa sa fie un rebut si E1, E2, E3 evenimentul ca piesa sa fie fabricata la centrul C 1, C2, C3 respectiv. Evenimentele E 1, E2, E3 sunt incompatibile si formeza un sistem complet. Se aplica formula lui Bayes (2.36), pentru a obtine P A(E2), unde P(E1) 0,2, P(E 2) 0,7, P(E 3)0,1, iar PE1 ( A )  3 / 100, PE2 ( A )  2 / 100, PE3 ( A )  3 / 100 .

81

CAPITOLUL 3 VARIABILE ALEATOARE. CARACTERISTICI NUMERICE. FUNCTIA DE REPARTITIE. OBIECTIVE Variabilele aleatoare, functia de repartitie ale variabilelor aleatoare reprezinta un puternic instrument de reprezentare a evenimentelor. Gradul de abstractizare este mare. Media si dispersia unei variabile aleatoare sunt elemente centrale ce caracterizeaza o variabila aleatoare.

-

La sfarsitul acestui capitol, studentii trebuie sa-si insuseasca: Variabile aleatoare: discrete, continue. Operatii cu variabile aleatoare Valori medii, dispersii, corelatie Functia de repartitie

3.1. Definitii. Exemple. In capitolul 2 s-au considerat campuri (finite , infinite) de evenimente asociate unor experiente a caror realizare are caracter aleator. Pe aceste campuri s-a introdus notiunea de probabilitate, notiune care permite sa masoare numeric sansa de realizare a fenomentului dorit. Fie (, P()) un camp finit de evenimente si P o probabilitate pe acest camp. Sa ne amintim ca probabilitatea P este o aplicatie P: P() 0,1 care satisface cerintele definitiei 2.2.1 Este vorba, deci, de o functie reala definita pe multimea partilor multimii , deci a unei functii de multime care asociaza unui xP(), numarul real P(X)0,1. Interesant de semnalat este faptul ca, dat fiind numarul real 0,1, multimea

P1 ( )   x   P( x )   are un numar finit de elemente sau, eventual, este vida si avem P1 ( )   .

Sa consideram acum functii reale definite pe multimea  a evenimentelor elementare, f :   R. Desigur,

daca



este

un

numar

real

oarecare

(R),

multimea

f 1 ( )   x   f ( x )   este un element al multimii care, eventual, poate fi multimea vida si putem vorbi de probabilitatea evenimentului f 1 ( )  P( ) . Definitia 3.1.1. O functie reala definita pe o multime de evenimente elementare se numeste variabila aleatoare. In capitolele precedente variabilele aleatoare au constituit o preocupare permanenta cu toate ca n-a fost folosit acest termen. Variabile aleatoare sunt numarul zilelor de nastere multiple 82

intr-o societate cu n indivizi, al seriilor de realizari in n probe Bernoulli etc. In fiecare caz, exista o regula unica ce asociaza un numar x cu orice eveniment elementar. Teoria clasica a probabilitatilor s-a ocupat destul de mult cu studiul posibilitatilor de castig ale unui jucator la un anume joc, care este din nou o variabila aleatoare. De altfel, fiecare variabila aleatoare poate fi interpretata ca un castig (sau reusita) al unui jucator real sau imaginar intr -un joc convenabil ales. Tot variabile aleatoare sunt, spre exemplu, pozitia unei particule care difuzeaza energia, temperatura etc., din sistemele fizice, dar ele sunt definite in campuri de evenimente care nu mai sunt discrete. In cazul unui camp de evenimente discret 1) se poate reprezenta orice variabila aleatoare X printr-un tablou in care se enumera intr-o anume ordine toate punctele campului si se asociaza, apoi, cu fiecare, valoarea corespunzatoare a lui X. [Termenul de variabila aleatoare este putin confuz, termenul de functie aleatoare parand a fi adecvat intrucat variabila independenta este un punct in campul de evenimente, adica rezultat al unui experiment]. Fie X o variabila aleatoare si x 1,x2,... valorile sale posibile (evitam termenul de domeniu al lui X pentru multimea punctelor x 1,x2,... deoarece in literatura statistica acest termen este folosit pentru diferenta dintre maximum si minimum lui X). In multe din situatiile urmatoare x j vor fi intregi. Reuniunea tuturor evenimentelor elementare pe care X admite valoarea fixata x j formeaza evenimentul care consta in faptul ca Xxj; probabilitatea sa va fi notata prin P(Xxj). Definitia 3.1.2. Functia (3.1)

P (Xxj) f(x j), j1,2,...

se numeste distributia (probabilista) a variabilei aleatoare X. Evident, (3.2)

f(x j)  0,  f ( x j )  1 . j 1

Observatie. Pentru o variabila discreta X distributia probabilista este functia f(x j) definita pe reuniunea valorilor x j admise de X. Atragem atentia asupra distinctiei care trebuie facuta intre aceasta notiune si notiunea de functie de repartitie care este rezervata functiilor nedescrescatoare care tind la 0 cand x - si la 1 cand x . Functia de repartitie F(x) a variabilei aleatoare X se defineste prin relatia F(x)P(X x)  f ( x j ) xj x

suma extinzandu-se peste toti xj care nu-l depasesc pe x. Astfel, functia de repartitie a unei variabile aleatoare poate fi calculata din distributia sa probabilista si reciproc. Cu terminologia din definitia 3.1.2. putem spune ca, in cazul cand se considera probe Bernoulli, numarul de realizari S n este o variabila aleatoare cu distributia probabilista P(k;n.p), in timp ce numarul probelor pana la prima realizare inclusiv este o variabila aleatoare cu distribuaia (q k-1p). Sa consideram, acum, doua variabile aleatoare X si Y definite pe acelasi camp de evenimente si sa notam valorile pe care ele le admit respectiv prin x1,x2,..., si y1,y2,...; fie f(x j) 1)

Intelegem prin camp discret de evenimente un camp finit sau numerabil de evenimente. 83

si g(yk) distributiile probabiliste corespunzatoare. Reuniunea punctelor in care sunt satisfacute ambele conditii Xxj si Yyk formeaza un eveniment a carui probabilitate va fi notata prin P(Xxj, Yyk). Functia (3.3)

P(Xxj ,Y yk)p(xj ,yk), (j,k  1,2,3,....)

poarta numele de distributia probabilista comuna a variabilelor X si Y. Ea este cel mai bine exprimata in forma unui tabel cu doua intrari asa cum sunt exemplificate din tabelele 3.1 si 3.2 de mai jos. In mod evident avem (3.4)

p( x j , y k )  0,  p(( x j , y k )  1 j ,k

De altfel, pentru fieacre j fixat (3.5)

p(x j,y1) p(x j,y2)p(x j,y3)P(Xxj)f(x j)

si, pentru fiecare k fixat, (3.6)

p(x 1,yk) p(x 2,yk)p(x 3,yk)P(Yyk)g(yk).

Cu alte cuvinte, adunand probabilitatile din linii si coloane separate se obtin distributiile probabiliste ale lui X si Y. Ele pot fi exprimate asa cum se arata in tabelele 3.1 si 3.2 si convenim sa le numim distributii marginale. Adjectivul marginal se refera la forma exterioara a tabelului cu doua intrari, dar el ne permite si o claritate de ordin stilistic atunci cand distributia comuna a doua variabile si distributiile individuale (marginale) ale lor apar in acelasi context. Notiunea de distributie comuna se extinde la sisteme cu mai mult decat doua variabile aleatoare. Exemplul 3.1.1. (Distributia aleatoare a 3 bile in 3 urne). Sa consideram campul de evenimente compus din 27 de puncte definit formal in tabelul 2.1 si sa asociem fiecarui punct probabilitatea 1/27. Sa notam prin N numarul urnelor ocupate si pentru fiecare i 1,2,3 fie Xi numarul de bile din celula numarului i. Avem astfel o prezenare descriptiva a problemei. Formal, insa, N este functia care admite valoarea 1 pentru punctele cu numerele de ordine 1-3; valoarea 2 pentru punctele cu numerele 4-21; iar valoarea 3 pentru punctele cu numerele 22-27. Prin urmare , distributia probabilista a lui N este definita prin P(N1) 1/9, P(N3) 2/3, P(N3) 2/9. Distributiile comune ale lui (N,X 1) si ale lui (X 1, X2) sunt date in tabelele 3.1 si 3.2.

N Distributia lui X 1

0

1

X1 2

1

2q

0

0

q

3q1/9

2

6q

6q

6q

0

18q2/3

3

0

6q

0

0

6q2/9

8q

12q

6q

q

3

Distributia lui N

Tabelul 3.1 Distributia comuna a lui N si X1 84

Se obvserva din tabelul 3.1 cateva dintre valorile caracteristice pe care le vom defini in acest capitol M(N) 19/9, M(X 1) 1, M(N,X 1) 19/9, M(N 2) 129/27, M(X 21)45/27, 2(N) 26/81, 2(X1)=2/3, C(N,X 1) 0 unde N reprezinta numarul de urne ocupate, X1 numarul de bile din prima urna cand 3 bile sunt distribuite aleator in 3 urne. Pentru prescurtare q1/27. X1 0 1 2 3

X2 Distributia lui X 1

0

1

2

3

Distributia lui X 2

q 3q 3q q

3q 6q 3q 0

3q 3q 0 0

q 0 0 0

8q 12q 6q q

8q

12q 6q q Tabelul 3.2 Distributia comuna a lui X 1 si X 2 Si din acest tabel rezulta urmatoarele valori caracteristice M(X 1) 1, M(X 2) 1, M(X 1 X2) 2/3, M(X 21)45/27, M(X 22)45/27, 2(X1) 2/3, 2(X2) 2/3, C(X 1,X2) -1/3. Aici Xi (i1,2) inseamna numarul de bile din celula i cand se distribuie aleator 3 bile ;n 3 urne. Pentru prescurtare q1/27. Exemplul 3.1.2. (Aruncarea cu zarul). In cazul aruncarii unui zar ideal de n ori, sa notam cu X1, X2, X3 respectiv, numarul de aparitii ale fetei unu, doi si trei. Probabilitatea p(k 1,k2,k3) ca in urma celor n aruncari sa rezulte de k1 ori fata 1, de k 2 ori fata doi, de k 3 ori fata 3 si de n-k1-k2-k3 ori celelalte fete este data de repartitia multinomiala pentru p 1p2p31/6, p41/2, adica (3.7)

p( k 1 , k 2 , k 3 ) 

n! 3n k1  k 2  k 3 6 n . k 1 ! k 2 ! k 3 ! n  k 1  k 2  k 3  !

Aceasta este distributia comuna a lui X1,X2,X3. Pastrand k1, k2 fixati si insumand (3.7) pentru valorile posibile k 30,1,2,...,n-k1-k2, se obtine, folosind teorema binomului , (3.8)

p( k 1 , k 2 ) 

n! 4 n  k 1  k 2 6 n k 1 ! k 2 ! n  k 1  k 2  !

Aceasta este distributia comuna a lui (X1,X2) care acum apare ca distributie marginala pentru distributia tripletului X1,X2,X3. [Nu este greu de remarcat ca (3.8) ar fi putut fi obtinuta direct din repartitia multinomiala]. Sumand (3.8) inca odata pentru toti k 2  0,1,..., n-k1, rezulta distributia lui X1, adica repartitia binomiala cu p1/6. Exemplul 3.1.3. Sa consideram o populatie de n elemente impartita in trei clase de volum, respectiv, n1np1, n2np2 si n3np3 (unde p 1p2p31). Sa presupunem ca se alege, la intamplare, o selectie 85

de volum r , si sa notam prin X1 si X2 numarul reprezentantilor in selectie din prima si, respectiv, a doua clasa. Daca selectia este repetata, P(X 1k1, X 2k2) este data de repartitia multinomiala (3.9)

f (k 1 , k 2 ) 

r! p1k1 p k22 p r3 k1  k 2 k 1 ! k 2 ! r  k 1  k 2  !

(conform (3.30)). Variabila Xi are repartitia binomiala P(k;r,p i). Daca selectia este nerepetata, atunci P(X 1k1, X 2k2) este data de repartitia hipergeometrica dubla  n1   n 2      k1  k 2

 n  n1  n 2     r  k1  k 2   n    r

(unde k 1n1, k 2n2, r-k1-k2 n-n1-n2) iar X1 are repartitia hipergeomatrica simpla

 n1     k

 n  n1    rk  .  n    r

Exemplul 3.1.4. Sa consideram , din nou, exemplul precedent dar sa presupunem ca, selectia de volum r, in loc sa fie fixata apriori, depinde de rezultatul unui experiment aleator. Mai exact, sa presupunem ca volumul selectiei depinde de o repartitie Poisson. Probabilitatea ca volumul  

selectiei sa fie r este p( r ,  )  e

n

si, dandu-se selectia de volum r, probabilitatea

n!

(conditionata) ca X1k1 si X2k2 este f(k1,k2) din (3.9). Pentru repartitia probabilista comuna a lui (X1,X2) avem, atunci 

P( X 1  k 1 , X 2  k 2 )  e 

r

 r  k1  k 2



e

(3.10)

( p1 ) k1 ( p 2 ) k 2  ( p3 ) k 3   k1 ! k 2 ! k 30 k 3 ! ( p1 ) k1 ( p 2 ) k 2 k1 ! k 2 !

 e  (1 p3 )

Sau

f ( k1 , k 2 )  r!

P(X1k1,X2k2) p(k1;p1)p(k2;p2).

Sumand dupa k2 se gaseste ca X1 are repartitia Poisson p(k;p1). Repartitia comuna a lui (X1,X2) ia forma tablei inmultirii celor doua repartitii marginale p(k;p1) si p(k;p2). Exprimam acest fapt spunand ca X1 si X2 sunt independente. Cu notatia (3.3) probabilitatea evenimentului Yyk, conditionata de Xxj (cu f(x j)0) devine (3.11)

P (Y  y k X  x j ) 

p( x j , y k ) f (x j )

.

86

Este convenabila o forma prescurtata a relatiei (3.11) cum este P(YykX); aceasta defineste probabilitatea lui Y conditionata de X. Observand tabelele 3.1 si 3.2 se constata ca probabilitatea conditionata (3.11) este, in general, definita de g(y k). Acaesta arata ca implicatia poate avea loc de la valorile lui X spre cele ale lui Y si vice versa; cele doua variabile sunt dependente stochastic. Dependenta cea mai tare se realizeaza cand Y este functie de X, adica atunci cand valoarea lui X determina in mod unic pe Y. Spre exemplu, daca se arunca o moneda de n ori, iar X si Y reprezinta numarul de realizari ale valorii si respectiv pajurei, atunci Yn-X. Analog, cand YX2 se poate calcula Y cu ajutorul lui X. In termenii distributiei comune aceasta inseamna ca pe fiecare linie toate intrarile, cu exceptia uneia, sunt zero. Daca, pe de alta parte, p(x j,yk) f(x j)g(yk) pentru toate combinatiile dintre xj si yk, atunci evenimentele Xxj si Yyk sunt independente; distributia comuna ia forma unui table a inmultiri. In acest caz vorbin despre variabile aleatoare independente. Ele apar, in special, legate de probe independente; de exemplu, numerele castigatoare in doua aruncari ale unui zar sunt independente. Este bine de retinut ca distributia comuna a lui X si Y determina distributiile lui X si Y, dar distributia comuna a lui X si Y nu poate fi calculata din distributiile lor marginale. Daca doua variabile aleatoare X si Y au aceeasi distributie, ele pot sau nu pot sa fie independente. Ca ilustrare, cele doua variabile X1 si X2 din tabelul 3.2 au aceeasi distributie si sunt dependente. Evident, toate rationamentele facute raman valabile si in cazul mai multor variabile aleatoare. Sa restrangem totul in definitia urmatoare Definitia 3.1.3. O variabila aleatoare X este o functie reala definita pe o multime de evenimente elementare data. Distributia probabilista a lui X este functia definita in (3.1). Daca doua variabile aleatoare X si Y sunt definite pe aceeasi multime de evenimente elementare, distributia lor comuna este data de (3.3) si atribuie probabilitati tuturor combinatiilor (x j,yk) de valori admise de X si Y. Acest concept se extinde, in mod evident, la orice multime finita de variabile aleatoare X1, X2, ..., X n definite pe aceeasi multime de evenimente elementare. Aceste variabile aleatoare se spune ca sunt independente in totalitate daca, pentru orice combinatie a valorilor (x 1,x2,...,x n) admise de ele, are loc relatia (3.12) P(X 1x1,X2x2,...,X nxn) P(X1x1)P(X 2x2)...P(X nxn) . In capitolul 2 am definit campul de evenimente care corespunde la n probe independente. Comparand aceasta cu (3.12) se observa ca, daca Xk depinde numai de rezultatul celei de a k probe atunci, variabilele X1,...,Xn sunt independente in totalitate. Mai general, daca o variabila aleatoare U depinde numai de rezultatele primelor k probe, iar o alta variabila V depinde numai de rezultatele ultimelor n-k probe, atunci U si V sunt independente. Ne putem imagina o variabila aleatoare ca un marcaj, sau un indicator al punctelor campului de evenimente. Acest procedeu este obisnuit in aruncarea cu zarul unde fetele sunt numerotate si se vorbeste despre numere ca fiind rezultatele posibile ale probelor individuale. Sar putea spune, deci, ca o variabila aleatoare X este o aplicatie a multimii initiale de evenimente elementare pe o noua multime ale carei puncte sunt x1, x2,... . Prin urmare, ori de cate ori f(xj) satisface conditiile (3.2), este natural sa se vorbeasca despre o variabila aleatoare X, care admite valorile x 1,x2,... cu probabilitatile f(x 1),f(x 2),..., fara 87

alte referiri la vechiul camp de evenimente; campul nou contine punctele x 1,x2,... . A preciza o distributie probabilista inseamna a preciza un camp de evenimente ale carui puncte sunt numere reale. A vorbi despre doua variabile aleatoare X si Y, cu distributiile f(x j) si g(yk), este alelasi lucru cu a face referire la un camp de evenimente ale carui puncte sunt perechi de numere (x j,yk) cu probabilitatile date de relatia P(x j,yk) f(x j)g(yk). In mod similar, pentru campul de evenimente care corespunde unei multimii de n variabile aleatoare (X1, X2, ..., Xn) se poate lua o reuniune de puncte (x1,x2,...,x n) din spatiul n-dimensional avand probabilitatile asociate prin distributia lor comuna. Variabilele aleatoare sunt independente in totalitate daca distributia lor comuna este data de (3.12). Exemplul 3.1.5. (Probe Bernoulli cu probabilitati variabile). Sa consideram n probe independente, fiecare dintre ele avand numai doua rezultate posibile S (succes, realizare) ai I (nerealizare, insucces). Probabilitatea unei realizari S la proba de rang k este pk, iar a unei nerealizari I este qk1-pk . Daca pkp, aceasta schema se reduce la probe de tip Bernoulli. Cel mai simplu mod de a o descrie este de a atribui valorile 1 si 0 lui S si respectiv I . Modelul este atunci descris in intregime daca spunem ca avem n variabile aleatoare independente in totalitate Xk cu distributiile P(Xk1) pk, P(Yk0) qk. Aceasta schema este cunoscuta sub numele de probe de tip Poisson . Este clar ca aceeasi distributie poate sa apara in legatura cu diferite campuri de evenimente. Daca, spre exemplu, se spune ca variabila aleatoare X admite valorile 0 si 1 cu probabilitatile ½, inseamna ca se face referire tacita la un camp de evenimente care consta din doua puncte 0 si 1. Insa, variabila aleatoare X poate fi definita specificand ca este egala cu 0 sau 1 dupa cum a zecea aruncare a unei monede ( ca sa ne referim la experimentul constand din aruncarea monedei), face sa se realizeze valoarea (B) sau pajura (M); in acest caz X este definita intr-un camp de evenimente constand din secvente (BBM...) si avand 2 10 puncte. In principiu, exista posibilitatea de a restrange teoria probabilitatilor la campuri de evenimente definite in termeni ai distributiilor probabiliste de variabile aleatoare. Reducerea teoriei probabilitatilor la astfel de studii ofera posibilitatea folosirii analizei matematice si simplificarea teoriei din multe puncte de vedere. Exemplul 3.1.6. Fie X o variabila aleatoare cu valorile posibile x 1,x2,... si probabilitatile corespunzatoare f(x 1),f(x 2),... Oricand ne putem imagina un experiment care sa conduca la X. Spre exemplu, se imparte discul unei rulete in arcele l1,l 2,... ale caror lungimi se raporta ca f(x 1):f(x 2): ... Sa ne imaginam un jucator care primeste suma x j daca ruleta se opreste in dreptul unui punct al arcului lj. Atunci X reprezinta castigul jucatorului. In n probe castigurile se presupun a fi n variabile independente cu distributia comuna f(x j). Pentru a obtine doua variabile cu o distributie comuna data, p(x j,yk), n-avem decat sa consideram ca la fiecare combinatie (x j,yk) corespunde un arc si sa ne gandim la doi jucatori care primesc sumele x j si respectiv yk. Daca X, Y, Z, ... sunt variabile aleatoare definite pe acelasi camp de evenimente, atunci orice functie F(X,Y,Z,...) este, de asemenea, o variabila aleatoare. Distributia sa poate fi obtinuta 88

din distributia comuna a lui X, Y, Z,... selectionand termenii care corespund combinatiilor lui (X, Y, Z,... care dau aceeasi valoare a lui F(X,Y,Z,...). Exemplul 3.1.7. In exemplul ilustrat prin tabelul 3.2, de mai inainte, suma X1X2 este o variabila aleatoare care admite valorile 0,1,2,3 cu probabilitatile q, 6q, 12q, 8q (unde q1/27). Produsul X1X2 admite valorile 0,1,2 cu probabilitatile 15q, 6q, 6q. 3.2. Valori medii Pentru a simplifica in mod rezonabil lucrurile adesea este necesar sa se descrie distributiile probabiliste, mai pe scurt, cu ajutorul catorva valori tipice. Mediana xm a distributiei (3.1) este aceea valoare admisa de X pentru care P(Xxm) ½ si P(Xxm) ½ . Cu alte cuvinte, xm este ales astfel incat probabilitatile lui X care depasesc pe xm sau sunt mai mici decat xm, sunt oricat de apropiate de ½. Insa, dintre valorile tipice media este, de departe, cea mai importanta. Ea permite cea mai buna tratare din punct de vedere analitic si este preferata de statisticieni datorita proprietatilor sale. Daca intr-o anumita populatie nk familii au exact k copii, numarul total al familiilor este nn0n1n2... si numarul total al copiilor mn12n23n3... Numarul mediu al copiilor per familie este m/n. Analogia intre probabilitati si frecvente sugereaza urmatoarea definitie Defintia 3.2.1. Fie X o variabila aleatoare care admite valorile x 1,x2,... cu probabilitatile corespunzatoare f(x 1), f(x 2)... Valoarea medie (sau media) a lui X este definita prin M(X)   x k f ( x k ) cu conditia ca seria sa fie absolut convergenta. In acest caz se spune ca X are o medie finita. Daca  x k f ( x k ) este divergenta, atunci se spune ca X nu are o medie finita. Se intelege de la sine ca cele mai multe variabile aleatoare obisnuite au mediile finite Astfel conceptul n-ar fi practic. Totusi, in legatura cu unele probleme importante de recurenta din fizica apar variabile aleatoare care nu au medii finite. Vom obisnui, de asemenea, sa vorbim despre media unei repartitii in loc sa ne referim la o variabila aleatoare corespunzatoare. De asemenea, notatia M(X) este , in general, acceptata in matematica si statistica. In fizica, ea este mai suplinita prin notatiile X , x . Sa ne propunem, acum, sa calculam mediile functiilor de tipul X 2. O astfel de functie este o noua variabila aleatoare care admite valorile x 2k ; in general, probabilitatea lui X 2=xk2 nu este f(x k) ci f(x k)+f(-xk) si M(X 2) este definita ca o suma de x 2k  f ( x k )  f (  x k ) pentru orice k astfel incat xk0. In mod evident (3.14)

M(X 2)   x 2k f ( x k )

admitand ca seria este convergenta. Acelasi procedeu de selectionare a termenilor conduce la Teorema 3.2.1. Orice functie g(x) defineste o noua variabila aleatoare g(X). Daca g(X) are media finita, atunci (3.15)

M(g(X))   g( x k )f ( x k ) ; 89

seria este absolut convergenta daca si numai daca M(g(X)) exista. Pentru orice constanta a avem M(aX)aM(X). Daca pe acelasi camp de evenimente sunt definite mai multe variabile aleatoare X1,...,X n, atunci suma lor X1...Xn este o variabila aleatoare. Valorile posibile ale lor si probabilitatiile corespunzatoare se pot gasi repede din distributia comuna a variabilelor aleatoare, astfel ca se poate calcula si M(X 1...Xn). Un procedeu simplu este furnizat de urmatoarea teorema Teorema 3.2.2. Daca X1, X2, ..., X n sunt variabile aleatoare cu mediile cunoscute , atunci valoarea medie a sumei acestor variabile aleatoare exista si este egala cu suma valorilor medii, (3.16)

M(X 1...Xn) M(X1)...M(Xn) .

Demonstatie Este suficient sa se dovedeasca (3.16) pentru doua variabile aleatoare X si Y, rezultatul general putand fi obtinut prin inductie pe n . Folosind notatia (3.3) putem scrie M(X)M(Y)   x j p( x j , y k )   y k p( x j , y k ) j ,k

j ,k

sumarea extinzandu-se peste toate valorile posibile xj, yk (care nu este necesar sa fie toate diferite). Cele doua serii sunt convergente; prin urmare , suma lor poate fi rearanjata ca sa devina

 ( x j  y k )p( x j , y k ) care este , prin definitie, media variabilei XY, teorema fiind, astfel, j ,k

dovedita. In mod evident teorema nu mai este adevarata, in general, pentru produsul variabilelor aleatoare. Spre exemplu, M(X 2) este, in general, diferita de (M(X)) 2. Astfel, daca se considera experimentul constand din aruncarea unui zar perfect atunci, fie X variabila aleatoare care ia valorile de la 1 la 6, fiecare valoare fiind luata cu probabilitatea 1/6. Valoarea medie a lui X este M(X)(123456)/67/2 in timp ce M(X2)(149162536)/691/6 . Totusi, regula de inmultire se pastreaza pentru variabile aleatoare independente. Teorema 3.2.3. Daca X si Y sunt variabile aleatoare independente cu mediile M(X) si respectiv M(Y) atunci, produsul lor este o variabila aleatoare cu media finita si (3.17)

M(XY) M(X)M(Y) .

Demonstatie Pentru a calcula M(XY) vom inmulti fiecare valoare posibila x jyk cu probabilitatea corespunzatoare. Am remarcat anterior faptul ca valorile x k din definitia (3.13) nu sunt, in mod necesar, diferite. Deci

   M ( XY )   x j y k f ( x j )g( y k )   x j f ( x j )  y k g( y k )  j   k j,k  rearanjarea dezvoltarii justificandu-se prin faptul ca seriile converg in mod absolut. Teorema este astfel dovedita. Prin inductie, ea se poate dovedi pentru un numar arbitrar de variabile aleatoare independente.

90

Desigur ca ar fi foarte util sa dispunem de o relatie care sa dea media unei distributii probabilistice conditionate. Fie, in acest sens, X si Y doua variabile aleatoare cu distributia comuna (3.3). Atunci, media conditionata M(Y X) a lui Y de catre X este functia

 y k p( x j , y k ) (3.18)

 y k p( Y  y k X  x j ) 

k

k

f (x j )

cu conditia ca seriile sa convearga in mod absolut si f(x j)0 pentru orice j. Exemplul 3.2.1. (Distributia binomiala). Fie Sn numarul de realizari in n probe Bernoulli cu probabilitatea p pentru o realizare. Se stie ca S n are distributia binomiala b(k;n,p), de unde M(Sn)=  kb( k ; n, p)  np  b( k  1; n  1, p) . Ultima suma include toti termenii repartitiei binomiale pentru n-1 si, deci, este egala cu 1. Prin urmare , media repartitiei binomiale este (3.19)

M(S n)np .

Acelasi rezultat ar fi putut fi gasit si printr-o alta metoda care de cele mai multe ori este foarte comoda. Fie X k numarul de realizari obtinute in proba de rang k. Aceasta variabila aleatoare admite numai valorile 0 si 1 cu probabilitatile corespunzatoare q si p. Deci M(Xk)0q1pp, si, deci, SnX1X2+ ... Xn. Se regaseste (3.19) direct din (3.16). Exemplul 3.2.2. (Repartitia Poisson). Daca variabila aleatoare X urmeaza repartitia Poisson

k   e , ( unde p(k;) = k!

k0,1,2,...) atunci,

M ( X )   kp( k ,  )    p( k  1,  ) . Ultima suma contine toti termenii repartitiei si, prin urmare, este egala cu unitatea. Astfel, repartitia Poisson are media . Exemplul 3.2.3. (Repartitia binomiala negativa). Fie X o variabila aleatoare cu repartitia geometrica P(Xk) qkp unde k0,1,2,... Atunci M(X) qp(12q3q2...). Dar paranteza din membrul dreapt al acestei egalitati reprezinta derivata progresiei geometrice qq2q3... a carei suma este

q . Deci, M(X)=qp(1-q)-2q/p. 1 q

Am vazut, insa, in capitolul precedent, ca putem interpreta X ca fiind numarul de nerealizari care preced prima realizare intr-o secventa de probe Bernoulli. Mai general, s-a studiat campul de evenimente corespunzator probelor Bernoulli care sunt continuate pana la a n-a realizare. Pentru rn, fie X 1X si fie Xr numarul de nerealizari care urmeaza pe cea de a r-1 realizare si o precede pe cea de a r-a realizare. Atunci, fiecare X  are repartitia geometrica q kp si M(X)q/p. Suma YrX1Xr este numarul de nerealizari care preced cea de a r-a realizare. Cu alte cuvinte, Yr este o variabila aleatoare care urmeaza repartitia binomiala negativa definita printr-una din cele doua formule (3.24) sau (3.25). Urmeaza ca media acestei repartitii binomiale negative este rq/p. Aceasta se poate verifica prin calcul direct. Din capitolul precedent se observa ca kf(k;r,p)  91

rp-1qf(k-1;r1,p), iar suma termenilor repartitiei f(k-1;r+1,p) este egala cu unitatea. Si primul rationament prezinta avantaj intrucat el conduce la rezultat fara sa necesite cunoasterea formei explicite a distributiei variabilei aleatoare X1Xr. Exemplul 3.2.4. Sa consideram o selectie repetata a unei populatii cu N elemente distincte. Datorita repetitiilor, o selectie aleatoare de volum r va contine, in general, mai putin decat r elemente distincte. Pe masura ce volumul selectiei creste , elemente noi vor intra in selectie din ce in ce mai rar. Sa ne indreptam atentia spre selectia de volum S r necesara pentru a dobandi r elemente distincte. [Ca un caz special, se poate considera populatia a N365 zile de nastere posibile; aici Sr reprezinta numarul de oameni selectionati pana in momentul cand selectia contine r zile de nastere diferite. O interpretare similara este posibila cu introducerea aleatoare a bilelor in urne]. Primul element intra in selectie la prima extragere. Numarul extragerilor de la a doua extragere pana la extragerea la care un nou element intra in selectie, inclusiv aceasta extragere, este o variabila aleatoare X; in general, fie X r numarul extragerilor care urmeaza selectionarii elementului de rang r pana la selectionarea urmatorului element nou, inclusiv. Atunci, Sr1X1...Xr-1 este volumul selectiei la momentul cand elementul de rang r intra in selectie. Odata ce selectia contine k elemente diferite, probabilitatea extragerii unuia nou este, la fiecare Nk . Numarul X k al extragerilor pana la extragerea unui nou element, inclusiv N aceasta extragere, este egal cu unu plus numarul nerealizarilor care preced prima realizare in

extragere, p 

probele Bernoulli cu p 

Nk 1 q N . Prin urmare, M ( X k )  si, din teorema adunarii  N p Nk

(3.16), rezulta (3.20)

1 1 1 1  . M (S r )  N     ...  N  r  1  N N 1 N  2

Pentru rN se obtine numarul mediu de extrageri necesar pentru a epuiza intreaga populatie. Pentru N10 avem M(S10) 29,29,..., iar M(S 5) 6,46 ... . Aceasta inseamna ca ne putem astepta sa acoperim jumatate din populatie in aproximativ sase sau sapte extrageri, in timp ce pentru a doua jumatate sunt necesare ceva mai mult de 29 extrageri. O aproximare acceptabila a relatiei (3.20), pentru un N suficient de ma re, este (3.21)

M (Sr )  N ln

N . N  r 1

In particular, pentru orice raport 1 numarul mediu de extrageri necesare pentru a obtine o selectie care contine aproximativ raportul  din intreaga populatie este, pentru N suficient de 1 ; numarul mediu de extrageri necesare pentru a avea toate 1  cele N elemente incluse in selectie este, aproximativ, N lnN. Aceste rezultate, dupa cum se

mare, cu aproximatie, N ln

observa, sunt obtinute fara folosirea repartitiei. Exemplul 3.2.5. (O problema de estimatie).

92

O urna contine bile numerotate de la 1 la N. Fie X cel mai mare numar extras in n extrageri cand se aplica o selectie repetata. Evenimentul X k inseamna faptul ca fiecare dintre n

 k cele n numere extrase este mai mic sau egal cu k si, prin urmare, P( X  k )    . Deci  N distributia probabilista a lui X este data prin pk = P(X=k) = P(Xk)-P(Xk-1) = [k n-(k-1)n]N-n . . N N N   Rezulta M ( X )   kp k  N  n  k n1  ( k  1) n1  ( k  1) n  N  n  N n1   ( k  1) n  . k 1 k 1 k 1  





Pentru N sufiicient de mare ultima suma este aproximativ aria marginita de curba yxn de la x0 la xN, adica

N n1 . Urmeaza ca pentru N suficient de mare n1

n N. n1 Dupa cum se vede aceasta metoda are mare utilitate practica.

M(X) 

Exemplul 3.2.6. (Problema lui Banach). Reamintim ca in capitolul precedent s-a gasit distributia

2 N  r  1 ur =    N  2 2 N r pentru numarul X de chibrituri ramase in momentul cand fumatorul a constatat ca prima cutie este goala. Nu avem posibilitatea sa calculam media M(X)m in mod direct dar, urmatoarea cale, indirecta, pe care o expunem, se aplica in multe cazuri similare. Folosind faptul ca suma valorilor ur este egala cu unitatea (care nu este prea usor de verificat), se gaseste N 1 N 1  2N  r 1 . N  m   ( N  r )u r   ( N  r )   N  r  22N  r r0 r0

(3.22)

Operand asupra coeficientilor binomiali, ultima suma se transforma in N 1

(3.23)

 2N  r  1 1 2N  1 N 1 1 N 1  2N  r   u r 1   ( r  1)u r 1 . 2 r 0 2 r 0  N  r 1 2

 ( 2N  r ) r 0

Ultima suma este identica cu suma care definese M(X)m.. In prima suma apar toti ur, cu exceptia lui u0 si, deci, termenii adunati dau 1-u0. Astfel, din (3.22) si (3.23) avem N m

Sau

2N  1 m (1  u 0 )  2 2

m = (2N+1)u 0 - 1 =

2 N  1 2 N   1 . 22N  N 

Folosind formula lui Stirling ( n ! 

1 1 n 2 ( 2 ) n 2 e n ) se

obtine

1

 N 2 m  2   1 .  

93

In particular, pentru N50, caz considerat cu ocazia discutiei problemei lui Banach in capitolul pecedent, se gaseste m7,04... si mediana 6. 3.3. Dispersia Fie X o variabia aleatoare cu distributia f(x j), si fie r0 un intreg. Daca media variabilei aleatoare Xr, adica (3.24) M ( X r )   x rj f ( x j ) exista, atunci ea se numeste momentul de ordin r al lui X in jurul originii. Daca seria nu este absolut convergenta, spunem ca momentul de ordin r nu exista. Deoarece X

r 1

r

 X  1,

urmeaza ca ori de cate ori exista momentul de ordin r, exista si cel de ordin r-1 si, deci, toate momentele precedente. Momentele joaca un rol important in teoria generala dar, in cele ce urmeaza vom folosi numai momentul de ordinul al doilea. Daca el exista, atunci exista si media mM(X). Este, deci, natural sa se intrduca, in locul variabilei aleatoare, abaterea sa de la medie, adica X-M(X)X-m. Deoarece (x-m)22(x 2m2) se vede ca momentul de ordinul al doilea al variabilei aleatoare X-m exista ori de cate ori M(X 2) exista. Rezulta, atunci M((X-m)2) =

(x

2 j

 2mx j  m 2 ) f ( x j ) .

j

Impartind membrul din dreapta in trei sume partiale, rezulta ca el este egal cu

M(X 2)-

2mM(X)m2M(X2)-m2M(X2)-(M(X))2 . Definitia 3.3.1. Fie X o variabila aleatoare cu momentul de ordinul al doilea M(X 2) si fie mM(X) media sa. Se defineste, atunci, un numar numit dispersia lui X prin (3.25) 2(X)M((X-m)2)M(X2)-m2 . Radacina patrata pozitiva a sa (sau zero) se numeste abaterea patratica medie a lui X. Din comoditate, vom vorbi deseori despre dispersia unei distributii fara a mentiona variabila aleatoare. (i) Daca X admite valorile  c, fiecare cu probabilitatea ½, atunci

Exemple . 2

2

 (X)c . (ii) Daca X este numarul de puncte obtinute la aruncarea unui zar perfect, 2

2

atunci  (X)  1/6(1 2232...62)-(7/2)235/12. (iii) Pentru repartitia Poisson p(k;) media este  (conform exemplului 3.2.2) si, deci, dispersia este k2p(k;)-2kp(k-1;)-2(k-1)p(k-1;)p(k-1;)-22-2. In acest caz media si dispersia sunt egale. (iv) Pentru repartitia binomiala (conform exemplului 3.2.1) un calcul similar arata ca dispersia este k2b(k;n,p)-(np)2npkb(k-1;n-1,p)-(np)2np[(n-1)p1]-(np)2np[(n-1)p+1-np]=npq.

94

Utilizarea notiunii de dispersie va apare treptat, in special, in legatura cu teoremele limita din capitolul urmator. Deocamdata, se poate constata ca dispersia este o masura mai putin fina a gradului de imprastiere. De altfel, daca 2(X) (x j-m)2f(xj) este mic atunci, fiecare termen al sumei este mic. O valoare x j pentru care xj-m este mare trebuie, prin urmare, sa aiba o probabilitate mica f(x j). Cu alte cuvinte, in cazul unor dispersii mici sunt improbabile deviatii mari, de la media m, ale lui X. Invers, insa, o dispersie mare indica faptul ca nu toate valorile admise de X se gasesc in apropierea mediei. Urmatoarea interpretare din mecanica este folositoare pentru intelegerea conceptului. Sa presupunem ca o masa unitate este distribuita pe axa x astfel incat masa f(x j) sa fie concentrata in punctul xj. Atunci, media m este abcisa centrului de greutate, iar dispersia este momentul de inertie. In mod clar, distributii diferite de masa pot avea acelasi centru de greutate si acelasi moment de inertie, dar este bine cunoscut ca cele mai importante proprietati mecanice pot fi descrise in termeni ai acestor doua cantitati. Daca X reprezinta o cantitate masurabila, asemenea lungmii sau temperaturii, atunci valorile sale numerice depind de origine si unitatea de masura. O schimbare a unitatii de masura inseamna trecerea de la X la o noua variabila aXb, unde a si b sunt constante. Evident ca 2(Xb) 2(X) si, deci, (3.26)

2(aXb) a22(X) .

Alegerea originii si unitatii de masura este destul de arbitara , astfel ca de multe ori este cel mai convenabil sa se ia media ca origine si abaterea patratica medie drept unitate. In acest fel s-a procedat in capitolul precedent cand s-a introdus numarul normalizat de realizari S*n 

Sn  np 1/ 2

. In general, daca X are media m si dispersia 2 (), atunci X-m are media zero

( npq)

si dispersia 2 . Deci variabila aleatoare Xm  are media zero si dipersia 1. Ea poarta numele de variabila aleatoare normalizata corespunzatoare lui X. In limbaj fizic, trecerea de la X la X * ar putea fi interpretata ca

(3.27) X * 

introducerea unor cantitati reduse. 3.4. Corelatie Fie X si Y doua valiabile aleatoare definite pe acelasi camp de evenimente. Atunci XY si XY sunt, de asemenea, variabile aleatoare si distributiile lor se pot obtine printr-un rearanjament simplu al distributiei comune a lui X si Y. Ne propunem sa calculam dispersia sumei acestor variabile, adica 2(XY). In acest scop, vom introduce notiunea de corelatie asupra careia vom reveni in acest capitol. Daca distributia coumna a lui X si Y este p(x j,yk) atunci, media lui XY este data de relatia (3.28) M(XY)xjykp(x j,yk),

95

bineinteles cu conditia ca seria sa fie absolut convergenta. Dar x j y k 

x 2j  y 2k

si, prin urmare, 2 M(XY) exista in mod sigur daca M(X 2) si M(Y2) exista. In acest caz exista, de asemenea, mediile mxM(X), m yM(Y), iar variabilele X-mx si Y-my au mediile egale cu zero. Pentru produsul lor se obtine M[(X-mx)(Y-m y)] M(XY)-mxM(Y)-m yM(X)mxmyM(XY)-mxm y. Definitia 3.4.1. Corelatia variabilelor aleatoare X si Y se defineste prin relatia (3.29) C(X,Y) M[(X-mx)(Y-m y)] M(XY)-mxm y . Aceasta definitie are sens ori de cate ori X si Y au dispersii finite. Se stie, insa, din paragraful 3.2 ca, pentru variabile independente, se are M(XY)  M(X)M(Y). Rezulta, deci, din (3.29) Teorema 3.4.1. Daca X si Y sunt variabile aleatoare independente atunci, C(X,Y) 0. Precizam, insa, ca reciproca teoremei nu este adevarata. Spre exemplu, o privire asupra tabelului 3.1 arata ca cele doua variabile sunt dependente, si totusi corelatia lor tinde catre zero. Vom reveni asupra acestei chestiuni. Acum vom da o teorema importanta care evidentiaza o regula de calcul pentru dispersia unei sume de variabile aleatoare independente, cu mare aplicabilitate practica. Teorema 3.4.2. Daca X1,...,X n sunt variabile aleatoare cu dispersii finite  12 ,...,  2n , iar SnX1Xn , atunci n

(3.30) 2(Sn) =

 k 1

2 k

 2 C( X j , X k ) j ,k

 n ultima suma extinzandu-se peste fiecare dintre cele   perechi (Xj,Xk) cu jk. In particular,  2

daca variabilele X j sunt independente in totalitate atunci, are loc urmatoarea regula de adunare (3.31) 2(Sn)  12   22  ...  2n . Demonstratie. Sa punem mkM(Xk) si m (n) m1mnM(Sn). Atunci S n - m(n) =

( X

k

 mk )

k

Si

(Sn - m (n))2 =

( X k

k

 mk ) 2  2  ( X j  m j )( X k  mk ) . j ,k

Luand mediile si aplicand regula de adunare se obtine tocmai (3.30). Atunci (3.31) urmeaza din teorema 3.3.1. Exemplul 3.4.1. (Repartitia binomiala b(k;n,p)). In exemplul 3.2.1. variabilele X k

sunt

independente

in

totalitate.

Avem

M( X 2k )02q2pp si M(Xk) p. Deci  2k  p  p 2  pq si din (3.31) se observa ca dispersia repartitiei binomiale este npq. Acelasi rezultat a fost obtinut prin calcul direct in exemplul (iv) din paragraful precedent. Exemplul 3.4.2. (Probe Bernoulli cu probabilitati variabile). 96

Fie X1, ...,X n vairabile aleatoare independente in totalitate astfel incat Xk sa admita valorile 1 si 0 cu probabilitatile pk si qk1-pk respectiv. Atunci M(X k) pk si

 2 ( X k )  p k  p 2k  p k q k . Punand, din nou, S nX1Xn , rezulta din (3.31) n

(3.32)

 2 (Sn )   p k q k . k 1

Ca si in exemplul 3.1.5, variabila S n poate fi interpretata ca numarul total al realizarilor din n probe independente, fiecare dintre ele avand drept rezultat o realizare sau o nerealizare. p  ... p n Atunci p  1 este probabilitatea medie a realizarilor si , deci, apare ca naturala n compararea situatiei de fata cu aceea a probelor Bernoulli in care probabilitatea p a unei realizari ramane constanta. O astfel de comparatie conduce la un rezultat remarcabil. Se poate rescrie

(3.32) sub forma  2 (Sn )  np   p 2k . Apoi, este usor de observat (prin calul elementar) ca, dintre toate combinatiile {pk} astfel incat pknp, suma  p k2 admite o valoare minima cand toti pk sunt egali. Urmeaza ca, daca probabilitatea medie p a realizarilor este mentinuta constanta, 2(Sn) admite valoarea minima cand p1 ... pnp. Se obtine, astfel, rezultatul surprinzator ca variabilitatea lui pk, sau lipsa uniformitatii, micsoreaza marimea fluctuatiilor sansei, asa cum este calculata cu ajutorul dispersiei. De exemplu, numarul anual al incendiilor intr-o comunitate de oameni poate fi tratat ca o variabila aleatoare; pentru un numar mediu dat, variabilitatea este maxima daca toate gospodariile au aceeasi probabilitate de a fi cuprinse de incendiu. Sau, dandu se o anumita calitate medie p, a n masini, randamentul va fi cel mai neuniform daca toate masinile sunt la fel. Exemplul 3.4.3. Un pachet cu n carti de joc numerotate se aseaza intr-o ordine la intamplare astfel incat toate cele n! aranjamente sa aiba probabilitati egale. Numarul de perechi (cartile sa se gaseasca pe locul lor natural) este o variabila aleatoare S n care admite valorile 0,1,2,...,n. Distributia sa probabilista a fost, deja, obtinuta anterior; din ea rezulta atat media cat si dispersia acestei variabile. Urmatoarea cale, pe care o prezentam aici, este, insa, mai simpla si chiar mai instructiva. Fie Xk o variabila aleatoare care ia valoarea 1 sau 0, dupa cum cartea numarul k este sau nu este pe locul k. Atunci, S nXnXn. Dar, fiecare carte poate aparea pe locul k cu probabilitatea 1/n, astfel ca P(X k1) 1/n si P(Xk0) (n-1)/n.

Prin urmare , M(X k) 1/n si,

deci, urmeaza ca M(S n) 1; media este o pereche per pachet. Pentru a gasi 2(Sn) sa calculam, mai intai, dispersia k a lui X k (3.33)

 2k

2

1  1 n1     n  n n2

97

Apoi , calculam M(XjXk). Produsul X jXk este ori 0 ori 1; ultima este adevarata daca atat cartea numarul j cat si cartea numarul k sunt pe locurile lor proprii, probabilitatea pentru acest caz fiind 1 . Deci n(n  1) (3.34) M ( X j X k ) 

1 iar n( n  1),

C( X j , X k ) 

1 1 1   n( n  1) n 2 n 2 ( n  1)

Astfel, in final, rezulta

 2 (Sn )  n

 n 1  2  1 . 2 2  2 n ( n  1) n

n1

Dupa cum se vede, atat media cat si dispersia numarului de perechi sunt egale cu 1. Exemplul 3.4.4. (Selectia nerepetata). Sa presupunem ca dintr-o populatie care consta din a elemente albe si g elemente galbene se face o selectie aleatoare nerepatata de volum r. Numarul Sk de elemente albe din selectie este o variabila aleatoare care urmeaza repartitia hipergeometrica; prin caclul direct se pot obtine media si dispersia. Amintim ca repartitia hipergeometrica se obtine pornind de la o populatie de n elemente dintre care n1 sunt albe si n2n-n1 negre. Se alege, din aceasta populatie, un grup de elemente la intamplare. Se cere probabilitatea ca grupul de elemente astfel ales sa contina exact k elemente albe. Desigur k poate sa fie orice intreg intre zero si n1 sau r, care din ele este mai mic. Pentru a gasi qk, retinem ca grupul de elemente alese contine k elemente albe si r-k elemente negre. Cele  n1  n  n1  albe pot fi alese in   moduri diferite, iar cele negre in   moduri. Deoarece orice  k  rk 

alegere de k elemente albe poate fi combinata cu orice alegere a elementelor negre, se obtine  n1   n  n1      k  r  k  . qk   n    r

Sistemul de probabilitati, astfel definit, se numeste repartitie hypergeometrica. Tinand seama de faptul ca  n n!    r  r !( n  r )!

formula de mai sus se poate rescrie in forma  r n  r      k   n1  k  qk   n    n1 

extrem de utila in practica].

98

Aici, preferam, insa, metoda urmatoare. Sa definim variabila aleatoare X k despre care admitem ca ia valorile 1 sau 0 dupa cum elementul k din selectie este sau nu este alb (kr). Probabilitatea ca X k1 este a/(ag) si, deci, M(Xk) a/(ag), 2(Xk) ag/(ag)2. .

(3.35)

Apoi , daca jk atunci, XjXk1 daca elementele j si k ale selectiei sunt albe, si XjXk0 in caz contrar. Probabilitatea lui X jXk 1 este (3.36) M(XjXk)  Si

(3.37) C(Xj,C k) 

a( a  1) si, deci, ( a  g)( a  g  1)

a( a  1) ( a  g)( a  g  1)  ag 2

.

(a  g) (a  g  1)

Prin urmare, M(Sr) 

ar a g

 2 (Sr ) 

Si

arg

 r 1  1   . ( a  g) 2  a  g  1

Intr-o selectie repetata se gaseste aceeasi medie, dar dispersia va fi cu putin mai mare, adica

arg ( a  g) 2

.

3.5. Inegalitatea lui Cebîsev 2) S-a accentuat mai inainte ca dispersia mica conduce la concluzia ca sunt improbabile deviatii mari de la medie. Aceasta concluzie este accentuata mai mult de inegalitatea lui Cebîsev, care este extrem de folositaore si constituie un instrument usor de manuit. Teorema 3.5.1. Fie X o variabila aleatoare cu media mM(X) si dispersia 2. Atunci, pentru orice t0 (3.38) P( X  m  t ) 

2

t2 Demonstratie. Dispersia este definita, asa cum am vazut in paragraful 3.3, printr-o serie

de termeni pozitivi (3.39) M (( X  m) 2 )   ( x 2j  2mx j  m 2 )f ( x j ) . j

Eliminam toti termenii pentru care xj-mt; aceasta nu poate mari valoarea seriei si, prin urmare, (3.40)  2   * ( x j  m) 2 f ( x j ) ceea ce dovedeste teorema.

2)

Pafnutii L’vovici Cebîsev, rus, 1821-1894. 99

Inegalitatea lui Cebîsev trebuie privita, mai degraba, ca un instrument teoretic decat ca o metoda practica de estimare. Importanta acestei inegalitati se datoreste universalitatii sale, dar nu ne putem astepta ca vreo formulare a sa, oricat de generala ar fi, sa duca la rezultate rasunatoare in cazuri individuale. Exemplul 3.5.1. Pentru repartitia binomiala b(k;n,p) s-a obtinut (conform exemplului 3.3.1) mnp si 2

 npq. Pentru n suficient de mare se stie ca (3.41)

P( Sn  np  x ( npq)1/ 2 )  1  N ( x )  N (  x ) .

Inegalitatea lui Cebîsev afirma doar ca membrul stang este mai mic decat 1/x 2; deci, evident, o estimare mai slaba decat 4.(41). 3.6. Inegalitatea lui Kolmogorov 3) In acest paragraf prezentam o teorema care scoate in evidenta o metoda mult mai rafinata de estimare in sensul discutat pana acum. Teorema 3.6.1. Fie X1,...,X n variabile aleatoare inedependente cu mediile mkM(Xk) si dispersiile 2k. Se noteaza (3.42) SkX1Xk si m(k) M(Sk) m1mk ; (3.43) s2k   2 (Sk )  12 ...  2k . Pentru fiecare t0 probabilitatea realizarii simultane a urmatoarealor n inegalitati (3.44) Sk  m ( k )  tsn , k  1,2,.., n este cel putin 1-t-2. Pentru n1 aceasta teorema se reduce la inegalitatea lui Cebîsev. Pentru n1 inegalitatea lui Cebîsev margineste, in acelasi fel, probabilitatea unei singure inegalitati Sn-m(n)tsn , astfel ca inegalitatea lui Kolmogorov este considerabil mai tare. Demonstratie. Trebuie sa estimam probabilitatea x ca cel putin una dintre inegalitatile (3.44) sa nu aiba loc. Teorema afirma ca xt-2. Sa definim n variabile aleatoare Y k dupa cum urmeaza: Y  1 daca

S  m (  )  tsn [i Sk  m ( k )  tsn

pentruk  1,2,...,   1

Y0 pentru toate celelalte puncte. Cu alte cuvinte, Y este egala cu 1 in acele puncte in care cea de-a  inegalitate (3.44) pentru prima data nu este satisfacuta. Atunci, in orice punct particular, cel mult dintre variabilele Yk este 1, iar suma Y 1Y2Yn poate admite valorile 0 sau 1; ea 3)

Andrei Ncolaevici Kolmogorov, rus, 1903-1987. 100

este 1 daca si numai daca cel putin una dintre inegalitatile (3.44) nu este satisfacuta si, prin urmare (3.45) xP[ Y1Y2Yn1] . Deoarece Y1Y2Yn este 0 sau 1, avem Yk1. Inmultind prin

(S n-m(n))2 si luand

mediile , se obtine n

(3.46)

 M (Y ( S k

n

 m ( n ) ) 2 )  sn2

.

k 1

Pentru evaluarea termenilor din partea stanga sa punem n

U k  (S n  m (n) )  (S k  m (k ) ) 

 ( X   m )

  k 1

Atunci, (3.47)

M ( Y k (Sn  m ( n) ) 2 )  M ( Y k (Sk  m ( k ) ) 2 )  2M ( Y k U k (Sk  m ( k ) ))  M ( Y k U 2k ) Insa, Uk depinde numai de Xk1,...,X n in timp ce Yk si Sk depind numai de X1, . . . , X k. Deci Uk k este independenta de Y k  Sk  m   si, prin urmare , k k M  Y k U k  Sk  m      M  Y k  Sk  m     M U k   0 deoarece M(Uk)0. Astfel, din    

(3.47) rezulta 2 2   n k (3.48) M  Y k  Sn  m     M  Y k  Sk  m    .     2

k k Dar Y k0 numai daca Sk  m   tsn , astfel incat Y k  Sk  m    t 2s2n Y k .

Deci combinand (3.46) si (3.48) se obtine

s2n  t 2s2n M Y1  ... Y n  . Cum Y1  ... Y n este egala ori cu 0 ori cu 1, urmeaza ca media membrului drept al inegalitatii este egala cu probabilitatea x definita in (3.45). Astfel, xt 21 asa cum s-a afirmat. 3.7. Raport de corelatie Fie X si Y doua variabile aleatoare oarecare cu mediile m x si my si dispersiile pozitive, x2 si y2. Introducem variabilele aleatoare normalizate corespunzatoare X * si Y* definite prin (3.27). Prin definitie, corelatia variabilelor X * si Y* poarta numele de raport de corelatie al variabilelor aleatoare X si Y si va fi notat prin (X,Y). Astfel, folosind relatia (3.29) se gaseste





(3.49)  X , Y   C X * , Y * 

C X , Y   z y

.

101

Se observa ca acest raport de corelatie este independent atat de origine cat si de unitatile de masura, adica pentru orice constante a 1, a2, b1, b2,

cu a10, a20,

se are

 a1X  b1 , a2Y  b 2    X , Y  .

Se stie din paragraful 3.4 ca

C(X,Y)0

ori de cate ori sunt variabile aleatoare

independente. Deci, in acest caz, se are si (X,Y) 0. Este deosebit de important sa se retina ca reciproca nu este adevarata. De altfel, raportul de corelatie (X,Y) poate sa tinda la zero chiar daca Y este o functie de X. Exemple. (i) Fie X o variabila aleatoare care admite valorile 1, 2 fiecare cu probabilitatea ¼. Fie YX2. Distributia comuna este data prin egalitatile p(-1, 1)  p(1, 1)  p(2, 4)  p(-2, 4)1/4. Se constata ca (X,Y) 0 chiar daca exista o dependenta functionala directa a lui Y de X. (ii) Fie U si V variabile aleatoare independente cu aceeasi distributie si fie XUV, YU-V . Atunci M(XY) M(U2)-M(V2) 0 si M(Y) 0. Deci C(X,Y) 0 de unde rezulta ca (X,Y) 0. Spre exemplu, X si Y pot fi suma si diferenta punctelor rezultate in cazul aruncarii a doua zaruri. Atunci X si Y sunt ori ambele impare ori ambele pare si, prin urmare, dependente. Urmeaza ca raportul de corela]ie in nici un caz nu poate fi o masura generala a dependentei dintre X si Y. Insa, (X,Y) se leaga de dependenta liniara a lui X si Y. Teorema 3.7.1. Este totdeauna adevarata inegalitatea (X,Y)1; in plus,  X , Y   1 numai daca exista constantele a si b astfel incat YaXb, cu exceptia, eventual, a valorilor lui X cu probabilitatea zero. Demonstratie. Fie X * si Y* variabilele normalizate. Atunci, 2(X *Y*) = *(X *)  2C(X*,Y*) + 2(Y *) = 2(1  (X,Y) . Partea stanga a egalitatii nu poate fi negativa; deci  X , Y   1 . Pentru  X , Y   1



este



necesar ca  2 X *  Y *  0 ceea ce inseamna ca, cu o probabilitate egala cu 1, variabila X *Y* admite numai o valoare. In acest caz X *-Y*c, (c - constanta) si, prin urmare, YaXc, unde a

y x

. Un rationament similar se aplica in cazul (X,Y) -1.

3.8. Variabile aleatoare peste un camp de probabilitate complet aditiv Problema care se pune este urmatoarea: Ce se intampla in cazul campurilor infinite, sau mai precis pe campuri de probabilitate complet aditive? (vezi definitia 2.3.1). Fie (, K(), P) un camp de probabilitate complet aditiv si f : R o functie reala definita pe . Dandu-se R sa consideram multimea 1

f-

()xf(x) P(). Cum K() nu coincide cu P(), (K() fiind un -corp de parti ale

multimii P()), se poate intampla sa avem sau f -1()K() sau

102

f-1()K() si acesta este cazul general. Daca insa f-1()K(), putem vorbi de probabilitatea evenimentului f-1(). La fel, daca IR este un interval (deschis, inchis, seminchis) sau este o multime oarecare a dreptei reale, avem sau f-1(I)xf(x) IK() sau f-1(I)K() si aceasta este cazul general. Din cele infatisate, mai sus, se vede ca functiile reale avand drept domeniu de definitie multimea  se impart in doua clase si anume: acelea care se bucura de proprietatea ca oricare ar fi XR, f-1(X)K() si cele care nu au aceasta proprietate. Fie XR si X. Daca punem IxXx, I=xXx observam ca f-1(X)K() daca f-1(I)K(), f-1(I)K() deoarece f-1(X)f-1(I)f-1( I  ). Aceste observatii ne permit sa introducem Definitia 3.8.1. Fie (,K(),P) un camp de probabilitate complet aditiv. O aplicatie f : R se spune ca este o variabila aleatoare peste campul (,K(),P) daca pentru orice R avem f-1(I)K(), unde IxRx. Daca (,K(),P) este un camp de probabilitate finit, orice f : R se considera variabila aleatoare. Teorema 3.8.1. Fie ,R in relatia  . Aplicatia f : R este o variabila aleatoare peste campul (,K(),P) daca este satisfacuta una din conditiile urmatoare 1) f-1(xRx )K( ) 2) f-1(xRx )K() 3) f-1(xRx )K() 4) f-1(xRx )K() 5) f-1(xRx )K() 6) f-1(xRx)K() 7) f-1(xRx)K() Demonstratia teoremei 3.8.1. este o consecinta directa a definitiei 3.8.1. si a proprietatilor cmpului K() si o propunem drept exercitiu. Observatia 3.8.1. f-1(xRx) f() , etc. Observatia 3.8.2. Fie A. AK() daca si numai daca indicatorul multimii A este o variabila aleatoare . Observatia 3.8.3. Atragem atentia ca in acceptia definitiei 3.1.1. variabilele aleatoare nu sunt toate aplicatiile f : R pentru care avem f-1(X)K() cu XR arbitrar, ci numai acele functii reale definite pe  cu proprietatea ca avem f-1(X)K() numai daca XB1 unde B1 desemneaza corpul borelian pe R generat de intervalele deschise , (vezi paragraful 2.3). 103

Prin urmare, se poate reformula definitia 3.1.1. in felul urmator Definitia 3.8.2. Daca Bn este corpul borelian generat de multimile deschise din R n, atunci f : Rn este o variabila aleatoare n-dimensiunala daca f-1(X)K() pentru orice parte boreliana XBn. In particular, pentru n1, vom spune ca f este o variabila aleatoare. Este imediat rezultatul urmator Teorema 3.8.2. Daca f,g sunt variabile aleatoare atunci, pentru orice R , fg este o variabila aleatoare (unde fg desemneaza aplicatia fg : R) pentru care avem (fg)() f()g() pentru orice . De asemenea, fg este variabila aleatoare pentru care avem (fg)()=f()f(). Fie f si g doua variabile aleatoare. Are loc urmatorul rezultat Lema 3.8.1. Daca f,g sunt doua variabile aleatoare, atunci 1). { f()g()}K() ; 2). { f()g()}K() ; 3). {f()=g()}K() . Intr-adevar, pentru primul caz avem { f ( )

{f()g()} = m Z n N

n } { g ( ) m

n } K(). m

Celelalte doua afirmatii rezulta din faptul ca {f()g()} = C{g()f()}  K() Si

{f()=g()} = {f()g()}{f()g()}  K() .

Dintre variabilele aleatoare se disting, ca deosebit de importante in teoria probabilitatilor, variabilele aleatoare simple. Definitia 3.8.3. Se numeste variabila aleatoare simpla o variabila aleatoare care ia numai un numar finit de valori. In sensul acestei definitii, inseamna ca aplicatia f : R este o variabila aleatoare simpla daca ia un numar finit de valori v 1,v2,...,v n si daca f()viK() oricare ar fi i1,2,...,n. Convenim sa notam familia variabilelor aleatoare simple prin S. Astfel, cel mai simplu exemplu de variabila aleatore simpla este indicatorul IA al evenimentului A. Avem, astfel o descriere completa a corpului K() prin variabile aleatoare. De asemenea, sa observam ca, daca fS atunci f va admite o reprezentare sub forma

 v I  I



unde K(), v sunt numere reale, iar I este o multime finita de indici. Desigur, o astfel de reprezentare nu este unica. Daca valorile pe care le ia variabila aleatoare fS sunt (a)I si daca f()a, 104

atunci se poate nota f si in felul urmator v, I ; iar daca I1,2,...,n se poate folosi simbolul v1,1, v 2,2, ..., v n,n. Din aceste consideratii se deduce imediat ca suma , produsul si puterea unor variabile aleatoare simple sunt, de asemenea, variabile aleatoare simple. In plus, daca fS atunci, fS; iar daca R atunci fS. Are loc propozitia urmatoare Propozitia 3.8.1. Daca f este o variabila aleatoare pozitiva, atunci exista un sir crescator (fi)0i< de variabile aleatoare simple, pozitive, convergent

catre f.

Demonstratie. Oricare ar fi n1,2,... sa luam

k 1 1 k 1  daca n  f ( ) n (k  1,..,2 n ) . f n ( )   2 n 2 2  n daca f ( )  n Prin urmare, f n()S si fn()0 pentru orice . Daca f()n, atunci

f ( )  f n ( ) 

1 2n

si, in acest caz, lim f n ( )  f ( ) . Deoarece sirul (fi)0i, de variabile aleatoare, este crescator, n

propozitia este dovedita. Daca se noteza f  sup(f,0) si f  inf(f,0) atunci, deoarece ff-(-f-), rezulta ca orice variabila aleatoare este limita unui sir de variabile aleatoare simple. 3.9. Functia de probabilitate Fie (, K(), P) un camp de probabilitate complet aditiv. Fie, de asemenea, 1 o noua multime de evenimente elementare si sa consideram o aplicatie f : 1. Daca se noteaza prin K(f)(1) familia tuturor partilor A1 cu proprietatea ca

f-1(A)K(), atunci este clar ca

K(f)(1) este un corp borelian. Pentru orice AK(f)() se poate acum defini, in mod unic, functia (3.50) P(f)(A)P(f-1(A)) . Se poate arata ca functia P(f)(A) definita in (3.50) este o probabilitate pe corpul borelian K(f)(1), astfel ca (1, K (f)(1), P (f)) este un camp de probabilitate complet aditiv. Intr-adevar, P (f)(A)0 pentru orice A K(f)(1). De asemenea P(f)(1)P(f-1 (1))1 deoarece P este o probabilitate pe corpul borelian K (f) prin ipoteza. Fie, acum, (A )IK(f)(1) o familie numerabila de evenimente incompatibile doua cate doua, adica A ’A” pentru ’” cu ’,”I. Atunci,

      P(f) A   P f 1  A   P f   I    I     I 

1

 ( A )    P ( f   I

1

( A )) 

P

(f)

( A )

I 105

deoarece, daca ‘,“I si ’”, atunci

f 1 ( A  ' ) f 1 ( A  " )  f 1 ( A  '

A  " )  f 1 (  )   .

Deci, (1, K (f)(1), P (f)) este un camp de probabilitate complet aditiv. Functia P(f) definita de (3.50) se numeste functia lui Kolmogorov sau functia de probabilitate. Ea va interveni, in continuare, in definirea functiei de repartitie a unei variabile aleatoare. 3.10. Functia de repartitie Fie f o variabila aleatoare definita pe campul de probabilitate complet aditiv (, K(), P). Pentru orice numar aR sa punem af(a. Este clar ca, in acest fel, af-1((-,a)) si sa notam (3.51) F(a)P(a)P(f(a) . Deoarece (-,a)BK(f)(1) rezulta ca F(a) P(f(a) P(f-1(-,a))Pf((-,a)) in virtutea relatiei (3.50). Definitia 10.1. Pentru orice aR si variabila aleatoare f, functia F(a) data in (3.51) se numeste functia de repartitie a variabilei aleatoare f. Proprietatile de baza ale functiei de repartitie sunt date in teorema urmatoare Teorema 3.10.1. Functia de repartitie F a unei variabile aleatoare f are urmatoarele proprietati: 1) F( ; 2) F(-0 ; 3) F(a-0F(a) , pentru aR ; 4) F(a)F(b), daca a b cu a,b R. [Aici s-au utilizat notatiile obisnuite F() lim F (a ), F ( )  lim F (a ) si F (a  0)  lim F ( x) ]. a 

a  

xa xa

Demonstratie. 1) Fie a1a2...an.. un sir monoton crescator de numere reale cu lim an   . Atunci, (n

,an) (-,an) si, pentru orice numar natural n, avem

(  , an )  R . nN

In virtutea corolarului 2.3.2 se obtine

  F(  )  lim F( an )  lim P( f ) ((  , an )  P( f )  (  , an )  P( f ) ( R)  1 . n n  nN  2) Fie, acum, a1a2...an... un sir monoton descrescator de numere reale cu lim an   . n

(  , an )   .

Atunci, (-,an) (-,an) si, pentru orice numar natural n, se are nN

106

In baza corolarului 2.3.1. se obtine de data aceasta

  F(  )  lim F(an )  lim P( f ) ((  , an )  P( f )  (  , an )  P( f ) ( )   . n n  nN  3) Fie sirul monoton crescator de numere reale a 1a2...an... cu lim an  a . In acest caz n

F(a)P(f)((-,a)) si F(a n)P(f)((-,an)), astfel ca F(a)-F(an) P(f)((-,a))- P(f)((-,an)) P(f)([an,a)).

 an , a   .

Insa an1,a)an,a) si, pentru fiecare numar natural n, avem

nN

Prin urmare,

  lim ( F( a)  F( an ))  lim P( f ) ( an , a )  P( f )   an , a  P( f ) ( )  0 n n  nN  de unde se deduce proprietatea. 4) Fie a,bR cu ab. Atunci (-a)(-,b). Deci F(a)P(f)((-,a)) P(f)((-,b))F(b) . Sa observam ca, pentru fiecare numar real a s-au considerat, in definitia functiei de repartitie, numai valorile variabilei aleatoare f strict mai mici decat a. Ne propunem sa vedem ce se intampla daca se vor lua in consideratie si valorile f()a. Cu alte cuvinte, sa consideram P(f(a). In acest caz P(f(a)P(f)((-,a), unde putem scrie intervalele de forma (-,a astfel (-,a

1 (, a  ) . n nN

I

1 1 )  (, a  ) n 1 n pentru orice numar natural n, astfel ca, in baza corolarului 2.3.1 obtinem Dar

(, a 

P(f(a)P(f)((-,a)P(f)(

(  , a  nN

lim P( f ) (  , a 

 n

1 ) ) n

1 1 )  lim F(a  )  F(a  0) n n n .

Iata, deci, ca pentru orice aR se poate scrie (3.52) F(a0)P(f()a). Din aceste consideratii rezulta imediat ca P(f()a)  F(a0)) - F(a-0) oricare ar fi aR. De asemenea, daca a1,a2R si a1a2, atunci P(a1f()a2)  F(a2) - F(a1).

107

Teorema 3.10.2. Daca o functie de repartitie F este continua in fiecare punct xR, atunci ea este uniform continua pe R. Demonstratie. Deoarece F(-)  F(x)  F(), din proprietatiile functiei de repartitie rezulta ca 0  F(x)  1 pentru orice xR. Se pot determina, atunci, numerele a,bR, cu ab astfel incat sa avem 0  F(x)

 , daca xa 2

  F(x)  1 , daca xb. 2 F este o functie continua pe a, b si, deci, este uniform continua. Rezulta ca se poate determina 1-

un 0 astfel incat

 2 daca x1,x2a,b si x2-x1. Dar, atunci, urmeaza ca x1,x2R si F(x2)-F(x1) 

x2-x1min(, (b-a)) implica F(x2)-F(x1)   ceea ce dovedeste teorema.

108

CAPITOLUL 4 REPARTITII STATISTICE SI UNELE PROBLEME INRUDITE OBIECTIVE Capitolul poate fi considerat ca apartinand atat statisticii matematice cat si Teoriei probabilitatilor. Evenimente de tip Binomila sau Poissonian sunt foarte des intalnite in viata de zi cu zi. Puntea de legatura dintre Teoria probabilitatilor si statistica matematica este data de legea numerelor mari, un rezultat deosebit de important. O repartitie fundamentala este cea normala, repartitie catre care converg si alte repartitii. Legat de convergenta, Teorema Limita De Moivre La Place este esentiala.

-

La sfarsitul acestui capitol, studentii trebuie sa-si insuseasca: Probabilitatile celor trei repartitii: Binomiala, Poisson, Normala Caracteristicile numerice ale celor 3 “legi” Legea numerelor mari Interpretarea Teoremei Limita de MoivreLaplace

4.1. Repartitia binomiala Extractiile repetate independente se numesc extractii de tip Bernoulli 1) daca exista numai doua rezultate posibile pentru fiecare extragere, posibilitatile lor ramanand aceleasi la toate extragerile. Notand cele doua probabilitati prin p si q, ne vom referi la un rezultat, cu probabilitatea p, ca fiind o realizare “R”, iar la celalalt ca fiind o nerealizare sau un insucces “I”. In mod evident p si q trebuie sa fie nenegative si (4.1.)

pq1

Campul de evenimente al fiecarei probe individuale este format din doua puncte R si I. Campul de evenimente a n extractii Bernoulli contine 2n puncte sau succesiuni de n simboluri R si I, fiecare punct reprezentand un rezultat posibil al experimentului compus. Cum probele sunt independente, urmeaza ca probabilitatile se inmultesc. Cu alte cuvinte, probabilitatea oricarei secvente specificate este produsul obtinut prin inlocuirea simbolurilor R si I cu p si q respectiv. Astfel P(RRIIRI...IRR)  ppqqpq...qpp Exemplul 4.1.1. Fie o urna cu a bile albe si n bile negre si sa presupunem ca dupa fiecare extragere se reintroduce bila extrasa in urna, deci la fiecare extragere urna are aceeasi compozitie. 1)

Jacques Bernoulli (1654-1705) Principala lucrare “Ars conjectandi” publicata postum in 1713. 109

Considerand, in aceasta situatie, extractii aleatoare repetate (care sunt deci independente), avem imaginea probelor de tip Bernoulli in care probabilitatea p a realizarii unei bile albe este p a/(an). De multe ori nu intereseaza sa se faca distinctie intre rezultate diferite si se prefera descrierea oricarui rezultat in mod simplu, cum ar fi A sau non-A. Astfel, la aruncarea unui zar perfect distinctia intre realizarea fetei unu, R, si nerealizarea ei, I, conduce la probe de tip Bernoulli cu p1/6, in timp ce distinctia intre par si impar conduce la probe de tip Bernoulli cu p1/2. Daca zarul nu este perfect (sa zicem neechilibrat), aruncarile seccesive inca mai formeaza probe de tip Bernoulli, dar probabilitatile corespunzatoare p sunt diferite. Schema Bernoulli ramane, insa un model teoretic si numai experienta poate arata daca el este potrivit pentru descrierea diferitelor experimente. Aceasta schema se dovedeste a fi un model ideal chiar daca nu poate fi niciodata obtinut complet. Spre exemplu, masinile spalat fabricate in productie de masa pot varia in marime dar, la control, ele sunt clasificate drept corespunzatoare (R) sau necorespunzatoare (I), dupa cum marimea se incadreaza sau nu in limitele prescrise. Deci exista multe motive pentru care productia nu se poate conforma schemei Bernoulli. Masinile sunt supuse schimbarilor si, deci, probabilitatile nu raman constante; exista o persistenta in mecanismul masinilor si, prin urmare, sunt mai probabile secventele lungi de derivatii de acelasi fel, in aceasta situatie, decat ar fi fost daca probele erau cu adevarat independente. Insa, din punct de vedere al controlului de calitate este de dorit ca procesul sa fie conform schemei lui Bernoulli si este foarte important ca, in anumite limite, se poate face ca productia sa se comporte in acest mod. Scopul controlului continuu este, deci, de a descoperi cat mai devreme devierile flagrante de la schema ideala si a le folosi dretp indiciu al unor dificultati iminente. De obicei, intereseaza doar numarul total al realizarilor produse intr-o secventa de n extrageri Bernoulli si nu ordinea acestora. Numarul realizarilor poate fi 0,1,...,n si prima problema care se pune este sa se determine probabilitatile corespunzatoare. Atunci, evenimentul din n extrageri rezulta k realizari si n-k nerealizari se poate produce in tot atatea moduri dupa  n cum pot fi distribuite k litere R pe n pozitii. Cu alte cuvinte, acest eveniment contine   puncte  k

si, prin definitie, fiecare punct are probabilitatea p kqn-k. Aceasta dovedeste Teorema 4.4.4. Fie b(k;n,p) probabilitatea ca, din n probe Bernoulli cu probabilitatea p pentru realizare si q=1-p pentru nerealizare, sa rezulte k realizari si n-k nerealizari (0kn). Atunci  n (4.2) b(k;n,p)    p k q n k .  k

In particular, probabilitatea de a nu se produce nici o realizare este qn, iar probabilitatea de a se produce cel putin o realizare este 1-qn. Sa privim, acum, pe p ca o constanta si sa notam, prin S n numarul realizarilor din n probe. Atunci, b(k;n,p)P(Snk). In terminologia obisnuita S n este o variabila aleatoare, iar functia (4.2) este repartitia acestei variabile aleatoare si ne vom referi la ea ca repartitie binomiala. 110

Atributul binomial se refera la faptul ca (4.2.) reprezinta termenul de rang k din dezvoltarea binomiala (qp)n. Acasta remarca arata, de asemenea, ca b(0;a,p)b(1;n,p)b(n;n,p) (qp)n1, ceea ce este impus prin insasi notiunea de probabilitate. Exemplul 4.1.2. (Weldon) Sa consideram un experiment constand din aruncarea a douasprezece zaruri si sa privim ca realizari fetele 5 si 6. Daca zarurile sunt perfecte, probabilitatea de a avea o realizare este p=1/3, iar numarul realizarilor este dat de repartitia binomiala b(k;12,1/3). Tabelul 4.1, de mai jos, da aceste probabilitati impreuna cu frecventele medii corespunzatoare observate in 26.306 experiente reale. k

b(k;12,1/3)

Frecvente observate

b(k;12, 0,3377)

0

0,007707

0,007033

0,007123

1

0,046244

0,043678

0,043584

2

0,127171

0,124116

0,122225

3

0,211952

0,208127

0,207736

4

0,238446

0,232418

0,238324

5

0,190757

0,197445

0,194429

6

0,111275

0,116589

0,115660

7

0,047689

0,050597

0,050549

8

0,014903

0,015320

0,016109

9

0,003312

0,003991

0,003650

10

0,000497

0,000532

0,000558

11

0,000045

0,000152

0,000052

12

0,000002

0,000000

0,000002

Tabelul 4.1 Ipoteza este buna dar pentru o experienta atat de vasta nu este tocmai potrivita. Este mai rezonabil sa se presupuna ca zarurile nu sunt perfecte. In acest caz, o realizare cu probabilitatea p 0,3377 ar fi mai potrivita cu observatiile. Exemplul 4.1.3. Daca probabilitatea unei realizari este 0,01, cate probe sunt necesare pentru ca probabilitatea a cel putin unei realizari sa devina 1/2 sau mai mare ? In acest caz se cauta cel mai mic intreg n pentru care 1-(0,99)n  1/2, sau -nlog(0,99)log2. Deci n70. Exemplul 4.1.4. Sa presupunem ca n10 unitati economice folosesc in mod intermitent energia electrica si sa cautam a estima ce sarcina totala ar fi de asteptat. Sa ne imaginam (vorbind destul de general) ca la orice moment fiecare unitate economica solicita o unitate de energie cu aceeasi probabilitate p. Daca ele lucreaza indepentent, probabilitatea ca, la acelasi moment, k unitati 111

economice sa solocite energia electrica este b(k;n,p). Daca, in medie, o unitate economica foloseste energia electrica 12 minute pe ora, atunci vom pune p1/5. Deci probabilitatea ca sapte sau mai multe unitati economice sa solicite curent in acelasi timp este b(7; 10, 0,2)b(10; 10, 0,2)  0,0008643584. Cu alte cuvinte, daca alimentarea este redusa la sase unitati de energie, o supraincarcare are probabilitatea 0,00086..., adica aproximativ un minut in douazeci de ore. Probabilitatea ca opt sau mai multe unitati economice sa solicite curent in acelasi timp este numai 0,0000779264 sau aproximativ de unsprezece ori mai mica. Sa observam ca, din (4.2.) urmeaza (4.3.)

b( k , n, p) ( n  k  1)p ( n  1)p  k   1 b( k  1, n, p) kq kq

Prin urmare, termenul b(k;n,p) este mai mare decat precedentul pentru k(n1)p si este mai mic pentru k(n1)p. Daca se intampla ca (n1)pm fie un intreg, atunci b(m;n,p) b(b(n-1;n,p). Exista, deci, un singur intreg n astfel incat (4.4.) (n1)p-1m(n1)p si obtinem Teorema 4.1.2. Pe masura ce k ia valori de la 0 la n, termenii b(k;n.p) mai intai cresc monoton, iar apoi descresc monoton, atingand valoarea maxima cand k n cu exceptia cazului in care b(m-1;n,p) b(m;n,p), cand m (n1)p. Convenim sa numim b(m;n,p) termen central. Deseori m este numit valoarea cea mai probabilia a realizarilor insa trebuie inteles in sensul ca pentru valori mari ale lui n toti termenii b(k;n,p) sunt mici. Spre exemplu, in cazul aruncarii unei monede valoarea cea mai probabila a realizarii banului este 50, dar probabilitatea sa este mai decat 0,08; (in statistica matematica se arata ca valoarea lui b(m;n,p) este aproximativ egala cu  2npq

1/ 2

).

In mod evident, raportul din (4.3.) descreste monoton pe masura ce creste k. Prin urmare, cand kr1 (4.5.)

b( k , n, p) ( n  r )p .  b( k  1, n, p) ( r  1)q

Sa punem aici kr1,...,r si sa inmultim cele  inegalitati. Se obtine 

(4.6.)

b( r   , n, p)  ( n  r )p    . b( r , n, p)  ( r  1)q 

Pentru rnp fractia din paranteza dreapta ramane mai mica decat unitatea si sumarea dupa  conduce la o serie geometrica finita cu ratia

( n  r )p . ( r  1)q

Conchidem, deci, ca pentru rnp n r

(4.7.)

 b( r   , n, p)  b( r , n, p)  0

( r  1)q r  1  ( n  1)p

care ne da probabilitatea de a avea cel putin r realizari. In mod similar rezulta ca, pentru s np

112

s

(4.8)

( n  s  1) p

 b(  ; n, p)  b( s; n, p) ( n  1) p  s  0

S-a dovedit, astfel Teorema 4.1.3. Daca rnp, probabilitatea obtinerii a cel putin r realizari satisface inegalitatea (4.7.); daca s np, probabilitatea obtinerii a cel mult s realizari satisface inegalitatea (4.8.). 4.2. Legea numerelor mari Asa cum am mai precizat in cateva randuri, notiunea noastra intuitiva de probabilitate se bazeaza pe urmatoarea presupunere. Daca in n probe identice evenimentul A apare de  ori, si daca n este suficient de mare, atunci /n se apropie oricat de mult de probabilitatea p a evenimentului A. Cum o teorie matematica formala cauta totdeauna sa prezinte cat mai exact fenomenele reale pe care le studiaza, vom interpreta si noi, aici, “extragerile identice” ca “extrageri de tip Bernoulli” cu p probabilitatea unei realizari. Daca Sn este numarul de realizari din n extrageri atunci, Sn/n este frecventa relativa a realizarilor si ar fi apropiata de p. Se poate da, acum, un sens precis acestui fapt. Sa consideram, spre exemplu, probabilitatea ca Sn/n sa depaseasca p, unde 0 este fixat si arbitrar de mic. Aceasta probabilitate este aceeasi ca si PSnn(p) si egala cu membrul stang al inegalitatii (4.7) cand r este cel mai mic intreg care depaseste n(p). Atunci (4.7) implica (4.9.)

PSn  n( p   ) b( r , n, p)

n( p   )  q n  q

Pe masura ce n creste fractia din membrul al doilea al inegalitatii ramane marginita, in timp ce b(r;n,p)0 deoarece b(r;n,p)b(k;n,p) pentru fiecare k astfel incat (n1)pkr si exista aproximativ n astfel de termeni. Urmeaza ca, in timp de n creste, PSnn(p)0. Folosind, acum, inegalitatea (4.8.) se constata, in acelasi fel, ca P Snn(p-)0. Prin urmare a rezultat ca (4.10)

S  P n  p     1  n 

ceeace inseamna ca daca n este suficient de mare probabilitatea ca, abaterea frecventei relative a realizarilor fata de p, sa fie in valoare absoluta mai mare decat  tinde la zero. Aceasta este o forma de prezentare a legii numerelor mari, ce serveste ca baza pentru notiunea intuitiva de probabilitate ca masura a frecventelor relative. Pentru aplicatii practice ea trebuie completata printr-o estimare mai precisa a probabilitatii situata in partea stanga din (4.10); o asemenea estimare este furnizata de aproximarea normala a repartitiei binomiale, (4.10) fiind, de fapt, o consecinta a acesteia. Obisnuim sa ne referim la (4.10.) ca fiind legea clasica a numerelor mari. Ea, insa, prezinta un interes destul de limitat, astfel ca ea este inlocuita prin legea tare a numerelor mari, mai precisa si mai folositoare, la care ne vom referi in cap 12. Observatie. Se obisnuieste sa se citeasca in legea numerelor mari obiecte pe care ea nu le implica in mod explicit. Daca indivizii X si Y arunca o moneda perfecta de 10.000 ori se crede, 113

din obisnuinta, ca X va avea un avans de jumatate de timp, aproximativ. Aceasta, insa, nu este adevarat. Probabilitatea ca X sa conduca in mai putin de 20 probe este mai mare decat probabilitatea ca numarul probelor in care el conduce sa se gaseasca intre 4990 si 5010, de exemplu. Legea numerelor mari nu afirma ca frecventa relativa ar fi egala cu probabilitatea ci numai ca, pentru un numar mare de probe, frecventa acelora in care se realizeaza banul, la orice moment dat, se apropie oricat de mult de 1/2. Pentru precizare se obisnuieste sa se spuna ca frecventa relativa tinde in probabilitatea catre p. 4.3. Repartitia Poisson 2) Multe aplicatii conduc la probe de tip Bernoulli unde, comparativ vorbind, n este mare si p este mic, in timp ce produsul (4.11.)

np

este de marime moderata. In aceste cazuri, este convenabil sa se foloseasca o formula de aproximare pentru b(k;n,p) datorata lui Poisson, pe care o vom stabili in cele ce urmeaza. Avem, deci, (4.12.)

b(0;n,p)(1-p)n

sau, tinand seama de (4.11) (4.13.)

b(0;n,p)(1-(/n))n

Trecand, acum, la logaritmi si folosind dezvoltarea Taylor a logaritmului natural (4.14.) 1 1 1 ln(1  t )  t  t 2  t 3  t 4  ... 2 3 4 cu  1t 1,rezulta 2

3

    ln b(0, n, p )  n ln1       2  ... n 2n 3n  astfel ca pentru un n suficient de mare (4.15.)

b(0;n,p)e-,

(semnul  inseamna egalitate aproximativa). In plus, din (4.3.) reiese ca, pentru orice k fixat si n suficient de mare, avem (4.16.)

b( k , n, p)   ( k  1)p    b( k  1, n, p) kq k

Pentru k1 se obtine, de aici si din (4.15.), ca b(1;n,p)e-. Analog, pentru k2 rezulta b(2;n,p)

2   e < iar, in general, prin inductie se gaseste 2

(4.17.)

k   P(k;n,p) e k!

Aceasta este cunoscuta aproximatie Poisson a distributiei binomiale. Deoarece este de dorit sa existe un simbol pentru membrul drept din (4.17.), sa punem

2)

Siméon Denis Poisson (1781-1840) 114

(4.18.)

P(k;)

k   e . k!

Cu aceasta notatie, P(k;) este o aproximatie pentru b(k;n,/n) cand n este suficient de mare. Observatie. De fapt, se vede fara greutate ca, daca n si p0 astfel incat np r\m=ne constant atunci, b(k;n,p) tinde uniform la P(k;) pentru orice k. Am vazut ca distributia binomiala este definita prin relatia  n b(k;n,p)   p k q n k  k

de unde punand p/n rezulta n( n  1)...( n  k  1) k   b(k;n,p)  k 1   k! n n 

n k

n( n  1)...( n  k  1) k     1   k k!  n n

n k

Prin urmare, k   lim b( k , n, p)  lim  1   n k ! n n

n k

adica lim b(k;n,p) 

k   e . k!

Exemplul 4.3.1. In tabelul 4.2, de mai jos, se compara P(k;1) cu repartitia binomiala pentru n 100, p1/100. k

b(k;100,1/100 )

p(k;1)

Nk

0

0,366032

0,367879

41

1

0,369730

0,367879

34

2

0,184865

0,183940

16

3

0,060999

0,061313

8

4

0,014942

0,015328

0

5

0,002898

0,003066

1

6

0,000463

0,000511

0

7

0,000063

0,000073

0

8

0,000007

0,000009

0

9

0,000001

0,000001

0

Tabel 4.2 Tabelul arata ca aproximarea este satisfacuta pentru multe situatii. (Aici primele coloane ilustreaza aproximarea Poisson a distributiei binomiale. Ultima coloana contine numarul grupelor de 100 perechi de cifre aleatoare, in fiecare din ele combinatia (7,7) aparand exact de k ori) Deci, ca ilustrare, sa luam aparitia combinatiei (7,7) in 100 perechi de cifre aleatoare, care au distributia binomiala b(k;100,1/100). Atunci, ultima coloana a tabelului de mai sus da rezultatul 115

calculului in 100 grupe de cate 100 cifre aleatoare fiecare. Pentru a obtine frecventele relative trebuiesc impartiti toti intregii din ultima coloana la 100. Aceste frecvente corespund, in mod acceptabil, probabilitatilor teoretice. Exemplul 4.3.2. Care este probabilitatea pk ca, intr-o societate de 500 oameni, k dintre ei sa fie nascuti in ziua de Anul Nou ? Daca cei 500 de oameni sunt alesi la intamplare, putem aplica schema a 500 probe Bernoulli, probabilitatea unei realizari fiind p 1/365. Atunci p0(364/365)5000,2537... Pentru aproximarea Poisson punem 500/3651,3699.... Deci P(0;)0,2541 care implica o eroare numai la nivelul zecimilor de miimi. Pentru k1,2,3 valorile corecte ale lui pk, calculate din formula binomiala, sunt p10,3484..., p20,2388..., p30,1089..., p40,0372..., p50,0101..., p60,0023... Aproximarile

Poisson

corespunzatoare

sunt

P(1;)0,3481...,

P(2;)0,2385...,

P(3;)0,1089..., P(4;)0,0373..., P(5;)0,0102..., P(6;)0,0023... Toate erorile sunt de ordinul zecimilor de miimi. Exemplul 4.3.3. Ne referim in acest exemplu la persoanele centenare. La nastere fiecare persoana are o sansa mica de a trai 100 ani si, intr-o comunitate numeroasa, numarul zilelor de nastere este mare. Datorita razboiului, accidentelor, epidemiilor, etc., diferite fiinte u mane nu sunt independente stochastic, dar ca o prima aproximatie putem compara n zile de nastere cu n probe Bernoulli, considerand ca avem o realizare daca moartea survine dupa 100 ani. Intr-o comunitate stabila unde nici volumul comunitatii nici coeficientul de mortalitate nu sufera schimbari considerabile, este normal sa ne asteptam ca frecventa anilor in care mor exact k centenari sa fie aproximativ P(k; ), unde  depinde de volumul comunitatii si de gradul de sanatate al acesteia. Pana acum am folosit expresia Poisson (4.18) numai ca o aproximare convenabila a distributiei binomiale in cazul cand n este suficient de mare si p este mic. Avem de-a face aici cu un caz special al faptului remarcabil ca exista cateva distributii deosebit de importante care apar intr-o varietate surprinzator de mare de probleme cu implicatii in teoria probabilitatilor, cum sunt repartitia binomiala, repartitia normala (asupra careia nu insistam aici) si repartitia Poisson data de (4.18) asupra careia vom mai insista inca. Notam, mai intai, ca adunand ecuatiile (4.18) pentru k1, 1, 2, 3, . . ., se obtine in membrul drept de e- ori seria Taylor pentru e  . Deci pentru orice k fixat cantitatile P(k;) au suma egala cu unitatea si, prin urmare, ne putem imagina un experiment ideal in care P(k; este probabilitatea a avea k realizari. Vom arata, acum, de ce multe experiente fizice si observatii statistice, in mod natural, conduc la o astfel de interpretare a relatiei (4.18). Adevarata natura a repartitiei Poisson va aparea numai in legatura cu teoria proceselor stochastice la care nu ne vom referi in cele de fata. Sa consideram o secventa de evenimente aleatoare care apar in timp, asa cum sunt dezintegrarea radioactiva sau apelurile care sosesc la o centrala telefonica. Sa reprezentam 116

fiecare eveniment printr-un punct pe axa timpului si sa urmarim repartitia aleatoare a punctelor. Exista multe tipuri diferite de asemenea repartitii, studiul lor apartinand domeniului probabilitatilor continue, aici, insa, ne vom unele conditii fizice care conduc la P(k;) ca probabilitatea de a gasi k puncte (evenimente) intr-un interval fixat de lungime stabilita. Asemenea supozitii fizice pe care dorim sa le exprimam matematic se refera la faptul ca conditiile in care se desfasoara experimentul raman constante in timp si ca intervalele de timp care nu se suprapun sunt independente stochastic in sensul ca informatia privitoare la numarul de evenimente dintr-un interval nu dezvaluie nimic cu privire la alt interval. Intr-o teorie caracterizata prin repartitia continua de probabilitati aceste formulari se pot da direct, dar cum aici ne referim la o repartitie discreta de probabilitati, vom folosi un model finit aproximativ trecand apoi la limita. Sa ne imaginam intervalul de timp unitate impartit intr-un numar mare de intervale, fiecare avand lungimea 1/n. Un subinterval particular este, atunci, ori este vid ori contine cel putin unul dintre punctele noastre aleatoare (sau evenimente) si convenim sa consideram aceste doua posibilitati ca nerealizare si respectiv realizare. Probabilitatea pn a realizarii trebuie sa fie aceeasi pentru toate cele n subintervale, deoarece ele au aceeasi lungime. Atunci, independenta pe care am presupus-o relativ la intervalele care nu se suprapun implica faptul ca avem n probe de tip Bernoulli, probabilitatea de a obtine k realizari fiind data de b(k;n,p n). Se intelege ca numarul realizarilor nu este in mod necesar acelasi cu numarul punctelor aleatoare, deoarece un subinterval poate contine diferite puncte aleatoare. Insa, este normal sa se introduca presupunerea suplimentara ca probabilitatea a doua sau mai multor puncte aleatoare, de-a lungul unui interval de timp foarte scurt, sa fie neglijabila la limita. [Aceasta presupunere apare implicit in descrierea intuitiva a punctelor aleatoare izolate. Insa, este necesar sa se excluda posibilitatea ca evenimentele sa apara in dubleti. Spre exemplu, daca evenimentele sunt accidente de automobil atunci, probabilitatea sa apara doua evenimente intr-un interval scurt de timp este neglijabila in comparatie cu probabilitatea unui eveniment. Pe de alta parte, un accident este de natura sa implice doua masini si, daca evenimentele inseamna “o masina lovita”, atunci ele au sansa sa apara in perechi si presupunerea facut nu se apli cat. In acest caz, probabilitatea de a gasi k puncte aleatoare in intervalul de timp unitate este data de limita lim b k , n, p n  . Impartind fiecare subinterval in doua parti, de lungime egala, se n

obtine pn=2p2n-p22n; aceasta relatte exprima faptul ca realizarea intr-un interval de lungime 1/n inseamna ori realizarea in jumatatea stanga ori realizarea in jumatatea dreapta, ori in ambele. Urmeaza ca pn 2p2n , ceea ce sugereaza ca npn este monoton crescator. Daca npn atunci, b(k;n,p n) ~ b(k;n,/n)P(k;) si se gaseste, astfel, (4.18.) ca probabilitatea sa existe un total de k puncte aleatoare continute in intervalul unitate. Presupunerea npn, nu conduce la vreun rezultat apreciabil, desi ae implica o infinitate de puncte aleatoare chiar in cel mai mic interval. Daca in locul intervalului unitate se ia un interval arbitrar de lungime t si se foloseste din nou o subdivizare in intervale de lungime 1/n, atunci avem de-a face cu probe de tip Bernoulli, avand aceesi probabilitate pn a realizarii, numarul probelor fiind un intreg mai apropiat de nt decat de n. 117

Trecerea la limita se face la fel doar ca se obtine t in loc de . Aceasta ne conduce la a considera  t

P k , t   e

 t  k

(4.19.) k! ca probabilitatea obtinerii a exact k puncte intr-un inteval fixat de lungime t. In particular, probabilitatea de a nu avea nici un punct intr-un interval de lungime t este

P 0,t   e t

(4.20.)

astfel ca probabilitatea de a avea unul sau mai multe puncte este, deci, 1 -e-t. Parametrul  este o constanta fizica ce determina densitatea punctelor pe axa t. Cu cat  este mai mare cu atat este mai mica probabilitatea (4.20) de a nu gasi nici un punct intr-un interval de lungime t. Sa presupunem ca un experiment fizic este repetat de un numar mare N, de ori, si ca, de fiecare data, socotim numarul evenimentelor dintr-un interval de lungime fixata t. Fie Nk numarul de repetari a experimentului in urma caruia s -au observat k evenimente. Atunci N0 N1 N2. . . N. Numarul total de puncte observate in cele N experimente este N1 2N2 3N3. . . T

(4.21.)

T fiind valoarea medie. Daca N este mare, ne asteptam ca N

Nk  NP(k; t)

(4.22.).

[Aceasta sta la baza tuturor aplicatiilor probabilitatii si ii vom da o justificare mai precisa intr-un cap. 12. Substituind (4.22.) in (4.21.) gasim T  N P 1, t   2 P 2, t   3P 3, t   ...  Ne

 t

 t t 2  t 1    ...  Nt 1 2!  

si deci t 

T N

(4.23.)

Aceasta relatie da o semnificatie a estimarii lui  din observatii si a compararii teoriei cu experimentele. Observatie. S-a considerat pana acum repartitia evenimentelor aleatoare sau punctelor de-a lungul axei t, dar acelasi rationament se aplica repartitiei punctelor in plan sau in spatiu. In locul intervalelor de lungime t vom avea domenii de arie sau volum t, iar ipoteza fundamentala va fi ca, probabilitatea de a gasi k puncte in orice domeniu stabilit sa depinda numai de aria sau volumul domeniului si nu de configuratia sa. In caz contrar se va rationa in aceleasi ipoteze ca mai inainte: 10 daca t este mic, probabilitatea de a gasi mai mult decat un punct intr-un domeniu de volum t este mica in comparatie cu t; 20 domeniile care nu se suprapun sunt in mod reciproc independente. Pentru a gasi probabilitatea ca un domeniu de volum t sa contina k puncte aleatoare, impartim domeniul in n subdomenii si aproximam probabilitatea ceruta prin probabilitatea a k realizari in n probe. Omitand posibilitatea de a gasi mai mult decat un punct in 118

acelasi subdomeniu, presupunerea 1 0 implica faptul ca eroarea tinde la zero cand n. La limita se obtine, din nou, repartitia Poisson (4.19). De fapt, stelele in spatiul cosmic, stafidele in cozonac, semintele de buruiana printre semintele de iarba, defectele intr-o stofa, cirezile de animale pe camp, toate se distribuie in concordanta cu legea lui Poisson. In continuare, vom prezenta cateva exemple relative la repartitia Poisson. Se stie probabil ca repartitia Poisson a devenit cunoscuta ca “legea numerelor mici” sau a “evenimentelor rare”. Acestea insa, sunt interpretari gresite care s-au dovedit daunatoare realizarii rolului fundamental al repartitiei Poisson. Exemplele urmatoare vor arata cat de inselatoare sunt cele doua denumiri. Exemplul 4.3.4. (Dezintegrarea radioactiva). O substanta radioactiva emite  particule; numarul particulelor care ajung intr-o portiune data a spatiului in timpul t este cel mai bine cunoscut exemplu de evenimente aleatoare care se supun legii lui Poisson. Bineinteles ca substanta continua sa se descompuna si, cu timpul, densitatea -particulelor va scadea. Insa, in ceea ce priveste radiul trebuie sa treaca cativa ani pentru a putea detecta o reducere a substantei, astfel ca pentru perioade relativ scurte conditiile pot fi considerate constante si putem spune ca avem o realizare ideala a ipotezelor care conduc la repartitia Poisson. Intr-un renumit experiment3) a fost observata o substanta radioactiva pe parcursul a N2608 intervale de timp de 7.5 secunde fiecare si s-a stabilit, pentru fiecare perioada, numarul particulelor care au ajuns la un contor. Tabelul de mai jos prezinta rezultatele cu privire la numarul Nk de perioade cu k particule. Numarul total al particulelor este T T = kNk = 10.094, iar media = 3,870 . Valorile teoretice N p(k;3,870) N k

Kn

Np(k;3,870)

0

57

54,399

1

203

210,523

2

383

407,361

3

525

525,496

4

532

508,418

5

408

393,515

6

273

253,817

7

139

140,325

8

45

67,882

9

27

29,189

k10

16

17,075

Total

2608

2608.000

Tabel 4.3

3)

Rutherford, Chadwich si Ellis - “Radiations from radioactive substances”, Cambridge, 1920, p.172. 119

se vede ca sunt apropiate de valorile observate Nk. Pentru a aprecia densitatea fluxului de particule, este necesara o estimare a marimii probabile a fluctuatiei sansei. De obicei, pentru aprecierea densitatii fluxului se foloseste criteriul 2 (studiat in statistica matematica drept un criteriu de baza pentru verificarea ipotezelor statistice) cu ajutorul caruia se constata o abatere fata de tabelul 4.3, in conditii ideale, cam de 17 dintr -o 100 de cazuri comparabile. Exemplul 4.3.5. Ca exemplu de distributie spatiala a punctelor aleatoare vom considera datele statistice privind bombardarea cu bombe dirijate ( bombe cu autonomie de deplasare) a zonei sudice a Londrei in timpul celui de-al doilea razboi mondial 4) . Intreaga suprafata a fost impartita in N576 arii mici de cate t1/4 km2 fiecare, inregistrandu-se intr-un tabel, ca cel de mai jos, numarul Nk al suprafetelor lovite de k bombe. K 0 1 2 3 4 5 si mai multe Nk

229

211

93

35

7

1

Np(k; 0,9323)

226,74

211,39

98,54

30,62

7,14

1,57

Tabel 4.4 Numarul total al loviturilor de bombe este T   kN k  537 , cu media tT/N0,9323... Aplicarea repartitiei Poisson se face, deci, cu succes. Este interesant de retinut ca s-a crezut ca exista o tendinta a punctelor de ciocnire de a se ingramadi. Daca acest lucru ar fi fost adevarat, atunci ar fi existat o frecventa mai mare a suprafetelor avand ori multe lovituri ori nici una si o diminuare a claselor intermediare. Tabelul 4.4 indica un caracter aleator si omogenitate perfecta a suprafetelor, el constituind o ilustrare instructiva a faptului bine cunoscut ca, pentru un ochi neexperimentat, caracterul aleator apare ca o regularitate sau ca o tendinta de aglomerare, de ingramadire. Sa consideram, acum, o secventa de n probe Bernoulli. Cat de lunga trebuie sa fie pentru a depinde de a r-a realizare ? (r este un intreg pozitiv fixat). Numarul total de realizari in n probe poate fi, bineinteles, mai mic decat r, dar probabilitatea, ca cea de-a r-a realizare sa se produca la proba n este, in mod clar, independenta de n, depinzand numai de , r si p. Deoarece, in mod necesar, r este preferabil sa se scrie =k+r. Probabilitatea ca a r-a realizare sa se produca la proba rk (unde k0,1,2,. . . ) va fi notata prin f(k;r,p). Ea este egala cu probabilitatea ca exact k nerealizari sa preceada cea de-a r-a realizare. Acest eveniment apare daca si numai daca printre cele rk-1 probe exista k nerealizari, iar urmatoarea proba sau cea de-a rk-a, duce la o realizare. Probabilitatile corespunzatoare sunt  r  k  1 r 1 k   p q k 

si p, astfel incat

4)

R.D. Clarke - “An application of the Poisson distribution”, Journal of the Institute of Actuaries, vol. 72, (1946), p.48 120

 r  k  1 r k f(k;r,p)   p q . k 

(4.24.)

Tinand seama de faptul ca pentru orice a0   a k  a  k  1     1   k  k 

obtinem din (4.24.)

  r k f(k;r,p)    p r   q , k0,1,2, . . . k 

(4.25.)

Sa presupunem, mai departe, ca extragerile de tip Bernoulli sunt continuate atat cat este necesar pentru ca sa depinda de r realizari. Un punct caracteristic este reprezentat printr-o secventa care contine un numar arbitrar, k, de litere N si exact r litere R, secventa terminandu-se printr-un R; probabilitatea unui asemenea punct este, prin definitie, p rqk . Trebuie, insa, sa ne punem intrebarea daca este posibil ca extragerile sa nu se sfarseasca niciodata, adica daca o secventa infinita de extrageri poate produce mai putin de r realizari. 

Atunci,  f ( k , r , p) este probabilitatea ca a r-a realizare sa se produca dupa un numar finit de k0

extrageri. In consecinta, se poate nesocoti posibilitatea de a avea o secventa infinita cu mai putin de r realizari daca si numai daca 

 f ( k , r , p)  1.

(4.26.)

k0

Pentru a dovedi ca (4.26.) are loc este suficient sa se observe ca 

r 

 k ( q )

k

= (1-q)k = p-r

(4.27.)

k 0

Inmultind, acum, (4.27.) cu pr rezulta tocmai (4.26.). Dupa cum se vede, marimea definita de relatiile (4.24.) sau (4.25.) este nenegativa, iar (4.26.) are loc pentru orice r pozitiv. Pentru r 0 arbitrar si 0 p1, secventa f ( k; r, p ) poarta numele de repartitie binominala negativa. Cand r este un intreg pozitiv, f ( k; r, p ) poate fi interpretata ca reapartitia probabilista a timpului de asteptare pentru producerea celei de a r-a realizari. Ea mai este numita deseori si repartitie Pascal. Pentru r1 se reduce la repartitia geometrica pqk. Exemplul 4.3.6. (Problema lui Banach, comunicata de H. Steinhaus ). Un anume matematician poarta totdeauna o cutie cu chibrite in buzunarul din dreapta al hainei si una in cel din stanga. Cand vrea sa aprinda un chibrit, el alege o cutie la intamplare, 1 . Sa presupunem ca la 2 inceput, in fiecare cutie, au fost N bete de chibrit si sa consideram momentul in care matematicianul respectiv descopera, pentru prima oara, ca o cutie este goala. In acel moment,

alegerile succesive constituind, astfel, extrageri de tip Bernoulli cu p 

cealalta cutie poate contine 0, 1, 2, . . . , N chibrituri si fie ur probabilitatile corespunzatoare. Sa identificam “o realizare” cu o alegere a cutiei din buzunarul stang. Matematicianul va descoperi 121

ca in buzunarul stang are o cutie goala intr-un moment cand cutia din buzunarul drept contine exact r bete daca si numai daca realizarea N1 este precedata de N-r nerealizari. Probabilitatea acestui eveniment este f(N-r; N+1, 1/2). Cum acelasi rationament se aplica pentru cutia din buzunarul drept, rezulta ca probabilitatea cautata este

1  2 N  r  -2N+r ur = 2f(N-r;N+1, )   2 2  N 

(4.28.)

Valorile numerice pentru cazul N50 sunt date in tabelul urmator r

ur

Ur

0

0.079589

0.079589

2

0.079589

0.159178

3

0.078785

0.237963

4

0.077177

0.315140

5

0.074790

0.389931

6

0.067902

0.529506

7

0.063568

0.593073

8

0.058783

9.651855

9

0.053671

0.705527

10

0.048363

0.753890

11

0.042989

0.796879

12

0.037676

0.834555

13

0.032538

0.867094

14

0.027676

0.894770

15

0.023171

0.917941

16

0.019081

0.937022

17

0.015447

0.952469

18

0.012283

0.964752

19

0.009587

0.974338

20

0.007338

0.981676

21

0.005504

0.987180

22

0.004041

0.991220

23

0.002901

0.994121

24

0.002034

0.996155

25

0.001392

0.997547

26

0.000928

0.998475

27

0.000602

0.999077

28

0.000379

0.999456

29

0.000232

0.999688

122

4.4. Repartitia multinomiala Repartitia binomiala poate fi generalizata, fara greutate , la cazul a n probe repetate in mod independent, unde fiecare proba poate avea unul sau mai multe rezultate. Sa notam prin E1, . . . , Er rezultatele posibile ale fiecarei probe si sa presupunem ca probabilitatea realizarii lui Ei in fiecare proba este pi ( i  1, . . . , r ). Pentru r  2 avem probe Bernoulli, in general, numerele pi nu sunt supuse decat conditiei

p1  . . .  pr  1,

pi  0

(4.29.).

Rezultatul a n probe este o secventa de tipul E2E1E3 . . . Probabliltatea ca in n probe E1 sa apara de k1 ori, E 2 sa apara de k 2 ori, etc., este n! p1k1 p 2k 2 p 3k3 ... p rk r k1!k 2 !...k r !

(4.30.)

Aici ki sunt intregi arbitrari nenegativi care satisfac conditia k1  k 2... k r  n

(4.31.).

Daca r  2, atunci (4.30.) se reduce la repartitia binominala cu p1p, p2q, k1k, k2n-k. Relatia (4.30.) poarta numele de repartitie multinominala deoarece membrul drept este n

termenul general al dezvoltarii multinominale a polinomului  p1... pr  . Principala sa aplicatie se intalneste la modelele bazate pe schema bilei intoarse cand elementele se clasifica in mai mult decat doua categorii ( de exemplu, clasificarea indivizilor dupa profesii). Exemplul 4.4.1. Aruncand 12 zaruri, care este posibilitatea de a obtine fiecare fata de doua ori? Evenimentele E1, . . . , E r reprezinta cele sase fete , ki sunt, fiecare, egali cu 2, iar fiecare p i este 1 6 12 . Rezulta, deci, 12! 2  6  0.0034... 6 Exemplul 4.4.2. ( Selectie) .

egal cu

Fie o populatie cu N elemente impartita in subclasele E 1, . . . , E r de volum, respectiv, N p1, . . . , N pr. Repartitia multinominala da probabilitatile diferitelor combinatii posibile a unei selectii repetate de volum n luata din aceasta populatie. Exemplul 4.4.3. (Probe Bernoulli multiple).. Doua secvente de probe Bernoulli cu probabilitatile p 1, q1 pentru realizari si p 2, q2 pentru nerealizari (sau insuccese), pot fi considerate ca un experiment compus cu patru rezultate posibile, in fiecare proba, adica combinatiile (R,R), (R,I), (I,R), (I,I). Presupunerea ca cele doua secvente initiale sunt independente, poate fi exprimata in felul urmator: probabilitatile celor patru rezultate sunt p1p2,, p1q2., q1p2, si q1q2 respectiv. Daca k1, k2, k3, k4 sunt patru intregi de suma n, probabilitatea ca in n probe (RR) sa apara de k 1 ori , (RI) de k 2 ori, etc., este n! k k k k k k k k p1 1 2 q1 3 4 p21 3 q 2 2 4 k1 ! k 2 ! k.3 ! k 4 !

123

4.5. Repartitia normala. Teorema limita D e Moivre-Laplace. In acest paragraf, vom introduce doua functii deosebit de importante. Definitia 4.5.1. Functia definita prin g x 

1

 2

1 2

1  x2 e 2

(4.32.)

se numeste functia densitate normala; iar integrala sa 1

N x 

 2

1 2 x  2y

e

1   2

dy

(4.33.)

poarta numele de functie de repartitie normala. Graficul functiei g(x) este o curba descrescatoare, simetrica fata de axa coordonatelor, avand forma de clopot, asa cum se observa in figura 4.4.1 0,5 0,4

φ(x)

0,3 0,2 0,399 0,1 0 -3

-2

0,242

-1 –0,67 0,67 1 50% din arie

2

3

x

68,3% din arie 95,6% din arie 99.7 % din arie Fig. 4.1

Precizam ca s-au folosit unitati de masura diferite pe cele doua axe: maximum functiei g(x) este aproximativ  2



1 2

 0.399 , astfel ca intr-un sistem cartezian obisnuit curba yg(x) va fi mai

turtita.

124

Lema 4.5.1. Domeniul marginit de graficul functiei g(x) si axa xx’ are aria egala cu unitatea, adica 

 g( x )dx  1 .

(4.34.)



Demonstratie. Se observa ca 2

1





2 2     1    2 x  y dxdy .   g( x )dx    g( x )g( y )dxdy    e 2      

Dar aceasta integrala dubla poate fi exprimata in coordonate polare astfel 1

2

1

1

2

2

  r  r 1 2   2r d  e r dr   e 2 r dr   e 2   0 1 , 2 0 0 0 ceeace dovedeste lema. Din definitia 4.5.1 si lema 4.5.1 rezulta ca N(x) creste tot timpul de la 0 la 1. Graficul ei (figura 4.4.2.) este o curba in form de S cu

N(-x)1-N(x)

(4.35)

N(x) 1 0.9 0.8 0.7 0.6 0,5 0.4 0.3 0.2 0.1 -3 -2

-1 -0.67

0 0.67

1

2

3

x

Fig.4.2.

125

Prezentam in tabelul 4.6 de mai jos, doar ca orientare, valori ale lui N(x) pentru x pozitiv, N(-x) obtinandu-se din (4.35.).

t

g(t)

N(t)

0.0

0.398942

0.500000

0.1

0.396952

0.539828

0.2

0.391043

0.579260

0.3

0.381388

0.617911

0.4

0.368270

0.655422

0.5

0.352065

0.691462

0.6

0.333225

0.725747

0.7

0.312254

0.758036

0.8

0.289692

0.788145

0.9

0.266085

0.815940

1.0

0.241971

0.841345

1.1

0.217852

0.864334

1.2

0.194186

0.884930

1.3

0.171369

0.903200

1.4

0.149727

0.919243

1.5

0.129518

0.933193

1.6

0.110921

0.945201

1.7

0.094049

0.955435

1.8

0.078950

0.964070

1.9

0.065616

0.971283

2.0

0.053991

0.977250

2.1

0.043984

0.982136

2.2

0.035475

0.986097

2.3

0.028327

0.989276

2.4

0.022395

0.991802

2.5

0.017528

0.993790

2.6

0.013583

0.995339

2.7

0.010421

0.996533

2.8

0.007915

0.997445

2.9

0.005953

0.998134

3.0

0.004432

0.998650

3.1

0.003267

0.999032

3.2

0.002384

0.999312 126

3.3

0.001723

0.999517

3.4

0.001232

0.999663

3.5

0.000873

0.999767

3.6

0.000612

0.999841

3.7

0.000425

0.999892

3.8

0.000292

0.999928

3.9

0.000199

0.999952

4.0

0.000134

0.999968

4.1

0.000089

0.999979

4.2

0.000059

0.999987

4.3

0.000039

0.999991

4.4

0.000025

0.999995

4.5

0.000016

0.999997 Tabelul 4.6

In multe situatii este convenabil sa se cunoasca o estimare elementara pentru 1-N(x) cand x este suficient de mare. Are loc astfel Lema 4.5.2. Cand x

1

1-N(x) 

1 2

e

1  x2 2

;

(4.36.)

( 2 ) x mai exact, pentru fiecare x 0 are loc dubla inegalitate

1

2 

e

1 2

1  x2 2

1

 x2 1 1 1 1  2     1  N x  e 1  x x 3  x 2  2

(4.37.)

Demonstratie. Se poate verifica, prin diferentiere, ca

1

2 

1 2

e

1  x2 2



1

 y2 1 1 2  e 1  y 2 dy 1  x 2  2 x





iar integrantul din membrul drept este mai mare decat integrantul din 1  N (x) 

1

 2

 1y2 e 2 dy

1  x 2

ceeace dovedeste a doua inegalitate din (4.37.). Prima inegalitate urmeaza in acelasi fel, folosind drept un nou integrant e

1  y2 2

1

2

 y 3 [1  4 ] care este mai mic decat e 2 . y

Observatie. Termenul functie de repartitie este folosit in literatura matematica pentru functii nedescrescatoare de variabila x care tind la 0 cand x- si la 1 cand x . In statistica

127

se mai intalneste si termenul functie de repartitie cumulativa, dar adjectivul “cumulativ” este abuziv. Functia densitate este o functie nenegativa f(x) a carei integrala extinsa peste intreaga axa a x-ilor este egala cu unitatea. Integarala de la - la x a oricarei functii densitate este functie de repartitie. Functia de repartitie normala este numita adesea repartitie gaussiana , dar ea a fost folosita in teoria probabilitatilor, mai intai, de DeMoivre si Laplace. Daca se schimba originea si  x  a unitatea de masura, atunci N(x) se transforma in N   ; aceasta functie se numeste functie  b 

de repartitie normala cu media a si dispersia b2 . Sa notam prin Sn numarul realizarilor in n probe Bernoulli, o realizare avand probabilitatea p. Atunci, b(k;n,p) este probabilitatea evenimentului ca Snk. In practica intereseaza, in mod obisnuit, probabilitatea evenimentului ca numarul realizarilor sa se gaseasca intre doua limite fixate initial  si  . Daca  si  sunt intregi si   , atunci acest eveniment este

definit

prin

egalitatea

  Sn   ,

iar

P  Sn    b , n, p  b  1, n, p ... b , n, p

probabilitatea

sa

este

(4.38.)

Aceasta suma poate sa aiba multi termeni, astfel ca o evaluare directa, in mod obisnuit, nu este posibila. Din fericire, ori de cate ori n este mai mare, se poate folosi functia de repartitie normala pentru a obtine aproximari simple ale probabilitatii (4.38.). Aceasta descoperire se datoreste lui DeMoivre 5) si Laplace6) . Dupa cum se va vedea, importanta sa depaseste domeniul calculului numeric. Scopul principal pe care-l urmarim este de a obtine o formula asimptotica pentru termenul general

b( k , n, p) 

n! pk q n  k . k !( n  k )!

(4.39.)

Aceasta necesitate se impune datorita dificultatilor considerabile pe care le ridica calculul lui b(k;n,p) din formula (4.39.). O astfel de formula a fost gasita, mai intai, de DeMoivre (in 1730) pentru cazul special cand p=q=1/2. Ulterior, Laplace a generalizat acest rezultat pentru p arbitrar diferit de 0 si 1. Se obtine, astfel, urmatoarea teorema limita. Teorema limita DeMoivre-Laplace. Daca probabilitatea de aparitie a unui eveniment E in n probe independente este constanta si este egala cu p (0
x 1  b(k;np): e 2 1 2npq

cand n, uniform in m, cand x variaza intr-un interval finit, unde

5)

(4.40.) x=(k -np)(npq)-1/2.

Abraham DeMoivre (1667-1754). The doctrine of chance (1718). 128

Demonstratie. Mai intai, pentru calculul factorialilor din (4.40.) vom folosi formula lui Stirling n!(2)1/2nn+1/2e-n (unde am folosit semnul “” pentru a indica faptul ca raportul celor doi membri tinde la 1 cand n). Apoi, din expresia lui x, tinem seama ca

k  np  x (npq )

1 2

si

(4.41.) 1

n  k  nq  x (npq ) 2 Din formulele (4.41.) urmeaza ca, daca x ramane marginit de doua constante arbitrare a si b atunci, atat k cat si n-k tind la infinit cand n. Revenind la (4.39.) obtinem succesiv 1

n!  (2) 2 n 1

k!  (2) 2 k

n

1 2

k

1 2

e n e k 1

(n  k )!  (2) 2 (n  k )

(n k )

1 2

e ( n k )

de unde rezulta 1

 2 n! n nn  . k! (n  k )!  2k (n  k )  k k (n  k ) n  k

Astfel, probabilitatea b(k;n,p) devine 1

  2 n n p k q n k n b( k; n , p)   .  k n k  2k (n  k )  k (n  k )

(4.42.)

Sa consideram, acum, al doilea factor din (4.42.) pe care il vom calcula trecand la logaritmi si tinand seama de formulele (4.41.) k n k  np  k  nq  n  k  n n p k q n k  np   nq  ln k  ln        ln   ln   k (n  k ) n  k  k  n k  k   n  k  

  k ln

k nk  (n  k ) ln  np nq

1 1     1 1 2 2     q p       np  x (npq ) 2  ln 1  x     nq  x (npq ) 2  ln 1  x          np     nq       1

1

 q 2  p 2 Dar, in conditiile impuse, cantitatile x   si x   pot fi arbitrar de mici pentru n  np   nq 

suficient de mare, astfel ca pentru cei doi logaritmi se poate folosi dezvoltarea in serie Taylor a logaritmului natural 6)

Pierre Simon de Laplace (1749-1827). Théorie analytique des probabilités (1812). 129

1 1 1 ln(1  t )  t  t 2  t 3  t 4  ..., (1  t  1). 2 3 4 Marginandu-ne la primii doi termeni obtinem 1 1   2     q q 2 1 qx 2  1  ln 1  x     x     O 3 / 2    2 np n   np   np   

Si

1 1   2 2     p p 1 px 2  1  ln 1  x      x     O 3 / 2 .  2 nq n   nq    nq   

1

1

1 1  q  2 1 qx 2  q 2 1 n n p k q n k qx 2 2 2 2     ln k   xnp  np  x ( npq )  x ( npq )   np   np  k (n  k ) n  k 2 np 2 np     1

1

1 1  p  2 1 px 2  p 2 1 px 2  1  Atunci  xnq   nq  x 2 (npq ) 2    x (npq ) 2  O 3 / 2   2 nq 2 nq n   nq   nq  1

1

 q 2 1  p 2 1 1  1   x 2  x 2  qx 3    px 3    O 3 / 2 . 2 2 2 n   np   nq  1

1

 q 2  p 2 Dar, cum am mai precizat, cantitatile   si   pot fi arbitrar de mici pentru n suficient de  np   nq 

mare, astfel ca, in final

ln

n n p k q n k 1  1    x 2  O 1 / 2 . . k n k k (n  k ) 2 n 

Prin urmare, urmatoarea relatie se pastreaza uniform in x in orice interval finit de variatie a lui x 2

x  n n p k q n k 2  e k n k k (n  k )

sau 2

x  n n p k q n k 2 : e  1. k k (n  k ) n  k

Mai ramane de calculat primul factor din (4.42.). Revenind, din nou, la formulele (4.41.) obtinem 1 2

      n n     2k (n  k )    1 1      2 2  np  x (npq )  nq  x (npq )      1 2

(4.43)

130

1

 2     1  1   . 1  1 1     2 2 2 (npq )    q    p    1  x    1  x      np   nq      

Al doilea factor din (4.43.) tinde la 1 cand n, in mod uniform, in fiecare interval finit de variatie al lui x. Prin urmare, 1

 2 n 1 ,  2k (n  k )   1   2 (npq )

si, in final, cand n rezulta 1

b( k; n , p) 

2npq  Sau

1

b( k; n , p) :

2npq 

e

1 2

e

1 2





x2 2

x2 2

1

ceea ce dovedeste teorema. Exemplul 4.5.1. Sa se determine b(k;n,p) pentru n=10000, k=40, p=0.005. Din teorema DeMoivreLaplace avem

b( k; n , p) 

1

2npq 

1 2

e

 1  k  np   1 2   npq  2

    

2

.

In cazul de fata 1

1

(npq ) 2  (49,75) 2  7.05

iar

k  np (npq )

1 2

 1.42 .

Prin urmare, b( k; n , p) 

1 1

e



(1.42 ) 2 2

.

7.05  2  2

Din tabele rezulta pentru functia

131

1

( x ) 

( 2 )

1 2

e



x2 2

valoarea 0.1456, asa incat b( k; n , p) 

0.1456  0.0206 . 7.05

Pe de alta parte, calculul probabilitatii b(k;n,p) cu formula (4.39.) da valoarea (cu patru zecimale exacte) b(k;n,p)0.0197. Dupa cum se vede aproximarea data de teorema limita DeMoivre-Laplace este, putem spune, surprinzator de buna. Este normal sa ne intrebam, inca, cat de buna este aproximarea probabilitatii b(k;n,p) in cazul datorat lui DeMoivre, adica p=q=1/2. Vom raspunde la aceasta intrebare prin exemplul urmator. Exemplul 4.5.2. Fie, deci, p=q=1/2 si sa luam acele valori ale lui n pentru care este posibil sa avem xnk=1. Spre exemplu, pentru n=25 sau 100 sau 400 sau 1156, se obtine x nk=1 daca m=15, 55, 210 sau, respectiv, 595. Conform teoremei limita DeMoivre-Laplace raportul b( k; n , p) :

1

2npq 

1 2

e



x 2nk 2

1

cand n . In acelasi timp diferenta celor doua expresii tinde la 0 cand n. In tabelul de mai jos sunt prezentate rezultatele calculului. Pentru simplificarea scrierii notam impartitorul de mai sus prin

( x nk )

npq 

1 2

.

n

b(k;n,p)

( x nk )

npq 

1 2

b(k;n,p)-

( x nk )

npq 

1 2

b(k;n,p):

( x nk )

npq 

1 2

25

0.09742

0.09676

0.00063

1.0065

100

0.04847

0.04839

0.00008

1.0030

400

0.024207

0.024194

0.000013

1.0004

1156

0.014236

0.014234

0.000002

1.0001

Tabelul 4.7. Cu notatia din exemplul de mai sus pentru (x), se obtine pentru b(k;n,p) aproximarea de forma urmatoare b(k; n , p)  (npq )



1 2

 ( x k )

(4.44.) 132

Introducand notatia k=k-np, sa presupunem ca n si k in asa fel incat

k  0 si n

3

k  0 . In mod evident, ultima conditie o implica pe prima si este similara cu conditia n2

x 3k n

1 2

 0 . Avem astfel

Teorema 4.5.1. Daca n si k in asa fel incat

xk3 n

1 2

 0 atunci, are loc (4.44.). Cu

alte cuvinte, exista doua constante A si B astfel incat b(k;n,p) 

1 2

(npq) (xk )

3

1 

A B xk 1 .  1 n n2

In figura 4.5.3. se da o ilustrare a teoremei 4.5.1. pentru cazul n=4, p=0.2 si unde npq este doar 1.6 F F F F 0,3 F F 0,2 F F 0,1 F F 0 1 2 3 4 5 6 Fig. 4.3 Chiar si in acest caz extrem de nefavorabil aproximatia este surprinzator de buna. Astfel, valorile probabilitatii b(k;10,0.2) pentru k=0,1,...,6 sunt, respectiv, 0.1074; 0.2684; 0.3020; 0.2013; 0,0880; 0.0264; 0.0055; iar aproximatiile corespunzatoare (npq )



1 2

 ( x k ) sunt: 0.0904;

0.2307; 0.3154; 0.2307; 0.0904; 0.0189; 0.0021. [In figura 4.5.3., functia in scara da probabilitatile b(k;10,1/5) a k realizari in 10 probe Bernoulli cu p=1/5. Curba continua da, pentru fiecare intreg k, aproximatia normala corespunzatoare] . In mod direct, teorema 4.5.1. conduce la aproximatii simple pentru suma (4.38.). Daca 

1



1

(npq ) 2 x 3  0 si (npq ) 2 x 3  0 ,

(4.45.)

atunci (4.44.) ramane neschimbata pentru toti termenii din (4.38.) si, prin urmare,

133



1 2

P[  S n  ]  (npq ) [( x  )  ( x  1 )  ...  ( x  )] .

(4.46.)

    Partea dreapta este o suma Riemann care aproximeaza o integrala [deoarece N x 1   N x 1   k 2   k2  reprezinta aria triunghiului cu baza xk 

1 1   1 1 (npq ) 2  x  x k  (npq ) 2 2 2



1

si marginit in partea superioara de tangenta la curba y=(x) in x=xk, iar (npq ) 2 ( x k ) reprezinta aria dreptunghiului cu aceeasi baza]. Este interesant, deci, de cercetat cat de buna este a ceasta aproximare. In virtutea teoremei valorii medii exista o valoare t k astfel incat 

1

N x k 1   N x k 1   (npq ) 2 ( t k ); xk 

1 1   1 1 (npq ) 2  t k  x k  (npq ) 2 . 2 2

(4.47.)

Atunci, 

1

1

(npq ) 2 ( x k )  e 2

t

2 k

 x 2k

 

    N x k  1   N x k  1  .  2    2

Fie, acum, un >0 arbitrar. Daca conditiile (4.45.) au loc atunci, pentru orice k si n suficient de mare, se obtine 1 1     1 2 1 1 2 2 t k  x k  t k  x k t k  x k  (npq )  x k  (npq ) 2  2 2 4  

de unde rezulta 1            e    N x 1   N x 1   (npq ) 2 ( x k )  e   N x 1   N x 1   k  2   k  2    k 2    k 2 

(4.48.)

    Sumand dupa k, se gaseste ca raportul dintre membrul drept din (4.46.) si N x 1   N x 1    2    2  tinde la 1. S-a obtinut, astfel, o noua varianta a teoremei limita DeMo ivre-Laplace. Teorema 4.5.2. (A doua varianta a teoremei limita DeMoivre-Laplace). Daca  si  variaza astfel incat conditiile (4.45.) se realizeaza, atunci     P[  Sn  ]  N x 1   N  x 1    2    2 

(4.49.)

unde xk=(k-np)(npq)-1/2.

134

Altfel spus, diferenta relativa dintre cei doi membrii ai expresiei (4.49.) tinde la zero odata cu x 3 (npq )



1 2

si x3 (npq )



1 2

.

In particular, (4.49.) se pastreaza daca  si  sunt marginiti de valori pentru care x  si x raman intr-un interval fixat. Ne vom referi ulterior la cazul in care  si  sunt atat de mari incat conditiile (4.45.) nu sunt indeplinite. Se foloseste (4.49.), in aplicatii statistice, in mod obisnuit intr-un interval in care |x| si |x | nu sunt mai mari de 3 sau 4. In aplicatii teoretice, adesea este necesar sa se foloseasca (4.49.) pentru intervale (,) pentru care atat x  cat si x sunt mari. In asemenea cazuri, ambii membrii din (4.49.) sunt mici si este important sa se stie ca raportul lor este apropiat de 1, iar diferenta lor tinde la zero. O forma mai simpla a teoremei limita 4.5.2. se obtine daca, in loc de S n se introduce numarul redus de realizari definit prin

S n 

S n  np (npq )

1 2

.

(4.50.)

Aceasta se reduce la masurarea abaterilor lui S n fata de np in unitati de (npq)1/2. Cantitatea np se numeste media lui Sn, iar (npq)1/2, abaterea patratica medie a sa. [Aceasta vor fi introduse in capitolul 11 ]. Inegalitatea Sn inseamna, acum, x  S n x, in timp ce (4.49.) exprima faptul ca, pentru x <x , fixati si arbitrari, 1   2 ( npq )  P[ x   Sn  x  ]  N x   2  

1    (npq ) 2     N x   2    

  .  

(4.51.)

Dar (npq)-1/20 cand n, astfel ca membrul drept tinde la N(x  )-N(x). Am ajuns astfel la urmatoarea varianta mai slaba a relatiei (4.49.). Corolarul 4.5.1. Pentru fiecare < fixati

P[a Sn  b]  Nb  Na .

(4.52.)

Relatia (4.52.) reprezinta forma clasica a teoremei limita a lui Laplace. Omiterea lui 

1

(npq ) 2 in relatia (4.51.) introduce o eroare care tinde la zero cand n, dar care are, in 2 schimb, o influenta considerabila cand npq are o valoare potrivita. Principalul fapt evidentiat de (4.52.) este ca, pentru un n mare, probabilitatea din partea

stanga este in mod practic independenta de p. Aceasta ne permite sa comparam fluctuatiile in serii diferite de probe Bernoulli simple, uzand d e unitatile la care ne-am referit mai inainte. Observatie. Din punct de vedere istoric, (4.52.) este prima teorema limita in teoria probabilitatilor. Din punct de vedere modern, ea este numai un caz extrem de special al teoremei limita centrala. [ Nu insistam aici asupra acestei chestiuni]. In statistica, (4.52.) este folosita ca o 135

aproximatie chiar cand npq este relativ mic, cazuri in care este necesara o estimare a erorii. De fapt, in multe cazuri, eroarea din (4.44.) este mica in comparatie cu eroarea comisa inlocuind suma din (4.46.) prin integrala. [Aceasta eroare poate fi evitata prin folosirea formulei EulerMacLaurin]. Serge Bernstein a consacrat o serie de articole cercetarii erorii in cazul general si a discutat modul in care sa se modifice definitia lui x t pentru a imbunatati convergenta in (4.49.). De asemenea, este important de retinut ca teoremele de aproximare sunt valabile numai daca numarul n de probe este fixat anterior, independent de rezultatul probelor. Daca la un joc de noroc un jucator se opreste la un moment care-i este favorabil, ultimul sau castig nu poate fi apreciat dupa aproximarea normala pentru ca, acum, durata jocului depinde de sansa. Pentru fiecare n fixat este foarte improbabil ca S n sa fie mare. Insa, intr-o serie lunga de probe chiar cel mai improbabil lucru nu poate sa nu se produca, astfel ca intr-un joc continuu este practic sigur ca S n are o secventa maxima ca ordin de marime. Exemplul 4.5.3. Fie p=1/2, n=200, =95, =105. Aici P[95Sn105] poate sa fie interpretata ca probabilitatea ca, in 200 de aruncari ale unei monede, numarul de aparitii ale valorii are o abatere de cel mult 5 fata de 100. Se are h=(50) -1/2=0.141421... si -x-1/2=x+1/2=(5.5)(npq) -1/2=0.7778...

    Din tabele se obtine N x 1   N x 1   0.56331 ... Valoarea adevarata (obtinuta, de   2    2  asemenea, din tabele) este 0.56325... Eroarea este neinsemnat de mica, dar aceasta numai datorita faptului ca in intervalul in discutie integrala supraestimeaza suma din (4.46.), in timp ce aproximarea (4.44.) subestimeaza fiecare termen. Exemplul 4.5.4. Fie p=1/10, n=500, =50, =55. Valoarea corecta este P[50Sn55]=0.317573... Cum -1/2

(npq) =(45)-1/2=0.1490712... se obtine aproximarea N(5,5(npq) -1/2)-N(0,5(npq) -1/2)=0.3235... Eroarea este de aproape 2%. Exemplul 4.5.5. Sa se gaseasca un numar a astfel incat, pentru un n mare, inegalitatea | S n |>a sa aiba o probabilitate apropiata de ½. Pentru aceasta este necesar ca N(a)-N(-a)=1/2 sau N(a)=3/4. Din tabelele care dau repartitia normala se obtine ca a=0.6745 si, deci, cele doua inegalitati |Sn-np|<0.6745(npq)1/2 si |Sn-np|>0.6745(npq)1/2 sunt aproape egal probabile. In particular, probabilitatea ca, in n aruncari ale unei monede, 1 n  0.337 n 2 este aproape ½. In mod 2 similar, se obtine aceeasi probabilitate ca in n aruncari ale unui zar, numarul de aparitii ale fetei 1

numarul de aparitii ale valorii sa fie situat intre limitele

sa fie situat in intervalul

1 n  0.251n 2 . Probabilitatea ca S n sa se gaseasca intre limitele 6

1

np  2(npq ) 2

este aproape N(2)-N(-2)=0.9545...; iar ca sa se gaseasca intre limitele

1

np  3(npq ) 2 este 0.9973... 136

In final, ne vom referi la cazul cand abaterile sunt mari. In mod frecvent este de dorit ca numarul redus de realizari S n (conform 4.50.) sa depaseasca un numar dat x. Deci limita superioara a intervalului este infinita, ceea ce necesita un rationament special pentru a arata ca teorema limita inca se aplica. Teorema 4.5.3. Daca n si t variaza ca o functie de n in asa fel incat x, iar

x 3 (npq )



1 2

 0 , atunci

P[Sn*  x]  1-N(x)

(4.53.)

Tinand seama de (4.36.) aceasta este echivalenta cu P[Sn*  x] 

1  ( x) x

(4.54.)

Demonstratie. Sa alegem intregii  si  in (4.49.) astfel incat x sa fie intre x  si x+1, iar x x+lnx. Atunci x 3 (npq )



1 2

 0 si (4.49.) ramane, in continuare, adevarata. Prin urmare,

P[  Sn  ]  [1-N(x )] - [1-N(x )] . Dar, din (4.36.) si din faptul ca x  x+ln x , rezulta ca 1-N(x ) este de un ordin de marime mai mic decat 1-N(x ), in timp ce 1-N(x )1-N(x ). Deci P[  Sn  ]  1-N(x) .

(4.54.)

Pe de alta parte, din (4.44.) si (4.7.) se obtine

P[ S n   ] 

n 1 n 1 b(  ; n, p )    ( x )   ( x )   np x  npq pqx 

.

Dar 1/(pq) fiind o constanta, iar

1 ( x  )  1  N( x  ) , x urmeaza ca membrul drept tinde la zero mai repede decat 1-N(x), ceea ce inseamna ca P[S n  ] este de un ordin de marime mai mic decat 1-N(x). Acest rezultat, asociat cu (4.54.), conduce la concluzia ca P[S n  ]  1  N( x ) ceea ce dovedeste teorema.

137

CAPITOLUL 5 Elemente de teoria selectiei OBIECTIVE Notiunile de baza ale statisticii matematice (populatie, selectie, valori tipice(empirice) de selectie) sunt prezentate impreuna ca exemple de natura practica. Datele statistice vor fi caracterizate cu ajutorul reprezentarilor grafice (poligonul frecventelor, h istograma).

-

La sfarsitul acestui capitol, studentii trebuie sa-si insuseasca: Caracteristici numerice de selectie Functia de repartitie de selectie Reprezentari grafice

5.1 Selectie. Repartitie empirica. Colectivitate (populatie) statistica – o multime de elemente (indivizi) ce au in comun o proprietate, o trasatura. Caracteristica unei populatii statistice este proprietatea, trasatura care se studiaza din punct de vedere statistic la populatia aflata in studiu. Caracteristica se asimileaza cu o variabila aleatoare numita teoretica si notata X. Legile de repartitie, valorile tipice ale caracteristicii X se numesc legi de repartitie teoretice respectiv valorile tipice teoretice. Selectia (esantion, sondaj) este o colectivitate partiala obtinuta prin extragerea la intamplare din populatia statistica a unui numar n limitat de indivizi si masurarea lor din punctul de vedere al caracteristicii studiate. Numarul n reprezinta volumul selectiei. Selectia repetata – individul extras din populatie si supus masurarii din punct de vedere al caracteristicii studiate se reintroduce in colectivitate inainte de a se extrage urmatorul. Selectia nerepetata – cazul contrar selectiei repetate.Daca volumul n al selectiei este foarte mic in raport cu volumul populatiei aflat in studiu nu se mai fac distinctii intre cele doua tipuri de

x1 , x 2 ,..., x n selectie. Intr-o selectie realizata, valorile : observate (masurate) pe indivizii selectiei pot fi considerate ca valori a n variabile aleatoare independente :

X 1 , X 2 ,..., X n avand aceiasi repartitie teoretica cu cea a caracteristicii X studiate. Variabilele : X 1 , X 2 ,..., X n se numesc variabile de selectie. 138

Frecventa absoluta vi a valorii xi , obtinuta intr-o selectie realizata de volum n, reprezinta numarul de aparitie a valorii x i in cadrul selectiei realizate. Frecventa relativa fi a valorii xi, obtinuta intr-o selectie realizata de volum n, reprezinta raportul dintre frecventa absoluta v i corespunzatoare valorii x i si volumul n al selectiei,

i n Frecventa absoluta respectiv relativa cumulata a valorii x i obtinuta intr-o selectie de volum n reprezinta suma frecventelor absolute, respectiv relative corespunzatoare valorilor fi 

x j  xi deci

υ

j

j; x j  x i

respectiv

f

j

j; x j  x i

Descrierea si sistematizarea datelor de selectie se face prin asa zisa repartitie a selectiei numita repartitie empirica a variabilei de selectie sau a variabilei empirice notata cu

X* Se disting urmatoarele modalitati de definire a repartitiei empirice :

  x x x  * 1 2 n X ...   1 1 1  n n n i)

daca volumul n al selectiei nu este prea mare si toate valorile xi ale variabilei de selectie sunt distincte, fiecare avand aceiasi frecventa relativa ii)

X

*  x1 x 2

  f1 f 2

...

  f n  i  1, k

xn

k

f i 1

k i

1

υ

i

n

i 1

cu

i n[a , a ]  X *  i 1 i   υi  i 1, k

fi 

139

iii) in cazul in care valorile rezultate in urma unei selectii realizate,sunt situate intr-un interval [a,b] al axei reale. In acest caz se considera o impartire a intervalului [a,b] in r subintervale de lungime egala cu h,

[a, a 1 ) [a 1 , a 2 ) [a 2 , a 3 )

[a k -1 , b)

a 1  a  a 2  a 3  ...  b  a k 1  h iar frecventa absoluta reprezinta in acest caz numarul valorilor xi ale variabilelor de selectie ce cad in

[a i1 , a i ) O reprezentare mai putin exacta a repartitiei empirice X* in acest caz, poate fi si :

c  X *  i   υ i  i 1, k unde : a i 1  a i 2

ci 

sau

c  X *  i   υ i  i 1, k

i n Functia empirica de repartitie fi 

*

Fn (x) se defineste pentru fiecare x 

ca raportul

ν n (x) (x) n

νn dintre numarul

140

de valori xi din selectie mai mici decat x si volumul n al selectiei. Functia empirica de repartitie reprezinta suma frecventelor relative a valorilor xi care cad la stanga lui x, adica frecventa relativa a evenimentului

X*  x *

Fn (x) 

ν n (x) n

-pentru

  x x x  * 1 2 n X  ... 1 1 1   n n n avem

0, x  xi i  1  Fn*   , xi 1  x  xi , i  2, n  n 1, x  x n -pentru

X

*  x1 x 2

  f1 f 2

...

  fn 

xn

k

i  1, k

 υi  n i 1

k

f

i

1

i 1

fi 

i n

cu avem 0, x  xi  i 1  Fn*   f j , xi 1  x  xi , i  2, k  j 1 1, x  x n 

-pentru

X

*  [a i -1 , a i ] 

  υi

 i  1, k

avem 141

0, x  a  a 0  i 1 x  a i 1  * Fn   f j  f i , a i 1  x  a i , i  2, k , cuh  a i  a i 1 h j  1  1, x  b  a k 

-pentru X*

 cfi i1,k

ci 

a i 1  a i 2

fi 

i n

0, x  a  i 1  * Fn   f j , a i 1  x  a i , i  2, k  j 1 1, x  a  b k 

avem Reprezentarea grafica 1. Reprezentarea in batoane Se masoara pe axa absciselor valorile xi ale variabilelor de selectie, iar in dreptul fiecarei v alori xi se ridica cate o perpendiculara de lungime egala cu fi (respectiv vi) corespunzatoare valorii xi. 2. Poligonul frecventelor absolute (respectiv relative) Pe axa absciselor se masoara valorile xi , iar pe axa ordonatelor valorile frecventelor absolute vi (respectiv relative fi). Unind punctele (xi,vi ) (respectiv (xi,vi )) se obtine poligonul frecventelor. 3. Histograma Se utilizeaza in cazul in care valorile de selectie obtinute sunt situate intr-un interval [a,b], cand se impune gruparea valorilor xi obtinute pe subintervale (clase)

[a i-1 , a i ) de lungimi egale. Pe axa absciselor se considera subintervale (a i-1 , a i ] de lungimi egale cu h. Pe fiecare subinterval (a i-1 , a i ] considerat ca baza, se ridica un dreptunghi a carui latura (inaltime) este egala cu υi h

respectiv

142

fi h In acest fel, aria unui dreptunghi va fi vi respectiv fi . Pentru o selectie de volum mare, conturul superior al histogramei, ne ofera o imagine suficient de exacta a graficului densitatii de repartitie teoretice ρ(x) a variabilei aleatoare (caracteristicii) teoretice X.

5.2 Valori tipice (empirice) de selectie. Momentul initial (empiric) de selectie de ordin r,(corespunzator cu repartitia empirica a lui

X* (1)

m *r 

1 n r  Xi n i 1

(2)

m *r 

k 1 k υ i X ir   f i X ir  n i 1 i 1

m *r 

k 1 k r υ c  f i c ir   i i n i 1 i 1

(3)

Media (empirica) de selectie (4) m *  m 1*  X 

1 n  Xi n i 1

(5) n

m *  m 1*  X   f i X i i 1

(6) m *  m 1*  X 

1 n  fici n i 1 143

Mediana Este valoarea caracteristicii care imparte volumul n al selectiei in doua parti egale si se noteaza cu m *e Daca n=2k+1 atunci m *e  x k 1

iar daca n=2k atunci

sau sau

m *e  x k x k+1

x k 1  x k 2 Modul sau moda

Este valoarea caracteristicii pentru care frecventa corespunzatoare este maxim a si se noteaza cu m *0 Momentul centrat (empiric) de selectie de ordinul r, r  Ν*

(corespunzator cu repartitia empirica a lui X *) (7) 1 n μ   (X i  X ) r n i 1 r *

(8)

μ *r 

n 1 n r υ (X  X )  f i (X i  X ) r   i i n i 1 i 1

μ *r 

n 1 n υ i (c i  X ) r  f i (c i  X ) r  n i 1 i 1

(9)

Dispersia de selectie (10)

144

μ *2  S 2 

1 n  (X i  X) 2 n i 1

(11) n

μ *2  S 2   f i (X i  X ) 2 i 1

(12)

n

μ *2  S 2   f i (c i  X ) 2 i 1

Exista si alte moduri de a defini dispersia de selectie si anume (13) S*2 

1 n (X i  m) 2  n i 1

(14) k

S*2   f i (X i  m) 2 i 1

(15) k

S*2   f i (c i  m) 2 i 1

daca media teoretica m=M(X) este cunoscuta. (16) S2 

1 n (X i  X ) 2  n - 1 i 1

pentru selectii de volum n<=50. Raportul n n -1 se numeste corectia lui Bessel si avem

145

n 2 S n -1 din relatiile (10) si (16). s2 

Proprietati: Pentru valorile empirice (1),(4),(10) avem urmatoarele propri etati:

M(m r )  m r n - 1 22r * 2) m 2r  m M(S  σ D (m r )  nn 2

M(X )  m

D 2 (X) 

D 2 (S 2 ) 

S2 

1 2 σ2 D (X)  n n

μ 4  μ 22 2(μ 41  2μ 22 ) μ 4  3μ 22  n n n2

1 n (X i  X ) 2  (X  m) 2  S*2  (X  m)  n i 1

Asimetria Se noteaza A*cu si se defineste prin:

μ *3 A  3 nS *

n

 (X

i

 X) 3

i 1

Excesul: Se noteaza cu E * si are formula:

E* 

μ *4 1 3 4 S nS 4

n

 (X

i

 X) 4  3

i 1

Excesul masoara gradul de turtire al poligonului frecventelor relative.

146

5.3 1.

Aplicatii. Intr-un studiu statistic al rezultatelor obtinute la examenul de matematica de studentii anului I ai unei Facultati de Stiinte Economice, s-a ales o grupa formata din 35 de studenti. Mentionand ca pentru cei absenti de la examen, s-a convenit nota 0, situatia notelor obtinute la examenul de matematica este prezentata in tabelul de mai jos:

Nota(xi)

0

1

2

3

4

5

6

7

8

9

10

Nr. Studenti(vi)

3

0

0

2

5

3

5

5

6

3

3

Sa se determine: a) frecventa relativa a fiecarei note; b) repartitia variabilei empirice; c) functia empirica de repartitie si graficul sau; d) poligonul frecventelor relative; e) media si dispersia de selectie. Solutie : a)

i n n=35

fi 

i  0,10

f1 

f0 

ν0 3  n 35

f 54 

ν 54 35  n 35

f8 

ν8 6  n 35

ν1 0 n

f6 

f2 

ν6 5  n 35

ν2 0 n

f7 

f3 

ν3 2  n 35

ν7 5  n 35

b)

x  X *  i   f i  i 1,10

f 9 

ν9 3  n 35

 0 1 2 3 2 X*  3 0 0  35  35

f 10 

4 5 35

ν 10 3  n 35

5 3 35

6 5 35

7 5 35

8 6 35

9 3 35

10  3  35 

147

c) 0, x  x1  i 1  * Fn   f j , xi 1  x  xi , i  2, k  j 1 1, x  x k 

0, x  0 3 / 35,0  x  1  3 / 35,1  x  2  3 / 35,2  x  3 5 / 35,3  x  4  10 / 35,4  x  5 * Fn   13 / 35,5  x  6 18 / 35,6  x  7  23 / 35,7  x  8 29 / 35,8  x  9  32 / 35,9  x  10 1, x  10 

Fn*

xi 0

10

148

0,20

0,00

11

d) X

10 1 10 1 211 ν x  f i x i  (3  2  4  5  5  3  6  5  7  5  8  6  9  3  10  3)   6,03   i i n i 0 35 35 i 0

S2 

1 n 1 ν i (x i  X )  [3(0  6,03) 2  2(3  6,03) 2  5(4  6,03) 2  3(5  6,03) 2   n i 0 35

 5(6  6,03) 2  5(7  6,03) 2  6(8  6,03) 2  3(9  6,03) 2  3(10  6,03) 2 ]

2.

Din productia de becuri a unei intreprinderi, s -au extras la intamplare 200 de becuri, care au fost testate pentru a afla numarul de ore de functionare. Datele obtinute au fost grupate pe intervale de timp de cate 20 de ore si sunt date in tabelul urmator :

Timp de 1340 functionare 1360 ( ti-1, ti) Nr de becuri ( vi)

3

1360 1380

1380 1400

1400 1420

1420 1440

1440 1460

1460 1480

1480 1500

1500 1520

1520 1540

17

30

35

50

24

18

15

7

1

Sa se determine: a) Repartitia variabilei empirice ; b) Functia empirica de repartitie; c) Histograma si poligonul frecventelor relative. Solutie: a) Datele de selectie fiind grupate pe intervala de lungime 20 de ore repartitia variabilei de selectie X* o vom da sub forma

149

x  X *  i   f i  i 1,10 unde

ci 

t i 1  t i 2

este mijlocul intervalului

[t i1 , t i ] 1350 1370 1390 1410 1430 1450 1470 1490 1510 1530  17 30 35 50 24 18 15 7 1  X*  3    200 200 200 200 200 200 200 200 200 200  b) Pentru repartitia data anterior, functia de repartitie este: 0, x  c1  i 1  * Fn   f j , c i 1  x  c i , i  2,10  j1 1, x  c 10 

0, x  1350 3 / 200,1350  x  1370  20 / 200,1370  x  1390  50 / 200,1390  x  1410 85 / 200,1410  x  1430  Fn*  135 / 200,1430  x  1450 159 / 200,1450  x  1470  177 / 200,1470  x  1490 192 / 200,1490  x  1510  1999 / 200,1510  x  1530  1, x  1530 Graficul lui

Fn* ( x) 150

Fn*

este o functie in scara:

xi O reprezentare mai exacta a lui

1350

1510

Fn* ( x) se poate obtine considerand repartitia

 [a , a  X *  i i   νi  caz in care avem:

0, x  a  i 1 x - a i-1  * Fn   f j  f i , a i 1  x  a i , i  2,10 h  j1 1, x  b 0, x  1340 (3 / 200)  (( x  1340) / 20),1340  x  1360  (3 / 200)  (17 / 200)  (( x  1360) / 20),1360  x  1380  (20 / 200)  (30 / 200)  (( x  1380) / 20),1380  x  1400 (50 / 200)  (35 / 200)  (( x  1400) / 20),1400  x  1420  (85 / 200)  (50 / 200)  (( x  1420) / 20),1420  x  1440 * Fn   (135 / 200)  (24 / 200)  (( x  1440) / 20),1440  x  1460 (159 / 200)  (18 / 200)  (( x  1460) / 20),1460  x  1480  (177 / 200)  (15 / 200)  (( x  1480) / 20),1480  x  1500 (192 / 200)  (7 / 200)  (( x  1500) / 20),1500  x  1520  (199 / 200)  (1 / 200)  (( x  1520) / 20),1520  x  1540 1, x  1540 

151

Graficul acestei functii de repartitie se obtine din graficul frecventelor relative cumulate printr-o translatie. c)

0,30

0,00 1340 1520 Unind mijloacele laturilor de sus dreptunghiurilor se obtine poligonul frecventelor relative fata de repartitia

c  X *  i   f i  i 1,10 de la punctul a).

152

CAPITOLUL 6 Elemente de teoria estimatiei OBIECTIVE Estimarea parametrilor teoretici ca apar in diverse tipuri de repartitii statistice se face prin trei metode fundamentale: a momentelor, a verosimilitatii maxime, a intervalelor de incredere. Aceste estimari vor fi facute pe baza datelor de selectie obtinute in urma studiului caracteristicilor populatiei date.

-

La sfarsitul acestui capitol, studentii trebuie sa-si insuseasca: Tipuri de estimatii ale parametrilor Metode de estimare ale parametrilor

6.1 Estimatii.Tipuri de estimatii. Consideram o populatie de volum mare si o caracteristica asociata populatiei aflatain studiu static.Valoriile caracteristicii X sunt repartizate dupa legea unei variabile aleatoare teoreticii necunoscute si pe care incercam sa la cunoastem prin folosirea unei variabile de selectie(empirice ) X *. In multele situatii legea de repartie teoretica se intuieste cu ajutorul reprezantariilor grafice atasate variabile de selectie X * si depinde de anumiti parametrii a caror valori sunt necu noscute. Operatia prin care se evalueaza parametrii necunoscutii ai legii de repartee teoretice se numeste estimarea parametriilor si ea se face pe baza unei selectii de volum n efectuata din populatie pe care este considerate variabila X cu legea specifcara care contine parametrul ce trebuie estimat.

Tn (X1 , X 2 ,..., X n ) Statistica definita univoc de variabilele de selectie a carei valoare ptr o selectie efectuata 

θ Tn (X 1 , X 2 ,..., X n ) reprezinta o aproximatie a valorii parametrului ø din legea de repartitie teoretica F(x, θ) a populatiei generale ,se numeste estimatia punctuala a parametrului ø. Tipuri de estimatii Estimatie nedeplasata 

θ Tn (X 1 , X 2 ,..., X n )

153

este o estimatie nedeplasata a parametrului ø din repartitia teoretica daca : 

()M(θ)Tn  M(Tn (X 1 , X 2 ,..., X n ))   1) 2) Estimatia deplasata 1) 

()M(θ)   2) 

M(θ)  θ 3) 

B n  M(θ)  θ (deplasarea estimatiei). 

Daca Bn>0,atunci θ este pozitiv deplasata fata de θ 

Daca Bn <0,atunci θ este negativ deplasata fata de θ Estimatia absoluta corecta 1) 



()M(θ), D 2 (θ)   2) 

M(θ)  θ (nedeplasata) 3) 

D 2 (θ)  D 2 (Tn (X 1 , X 2 ,..., X n ))  , n  

Estimatie corecta 1) 



()M(θ), D 2 (θ)  

154

2) 

M(θ)  M(Tn (X 1 , X 2 ,..., X n ))  θ  α n ( θ ) cu α n ( θ)  0, n   3) 

D 2 (θ)  0, n  

Estimatie consistenta ()ε  0

Avem

lim P( Tn (X 1 , X 2 ,..., X n )  θ  ε)  1

n 

adica 

θ  Tn (X 1 , X 2 ,..., X n ) converge in probabilitatea catre θ . Propozitia 1: Daca statistica 

θ  Tn (X 1 , X 2 ,..., X n ) este o estimatie a parametrului θ nedeplasata sau deplasata cu 

lim B n  lim M((θ) - θ)  0

n 

n 

si daca 

lim D 2 (θ)  0

n 

atunci estimatia θ este o estimatie consistenta. Teorema 1 (Rao-Cramer) Daca 

θ  Tn (X 1 , X 2 ,..., X n ) este o estimatie nedeplasata a parametrului θ din repartitia teoretica a variabilei X atunci, D 2 (Tn ) 

1 n  I( )

unde 2

  2 lnρ (x, θ)   lnρ (x, θ)  I( θ )  M      M   2     se numeste cantitatea de informatie pe o observatie. 155

Conditiile de regularitate necesare aplicarii inegalitatii lui Rao-Cramer sunt: 1)multimea valorilor lui θ formeaza un interval ( a,b ) al axei reale ; 2)  ρ(x, θ)  , ()θ  (a, b) θ

3) dFθ  dFθ   , θ  (a, b)  θ θ

4) 

() θ o estimatie nedeplasata a lui θ avem :     θ dF  θ  θ θ dFθ  1 θ 

5) 2

  M  lnρ (x, θ)   , ()θ  (a, b)  θ 

Egalitatea in inegalitatea Rao-Cramer are loc in cazul in care ρ (x, θ) verifica ecuatia lnρ (x, θ)  A / ( ) L (x) - θ)   A( θ )  N(x)

Estimatia eficienta sau de minima dispersie este o estimatie nedeplasata

θ *  Tn* (X1 , X 2 ,..., X n ) a lui θ pentru care * 2

D (θ ) 

1 nI(θ)

si θ* 

1 n  L(x i ) n i?1

Eficienta estimatiei 

θ  Tn (X 1 , X 2 ,..., X n ) a lui θ este raportul, 156

1 D (θ ) n  I(θ( e n (θ)  e n (Tn )   2  D 2 (θ) D (Tm ) 

2

*

unde θ* este estimatia eficienta a lui θ si avem

0  e n (Tn )  1 Daca

e n (Tn )  1 atunci estimatia

n



θ  Tn (X1 , X 2 ,..., X n ) a lui θ se numeste asimptotic eficienta. Proprietate Orice estimatie eficienta este si consistenta. Estimatia suficienta 

θ  Tn (X1 , X 2 ,..., X n ) este o estimatie suficienta a parametrului θ daca 1) 

M(θ )  M(Tn (X1 , X 2 ,..., X n ))  θ  α n ( θ ), α n ( θ )  0, n   

( θ este estimatia corecta) 2) 

D 2 (θ)  D 2 (Tn ) 

(1  α m/ ( θ )) 2 , α n ( θ )  0, n   n  I( θ )

Propozitia 2. (1) Media de selectie

157

x

1 n  xi n i 1

obtinuta printr-o selectie de volum n dintr-o populatie cu caracteristica X este o estimatie nedeplasata a mediei teoretice m=M(X) a caracteristicii. (2) Dispersia de selectie 1 n  ( xi - x )2 n i 1 obtinuta printr-o selectie de volum n,dintr-o populatie cu caracteristica X este o estimatie deplasata a dispersiei teoretice s2 

σ 2  D 2 (X)

M ( s2 )  σ2 -

σ2 σ2 , Bn  n n

(3) Dispersia de selectie 1 n  ( xi - x )2 n i 1 obtinuta printr-o selectie de volum n, dintr-o populatie cu caracteristica X este o estimati s2 

nedeplasata a dispersiei teoretice

σ 2  D 2 (X) M ( s2 )  σ2 (4) Daca media teoretica m=M(X) a caracteristicii X este cunoscuta atunci dispersia de selectie 1 n ( x i - m) 2  n i 1 2 σ M ( s *2 )  σ 2 obtinuta printr-o selectie de volum n,dintr-o populatie cu caracteristica X este o estimatie s*2 

nedeplasata a dispersiei teoretice 6.2 Metode de determinare a estimatiilor. Metoda momentelor Consideram ca pentru caracteristica X aflata sub cercetare statistica, functia de frecventa (in cazul discret) respectiv densitatea de repartitie (in cazul continuu) este

158

f ( X ; θ 1 , θ 2 ... , θ s ) si depinde de s parametrii θ 1 , θ 2 ... , θ s ce trebuiesc estimati. Presupunand ca exista si sunt finite momentele initiale pana la ordinul s ale variabilei teoretice

X, metoda momentelor consta in urmatoarele: (1)Se calculeaza primele s momente de selectie:

m *r 

1 n r  xi n i 1

sau k 1 k r m   νi  xi   fi  x r n i 1 i 1 * r

sau

m *r 

k 1 k r f  c  f i  c ir , r  1, s   i i n i 1 i 1

(2)Se considera sistemul de s ecuatii:

m r  M(x r )  m r (θ1 , θ 2 ,..., θ s )  m *r  m *r (x 1 , x 2 ,..., x n ), r  1, s (3)Daca ecuatiile sistemului sunt independente functional, atunci rezolvand sistemul in raport cu

θ 1 , θ 2 , ... , θ s se obtin solutiile:







 r   r (m1* (X 1 , X 2 ,..., X n ),..., m *s (X 1 , X 2 ,..., X n ))   r (X 1 , X 2 ,..., X n ), r  1, s ce constituie estimatii ale parametrilor

θ 1 , θ 2 , ... , θ s

159

Metoda verosimilitatii maxime Functia de verosimilitate n

P (x 1 , x 2 ,..., x n ; θ)   σ(x i ; θ) i 1

unde

 (x ; θ) reprezinta densitatea de probabilitate in cazul continuu sau functia de frecventa in cazul discret, pentru caracteristica X asociata unei populatii aflata in studiu statistic. Functia de verosimilitate reprezinta densitatea de repartitie respectiv functia de frecventa pentru vectorul aleator X 1 , X 2 , ... , X n corespunzator unei selectii de volum n. Valoarea θ* a parametrului θ care se obtine se numeste estimatie de verosimilitate maxima a

parametrului θ din legea teoretica. Valoarea lui θ* depinde de valorile variabilelor de selectie

X 1 , X 2 , ... , X n deci

θ *  θ * ( X 1 , X 2 , ... , X n ) Maximul functiei

P ( x 1 , x 2 , ... , x n ; θ) are loc pentru aceiasi valoare a lui θ care asigura maximul functiei

ln P ( x 1 , x 2 , ... , x n ; θ) Deci estimatia de verosimilitate maxima se obtine ca solutie a ecuatiei: n  ln P ( x 1 , x 2 , ... , x n ; θ)  ln P ( x 1 ; θ)  0 θ θ i 1

Ecuatia de mai sus se numeste ecuatie de verosimilitate maxima. Etape : (1) Se construieste functia de verosimilitate: 160

n

P ( x 1 , x 2 , ... , x n ; θ)   ρ i (x i ; θ) i 1

(2)Se calculeaza: n

ln P ( x 1 , x 2 , ... , x n ; θ)   ln ρ (x i ; θ) i 1

(3) Se considera ecuatia de verosimilitate maxima n ln ρ (x ; θ)  ln P ( x 1 , x 2 , ... , x n ; θ) i   0, (*) θ θ i 1

(4)Se rezolva ecuatia de la punctul (3) in raport cu θ . Solutia

θ *  θ * (X 1 , X 2 ,..., X n ) obtinuta este o estimatie de verosimilitate maxima. (5)Se verifica daca d 2 P(X 1 , X 2 ,..., X n ; θ * )  0 (conditia de maxim). Teorema2. Orice estimatie eficienta verifica ecuatia verosimilitatii maxime. Daca densitatea de probabilitate sau functia de frecventa

σ(x, θ 1 , θ 1 ,..., θ s ) depinde de s parametrii, metoda verosimilitatii consta in urmatoarele: (1)Se construieste functia de verosimilitate: n

P ( x 1 , x 2 , ... , x n ; θ 1 , θ 2 ,..., θ s )   ρ (x i ; θ 1 , θ 2 ,..., θ s ) i 1

(2)Se logaritmeaza functia de verosimilitate: n

ln P ( x 1 , x 2 , ... , x n ; θ 1 , θ 2 ,..., θ s )   ln ρ (x i ; θ 1 , θ 2 ,..., θ s ) i 1

(3)Se considera sistemul de s ecuatii: n lnρ (x ; θ , θ ,..., θ ) ln P ( x 1 , x 2 , ... , x n ; θ 1 , θ 2 ,..., θ s ) i 1 2 s   0,1  j  s(**) θ j θ j i 1

(4)Se rezolva sistemul de la punctul (3) si se obtin solutiile θ 1* , θ *2 , ... , θ *s care sunt estimatii asimptotic eficiente ale parametrilor

161

θ1 , θ 2 , ... , θ s Teorema3. (a) Ecuatia de verosimilitate maxima ( * ) are o solutie

θ*  θ* (X1 , X 2 ,..., X n ) care pentru valori mai mari ale lui n, este repartizata normal cu media m = θ si dispersia

σ2 

1  n  I(θ(

1   ln ρ(x, θ)  n  M  θ  

2

(b) Sistemul de ecuatii (**) are o solutie (θ 1* , θ *2 ,..., θ *s ) care pentru valori mari ale lui n este repartizata normal cu media

(m 1 , m 2 ,..., m s )  (θ 1 , θ 2 ,..., θ s ) si o matrice de covarianta: 1

  2 lnρ  ) ,1  i, j  s  n  M( θ i θ j  

Matricea de covarianta a unui vector aleator se defineste astfel:

D 2 (X1 )....... cov(X1 , X 2 ).... cov( X 1 , X n )    2 cov(X , X ).... D (X ) .... cov( X , X ) ... 1 2 2 2 n c   ................................................................   2  cov(X n , X 2 ).... cov( X n , X 2 ).....D (X n ) 

Metoda intervalelor de incredere Metoda intervalelor de incredere de estimare a parametrului dintr-o repartitie teoretica a caracteristicii X, da posibilitatea de a indica un interval despre care se poate afirma cu o probabilitate cunoscuta ca acopera valoarea parametrului  estimat. Sa presupunem ca efectuand o selectie

162

 X1 , X 2 ,..., X n  de volum n din populatia a carei lege de repartitie teoretica este

ρ (x, θ) , exista doua functii de selectie

 ( X1 , X 2 ,..., X n ) 

 ( X1 , X 2 ,..., X n )

cu

  

astfel incat probabilitatea inegalitatii

   

sa nu depinda de  , adica

P ( (X1 , X 2 ,..., X n )     (X1 , X 2 ,..., X n ))   

, unde  nu depinde de  . Pentru o selectie realizata  si  au valori bine determinate iar pentru foarte apropiat de 1 

intervalul (  ,  ) acopera parametrul necunoscut  . 

Cu cat intervalul (  ,  ) este mai mic si probabilitatea  este mai aproape de 1 cu atat avem o 

indicatie mai precisa cu privire la valoarea constanta a lui  . Daca  si  sunt asfel incat pentru un  dat cu 0<  < 1 sa avem: 

P ( (X1 , X 2 ,..., X n )     (X1 , X 2 ,..., X n ))  1   

Se numeste interval de incredere pentru parametrul  . Intervalul de incredere este un interval aleator ale carui limite depind de datele selectiei, in timp ce parametrul  din repartitia teoretica

ρ (x, θ) este o marime constanta dar necunoscuta. Valoarea  = 1-  se numeste coeficient de incredere, iar marimea

163

  

se numeste lungimea intervalului de incredere. Valoarea  = 1-α se numeste prag de semnificatie. Un interval de incredere de lungime mica construit cu un coeficient de incredere mare, estimeaza cu precizie valoarea necunoscuta a parametrului  .

6.3 Aplicatii. 1. Repartitia de selectie obtinuta ca rezultat a cantaririi a 800 de bile de otel este data in tabele de mai jos: (Xk1, xk)

20 20,5

20,5 21

21 21,5

21,5 22

22 22,5

22,5 23

23 23,5

23,5 24

24 24,5

24,5 25

υk

91

76

75

74

92

83

79

73

80

77

Presupunand ca variabila teoretica X ce reprezinta greutatea in grame a bilelor de otel cantarite are o repartitie uniforma cu densitatea:

ρ( x; θ1 , θ 2 ) 

1 θ 2  θ1

x  [ θ1 , θ 2 )], θ1  θ 2

sa se estimeze prin metoda momentelor parametrii θ1 , θ 2 , pe baza rezultatelor celor 800 de cantariri. Solutie:

M(x)  m1 

θ1  θ 2 2

θ12  θ1  θ 2  θ12 M(x )  3 2

Estimatiile





θ1 , θ 2

164

se obtin rezolvand sistemul:

 θ1  θ 2  m1*  x  2  2 2  θ1  θ1  θ 2  θ 2  m * 2  3

 1,2 2

θ

2

2

 x  x - 4 x  3m*2  x  3(m1*  m*2 )

Luand dispersia nedeplasata

θ1  2 x - θ 2  (2 x - θ 2 ) 2  (2 x - θ 2 )  θ 22  3m*2  2

 θ 22  2 xθ 2  4 x  3m*2  0

1 n S  (x i  x ) 2  n  1 i1 2

s 2 (n  1) m m  n *2 1

* 2

θ

 1,2 1

 1,2 2

θ

 xs

 x s

3(n  1) n 3(n  1) n

avem

165

Avem 

3(n  1) θ1  x  s n



θ2  x  s

3(n  1) n

Din datele problemei prezentate in tabel, rezulta

x  22,47 Iar s=1,44. Obtinem astfel 



1  19,98

 2  24,96

iar legea de repartitie va fi

ρ(x)  2.

1 0,2

x  (19,98;24,96)

Sa se estimeze folosind metoda verosimilitatii maxime, parametrii m si ai repartitiei

σ2 normale pentru o selectie oarecare de volum n, stiind ca:

1

(x  m) 2 1 2σ 2 ρ(x; m, σ)  e , m  , σ  0 σ 2π

Solutie: Functia de verosimilitate este:

P(x1 , x 2 ,..., x n , ; m, σ 2 ) 

1 n

σ ( 2π )

1

e

n

 (xi m)2 2σ 2 i 1

Logaritmam:

n n 1 n ln P(x 1 , x 2 ,..., x n , ; m, σ 2 )   ln σ 2  ln(2 )  2  (x i  m) 2 2 2 2σ i1

166

Sistemul ecuatiilor de verosimilitate va fi:

 ln P 1 n (x i  m)  0  m  σ 2  i 1  n  ln P   n  1  1  (x  m)  0 i  σ 2 2  2 2 4 i1 Rezolvand sistemul in raport cu m si σ2

obtinem: 

1 n m   xi  x n i1 2

 1 n 1 n    (x i  m) 2   (x i  x ) 2  s 2 n i1 n i1

Avem



1 n 1 M(m)  M(  (x i )   n  m  m n i1 n  2

 1 n 1n n 1 2 M(σ )  M(  (x i - m) 2  M(  (x i - x) 2 )  M(s2 )  σ n i1 n i1 n

2

 este o estimatie corecta dar nu absolut corecta, caci 2

σ2 M(σ )  σ  n 2

cu

σ2 α n (σ )   0, n   n

167

3. Se cunosc rezultatele

X 1 , X 2 ,..., X 22  a n=22 masuratori ale unui unghi oarecare in grade:3,1; 3,3; 2,9; 3,0; 3,1; 3,2; 2,8; 2,7; 3,1; 3,2; 2,9; 3,0; 2,9; 3,1; 2,8; 2,9; 3,2; 3,3; 2,9; 3,1; 3,2; 3,0. a).Presupunand ca rezultatele masuratorilor urmeaza o lege normala, sa se determine un interval de incredere 98%,(1-α=0,98),pentru media m a populatiei. b). Sa se determine intervalul de incredere pentru dispersia σ2 Solutie a).

1 22 x  xi  3,0318 22 i 1 1 22 1 22 2 s  ( xi  x)   ( xi  x) 2  0,0303  n  1 i 1 21 i 1 2

Din tabela corespunzatoare functiei de repartitie a repartitiei Student cu n-1=21 grade de libertate deducem conform cu

t1 / 2;n1  t0,99; 21  2,831 Intervalul de incredere va fi:

0,0303 s  3,0318  2,831  22 22 0,174  3,0318  2,831  2,9838 0,47 x  t 0,99; 21

s 0,0303  3,0318  2,831  22 22 0,174  3,0318  2,831  4,0798 0,47 x  t0,99; 21

Deci m Є (2,9838 ;4,0798) cu o probabilitate de 0,98.

168

b). Din tabela corespunzatoare a repartitiei χ 2 (anexa 4) cu n-1=21 grade de libertate si in baza intervalului de incredere avem: 2 χ 12-/2;n -1  χ 0,99;21  8,897

2 χ 2 /2;n -1  χ 0,01;21  38,932

Deci

 2 (

21  0,0303 21  0,0303 ; ) 38,932 8,897

 2  (0,01634;0,07151)

169

ANEXA 1 REPARTITIA NORMALA

Z

0,00

0,01

0,02

0,03

0,04

0,0

0,00000

0,00399

0,00798

0,01197

0,01595

0,1

0,03983

0,04380

0,04776

0,05172

0,05567

0,2

0,07926

0,08317

0,08706

0,08095

0,09483

0,3

0,11791

0,12172

0,12552

0,12930

0,13307

0,4

0,15542

0,15910

0,16276

0,16640

0,17003

0,5

0,19146

0,19497

0,19847

0,20194

0,20540

0,6

0,22575

0,22907

0,23237

0,23565

0,23891

0,7

0,25804

0,26115

0,26424

0,26730

0,27035

0,8

0,28814

0,29103

0,29673

0,29673

0,29955

0,9

0,31594

0,31859

0,32381

0,32381

0,32639

1,0

0,34134

0,34357

0,33614

0,34849

0,35083

1,1

0,36433

0,36650

0,36864

0,37076

0,37286

1,2

0,38493

0,38686

0,38877

0,39065

0,39251

1,3

0,40320

0,40490

0,40658

0,40824

0,40988

1,4

0,41924

0,42073

0,42220

0,42364

0,42507

1,5

0,43319

0,43448

0,43574

0,43699

0,43822

1,6

0,44520

0,44630

0,44738

0,44845

0,44950

1,7

0,45543

0,45637

0,45728

0,45818

0,45907

1,8

0,46407

0,46485

0,46562

0,46638

0,46712

1,9

0,47128

0,47193

0,47257

0,47320

0,47381

2,0

0,47725

0,47784

0,47831

0,47882

0,47932

2,1

0,48214

0,48257

0,48300

0,48341

0,48382

2,2

0,48610

0,48645

0,48679

0,48713

0,48745

2,3

0,48928

0,48956

0,48983

0,49010

0,49036

2,4

0,49180

0,49202

0,49224

0,49245

0,49266

2,5

0,49379

0,49306

0,49413

0,49430

0,49446

2,6

0,49534

0,49547

0,49560

0,49573

0,49585

2,7

0,49653

0,49664

0,49674

0,49683

0,49693

170

ANEXA 2 FUNCTIA DE REPARTITIE STUDENT CU N GRADE DE LIBERTATE F n

0,70

0,80

0,90

0,95

0,99

0,999

1

1,963

3,074

6,314

12,706

63,657

636,619

2

1,380

1,886

2,920

4,303

9,925

31,598

3

1,250

1,638

2,359

3,182

5,841

12,941

4

1,190

1,533

2,132

2,776

4,604

8,610

5

1,156

1,476

2,015

2,571

4,032

6,859

6

1,134

1,440

1,943

2,447

3,707

5,959

7

1,119

1,415

1,895

2,365

3,499

5,405

8

1,108

1,397

1,860

2,306

3,355

5,041

9

1,100

1,383

1,833

2,262

3,250

4,781

10

1,093

1,372

1,812

2,228

3,169

4,587

11

1,088

1,363

1,796

2,201

3,106

4,437

12

1,083

1,356

1,782

2,179

3,055

4,318

13

1,079

1,350

1,771

2,160

3,012

4,221

14

1,070

1,345

1,761

2,145

2,977

4,140

15

1,074

1,341

1,753

2,131

2,947

4,073

16

1,071

1,337

1,746

2,120

2,921

4,015

17

1,069

1,333

1,740

2,110

2,898

3,965

18

1,067

1,330

1,734

2,101

2,978

3,992

19

1,066

1,328

1,729

2,093

2,861

3,883

20

1,064

1,325

1,725

2,086

2,845

3,850

21

1,063

1,323

1,721

2,080

2,831

3,819

22

1,061

1,321

1,717

2,074

2,819

3,792

23

1,060

1,319

1,714

2,069

2,807

3,767

24

1,059

1,318

1,711

2,064

2,797

3,745

25

1,058

1,316

1,708

2,060

2,787

3,725

26

1,058

1,315

1,706

2,056

2,779

3,707

27

1,057

1,314

1,703

2,052

2,771

3,690

28

1,056

1,313

1,701

2,048

2,763

3,674

29

1,055

1,311

1,699

2,045

2,756

3,659

30

1,055

1,310

1,697

2,042

2,750

3,646

40

1,050

1,303

1,684

2,021

2,704

3,551

60

1,046

1,296

1,617

2,000

2,660

3,460

120

1,041

1,289

1,658

1,980

2,617

3,373

1,046

1,282

1,645

1,960

2,576

3,291 171

ANEXA 3 REPARTITIA HI-PATRAT

n/α

0,990

0,975

0,950

0,90 0

0,10 0

0,05 0

0,025

0,010

0,001

1

0,0316

0,0398

0,023 9

0,01 58

2,71

3,84

5,02

6,63

10,83

2

0,02

0,05

0,10

0,21

4,60

5,99

7,38

9,21

13,82

3

0,12

0,22

0,35

0,58

6,25

7,81

9,35

11,24

16,27

4

0,30

0,43

0,71

1,06

7,78

9,49

11,1

13,28

18,46

5

0,55

0,83

1,15

1,61

9,24

11,0 7

12,8

15,09

20,5

6

0,87

1,24

1,64

2,20

10,6 4

12,5 9

14,0

16,81

22,5

7

1,24

1,69

2,17

2,83

12,0 2

14,0 7

16,0

18,47

24,3

8

1,65

2,18

2,73

3,49

13,3 6

15,5 1

17,5

20,09

26,1

9

2,09

2,70

3,33

4,17

14,6 8

16,9 2

19,0

21,66

27,9

10

2,56

3,25

3,94

4,86

15,9 9

18,3 1

20,5

23,21

29,6

11

3,05

3,82

4,57

5,58

17,2 7

19,6 7

21,9

24,72

31,3

12

3,57

4,40

5,23

6,30

18,5 5

21,0 3

23,3

26,22

32,9

13

4,11

5,01

5,89

7,04

19,8 1

22,3 6

24,7

27,69

34,6

14

4,66

5,63

6,57

7,79

21,0 6

23,6 8

26,1

29,14

36,1

15

5,23

6,26

7,26

8,55

22,3 1

25,0 0

27,5

30,58

37,7

16

5,81

6,81

7,96

9,31

23,5 4

26,3 0

28,8

32,00

39,3

17

6,41

7,56

8,67

10,0 8

24,7 7

27,5 9

30,2

33,41

40,8

18

7,01

8,23

9,39

10,8 6

25,9 9

28,8 7

31,3

34,40

42,3

172

19

7,63

8,91

10,1

11,6 5

27,2 0

30,1 4

32,9

36,19

43,8

20

8,26

9,59

10,9

12,4 4

28,4 1

31,4 1

34,2

37,57

54,3

21

8,90

10,3

11,6

13,2 4

29,6 1

32,6 7

35,5

38,93

468

22

9,54

11,0

12,3

14,0 4

30,8 1

33,9 2

36,8

40,29

48,3

23

10,2

11,7

13,1

14,8 5

32,0 1

35,1 7

38,1

41,64

49,7

24

10,9

12,4

13,8

15,6 6

33,2 0

36,4 1

39,4

42,98

51,2

25

11,5

13,1

14,6

16,4 7

34,3 8

37,6 5

40,6

44,31

52,6

26

12,2

13,8

15,4

17,2 9

35,5 6

38,8 8

41,9

45,64

54,1

27

12,9

14,6

16,2

18,1 1

36,7 4

40,1 1

43,2

46,96

55,5

28

13,6

14,3

16,9

18,9 4

37,9 2

41,3 4

44,5

48,28

56,9

29

14,3

16,0

17,7

19,7 7

39,0 9

42,5 6

45,7

49,59

58,3

30

15,0

16,8

18,5

20,6 0

40,2 6

43,7 7

47,0

50,89

59,7

173

Bibliografie 1. CHUNG, K.L., Elementary Probability Theory with Stochastic Processes Springer-Verlag, Berlin, 1974. 2. CIUCU, G., TUDOR, C., Probabilitati si Procese Stochastice, Vol. I, II, Ed. Academiei Romane, Bucuresti, 1979. 3. CUCULESCU, I., Teoria Probabilitatilor, Ed. All, 1998. 4. FELLER, W., An Introduction to Probability Theory and its Applications, Vol. I, John Wiley&Sons, Inc., New York, London, 1960. 5. FELLER, W., An Introduction to Probability Theory and its Applications, Vol II, John Wiley&Sons, Inc., New-York, London, 1966. 6. GIHMAN, I.I., SKOROHOD, A.V., The Theory of Stochastic Processes I, Springer-Verlag, Berlin, 1974. 7. GIHMAN , I.I., SKOROHOD, A.V., The Theory of Stochastic Processes II, Springer-Verlag, Berlin, 1975. 8. GNEDENKO, B.V., The Theory of Probability, Mir Publishers, Moscow, 1976. 9. HALMOS, P.P., Measure Theory, Springer-Verlag, Berlin, 1974. 10. HÉRAULT, D., Éléments de théorie moderne des probabilités, Dunod, Paris, 1967. 11. IOSIFESCU, M., MIHOC, GH., THEODORESCU, R., Teoria probabilittilor si statistica matematica, Ed. Tehnica, Bucuresti, 1966. 12. KEMENY, J.G., SNELL, J.L., Finite Markov Chains, Springer-Verlag, Berlin, 1976. 13. LOÈVE, M., Probability Theory, Vol. I, Springer-Verlag, New York, Heidelberg Berlin, 1977. 14. LOÈVE, M., Probability Theory, Vol.. II, Springer-Verlag, New York Heidelberg Berlin, 1978. 15. ONICESCU, O., MIHOC, GH., IONESCU TULCEA C.T., Calculul probabilitatilor si aplicatii, Ed. Academiei Romane, Bucuresti, 1956. 16. ONICESCU, O., Principes de logique et de philosophie mathématique, Ed. de l’Academie de la Roumanie, 1971. 17. ORMAN, G.V., Teoria Probabilitatilor, Ed. Universitatii Brasov, 1977. 18. ORMAN, G.V., COCAN, A., SIMIONESCU, C., Elemente de teoria probabilitatilor si statistica matematica, Ed. Universitatii Brasov, 1982. 19. ORMAN, G.V., Capitole de Matematici Aplicate, Ed. Albastra, Cluj-Napoca, 1999. 20. PRESTON, C., Random Fields, Springer-Verlag, Berlin, 1976. 21. ROSENBLATT, M., Random Processes, Springer-Verlag, Berlin, 1974. 22. SPITZER, F., Principles of Random Walk, Springer-Verlag, 1975. 23. VASILACHE, S., Elemente de teoria multimilor si a structurilor algebrice, Ed. Academiei R.P.R., 1956. 174

Related Documents


More Documents from "Diana Andreea"