This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA
uel 1·u ldo, mayor que el nivel (Z)> e 1S=O)= e (3.2.31) ·cquívalo a la de.,igualdad p/ (z - $ 0} - qf (•) > O o bion (x) y la probabilidad c 0ndic~onal de este valor con respecto al acontecimiento X = x es Igual a la unidad. Por consiguiente, la densidad condicional de probabilidad de la función aleatoria Y con respecto a la X representa una función delta (3.3.2} /2 (y 1 x) = Ó. (y - cp (x)). Sustituyendo esta expresión en (3.2.10), hallemos la densidad conjunta de la probabilidad de las magnitudes aleatorias X y Y: f (x, y) = !1 (x) 6 (y - q> (x)). (3.3.3} Pues bien, si la distribución bidimensional está dispuesta totalmente en cierta curva (lo que corresponde al hecho de que para cada valor x de la magnitud X la magnitud Y tiene el único valor posible), entonces la densidad de probabilidad del vector aleatorio (X, Y) se expresa con ayuda de la función delta impulsiva por la fórmula (3.3.3). Ahora, para hallar la densidad de probabilidad f 2 (y) de la magni~ud aleatoria Y P.S suficiente emplear la fórmula (3.1.19). Entonces obtendremos "" (3.3.4) /dy) = /1 (x) ó (y- (t) q¡ (t') K,, (t, t'). (4.3. 7) (t). Como resultado obtendremos l as fórmulas siguientes para la espe· r anza matemática y la función correlativa de la derivada de orden p de la función aleatoria X (t): ) = (t), por analogía con la expresión corriente del producto escal!lr de vectores en el sist-ema de coordenadas cartesianas rectangulares. Las funciones q> (t) y \j> (t) se llaman ortogonales si su producto escalar es igual a cero:
§ 3.2. Pu"rlones
c()ndiclonal~tt
a l a ioua determinada por la desigualdad q¡
(~)
9!>
dt di•lrtbuclón
>
e:
~ f(i)dz. «<•~>•
Pa.1 = P(•1>
(3.:!.25~
Pasemos ahora al cálculo Je la probabilidad de que se cometa un crrorYn l resolver el problema de la revelación de los soñnlcs. Para esto apliquomos' lo fórmula de la probabilidad completa. El •• deLector puede tomar una docisión falsa cuando hl\y una de dos hipótesis que forman un grupo completQ doacontecimientQs iocompaLibles: la hipótesis E, consiste en que la sefial úUl está presente; su probabilidad es iguol a ,e; In hipótesis Ei consiste en que la sel'la l útil está ausente; su probabilidad es igu¡¡l " q 1 - P.· Las probabil ida1les Fig. 3 .2.:~. condicionales de un error, tonioodo estas dos hipóUlsís. se determinan {IOt l as íúr1m1las (:~.2.24) y (3.2.2~). SusL1t.uycnrlo ootas oxpre:1iones un la fórmula de la p-robnbilida
=
Pm. ~ 111'
= /'
(
~
/(:-sO)o'2 + q
f
(l!.2.~li)
/(s)d:,
«
<1<2).,..
L11 probabilidad do que el ¡in¡hlcrua de la rovclncióu s~ resuelva corrcctu· 111e11te so determiuará comC> In probabilid ad do que se produzca el acou\cci111i e nt1> contrario t3. 2.27) ]J,. cvrr. -= 1 - l'crr. Para hacor eálculo.s completos, examinernus un cuso rnás concrct.o de In rcccpción de dos impulsos, ~u¡xiniendo que los impul>tO$ de ruido sean magnit11d1•" aleaturias independientes, norm:tlmenle distribui1las, con iguales dispersionc.; D y esperanzas mnlcm,íticAS iguales a cero. En calidad de funcicín e¡: (z) Lomt'moe la función lincnl lj> (:,, •2) = b:.,.
ª'' +
En e~te cnso la fórmula (3.2.
= J' (q> (Z) -~ e 1 S'"' -'º)-=
lJ
a.z1 bl2....Zc
2~0
(i 1-.c1)f ..Hti -i~)Z
•-
UJ
dz1 tl:z.
Ln iono. do in~l"Jc.ión so m11c.,h·n en la fig. 3.2.3. Parn calcnlur la i11Wgrnl.
~usl.il11y:11nos las variables ''" 1:11 ruodo quu en la.s nucvus \'ariahlcs "'' 1•: In
de intcgr~ción se limit e sulameoto respecto a unn de las variables, digamo~ con l'llllpCcl.o a u 1 mionl.ras r¡ne rrspi:cto a u2 se oxlio11cl11 de -oo hast.'\ r.s lúcil co1nprendei· que 11ara cstQ bnsta dirigir ~1 ojo u 1 ¡lcrpcndi<:ularuu•Jlto a la rcct11 a z1 bz 2 ,;;;; e y el rjn 1t2 11aralelamonto; a esta roc1>1. Enl.ouccs, C•llllrt <'S fácil de ~upQMr, Ja,, 111rnvui; variable¡¡ u1 y ": se 1let.ermi11d1·1\n por l as fúr11111 l 11~ (ln el!c11l11 ~e las nnc\'lts val"iublcs no tiene importuncio)
1.0111<
+""·
+
u, ~
ª'• + bi2. +
Ut -=: b.t1
0%2•
90
Cap. 3 Ma¡rnllud"" aleatorias l'llr.torin!n
Ot'spcjando : 1 y
=• eu estas ecuaclonc:!. ob~endreruos au 1 + b11 2 •1= a~ + b2 />1q - a 11z
ª'+b• . .El hcobiono
~Lu
1Jz 1
t.J•unsformnción os igunl n
1
¡j;.1
Oi 1
a
-1 -
~tffl;
b
a•+b• az + .b •
u:,
h
1> a~+/,:&
+
1.
..,, _
1t~+b\I.
7íü"; iiu: ,,z b~ C:ou t:il s usliluci1í11 ele 1as variablll!I, los lírnitos de iutagrac;ión se dotouninarán por 111 dosl¡¡u&Jdnd 111 .;;; e, 1'~ deeir, In intcgraci<ín ~& efectuará do - oo bosta e eon r.~pr.111-0 a ,., y ele -oc 11asta +oo COJI n>S11nctu a u,. Como resultado, la Iórnnrla parn la pmb11bilid111l c.ondiciunal de pérdida do Je .se.6a! tomará la forntrt J> (
e
=
~
'Jn/J (a\.-'.- bS)
du,
'"1-'"¡-t11:r: 27lí1•+h1¡
I! -
=
du, =
(.-Q.t~-'""'g l /J(n•~·')
1
= ,v.,.,. ¡;;:;
)
_.,.
1,
e
-• l 4
'
1
t= 2
d111lllc (JI (u) e~ lt1 fitución
,., ( c - at/-b.<~ ) + "' VD (aj-f-b") '
~robobilidacl
( 3 _2 , 28)
do 11larma fals11 al estar
( e ) . (3.2.29) . . = P(cf(Z)>c i S = Ü) = ~- ,. vo ca•+bi) a.2 ..\. En las condicione~ del ejcml>lo anteTfor hallar el procedi-
Pu r Ej~mplo
miento óptimo de tr11 t.amiento de Jo. señal roclhid11 por el detector, que a~gure la probab,11idod mlnima de que se cometa un error y, por consi2Ulent.e, 111 probabilidad máx.lm• de una resolución eorreo\11. Con olra.s palaDr$5, hallar ln (unción 'P. y el nivel de umbral e 11. condición do que se garantlc-e la probabilidad
mínimo. do un orror. Para resolver esoo problema, aprovecharemos el booho de que
~ f (z-sO) dz+ ) f (:-G°) dz = 11(:)><
'l'(•)<;(c
..Jf
.
(z--s0 ) dz = 1,
- oo
y l'SCribiremos la f6rroula (3.2.26) en la forma
Porr. ~ P-
Í '11(<1>c
ÍP/ (s- •º)- q/ (a)I d:.
(3.2.30¡
§ 3 . 2. Funciones
co11dicio11ala
97
-Do·11quí está claro que la _probohilidad de un error Porr. t iene el valor ~ojmo cuando la Int egral es mbtma. Por lo tanto, el problema se reaucc ·a lñ .élección de la función qi (z) y la magnitud e-de modo u.!, que la integral en (3.2..30) tenga· el 'olayor valor J>.<>Slble. Es oviden~ que e3ta integral aumenta al añadir. a la iona de lntevactón tales parces del éSpacto del vec1.9r : en lnil cuáles. la fu'n ción ¡subintegral es positiva, y disminuye al añadir -a la zona de integtációí;l tales partes ··del .espacio en las que la fundvn subiutegu.1 os negaliva. Por consigy.leote ,, ,eet.it lntegtal tione el valor máXirno e;n el caso el\ que la zona de integraCión.coin•cid e con aquella •1ona del espaciQ'··del vector : on l a cual la !lincfón slibintegral ·· es •positiva, es decir, cuando la desigualdad
f (i -$0 ) /(i)
':/
(3. 2.32)
>-¡-
Su¡>Qngamoe aborn que 9 C'-l es una función 11.rhitraria·, dgurosamenlo crEciente. Entonces de (3.2.32) so deriva que
11 ( / (zf -(:)sU) )
> 9 (.1.). p
(3.2.33)
Comparaudo esl.8. d"-SiguaJdad con (3.2.3l ), ''emos que l a función umbral e se pueden determinar por las fórmulas ip(,)= 0 (
/ (;~()),
c=0
qi (!) y
(f),
el
(3.2.34)
En este caso la desigualdad (a.2.31) será equivalenw a Ja desigualdad (3.2.32) y Ja f,robablllda
.,.
f (: I
e= In 1- .
•º) «>
("l '> '.-15) • ·- "
P
En el ce so psrticul ar cuando se trata de impul sos de ruido indepcudienles nor maJ m~nte r eputidos con esperanzas mat emá\icos lgnale! a eel'Q e iguales dispeC$iOnes D,
f (r ) =
(Z:i)~' 5ñ exp
{
"
~ rf} 2~) 1-1
y la primera lórm1Jla d<} (3.2.35) toma la forma
crl•l = -
n
n
n
i= l
i- t
i..: t
2~ ~ f(:; -s?)' - zfl == ~ ~ •?z1- 2~ ~
(.-n2.
(ll.2.;l6)
Pues bien, en este caso la íund(in óptima cp {z) es Ct1nción lineal do l os i mpulsos recibidos, es decir , el detector óptimo es un sistoma llncftl. El mismo resultado se obtend rá en el ca!o de \ID ruido arbitrario normalmente repartido. La relació n de las densida des co ndiciooeles de pl'Qbebilidad de la suñal que se rec:lbe al estar presente la s1>.ñal útil y al estar ésta ausente se llama relact6n d~ 11erosim tli111d. Así pul!l<, el siswma do revelación óptima debo calcular la relación Je verosimilitud o cualq uier función creciP.nto do esta relación y 7 - 0~)3 8
Cap. 3 Ma11nitudts nkaluritrll 1-.,c/orfaks
98
compararla con el umbral c. Para determinar el umbral por la segunda fórmula (a.2.34), es nec:esario eonoeer Ja probabilidad de prose.o cia de Ja señal útil •' en la soñt\l recibida s. Sin embargo, en la práctica est.a probabilidad es de ordinario desconocida. Por eso ol problema de revelación se rc.suelve frecuentemente por otro pro~dimiooto, a eabcr, partiendo do la condición de probabilidad winlma de p6rdida dela sefial JIPer. ·dada la prob¡Lbllldad do alarma falsa Pa. t ... a. Para hallar la Iunoióu óptima ip ¡:) y el umbral e con los cuales la probahiiidad do pt\rdida de la sella! es mU1iU1a y lo. probabilidad do alarma falSA tiene cl Yalor dado a:, se puede aplicar el m&todo de mult.iplicado:res indefinidos de LBgrange. Entone<--~ el l?roblema se reduce a la det.ermuiación de la función 'I' (i) partiendo de Ja coocl1ei6n de que la magnitud
1'1 =1'per.-l-A.Pa.r sea mí nima, donde í. es ol multiplicador imlciiuido que se halla de Ja condición 1!0 que ps.t. =c. después de detennlnar 111 función q> (:). Este problema se l'\ISUelva igual que el de determinaci<ín de la funeióu qi (•) pai·líendo do la eondic.ión de que la probabil idad comple&11 do errores soo mínillla. Como resultado hallaramos
l(;c.t )
c=O(i.).
13.2.37)
L• ~uuda de estas fórmulas determina el umbral e por JDrdio de la magnitud ineognila A. que, a su vez, se baila partiendo de Ja. condieión de que Pa.t. = a . Eo luglll' dn esto se puedo determinar el umbrnl e directamente de la condición Po.e. c. dejando la magnitud >. lnd et<:rtninada. Eu efecto, haciendo uso de la fórmula (3.2.25) e igualando l a probabilidad de alarma falsa a La magnitud a;, obtendremos. para la detormlnnc16n d1•l 1lmbral e, la ec:u11ci611
=
J/
(i)
d~=a:.
(3.2.38)
et(•)>•
En pRrticular, al revelar la señal en dos impul~ indopcndient.es u,,rmalmente repartidos con esperanzas maoomáticas iguales 11 cen> e iguales dispersiones D, para determinar P•·I · se puede (!Jllp)ear la íórmula (3.2.29) del ejemplo anterior. pucst-0 quo la función 6pi ima cp (z} según (3.2.36} es en est.e caso lineal. Comparando la expresi6n do la runeión cp (:,, "1) del ejemplo anterior con (3.2.36). vemos que en.,¡ caso en cuesti6n 4 ~ $flD, b = 4/D. Su.sUtuyendo estas expre-
siones en (3.2.29), hallamos
/la.1. "".f-Cll
(eV Ml'~(•g)h) ·
,lguo.J~ndo
esta expresión a la magnitud a, obtenemos la ecuación para dot-0rminar ol umbral
11>
(e V (stJ•!c~l") =~-a.
(3.2.39¡
Sea v el yvJor del argumento de la función do Laplaee para el cual ésta es igual n 1/2 - a:, es deelr. cJ> (v} t/2 - a:. Comparando esta iguoltlad con (3.2.89), hallamos
=
(3.2.4.0) ~hora !¡len, en estq Cl$O el umbral e se determina directamente por la f6r111ula (3.2.,0) y ln segunda 16rioula ·do (3.2.37) se hace innecesaria.
§ S .3. Leyes de di.tribu.ci61' de las funciones
99
§ ,a.3. Leyes de distribución de las funciones de magnitudes aleatorias En los p.coblemas prácticos se necesita frecuentemeµte )laJla.r .~as leyes de distribución de magnitudes aleatorias. que repres~ntajl las funciones de otras .magnitudes aleatorios que tienen leyes de distri, bución conocidas. Supongamos que la magnitud aleatoria Y representa la función. uniívoca- dada de la magnitud aleatoria X: Y=
J
Esta fórmula es la fórmula geueral que dotermina la ley de distribución de una función unívoca dctcrminndn de la magnitud aleatoria X. Examinemos ahora ol caso de la dependencia continua recíprocamente unívoca entre las magn.itudes aleatorias X, Y. Esto quiere decir que la función
100
uno, de la magnitud Y sino que, a su vez, a cada valor de la magnitud Y le corresponde también un valor, y sólo uno, de la magnitud X. En la fig. 3.3.1. se muestra la curva y =
}'ig. 3.3.2.
Fig. 3.3.L
Suponiendo que la función
fdy) =
'") /1 (u)~ (y-q¡ (u)) du.
(3.3.5)
"'
Hagamos la sustitución de las varia.bles V=
(3.3.6)
cp (u,).
Considerando esta igualdad como una ecuación con respecto a u para el valor dado v, observamos que esta ecuación tiene la única solución en la zona de los valores posibles d.e la magnitud aleatotia X (fig. 3.3.:1.). Con otras pal abras, en el caso eo cuestión, existe la .funéiói¡ iriv!)rsa unívoca (3.3.7) u =1j) (v). De aquí hallamos (3.3.8) du = l (v) 1 dv,
w'
donde las diferen.c iales du y dv son positivas. Sustituyendo las exllre.siones (3.3 ..6) y (3.3.8) en la . fórmula (3.3.5) y teniendo en cuenta qué, .al, ~ustitui~ 'las variables (3.3.6), el intervalo (i1, x2) pasa al intervalo (Y1r y'2 ), obtehdremos ~.
j Is('~ (_v)) 1'1>' (v)l 6·(y -
fz(y) =-
11¡
v) dv.
(3.3.9)
§ 3.3. w11t1 dt dutribunpn tk 1,,.
fu11d~ntt
'De aqu!, en virtud de la propiedad conocida de la función delta '(2.2.6), hallamos /2 (y) = f 1 (lji (g)) l 'lf (y) 1 . -(;:J.3.10) . .EJcmplo 3.3.1. L a mognltud aleatorln Y es función lineal de la magnitua al'oatorta X:
Y=a X +ó.
, Hallar
(3.3. tl)
densidad de probabilidad conocieudo la deMidad do probabiliaad / 1 (z) de la magnitud aleatori11 X. En el caso en cuestión, la función q> y la función inverso .¡, se determinan re3pecti"ameote por las Córmul~ 8u
y -
q: (z) -
+ b,
az
"'li' (y) = (// - b)/a.
z
Sustituyendo la úl tima eicprreión 011 (3.3.10), obtendremos lo fórmula parn la deusidad de probabilidad do In fnnciún lincul do la 1t1t\¡¡nitud ~lo•loria: i '1 (¡¡) " Tilf /s
(
y- b) .
- a-
(3.3.12)
Eo p•lrticul a r, cuaudo (x-m)<
/1 (z) ..,. ~e--roo
al hn
d o la fórmula bailada tendremos ((y -b)f
2n::.
!2
Asl pues, la fw1ción lineal do una m11gnitud nl1>J1to1fa no1·1nnlrnonle r~purtida t ambién 41.'!tá disltibuida normalmente. Ejemplo 3.3.2. Sea Y =aSPllólX.
donde X es la magnitud aleatoria normalmenl(y) =
!
111·c8c11¿ ( I YI<•)
y su derivada
'f' (11)•
1
6l
Vo•-u•
.
Sustltuyoodo esta oxprc.'lión en (3.3.10) y Uniendo en onenta quo O>/ IT
ft (;r.) "' {
si
1z 1-<. :rl2m,
O si 1z 1>11/i(I),
obtendremos
/,(y) =
{
l
si 1~, ,.., .,
O
si
n Va• - y•
IYl>n.
(~.3.t~)
tO'i El gráfico do esta densidad de probabilidad se muestra en la fig. 3.3.3. Tal ley de distribución se llama ley del arco seno. Esta ley se encuentra frecuontemente en los problemas prácticos como ley de distribución de los errores debido a las excentricidades de los limbos en los ··gonióu1etros f,fYJ y otros instrumentos de medida. ' Ejemplo 3.3.3. Para mostrar oomo se aplica la fórmula (3.3.4) en eJ caso general, cuando la función cp (:z) 110 es monótona on el inte:\lalo de lus \lalores posibles de la magnitud a.leat-Oria X, ex.aminemos el caso cuando Y=senX,
-a
a
y
y la rnagoi\ud nlcat-Oria X está uniformemente repartida en ol intervalo ::J::rt:
x) =
I1 (
Fig. 3.3.3.
{1(l:rt s~ lxl_,,,; ,.., O s1 1:r1 n .
>
Según (3.3.4} la densidad de probabilidad de la magnitud aleatorialY(se_determina por la fórmula 1t
/ 2
(y) = :n
J
_,,
o (y-sun x) dx .
Para cakular esta integral, d.ividamos Ja zona de integración en tres partes
-1(
l'ig. 3.3.4. tales, que la función Y=SOll :r=q>(r.)
sea monótona en cada una de ellas. Entonces obtendremos
f2 (y)=~
-~
[
.\
-n
cS (y -senz}d:r +
~
n
-nn
NZ
J O(y - senx)d:r+ ~ 6(y-sen:r)dxJ.
Hallamos las funciones inversas :cara cada parle de integración. De la fig. 3.3.4 se deduce que 'lj>, (y) = -n - are sen y si -1 .,;; y .¡;; O, "1i (y) = are sen y si - 1 .,;; 11 ,;;;; 1. "13 (y) = n - are son y si O ~ u .,.;; 1.
108
§ 3.3. Ltgu d• dlt1rlbució11 dt las /unclo11u
Hallem0$
l~s
derivadas de las funciones i nversas par a eada parte:
,¡.¡
Suetit11yendo en las integrales las variables· respecttvnmeilto :i: = "'' ('11), :i: ... 'ljl 2 (11). :i . . ip3 (11), teniendo en cuflllta que. en esto c11so s~n :i: t¡, y aplicando las expresiones obtenidas para 11>> (:i:) , •ti (:r) ,y ~i (:i:), tendremos
=
=
f:
o
[J
1
6 (y- 'l) (i-•1'>- l /2¿ll+
_,
ó (¡¡ - T))(1 - TJ' )-l/ 2dti+
- 1
1
+ j cS(y -
t
i~
11)(1- 11'>- 112 d11J =
o
De aqul pal'a
J
[2
J"
112
d11J.
-1 1y 1
<
1 hallamos /,(y)
Fuera del intervalo J y J < t, la den.sidad de probabilidad / 2 (y) es igual a cero, puesto que para 1 11 J > 1 Is lunci6n suhintegral en el último tnterválo es idénticamente Igual a cero en el intervalo de lntegraei6n. Ahora bien. la densidad do probabilidad de Ja magnitud aleatoria Y se determiDR por la 16rmula
/ 2(Y) = {
:-tVi-yZ si si
luJ< 1, 1y1 >J.
Ejemplo 3.3.4. La magnHud aleatoria X estii repartida unilormemo.nte en el intervalo (O, 1). Rallar laJoy do distribución de la magnitud aleatoria Y = X'. En vista de la monotonía de la función v cp (z) en el intervalo (0, 1), b don.sid8d do probo.bilidad de la uiagnitud aleatoria Y se puede determinar por la f6rmula (3.3.tO). Dado quo
=
x = 1~ (v)= VV. lji' (Y) =1 /2
para O < :r
<
1,
VY
y ft(:i:)= 1
ballarno~
( ) { 1 /2 -Vii si 1) < ¡¡ < 1, f2 y O si y<. O, V> 1. Ejemplo 3.3.5. Ln magnitud aleatoria X está repartida 1111iforrnemonte
0 11
el intervalo (- i , 1). Hallar la ley de distribución do la magnitud aleatoria Y-X'. En 11Ste caso la dependoneia ent re las magnitud es aleatorias no es reciproeament.e unívoca en la iona de los valores posibles de la magnitud X. Por eonsiguientc, no se puede aprovechar la fórmula (3.3. 10) y hay que reeumr a la. fórmula general {3.8.4). Puesto quo la magnitud aleator ia X está distribuida uniformemente on el intervalo (-1, 1), entonces, según la f6rmula (S.S.,). obtendremos 1
/ 2 (y)={
J6 - t
(y-z1) d:i.
104
Cap. iJ Jl1 ar:nttudes aleato,fos 1;ectorialcs
La lundón y = :>: es mouótona en cada uno da los intervalos (-1. O) y (0, 1). Por lo tanto, en el inoorvalo (-i , O) tenemos que % = 1P1 (y) = - -VY. .¡.; (y) = - 112-VY, y en el intorvalo (0, 1) .,,. (y) = 112-VU: :r •h (yl = Vil. Por eso , dividamos la zona de i ntegración en dos partes y cumplamos en la primera i11tcgrnl la sustitución d e las variables x = ip1 (1¡) y en la segunde , z = •l>z (1¡). Entonces obtendren1os 2
=
o 1r
.l2
_,
t
6(¡¡-1¡) 2
dT]
-v;¡
1r d11 +2 J 6 (y-1J) 2
-v;¡ =
o
1
1 \
= -:¡
i
6(¡¡-1¡)
111¡
1
l/lj = Z l/y
si 0
Por consiguiunte, la densidad de prohnbilidudJ de la magnitud aleatoria Y se determina 11or la fórmula
J2 (•)={
tril/Y 0
y
si Sr
O
y
Ejemplo 3.a.6. Hallar la loy de distribución de la :roñal dó salida Y del olement.o no lineal en el ejem(llo 2 . 2. 1. Según Jos datos, la señal do salida Y ~.stó limitada en magnitud absoluta por el número a y es igual a l a se1i al de eutr.ada X cuando eoste último tiene el valor l•n Jos líroites (-a, u), es decir 11 si .Y>a. Yo: 1p (X)= X si IXJ..,;: a, { •i X
-a
<-a.
Tenicudo un cueuta que Ja señal de entrada X está uniformemento reparlida en el intervalo -2,Su 1
fi(y )= -¡;;
'·t j
<x<
1,5a, sogún In fórmula (3.3. 4), obtonemos
6(y - r¡>(x))clx=
- :!, (ta
,,, 4~
a
-e
[
)
Ó(y+u)d-<+
I -n
- 2 , ~a.
1
1,r.a
6 (y-x)d:i:+
J 6(y-a)dx] ~
a
3
i
.
= 44 11(!1+11)-1 (y-a)t+s li + 8 6 (y -a). ·: ..D.e un moQ..o absolutamen~e semeJante se d·e tetmina l a ley de d i~tripuci6r;i. ae.l .vector ale¡¡~oriQ y q1,1e represen.ta l a función de simple ·~alüación del .vector aleatorio X cuya densidad de proba-bilidait es·· conócida .· Supongamos qué las com¡ioneo.tes Y 1, .' •. , Y m del vector aleatorio Y son fu nciones de simple ' 'aluación de las componentes X¡, ... , Xn del vector aleatorio X: YJ = cp1 (X1 , • •• , Xn~ (/ = 1, •.. , m). (3.3.14)
§ 9 .3. Leyes de distribuciim de las /u11clones
Es necesario hallar la densidad de probabilidad t~ (y1,, •• . • ,-' y,n) del vector aleatorio Y, conociendo la densidad de probabilidad / 1 (xtt ... , xn) del vector ·aleatorio X. Para .resolver el problema planteado, hallamos pr.imeramente la densidad condicional de probabilidad del v~ctor aleatorio Y ·éón respecto a X . Puesto que para cualesquiera ' valores x 1 , • •• Xn 'd e las magnitudes aleatorias X 1 , • • • , X 11 cada una de las magnitudes aleatorias Y1 , • . . , Y m tiene, en virtud de las f6.rmulas (3.3.14j, solamente uu único valor y l a proba~ilidad de., est.e valor e:;¡ igµal a- la unidad,. entonces la d!)nsidad cohdiciónal de probabilidad· d'ei ·v ector aleatorio Y con respecto a X representa el producto de lasfunciones derta
/z (y,, · · · , Ym 1x,, ·. ·, x,,) =
n"'
;.;,1
Ó (Y1-'fJ (X¡, ••• , Xn)).
(3.3 .iS)
La "densidad conjunta de probabilidad de los vectores aleatorios X y Y, según la f6.rmula (3.2.19), es igual a f (x,. · · .. :e,., Yi. ... , Ym) = m
=fi(x,, .. .,xn)
lJ i3(Y1 i= I
(3.3.16)
Integrando esta igualdad con r~pecto a x 11 , • ., Xn y cambiando· la designación de la variable de integración, hallaremos, según la fórmula (3.1.19), fa densidad buscada de probabilid11d del voctor aleatorio Y: i2 (y¡, . .. , y,...,)=
=
""
""
j .. . Jt.
ll11 )
(11.i.
nO
(y¡-
(3.3.:17) Ahora supongamos que el número m de las magnitudes aleatorias Y 1 es igual al número n de las magnitudes aleatorias X 1 y que· la dependencia entre las magnitudes aleatorias X 1, •• ., Xn y Y 1 , • • ., Yn. os recíprocamente univoca. Este quiere decir que el sistema de ecuaciones v¡ =
q>J
(u 1 ,
•• .,
un)
(j = 1, . . . n)
(3.:3.18}
tie11e la solución. única en la zona de l os valores posililes de las magnitudes X 1, • • • Xn: u¡ = 'ljl ¡ (1J 11 •• ., v,.) (t = 1, .. ., n). (3.3.19) Al llevar a cabo en (3.3.17), para m. = n, Ja sustitución de l as. variaLles de integración valiéndose de las fóru1ulas (3.3.18). (3.3.19),. de acuerdo con la regla de :;ustitución de las variables en una integral
106
múltiple obtendremos /2 (¡¡¡ ..... Yn) = X
) · ;/ )
fr
ft('IJ.>1 (vi, · ·., v,,), .. ·, 'l\Jn (rJ1, ··.,!In)) X
O(y¡-v1) 1
;=t
.donde
8('ip ., .. ., "'"' it (u¡, . . ., v,.)
~
(3.3.20)
illjl1 (u11 . · · , "") iJv 1
°'1>1 (L'(•
011>1 lvh .. ., L'n)
Olj>z (u¡, ••. , u,.) ilv1
Olp.(v1, .. .,u11 )
81~,
· · · 1 Vn) iJv2
Dvu
Í)L•3
,11¡1,. (VJ> •.. , vn) iJ•~n (v., . .. , On
ª"•
íJtJn
(v1, •..• v,.)
i)lj>,. (vt> .... v,.)
º"•
ilvn
·es el jacobiano de las funciones (3.3.19) y B, la zona en el espacio •• ., v,. en la cual las fórmulas (3.3.18) transforman a todo el espacio de las variables U¡, •• ., u,. (en el caso particular, B puede coincidir con todo el espacio de las va1·iables v 11 •• ., v~). La integración en la fórmula ·(3.3.20) se puede cumplir aplicando la propiedad fundamental (2.2.6) de la función delta. 'Como resultado obtendremos
.de las variables v1 ,
/2 (y.,
· · · , Yn) =
"( = /( 1 'lr1 Yt.
) ·•( ))l<J(1p¡, .. .,1p,.)j . . ., y.,' . . " ~·n Yt. .. ., Yn il(y¡, .. .,yn) J'
(;)..3.21)
Aquí, al calcular el jacobiano, los argumentos v,, ... , v11 de los 'funciones ip1 (v¡, ... , v,.) deben ~er sustituidos por l as variables -correspondientes y 1, •• ., Yn· La fórmula (3.3.21) es válida. para todos los valoras Yt> .. ., y,. en la zona B. Fuera do la zoo.a B la ;densidad _de ,probabilidad / 2 (Yt> . . ., y11 ) es igual a cero. • Ejem¡ilo-;3.3.7. llallar las leyes de distribución d'e las coordenadas polares ,-Oe,.uil ;pllcl;l.to ,aléatorip <situado· Qn el plano, si las coordenadas rectangulares del
mismo tienen la densidad conjunta de probabiliqad / 1 .(x, y). . .. Designemos las coordenadas •polares (91 radio vector y el ángulo poi.ar) ¡:>or ..R . y
-.con .el jacobiano : ~:; ~ = R. Aprovechando las dependencias obtenidas, presentemos Ja. expresión para la· densidad conjllllta do probabilidad de las ·~.fdenadas pola.res h (r, rp) en la forma • .
/,(r, rp)=/1 (x, y)
j 88(~;, ~) l=r/1 (rcosrp, rsen rp).
(3. 3.22)
a.
§ 3 .9. l4v<1
dislrlbución d• /u fum:lontJ
107
Por intcgnción de la última igualdad con respecto a cp y r couespondiento, hallamos la densidad do probabilidad del radio vector y del ángulo polar: 2n
t,;(r) = r
'"' (cp)-
J{ 1
)
rsencp)dq>,
(rC08q>,
r
I (3.3.23)
fi (r cos lj), r sen q>) r dr.
J
Si la densidad conjunta de probabil idad de las coordenadas rectangulares depende solamente del radio vootor. es decir, { 1 (z, y) =- / 1 (1/~ -
h (r). eotonces de (3.3.23) obtenemos
fr {r) = 2tcrh (r),
!
(3.3,24)
00
,.., (q>) =
rh (r\ dr = COOSt.
(3.3.25)
En el caso particular de una distribución normnl cfrculnr en el plano, cuando j
h (r) = inJJ ~
••
- 20
D ,
d& (3.3.24) y (3.J.25) hallamos
(3.9.26)
r•
l,l(r)=-lr , - 2D, 1
'·~ (cp) = :!:t .
(3.3.:t7)
Por c:onPiguiente, el radio vector del punl-0 aleatorio e,stá reparlido p-0r la ley de Rayleigh y la Jase está repartida uniformemente. Ejemplo 3.3.8. Hallar Ja ley do distribución de la amplitud y do l a fase de las oscilaciones a rmónicas nleatorias de frecuencia determinada X (r) =- U sen oot Z cos oor, (3.3.28)
+
si los coeficientes U, Z son independientes, normalme11le repartidos con iguales di spersiones D y con esperan us matemáticas iguales a cero. En el caso dado se puedo nproveohar directamente los resultados obtenidos eo el ejemplo anterior. En e!eclo, presentemos (3.8.28) en la forma X (1) = A seo (
+
V
+
z.
Entouel!S la dent
Por lo t~nto. la amplitud A de una 011Cilación armón ica aleatoria está distribu ida 'Jl(>r la ley de Rayleigh y la fose <J> está uniformemente repartida de modo
l08
Cap. 3 Ma¡¡nitud•s aleatoria• 1>er.torlale$
,,.
que 11
(l D f"a=
t
-w
•
t
(3.3.~·I)
/~ (
Por eso, en los problemas conc~rnientes a la radioté<:oic3, dondu es nt'ccsario examinar lrocuentemente las señales que representan o~cilaciones armónicas con amplitud y fase aleatorias, es la ley de Rayleigh la que se suele tomar oo calidad do IRy do distribución de la amplitud. EjeÍllplo 3.3.9. Hallar la ley de distribución de Ja suma de las magnitudes aleatorias (3.3.32) Z =X + Y, conociendo Ja hiy de distribución de los sumandos. Al sn.~tituir en (3.3.32) las magnitudes aleat.:>rias por
s>J~
valores posibles,
obtendremos
(3.3.33) z = z + y = 1f (x, y) Esla ecuación tfone le. solución única respec.to a cualquiera de las variables, :i;, IJ· Despejando en ella, por ejemplo, :i; hallamos :r = ; - y = 1j> (z, y). C'..omo en el caso dado tenemos u11a sola función i¡:, cnwnco.~ el jacohiano es igual a ~,/az = 1. Por e.so, aplicando la fórmula (a.a.t7), en el caso en <>1>estión teuuremos 00
JJ
1: (z).,,.=
(¡ (x, y) 6 (:-:r.-¡¡) d:i; dg =
-oo -oo
=
1
00
/¡(:r, z-z)dx-=
J
j¡(z - ¡¡.y)cly.
(3.:J.$4)
-oo
La segunda integral en esta fórmula se obtiene si en la ecuación (3.3.33) se despeja y en vez do :r. L11 fórmula (3. 3.3~) determina la ley de distribución de lo suma de l as magnitudes aleatoria~ X e Y tanto dependientes como independientes. C'..onviene seña.ln1· un importante caso particular cuando los sumandos X e Y son inde· pendientes. En este caso /1 (;¡;¡ ¡¡) = k (:r) l (y), (3.3.35) donde k (x) es la densidad de probabilidad do fa magnitud aleatoria X, 1 (!/} es la densidad de probn)iilidil.d de In mngñitud 'a)eat()ria Y. En este caso partícula~ la substitución de ia expresión (3.3.35) ch la fórmula (3.3.34) da comi> resultado
/~(:)=
..J
_..,
k(z-y)l(y¡dy=
J k(:i;)l(z-.tjd:r.
(3.3.36)
La integral de tal tipo se llama.de ordinario c<mvoluc!ón de las funciones k y l. Ahora bien, la densidad de probabiUdad de Ja suma de \1os magnitudes aleatorias independientes ropresonta la eonv9lución de las densidodes de probabilidad de los sumandos. La operación concerniente a la detl)rmínación d~ la loy de distribuc.ión de la suma .según las leyes de dis\ribución de Jos sumandos indep
§ 3.1. Momentos de un vector al•atorla
109
.recibido en la Teoda de Probabilidades el nombre de adi.cl6n. o co'¡11posicj6p da las leyes de dist ribución. Es evidente que de un modo absolutamente análogo se puedo obtener la ley de distribución de la suma de un número cuaJqui.era .de magnitudes aleato. r ias. En lo que se refiero ·a los sumandos 'independienteg, se puede procede( 'también del modo siguieot~: hallar la composición de las leyes de dist~ibución. de los dos primoros sumandos, luego h11llar Ja composición .de la ley de distrih.ll:' cióo de l a suma (lo los dos primeros y Ja ley meoCionada del tercer sumando, ·etc.
§ 3.4. Momentos de un vector a le atorio
Se llama momento de orden r+s de un vector aleatorio (X, Y) a la esperanza mate,mática del producto X"Y':
a,.
=
(3k1~
i'4 [X'Y'I
para cual esquiera .r y s enteros no negativos. Es evidente que en el vector aleatorio bidimensional existen k 1 momentos del orden dado k, es decir, t antos cuantos son los procedimientos que se p ueden emplear para partir un número entero positivo k en dos sumandos enteros no negativos. Para calcular los momentos de un vector aleatorio, valgiímonos de l a fórmula general para l a esperanza matemática de la función unívoca arbitraria , real o compleja, de l as magnitude11 aleatorias X, Y. En virtud de l a definición de la esperanza m atemática como valor medio probabilístico pesado; para determinar dicha esperanza de la magnitud aleatoria q> (X, Y) conviene multiplicar cada valor posible cp (x, y) de esta última por el elemento· de probabilidad correspondiente f (x, y) dx dy e integrar el resultado obtenido con respecto a todos los val.ores posibles x, y de las magnitudes aleatotias X, Y . Como resultado obtendremos
+
"' ""
M[(J'(X,' Y)J= ~
\ q;'.(x, y)'f(x, y)dxdy.
(3.4.2)
-oo -<»
Es fácil comprobar que en el caso en que la [unción q> depende sol amente de u no de los argumentos, la fórmula (3.4.2) da el mismo r esultado que (2.3.4). En efecto, si, por ejemplo, q> (X, Y) .... q> (X) no depende de Y, l a fórmula (3.4.2) da como resu ltado:
J J lf!(~:)f{x, y)dx dy =
00
Jlf[q>(X)l=
"'
=
Jq> (x) dx J f (x. y) dy . -oo
(3.4.3)
- oo
Pero, en virtud de (3.1.18), la integral de l a densidad conjunta de probabilidad de las magnitudes X, Y con respecto a y es igual
ttú
Cap. IJ Ma¡:r.twd« akatorias r;ectnrlults
..J
a la densidad de probabilidad de la magnHud X: /(:e, y)dy=f1 (x).
Por eso la fórmula (3.4.:J) se puede escribir en la forma
1ll ltp (X)] =
..J
q; (x) /,(r) dx,
lo c1uo demuestra la afirmacióu enunciada. Así pues, como era de esperar, la esperanza matemática de la magnitud aleatoria q> (X) calculada por diversos procedimientos con ayuda de diferentes densidades de pr obabilidad, ligadas con la magnitud aleatoria X , siempre resulta la misma. Suponiendo en la fórmula (3.4.2)
.....
a,. =
J Jx' y'f (x, y) dx, dy.
- oo
-
(3.4.4)
0)
811 particular. esta fórmula da los momentos a, 0 y a 0 , tlo las magnitudes aleatorias X y Y tomadas por separado. A.hora bien, los 1noment:os del vector aleatorio (X, Y); en los cuales uno do los índices es igual a cero, coinciden con los momentos de las componentes correspondientes del vector mencionado:
donde a~ y a~ son el momento de orden r de la magnitud aleatoria X y el momento de orden s de la magnitud aleat oria Y respectivamente. En particular, los momentos a 10 y a.01 :;¡011 iguales a las esperanzas matemáticas de las magnitud·es al eatorias X y Y rci¡pec,tiva, mente. De un modo semc¡aow se determinan "los momentos .ceutr&les s del vector aleatorio. Se denomina momento central de orden r del vector aleatorio (X, Y) a l n esperanza matemática del producto (Xº)'(yo)': .
+
(3.4 .5} dond e Xº .= X - m.,, Yº = Y - m¡¡ son las magnitudes aleatorías centrndas correspondient(ls. Para calcular estos momentos, supongamos ..;1 1e en l a fórmula (3.4.2) qi
(z, y) = (z -
m,,)' (y -
m~) ·.
.~
9.4. M()met1lo8·dtt
u11
vtttor aleatorio
Entonces obtendremos
µ,, =
1) ...
00
-oo
-GO
(x-m,,)'(y - mv)"f(x , y)d;cdy.
(3.4.6}
Suponiendo que en esta fórmula uno de l os indices r, ses igual a cero. obtendremos los momentos centrales de las componen-tes del vector ·aleatorio µ,o = fl~ , µo•= f.1.~·
En particul ar, los momentos centrales de ,segundo orden µz 0 y l'oa repre:ieutan hts dispersiones de las magpitudes aleatorias. X y Y~ µ20 = µ;' = D.,, µ02 = µr t:: D,,. Para los Cines prácticos tiene gran· importancia aquella parte. de la Teoría de Probabilidades que se limita a l a investigaéión de los momentos de primer y segundo orden de las magnitudes a leatorias. En lo que toca a la ley normal de distribución de la magni.tud aleatoria escalar, como hemos visto, para determinar por completo la ley de distribución es suii~iente conocer el primer momento de la magnitud aleatoria, es decir, la esper anza matemática, y el segundo momento central, es decir, la dispersión. Para las leyes de distribución distintas de la normal esta tesis puede no ser válida. Puede ocurri r que n o sea bastante ,el conocimiento de la esperanza matemática y de la dispersión p ara caracterizar por completo la ley de distribución. Pero, no obstante, l a dispersión caracteri za l a fluctuación de una .magnitud aleatoria. Esto ofrece la p osibilidod do limitarse en muchos problemas prácticos a la determinación de los momentos de primer y ¡:;egundo orden de l a magnitud aleotoria, haciendo caso omiso de la l ey de distribución. Para el vector aleatorio bidimensional existe, además de los momentos de segundo orden µ 20 y µ 02 , todavía el momento de segundo orden µ 11 • Este momento, que tiene unn importancia especial para los fines prácticos, se llama momento de correlaci6n o momento de enlace de las magnitudes al eatorias X, Y. Designaremos el momento de correlación de la.'l magnitudes aleatoriAs X, Y por kxy· Suponien do en la fór mula (3.4.6) r = s = 1, obtendremos par a el momento de correl11ci6n de lns magnitudes a leatorias X, Y In fórmu la siguionte: lrxM = ~LlJ = Nf [XºYºJ =
)"" J"" (x -
m,,,)(y - m 11)/(x, y)dxdy .
(3.4.7)
- oo - oo
E l ntOQl('nto do correlación de dos magnitudes aleatorias can1cteriza hasta cierto grado, no por completo, la dependencia entre est as magnitudes aleatorias. En efecto, el momento do correlación
Cap. 9 M agnitu4es alcaforias
t!2
ve~toriaLes
11s el análogo teórico del momento de correlación estadístico [§ 1.2, la fórmula (1.2.22)]. En el § 1,2 la intuición nos ha sugerido que el momento de correlación estadístico distinto de cero indica la existencia de cierta dependencia entre las magnitudes aleatorias. Por eso, es natural esperar que lM magnitudes aleatorias soan dependientes, si el momento de correlación de las mismas es distinto de cero. Las magnitudes aleatorias X y Y se llaman correlacionadas siempre que su momento de correlación sea distinto de cero. Las magnitudes aleatorias se denominan no ·correlac~onadas si su momento de correlación es igual n cero. Demostremos que las magnitudes aleatorias independientes nunca están correlacionadas. En efecto, supongamos que X y Y sean i ndependientes. Entonces su densidnd conj unta de probabilidad es igual al producto de sus de11sidades de probabilidad, y podemos escribir 00
kxy =
00
J J (x-mx) (y-m
11 )
-oo
-
/i(x) /2 (y) dx dy =
!IO
= ( J (x-m:r) / 1 (x) dx)
00
(
J (y -
mv) / 2 (y) dy) . (3.1.8)
l'cro cada una de eslas integrales es igual a cero como momcnlo central de primer orden de fa magnitud aleatoria correspondiente. Por consiguiente, el momento de correlación de las magnitudes
l13
Y. Y n o están correlacionadas a pesar de que entre ellas existe la dependen cia fUDcional. Se puede demostrar una afirmación todavía más general: si l!l distribución conjunta de las magnitu des aleatorias X, Y es simétrica por lo menos respecto a una de las rectas paralelas a los ejes de .c oordenadas y que po.sán pór el punto (m.,, m ), entonces el momento
kzv
rxy= VoxDy - º"-ªu '
(3.4.9)
Ejemplo 3.4 .1 . Hallar el momento de eorrelacióo de !ns componontcs do un vect.or aleatorio rc.P.artido uoüormemeote en un rectángulo. Como la distribución conjunta de las com¡>Qnentes del vector aleatorio dispuesLo en el plano es sim~t.ríca con respecto a los ejes de coordenadas, entonces es evidente que m~ = m11 = {), kxv = O. De esto se puede convencerse llevando a cabo la coropro1>"ción directa. Por consiguiente, (vé&Be el ejemple, 3.2.1). laa componentes del vector aleatorio (X, Y) no solamente están no conelaclonadu sioo que son también i ndependieotee. Ejemplo 3.4.2. Hallar el momento de correlación de las componenl.es de un vector aleatorio unüormemente reparUdo en la eli)lSC. En virtud de la simetría de la distribución de probabilidades del vector aleatorio, esté. elaro que m,, = mv O, k,.11 =- O. Sin embareo. en el ejemplo 3.2.2 hemos descubierto que X e Y son dependientes. Asl -eucs, IA.s magnitudes aleatorias X, Y son dependientC3 pero no est&n oorrolac1onndas.
=
Si en la dofinición de la esperanza matemática y de la d isp.e rsión de una magnitud aleatoria, enunciada en el § 2.3 !las fórmulas (2.3.2) y (2.3.!>)I la densidad de probabilidad de l a magnitud aleatoria X se s ustituye por la dens idad condicional de probabilidad de X con respecto a cierto acontecimiento .tt o con respect o a otra magnitud aleatoria Y, obtendremos la d efinición de la esperanza matemática condicional y de la dispersiún condictonal de X con respecto a A o Y. Designaremos la esperan za matemática y la dispersión condicionales de la magnitud aleatoria X con r especto al aconteci miento A por • - tt88
Co.p.
a Ma¡;nltude.•
aleatorias 1;ectorlale..
lif IX 1 AJ y D IX 1 Al respectivamente. De un modo análogo designaremos la esperanza matemática y la dispersión condicionales de la magnitud aleatoria X con respecto a la magnitud Y correspondientemente por M [X 1 Yl y D IX 1 YJ. De un modo absolutamente igual que para un vector aleatori() bidimensional se determinan los momentos de un vector aleatorio con un número cualquíera de componentes. Le dejamos al lector que por sí mismo escriba las fórmulas generales y nos limitaremos a los momentos de primer y segundo orden. Los momentos. de primer orden do un vector aleatorio n-dimcnsional X representan las esperanzas matemáticas mx 1 , ••• , m"n de las componentes X., .... Xn . Esto da lugar a que la esperanza matemática del vect.or aleatorio X se defina como vector mx cuyas componentes son l as esperanzas matemáticas m,, 1 , • • • , m,.n de l1;1s componentes X 1, • • • , Xn correspondientes clel vector aleatorio X. Los momentos centrales de segundo ordcu del vector aleatori() n-dimensional X representan las dispersiones D,.1 , • •• , D,.,. y todo.s los momentos de correlación k;, 1,.2 , le"'"" ... , kx,._1' ,.11 de sus compommtes X 1, • • • , Xn. Suponiendo, para abreviar, que
kw = D"v' kvµ = kxvxµ(v, ~t= 1 , ... , n; V
(3.4.10)
obtendremos nt momentos centrales del vector aleatorio X que se pueden considerar como elementos de la matriz cuadrada *). ku kt2 • • • k1n 11 K = k21 k22 · • • k211 =JI kvµ knikn2 · · · knn
llv, µd, . .. , n•
(3.4.11)
Esta matriz se llama matriz de correlación uel veclor aleatorio X. Ahora bien, si se limita a los momentos do primer y de segundo orden del vector aleatorio X, éste se caracterizará por el vector de esp~ran~a matemática m., y por la matriz de correlación K. El momento de correlación de dos magnitudes aleatorias no deperide··evidenternente del orden en el que se toman estas magnitude5 (3.4.12) Así pues, los elementos de la matriz de correlación dispuestos con· respecto a la diagonal principal son iguales une> a 9tro, es decir, la matriz de correlación es simétrica.
sim~~r.icamente
•¡ So llam;! .matrli a un cuadro de números dispuestos en renglones v columnas. Si el númti.ro de renglon~s es'tgoal al de c<>lumnas, la matrir. se llama cuadrada. Si el número de renglones ne> ~s igua1 til de columnas, la ·matriz se llama reetai;igular. ·
f:tS
§ 3.5. Fund6rt característica 46 un r>ector altatorlo
§ 3.5. Función caracter ística de un vector aleatorio
La función característica de un vector ale·atoiio X con las ·componentes X., ... , X.,. se determino. por lil fórmula
· g(A.i. • . . , A.11 ) =M [exp {t(A. 1X1+ ••• +A.nXn)}J.
(3.5.1)
Cuando n = 1, de esta fórmula se deduce la definición de la función característica, de una magnitud aleatorla escalar, enunciada. en el § 2.4. Aplicando la fórmula (3.4 .2) (más exactamente, su general.i~a ción referente al vector aleatorio n-d imensional) para el cálculo· de la esperanza m atemática, obtendremos la siguiento·expresión para la función caract.erí.l;t.icn del vector aleatorio X:
J ... J exp 00
g (?-.i, . . • , A.n) =
- oo
{i (A.1x 1+
. .. + A.~••n)} X
- ao
X
f (x1 ,
••• ,
Xn) dx, ... dx,..
(3.!i.2)
Dado que la densidad de probabilidad de un vector aleatorio, debido a sus 11ropiedo.des princi1>ales (3. 1.15) y (3.1.16), es una función integrable no negativa, se puede presentar dicha densidad por l a . integral de Fourier /(x1 1
••• ,
Xn) = (i!)n
r... r
dJ..t ... di..,.
-oo
5.. · )/(~¡,
. · ·,
~n) X
-oo
-00
xexp{ip. 1 (~1 - x1+···+A.n(~n-Xn)J}de1 .. • d~,.
(3.G.3)
1-'ero en virtud de (3.5..2)
j ··· - oo
r/(~t. ··. ,
Sn)cxp{iP.dsi--X1)+ · · .+A.n (su-Xn)J}
-oo
X
+ ... +
X ds1 ••• d~n = exp { - i (A1X1 A.,.xn)} g (J.. 1, ... , An). Por eso la fórmula (3.5.3) se puede presentar en la forma
f (X¡ .
. . . . Xn )
=
(:.!~)»
00
00
-oo
-oo
J ... 5 exp {-
i(A1X1
+ ... + ArrXn.)} X
X g (A.¡, • · • 1 t .n) d'l-.1
. .• dA.n.
(3.5.4)
Esta fór mula enuncia l a densidad de probabilidad del vector aleatorio por medio de la funci ón caraclerística del mismo. Ahora bien, la función característica puede servit de característica probabilística completa de un vector aleatorio. Conc;icicndo la función característica, se puede hallar, por la fórmula (3.5.4), la 8*
116
Cap. 3 Magnitudes aleatorias <'tctorialu
densidad de probabilidad del vecwr aleatorio y, por consiguienta, la función de distribución del mismo. Las fórmulas (3.5.2) y (3.5.4) muestrau que la funaión característica del vector aleatorio es la transform ación de Fourier de su densidad de probabilidad y esta última es la transformaci ón inversa de Fourier de la función característica. Conociendo la función característica del vector aleatorio, se puede determinar fácilmente los momentos del mismo. En efecto, al derivar la fórmula (3.5.2) k 1 veces con respecto a A.,, k 2 veces con respecto a ~. etc, k,. veces con respecto a A,., obtendremos*)
~1+ ...1t +hng().1' ~
. . . , /..,.) Jt.
o).¡' {})'21 ..• 8~-n·
X exp {i (A. 1x1
" +. . . +1'n
""J
.= i •
- oo
. • .
"° )·•
__,, ~ X ;.r; ¡ • • •• x nn.
_..,
+ ... + AnXn)} f (xi. . . ., x,,) dx, . .. Xn) dx , ... dxn. (3.5.5)
Suponiendo quo aquí A. 1 = ;,2 = ... = }.,,.
(et•+· .. +~ g 11
t
""~'oí..~·
¡k1+. .• +J
(kit . . ., k.,
=
= O,
obtendremos
(í..1o •• ., An) ]
. '. d'>J;."
o
(3.5.6)
1, 2, . ..),
donde el cero significa que, una vez efectuada la derivación, hay que admitir que /, 1 = ?..2 = . . . An = O. De un modo absolutamente semejante se puede ex¡mis.a r los momentos centrales del vector aleatorio mediante la iunción característica del mismo. Con a~ruda de las fu ociones carncter.ísticas se puede resolver el problema de determinación de las leyes de distribución de las funciones de las magnitudes aleatorias, examinado en el § 3.3. Examinemos primeramente una magnitud aleatoria escalar Y enlazada con otra magnitud aleatoria escalar X por la dependencia funcional y ='P (X), (3.5.7) donde q¡ es una función unív.oca !ll'bitraria. En virtud de la definición, la función característica de la magnitud aleatoria Y se expresa por la fórmula
o bien
..
ga(i..)~ ~ ~X)/i(z:)dx,
(3.5.8)
•) Clar.9 está que la f4r.mula (3.5.2) se puede derivar .sol~~ente en el C!iSO de que )as integrales, obten1d6!! como resultado de la der1vae1on, se conver¡an úniforme'aiei:i~· es decir, si' ·e·J'.isten los momentos correspondientes del vector
~~·
'
H7
§ 9.5. Funcl6n caracterf$ttca de un wctor olealorio
.¡aonde ft (x) es la densidad de probabilidad de la magnitud al eato-1i'ia X. Al tomar la transformación invérS'a de 'Fourler, hallaremos, ,según la fórmula (2.4.3), l a densidad de probabilidad de la magnitul!, aleatoria Y: 00
!2 (y) ""' 2~
Je-l1..ug2 (A.) dA..
(3.5.9)
-oo
De uo modo análogo se h allan, con ayuda de l as funciones característ icas, las leyes de distribución de l as funciones vectoriales de las magnitudes aleatorias. Si las co~ponentes del vector aleator io Y son las fwlciones univocas conocidas de las componentes del vector aleatorio X: Y-'= QJ11 (X., .. ., Xn) (k = 1, •.. , >n), (3.5.tO) entone~
la función característica del vector aleatorio Y se define por la fórmula
Kz (A.t, • • · , A.,,,) =
..J J..
- oo
exp {i IJ..iipt(x.,
.. ., Xn) + ...
-oo
+ J..,,.q¡,,. (xi. •.• , .Zn}J} f,(x.,
... , .Zn) dx1
•••
dx,.,
(3.5. 11)
donde f 1 (xtt ... , xn) es la densidad de probabilidad del vector aleatorio X. Al tomar l a transformación inversa de Fourier, hallaremos la densidad de probabilidad del vector aleatorio Y: 00
t~ (Ys.
• • ·, Yrn) =
(2 ~)m
..
J ·.. J exp { -
i(A.1!11
+ .. · + AmYm)} X
-oo
X Ka (A.,, • • ·, A.,,.) clA.1 • · • dA.m.
(3.5. 12)
Las fórmulas (3.5.11) y (3.5.12) resuelven por completo el problema pl anteado. Ejemplo 3.5.t. Hallar la ley do distribución de la suma de dos magnltudea aleatorias independientes uniformemente repartidas cuyas esperanzo maternátleu son iguales a e.ero. En esto caso ténemos una sola magnitud aleatoria escalar Y que roptG19nta la suma de las componentes del vector aleatorio bidimensional X:
Y= X,+
X1.
Las densidades de probabilidad de las magnitudes aleatorias X, y X r se determinan correspondlontemonto por las fórmulas 1 1 ( )- { 1/212 si 1;r, l <; o, ' O si 1;rl 1 a,
z, -
1/2b si h,(.>:.)= { O si
>
l z 1 l < b. jz2
I>
b.
H8
L~cloriales
Cap. 3 M ag11itiidts aleatorias
La donsidad oonjuota de ¡irobabilidad do las magnitudes aleatorias X, y X 2 es igual al producto de las densidades de probabilidad de las mismas. Aplicando la fÓl'm11la (3.5.H), hallamos la función característica de la magnitud aleato· ria Y: •
/!y (l.)=
b
..!b J dx1
)
-a
-b
eil.(x 1+"•l tb:2 =
J =Tab •
J
•
1
b
l)..:(¡
dJ:
-a
sen A.a sen j.,b abl..2
e'f.x• dx.,
J
•
-b
Luego, según la fórmalu. (3.5.12), hallamos la densidad de probabilidad de la mAgnitud aleatoria Y:
..,
fd11)=
~(!/)
t = 21111b
.. f .l
.:oo
2~
J . -v.ugy
{Á) cli>.=
- oo
e
- i~Y
sen 1..a·sen }.b áJ..= 1,.2
00
-a-b - la-61
O
la - 61 a+6 y
1
=21iai}
\
J
__;_ s.
cos?..¡¡.senl..a·sen/.;b áJ ?,.2
A-
- oo
Fíg. 3.5.1.
:lJ\ab
sen Áy·se11 Áa·sen Ab A.
d1'..
!'ero la última integral es igual a cero oomo integral en límites simétricos de la fnnci6n impar. Al mismo tiempo, l a prin1ora integral, como Integral en límites simétricos de la función par, es igual a la integral doblada en los límites desde O basta oo. Por oonsiguiente, /,(y)= n~b
.J
cos i,y . se~¡.a·Sl•n M d1' =
o 00
= 4:ab
J[cos(a- b+y)t.-cos(a-b-y)l,cf>..
De aqili,
11:Pli~ndo
-cos (a+b+11). A-cos(a+b-y) A) 12'' la fórmula conocida
he.liamos 1
/2(Y)= Sab ( la·+b+Yl+la+b ·-yl-[a-b+y 1-la-b-y( ).
El gráfico de esta densidad de probahilídad se muestra en la fig. 3.5.1.
§ 8.6. T.t.y n orrndl b/;llmc111lo11al dt dulrLbu
119
§ 3.6. Ley norma l bidimensional de distdbucl6o
La densidad de probabiUdad del vector aleatorio (X, Y) bidi· mensiona l normalmente repartido se enuncia, en el caso general. por la fórmula
---
f(:r:, y)aa V•u~-cJ, exp { -{-lc:u (z- a)'+
+
2c12 (z-a)(¡¡-b)
+en (y-b)2J} ,
(3.G.i)
donde lns magni~udes e, .. c 22 y ei 1c22 - e!, son positivas. Hallemos la ley de distribución y las leyes condicionales de distribución de las componentes X y Y de este vector aleatorio. Según (3.1.18), la densid11d de probabiUdnd de la magnitud alealorin X se expresa por la fórmul:I
/,(x) -=-
Y• 11~~·-ii=
r
cxp {-{-1c11(x-a)2
+
-oo
+ 2c:z (:r:-a) (y-b) + en (y -
b):I} dy ...
= V •11•u2n
•f1 oxp { - .!.c11 (z-a)' \ X
..
{-{-¡2c,i(z-a)v+c~u2 1}
.
X
_}
exp
J
2
dv.
(3.6.2)
Para el cálculo de la integral obtenida apliquemos Ja fórmula eo
I e"'_,..,~ dt = -~e
.,s
.= .
41
<"·6.3>
-oo
cuya deducción se expone eu el suplerueuto !(fórmula (1)1. En vi rtud de Ol!tA fórmula.
r.. -+
_
exp {
f2c,dx-a) v+ c211Pt} dv = = , / 2.:i exp { c}, (z-a~}. V cu 2t1:
(3.6.4)
Susti\uyendo esta exp!'e$ión en (3.G.2), obt.en
f, (x) =J./
cllc:;:cr. (z-a)'} .
(3.6.5)
Com parondo esta fórn111l11 con l a expresión (2.5. 12) de la dcusidDd de probaliilidaJ normal unidiruensionnl, vamos que la componen-
120
Cap. 3 M ag11itudea alea!Qrlar vectoriales
te X del vector aleatorio bidimensional normalmente repartido (X, Y) también está distribuida normalmente; en este caso la espe.ranza matemática y la dispersión de dicha componente se determinan por las fórmulas
m ,,=a,
Dx
(3.6.6)
En virtud de la simetría, la densidad de probabilidad f 2 (y) de la magnitud aleatoria Y se expresa por la fórmula análoga a (3.6.5):
el( {- CuCaz·-cf, I 2 (Y ) =-,V/ C11Ci2-C~. 2cun P 2cu
(
y
-b)2} •
(3.6.7)
Al comparar esta fórmula con (2.5.12) resulta que la esperanza matemática y la dispersión de la magnitud aleatoria Y Re definen por las fórmulas (3.6.8) Pata determinar la densidad condicional de probabilidad de la magnitud aleatoria X con respecto a Y, apliquemos la fórmula (3.2.8). Sustituyendo en ella las expresiones (3.6.1) y (3.6.7), después de simplificar obtendremos
/1=(z !y)= =
·v~
exp
{-ir
C11
(z-a)ª+ 2c1z(X-a}(y-b) + ::: (y-b) 2 ] }
o bien 11(.e1 Y)= V ~~ exp { -
'~1
[
x -a+
;;~ (y-b) ]2}.
(3.6.9)
Ú:na fórmula semejante se obtiene para la densidad condicional de probabilidad de la magnitud aleatoria Y:
/2{ylz)=V;: exp
{-e~ [y-b+ ;:: (z-a)J2}.
(3.6.10)
Comparando las fórmulas (3.6.9) y {3.6.10) con la expresión general (2.5.12) de la densidad de probabilidad normal unidimensional, .llegamos a la conclusión de. que la ley condicional de diStribución de cada com,Ponente del vector aleatorio normalmente repartido es también normal con ·respecto a la otra componente; con ello, las esperanzas matemáticas condicionales y las dispersiones condicionales de las componentes X, Y del vector aleatorio (X, Y) se definen
12t
§ 9.6. Le¡¡ 11orm4l bidimensio11al de dUtrlbuctón
por las fórmulas
M(Xiy)=a- ~:~ (y- b), D(Xlyl=c~i' M[YlxJ=b-~(x-a) . D(Ylx)=-Cz-i1- . \Ci2
l. . ¡·
(3.6.11)'
. Al comparar las expresiones (3.6.5) y (3.6.7) de la,.s densidades.de probabilidad no condicionales con l as (3.6.9) y (3.6·.10) de las densidades dé probabilidad condicionales· de l as componentes de. un vector aleatorio normalmente repartido, se· desprende que eSias .~omp-0néntes son por lo común magnitudes aleatorias dependientes. Y soJamente en caso en que c12 =O, las componentes de un vector aleatorio bidimensional normalmente repartido son indepen!lientes. Démos la interpretación geométrica de los resultados obtenidos. La ecuació·n c11 (x - a) 2 2c12 (x - a)(y - b) c 22 (y - b)' = 2k2• (3.6.12). cualquiera que sea el valor k, es la ecuación de la curva central de -segundo orden con centro en el punto (a, b). Como el discriminante D = c 11c22 - e~. es positivo, entonces esta curva representa una elipse. Si se considera k como parámetro, a la ecuación (3.6.12) le corresponde una familia de elipses concéntricas semejantes. En todos los puntos de la elipse correspondiente al valor dado del parámetro k la densidad de probabili.d ad f (x, y) tiene un mismo valo1"
+
+
igual a V~ e-11.•. Al alejarse del centro de dispersión, es decir, al aumentar el parámetro k; la densidad de probabilidad disminuye .. Debido a esto, la distribución de los valores posibles de un vector aleatorio bidimensional se puede representar geométricamente pol"' una famHia de elipses concéntricas semejantes cuya .espesura dismi· nuye, al alejarse del centro de dispersión, proporcionalmente a la magnitud e-1ti. Tal cuadro de la dispersión en el plano, subordinada a la l ey normal, se llama díagrama de dtsperst6n . L a ecuación x=a- ;;~ (y'-b), (3.6.13)· que represenla gráficamente la dependencia de la esperanza matemática condicional de la magnitud X del valor y de la magnitud Y es, como es sabido de la teoría general de l as curvas de segundo orden, la ecuación del diámetro de una elipse (3.6.12) conjugada con la dirección del eje x. Este diámetro divide en dos partes iguales a todas. las cuerdas de la elipse y corta a la elipse en los puntos en los cuales. las ta ngentes a ésta son paralelas al eje x (fig. 3.6.1). De un modo absolutamente análogo la recta
y = b-.:J.!.(x-a), Cz2
(3.6 .14)
que refleja la esperanza matemática condicional de la magnitud Y
Cap. 3
122
"1axnUud~1
akatqrltJ.t rutorln/,.
en función del valor x de la magnitud X, es el diámetro clel diagrama ·de 1lispersión conjugado con la dirección del eje y. Esta recta divide .eu 1los partes iguales o todas las cuerdas de la elipse, paralelos al eje y, y corta a Ja elipse en los puntos en los Y q r cuales l as tangent.es a esta últ.ima son paralelas al eje y (fig. 3.6.1). La recta (3.6.13) que representa l n dependencia de Ja esperanza matemática condicional de la magn itud X del valor y de la magnitud Y se llama linea de regresión de l a magnitud aleatoria X a Y. Análogamente la recta (S.6.i 4) so Uama línea de Pig. 3.1.i.1. regresión de la magn itud aleatoria Y a X. Como es sabido de La teoría de las curvas de segundo orden, los ángulos de inclinación de los ·(•je~ del diagrama de d ispersión (3.6.12) con respecto a los de coor·d('n;idns se de terminan por la fórmula t<> 2A -- 2.!L ..... cu-cu.
(3.6.15)
De aqui se ve que las componentes de un vector bidimensional norma lmente repartid o son independientes precisamente cuando, y solaniente cuando, los ejes del diagrama de dispersión son paralelos a los ejes de coordenados. Hallemos ahora el momento de correlación de las componentes X , Y del vector bidimensional , aleatorio norma lmente repartid o (X, Y). Sustituyendo en la fórmula (3.4.7) la expresión (3.6.1.) .Je la densidad normal de probabilidad, teniendo en cuenta que l as -esperanzas matcmáLicas de las magnitudes aleat orias X y Y son iguales a a y b respectivamente, y cambiando las variables 1• = x - a, v = y - b, obtendremos k "V -= 1/c11c11-ci-: 2'"\ X
..
..,
X
J J uvexp { - -}[cuu'+ 2c13u11+c21v~1} dudv. -oo
-
(3.6.16)
(IQ
l?ara cumplir primeramen te la integración con respecto a 11, añadiremos los tér111inos en el exponente que contienen v hasta que se -0btenga un cuadr ado perfecto. Para esto conviene adicionar y restar -en el exponente la magnitud cJ, u1 . E ntonces obtendremos
k:xy -
.. Vcu~~-cl, J -oo
en
¡¿ exp
{-
cuc~;c¡, u'} du X
§ 9 .6. Ley normal bidimef1SÍOlloJ de di•trihllcl6n
..A.l sust.ituir las variables t tendremos
=
v
+ c,i u
X
J (t -
C22
123
en la integral interior,
00
:::
u) exp { ~~t~} dt
-oo
o, valiéndose de las f6rmuJas (2.5.2) y (2.5.3),
Ahora, aplicando la f órmula (2.5.4), obtendremos k
_ xu-
-V2ñtf.
., /cuca - ch cu
-v
Despu.;s de efectuar las mos dcfi11iti vamcnte
2ncu
-;;;;- V(c11c22-cf~)3 .
simpliíica·~iones
correspondientes, obtendre(3.(i.17)
k:r:y=
Esta fórlltula muestra que las componentes de un vector aleatorio hidimensional normalmente repartido están no correlacionadas si, y sólo si c12 = O. Pero ahteriormente vimos que la igualdad c12 = O es necesaria y suficiente para que las componentes de un vector aleatorio bidimensio1111l normálmente repartid<> sean independientes. Ahora bien, las componentes de un vector aleatorio bidimensional normalmente repartido están no correlacionadas precisamente si, y sólo si , son independientes. La segunda fórmula de (3.6.6), la segunda fórmula de (3.6.8} y la fórmula (3.6.17) se pueden considerar como ecuaciones con las incógnitas c11> c12 y c2 2 • P ara resolver estas ecuaciones, multiplicaremos miembro a miembro las segundas fórmulas de (3.6.6) y (3.6.8) y de la fórrnula obtenida restaremos la fórmula (3.6.17) ~levada al cuadrado. Como resultado obtendremos DxDll -k!~ =
f Ct JC22 -
• .
C1t
(3.6.18)
Dividiendo por esta fórmula, miembro a miembro, la segunda fórmula de (3.6.8), la segundn fórmula de (3.G.6) y la fórmufa (3.G.17),
C1tp. IJ Ma¡!.11i/ud;:s aleatortas vedtwlalts
124
después de simplificar, obtendremos Du
Cu= D,,p~- kh C12
=-
DxD:x:.. k';,v D,,,
C22=
J1
'
D,,,Dy - k~v .
'
f
(3.(i. Hl)
1 )
Así pues, basta conocer las dispersiones y el momento de correlación de las componentes de un vector aleatorio bidimensional normalmente distribuido para determinar por compl eto todos los coeficientes en la expresión de la densidad de probabilidad del mismo. Es evidente que no es suficiente conocer solamente las dispersiones D"' y Dv para determinar la densidad conjunta de probabilidad de las magnitudes aleatorias X, Y. Por consiguiente, como muestra el ejemplo de las magnitudes aleatorias normalmente repartidas, no basta conocer l as densidades de probabilidad de las magnitudes aleatorias, tomadas por separado, para determinar su densidad conjunta de probabilidad. Sustituyendo las expresiones (3.6.19) en la fórmula (3.6.1) y teniendo en cuenta que las magnitudes a y b representan l as esperanzas matemáticas de las magnitudes aleatorias X, Y respecti vamente, obtendremos t
f(x, y)= 2lt YD X D y - ki:Cl/ X X
exp { -
Du (r- m,,,) 1 - 2kxv (z-mx) (y-m 11)+Dx (y-m11) 2 } . Z(DxDv-khl •
{3.6.20)
§ 3.7. Magnitudes aleatorias complejas Ha¡¡ia. ahor~ hem¿s examinado solan1eute las magnitudes aleatoreales, ,lo que ~ suficiente para las aplicaciones prácticas. Sin 4m.bargo, durante la determinación de las funciones características de las· magnitudes aleatorias reales ya hemos encontrado las magni~u¡ies aleatorias .complejas Y = el1'X y Z = et(¡.,, X1+· · · +¡.nXn). Así pullS, en la Teoría de las Probabilidades conviene examinar no solamente las magnitudes ale¡1torias reales sino también las complejas. En los capitulos ulteriores, al estudiar la teoría de funciones aleatorias, tendremos que calcular las esperanzas matemáticas, dispersiones y momentos de correlación de l as magnitudes aleatorias complejas. Por eso deberemos extender las nociones de esperanza matemática, dispersión y momento de correlación a las magnitudes aleatorias complejas. Se llama magnitud aleatoria compleja a tal magnitud aleatoria cuyos valores posibles son números complejos. La magnitud aleator~as
§ 3.7. Magn.lludu altat<Jrla• compleja.•
ria oompleja Z se puede representar en l a forma Z = X+ iY,
12:">
(3.7.1)
=
Donde X y Y son magnitudes aleatorias reales e t V - 1. A un conjunto cualquiera de valores posibles x, ¡¡ de Las magnitudes aleatorias X, Y l e correspon de un número complejo z = x + ly que es un valor posible de la magnitud aleatoria compleja z. Considerando l a magnitud aleatoria compleja como función do dos magnitudes aleatorias reales X , Y, se puede aprovechar la fórmula (3.4.2) para el cálculo de la esperanza matemática de la inagnl· tud aleatoria Z. Como resultado oblendremos
.....
il{(Z ) = )
) (x-ly)f(x, y)dxd¡¡=
-oo -oo ...
~
00
J J xf(x, y)dxdy+i ~ l yf(x, y)dxdy
-oo - oo
o bien
-OQ
-co
M [ZJ = M [XJ + iM IYJ.
(3.7.2)
P ues bien, la esperanza m atemática de una magnitud aleatoria compleja es igual al n ú mero complejo cuyas partes real e i maginaria son iguales respectivamente a las esperanzas matemáticas de l as partes real e imaginaria de esta magnitud. Al hacerse extensiva la noción de dispersión a las magnitudes ale11t.orias complejas, es natural que se t iende a conservar la propiedad pl'incipal de la dispersión: la positividad esencial. De acuerdo eon esto, se llama d ispersión de la m agnitud aleatori a compleja Z = X iY a la esperanza matemática del cuadrado del módulo de la correspond iente magnitud aleatoria centrada: D lZI = M [ 1Z - m, 12 1 = M 1 1ZO 12 ). (3.7.3)
+
zo
Teniendo en cuenta que 1 1 s = (Xº)~+ (Yº) 2 , se puede escribir D [Z) = M l(Xº) 2 (Yº)' I.
+
Pero, como veremos en el párrafo siguiente, la esperanza matemática de l a suma de magnitudes aleatorias es siempre igual a l a suma de s us esperanzas matemáticas (el teorema de adición d e esperanzas matemáticas). Por eso D [Z) = M ((Xº)'l M [(Yº) 2 1.
+
El primer sumando del segundo m iembro representa la dispersión de la magnitud aleatoria X y el segundo s umando, la dispersión de l a magnitud alea t oria Y . Por consiguiente, D !ZI = D lXI D lYJ. (3.7.4)
+
120
Cap. 11
Ma11n l1ud~1 al~atoria•
wr.Jorlal.,
Ahora Lien, la dispel'Sión de una magnitud aleatoria cou1pleja esigual a la suma do las dispersiones de las partes real e imaginaria de la misma. De la definición del momento de correlación (3.4. 7) de una mnguitud aleatoria rea l se deduce que el momeuto do correlación
se determina por la fór1uula k,.v
=
M
IX6Y0 J.
(3.7.13)
En el caso par.ticular cunndo so trata de las mngnitudes aleatorias reales X y Y, est a deíinición del momento de correlación coincide con la dada en el § 3.4. El momento de correlación de las magnitudes aleatorias complejas se puede expresar por medio de Jos momentos de correlación de las partes reales e imaginarias de las mismas. En efecto, de acuerdo con el teorema de adición do las esperanzas matemáticas M
[XºYºI=M [(X1+ iX!) (}'~-iY~)J =
+
= 111 tX~Y11 M [X~l'~J +M { tX~Y~j - JI f iX~Y~I · Pero, como veremos en ol párrafo siguiente, la magnitud constante se puede sacar del signo de esperanza matemática. l'or eso, sacando del silzno de esperanza matemática la unidad imaginaria i, obtendremos M
IXºYºJ =
M
rx1Y:1 + M rx:v:1+ iM r x:)'~I- iM [X~F;¡
o bien (3.7 .7)
Hemos deducido las fórmulas (3.1.4) y (3.7.7), valiéndonos de cie.r tas propiedades de las esperanzas matemáticas que se est8'blecerán en '81 párrafo siguiente. Está claro que luego, no debemos aplicar las fórmulas (3.7.4) y (3.7.7) al demostrar las propiedades de las esperanzas matemáticas. Para evitar la confusión, convengamos en que en lo sucesivo exam¡naremos, como regla, las magnitudes aleatorias reales y siem_pre ind,clU'emos especialmente cuando se t rate de las magnitudes aloatorlas complejas.
§ 8.8. PropiedadeG de las e$peran:M matemáticas
127
§' 3.8. Propiedades áe las esperanzas matemáticas
Estudiemos a.hora las propiedades. fundamentales de las esperanzas matemáticas. En .este caso, para la universalidad, consideremoS· que las magnitudes aleatorias que se examinan y todos los números.· .que se encuentran pueden ser t11nto realeS 1¡omo complejos. Esto nos. éoncederá el derecho d~ aplicar iodas las fórlJ1ulas obtenidas a la,smagnitudes· aleatorias complejas, lo que necesitaremos en Jos capítulos sucesivos al estudiar l a teoría de las funciónes aleatorias .. La esperanza matemática de cualquier, magnitud no aleat.ori'a: es igual a la propia .magnitud M (e]
=e,
(3.8. 1')1
En efecto, la magnitud llo aleatorja e tiene un solo valor posible cy la probabilidad de que tome este valor es igual a la unidad. l)or eso, aplicando la fórmula (2.3.1-4), obtendremos precisamente Ja fórmula (3.8.1 ). La esperanza matemática del producto de una magnitud no aleatoria por una aleatoria es igual a l producto de la primera magnit\ldi por l a esperanza matemática
=
cM IZJ.
(3.8.2)>
Con otras palabras, la magnitud no aleatoria se puede sacar doL signo do esperanza matemática. En efecto, MlcZJ=
j j c (x + iy)f(x,y)dxdy= =ac r j (x + iy)f(x, y)dx dy = d11Zl-
-co -oo
-oo
-!);,)
La esperanza matemática de la suma de las magnitudes aleatorias. es igual a la suma de sus esperanzas matemáticas M
rx + Y] = M
[XI
+M
[Y).
(3.8.3)'
Primeramente demostraremos estu propiedad para l as magnitudes aleatorias re<Jlcs. En este ca~o , en virtud de la fórmula (3.4.2)> M[X + YJ=
.... J)
(z -t-y) f (x , y)dxcly=
=
j j xf (x, y)dxdy+ r j yf(x, y)dxdy.
-oo -oa
-oo -oo
i28
Co¡>. 3 Ma¡¡nitud,. nleatorltu Vtctoriak1
Ac.¡uí ol prírncr sumando representa la espera.oza matemática do la magnitud aleatoria X y el segundo, lo. esperanza matemática de l a magnitud aleatoria Y. Así pues, para las magnitudes aleatorias reales la fórmula (3.8.3) queda demostrada. Supongamos ahora que X y Y sean magn itudes alea torias complejas: X= X1 iX 2, Y= Y1 tY2. (3.8.4) donde X,, X 2 , Y 1 y Y 2 son magnitudes aleatorias reales. En virtud de (3. 7. 2) tenemos
+
M IX
+ Yl =
M IX1
+
+ Y + i (X2 + Y2 )1 = IX1 + Y 11 + iM IX 2 + Yil· 1
(3.8.S) Puesto que para las JI1agnitudes aleatorias reales la fórmula (3.8.3) ya ha sido demostrada, entonces = M
+ Y,l + Y21
M [X1 M IX2
= M = M
rx,J + M IY1l. IX 2 l
+M
IY2 1.
Sustituyendo estas expresiones en (3.8.5) y volviendo a aplicar la fórmula (3. 7 .2), obtendremos lvf IX+ YI = M lXd M 1Y1l + t{M (X 2 1 + M IY2 1} = ""'JVf !Xi!+ iM IX 2 l + M IY1 J + iM !Y2 l = = /11 IX 1 + tX 2 l + M IY1 iY3 J - M IXl + M IYI, (3.8.6)
+
+
que es lo que se trataba de demostrar. Asl pues, la fórmula (3.8.3) está uemostrada para cualesquiera magnHudes aleatorias. Valiéndose del método de la inducción matemática, esta propiedad de las esperan~as matemáticas puede hacerse extensiva a cualquier número de magnitudes aleatorias reales o complejas Z 1, Z:, . .. , Zn: n
n
vcl
v=al
M I ~ Z,,]= ~ M[Z..J.
(3.8.7)
Las fórmulas (3.8.3) y (3.8.7) enuncian el t eorema de adición de l as esperanzas matemáticas: La esperanza matemática de la suma de ·magnitudes aleatorias es igual a la suma de sus esperanzas mate,máticas. La esperanza matemática de un11 función lineal de h1s aleatorias (3.8.8) es igual a la misma función de las esperanzas matemáticas de estas magnitudes: n
mu= , .L: a,,m, V + b. _,
(3.8.!l)
§ 8.8. Propiedo.de.s d.e. lo.s c.
En efecto, según las propiedades deducid.as de las espera uzas matemáticas 1t
n
v= t
\'=1
M IU! = M [ ~ avZv+ b) = ~ M [a..,Zv) + Jf [b) =
n
2J
v~t
a,,,M JZ,,J +b
q1.1e es lo que demuestra la fórmula (3 .8.9) Supongamos ahor a que X e Y son dos magnitudes a leatorias arbitrarias, escalares o ve~toriales, con componentes roales (las magnitudes aleatori as complej~s siempre se pueden ·considj)rer comq vectores aleatorios b idimensionales ·con componentes rea les). Sea cp (X, Y) la función unívoca de las magnitudes aleat ohas X ; Y. Según la definfoión (3.4,2)
J"" J"" cp(x,y)f(:r;,y)dxdy,
M[q¡(X,Y)J=
donde f (x, y) es la densidad conjunta de probaliilidad de las m
J J q> (.r., y)/, (.1:) f2 (YI x)
.M 111• (X, n i =
""
-oo -oo
=
J"" r Jcp(x, y)/2(Y!,;)dy] /
1
(x)dx.
- oo
- w
La in tegral interior reprl'senta la espe.ran1.a mnt.emálica conclicional de l a función 1p (x, Y) de la magnitud aleatoria Y parn el valor cln
""
J 1p(x, y)f (ylx}dy=M'[x, Y)lxr. 2
Por
(3.8 .10)
con~igu iento,
}\f l
Y) I =
r
M lcp (x, Y} 1x i /1(x) dx.
(3.8.11)
La magni tud 1V [<¡> (x, Y) 1xi dopende del valor x de la mag11 it111l alent.oria X. I'or eso la magnitud M [q> (X, Y) 1 X 1 ropresc: nt u lA función de la magnitud aleatoria X : ;'\tf [cp (X, Y) 1 X] = ~'( X). La integral en la fórmnla (:.\.8.11.) representa la esperanza mntemúo-o s3H
i30
Cap. 3 .Magnftudu altatorla• vtctortalt1
tica de esta función:
J"' Mlq¡(x, Y)lxJ/s(x)dx=M[M[q¡(X, Y) IXJJ. - oo
Por lo tanto, M [q> (X, Y) l = M [M' [
I XI).
(3.8.12)
Esta fórmula demuestra que la esperanza motemática de la función de dos magnitudes alentorias (escalar es o vectori11les) se puede calcul ar no a la ve1. sino consecutivamente: primeramente se halla la esperanzu matemática condicional, considerando fijado el valor de una ele las magnitudes aleatorias, y luego se baila la esperanza matemática de la así obtenida función de esta magnitud aloatori n. Esta propiedad de las esperanzas matemáticas se utiliza frecuentemente en la.'l aplicaciones prácticas. Ejemplu S.8. 1. ll:allat· la esperanza matemática dol prodm:to de lns componoutcs X, Y do 11n vector aleatorio bidimensional normalmente repartido. Según la fórmula (3.8.12) bailamos primerain~nte la esperanza matomát1ca con· dicional del producto XY para el valor fijado :i: de la magnitud aleawria X. Eu virtud do (3.11.21, al caleuJar esta esperanza matemática r.onrlicional , el valor z de In mugnilud a eatoria X so puede sacar del signo de la espernnzn mutomátiro. Entonce,, 11bt.cnd1·emos M [:i:Y I :i:[ = z:M IY I zJ.
Sustituyendo n.qul la exprosi6n de la espernnui watemáticR condicional do la magnitud aloaloria Y dr. (3.6.il), obtenlda on el § 3.6, hallaremos
r
M fzY I ::t) = ..: b-!il. {z- a)J . C:t:
S11sLituyC11llo oqul x por la magnitud aleatoria X, obtendrnmvs la función de la iuognitud aleatoria X: lj;(X)=M iXYJ X)=X
[b- !1!.. (X-4)]. e,.
Luego, por la lúrmula (3.8.i2). hallaremos
M [XYf=M [M[XYJ XJJ~M [
xr
b- ::: {X-a>]]
o bien, aplicando las propiedades de las esperanzas matemáticas, determinadas m6s arriba,
= =
En ol § 3.6 vimos quo M fXJ .,. a y en el § 2.3 se demostró que M [X'l cx 2 ml,+ D:r ff6rmula (2.3.H)J. Por eso, teniendo en cuenta que mx =a y"aplícando la formula (3.6.G) pnra Dx• obtendremos definitivamente
=
ab
§ 3.9. Propledadu de U.. di1per1lO(l(S
t31
o bien, aplicando la fórmula (3.6. t 7) para el momento de correlación de ¡._, componentes, Af [XY) -
ab
+ kxg ~ m,.mg + kxir
Hemos deducido esLa fórmula para el caso en que X y Y repreaentan las componentllll del vector aleatorio normalmente repartido, para ilustrar la aplicac1ón
§ 3. 9. Propiedades de las dispersiones y de los momentos de correl ación
Ahora vamos a estudiar las prQpiedades de las. disper5io~es y de los momentos de corrol aci6n de lai ·m agrutudes aleatoriás. Eu este caso, como en el párrafo anterior, consideraremos que, en l<>.. gen,er.n.J., todas las magnitudes aleato:rlas y los números que se 'examina!\ pueden ser complejos. Esto es necesario para el estudio de la teoría
1e ¡tD I XI.
Análogameute se demuestro que el momento de correlación de las magnitudes alcat.orias (3.9.2) U= aX, V= bY, donde ti y b son números complejos arbitrarios y X y Y son magnitudes Rleatorins, se determina por la fórmula k.,. = ab kx¡r (3.9.3)
Si las magnitudes a leatorias U y V representan funciones lineales do las mngnitncle.s a lentori'1s Xi, .. ., Xn, n
_,
n
U=~ avXv+b, V=~ CvX.,, + d,
(3.Ü.4)
v=I
g.
Cap. 8 Ma11niludcs auatorltU L>eclOrlak.~
enLonces l n di1>persión Je la magnitud aleatoria U y el momento de correlació11 de las 1nag11it.udes aleatorias U y V se determinan por lns fórmulas: n
D,L =
~ a,,ñ.1,k,,11 •
(3.9.5)
"'·"1-- l
"
kuc = }~ avC1-1k...,",
(3.H.IJ)
v. µ=-1
do11clo k. 11 El~ d inome uto de c.orreh1cil¡11 de l as magn itudes aleatorias X,,, X,, (cunnd.o µ, = v, la magnitucl k•.., representa la dispe1'si6n de la m11gnitud aleatoria X..,). f::n eiecto, n
D (Ut = M'!IUº l2 t=M l l ~ a.X~l'l = v=t
....,. M l
n
n
~ ~.. xt.~I =
~
JA.. V=" l
n
a..,,4',.M [X~Xtl =
Y. fl..:9 1
~ V, µ .c J
a,4°11 k,,..
De uu cuo
"
Du= ~ l ª• 12 D., v-c
"
k..o = ~ a,~.D..,
(3.!l.7) ('.l.9.B)
\-::S.l
donde D.., = k,.., es la d ispersión do la mogni\ud aleatoria X.., (v =1, .. ., 11). En l as aplicaciones prácticas tione importancia un caso particular más, r eferente a la fórmula (3.9.5), cuando la magnitud U repr~ senta ln su ma de las magnitud e.~ alt!ntorias X,, .. ., Xn· n
U=~ X..,
(3. 9. 9)
\!:t i
E$ evidoute qui.' en est.e Cll.l!o a, = 1 (v fórmula ('3.9.5) tomará ltt forma
= 1,
n), IJ -=O y la
ti
D[UJ =
~ kw.·
(3.9.10)
v,µ- 1
Ahora bion, la dispersión de la .~urn a
133
§ 3.9. Pr,,piedadu rk llu dts¡•
Eu el caso particular, cua ntlo las magnitudes X¡, .. ., X están correlacionadas, Ja fórmu la (3.9.10) toma la forma
no
n
DiUI=
l.; D,.
(3.9.H)
v~t
Así puos, la dispersíón de la suma de l as magnitudes aleatorias no correl acionadas e~ igual a la suma de las dis persiones de los sumandos. Teniendo en cuen t a que D [ UI = a;., y D v = a~, donde <Ju, a,. . .. , a,. son las desviaciones enadrtíUcas medias de las magnit udes aleatorias U, X,. ... , X ,., respectivamente , podemos e11cribir la fórmula (3.9.11) en fa. forma n
a~ = 2j ,~1
a!.
(:3.9.12)
Las fórmulas (3.9.7), (3.0.8), (3.9.11) y (3.ll.12) :>011 aplicnl.Jles para cualesquiera magnitudes aleatorias no correl acio11ad11s. Eu particular, son válidas para las maguitudos aleatorias inde¡1endieotcs . Calculemos ahora la csptiranza matemáti ca del producto de lns magnitudes X o Y para !as n11Jg11itude.'i aleatorias ijfbitrarias X e Y (el momento inicial mixto dti segundo orueu). Heprescutando las magniL11des aleatorias centradns, en virtud de las 1iropiedades de 111s esporonzas matemátic,nl:!, obtendrtiioos·
M IXYI
=
M [(m.x
+ xo
)(m¡¡
+ Yº)I = in..,iñv + M[X f··r.
o bien
(3.9.13) En el caso particular, cuando se iratn de las mngnitudl'S aleatoria.':\ no correlacionadas reales X o Y, la fórmula (3.9:13) toma la
forma M IXYJ
= m..,mv.
(:·Ul.14)
Esto ti~ til así llamado teorema de multiplicación de las esperanzas matemáticas: la esperan za matemática del producto de dos mugnitudes aleatorias no correlaciouadas reales es igual al producto do las esperanzas rnatemáticM do las mismas. A Jüerencin del teo rema de adición, el de multiplicnción es válido solnmeute vara las magniturl os aleatorias no correl acionadas reales. En ¡rnrticnlor, es válido tamb ién para las mngniinrlcs nleatorías renles ínrlepen
(3.9.'i!'i)
134
Cop. 3 M •lfnltudu alealuriM vu1orloú1
Para la demostración nos valemos de la propiedad de la dispersión no negativa. Para cualesquiera magnitudes aleatorias X, Y y números no aleatorios a y b, la dispersión de la niagnitad aleatoria a X - b Y no puede ser negativa: D laX - /JYI ;;;::, O. (3.9.16) Aplic11ndo lo fórmula (3.9.5) y teoiendo on cuenta que en el caso dado n = 2, a1 = ci, a2 = - b, obtendremos
D [aX -bYJ =la l~ Dx+I b¡: D11 - abkx11 -abkvx· (3.9.17) Observe1uos ahora que lc11 ., =M [yoX0J=kx11 , (3.ll.18) es decir, al cambiar el orden de l as magn itudes aleatoria:; complejas, el inomcnto de correlación pasa a la mngui tud conjugada compleja. 'fe11iendo esto cu co1\Sideraeión y sustit uyendo la expresión (3.9.17) en (3. !l.16). obtendremos 1111ra cunlosquiera a y b (3.9.19) Ahora, aprovechando que a y b sou arbitrarias, hagamos
a= k,.11 , Entouce:s,
b
=
D,.
(3.9.20)
a desigualdnrl (il.9.19) Lomará la forma
ll<x11 11 D~ + D~Du - Dx 1kxu r~ -D" 1kxy12 ::;.. O o bien (3.!l.21)
De 11qui se ve que 11ara D,. >O
Dz.Dy -
'""V 11 ;;;. o,
de donde se deduce l a desigualdad {l.9.15). Cuando D,. = O, la magnitud aleatoria centrada Xº es igual a cero con la probabilidad equivalente a la unidad, debido a lo cual kxy ... M [XºYºJ = O, es decir, también (3.9.15) se satisface. Sustituyendo en la desigualdad (3.9.15) las ralees de lai; dispersiones por las desviaciones cuadráticas medias, podemos escribirla en la forma k:t11 I ~ ª"'ªv· (3.9.22) De las desigual dades (3. 9.15) y (3.9.22), así como de l a definición del coeficiente de correlación {3.4.9) se desprende que pro·11 cualesquiera magnitude~ aleatorias el coeficiente de correlación no excede en pmódulo a la unidad: 1r,,u1~1 .
(3.9.23)
{I 8.9. Propi<dodtt de liu tluptralonu
135
De los cálculos citados se ve que el signo de igualdad en las fórmulas (3.9.16), (3. 9.19), (3.9.21) y , por consiguiente, también en las (3.9.1!'.i), (3.9.22) y (3.9.23) es válido si, y sólo si, l a dispersión' de la magnitud aX - bY, para los valores elegidos de l os coeficientes a y b, es igual a cero. Pero esto, a su vez, es posible solamente cuando la magnitud cent rada aX 0 1 - bY º 1 con probabilidad equivalente a la \midad es Igual a ~ro. Ahora bien, en todas las fórmu las escritas el signo de igualdad es válido s i y sólo si, entre las magnitudes X e Y existe dependencia funcional lineal del tipo
(3.9.24) Esto permite obtener cierta idea de qué es lo que oaracteriia el coeficient e de correlación r,, 1,,. El coeficiente de correlación caca.eteriza, por decirlo así, el grado de aproxi mación de la dependellcia entre las magnitudes aleatorias a la dependencia fu ncional lineal. En el caso de dependencia lineal el módulo del coeficiente de corrolación e~ exactamente igual a la unidad: 1 r.,v 1 = 1. Sl l rxv 1 = O, no puooe existir dependencia lineal entre las magnitud.es aleatorills . Los valores de 1r"!I1 comprendidos entre ol cero y l a unidad dotorm inl\n hasta quó punto la dependencia entre lns magn itudes aleat ori as es próxima a l a depend encia funcional lineal. Ejemplo 8.9. t. 1-hllar la esperanzo matemática y 1" dieporsiún de la freouencia de tm acontocimieotn pam n prueba~ incl e¡1011dienLeS realizadas en Iguales oonclieionC5 . Designemos ror X,, el número do vocl'S que sucede el aconteei mionto A oomu resitltado de la v-ésirna pruebo. Cnlculemos la esporanza mntcniállca y la dispersión de ln magnitud iileatoria Xv. Esta ma¡n1l11d tiene dos valores posibles: O y 1, euyos probabilidades son q = i - p y p, respectivamente. Por lo tant o, aplic:ando la fórmula (2.3.14), ob\.endNrno.'I mxv = O g 1 •p = p (v = 1, 2, ••. , n).
+
Así pues, la espnranzo. matemática del número do veces q\le se produce un &con· t eeimieuto al efectuar un solo experimento es siempre Igual a la probabilidad de esto acontecimiento. Apro,•echando la fórmula (2.:1.15}, liallamos la dlapersl6n de la mngnltud ale.atoria Xv D,,.., =(0 m,...)'I q+(t-m,,..,)' p=p1 q+q2 p= pq (p+p) = pq (v = 1, ~ ••. . , n ).
Según Ja dnfi nielón, Ja freeuencla U do un acontecimiento A repr~ent~ la relación del númern de veces que sucedo el acontecimiento A. ol cual. evidentemenw. es i¡¡11Al al número do vecOIJ que se prod11ce lí.~t.e on cada una do las pr11~h11.~. al 11úmoro total de. experimentos realit.ados:
" u-.!. ~ x ... "¿i Esta fórmula muestra que la Crecuencla del acontecimiento A es una combinación llDeal de las magnitudes al entorios itHlependientes X, • .. ., X,. que Tcpresontan los números dn veces que ocu trn el acontecimiento A on cada una de las pruebas
realirndn~. Pur consigui«Hte , pura rlctorminm· Jn cspQmnia 1uatemáticn do la frecuencia U se puede hacer uso de la [órmuln (3.8.9). Ten iendo en cuenta quo nn esf.e CRSo torio• los copficient.es ªv son iguales a 1/ri v e l término iutlepertd iente b ~.s igunl a cero. nbl.1.1mhomos · n
fl
m.u = .!..n.4.J ~ 111-;( =!. '1 p ~ p. n.4.J V
v-- 1
(::J.9.25)
'\"= l
s\sí PHl'S. In esperan?.a mRt{'m:ltir.a de 11\ fre~uencin dr. un acout.ecimieuto es
igu11l 11 la probabilidnrl de este último. Para determinar la dispersió n de la
fr1~c.1w11ci11, upliquemos IR f6rmula (3.9. 7). C'..omo rr.sultado obten
" " o,, ,..J.. Y.º"=~ '1 P't= !!L. n"' L.J n tl ·
-..
"~= l
v
1:1.9.26)
v~L
De lo• res uhndos obtenid(ls se puede sacar la deducción ¡míctic.a siguiente: In espurn 11zA rnktCmótico rlo la frecu encia, cualquiera que sea el número do Ptll"· bas, es ig\wl n In prob~bi.lidad del acont.Qelwiento. y la dis persión de Ja froouonci11 ti~ndo a ~<,ro ul uumcntar ilin1itadamente el núuwro de e.q>
tambi~n es unn inagu itud afoHoria. Según los datos del µroblem11 , X., ... , Xn son magnitudes aleatot-ias independientes con igual e•-µ~ranza mat:emática m.,
§ IJ.JO. Veúrminación dt
101
momentos
137
e íguoJ dispct!i6n D". Aplicando lus fórmulas (:1.8.!l} y (3.9.7). bailemos la es~ran~a rnalomática y la dispel':!i6u del valor medio aritmétlco de la magnitud aleatoria X al dcctuat· " expt•rimu11tos: n n
mu·=-k- 2: 111,.vmol
m,.,
Du=~,; ~
D,. =
~".
1
(3.9.27}
v=l
Del ciemplo examiu11.do se tles¡ironde que la es11oranz11 matemática del valor modio aritmético de una magnitud aleatoria, cualquiera <.1uc sea el número de inde)lendientes, es igu11l a la esperanza matemática de esta magnitud, y la dispersion do la media 11rltmética l!S inversamente proporcional 1tl número de experimentos realizado~ n. Por lo tanl11 al ser el número de. o¡¡perimentus n lo suficicnt.c grande, l tt.~ dc:1viaciones précUcamenle posibles del valor medio 11rltmétlco 1le una mag11i1 ud uleatoria cun 1·especto a isu esperan ta matemátira estarán r,omprendidus on límit~is tan estl'echos como so quiera. Bslo do la posibilidad do detern1inur las OSJleranzas matemáticas de la;; magnitudes ulualol'ias Hegún los resultados ele las pmehas, tomando su~ valores. medios arltmóticos, cuimdo el n{irut1ro de exporimentos tis lo suíícieule grande, poi· l as esporun211~ matemáticos. Y <'omo lo~ mnmento~ do lns magnitudes aleatorias son las ospo1·n11zas matcmiitirn~ il<· ch•rl~!! fouciouos do 11SIM mag11itud~s. 011\,or1e11~ cualosquit•m m<>mt>ntos 1\0 lu~ magnitutlc¡¡ aleatorias S(' pueden determinar corno Jos valores medio.~ cor respondie11IC'.S. s1 eJ número d~ oxrorimant.os es lo suCicio11111 graud.,. En particular, las di•pcrsione!I eslu1lís~icru1 Je las u1agnit.11d l'11diPntc3 morucnf.os dr c urrcfod611 ostullístkos. j'll\r los mo mentos do correlaci611. CXJl~riwontos
L11s tesis deducidas en los ejemplos considerados son los Loorewas wús seocillos dt! u11u gra11 cantitlacl ele teo1·omus que onLran en 111 parte especial de la Teoría de las Probabilidades _que se Hamo t:orrienLomente ley de grandes núm.eros. La ley de grnudes números dtiLcrmin¡¡ por vía teórién, partiendo d11 los conce11tos fundnmeutales lle In Teoría de l as Probabilidades, las 1.1ropiecladcs t.lo lol! fenómenos aleatorios !recuentes que so observun 11n la práctica. Ahor a bien, la ley de grandes números fundamenta la validez de !ns tesis principalo." ale 111 Teoría de la~ Probabil id udes y la posibilithid de Ja aplicación práctica de esta teoría.
§ 3.10. Drtermi 11acltí11 de lo!' momentos do lni1 fu11cio11es de ln11 mngnitudci1 alcat:o rias En la práctica sm·go frccul.'11Lemc11tc el problema lle daLcmniuar los 1nomentos de una maguitud aleatoria Y cuando vienen dadas l as características probabillsticas de otra waguitud alcnLoriu X con In cual l n nrngnitud Y osti ligudu (lor unn clopendon1;io f1111cio11al t.leterrninarla: y = q¡ (X). (3.10.1)
dond e rp es 1111a íuncióri un ívoca complctamonte determinada. En los dos párrafos anteriores est11 problema foc resneho pura el caso de una fu nción lineal c.p. En el caso general, paro determinar los momonto.s rlo In magnitud alontoriu Y, es necesario conocer Ju ley de
138
Cap. 3 Ma¡!n.itudes akatnrias vocwriales
bución de la magnitud aleatoria X . .Entonces, todos los momentos de la mngnitud aleatorio Y que nos interesan. pueden ser determinados por las fórmulas (2.3.4) y (3.4.2). gxaininemos primeramente el caso de las magnitudes escalares X e Y. Según la definición, el momento de la magnitud aleatoria Y de ordcn k es la osperania matemática de la magnitud aleatoria yk, a~=M(Yk]=Af(
ª'
00
=
J
(3.10.3)
(k = 1, 2, ••• ).
- oo
Abora bien, los moJUentos de la rnag:nitud aleatoria Y, enlazada por una dependencia funcional (3.10.1) con la magnitud aleatoria X, se determinan en principio sencillamente siempre que se conozca la densidad de probabilidad de la magnitud X. Supongamos ahora que Y es el vector aleatorio cuyas componentes Yi. ... , Y,,, son funciones unívocas cleterrninadas de l as componentes X,, ... , Xn del vector aleatorio X: Y1t =
En este caso, aplicando la fórmula (3.4.2) (más exactamente, su generalización extendida a lo~ vectores aleatorios ¡1olidimensiooales) para calcular los momentos del vector Aleatorio obtendremos
a~•... .. k,,.=M !Y~' ... Y~,?'I = =M [
J.. . J
..
-eo
-QO
1
(x., ... , x,,) ..•
e¡>~"' (xi , . •. ,
Xn) X
X/ (xlt ••. , x,,)dx1 ••• dxn (k, , .. . , k,,. = 1, 2, ... ).
(3.10.5)
Las fórmulas (3.10.3) y (3.10.5) son las fórmulas exactas para calcular los momentos de la magnitud aleatoria Y según l a densidad de. probabilidad preasig,nada de la magnitud aleatoria argwnento X Ejemplo 3.10.1. Hallar.la es¡ioraoza rrui.temiítica y la di spersióJl rlc lll seilal de salida do un elemento no 'lineal cnrente do inercia, sí la soñal de entuda ro· pr esenta la suma de una señal útil determinada 1yde111 perturbación X. La sefial de salida Y del elemonto que se considera se espresa por la f6rmula y= q> (s +X),
§ a.JO. Detcrmtnación ik lo.•
mom~11t0$
1S9
donde cp es la ~Ión no lineal Ulltvou (caracterlstica del elemento no lineal). A!I pues, las señalos de entrada y do salida de este elemento están ligadas por la depeudcucia funcional del tipo (3.10.1). Pat11 aplicar la fórmula (3.10.3), con .,1 Iin de calcular la cspNanza matemática y la di!persiún de lo magnitud aleatoria Y, es necesario con11cer la donsi1lad de prnbabilidad f (:•) d<' In magnitud aleutoria X. Entonces la fórmula (3.10.3) dará
.,,
m11 =ctf=
J rp(8+:z:)f(z)lk:,
-~
af-= ~
q>2 (1+:z:) f(z)dx.
-m
Lue¡o, la dispersión de la magnitud aleatoria Y so puede determioat por la fórmula (2 .3.it) que expresa la dlspérslón por medio de l os momentos iniciales
ª'
y
a,i:
Du=ct~ - (af)2: t:n los problemas de In nutomáti1~a la magnitud m11 reprosent·a de ordin11rio la porte útil do ln señul de saliclu
Las fórmulas (3.10.3) y (3.10.5) son complicadas para la a¡1licacióo práctica, a pesar de que son en principio sencillas. Por eso es natural que surja la pregunta: ¿se podría sustituir estas fórmulas exactas pero complicadas por otras más sencillas aunque sean aproximadas? Resulta que en muchos problemas prácticos se puedo hacer esto con ayuda de la linealización de las funciones. En los§§ 3.8 y 3.9 vimos que si las funciones IP (X) y qi1, (Xi. ... • . . , Xn) son lineales con respecto a sus argumentos, los momentos de esta.-s funciones se expresan por fórmulas muy elementales que se deducen de las propiedades de las esperanzus matemáticas, dispersiones y momentos do correlación. Para una determinación aproximada do las esperanzas matemáticas, dispersiones y momentos de correlación de las funciones no lineales derivables unívocas continuas de las magnitudes aleatorias, descompongamos estas funciones en la serie de Taylor en la vecindad de las esperanzas matemáticas ~... .. , mxn de las magni tudes aleatorias X 1, • • • , Xn y omitamos en las serie.'> obtenidas todos los términos s uperiores al primer grado. Entonces obtenclreroo!! Y v =
C11p . •3 Magnitudes aleatorie<s vectoriale.<
140
magn itudes aleatorias Y 1 , • • • , Yn l as expresiones aproximndas siguientes : ('\/=1, .. . , m), (3.10 .7) myv ~
~
vµ ,_,
"
""' ( ilq;,. ) .t:J é).r.,. ,;-=rn /t , l=-'i
'
-
( 8
• ~ xt=11li
k"' ht
(v, 11=1, ... , m)
(3.10.8)
x1
Puest.o que estas fórmula~ son avroxiinadas, surge la cuestión acerc<J de l os límites de su aplicnción práctica. Para resolver esta cuestión conviene observar quo por ser las fórmulas (3.8.9) y (3.9.6) exactas
o
o F'ig. 3.10.1.
Fig. 3.10.2.
para las funciones lillcalcs, par11 las funciones uo lineales serán tanto más cxact¡¡s cuanto más próximas sean estas funciones a las lineales ei1 el campo de los vnlol'cs prácticamente posibles de las mognitudcs-argwncn tos X 1 , • • • , X,. . Por consiguiente, las fórmulas (3.10 . 7) y (3.1.0.8) son aplicables en aquel caso en que las funcione~ <j>1, ••• ,
La ley normal de distribución de un vector aleatorio n-d imonsional X con las component es X 1 , •• ., Xn o b ien, lo que es lo misrno, la distribución conjunta uormal de n. m11gnitudes aleatorias * ) g ) lect.or puede om itir esto párrafo si n perjudicar la comprensión de <":t~i todo fo sucesivo.
.~
3.J1. Dlstrlilut.t6n normal poltdlmmtlonal
X¡, .. ., Xn se caracteriza por la densidad de probabilidad
f (x11 • · ·, :'")"" (3.11.1) En e.'ta fórmula el coeiicient.e adjunto a la función exponencial represen ta el multiplicador normalizador, elegido a razón de que La integral con respecto a todas l as variables de -oo h11sta óo sea igual a la uni dad; C representa l a matriz compuesta con los coeficientes cpq: cu C12 ••• e,,.
C=
y 1
e 1os el dolermin unte
Czt Ciz • •
C2,.
(:1. 1'1 . 2)
de esta m11triz C11 C12 • • • Ctn
1c 1 ~
C21 Cn • •• C2n
Cn1Ct1i · · • Cnn
Observemos que el producto (x.. - a.,) (x 1, - u 1,) para c.u11lesquiera indices v y µ desiguales entra en la suma do!i veces: una voz con el coeficiente e, .. y otra con el coeJiciente c ..". Por eso, cuales· quiera q uo sean los índices desiguales v y µ, el papel esencial lo desempeña solamente l a suma de los coeficiente$ c... Cµv· Por consiguiente, esta suma, :iin pérdida del carácter ge!leral, siempre se ¡1uode consillerar djvidida equivalcnt~mente entro los l:lum11ndos y de est e moclo considcrnr que lo matriz Ces simétrica, es d ecir, que cpq = Cqp .para cualesquiera p y q. Demostr emos, ante torlo, qu e las magnitudes X., ...• x., examinadas por separa1lo, y cualesquiera combinaciones compuestos 1lc ellas t ambién están normalrnonto ropartid11s. Para esto recordemos que p11ra determinar l a cl1.rnsicli1d de ;prob11hi.lirl11d rlc cierta parte d e la1¡ rnagniludes aleal.orias, digamos X 1• • • • , X, (l < n), cs necesario inLegrnr la densidad conjunta de probabilidad ile toda11 l1ts mogniturles X., ... , X"' con respecto n ltis vnriahles corrospoudientes a las magni t udes 1·estantc~ . en el caso dado con respecto a X1+i. ••• , x,.. En v irtud Ú<' esto regla, la dcnsidml de proltabiliclad de las magnitudes alentorias X 1• • • • , Xn -• ~e ox prcsnrá por In
+
Cap. 3
/lfal(ntlude1 a lfatorla1 vectorialu
fórmula
1•. ' . ., n.- l (.z .. ... :e,,_,)= t
(3.11.4) Pero n
¿ P. q-
n- 1
1
~
c1,q (x11 -m 11)(xq-m.,) =
p . q.ol
Cpq(x,, - m,,)(x,1 -m,,)+
n- 1
+ 11-~1 Cpn (x,. -m,,) (xn-m11) + n- 1
+ 2J
Cnq (:r.,.-m.) (:tq - mq)+cnn (x,. - m 11 ) 2 •
q- t
Teniendo en cue ntu que la suma oo dependo de cómo están designados los indices con respecto a los cuales se realiza la adición, podemos sustituir en la tercera suma el índice de adición q por p. Enlonces, teniendo en consideración que Cnp = Cpn y sacando el m11ltipliC11dor común x,. - mn fuera dPl s igno de adición, obtendremos n
~-1
~ c1..1 (x 1,-m1,)(xq-mq) =
p, qoo l
¿;
'"pi
Cpq(xp - m 11)(xq-m,1)+
n-1
+2(x,.-m,.) ~ c11 n{x,. -m,,)-f· Cnn (x,. - m,.)z.
(3.11.5)
,,_ 1
Sustituyendo esta expresión en (3.H .4) y sacando el multiplicador quo no depende de x,. fuera del signo integral, obtendremos despu!Ss de reemplazar la variable de integración t = x,. - m,.
h., .. . , n-t (X¡,
• • • , Xn-1) =
--
=V(~)~
n -1
exp {-}
~ Cpn(Xp-mp)(x9 -n~9)}
X
p,q- 1
oo
X
n-1
1exp {-t ~ C1m(xp-mp)-{c11,.t } dt. 2
(3.H .6)
,,_1
Para calcular la integral obtenida, apliquemos la fórmula -
e11i-11~1idt= V:i h.
11"
e4h'
(3.11.7)
§
143
3 .11. Di4tribudón normal polidlmentlonal
deducida en el suplemen to [fórmula (1)1. Suponiendo en esta t6rmula que '11-1
11 = -
~ Cpn(Xp-m,,), h2 ={c,.,.
y sustituyendo la expresión obtenida de la integral en (3. H .16}
hallaremos 11, ... ,n - 1 (x1, ... ,::t,.. 1) =
,. _,
+ :lc~n r ~ Cpn (z,,-m,,) ]2} = J•= I
_ , /
- V
!C 1
n-1
(
t
(2n¡n-l e,.,, exp '\. -
2
~
L.J
(
c 1,n
x
p, q • I
X (x,, - mr) (xq -m,1)}
•
(3. t 1.8)
Comparando e~ta expresión con (3. 1:1 .1), vemos que la distribución conjunta de lns magni tudes X 1, • • • , X,._ 1 es normal. Puesto que esto es válido paro cualquier n y la ex.presión (3.11. 'l) de la densidad normal de probabilidades es ~hnétrica con respecto a las variahles z .. .. . , x., nuestra afirmación está por completo demostrada. Integrando la expresion (3.11 .8) sucesivamente con respecto a z,._ .. z,. _2 , :r2 , hallaremos la densidttd de probabilidad de una componente X 1 del vector aleatorio normalmente repartido. En este caso nos convenceremos de que la esperanza matemátíca de la magnitud X 1 es igual a m 1• Ahora bien, en la expresión de la densidad de probabilidad del vector nleator¡o normalmente repartido, los números m1, •••• m. representan las esperanzas matemáticas de las componentes del mismo X 1, • • • , X,. : mi! = ni.,., (p = 1, ... , n). Al dividir la expresión (3.H .1) por (;j.11.8), hallaremos l a densidad condicional de probabilidad de la magnitud aleatoria X" con respecto al conjunto de lt\s magnitudes restantes X¡, ... , Xn_ 1:
f ~ (Xn 1x,, ... , Xn - 1) =
=V*
exp { - }
~ p, q-1
Cpq(Xp - mp)(z9 -mq)+
o bien, teniendo en cuenta (3.11 .5), Ín(Xn jx¡, · . ·, Xn-1) =
=
·v,. c2~"
n- 1
2j c¡in (x 11 -mp)-
oxp { - {en" (x,.-mn) 2 - (x,, -mn)
,,, ........ 1
n-1
~
_.!_ Pero
(3.11.9)
kJ
2
n-J
2.~
11 .~l
n- l
c,,.,cfJ 1,
(.-i:,,-m,.) (xq -m,1) = [ }i c1m (x1,-m 1,)]
2
,
p-1
y , por consiguient e
{c
Tt.- l 11 0
(x,.-m,,) 2 -i-(:r," -mn) ~ c 1,,. (xp-mJI)+ ¡>=I n- 1
, .,, 1 ~ -:-
CpnCqn ( - - :t 1; -
mv) ( x,1 - m,1)
cnn
c.
==
J>,q=I
n-1
o=+,C:n., {(x,,-m,.)'-L2(x,.-m ""
~ el'" (xp-ln¡i) [·· tnn
0 )
__,
}J-.t=l
n-t
r ~
L
7r.:11 t
c 1H1 -.-(Xi;-mp) e nn
,2} 1 [Xn -
f -'
=-:rCn 11 ~
.
n- 1
mn + ~ ·-Cpn (x1,-m1,) )>= l
Cnn
]2 •
Sustit.uye.n
X11-1)=
V ~':t" ¡¡xp { - yCnn [xn-mn+ n-1
+~
Cpn
12} .
( x1,-tnr)J C1p1
(3.11.10)
p= l
Esta fórmula muestra que l a disLribución condicional cie la componénte X,. del vector aleatorio normalmente repartido es normal, con ello l¡¡ esperanza matemática condicional y la dispersión coo(jicional de dicha componente son respectivamente iguales a
(::l.11.11)
D IXn 1x,, ... ';tn-il =C1ttt -l-.
§ 3.11. Dlnrlbuel6n normal poltdlm.ntlonal
145
La primera de estas fórmu la.s muestra que la esperanza matemática condicional de la componente del vector aleatorio norniªlmente repartido es función lineal de l os valores de l as componentes restantes. La segunda fórmula (3.11.11) indica que l a dispersión C.Oildiclonal de la componente del vector aleatorio normalmente repartido no depende del valor de las demás componentes. De un modo semejante noo convencemo.9 de que la distribución condicional de cualquier parte de las componentes del vector aleato· rio normalmente repartido es, con respecto a las demás componentes, normal y las esperanzas matemáticas condicionales de las,coQ'lponentes son funciones lineales de los valores _de l as componentes re¡tan~. Aplicando l a fór mula (3.3.2f), llegaremos fácilmente a Ja. con~ clusión de que cualesquiera funciones lineales de las componentes del vector aleatorio normalmente repartido están repartidM tambián normalcoente. Esto da la posibilidad de cumplir cual esquiera transformaciones lineales de l as magnitudes aleatorias normalmente repartidas y siempre obtener en este caso magnitudes aleatorias normalmente distribuidas. Calculemos ahora las dil!persiones y l os momentos de correlucióu de las componentes de un vector aleatorio normalmente repartido. Para ello, con auxilio de la transformación lineal, reducimos el sistema de las magnitudes alea torias Xtt , .. , Xn al sistema de las mag11Hudes a] c¡¡L-0rias no correl acionadas V 1 , . . . . V", suponiendo de momenlo que las dispersiones y los momentos de correlación de las magnitudes aleato rias X " .. .. X 11 son conocidas. Esto se puede hacer por una infinidad de procedimientos. El procedimiento más sencillo consiste eo que se supone que X 1= m1 + V1 ,
}
X2 = m2 + '1'21Y1 + V~.
X11 = m3+ '\'~ 1V1
(.3.11.1 2)
+y.3V2+ V3,
+
Xn = 1nn ·l· Yn1V1+ vniVi+ ... '\'n. n-1Vn. 1 Vn y se elige y 21 de wodo tal lJUe la magnitud V 2 no esté corrclacionadn con V1; luego se eligen y 1 , y y 32 de modo tal que l a magnitud V 3 no esté correlacionada con V, y Vi. etc; y '\'n1> Yn:• ... , 'l'n• n-1 de modo tal que la magnit ud V" no esté correlacionada con V ,. ... . . ., Vn _,. Es evidente que, al emplear tal procedimiento, el número de coe!icientes desconocidos 'l'i•v es igual al número de condiciones que deben ser satisfechas. En este caso todos i'v..- se pueden determi· oar fácilmente por turno. D1i la pr.imera fórmula (3.'11.12) está claro que la dispersión /) 1 d~ la 1n11gnitud aleatoria V 1 es igual 11 111 cli:1µ.irsión de 111 mngni· tud X 1 : D 1 = Dx, = k 11 • ln-00!8
Cap. 9 Mognilutk•
146
al~utorios
r;ectoriak•
Para determinar el coeficiente y,,1, expresemos el momento de :orrelación kv 1 de las magn itudes ale11tol'ias Xv y X 1 por la fórmula (3.9.8), considerando X v y X 1 como funciones liueales de las magnitudes aleatorias no correlacionadas V., . . .. V,,. Teuieud n cu cuenta quo los coeficientes adjuuws a V2 , •• • , Vv en la expresión (~.1. 1. '12) de la magnitud X 1 son iguales a C!lro. y que el coeficiente 11dj1111to n V 1 es igual a la unidad, obtendremos
k, 1 ~ y..,,D,
= Yv1k11.
De aquí hall a uios que k,,¡
Yv1= k;7' ·
(3.11.13)
As! pues, tollos loi' col'ficicntes 1'2 1• • • ., y,. 1 se expresan muy ~en cilla mcnte por medio do los mouientos de corrclllción k 31 , . • • , k., , de las magnitudes X 2, •• ., Xn con X., y mediante la dispersión k 11 do lu mognitud X 1• Una vez dti lcrmiuado Y21o hallamos Ju dispersión JJ 2 dti la magnitud nluatoriu Vz. Para esto expresemos por la fór111ula (3.9. 7) la dispcl'sión D"• k~~ de 1<1 magnitud aleatoria X 2 • T eniendo en cueJtltt qua en csLt1 cuso lodos los coeficiente~ y,. 11 son reales, ohieodrcmos
=
kl1 k ' D kl, D :2== kti 11-r i -= ~ + z
k
De donde (3.11.1{¡)
Par11 clct.ermiuar y,.2, expre:!emos por la fónnul11 (3.!J.S) el momcnLo de correloción k. 2 dt1 liis magniLuclcs aleatori as X" y X 2 • Entonces obLondrcmos - k~, k vz = i'vt'\'ZtD 1 + Yvz Di = Yvt'\'itk"u T i'vz kuk22 ku o, teniendo on considerncíón (3.11. 13), z. .., .4·,.1ku .L " ""2
k11
• rV2
De :iquí hallamo!' y,~ =
k11k,,..,-k,.1/c%l kukzi-klt
(v=3, . . ., 11).
(3.11.15)
Proc-0die11do cleJ mbmo modo, cx11resemos s1.1cesiv1111lC'nlc los demás coeficientes Vva (v = 4, .. . , n), .. ., y,,, 11 _ 1 por medio do las dispersioues y los m omentos de correlación de las magniludcs aleatoria~ X 1 , •• ., Xn. Dado quo las magnitudes V11 •• ., Vn son funciones linC'ales de las componentes X 11 • •• , X" del vector aleatorio normalmente repartido, todas lru; distribuciones de las magnjturles Alea torias Vi. . ..
t47
§ 3.11. Di•trlbuc:i6n normal polldlm1n&io11al
... , V n, tomadas por separado y en cualesquiera com binaciónes,
asi como todns sus distribuciones condicionales, son normalej¡. En particular, son normales las distribuciones de todos l os pares de V vi V 11 • Por consiguiente, en vfrtud de lo demostrado en el § "3.6, las magn itudes nleatorias V 11 • • • , V,. no solnrnonte no está n correlacionadas, sino que son i ndependien tes por parejas. Demostre~ ' ro.os que éstas son independientes también en conjunto . .Gónsideremos primeramente la distribuci9n conj untA dlii tres ma·g nitudes·aleatorias V 1, V 2 , V s. En virtud de las fórmul·a s (3.11 .H) ¡ Jp.: esperanza matemát ice condicional de la mangni tud V 3 es fw1ción 14ieá'l de:Joil valores v., v2 de las magnitudes V1 , V 2 y su dispersión conüiciQn.a.l 6 3 no depende de v1 , v2 • Por eso, la densidad condicional de próbabílidad de la magn itud V 3 se expresa por la fórmula 1
fs(v3lv1J v2)= ., 1 -
" 2nda
- _.!_ Cla-1..1- Pt>o>' e 2A•
(3.11.16)
y ln den sidad conjunta de probabilidad de las magnitutloo Vi. V2 , V 3 es igual n
/12., (vi. 112,
v~)
= f1z (v1, Vz) la (vs l 111, 112) = f
u~
{
= 1((2n)• o,D,!!. 3 exp
-
201 -
11: :.w, -
- Jlv:) 2 } ;u,3 =
(t•3-Ctl/1
--· V (2n)ª1D 1 V A~ oxp {- .!..2 [(-l-+~ ) /)•1 + ( 1 +1:..)11ª+ IJ1 ó3 7;:; L\3 • 2
+_!_.v; + 2~u1v v 11 - 2 ...!!.. v2v~J}. 2 -2...!:.. Áa A., l\3 1 3 As De nquí. npl il:ando In fórmula (::1.11.8), holl111nos la densiclad conjun-
ta de prubnbilitlad rlo las magnitudes V 1, V3 • Tt•nicndo en consideración que en e."k' CASO n -= :). 1 11 C22=o;+ 6,, , 1
af'>
/ 13
(v., v,,)
.-
=JI" J~:,
exj) { - { (c; ,u:
donde • tu •
f
c.. = a 3
A;•
C23 = · C:l!!=
C 1~ = C2 1 = ~,
hn ll nmos
1
C33=
1
a•
_ .1_ :\¡ '
-1- c;,v; ) -1- 2c;~v1 11~)}
,
0t~f'>2Da
=Di+ L\.;- 63 (L\3+~:0,) ' a2Da
ó3('\3+~2 1.J,) '
•
a
r.., ... - A3+ f'>~D, •
Pero segÍln lo demostrarlo l as magnitudes 11leatori;1s V, y V3 son indc¡>enero es to pue1le ser solamente to•
148
cuando a = O. De modo análogo podemos demostrar que de la independencia de las magnitudes V 2 y V 3 se desprende que j} = O. Ahora hien, la distribución condicional de la magnitud V 8 , determinada 1>or la fórmula (3.1:1.16), no depende de los vttlorns u,, ll2 eta las magnitudes V¡, V 2 y, por lo tanto, coincide con la distri bución no condicional de la magnitud V3 y, por consiguiente, Ó3 = D 3 • De 11qui se deduce que las magnitudes V1, V 2 , V 3 son independientes en conjunto. Luego, por inducción, aplicando el mismo procedimient o, se demuestra que las magnitudes V., .. ., V.- son independientes en conjunto para cualquiera que sea k. Asl lHle.s, para cualquiera n, las magnitudes aleatorias V" ... . . . , Vn, que tienen una distribución conjunta normal, son no correlacionados si, y sólo si, éstas son independientes en conjunto. Do iu inrlependencio. rlc las mitgnitudes aleatorias V., ... , V11 determinnhlel! r>or 111 tra1tsforrno.ci6 n de (3.11.12) se deriva que al sustituir en la fórmula (3.11.1) las cxprt>sionas rle las variables Xtt • • • , Xn• determino.das por las fórmulas (3.11.12) sustituyendo las magniLudes aleatorias V 1, • • • , Vn por las variables u 1, • • • • • .. Un, todos los coeficientes adjuntos a los productos de las varinhlcs u1, • • • , Vn deben convertir~e en coro, y los coeficientes adjunt.os n v!/2, ... , u!/2 deben ser iguales a las magni tudes inversas de lits clispersiones 'l/D 1 , ••• , 1.ID,. correspondientes 11 las magnitud<'S V1, •• ., Vn· Esta condición nos permitirá establecer las relaciones buscada.'! entre las dispersioneK y los momentos de corrclaci611 de las mag11itudes aleatori as X1t .. .. X" y los coeficientes c,,q en la exp resión (3.1.1 .1) de l a densidad norm al de probabilidnd. AJ sustituir ea las fórmul as (3.11.12) las magnitudes aleatori11s por l;1s Val'iablcs correspondientes, y las exp resiones obtenidus x., ... , Xn ea el exponente de la (3.11.1), vemos que los productos u1v,. se obtienen solamente como resultado de 111 multiplicación tle (x,. - mn) por (x 1 - m1) (x~ - ma), ... , (x,._1 - mn-1) Y como result11do de elevar a l cuadro.do (x,. - m,.). Por consiguiente, el coeficiento adjunto a v 1v,. en ln expresión obtenida es igual a Cnl
+ C11z'Y21 + C,.3y31 + • • • + Cnn'Ynt·
Jgunlando esta expresión a cero y sustituyendo los coeficientes Y21. Y»t• .... y,. 1 por sus expresiones de (3.H.t3), ob tendremos la relaclóo ' siguiente: (3.11..17) Observemos ahora que la expresión (3.11.1) de l a densidad normal es completamente simét rica con respect o a :c1 , • • • , z,, y l a numer11cl6n de las magnitudes ~lcator\as X 1., • • • , Xn se puede establecer nrbltrariamente, por e jemplo, se puede tomar l a magnitud X 1, por la primera y la. magnitud X.., p or la n-ésima. Por consiguiente, la relación (3.11.17) es válida no solamente para la n-ésima linea
.-$ 3 .11 . D l.iribu.c/.én. normal poltdtmenslonal
i.\9
de la matriz (3.11 .2) de los coeficieDtes Cpq y para lo. primera columna de la matri:I. de couclación K del v~tor aleatorio sino que, en general·, pnra cualquier linea de la matriz C y para cualqllier columna 1lc 111 matriz Je correlación K con números no coincidentes. Asi pues, ele (3.11.17), en virtud de la simetría, se dedu.ccn la$ rel acion~s
-1-. • • -1válidas para cualesquiera µ, v, ~~ .p v. Cµ1 k1v
-1-
C 142k:v
C¡;nknv
= 0,
(3.11 ,18)·
El cundrado de l a variable v 1 se obtiene evidentemente en cada sumnndo del exponente en (3.11.1), además, el coeficiente adjun to o u~ en el su mando c11 (x 1 - m 1} 1 es igual a c11 , los coeficientes ane· xos o ~ en los sumandos tipo c91 (x9 - m 9 ) (x1 - m 1)., p .p i son.. iguales a las .magnitudes ' correspondientes cp1y,, 1 y los cooflc~~!lte~ ad junto~ a v~ en los sumandos Cpq (x9 - mp) (xq - m11 ); p, q, ".p 1, son iguales 11 las magnitudes correspond ientes CpqYpiYqi · Por consi-' guiente, cm v irtud de (3.H.13), el coeficiente sumn rio anexo a u~ es igual n
+.-
"
~
Cpqkp¡kqt•
ll P , t/"'l
Por otra parte, este coeficiente debe sor igual a lu magnHuJ inversa rle la diSJlersión 1/D 1 - 1/ k 11 de la magnitud aleatoria V,. Por lo t anto, es válida la rolllción
o sea n
L:
C pqk¡,.kq¡ =k11.
(::J. 11.19)
'" q..l
'l'ruo~formemos
el pri mer miembro d o esta iguald ad . Eíuc\u11ndo prirner111nente la 11dición con respeclo :il indictl q y sacando fuera del isigJ10 rlo suma con respecto a q el factor com1í11 kpi. podemos escr ihir n
n
n
h Cpqkm kql = p=-1 L: (q-l L: Cpqkqt) kpl· p , q-1
(3. H. 20)
l'ero. ed virtud de (3.i1.1 8),
"
~
q=I
Cpqkq1 = Cp1k11
+ Cpz/cz1 + .. . -1-Cpnkn¡ =0,
1rnrn cualquiem p -:¡. 1. Por consiguiente, en Ja su ma coo rcs~cto al índice p en (3.11.20) todos los sumandos son iguales a cero, snlvo el sumando correspondiont,e a p = 1, y obtc11clromos
"
)-: c1,qk,,akq 1 = (
p.17= \
2:" c,9 kQ,) k 11 •
'l'- t
150
Cap. 3 Mag11iludes aleatorias vectorialt:s
Sustituyendo esta expresión en (3.11 .19}, obtenemos l a r elaci6n n
~
Ct<¡kq1
g=l
=c11k11 + c12k21 + .. . ·i- C1nkrit= 1.
(3.H.21)
De aquí, debido a la simetría de la expre11ión (:·U 1.1} de la densidad normal de probabilhlad con respcc:to a la!! vari ables X¡, •• • , x 11 , obtendrcrnos la relnción Cv 1k1v
-J-
C,,2k2v
-J- • • .
+ Cvnknv =
1 (v
=
i, .. . , n).
(3.11.22) Así pues, hemos deducido las relaciones (3.11.18) y (3.H .22) que ligan Jos elemento;; de la matriz de los coeficientes e, de forma cuadrática en el exponente de la expresión de la densidarl normal de probabilidad con los elementos de l a matriz de correlación f( del v!lc t.or alea torio. Para determioar las dispersiones y los momentos de correlación de las magnitude~ a!<Ja todas X 1 , •• • , X,., t omemos todas las ecuaciones (3.H.18) y Ja ecuación (3.11 .22) correspondiente al mismo valor q del indice v: C11k11
c,,.k1q
+ C¡2/~~q + .. . -J- C1nk>iq = Ü,
+ c,.2k 2q + ... +
Cnnknq
= O.
Estas ecuaciones forman un sistema ele ecuaciones algebraicas lineales con respecto a k 1 ,1 , k 2 q, ... , knq · U na vez resuelto este sistema, obtendremos
. kp1¡
= C11C12 • • • • • • · • • • • • • • • • • • • • C1n C21C2z • · • · · · • • · · • • • • · • • • • C2u
Cu 1C11 2 • • • • • • • • • • • • • • • • • • •
C,tn
Por fin, d espués d~ descomponer el determiJ1antc del numerador por los elemento!'! de lá p - ésimn columna, obtoni:l.remos Cpq
k¡iq = m (p, q= 1 . . .. ' n).
(3.11.23)
§ 3.11 . D t.trlbuc"5n normal polldtme1Ulonal
donde, por Cv9 elemento Cp ,1 =
t5t
= C1,, Cq ¡>
se designa el complemcnlo algebraico del en el determinante 1(; j: Cu ••• Ct.p-tCt.¡.>+-t •••
e,.
Cq-lol • • • Cq - 1.p-1Cq- t.p+1 • • · Cq - 1.n
C11q= ( -
!)P.,q
Cq~· t.I ' . 'Cq+ 1.p-1Cq+l •P+I • • • Cq+ t.n e,, , · · • Cn .p- 1 Cn.p+1 · • • Cnn
(p, g
= 1,
... , n). (3.11.24)
La fórmula (3.11.23) expresa las dispersiouos y los mómentos ilo correlnción de las componenles do un vector aleatorio normalmente repartido por medio de 10:1 coeficientes, de Corroa cuadrática en ol exponente de la exprt!sióo de la densidad de probabilidad del m ismo. Las relaciones (3.11.18) y (3.11.22) permiten resolver también el vroblom n in\•erso, es decir, expr esar los coeficientes c,,q en la expresión de la de11.Sidad normal de probabilidad por medio do las db;por~ioneM y los momentos de correlación de las magnitudes a leatol'ias. Para resolver este problema, tomemos la ecuación (3.11.18) cort·espondionte a un mismo valor p del fodice µ y la ecuación (3. H .22) corres1>omlicnte o -v = p y escribá.moslas en l a forma
Esla~ ecuaciones form11n UJt sistema de ec uaciones ulgcbraicas lineales con Tespec.to o. c 1,., cp 3 , • • • , Cpn· Al resolver esto sistema de ecuaciones, obtendremos, al igual que antes: Cpq
=
ffi {p, q
= 1, ... , n).
(3.11.25)
dond e 1 K 1 es el determinante de la matriz de correlación K: (3.11.26)
152
Cap. 3 111 agnltudts altatorla.< •·ectorlalt •
y Kp9 es el complemento algebraico del elemento k,,q en el deter-
minante 1 K 1*). Para lo sucesivo necesitaremos todavia 111 fórmula
1C11K1 = 1,
(3. 11.27)
que liga los determinantes de las matrices C y K. Para l a deducciém de esta fórmula observemos que, según la regla de multiplicación do los determinantes, los elementos del determinante 1A 1 = = 1C I I K 1 se definen por la fórmula:
l::n virtud de (3.11.18) y (3.U.22) , las expresiones obtenidas son igu11les a cero para µ =/= v y a la unidad para µ = v. Por consiguiente, i o ... o
1A 1-= 1C l IK 1= O i
... O
o o ...
= 1,
1
lo cunl demue.~tra la fórmula (3.11.27). Sustituyendo las expresiones de los coelicientes Cpq de (3.'11.25) y la ex¡>resión del determinante 1 e 1 de (3.11.27) en (3.11.1), obteudremos la siguiente fórmula para la donsidad de probabilidad de un vector aleatorio n-dimensionnl normalmente repartido: t
f (:c., · · '' :Cn) = V(2n)" 1K1 X
x exp { -
~J 21
n
h
Kpq (:cp-mp) (:cq - mq)} .
(3.11.28)
P. q=I
Esta fórmula muestra que la distribuci ón normal se determina por completo po11 la esperanza matemático y la matriz de correlación del vector ale'atorio. Le dejamos al lector que por sí mismo obtenga de (3.U.28) laJórmula (3.6.20) .deducida más arriba para la densidad conjunta de probabilidad de dos magnitudes aleatori as. Pasemos ahora a la determinación de. la función característica de un vector aleatorio normalmente repartido. Sustituyendo en la fórmula general (3.5.2) la expresión (3.H.1) de l a densidad normal • ) SI el lector conoce los elementos del Algebra matricial, verá con fac1lida3 dU.Ctamente de (3.1t.t8) y (3.il.22) que las matrices C y K son roctprocamento Inversas, debido a lo cual se obtienen a la vez las fórmulas (3. 11.23), (a.11.25) y (3.H.27).
153
§ 3.11. Distrtbu.cló11 normal pol tdlm
de probabilidad, obtendrcmO.!!
- -%-
"
~
(3.Ü.. 2~}
Cpq(Xp-m p)(xr¡- mq} } dx., ... , dxn.
p, q-1
Una vez sustituidas las varia.bles ·con.forme ·a las fórmulas (3.11.1·~), los coeficientes anexos a los productos de l as variables v1 , •• • ,, :Vn en el exponente serán iguales, según lo decnostrad·o, a cero y ln exprésión para l a función característica tomará la lórma --
g (A.i, • • · , An) =
n
V(~~)~ exp { i ~
TnrAr} X
1'= 1 00
X
J ... Jexp { -oo
i [J..1v1 + "2(1'21V1+1>2) + • •.
+ An (1'n1V1 -!-
-oo
"
t} dvl ... du,..
+ 'Vn2vi + •. . +vn)J- ~ 2 r~I
Aquí la función subintegral se descompone en el producto ele los muhiplicadores carla uno de los cuales depende solamente de una de las vatiables vh .. . , v,.. Por eso la integral en la expre8i6n obtenida es igual al producto d·e n. integrnles simples y
g (J..i. . • . , A.n) =
V ¿~)~ exp { t ~ mrA.} X r- 1
00
X ) exp { i
p.,+ ')'StAz + ... + X dv 1
l'ntAn) Vt -
...
2~¡ }
j exp { tJ..,.u,. -
X
{~,..} dv,..
-oo
Aplicando 11ara el cálculo de los integrales obtenidos la fórmula (3.11.7), obtendremos g (A.1t •.• ' A.,,)= VI
"
e 1D1 ••. Dn exp { i ~ m,J..,- ~I
X
r-1
X (?., + Yztf·z + . ·. +Yn17..,,)2- .. . -
~" },~}.
(3.11.30)
Cap. 3 Magnit11dts o.li!atorias vecloria les
De la fórmula (3.11.14) se deduce que D 1D2 -k11 k11k,1-ki, ku
-
1k11
ku 1
kz1 k2z •
De las fóroiulas semejantes para D 3 , • • • , D,. se deduce fácilmente que el producto Ds. ... , Dn es igual al determiuante de la matriz de correlación K. Por eso, en virtud do (3.11.27), 1 C 1 D 1 • • • . . . Dn = 1. Luego, abriendo el par~ntesis en el exponente de (3.11.30), obtendremos los cuadrados de las variables Á1 , •• • , !..,.. y todos sus productos posibles. Por lo tanto, n
g (A.i. ..• , /...,.) =·exp { i ~
n
rn,A., - f ~
aw/A.1,1,q. (3. t t.:·H) p,q=I Para c.alcular los couficicutes a.Pq• observemoH que ol coeficiente anexo a í..~ en (3.11.30) es igual a D 1/2 = k 1 /2 . .Por consigoicute, a.11 = kit. Puesto que la expresión (3.11.29) de la ·función c.aracterística es 8imétrica tanto con respecto a lus variables 1. 1, • • • , ii.11 corno con respecto a las variables do integración x.. . . ., ;e,,, entonces, en general, a.pp = k 1,p. A C-Ont.i.uuación, el coeficiente adjunt.o al producto A1A. 2 en (3.H.30) es igual, on virtud de (~~.1L13), 11 D 1Y2112 = k 2 1!2 = k12/2. Por consiguiente, u 12 = a.2 1 = k 12 = kzt• de donde, en virtud de la siroetría, llegamos a la conclu,;ión de que, 011 general, apq = kpq · Sustituyeudo esta expresión en (3.11.14), obtendremos definitivamente r=I
"
g (A.tt ..• , "-n) = exp { t ~
n
m,A,-{ ~
~t
kpqApAq} .
(3.11 .32)
P , qc;i\
En el caso particular, cuando n = 1, esta fórmula da la expresión (2.5.14) de la función caracterís tica de la magnitud aleatoria escalar normalmente repartida. En conclusión del párrafo deduciremos la fórmula para el momento central mixto de cuarto orden de las componentes de u11 vector aleatorio :r¡ormalmente ··repartido. Conforme a la fórmula (3.5.6), para ·Cletermiuaf' cualquier momento central es necesario hallar la ~oi'res'pi>~di~nte función caracterfatica derivada del momento aleatorio ~entr;tdo. La fórmula (P: 11.32) da, para la función característica del vector cuadridimensional centrado normalmente repartido, ra expresión siguiente: g (/,.1 , Az, As, A. 4) = exp {
-f ~'
kpqA.pA..q} •
(3.11.33)
P. q.,t
Derivando esta expresión con respecto a las variables A.h /..2, A.3, J.., una sola vez y haciendo luego A1 = Az = A. 3 = A4 = O, ol.itendremos en virtud de (3.5.6) (3.11.34)
CAPITULO 4
Características de funciones aleatorias .
§ 4.1. Leyes de distTibueión de una
magni~ud
aleatQria
E n el capitulo 1 vimos que en los pi;oblemas prácticos1se im'c ueu..~ tran magnitudes aleatorias que varían sus valores en el proceso del experimento. De ejemplo de tal magnitud aleatoria puede servir el resultado de la medición o del registro de cualquier magnitud que es función del tiempo o do otra variable cualquiera. La magnitud aleatoria que cambia su valor en el proceso de una prueba re presenta una función aleatoria. En l os problemas prácticos se encuentran con mayor frecuencia funciones alea- :e torias del tiempo. Sin embargo, u.no tiene que operar también con funciones aleatotias de otros argumentos. Así, por ejemplo, la superficie del mar agitado representa, en cada instante dado, una superficie aleatoria cuya Z-c oordenada es fun- q t dón aleatwia de la abscisa y la ordenada. El estado de esta superl"ig. 4.U. ficie, en un momento de tiempo determinado, puede ser obtenido como resultado del levantamie.nto aerofotogramétrico. El vector velocidad del viento en una atmósfera turbulenta es función aleatoria de cuatro argumentos: de las coordenadas de un punto del espacio y del tiempo. Teniendo en consideración los ejemplos citados, demos l a definición general siguiente: se llama función aleatoria a tal función <;uyo val or os, para cada valor dado del argumento (o de los argumentos) una magnitud aleatoria. Cada función concreta que puede ser registr ada durante una sola observación de la función aleatoria se llama reali:iación de la misma. Por ejemplo, el oscilograma que registra una función aleatoria del tiempo representa la realización de la función aleatoria. La superficie del mar agitado fotografiada en el instante dado también es un ejemplo de realización de la función aleatoria de dos variables. Si repetimos l as pruebas, oblendremos ·diferentes realizaciones de la función aleatoria (ag. 4..1.1). De acuerdo con !o expuesto se puede dar también otra definición d o la función aleatoria: la función aleatoria representa cierto conjunto d e funciones concretas con una distribución de probabilldade,s pre-
1SG
Cap. i Coroctul1ticos ch fuMion.a akatorliu
fijado en el mismo. No obstante, para los fines aplicativos es más conveniente usar la pri mera defin ición. Convengamos en designar las funciones aleatorias por las mayúsculas del alfabeto latino tomando generalmente l as últimas letras del mismo. Las minúsculas correspondientes las emplearemos para designar las realizaciones de las funciones aleatorias. Designaremos por t el argumento de la función aleatoria, h aciendo caso omiso de que sea éste una magni tud escalar o un vector de cualquier número de mediciones (es decir, un conjunto de varias variables). Claro está que en los gráficos se pueden representar por curvas y superficies solamente las realizaciones de las funciones aleatorias y no las propias funciones. Las funciones aleatorias pueden ser escalares y vectoriales. Como ejamplo de una función aleatoria escalar puede servir la señal captada por el radiorrec~ptor . De ejemplo de una función aleatoria vectorial puede servir el vector velocidad del viento en la atmósfera turbula11ta. El número de la componente de una función aleatoria vectorial se puede considerar como argumento adicional que puede tomar solamente valores enteros determinados. Por eso, la componente X v (t) de una función aleatoria vectorial se puede considerar como la (unción aleatoria escalar X (t, v) de los argument os t y v. Por consiguiente, al estudiar las propiedades generales de las funciones aleatorlt1s, propiedades inherentes a IM funciones aleatorias de un número cualquiera de argumentos, puede Hmitarse a las funciones aleatorias escalares. Todos los result ados obtenidos serán aplfoables 111 conjunto de componen tes de cualquier función aleatoria vectorial, es decir, a la propia función aleatoria vectori al. La función aleat ori a del t iempo caracteriza el proceso de variación de la magnitud aleatoria en el transcurso del tiempo. Por eso, las func.i_one¡¡. aleatorias del tiempo se llaman de ordinario procesos alei;itorios (a veces estocásticos). La función aleatoria de, las coordei;iadas; de un, ,punt;o del espacio se denomina corrientemente campo
aleatorio. Los, a.r gumentos de las fubciones aleatorias pueden variar ininterrumpidamente . en cierta zona o de un modo discreto. Los valores de la función aleatoria de un argumento discreto forman una secuencia de magnitudes aleatorias llamada sec~nci.a aleatoria. En la mayoóa de los problemas concernientes a la automatización o la radiotécnica uno tiene que operar solamente con funciones aleatorias del tiempo. Por eso, teniendo en cuenta el objetivo princi·pal de este libro, servir de introducción a la Teoria de las Probabilidades para los que deseen estudiar sus aplicacinoes en el campo de la automatización o la radiotécnica, asi como en el de las asignaturas relacionailas con estas últimas, en lo sucesivo vamos a exponer el material referente a las funciones aleatorias escalares de 11na
§ 4.1. Leyes dt dl$1ribuci6n d• una ma¡!11ituá altalorfa
157
variable independiente escalar que cambia continua o discretamen te en cierto int ervalo a< t < 11 (en pa.r ticular, puede ·ser a. = - oo, 11 = oo). Sin emhargo, conviene recordar que todos los métodos generales de la Teoría de funciones aleatórias son aplicables a cualesquiera funcione.s aleatorias de argumentos escalares o vectoriales.*) ' La función aleatori a se puede considerar como el conjunto· de magnitudes al eatorias X t que repr esentan los valores de Ja misma para diferentes valores de t; X 1 = X (t) (u < t < 11). Esto quiere decir que la función aleatoria es equivalente a un:·.c oujunto infinito de magnitudes aleatori as. Por eso ·el ml!-terial ..c(entífico de la Teoría de funciones aleatorias es considei'a:blemente· más complejo que el de la Teoría de magnitudes aleatorias. Conforme a la definición, ol valor de una función aleatoria escalar, para cualquier valor fijado del argumento t, es una magnitud aleatoria corriente. En el capítulo 2 vimos que cualqu ier magnitud aleatoria se caracteriza por completo por su ley de distribución. Por lo tanto, la caracteristica completa del valor de la función aleatoria X (t), para cualquier valor fijado t, os la densidad de probabilid!ltl ele este valor, que de..
Cap. 4 Caracltrlfliro.< de /un
rizarse por la densidad conjunta de probabilidad / 2 (x,, x2; ti. t 2) que se llama densidad bidimensional de probabilidad de la función aleatoria X (t). Según lo expuesto en el § 3.'1, la densidad bidimensional de probnbilidad / 2 (x1, Xú t., t 2) también determina por completo la densidad unidimensional de probabilidad / 1 (x1 ; t 1). En efecto, en virtud de la fórmul a (3.1.18) 00
/.(:r 1; t 1 ) = ) fi {xs. x 2 ; t 1, t 2) dz2 •
(4.1.1)
La densidad bidimensional de probabilidad de una función alea· t.orio representa una característica más completa de la misma que la unidimensional puesto que por la densidad bidimensional siempre Sij puede detcrminac la unidimensional. No obstante, tampoco la densidad bidimensional de probabilidad es, en el caso general, una caraclC'rística completa de la función aleatoria. Pero ¿es, tal vez, el conocimiento de la densidad bidimensional de probabilidad suficiente para poder resolver lodos los problem11s pl'ácticos? Es fácil ver quo no es asi. Por ejemplo, para la integración de una magnitud aleatoria, es necesario tomar sus valores para un número bastante grande de valores del argumento, componer l a s uma correspondiente y luego pasar al limite, dirigiendo este número a la infinidad y el intervalo máximo entre los valores vecinos del argumento, a cero. A.'!í pues, aunque esto sea una integración arproxlmada, tenemos que examinar en conjunto un número bastante grande de ordenadas de una curva aleatoria, si queremos hallar la ley de di.stribuci6n de la integral de la función aleatoria. Continuando los razonamientos anteriore11, se puede determinar una densidad tri·, cuatrid imensio· 11111 (y, en general, den dime.nsioncs) de probabilidad de la magnitud ale11toria para .c ualquier n entero positivo. Es evidente que la densid.!ld d!l· pr9b_a-bilidad de cualquier orden inferior puede ser calcu· Ja~a cP,or ,lo ,del.. orden superior, Por eso, c(\da densidad .de probabilidt\d ppsterior es una coracteristica más completa de la función .aleatoria que· Wdas las densidades anter.iores. Como resultado se obtiene una secuencia irúinita de densidades de probabilidad de órdenes siempre crecientes. Surge la pregunta ¿es esta secuencio infinita. de densidades de probabilidad una característica completa de la función aleatoria? Las investigaciones matemáticas dan a esta pregunta una respuesta positiva que, sin embargo, no es válido para todas las !unciones aleatorias. R esulta que .la secuencia infinita de densidades de probabilidad caracteriza por completo la función aleaiol'ia solameuto en el caso en que todas sus realizaciones posib)es son suficientemente «lisas•, es decir, si toda realización puede 8er determ.i nada , cual quiera que sea el grado do exactitud, 'por sus valores en una serie discreta de puntos que se encuentran uno de
§ 4.2. b"8perotUa motem4ti
159
otro a una distancia suficientement.c próxima (a excepción, tal vez, de cierto conjunto de realizaciones cuya probabilidad sumaria .de producción es igual a cero¡ prácticamente todas estas realizacion.es pueden ser despreciadas). En algunos c·asos la secuencia in.finita de densidades de probabi· Jidad de la función aleatoria puede ser determinada de un modo compar¡¡Livamente simple. Lo cosa es así en lo que se refiere al caso más ampliamente difuso de la ley normal de distribución. La función aleatoria se considera nonnalmente df#rtbutda siempre que todas sus densidades de probabilidad de cualesqui~ra órdenes sean normales. En el párrafo siguiente veremos que Parª una ,función aleatoria normalmente distribuida toda la secuencia infinita de densidades de probabilidad se determina por completo si se conoce la densidad bidimensional de probabilidad. Vemos que la caracter!stica probabilistica completa de una magnitud aleatoria. sirviéndose de sus leyes de distribución de diferentes órdenes, resulta ser muy compleja. Por eso surge la pregunta: ¿no se poclría en algunos problemas prácticos limitarse a características más simples, aunque estén lejos de ser completas, de la función aleatoria, análogas a las características numéricas, de las magnitudes aleatorias. Como vimos en los §§ 3.8 y 3.9, las esperanzas matemáticas, las dispersiones y los momentos de correlación, es decir, los momentos de los dos primeros órdenes de las funciones lineales de magnitudes aleatorias se pueden calcular, sin conocer las leyes de distribución de estas magn.itudcs aleatorias, sabiendo s ólo sus momentos de los órdoues primero y segundo. Se pueden ob~ener fórmulos semejantes también para momentos de órdenes más altos. Hemos visto que para una clase más difusR rle magnitudes aleatorias, o saber: para las magnitudes aleatorias normalmente repartidas, los momentos de los dos primeros órdenes resultan ser una característica completa. Por eso, también al resolver problemas prácticos de la 1'eorfo de !unciones aleatorias, es conveniente limitarse al est udio de los dos primeros momentos sin examinar las leyes de distribución. En esto caso resulta 11uficieoto conocer los momontos de Jos dos primeros órdenes de l·as funciones aleatorias para el estudio de cualesquiera operaciones line11le11 sobre dichas funciones.
*
~.2.
1-°;gpera nza ma lemótlcll y función corrolali,•n
de unn función aleatoria Fijoroos cualquier valor del argumento t y examinemos el valor 1le In !unción aleatoria (para este valor del argumento) como una magnitud aleatoria corriente. Para esta magnitud aleatoria podemos determinar la esperanza matemática que, hablando en general, dependerá del valor elegido de t. Dando a t todos los v11lores posibles,
160
obtendremos cierta función m,. (t) a la cual es natural llomarle esperanza matemótica de l a función aleatoria X (t). Así pues, se denomina esperanza matemática de la función aleatoria X (t) a t al función m,. (t) cuyo valor, para cad11 v11lor dado del argumento t, es igual a la esperanz.a matemática de la magnitud aleatori a X (t) para este valor (fijado) de t•):
m,, (t) =- M (X (t)I.
(4.2.1)
En virtud de la fórmula (2.3.2), la esperanza matemática de lo función aleatoria se puede expresar por su densidad unidimension11l de probabilidad:
m" (t) =
..J x/
_..,
1
(:e; t) d:i.
(4.2.l)
Según la definición , Ja esperanza matemática repr esenta el valor medio (pesado on cuanto a l a probabilidad) de la inagnitud aleaLoria. Por lo tanto, para cada valor dado de t, la ordenado de la curva m,, (t) representa el valor medio de la de la curva aleatoria X (t) pal'a este valor de t. Así pues, la esperanto matemática de la función aleatorin no es más que una curva media alrededor de la cual se disponen las realizaciones posibles de la función aleatoriR (fig. 4.2.1). Es evidente que al considerar solamente la esperanza matomútict1 de la función aleatoria, despreciamos todas las desviaciones aleatorias posibles, red uciendo a Ja med it1 todo el laaz de realizacio· nes posibles de la función aleatoria. Así se procedo al empicar los métodos de investigación corrientes no relacionados con la Teoría de las Probabilidades. No 'Obsta nte, el sentido de la Teoría de las probalilidades consiste precisamente en examinar no solamente los valores medios regulares de las magnitudes, sioo también las desviaciones aleato rias con respecto a éstos. Conforme a lo dicho, pa,ra caracterizar la fluctuación de las realizaciones de una función aleatoria en torno a su esperanza matemát.ica , so puede aprovechar la dis¡férsfón de dicha función, la cual, en virtud de la defiuioión (2.3.9), vil expresada por la densidad uoidimonsional de probabi· lidad de la función aleatoria por la fórmula 00
Dx (t) = M ({X (t)-m., (t)}UJ
=
J{:t-mx (t)}2/t(~; t) d:r.
(4.2.3)
-oo
En los problemas prácticos a veces es conveniente en lugar de la dispersión examinar l a desviación cuadrática media de la fun• ) En este caso, se supone, clero ostá, que la esperanza matemática de h magnHud alefttoria X (1) exisie para cualquier t, al Igual que todlll! lllll esperanzas ,matemáticas de las cuales se tratará n continuación.
§ 1.2. E.•pemnza matemdtktt y función correlatll:a
ción aleator ia: <Jx
(t)
=V Dx (t).
16t
(4.2.4)
La esperanza matemática y la dispersión de la i;nagnitud alea.t oria so11 características numéricas de sus valores para c;,ada valqr d ado del argumento t. E.Has, en cierto modo, determtoan la banda qu~ se llena por las realizaciones posibles de la función aleatoria (fig. 4.2,2 y 4.2.3). Sin embargo, la esperanza matemática y la disper.sión
f ig.
4.~.1.
Fig.
ft . ~ . 2.
no delermi nan la conducta de las realizaciones posibles de la función aleatoria dentro de la banda indicada. En las fig. 11.2.2 y 4.2.3 se representan las realizaciones de dos funciones aleatorias con iguales ~peranzas matemáticas y dispersiones. Sin embargo, éstas se comportan de u n modo completamente diferente. Es obvio que a l derivar, por ejemplo, estas dos funciones aleatorias obtendremos resultados absolutamente distint os. P or eso, además de l a esperan?,a matemática y la dispersión de la magn itud aleatoria, nocesitnmos conocer el grado dll vari11hUidad --- de s us rea lizaciones, la rapidez del cambio de las mismas al vorint el l"ig. 1..2.s. argumento t. A título de ejem· plo tomemos dos valores t 1 y t 2 del argumen t o t en los dos gráficos (figs. 4.2.2 y 4.2.3) y separemos una realización de la función aleat oria eu cada gráfico. En el primer caso, el conocimiento de Ja ordet1111lu de la realizaci ón cu el punto t 1 habla l)Oco clcl valor de e8ta realización en el punto t2 , corno resu ltado de una gran int.ensidad d e variación de todas l as realizaciones de la función aleatoria entre los puntos 11 y t 2 • En el segundo grMico, el conocimiento del valor de la realización cuando t = t 1 permite indicar más exactamente el valor posible do la realización cuando t = t2 • Con otras palabras, en el. sogu ndo ()a~o. el conocer el valor de realización en el punto t 1 prácticamente limita de un modo consider able l a gama posible de valores de las realizaciones en 1:11 pUllto t 2• En el primer caso, Ios va lores d!l las -realizaciones posibles de la función aleatoria X (t1) y X (t2) cu 11 -09;¡3
i62
Cap. 1
l"aratt1rlnica.~ d~
l1111tlunn al-eatorlt11
los puntos 11 y t 2 depondeu poco uno do otro, en el segundo caso, éstos están enlazados por una dependencia más fuene. Para ilustrar gráficamente esta tesis, llevaremos al eje x1 los valores de la ordenada aleatoria X (t1) y al eje .:i:2 , los valores de la ordenada aleatoria X (t2) (iig. 4.2.4 y 4.2.5). Tomemos una gran cantidad do realizaciones y marquemos fos puntos IX (t1), X Ct:)I, que corresponden a ostas realizaciones en el plano .:i:1, x 2 • Parn las realizaciones do la función aleatoria, representadas en la fig. 4.2.2, las magni tu des aleat-0ri as X (t1} y X (t2 ) están vinculadas i1.;1Jilmente. Por eso la dispersión de los puntos IX (t1), X (tz)/ en el plano
~2 l. ..
. . . · 1: . Q
•
Xz ·
•
: 1:
1-'i¡¡. 4.2.4.
. --
:e,
. ......
.......
• Q •
.x,
Fig. 1,.2.5.
x 1x 2 en eslo caso es aproximadament-0 circular (~ig. 4.2.4). Par o la función aleatoria, cuyas realizaciones se muostran en la fig. 4.2.3, las magnitudes oleatorias X (t1 ) y X (t 2) están eulazadas por una dependencia fuerte. Por eso, para 111 función aleatoria cuyas realizaciones se representan en la fig. 4.2.3, los puntos posibles rx (l,), X (t2 )1 se dispondrán en el plano z1x 2 formando una elipse alargada (fig. 4.2.5). Para caracterizar el gra do de dependencia de los va.lores de uo a función aleat.oria, correspondientes a dos valores diferentes del argumento, lo más simple es va lerse del momento de correlación de estos valores de l a función aleatoria . Llamemos /uncl6n aleat2rla centrada a la diferencia entre la función aleatoria y su esperanza matemática:
Xº (t) = X (t) - m., (t).
(4.2.5)
Entonces el momento de correlación de los valores X (t) y X (t') de la función aleatoria X (t), que corresponden a dos valores arbitrariamente elegidos dol argumento t, t', se determinará por la fórmula
K., (t, t') = M IX° (t) Xº (t')I.
(4.2.6)
Dando a t y t' todos los valores posibles en l a zona de variación del argumen to de la función aleatoria X (t), obtendremos la unción de dos variables t , t' que se denomine junci6n co"elati.va (n veces .autocor:relatiua) de la función alea toria X (t). As! pues, se llama
§ 4 .2. Esperanza matcmdlica y funtión torrr.lativa
función correlativa de la función aleatoria X (t) ·a1 momen'to.rde ·cer• rrelación de sus valores para dos valores del argumento t, t', con· siderado como función de t y t'. Al coincidir los valores de los argumentos t' = t, el segundo. miembro de la fóroiula (4.2.6) representa la ·esperanza matemática:' del cuadrado de la función aléatori'a centrada, es decir, la disP,e.i'sión de la función aleatoria X (t}: ·!
K,, (t, t)
=
D,, (t).
(4.2 ..7)
Así pues, la asignación de la función correlativa de una fµnci'ón ; aleatori a determina también su dispersión. Para calcular la función cor.relat iva de una función aleatoria so exige, on el caso general., el conocimiento de la densidad :bidi-1 mensional de probabilidad. Entonces, en virtud de (3.4. 7), la 'fun~" ción correlativa de In función uleatoria X (t) se determinará por la fórmul a K,.(t,t')=
.... JJ
fx -m,,(t)jfx'-m.x(t')]/2(.r,,x';t,t')dxd.x'. (4.2..8)
Teniendo en consideración que siendo t' = t, los valores X (t') y X (t) de la función aleatoria coinciden, y aplicando la fórmula (3.3.3),' hallamos la siguiente expresión de la densidad bidin1ensional de probabilidad de la función aleatoria X (t) cuando t' = t: ' /2
(x, x'; t, t') = / 1 (x; t) ll (x' - x).
(4.2.\J)
Su.stituyendo esta expresión en Ja fórmula (4.2.8) y cumpliendo la integración con respeoto a x', sirviéndonos de la fórmula (2.2.6), reduzcamos la fórmula (4.2.8) a la forma (4.2.3). Las fórmulas (4.2.2) y (4.2.8) pueden ser vir para el cálculo de la esperanza matemática y la función correlativa de la función aleatoria siempro que se conozca su densidad bidimensional (y por 1 consiguiente, unidimensional) de probabilidad. Sin embargo, en muchos problemas práct.icos resulta posilite determinar la esperanza matemática y la función correlativa de una función aleatoria empleando métodos más simples, sin recurrir a la determinación do las densidades de probabilidad. Luego vcrcmo~ en ejemplos como esto se hace. A veces, para caracterizar el enlace entre los valores de una magnitud aleatoria, en vez de la función cvrrelativa, se usa la funct6n. correlativa normada que representa el coeficiente de correlación de los valores de la función aleatoria para dos valores del argumento. En virtud de la determinación del coeficiente de correlación (3.4.9)' y de la fórmula (4.2. 7), la función correlativíl normada de una funH•
ción aleatoria X (t) se determina poT la fórmula
n (t , t ') X
K.~ (1 , t')
-V D,.,(1) Dx (1')
Kx (!, t') -=-v~===;:::;;;::;=.::::::;: K., (t, t} Kx ( t', t')
(4.2.10)
Es evidente que la asignación de la dis1iersión y la función correlat iva normada de una fuoci6n aleatoria es equivalente a la asignación de la función de corl'elación de la misma. J';n lo suce~ivo necesitaremos examinar todavía el momento inicial de segu.ndo orden de una función aleatoria, el cual se determina como el momento inicial mixto de sl!gundo orden de sus valores para los valores arllitrariamento elegidos t, t' de s u argumento: r,, (t, t') = M [X (t) X (t')J. \(li.2.11) El momento de segundo orden de una fanción aleatoria se puede expresar por su esperanza mntemá tica y .su funci6n correlativa. l\ (t, t') = m., (t) m,, (t') + Kx (t, t'). (4.2.12) Esta fórmula es consecuencia directa de la fórmula (3.9.13) para I~ esperanza matemática del producto de dos magnitudes aleatorias
y de
las definiciones (4.2.6) y (4.2.11) de la función correlativa y eJ momentú inicial de segundo orden. , . Hemos dado las definiciones de la esperanza matemática, fa función correlativa y el momento inicial de segundo orden para las funciones aleatorias reales. En los problemas prácticos uno tiene que operar sólo con funcio11es aleatorias reales. No obstante, en las investigaciones teóricas conviene frecuentemente introducir también funciones aleatorias complejas. Por eso, es necesario generalizar los conceptos introducidos extendiéndolos a las funciones aleaiorias complejas. De acuerdo con la dcfinicihn del momento de correlación de Jas rungnitudes aleatorias complejas, la fm1ción correlativa de una f.p.Jlció_n aleatoria compleja X (t) se determina por Ja fórmula 1 · l'l
Kx{t, t')=MfXº(t)Xº(t')].
(4.2.13)
·Por una fórmula análoga se determina el momento inicial de segundo oi¡d!lD de üna función aleatoria compleja. 1'
Ejemplo 4.2.1. E:rnmiuemps la fuoción aleatoria ..., X (t) = U sen cu0 1 Z cos root ,
+
(4.2.14}
donde U v Z son magnitudes aleatorias no correlacionadas cuyas esperanzas matemáticÍts son iguales a cero y cuyas dispersiones son iguales a Di y Di. respectivamente. Esta funo;lón aleatoria representa las oscilaciones armónicas d'e la frecuencin circular © 0 con una amplitud aleatoria -Vvr.:¡:-z¡ y con una fase inrctal aleatoria arctg (ZI U)•). Las realizaciones de esta función aleatoria · •) Eu este caso el arco tangento se toma en el primer cuadrante, si Z rel="nofollow"> O¡ > O; eñ el segundo, si Z >O, U< O; en el ttrcero, si Z
n:
§ 4.$. E1ptra11Ja. ma.únult~ y /uncl/¡n correlatl~'a
165
=
soo slousoides coo un periodo T 2n/1Jlo y con diterentes amplitudes y fases inicial es. En el ejemplo en cuest ión la función aleatori a representa la combinación llneal de dos magnitudes aleatorias con l os coeflelentes sen (l)Ql y cos C»ol· Por eso, aplicando la fórmula (3.8.9) nos convencemos do que la esperanza matemática de la función aleatoria X (1) es idénticamente igual a cero: m,, (t) - mu sen 6>0 t m : cos (l)ut e O. Poniendo en la fórmula (4.Z.14) t = J', obtendremos X (t') = U seo Olct' Z cos w0t'. Esta fórmula, junto con (4.2. 14), muestra que los valores X (1) y X (t') de la función aleatoria examinada, pan dos valores arbitrariamente elegidOll del argumento, son combinaciones lineal es do dos magnitudes aleatorias no conelecionodas U y Z. Aplicando la fórmula (3.l.1.8} para el momento de correlación de dos comb1oaciones lineales de magnitudes aleatorias no correlacionad as, hall amos b función corroladva do la función 11.leat.orlo X (1); K,, (t, t') = Ds sen Wot sen wot' D2 cos IJlol cos mol' (4.2.15) En el caso particular, cuando D 1 = D 2 = D , la fó1·mula (4'. 2.15) toma l a !oraiá (4.2.16) K., (t, t') = D cos (¡) 0 (t - t') . Ejemplo 4.2.2. Examinemos uu caso más gencrAI , cuando
+
+
+
X (1) =
h"
(4.2.17)
Xvfv (I),
"-t donde / 1 (t), . .. , f,. (1) son cualesquiera funciones no aleatoriasi on el caso general , complejas, y X 1 , •• • , Xn son cu alesquiera magni tudes a eatories con esperanzas matemátices arbi trariu, pero fi nitas, y momentos de segurnlo orden. La esperanza matemática se encuentra para esta función aleatoria muy sencillamente como la de u nB función li neal de les magnit udes aleatoria.~. Aplicando la fórmu la (3.8.9) , hall amos ,
"
m" (1)~ ~ m,. fv(I). v=S
(4.2.1~
V
Observando que los valores de la función aleatoria que
~
examina son,
para dos valores del argumento arbitrariamente elcgidlls, !unciones lineales de las mismas magnitudes aleatorias, podemos ªf.Licar la fórmula (3.9.6} para
calcular la función correla\iva de esta función a eatoria. Entonces ubtcndremos Kx(I, t')-
" k, µ,/v(l}/ .(1'). ~ 1
(4..2.19)
v,¡i.=I
donde le,,µ es el momento do ~orrelación de las magnitudes ~lc,alorias X", x., Dxv>· Ejemplo 4 .2.3. Generalicemos ahora el problema del ejemplo 4.2.1 suponiendc1 aloatorias no solamente la amplitud y lo !a•c, sino también la frecuencia do la,, oscilaciones 8rmónlcas. Así pues. examinemos In lundón aloatoria X (t) = (J sen Qt Z cos Sll, (4.2.20) donde U, Z, Q son magnitudes aleotori85 lndependiei•tes; con lo particufaridAd de q uo las magnitudes U y Z tienen esperanzas mnt~111 úticas iguulos a c.ert> y l as mismas dispersiones D, y la magnitud al eatoria Q c.M•c teriza por lo 1lensidad do probabilidad J ((¡)}. · La esperanza matemátic11 de l a función aleatoria X (t) es idénticamente' igual n cero. L a fórmula (4.2.16) determina la {u udón correlativa condicionar (v, µ. -= [, ...• n; kvv -
+
"ª
100
Cop. 4 Carac/uíslicas iU /1•nclont1 aleatoria4
ele la l1111cióo aleut.oriíl X (1) para el valor dado
O>
de la ireeucucia O:
=
=
0>] D cos w (t - 1 ). Ahcll'n. ¡>nra b~llnr la función correlativa de l a función olcatori a X (t) basta 11mll iplit ar Ja iuneíóu correlativa conúicional hallada por el eleroe11to correspoudiC'ute de probobilidnd / (1.0) d© e integrar con respect.o a todos los v11l orcs posibles w d e la IDl\lf11it11d a1eatoria Q. Entonces, teniendo en cucul a quo la lrencu1mria de oscilac iones es, en su esencia, una magnitud positiva, debido a lo cual ~u
K,. ( t, t' J 0>) = M (X (1) X (t') I Q
..
J
/(w) cos oo (t- t') d<».
K,. {1,1 ') = D
(4.2.21.)
o Exn rn ineroo~
al1o ra ol coso concreto cuando
f () w
2a .., . d n (ci~+ 21 sien o
(A)
>O
•
(4 .2.22}
E n csl.e c oso la f6rmul11 (t, .2 .21) da ') 2Da K X (1t I ms. J\
""~ ~
c osw{r -t') d
-i +(A)i
W.
(l
Esta i nlc>gral po.cd e !l
x,. c1, n~o.-a1
1
- 1 · 1.
(4.2.23J
Asi pue.<, on el ca.so en q uo la den.s idad de prohabilldad de l a frecuencia aleatoria de oscilociones 11rm6n icas .se det ermina por la [órmula (4.2.22), l a func ión C
dond e q> es la fu nció n complotaroente determinada de los parámetros indicados >.'~ U., .... U,.. son los parámetros aleatorios para los cu al os está asignada la densidad do problibili'd ad f (u,. . .. , un)· En virtud de la definición d e l a Mperanza mat.emática f{lónnuln (3.4.2)1, éSta y el momento do segund o orden de la función a leatoria X (t) se determinan por las fórmulas m,, {1) =
..J .. . J..
<¡> (1, tt 1, •• . , u,.) f ( tti. . .. , u,.) du 1 du: ... du,.,
..J J..
(4.2.25}
-oo
r .. (l, 1')-
<¡> (t ,
u1 • ... , u,.)
X/ (u1 • . .. , un) du1 .. , du,.. (4.2.26) Co~ocie11do la csrerat\Z• mut.emática y ol momonto inicinl de seS'!ndo orden, se puedo ueterm í uar la función correl ativa d e la magnit o.d nl eator1 ~ X (t) ~ or l a fórmula (4.2.t2).
§ 4.2. Etptran:f1o
m4lem4tka y fund6n correlatl!Xl
t67
Vemos que cuando la dependencia de la función aleatoria con respecto a los par,motros 8.leatorios es no llnoal, para determinar su esperanza .matemática y la función correlativa 9! necesario, en el caso general, conocer la densidad de probabilidad de los parámetros aleatorios , miont.rae ([Ue para detecminor la esperanza matemática y la función correlativa de una función li.neal de parámetros aleatorios basta conocer solamente las GSperanzas matemáticas y las dispersiones de los parámetros aleatorios. Ejemplo 4.2.5. Examinemos cierto elemento carente de inercia do un sistema automático, es decirJ tal el emento cuya señal de salld·a ,: en cadil lnst.ant.o dado, depende solamente det valor de la señal de entrada en el.m ismo momento de tiempo sin depender do cómo cambia esta último. hasta él i nstante dado. Supongamos qµe la señal de entrada X (t) BS función aléa.turia del t iem.Po,.cuya esperenin matemática es igual a la ~üal útil <JUº varía lenlamente·en ra entrada del ole meo to en cuestión y la Ctrnción aleatoria ce.n trada repre!On,' ta l!!, perJuibación, es decir, las fluctu11cionos aleatorias de l a señal de entrada. Generalrñonte la señal de salida de tal elemento se envía a la entrada de cual
Y (1) = q> {X {t}},
(4.2.27)
dond e cp es, en el caso general, función univoca no lineal, la característica del elemento. Es evidente <¡lle para dewmioar la e3peranxa matemática y la dispersi ón de la función aleatoria Y (1) basta coool;éJ', en el caso genCYal, la deMidad unldimensionlll de pr<>babllidad de la Cunci6n aleatoria X (1). Entonces, la esperanza matemática y la dispersión de la función aleatoria Y {t) se expresarán por lns fórmulas
mu (t) =
r
q> (.r)
D,(') -1
/t(z; t) dz,
(•(>) - ..,,(')0 '"'"l "..
1
(4.2.28)
J
Parn hallar la función com1laliva de la funclóo aleatoria Y (t) basta conocer, en d ca~o general, la den~idad bidimensional de lo función aleatoria X (1). EntoncM l a luuci ón correlativa de la función o.l eatorio Y (t) se delerminará por l a lónnula
J .Í
00
Kv ( l, t') =
..
(q>(z) - rnv(l)) )
(4.2.29)
Cap. 1 CaracterúticM de
168
funcion~
akatorilu
Es evidente que la función eorrel1ttivn do 111 {unción 11leatona Y (t) so puede determi nar también por la fórmula (4.2.12). calculando ¡m.• viameote el momeoto ioicial do ~egundo orden por la fórmúla
r 11 (t,
t') =
.... !J
!¡>
(x)
(U.30)
q> (z ') /i(z, :r'; 1, t' ) dz tlz' .
-co -oo
J::ste p1·occdimie11<.o lleva de ordinario a cálculos nHÍ~ ~im¡1les.
La priwora fórmula do (4.2.28) determina la señal útil c 11 la salitl a del elorucnto exawi11ado y la segunda, ol nivel de n1ido en la salida del mismo. Lns fórmulas obt onidas en este ejemplo permiten ox81Dinnr el p3SO conjunto de la~ seiiafos {1tiles y las perturbacionet (ruidos) por cualesquiera ele1ncn tos caroutes do incrcin de los sistema~ automáticos. Ejemplo 4.2.6. Exawino.ruos un dispositivo que funciona de modo quo. ol aetuer en la entrada un iropul80 momuntánoo. la variable do salida RU<¡uiuro un valo r constanl.-0, proporcional a la magnitud del impulso de entrada, y queda 11)
s, Q
s,
'
ltS,
o
Q
:
...
:-
~1~.~ ,.,...~~~--,.r
.s, 1rs, t
~
Fig. 4.2.6.
.rt-----r---:
l"•
' ....___, '
t
1
Fig. 4.2.7.
invariable hasta que acciona eHmpul<;o siguiente (fig. 4.2.G). Una vei rccl bido el impulso siguiente, la verla.b le de salida cambia por un &alto su valor y 110 hace proporcional a la magnitu.d de este impu150. Asl pues, el dispositivo en cuestión transforma. la sucesión de los impulsos en una función escalonada, en la cual la altura de cada escal ón es proporcional al últlroo impulso accionador. S upongamos ahora quo a la entrada de tal dispositivo llega una secuencia de Impulsos aleatorios (por ejemplo, el flujo de partfoulas ~adas con düereotes cargas). Hallar la esperanu matemática. y la función correlativa de la variable de salidn del clisQ08it1vo dado, suponiendo que los impulsos son. magnitudes aleatorias independientes.con ésperania.s matemáticas Iguales a cero y un11 misma dispersión. D, mientras que los momentos de acción de los impulsos forman un flujo de .Polsson con una densidad media constante (véase el § 2.6). En estas condiciopes se puedo coniliderar que el número de impulsos quo actuan en el transcurso de cualquier lapso de tiompo se subordina a la ley de Poisson. Ahora Lieu, l as realizaciones de ·l a fuooi6n aleatoria en la salida del dispos itivo en cul!l!tión serán funciones eaeelooada.s con momentos independientes de paso da un eecalón a otro y con alturas aleawrias de los escalones. La espetanza matemática de tal función aleatora X (t) es Idénticamente igual a cero, puesto que las alturas de los 'escalones, pN>po;i:clonales a Jos impulsos correspondiente~. tienen esperanzas mat emáticas ÍIJUales a cero. Toroemog ahora dos instantes t y 1' y hallemos el momento de correlación de las alturas de los escalones correspondientes a estos instantes de tiompo. Aqul son poslbles dos caM>S (flg. 4.2.7): 1) en intervalo do tiempo (t, 11 ). a la entl'ada llega, por lo monos, un Impulso;
v
§ 4.2. E•ptrttn:a maum6tica ¡¡ /uncl6n corrdat•va
101>
2) en el intervalo de tiempo (1, t') a la ent rada no Uoga. ningún h npubo. En el prlrner caso, las alturas de los escalones son ma~nitudas -aleatoria~ lndopendientes, ya que los lmpulsosJ según la condición, aon independientes uno del o tro (fig. 4.2.7, a) . En el aegunuo ce.so, los punt-0111 y 1' se encuentran en el mismo escalón (fig. 4.2.7, b). Al deducir la !6r¡nula pBl·a el momento de co. l'l'elación, es necesario ten.e r en cuenta ambos c aso~ con .lns probabilidad&s co~ rruspondientes. Designemos por Y el número de impulsos (fue llegan a la entcada dura.nte el intervalo de tiempo (1, t ) . Cuando Y > O, en virtud de lo expuesto, el momento de ~orrelaci6n de las ordenadas de la funcl6o aleatoria en cuestión es igiial a cero. Cuando Y - O, tenemos que X (t') .., X (1) y, ,eor consi11uie11· te, el momento de correlación de las megllitud es X (t) y X (t ) es igual a l• dispersión de los impulsos D. La probabilidad de los acontecimientos Y >O y l' ""' O ~e puede e11lcular aplicando la ley de Poisson (2.6. 13). Entonces ob· tendremos 111 siguiente expresión para la función corrolaliva de la !unción aleaturin OllC11lonada 11uo se examin11: K,, (t, t')= M(X (t)X (t')J = - P(Y> 0) M (X (t) X (t ') 1Y> OJ+ P (Y =O) M (X (l)X (1') i.Y= OJ = = P (Y > 0)-0 + P (Y=O) D=De-µf l-1 '),
dondo µ e~ l a densidad d11l fl ujo de impubus, es doci r, la cantidad media do impu lsos que actúan en la unid ad do tiempo. Ahora bien, la función correlativa J e la función aleatoria en cuestión so determina por la fórmula K,, (t, t') = v.,- 14 l l-t' 1
(4.2.31}
Vemos que también en el ejemplo dado se hn obt enido una función corrn· lativa exponeocial. Ejemplo 4.2.7. Un condensador de capacidad C se carga por el !lujo lle partlculas que tienen diforcntos cargas, y en 1(19 intervalos antros los mom ontos de llegu.tla de las partículas se descarga a través del;reslstor R (flg. 4.2.8). Hallar la esperania matemática y lo fu11· ción co1Telativa de la corriente aleatoria que pasa por el e l(t) resistor, si al cond ensador llegan , por lt\rmino medio , µ R partículas on la unidad de tiempo y las C8!J8S de las par· t itulas son magnitudes ale11t.otlM indeJlend1entts con las mismas esperaru;as matem:itfcas IJ e Iguales dispersiones D. Fig. 4.2.8. Designelnos por Q~ la carga aleatoria de le k-ésimo parú cula y por r,. el momento ale-torio de ~u llego1la al coudensadur . En el mome.nto T11, la t ensión " en el condensador ca0thi11 1><11· un Mi to en Qh/C después de lo cual la magnitud absoluta do esto inr.remcnto"h de ln to11sión disminuyo ~c.gún la ley ex.ponencia!
m
l -T11
Qh -T
11.•
La corrientll en el circuito, engendrada por la llegada al condensador 1!0 la k-ésima parLÍeula , SCl'á igual a u.IR. Por consiguiente, la corrienlo total en el circuito I (1) en cualquiel' instante t se Jetermln&rá por lu fórmul a 1 / (1) - T
l - T1t
~ Q11.e
--
T
•
(4 ,2 .8~}
2.,,~,
donde la adjcióu se extiendo a t odos los valore~ K cOrL"CSJ.IOllilicntes a lns pal'tlcu.las que caen en el condensador 11asta el instante 1 y T ... HC es la asl llamsda constante de tiempo del circuito.
·JiO
Cap . 4 Cara
Para resolver ol problema planteado, primeramente examinemos $6lo la varto de corriente en el circuito engendrada por las partlculas que llegan al ~ondensador durante un intervalo grande de tiempo finito (s , t) y luego pasemos al límite cuando s ...... -oo. Designemos por 1. (t) la corriente en el circuito ('Ogendrada por las particulas quo llegan al condensador en el transcurso del intervalo de tiem110 (s, t). El número de partículas que llegan al condensador -Ourant.c el intervalo d0 tiempo (s, 1) se puede considerar subortlioado a la ley de l'oisson; on estG caso. la csporanza matemática de esw n(tmoro de partículos, segúi1 los da tos, es igual a µ (t - s). Por lo tanto, designando par Rm d acont.ccimiento c.onsi~tentc en que durante nl intervalo de tiem¡io {•, 1) al condensad or llegan m partkulas {m =O , 1, 2, ...) y aplicando la fórmula (2.6.13), pura la probabilídnd de cstll 11conteclmi0Dto obt endremos la fórmula
P ( ~"'ml
[µ (t -s)I"'
mJ
6
-µ ( f-•)
(
O • 2
m= '
.1.,
)
'
••••
(4.2.33)
l~n el r.a~o c.uando en el intervalo de tiempo (s, t) al condensador llegan m
¡1arti1·ui;1s, la c.orrientu prod11cicla en el c.ircuit.o por ¡>M la fónnula
cs~as
pa1'ticulas se
oxpre~a
(4.2,34) lt=l
Hariendo rospecto al número do particul as que llegan al condoDsador on el int01·vnlo do tiempo (s, t) todas las hipótesis posibles m = O, t, 2, ... y aplicat>do
'1a fórmu la de la esperan7.a matemática compli;ta (3 .8.12), expresemos l a espe1·a117.a matemática de la función aloatorin I • (t) por la f6rmnla
M{l,(I}]= ~ P(Em)M[l,(t}JEmi• m-0
(4.2.35)
La esperanza matomútica condicional de la func ión aleatoria 1 8 (1} pnra la hipó tesis Em debe calcularse h11llando la media ¡robaliilística con respecto a todos los valores posibles de las cargas do las parttculas Q/t y a todos los valoros posiL>l"s de los mome!!toS de llegada de las partic'tllas al cQndellSador T,. , siendo Cijo -el número m de partículas que actúan en el intervalo de tiempo (t, t) . En virtud de los teoremas de ac!ici6n y multiplicación de las esperanzas matemática!!, teniendo. ill\ coilsiduaci6n la Independencia de las magnitudes aleatorias Q,. :y Th, podemos·escribir m
M[I8 (t)1Em]= ; .
~
m
1-Th
Jlf
[Qke--T- J-
1'=1
t-Th
i ~ M(Q1<}M [e--T'j.
(4.236)
11-1
Pbra calcular M lcxp {-(t - T,.)IT )J para una partkula que actúa en el instan·t e t = T1¡, en el intervalo (s, t), es ne.:osario, de acuerdo con la. regla general, multiplic!U' Los valores de la función exponenc ial, correspondiente a todos lo~ vnlores po's ibles r,. en el intervalo (s, t), por los elementos respectivos de prntabilidad e integrar. Como resultado obt.endremos M[exp{ - (t - T1t)/T} )
Jexp{-1t-i:)/T}/(i:}di:, •
(4.2.37)
·donde f (T) es la den11icl ad do probobilidad de la magnitud aleatoria Th. En virtud de la c.onstancia de la densidad media de los momentos de acción de las partículas, éstas, al Rer muy grande su número, se reparten estadlstlcamento -Oe un modo uniforme en el intervalo (s, t}. Por consiguiente, la densidad de pro-
§
~.S.
i.7i
E8pt•a11w matem611ca y /u11cl6n. corrtlati"4
habilidad del momento de acción de cnda putfoula tomada por separado debe considerar~ constante en el intervalo (1, 1) : / ('T) = 1/(t - 1). ,S ustituyendo esta expresión en (4 .2.37), obtendremos t-Th
Mle--T-)= l~I
t:.
1- •
t
5~--:¡-d't-
1- • 8
(t-e_T_).
(4.2.38)
Sustituyendo esta expresión en (4.2.36) y teniendo en cuenLa quo la esperanza mateinAtica de la c.arg11 de cada pnrtlcula es igual a q, hallaremos la esperanza matemútic.a condicional de la. función aloato1·in 1 • (1) p11.ra la hi pótesis Em.: t-•
m
M [l ,(i) 1 Em)= ~ _q_ .JC.J t-s
t-.s
m (1- e- 7)-__!_(1 - e- - T l-1
).
(4.2.39)
Sustituyendo las expresiones (4.2.33) y (4.2.39) eu (4.2 .35), hallamos -la espcru1za matemática de la íuuci6n aleatoria l 1 (1): -
M 11 (1)1- ~ [ ~t (1-s))"'
•
~ m- 1
m!
e-11(1->)
.!!!!J_ t -1
t(1 - .,-7) -
t-•
=µqe-µ ( 1-
t) (
1-e-7)
~ {µ (t - - 1}fm~1
(m - 1)!
m- 1
EvidenLemcnLe quo la suma de la serie ea c~ta fórmula es igual a lo t11nto
,_,
M (I. (1)]= µg
.11<1-•>.
Por
(l -•-y).
Al vo.sar al llmile ¡ara R - -oo, hallamos la esperanza matemática de la cornenle aleatoria (1) un el circuito: m¡. (1)
=
M
II (1))
~
1-'IJ·
(4.2.40)
Para hallar lll función correlativa de la corriente aleatoria en el circuito, obsP.rvemo~ que si t' > t
t
Aqul ol pl'iruer sumando ~ diferencia de I (t) ¡¡oJomente por e l mu!lipUcador no aleatorio y el segundo sumando es independiente de 1 (t), ya que contiene ~lamento magnitudes aleatorias independiente" de las msgnitudes aleatorias que ontran en la expresión (4.2.32) parR 1 (t). Por eso, cuando 1' > t, la función <'.Orrelativn de In corriente/ (t) es igual al momento de correlación de las ma~ nitud!'ll 11lentori11s I (I} y I (t) exp {-(t' - t)/ T} para los valores dados t y e , es dedr. l ' -1
xi (1. n-v 11 (1)\ .-......,,.- .
(4.2.41)
i72
Cap. 1 Cora<úrfitietU d4 fu11elon.e1 auatoritU
Ahora nos queda solament41 calcular la dispersi6n tle La corriimte I (1). I.a disrcHl611 condicional de la lunción aleat.oria J 1 (1) para 111 lti~ti!!is wnsiHtonto eu que on el intervalo de tiempo (4, t) al coñdeneador llegan "' pHllcul••. ~ Igual a la 8Uma de las dispnrsionc.s de los sumanrlns 1)11 la fórmula (4.2.34) 011 víl'~ud do la indeP.endencia de los miemos. Para ballar l a disporsión de un sumando en (4.2.34) calculemos 11rimert1ml\nte su momentn inicial dn sr.gu11do ord•'"Según el tt'orcu1a •fo multipl1~11ri6n de las espcrallz11s ml\lomáticas M (Qle -~
t- t,.
l-T11.
.,.-]=MI n~IM {e- T'""J. 2
Luego , ~11 virtud •lo l a co1111eidR 1·orroladón t'-ll lrl\ 111 11ispcr.1ión de la magnitud aleotoria ~· su mnm~Dlt• iniri al do segundo ordrn !fórmula (:l.3. H )], M IQlJ=q' +D, y la ~Apcranr.a matemática Jo la función Pxpo11e11clal so c.olrnla de lo. mismll'
mlllle•·n que P.O dedujo 111 fórmula (4.2.38}. Do aqul, valiéüdonos de nuevo do l aconolaeil>n 1>.ntre la dispeTslóo y el momento Inicial do s11gundo orden y tenien1lo en cuenta que la expresión pan la dls¡>llrsi611 c<>nd icii()Dal dé la fundón aleatoria 1. (t), 1IAda la bipótosis Em, contiene in sumanrlo., iguales, obtendromlls Dfl {1) 1 E 1~ m ('I •
m
2+v)
2T(t-1)
(1-e -
z i-·
r¡_
n111
1-•
'
{l-s)i
{t-e-T)~
·
Multiplicando esta e.xprosión por la probaliiHdad de la hipótesis Em• que se det~rmlna por la fórmula (4.2.33), y sumando con resp~tn a todos lo5 valores posibles do m, hallaremus la dispersión no condicional do la función aleatoria r. (t):
, '+D)
Dfl.{1)- 11 ' 9 T 2
a t-.• • t-• (1-•- T)-~(1-e-"T"°)i.
,_,
P a~ando
en esta fórmula al limito ¡>nra s- -oo , hallamos Ja dispel'3i6n bu:icaJ1> de la corrieote aleatoria que cirrul11 en el cil'l:uito I (1):
Dff (1)1 =
11 (q;:D),
(,.2.42)
Por fin, su:rtituyondo cH11 exrorPs.lón en la fórmula (4 .2.41 ), obtendtemos K 1 {t, t')
'+D) -~ 11 (92f e 'l' siendo t'
"> t.
Es evidente r¡-ne cuando I' < 1, la 11ílarencla 1' - ten el exponente se sustituir~ por 1 - t'. Como resultado, la runció11 correlativa. du la corri eilte aleatoria en ol cil'l:~it9 dado J (1) so expresan\, parn todos loe valores t y t', por la fónnuln l { 2+D) ii-1·1 e- - T .K t(t, t')- 1 ~
sieoclo t' < t.
(4.2.43~
Do esta moiio, así como en los ejemplos 4.2.3 y 4.2.6, hemos obtenido do nuevo una .fllnció~ correlatlv~ exponencial. No obstante, lais realizaciones posibles d8'1as fu,nc1onee aleatorias examl.nadas en estos tr~ ejemplos ~ienen un c.ar~cte1" completa.mente dlforento. En el ejemplo 4.2.3 todu las reahzaeiones J>OSJbles de la funCJón aleatorio. representan sinusoides do diJerentes Crecuencias, amplitudes y fas911 iníciale.!!. En el ejemplo 4.2.6 todas laa realizaciones posibles de la funci6.n aleatoria son fllJlCiones escalonadas. En el ejemplo dado todas las rea· llzllClooes ))Olllbles de la función ale11toria representan funciones dl!continuas cuya for.ma se mueetra on la. fig. 4.2.9. En el ejemplo 4.2.3 la rapidez de c!t..
173
§ 4.2. E•ptra(l:a. mattmátlca g funt16n corrtlatiw
minuci6n de la !unción cor relativa al crecer la magnitud absoluta de la d ilerencla de los argumcnt<>S, se determina por la m11gnitud a que caracteriza la gama de fo~ valnres priíctícamento po~ibles ile la frecuencia rlo oscllaci6n. Eµ el ejemplo aueorior la rapidez de disminuc ión de la función correlaUva se determion c<>m1>lotamonte por la frecuencia media de los impulsos !" En este ejemplo la rapldoi dij dismi nucióu d
de
v :'
Ji¡ (t, 1') ~D¡t-«ll-l'I [ C<'9 Wo (t- t')
+~
S()ll
J.
0Jo 11- t' 1
(4.2.44)
La función alentorla oxaminade en este ejemp lo repre8e11\a el as\ llamad o efecto rlc grtlllaUa, corrfo nte de ruido engendrada on los circuilos eléctricos pnr el bombardeo rio lllectrones y otras partículas cargadas.
Los resultados obtenidos en los ejemplos an teriores muestran que la función correlativa está lejos de ser una característica completa de la función aleatori a. En pnrticul ar, ella no determina de ningún modo el carácter de las realizaciones posibles de la función alea toria. No obstante, para re~ol ver muchos problemas prúcticos, el conociruicnlo de la es11oranza matemática y la función correlativa de uno función aleatori a resulta ser suficiente. Eu los capítulos anterio!'es vimos que la ley normal de distribución se deter mina completamente por los momentos de primer y segu ndo orden de las magnitudes aleatorias. Por eso, conociendo l a esperanza matemática y l a función correlativa de una función alea.loria normalmente repartida, se puede determin ar todas sus densidades de probabilidad de cualesquiera órdenes. Ahor a bien, parn unn función aleatoria normalmente repartida, son la esper anza matemáticn y la función correlativa las que determinan por co mpleto to
174
Cap . 4 CararleristlcM de funclonu
ol~atorl11s
§ 4.3. Propiedades de la fu11ci6n correlativa De In definición {4.2.6} do la función correlativa so deriva di rectamente que ésta es simétrica: K., (t , t') = Kx (t', t). (li.3.1
Gráficnmente esta propiedad significa (fig. 4.3.1) que en los puutos simétrico.'! con respecto a 111 bisectriz del ángulo do coordenadas lo función col't'e lativn tiene valores iguales. Esto quiere decir que In
q
Pig. 1,.3 .J .
Fíg. 4.3.2.
superíi cio que representa la función correlnliva es si1uétrica con respecto 111 ¡>!ano perpendicular al plano t, t' y que pasa por la bisectriz mencionada. La seguuda propiedad de la función correlativa .se deriva de la propiedad (3.9.15) del 01omento de correlación ; lo función, corr~Ja tiva, cualesquiera que sean 1.os valores do los nrgnrne utos t, t', no su¡1era en módulo a la raÍ1. cuadrada del producto de los valores de la dispersión
1Kx (t, t') .,.;;: y·~ D" -( l)_D _x_(t-') =V K.~ (t, t) K,, (t' , t').
(4.3.2)
Esto significa que la magnitud absoluta de la función correlativa en cualquier punto A no puede ser mayor que l a media geométrica de sus val ore5·en los puntos By C do la bisectriz del ángulo de coordenadns, obte nidos como res ultado de la intersección de dicha bisectri7. .con rectas trazadas desdo el punto A paralelomente a los ejes de coordenadas (fig. 4.3.2). Para cualquier función no aleatoria
11 Kx (t, t') (l
~ O.
(4.3.3)
o
Las funciones de dos variables que ·poseen esta propiedad se llao1an ~firifdas no· negativas. Asi pues, la función correlativa de una función aleatoria .es una .función determinada no negativa. En este caso, la función Kx (t, t') puede tener valores negativos para ciertos valores de los argumentos t, t', pero la integral (4.3.3) nunca será negativa.
§ 4:3. Propitdadet de /.a
funció11 corre/.aetva
17&
Para demostrar la desigualdad (4.3.3) sustituyamos en (4.3.3) la expresión (4.2.6) de la función correlaiiva. Entonces obtendremos. b
J=
b
JJK., (t, t')
q:i
(t) cp (t') dt dt' =
a "
JJM [Xº (t) Xº (t')l cp (t) cp (t') dt dt'. "
=
b
(4.3.4)
o o 1
•
Pero la integral es el límite de una secuencia de sumas. Según· el t eorema de adición de las esperanzas maiem~ticaS,• la esperan:za mate.•. mática de la suma Siempre es igual a la· suma de l as"esperiln?:aS ro:ate-' máticas, es decir, el orden, de operaciones de adición y de la. é5petailza matemática siempre se puedo cambiar. Esto· es valido para toda$ las sumas de una secuencia. Prácticamente esto siempre es vál-ido también en el límite. Así pues, se puede cambiar el orden de operaciones de integración y de esperanza matemática. Cumpliendo esto en (4.3.4), obtendremos
uJ b
J = M
b
Xº (t) Xº (t') (p (t) cp (t') dt dt'J.
a a
Aqui la función subintegral se descompone en m ultiplicadores cada uno de los cuales depende de una sola variable. En este caso, l a doble integral puede ser sustituida por el producto de dos integrales. Puesto que en lo sucesivo aplicaremos con frecuencia esta transformación de l a doble integral. vamos a cumplirla detalladamente. Sacando las funciones de la variable t' fuera del s igno de integral con respecto a la variable t, obtendremos b
J = lV/
,,
[J X~ (t')
"
Dado que los límites de integración a, b son constantes, la integral con respecto a la variable t repre~enta una magnitud constu11te y puede ser sacada fuera del signo de la integral con respecto a t'. J = i'rf [
Puesto que la la variable de una magnitud tuyendo en la
JXº (t) q¡ (t) dt ) Xº (t') q¡ (t') dt'] . "
b
a
"
(4.3.5)
integral definida no depende de la designación de integración, la segunda integral en (4.3.5) representa que coincide con la primera integral. Por eso, sustisegunda integral l a vari able de integración t' por la
Cap. !J Característfras de funcio11.s aleatorias
17ti
variable t, obtendrenioH J
~M
,
[{
JXº (t) q;
(t)
dt}
2 ].
(4.3.(i)
11
Es evidente t¡ull est.a magnitud no puede sor negativa , lo que clemuesLrn ln validoz de la dosigu¡¡ldad (4.::1.3).
Es íácil también ver que Ja función correlativa no cambia, si a .la í1111ciún ale¡¡torin se le añade cualq1tier fllnción no alent.oria. Cou otras palabras, dos funciones aleatorias cuya di'ferencia 11 0 es aleatoria tienen una misma función correlativa. En efecto, si Y (t) = = X (t)
+
+
X:s liicil v\lr que las propiedades demostradas, salvo la (4.3. 7), las posee también la función correlativa normada de la función alea· toria. Con ello, en virtud de que la función correlativa normada es igual a la unidad para cualesquiera valores iguales de sus argumentos t' = t (es decir, en la bisectriz del ángulo de coordenadas del plano t, t'), la segunda propiedad de (4.3.2) para la función couelativa normada da (4.3.8) 1 R., (t, t') 1 ~ 1. ~sta desigualdad es tamb ién un corolario dí.recto de la propiedad (.;l:9.?3) del coeficiente de correlación.
*
4.4. Función correlativa recíproca y sus propiedades
En muchos problemas prácticos se necesita examinar conjuntamente varias funciones aleatorias. Para la característica conjunta c¿mpleta de · dos (o de un número mayor) fonciones aleatorias, es necesario asignar tamhién, además de las deosidades de probabilidad de cada una de ellas, todas las densidades de probabilidarl conjuntas de SW! valores siendo elegidos arbitrariamente los valores de los argumentos. La más simple de las densidades de probabilidad conjuntas de dos funcion·es. aleatorias X (t) y Y (t) es la densidad
§ 1-.4. Fu11d6n correlativa recíproca g sus propiedades
177
bidimensional conjunta de probabilidad f 11 (.x, y; t, t') de sus valores X (t) y Y (t), siendo arbitrariamente escogidos los valores de los argumentos t, t' . Esta densid·ad de probabilidad depende de t y t'
como de los parámetros. Para caracterizar la relación de dos funciones, aleat.ori as X (t) y Y (t), se usa generalmente la función correlat~va recíproca .de las mismas, la cual se determina como el m:omelito de correlación· dt> los valor.es de estas dos funciones aleatorias, correspondientes. a los valores elegidos arbitrariamente de los argumentos t y t' Kxu (t, t') = .M {X" (t) Yº (t)l. (4.4 .1),
La función correl11tiva recíproca es función correlativa d:e las vári!i.hles t y t'.
.. Si es conocida la densidad bidimensional conj.unta de'-·p robabi• liclad f 11 (x, y; t, t') de las funciones aleatorias X ("t) y Y (t), ·su función correlati va recíproca se puede calcular por la fórmula
....
Kxu(l, t') =
JJ -(.'(>
{X-mx (t) ] [y-m 11 (t')lf11(x, y;
t, t')dxdy.
-C'IO
(4.4.2)
-
Sin embargo, en muchos problemas prácticos resulta posible calcular la función correlativa reciproca por procedimientos más simpl(ls sin recurrir al cálculo de la doble integral (4.4.2). Si la función correlativa reciproca de las funciones aleatorias X (t) y Y (t) no es i dénticamente igual a cero, entonces las funciones X (t} y Y (t) se llaman correlacionadas. Al contrario, si l a función correlativa recíproca de dos funciones aleatorias es idénLicamente igual a cero, est.as. últimas se denominan no correlacionadas. Semejantemente a co.mo 80 dedujeron las propiedades de la func ión correlativa, se demut1stran la8 siguientes propiedades de la función correlativa reciproca. Al permutar simultáncament-0 los argumentos e índices, la función corrclatiYa recíproca no cambia: K:r.v (t, t') = Kux (t', t) . (4.4.3) Aquí se trata do dos funciones correlativas recíprocas y la igualdad signific11 que, 111 permutar los argumentos, una función correlativo recíproca pasa a otra función correlativa recíproca de las mismas funciones aleatorias tomadas en el orden inverso. Demos In intcrprotacióu geométrica de esta propiedad. Para ello construyamos dos superficies en:cl sistein<1 do coordenadas cartesianas ~. 'J. ~: ~ = K"Y (~, 1')), ~ = K 11 x (S, 1')). (4.4.4) Estas superficies representan las funciones correlativ11s recíprocas de 1M funciones alel\torias X {t) y Y (t') tomadas en diferentes órdc· 12-0~:is
1i8
Cap. 4
Ca,-o.rtt!rfs lirn.~ d~
.functont& aleatarlns
nes. Tomemos dos puntos (t, t') y (t', t) simétricos con respecto a la biiroctriz del ángulo de coordenadas. Cada una de las superficies (4.4.4) es, en el caso general, no simétrica con relación a la bisectriz del ángulo de coordenadas. No obstante, la igualdad (4.4.3) muestra que estas superficies representan una reflexión especular recíproca con res_pecto al plano que pasa por la bisectriz del ángulo de coordenadas s011 y el eje O~. Así pues, las Z-coordenadas
(
•
'E s evidente que la función correlativa recíproca normada pogee todas las propiedades demostradas de las funciones correlativas reciprocas, salvo 11\ desigualdad (4.4.5) que, en virt ud de (3. 9.23), se sustituye por la desigualdad IRxu(t, t') 1 ~ 1 .
(4.4.7)
Para la exposición sucesiva necesitamos introducir todavía-e] momento inicial de .<¡egundo orden de dos funciones aleatorias X (t)° y ,Y (t), el cual se determina como el momento inicial mixto de segundo orden de sus valores, siendo elegidos arbitrariamente los valores de los argumentos t t':
rxu (t, t') =M IX (t) Y (t')l.
(4.4.8)
En virtud de la fórmula (3.9.13), el momento inicial recíproco de segundo orden se expresal por l as esperanzas matemáticas de las
§ ,.4. Fun<:ión correlativa recíp,.oca y •tu propt•dadts
179
funciones aleatorias X (t) y Y (t') y la función correlativa r.ecíproca de las mismas: r.,v (t, t') = m,, (t) mv (t') K.,'11 (t, t'). (4.4.9)
+
Hemos determinado la función correlativa recíproca y el momento inicial recíproco de segundo orden para las funciones aleatorias reales. Eo virtud de la definición (3. 7 .6) ·del momento de ·correlación de las magnitudes aleatorias complejas, l a función correlativa recí~ proca de dos funciones aleatorias complejas X (t) y Y (t) se deter·mina por la fórmula · K,,11 (t, t') = M [Xº (t) yo (t')J . (4..:4.lO) Por una fórmula análoga se d'e termina: también el .momento ·"iniciar recíproco de las funciones al eatorias complejas X (t) y Y (t). Ejemplo 4.4.l. Hallar la función correlativa rocíproca de las
funcioo~s
aleatorias
"
n
"""1
v~I
X(I)=~ Uvfv(t), Y(t)=~ Uvgv(t),
(4.4.11)
donde U,, . • . , U.,. son magnitudes aleatorias y ft, ... , !,.. g,, . . . , g.,. son ci<•r· tas funciones completamente determinadas, en el caso general, complojas. Las funcionos aleatorias X (t) y Y (t) son funciones lineales
K:cy(t, t')=
~
kvµfv(t)gµ (t').
(4 .4.12)
\1,)1=1
do11de kv., es el momento de correlación de l as magnitudt>s aleatorias Uv, U., (v, µ 1, •.. , n; kvv = Dxvl · Si, en el caso particular, las magnitudes u,. ... , Un no están correlacionadas, entonces
=
n Kx¡¡ (1, t')= ~ I>00 f,(t) Kv(l "). V=1
(4.4.13)
y
E jemplo 4.4.2. Hall ar la función correlativa recíproca de las funciones
alt>atorias
X (t) = 'P (t, u . .... Un), y (t) = .¡;(t. u,, ' ... Un). (4.4.14) considernndo conocida la densidad de probabilidad de las n1:ignitudes aleittorias U ,. .••, Up.. Conforme a la definición general de la esperanza matemática de una función arbitraria do las magnitudes aleatorias pod emos escribir f,.y(t, I') =
r
j ... _.,.
<¡>(t, Ui. .• . , Un)ij>(t',p¡, . .• ,un)X
X f (u1, .•• , Un) du1 ... du,.. Luego, por la fórmula (4.4.9), se puede calcular Kxr,¡ (t, t').
(4.lo.15)
180
Ca,,. 4 Caratleristkas de f unciomi akatori
§ 4.5. Atllcl6n de funciones aleatorias
Examinemos l a f1rnci6n aleatoria Z (t) que representa l a suma de lns funciones aleatoriss X (t) y Y (t): Z (t) = X (t) + Y (t). (-1.5.1.) Supongamos que son conocidas las esperanzas matemáticas mx (f.), mu (t). l11s funciones correl ativas Kx (t, t'), Ky (t, t') de l as magnitudes aleatorias X (t), Y (t) y su función correlativa recíproca Kx~ (t, t'). El problema consiste en hallar la esperanza matemática y la funci ón correl ativa de la función aleatoria Z (t). Le esperan.za matemática de la función aleatoria Z (t) se determina dlrectamente por el teorema de ndición de l as esperanzas matemáticas. Como resultado obtendremos m, (t) ... m,, (t) + m 11 (t). (4.fi.2) Sustrayendo esta fórmula d e (4.5.1), obtenemos l a relación entre las fun ciones aleatorias centradas Zº (t) = X° (t) + Yo (t). (4.5.3) Aplicando esta fórmula, hallamos que Zº (t) Zº (t') = Xº (t) X° (t') + Yo (t) Yo (t') + + Xº {t) Yº (t') + Yº (t) Xº (t').
(4.5.4)
De aqui, teniendo en consideración l as definiciones (~.2.6) y (4.4.1) de las funciones correlativa y correlativa recíproca, obtendremos la siguiente fórmula para la función correlativa d e la función aleatorin Z: K, (t, t') = K,, (t. t.') + K 11 (t, t') + K., 11 (t, t') + K 11x (t , t'). (4.5.5) ·É í.rvirtud de la propiedad (4.4.3) de las funciones cor.rela tivas reciprocas~ la fórmula (4.5.5) se puede escribir en l a forma
K,., (t, t') = K:r (t, t')
+ K 11 (t,
t')
+ Kx 11 (t, +
t')
+
E,. 11 (t'. t).
(4.5.6)
Eu el caso particular, cuando las funciones aleatorias X y Y no 'e stán correlacionadas, K." 11 (t, t') = Kyx (t, t') ""' O y l a f6rmula (4.5.6) tomo l a forma K,., (t, t') = Kx (t, t') + Ky (t., t'). (4.5.7) Ahora bien, la función correlativa de la su roa do las funciones aleatorias no·correlacionadas ·es igual a la suma de l as funciones correlativas de los sumandos.
§ 4.6 . D erl•YJctrm de 1uia f11nrl611 altal or la
181
Las fórmulas obt.enidas se hacen fácilmente extensivas a cualquier número de sumandos. La esperanza matemática de la suma de las funciones alea torias
" Xv (t), Z (1) = ~
(4.5.8)
v~t
es igual a la suma de las esperanzas matemáticas de los sumandos: 1\
M .(t)= ~ m,, (t). 'V=t
(4 .5.9)
V
La funci ón correlativa de la suma es igual a la sµma de 111s fµ nciones correlativas y de tod as las funciones correlativas .recíprocas de los sumandos: n
!(, (t, t'j
= V, ~ K,, ,. (t, t'), 11~! Vµ
(4.5. 10)
donde Kx..,"'µ (t, t') es Ja (unción correlath•a reciproca de l as funciones aleatorias X" (t) y X 14 (t) [que coincide para I' = v con la correlativa Kx.., (t, t') de la fu nción aleatoria X.., (t)J. En el caso particu.lar en que las funciones aleato rias X 1 (t}, . . . . . . , X,. (t) no están correlacionadas, toda!! sus funciones correlativas reciprocas son iguales a cero y Ja fórmul a (4.5.10) toma un a forma más sim ple
K ,(t, t') =
2:"
K,. (t. t').
v= I
(4.5.11)
v
§ 4.6. Derivación de una función aleatoria
Exami ne mos Ja función ¡¡leatoria X (t), todas las realizaciones posibles de la cual son funciones difereociables. Entonces la derivada do In función aleatoria X (t) Y 1 (t) =X' (t)
= ª·~,<'>
(li..6.1)
representará. la función aleatoria cuyas realizaciones posibles son las deri vadas de las correspondientes realizaciones de la función nleatoria X (t). Hallemos la esperanza mat.cmát.ica y la fu nción correlativa de la derivada Y 1 (t) suponiendo conocidas la esperanza m11tomática y la función correla tiva de la función aleatori a X (t). Como para cualquier t fijo la magnitud aleatoria -X (t-1- 61) - X (1) Y " () t t:.T rep resenta la combinación line¡¡l de las magnitudes aleatorius X (t + 6.t) y X (t), ent onces, aplicando In fórmula (3.8.9), ohten-
Co11. 1 Coroctuíillca.s de /unclont~ akatori
182 dteDtOS
De aqui, al pasar al limite para lit-+ oo, suponiendo, desde luego, que este lhnit~ existe, obtendremos
niu, (t) =
m~ (1).
(4.(i.2)
Así pues, la esperanza matemática de la derivada de una función aleatoria es igual a la derivada de su esperanza matemática. Con otras palabras, las operaciones de derivación y de esperanza mate· miitlca se puede cambiar de lugares. Pasamos ahora a la dete rminación de Ja función correlativa de la derivada Y 1 (t) de la función aleatori a X (t). Conforme a la deter· minación (4.2.6) teuemos que K
1•1
(1 t')=M[dXO(t) ~l= '
dt
dt'
~
8 = M [ 81 ;,, {Xº(t) Xº(t')}] = 8:;,. M IXº(t)Xº(t' )J.
o bien K
111 (t,
, iftK,. (1, t') t) = IJt 81'
•
(4.6.3)
Ahora bien , la función correlati va de la derivada de la función aleatoria es igual a la segu nda deri vada mixta de su función correlativa. De un modo semejante hallamos la función correlativa reciproca de la función aleatoria X (t) y de su derivada Y 1 (t). De acuerdo con la_ definición (4.4.1) tenemos que
K,,, (t . t') = M [Xº (t) dX;~t')] = = M
[;.{Xº (t) Xº (t')J] = 8~. M [Xº (t) Xº (t')J
o bien
Kx~, (t t') = oKxIJt(t,' t'J •
,
(4.6A)
Así pues, la función correlativa recíproca de la función aleatoria X (t) y de su derivada es igual a l a derivada parcial de la función correlat iva de la función aleatoria X (t) con respecto al segundo argumento. En virtud de (4.6.4), la fórmula (4.6.3) se puede t ambién escribir en la forma
Kv, (t, t')
(4.6.5)
.~ ~.6.
Dertvaci6rt de 11na funcl611 alratoria
188
De wi modo completamente análogo se puede hallar la esperanza matemática y la función correlativa de la derivada de cualquier orden p de la función aleatoria X (t): Yp (t) =-= X
K
(4.G.6)
m 11P (t) =- m~» (t), (t t') IPPK,, (1, I ') uP
•
(}/P(}¡'JI
(4.6.7)
•
De un modo semejante se deduce la fórmula para la función correlativa reciproca de las derivadas de los órdenes p y q dida !unció!) ale11tori11 X (t): K (t t') = a1>+0K,, (t. t'l (4.G.8) UpVq
'
qtJI 8t'q
•
F.,jcmplo 4.G. l. Hnllar In e.'perlinza matom&ticn y In lunrión corrcluliv11 de la deri vad~ de la funcicín alentoda X (t), si
111x(t)=a+bt+ct2,
}
1].
14 6 9 · · > 0 Por In fórnmla (4.6.2) hRllumos la csporaniu roatcml\Licu de In derivuda Y, (t) - X' (1): (1)=m;. (t)=b+2ct. (4.6.i O)
Kx (t,
t')-oe-"' lt-•'I [ cos Wo (t-t')+ :
S-On«>o 11- 1·
"'u,
Parn hallar la fm1c.i611 corrcl atív~ de 111 rlerivadal dotcrn1in arnos primeramente la fonci6n corrclalí\'a rcclproc.a de l a fuoción 11 cutoria X (t) y su 1IOl'ivnda. Aplicand() la fórm11la (4.G.4), obteudre mos: 1) si 1'
>
Kxu, (1, t ') = D
1
0~,
{
. -l1 (l'-I) [
cosro0 (1' - 1)+ :
0
sen ro0 (t-t')
- -D at~Cll3 :l) sl t'
<
Kxy (1, t')=D 1
J} =-
,-a(l'-l) S(ID
Cllo (t' - t);
1
0~,
{ e - a(l-I') [cos0 (t-t')+ -D
~
son6l0
2
ª +~
(t-1')]} =
e- 11<1- 1'> sen 6>o (1 - t' ).
(l)o
Do oslc wooo, para cuolcsquiera t y t'
K,,~
1
(1, t') = D etU + c.i! e- 4 11-1'1sen6>o(t-t'), ClllJ
(4.6.H)
Ahfrelativn do la derivada Y, (t) - X' (t); como resultado obtondremos
184
Cap. d Caraetert.stica.~ de functonc$ alf•atortas 1) si t
<
r
K 11 (t, z') =D (a.2 + wa> e- a Cl' - t) [cos 1
2) si t
> l
K 111 (t, t')= D (CT.2 ..¡.. ro~)
w0 (t-t ' )+2- seuw0 (t - t')] ; wo
cos 000 (t-·-t') -
c-a
~ sen w0 (t-t')
J.
Todns osta.~ fórmulas se pued~11 reducir a una sola fórmu)Q válida 1n1ra Lodos los t y 1': K 11 (t, t')=D (a2 1
+ ooi) e- a Jl - 1'1 [cos w0 (t-t ')-~ sen ~>o 1t-t'1]. Wo •
(4.6.12)
};jcmplo 4.6.2 . Hallar In CS(Jeraoza matemática y la fu nción correlati va de lu derivada de In función aleatoria X (t), si m,. ( t) a O, Kx (t , t') De-a. J l - t' l. (4.ll.13)
=
En virtud do la fórmula (4.tl.2) la ()Sperania matemátic a de la dcdvada de la func.ión aleatoria 1ruo se exam ina es idéntlc anienle igual a cero. La fórmu-
la (4 .6.4) dn si t < t'
K
.•º(t t')= D..!!_ e-« (t'-- t) = - Dr;.e-""
X&/1
s i t'
(4.6.14 )
t t')= lJ.!!_e-a
K XUt < '
'dt ' ··
-
v.
•
Así yueo;, la íunción correlativa rec iproca de Ja función a leatoria X (t) y de su derivada tiene en este caso discontlnuldad do primer género pa1·a t=t' con un salto igual a 2Da. (fig. 4.6.1). Es fácil comprender que restando de os tu funci ón la función escnlonada unitaria 1 (t-t') multiplicada por 2Dr.t., obtendremos una función continua que designareinoo por f (t, t'). Ahorit bien, la función correlativa recíp1·oca de la función aleatoria X ( t) y de su derivada puede ser presentada en esto caso por la fórmula K,.
Fig.
111
(t, t')
= f (t , t ')-l- 2 Da1 (t - t').
(4. o.1.5)
donde / (1, t') es una Iunción continua que se determina por la fórmula , { 2Det.-Da.e-a (t'-t) s i t < t'. / (t, t ) = (4. G.16) DCT.e-o. Cl - I') si t>t'.
1,.1).1 .
Al derivar la fónnula (4.6.15) con respecto a 1, teniendo en cuenta (4.6.16) y ion¡ando:en consid.eración :que la dorivada de la func ión escalonada unitaria delta,. 9.~toncJ~mos en virtud de (4.6.5)
~s .. ft¡nci~n.
K
V¡
(1, t')=
of~, '2..+2DCT.1' (t-t' )=-Dr;.ie-a¡t-t'l+ 2Dw5 (t-t' ). (4.6.17) ut
Vemos que )a func;ión. correlativa de la ~erivada de I~ función aJ .,ator}n X (t} contiene en este caso un sumando proplltc10nal a Ja fo oc16n 1lelta 6 (t - t ). P.or cou~iguiento, la di$persi6n de la derivada en ~J caso dado es infinita: D 111 (t)
=
K 11, (t, t)
=
-Da-2
+ 2Da.() (0) =
eo.
§ 4.7. / n/t¡¡raci6n dt una /uru:lón
al~a/orla
.Esto es fácü c.omprendcr yo quo l a !noción correlativa de la íunci6n alcntoria X (t) 110 iien~ en este caso lo seguudn rlcrivada mixta. en S()ntido común. para 1' ... 1 y, por lu tnn to , la fullción X(/) uo es diTeronciobl11 en el ~ntido corricn· te. Pnr ~so Qn In expresión de IR fund6n correlativa du 111 tlorivada ha ent,rndo prcclsa mlmte la función rleltu.
§ 4.7 . Integ ración de una función aleatoria Exam inemos la función aleatoria de la variable s: b
Y (s¡ =
Jg (s, t) X (t) dt,
(4.7.i )
donlle g (s, t) es la funció n (no aleat oria) asig nada. Supongamos que son conocidas m., (t) y !\." {t, t') y hnlJemo~ la esper an zn qt¡i.te" mática my (s) y la fun ción correlat iva Ku (s, s') de lá fu ncióii' lilen· tori a Y (s), así como RU función correlativa recl11roca con X (t). Dado que, según lo demostrndo en el § 4.3, lus o peraciones de esperanT.u matemática e integración se pueden permutar, entonces "
Jg(s,t)M [X (t)lclt, b
;lf[J'(s)l = M[J g(s, t)X{t)dt] = u
Q
o bien m,1 (.~) --"'
b
Jg
(s , t) m,. (t) dt.
(4.7.2)'
Q
Estn fórmula es la gencraliznción ele Ja fórmula (3.8.U) para la espcrnnza matemática de In fu nción lineal de mag11itmlcs a leatori11:< corrientes. Luego, s ustrayendo (4.7.2.) 1le (4.7.1), o btemlrt'mos
}'º (.~) =
/>
Jg (s, t) Xº (t) dt . n
Según Ja (lefinición de la función correlntiYu (lo .2.ü) tenemos
K11 (s, .~') = M [Yº (s) Y1 (s') ] = ó
1
I (s' ,
a
r.
b
=M
[
g (.<, t} Xº (t) di
h
=
M' [ .\
g
t') X º (t') di']~
b
Jg {s. t) g (s' , t' ) Xº (1) Xº (t') dt dt' J=
n ''
b b
=
JJg (s. t) g (s', t') M [Xº (t) Xº (t')l di di.' " "
i/36
Cap . 4 Características de. ju11cinnes at.:alorias
o l>ie11
Kv(s, s')~
b
b
u
a
JJg(s , t)J((s' , t')K ,.. (t,t')dtdt' .
De un modo análogo sti puedu ob'Lentir la siguiente fórmu la para Ja función correlativa recíproca Kxv (t, s) de la función aleat
K .Ty (t, s) =
Jg (s, t') !(., (t. , t') dt' .
(4.7A}
l~n la práctica es suficiente 11 veces hallar la dispersión de l1;1 integral de la función aleatoria. Como la dispersión de la función aleatoria es igual al valor de su función correlativa, para iguales valores do los argumentos, su¡ioniendo que en (<~.7 .3) s' -= s, oblcn·dl'ernos b
Du (s)
= Ky (s, s) =
.~
b
Jg (s, t) g (s , t') K x (t, t') dt dt'.
(11. 7.5)
a a
De cstn íórmuln se ve que, }llHa c11Jcul ar la dispersión de In i11togral ·de la función aleatoria, es necesario conocer la función correlativa de In función subintcgra! . Vemos que resulta ser suficiente el conocimiento de la esperanza matemática y de la función correlativa para realizar sobre las funciones aleatorias las operaciones elementales del análisis: la deriva-ción e integración de las fuuciones aleatorias, así corno lus operaciones lineales del Algcbra. EjP.mplo 4.7. t. Hall&r ln csperanz11 mntornútica y lu luución correlativa ·de la integral de la función aloatoria Y,(•) =
1•
X (t) dt,
{4.7.6)
:si
mx(l)=a-1-bt, } K,, (1, t')=D•-°'11-l'I
(4.7.7)
En este caso la función g (s, t} es igl!al a la uuidad en el intervalo (O, s) y .a cero en el intervalo (s, oo). La fórmula (4.7.2) da (4.7.8)
§ !1..7. lnt.Brt1ción th una funci61l aleafor¡a
.
La fórmula (4.7.3) para la función correlativa cuando •
K 11 (s, 1')=
¡' ¡•'
K,.(t, t')dt dt'=D
•'
~ ~
.-o:
•
t
•'
o
o
t
(l-I')
<
187 r' o frece
dtdt'=
=D} di[) ,-a(l- t'ldt'+ J0-a(l'-l)dt'] = =D
• [ 1_ 0 -at --et
~ o
• -a<•'-ll-t] dt= et
•
Para hallar la expresión de la función cnrrelativa cuando r > l, e!! sulir.ient.c . en virlud de la propiedad de la si.metrla de la función correlativa, permutar los argumentos t y s'. Como r~ultado, parn todos los : y•', la !unción correlativa de lo int egral de la función aleatoria X (1) so e~prc~artí por la fórmula K 11 (s,
•')= ~ [2ct mio (s, t ')-1+•- ª' +.,-cu· _ .,-al•-•'IJ, (4.7.9)
donde m!n (s, s') es el menor de los números s, s'. La dlspc1'Si6n de la integral de la función alcMoria X (t) ee determina por la fórmul a obtenida cu andn
s' = 1:
(U.tú) Ejemplo 4.7 .2. Hallar la csperanu matemática y la desviBción cuadrática media de la deriva del gíroscojJio {t) bajo la i nfluencia del momento olo.torio hf (1) durante el tiempo t si l a esperanza matemática de este momento os con.-;tant~ e igual a m, mientras ¡¡ue
a
(4.7.11)
Hac iendo la suposición, corriente en la teoría aproximada do los giros.:opios. de que la dirección del vector del momento cinético del giroscopio coincide con la del eje de ~u rotor rocordando que, en virtud de unaley conocid& de l a Mecánica , la velocidad de extremo del vector del momento cinético es Igual al momento de las fuerzas que actúan sobre el giroscopio, podemos escribir
r
t
9(1)=
! \
M("t)dT,
(4.7.12)
~
donde JT es el momento cinétlco del giroscopio. Comparando esta [órmuJa con (4.7.1), vemos que la función B (t, T) en esto caso os igual a 1/H cuando O.;;; TE;; <; t y a cero cuando-.> t. En virtud de las fórmulas (4.7.2) y (4.7.5), la espe-
188
Cap. 4 Caracleri.
ranza matemática y la dispersión
1 me(1)=7T
mt Jr mdt=-¡¡-·
(4.7.13).
~
Do(l)=¡~a
1 1
JJ[(
111
('<, T')d.TdT' =
o o 1
=.17~
J
fz 1
'
t
o
~
J\
e-"' l'<-<'lp+a ¡-r-'t'IJd'td't' =
'(
dT{J e-a (T-t'l li -!-a('t-T')]dt'+
1
!
1 J o
= ~
+ J c-et(l'-T) li+a(T'-T)) di:'}= '
[i:e-cn + (t-'t)e-«<1-•l¡ d't=
J~~(i-t-" 1 -aee-ª 1 ).
(4.7.14)
Estas', fórmulas muestran que la derivn sistemática del giroscopio bajo In acción do la com ponente constante del momento crece proporcionalmente al tiempo y la desviación cuadrática media del ángulo do deriva del giroscopio, baje> el efecto de la componente aleatoria
§.4 8. Secuencias aleatorias. Procesos aleatorios mark.ovianos Los valores de la función aleatoria en la serie discreta de los fij9s 111 t2 , •• ., ~n forman una secuencia aleatoria X, = :.. X (t,) (r = 1, 2, ... ). Es evidente que el término arbitrario de la secuencia aleatoria X, se puede considerar como función alea(ória de su· número, es decir, dél argumento ,. representado por un l\Úrn~~o entero y_, de ~t~ modo, no examinar el argumento t. . S.i el número de valores del argumento t, es finito, los valores correspondientes de la función aleatoria forman una secuencia alea:.. ·t:oi'ia .f inita. Los términos de la secuencia aleatoria fía.ita se pueden consid'erar como componentes de un vector aleatorio. Por consiguiente, para las secuencias aleatorias finitas es válida por completo la te.or.ía de vectores aleatorios expuesta en el capít ulo anterior. Si el número de valores del argumento t, es infinito, los valores correspondientes de la función aleatoria forman una secuencia aleatoria infinita. La secuencia de valores d1¡l argumento {t,} puede irse a la infinidad por el eje t a un lado cualquiera (positivo o negativo) o a ambos lados. En el último caso con los valores t, del argumento '[i.1,1,ilt9s
ii
4.8. Secutncias aleatorias. Procesos aleatorins
mark1>11ia11~x
.t 89
t se confrontan todos los n6meros enteros desde - oc basta +oc. En lo sucesivo examinaremos -siempre, para que el ·examen ·tenga un carácter general, las secuencias aleator-ias infini:tas a ambos lado's. A veces en los problemas aplicativos l a secuencia aleatoria se llama función aleatoria enrejada y el argumento, representado .. por· ·números enteros, de tal función aleatoria se toma entre •corchetes para diferenciarlo del argumento conti·nuamente variable: X, .,;,; = X [r] (r = O, ± 2 ...). L a característ ica. probabilística completa de una secuencia ale!!_toria es la secuencia de leyes de distribución de.sus ténnineis toma•
(r, s=O, ±1, ±2, ... ). (4.8.2) Ejemplo 1,.8.t . Los valores de la función alé11toria X ( t) t.c•u f!S(l~rauia
m11t<:nií1llca y luoción correlativa
1
mx=a+·bx, K,. (t, t ' )= De-a ll-t'I (4.8.3) del a1·gnmcuto t, = r A (r = O, ± 1, ± 2, .. .) X, co11 la ospcra11za matemática
i~ra lo~ v~lorns cqului~tanles orman la s~cucncia aleatoria
m;=a+brA
(r=O, ± 1, ± 2, ... )
(l.. 8.4)
y la furn;ión correlativa
K~.=Dgl•-•I ,
q=e - at>. .
(4.8.5)
El tipo Dlás simple de secuencia aleatoria es la de magnitudes aleatorias independientes. Para tal secuencia aleatoria la función correlativa es igual a la dispersión del término correspondiente de in secuencia, siendo iguales los valores de los argumentos (r = s), y es igual a cero si los argumentos tienen diferentes valores (r =t= s). En cuanto a l a simplicidad, el siguiente tipo de secuencias aleatorias serán tales secuencias en las que la dependencia entro
t llO
Cap. 4 Caratúr!sUea• d1 /u11tlonc• alta/orlar
los términos parece extenderse sólo a un número pequeño de términos vecin os. Tales secuencias aleatorias se llaman cadenas markovianas. Ahora vamos a dar una deJlnicl6n exacta de las cadenas markovianas. L a secuencia aleatoria {X,} se denomina cadena markoviana simple, si la ley cond icional de distribución de cada término de la secuencia X, con respecto a los términos anteriores X,_ 1, • • • . . . , X,_n, para cualquiera n > 1, depende solamente del valor que tomo el término precedente de la secuencia X , _1• As( pues, la secuencia aleatoria es una cadena markoviana simple, si la densidad condicional de probabilidad de cada uno de sus térm inos X, coo respecto n los términos anteriores X , ." .. ., Xr-n> para cualquiera n > 1, es idénticamente igual a la rlensidad condicional de probabili
/, (z, 1z,_¡, ... , :e,_,.)
= f, (z, 1z,_1)
(11 = 2, 3, ...). (4.8.6)
Ln seeuencia aleatoria {X,} se ll ama cadma marko11iana compuesta de orden l, si 11.1 ley condiciona.! de d istribución de cada término de la secuencia X, con respecto a los términos precedentes Xr-1> ... . . . , X,_n, para cualquiera n > l, depende solamente de los valo· res <¡ue tomon l de los términos preccdeutes X,_¡, ... , X,_ 1, es decir,
J, (x,
1 :t'r .. lt • • G
/,
•t
X r -h X r- l - H · · ., Xr-n} a
(x, 1Z r - 1>
• • •,
:e,_¡) (n = l
+ 1, l + 2,
... ). (4.8.7)
Ejemplo 4.8.2. Examinemos la socucncla de experimentos independienlcs en e-0nd1eiones Iguales. Sea X, el número de veces que ,,.. produce cierto acontecimiento A al realizar la r-ésima prueba y¡, , la probabilidad de que se pMduzca el atontecimiento A en cada prueba. Bs ev1dent.e quo la secuencia X., Xz, • . ., . . . , X., •. . es la secuencia de magnitudes alutorlas independientes con la esperanza matemática constante = p y la función correlativa k¡, = pq, = 'O cuando • .¡:. r (véasa el e¡'emplo 3.9.t). ·Ejemplo 4.8.3. La secuencia a eatoria normalmente repartida {X,¡ con la lunei6u correlativa k~, = Dq l r-• I representa una cadena roarkoviana si in ple. Observemo.s, para l a demostración, que la magnitud aleatoria V, = X, - qX,.1 no de¡icodó de los ro1
m:
k:,
M[V~x:1=M IM~x:¡-qM [X~-1x!1 = Dq,_.-qDq1 - 1
v,
-·=o
(4.8.8)
Gil decir, y X, no están correlacionadas p&ra cualquina $ < r. Pero como la distribución conjunta de 183 roagnitudes F,. X, , , .. , X, es oormal, entonces, de lo demostrado en el§ 3.H. se deduce que I~ maqoltu:t'v, no dependo del conjunto de magnit udes X , , ••• , X,~ para cua lesquiera '" .. ., ·~ < r. Por 1
.~
H)t
4 .8. Sectumcla.• altatorias. Proceso.• ale.atorlos markor.'ianos
consiguiente, la densidad con
+
Por lo tant.o, para haUar la densidad condicional de probabilidad bu$cada de lo· magnitud X,, se puede aplicar fo fórmul a (3 .3.12} deducida en el ejemplo 3.~.1. Entonces , teniendo en cuenta quo eu el caso dado ¡¡ = :r:,, :r: a 1, b = = qx,. 1 • obtendremo• f (x, 1 Xr -nl = g (x, - qx,.,). (4.8.11')
= "" =
:z,_,, ... ,
De aqul resul ta
x,_
La cadena markoviann simple se llama frecuentemente proceso aleatorio markoviano con tiempo discreto. Tal proceso aleiitorio se caracteriza completamente por }¡¡ dcnsidnd bid imensional de iirobabilidad, es docir, por la densidad conjunta de probabilidad de dos cualesquiera
f (:e r
J
X
) = / , (r,_L, .r,) =
r- 1
Ji
(x, _ ,)
~
¡, (r ,..¡,
x,)
(/i.S. l'.!)
S {2 (r.,_, , :r:,) dx, - oo
Luego, la densidad conjunta de probabilidad de cualquier número· de tétmioos de la secuencia se determina por la fórmula
ln+t
(Xr -n • .• .,
x,_., x,) =Is (Xr-n) I (Xr-n+• 1Xr -n) · .. I
...
(x, 1x,. 1).
(4.8.'13}
La J1oción de proceso aleatorio markoviano se puede extender también a l as funciones aleatorias de un argumento escalar continuamente variable. Precisamente la función aleatoria de argumento· escalar X (t) es la que se denomina proceso aleatorio markoviano
:siompre que sus t 1 < t 2 < ... <
val ores,
cualesquiera
qu11
sean
los valores rnnrkovia-
t,, del argumento t, forincm una cadena
ua simple.
E jl.'mplo 4.t!.4. La lo11cióu alcutoria JtOt"lliulm cnto r~¡1arthl11 c
CAPITULO 5
Funciones aleatorias estacionarias
§ 5.1. Definición y propiedades principales de las funciones aleatorias estacionarias
Generalmente se llaman estacionarios a tales. procesos y objetos cuyas características determinad as no dependen del tiempo de obset~ vación, es decir, no cambian al decalar arbi trariamen~e el tieq¡po (son invariantes con l."especto a cualesquiera d'ecalajes del tiempo). De acuerdo con lo dicho, se denomina estacionaria a una. función aleatoria X (t) si las determinadas características probabilísticas de la función a leatoria X (t ll.), cualquiera que sea ll, coinciden idénticamente COll las características correspondientes de la X (/.). Es evidente que la esperanza matemática y l a dispersión de la función aleatoria estacionaria son constantes y su función correlativa depende solamente de l a diferencia de los argmuntos l - t' . En efecto, según la definición general de la estacionaritlad, la esperanza matemática y la función correlativa de la función aleatoria est,ncio11ari a X (t) sntisfnccn las c.ondiciones
+
(t) ==: mx (t Kx (t, t') = K ,,(t mx
cualquiera que sea
+
ll.),
+ ll.,
t'
+ L\)
(5.1.1) (5.i.2)
Poniendo en (5.1.1) L\ = - l , obt.endrcnios mx (t) =m"' (O)= const.. (5.1.3)
/!,,.
Poniendo en (5.1 .2) il = - t', obtendremos K" (t, t') = Kx (t -
(f>.1.4)
t', 0).
La dispersión de la función aleatoria X (t) os igual al valor de su función correlativa cuando t' = t. Por eso, tle (5.1.4) se deduce que Dx (t) =Kx (t, t) = Kx (O, O)= Dx (O)=
cons~ .
(5.1 .5)
Designando la función de una variable t - t' en el sogundo micDlbro de l a igualdad (5.1.4) por k,, (t - t'), podemos escribir K" (t, t'} = k,. (t -
t' ) = kx ('t).
't
= t - t' .
(5.1.6)
Ahora bien, si la funció11 aleatoria X (t) es estacionaria, entonces, dondequiera que elijamos un intervalo 't de longitud dada en el eje de la variable independiente t, loa valores de la función aleato13- 0~38
194
Cap. 5 Pu11tln"',$ aleatorüi1 •datlonarla•
X (t) tienen en los extremos de este intervalo un mismo momento dn correlación k., (T). Para tocios los problemas prácticos en los que se trata sólo co n momento;; 1le los dos primeros órdenes (esparnnzas materruhicas y f1.rnciones correlativas), bastn la constancia de la es¡Jeranza matemólica y la de1)endencio de la función de conelación sólo de 1i:t diferencia de los argumentos para considerar est acionari a a una íu11ci6n alcaLoria. Por eso, l o~ funciones aleatorias cuyas esperanzas matemá lici.s son consl onte1< y las funciones correlativas dependen sólo de la tliierencia de los argumentos se llaman estacicnarias en el smtldo amplio. En aquellos casos en que se trata de otras característicos de la función alentoria, l a estacionarid ad en el amplio sentido no P.S suficiente. Es 11ecesario exigir quti todas las característiC11!! de la función aleatoria que uos interesan sea n invitriantel; con re¡¡pecto a los decalajes arbitr llrios a lo largo del eje de Ju variable inde¡ienditmle para quo se pueda con~ide1·ar estacionaria dicha nuignitud. A~í pues, en los problemas prácticos tenemos que encontrarnos con diferente •grado de estacionaridad» de l as funciones aleatorias en depe11dencia de cuáles son las caract"°rísticas probabilíst.icas que nos inleresan. Las funciones nleatorialcl pueden :!er estacfonarias ten mayor o menor grndot. La estacionaridad en el sentido amplio representa el tipo más simple de estacionarid11d. La exigencia de estacion11ridad en el seuticlo umplio impone a una función aleatoria l11s roillimas limitaciones. Otro caso extremo representa J.a estacionuridnd completa o la estaclonartdad en el se11tído estricto cu11ndo toda:i l11s cnrncterísticas probnbilísticas de fa !unción alcaLoria, sin exclus ión ninguna, son invariantes con respect o a los decalaje.s arbitrarios por el eje de In variable independ ienro. La función ni ca Lo ria X (t) se denomina estacionaria en el sentido estricto, si todas las Jeytl.'! 1le 1listribució11 de todos los órdenes ¡iosil>lcs de la funci<'>n 11hi11torin X (l L\), cunlqui era quo sea 6, coincid en idénticAme11to 1:011 lns corrci1pondientes leyes de 1listribuchín de ln Cu11ción ale~toria X (t). A continua ción, ni balilnr
+
§ 5 .J. Dtftntctón y propttdade.•
prtn~tpal11
195
Como la funci ón correlativa de cualqu ier función aleatoria es simétrica, es decir, no cambia de valor al permutar los valores de l os. argumentos, entonces l \l. función correlativa de una función al eatori a t?Stacionaria satisface la condición k,. (t' - t) = k., (t - t') o bien (5.1. 7)
Así pues, la función
correla~iva
de una {unción aleatoria estacionari·a
es función par de la dilerencia de l os argumentos.
La desigualdad (4.3.2) a que satisface la funci&n correlativa de cualquier función al eatoria toma, en caso de una función aleatoria estacionaria X (t), la forma (5.1 .8) 1k x ('t) 1<;;: kx (O)= Dx . Así pues, lu fonción correlativa de una función Aleatoria estacionaria, cualqu iera que sea i:, no puede ser, en magnitud absoluLa, muyvr que su valor correspondiente al origen do cvordeuaclas.
Ejemplo 5.1.1. En los ejemplos 4.2.3, 4.2.6 y 4.2.7 dados en eJ capítulo anterior nos encontramos con la función correlativa, dependiente sólo de la diferencia de los argumentos, de la forma ko:('t)=Dxe-<Xl'
i:=t - t'.
La í11nción aleatoria que tiene ln esperanza matcmátic-a constante y tal función correlativa es estacionaria (en el sontido amplio). Ejemplo 5 .t .2. La función aleatoria examinada en el ejemplo 1,.2.1 es estacionarla solamente en el caso cuando las dispersiono5 de lM magnitudes aleatorias lJ y Z son Iguales. En ol caso general de diferentes dispersiones d1! las magnitudes aleatorias U y Z esta función aleatoria no 05 estacionari11. Ahora bien, la oscilación armóJlica de cierta frecuencia. con runplitu1l y Ca$e all)alorias, ropresenta en el caso general una función aleatoria no estacionaria y sólo 011 el caso particul ar de ser iguales les dispersiones de los codicientes aleatorios ocl juntos al seno y ol coseno, es una función aleatoria estacionai.'ia. Ejemplo 5.1.3. La función aleatoria representada en el ejemplo i\.2.3 e• estacionaria cualquiera que sea la densidad de probahil iclad do la lri-cuc11c.la aleatoria de oscilaciones f (<~) puesto que s11 esperanza matemática &.'\ Jtlén&kamente i~ual a cero, mhmtras quo la fu11ci6n correlativa,
En las aplicaciones tenemos que encontrarnos frecuentemente con la función correlativa exponencial kx (i:) = D,,e-"' (TJ, (:l. f .9) ·! :'\•
t OO
Cllp. 5 Funciones akatoria.t ettactonari
Otro t ipo bastante frecuente de func ión correlativa de un proceso aleatorio estacionario os la función de la forma kx (i:)
= D ,,e-" r•I cos
ro 0-r
o una función más general de la forrnri kx (-r) = D:re-rx l•I (cos WoT i' seo
+
(5.1.10) Wo
1 i: 1).
(5.1.11)
En fo fig. 5.1.1 se muestn1 el gráfico d e una función correltltiva exponencial (5. 1.9). En la fig. 5.1.2 se representa el gráfico de la función correlativl\ exponencial do coseno (5. 1.10). Vemos que k.i;(::>
f i:;. 5.1. 1.
fig. 5.i.2.
nmbas fuuc iones tienen en el origen do coordenadas un punto angular e l ri.uu la derivada de l a función correlativa tiene discontinuidad d o primer género. Para la aproximación du las funciones correlativas con la derivarla continua, se pued e ap licar la expresión (5. 1.11), eligiendo en ésta el coeficiente 'Y de modo que la derivad a de dicha función corre) aliva sea igui\l a cero cu an do -r = O q 1: (el lector puede por sí mismo com ~·-'(u;,.,,.-.,-Wolt!),,r-J. probar que esto ~e alcanza cuando y = aho 0 ). E n l o fig. 5. 1.3 se mue!l\:.I'u Fig. 5.1.3. el gráfico rle tal función corre!Ativa. Ob'servemos q11e la función que tiene fQrQ"la de (5.1.1.1) puede ser correlativa sólo en a quelcasocua11do 1 y 1~ a/ w0 puesto que para 1 'Y 1> a / (l)o la condición (5.1.8) no se satisface. IJA continu ación veremos que cualquier !unción correlativA de 1:1 f unci ón aleatoria estacionaria puede ser aproximada, con un grado cualquiera de precisi ón, por la combinación lineal de l as fu nciones de l a forma (5 .1.9), (5.1.10) y (5.1. 11). , Las'lf6rmulas generales dadas en el § 4.6 para las esperauza8 matemá ticas y las funciones correlativas de l as derivadas de u na funci ón aleatoria son aplicables también para las funciones ale11torias estacionari as. Valiéndonos de fas fórmulas (4.6.2) y (4.6.3), hallamos ia esperanza matemática y la fuóción correlativa do l a primera deri<'11
'ª
.~
5.1. Definlci6n 11 propttdadu prlnctpalts
197
vada Y 1 (t) = X' (t) de la función aleatoria estacionari a X (t): ') éPK,, (t, ""ii1 (t ) = O' K 111 ( t, t Ot
º'' t ' ) =
-
k" ( )
"
'T •
De aq uí se ve que la derivadn de una función alen toria estacionada ta mbién es estacionaría. De un modo anál ogo hallamos por 1as fórmu las (4.6.6) y (4.6. 7) l a esperanza matemática y la función correlativa de la derivada del orden p de l a función aleatoria· estacionaria X (t): T/' (t t') Q'lP K " (t, 1') 1nvp = O• "'uP • = 8tP 8t'P Ahora bien, todas las derivadas de una función aleatoria estacionaria son funciones aleatori as estacionarias con esperanzas matemáticas iguales a cero; en este caso, l as funciones correl ativas de las derivadas se determinan por la f6rmulu k,,p ('t) ... ( - 1)" k(~~) (•)
(p = i , 2, ... ). (5.1 .12) Fig. 5.l k Dos funciones aleatorias del mismo argumento X (t), Y (t) se llaman estaclonariamente li.gadas, s i s u función correlativo recíproca es función de la diferencia do los 11rgu men tos: (5.1.13) K,. 11 (t, t') = kx¡¡ (i;) T = t - t'.
De la propiedad (4.4.3) de una función correlativa r ecíproca se deduce que dos funciones correlativas recíprocas de dos funciones aleat orias estacionariamente ligadas X (t) y Y (t), t.oiuada~ on diferentes 61·denes, estón enlazadas por l a correlación (5.l.14 )
Gráficameute esto significa que la curvo. kv:x: ('t) es lo. reflexión especular de la curv a k"Ji (t') con respecto al eje do ordenadas (fig. 5.1A). La desigualdad 14.4.5) para lns funciones aleatorias X (t) y Y (t) est11cionori as y estacionariamente ligadas toma Ja formn
lkxv(•) 1-< Vkx (O) ky(O) -= V DxD11 •
(5.1.15)
Las fórmulas (4.2.10) y (4.4.6) que dcterminitn las funcione~ correlativas normadas toman, para las funciones aleatorias estacionarias y estacionariamente ligadas, respectivamente Ja forma
r "' (i;) =
r - {T) xy -
-
kx (T) kx (Ó) '
k.,.v (i:) Vkx
(O} k 11 (0)
(5.1.16) (5. 1.17)
198
Cap. 6 Funciones akatol'tas •stacio11arta1
Ej('Jl1p1o 5.1.S. Examinemos las funciones aleatorias X (t) = Z cos ro0t 11 sen ro0t. Y (t) = -Z sen ©ot U cos ro 0 1, dondo :t y U so11 magnitudes aleatoTias no correlaciouadus con l)Speranz.as u1áttnnút ic11s iguales a cero y dispersiones iguales a D. Es ev idente que l as funciones c.on~lativas de estas funciones aleat-0Tias se oicprosan por l a fórmnla Ir.~ (-r) = 1, (i;) = D cos w 0 -r. 11
+
+
4.:u. La funció n corcelativa rodpnl tlc las luucionos aleat11rius X (1) y Y (t), eu virtud de (3.9 .8), se determina por Ja fórmula K"y (t, 1'¡ .,., -D cos O>•I s~n <~ot' n sen (J)o! cos t>lol' = )) $01\ lllo (t - /'). Asf p>ll'S, HS f11ncioncs a lo:utorias X (1) y Y (t) son est.acionnriamente liga
que se de.d uce h1 mi~mo q1w cu el cj~mplo M
+
+
+
donolo ;:, U, V son magnitudes aleatorias no 1,o)rrelacionarlas con esperauzas mntcmáticus igu:oles a cern y la~ mi~mas dispersiones iguill11s a D. B11 vlrtud 1)0 lo~ rc•sullados del ojomplo 4.2.1, amba$ funciones aleator\11.5 ~011 e.stacionat·ia~ puesto quo Kx (t , t')
= K 11 (t,
t')
= n cos
01 0
(t -
t').
Siu embargo , éslas 110 son ligadas estadonarinmente dc.hidn r1 que su función cmrclativa recipro(.n K.t!I (t, t') = M [ X (1) Y (t' )I ~ D e.ns c~t cos cM'
no
1·~
funt;ióu do In
t'.
Aplicando la fórrnnla (4.6.8), se puedo determinar las funcione~ correlativas recíprocas de las derivadas de diferentes órdenes
,,
-
i)ll' iJt ''I.
- -
"-·x
'"t .
A.~í puo~.
las derivatla!I do una func.ión nloatori a estacionaria son funci ones nleatorins estacionarias y e.stacionariamcnle ligadas y sus funci oJleli correlativas recíprocas se determinan vor la fórmula Ku.Pv (T)=(-j qk':N> ('t) 11
(p, q=O, 1, 2 , ... ). (5.1.18)
En pnrticul ar, l a función correlativa recíproca do una función aleato ri a estacionaria X (t) y de su primera derivada se determina por Ja fórmu la Si la función corr,elat iva k" (•) de la función aleato~i a estacionaria X (t) tiene continua la primera derivada, ent onces k~ (O) = O ya que, según (5.1.8), k. (T) tiene el roáx.imo cuando 't =O. Si la pri mera derivada do la función correlativa es d iscontinua en el punto • =O como, por ejempl o, en los casos (5.1.9) y (5.1.10), entonces, debido a la paridad de la función correlat iva (5.1.7), su derivada
§ S .:!. b'druclura de u11a /u11cló11 akatorin t6taclo11aria
199
izquierda en el punto T = O es igual en valor absoluto y cont¡;aria en signo a la derivada derecha. Como resultado, en este caso también se puede considerar que k~ (O) = O. De este modo, para cualquier fu nción a leatori a estacionaria (5.1.20) kxv 1 (O) = - k~ (O) =O. Esto quiere decir que cualquier función aleatoria estacionari a y el valor de su primera derivnda en el mismo punto no están correlacionados. Si la función aledoria estacionaria está repartida n.ormalmente, su valor, cualquiera que sea el valor del -argumento, y el de su l)rimera derivada, para el mismo valor del argumento, son ind·epend4eñ• tes. Claro e.~tá, qne de lo dicho no se pued·e deducir de ningú·n 'mód'o que la funcióu aleatoria estacionaria y su primera deri vada est án, on genernl , no correlacionadas. Como la derivada de la función correlat iva :;jempre es d ist inta del cero idántico, la magnitud aleat oria estacionaria y su primera derivada siempre están correlacionadaf! •.
*
5.2. Estructura de una función aleatoria estacionaria
Examinemos todas l as funciones aleatorias que se pueden componer de l as sinusoides de diferen tes frecuencial! con amplitudes y fases aleatorias. Tales funciones aleatorias se expresan por la fórm ula
..
X(t)=m.,+ ~ (Uvseu0>,t + Z vCOS0>,t).
(5.2.i)
\ 1-;a l
donde ro 1 , • • • , w. son l as frecuencias elegidas arbitrariamente, m x es la espera nza matemíitica const ante y Us. . . . , Un• Z 1 , • • • , Zn son las magn itudes aleatorias cuyas esperanzlll! matemáticas son iguales a coro. Vamos a limitarnos al caso en quclus magnHudes al eatorias U., ... , Un• Z 1 , • • ., Z,. no están correlacionadas y tienen por parejas dispersiones iguales D 1U.1 = D [Z. I = D.,. En este cnso tienen logar las igualdades M [U.I = M IZ.I = O, D IU.,] = D IZ. I M!U.U14 l = MIZ.Z14l=0 si µ. 7'= -v, M ( U.,Z,,I = O para cualesquiera v, µ.
= D.,.}
(5.2.2)
La función aleatoria Xº (t) = X (t) - m., determ inada por la fórmula (fi.2:1.) representa en este caso la swna. de l as funciones *) Como excepción se puede citar solamente un ca!IO absolutamont.o no intere~nte para los fines práclicos rcfnrcnte a la magnitud nleat.oria estacionaria todas las realizaciones de la cual son co~tanies. Tal función al eatoria representa una m~gnitud 11lt>:itoria corriente y de l1cc.ho no e.s unu función nlc11tol'in.
200
. Cap. 5 Functo1us aleatorias e.•tacionarlas
aleatorias no correlacionadas de la forma X,, (t) = U,, sen w.., t Z.., cos ro.., t (v = 1, 2, . .. , n). (5.2.3}
+
Por consiguiente, conforme a los resultados ohtoniclos en el § 4.5, la función correlativa do la función aleatoria X (t} es igual a l a suma de la:s funciones aleatorias correlativas X v (t}. Para calcular la función correlativa de la función aleatoria X,, (t),.sustit uyamos en (5.2.3) t por t': X V (t') = V sen ú>v t' + Zv cos (Ov t'. (5.2.4)
u
Entonces, la función correlativa de \a función aleatoria x .. (t) representará el momento de correlación de dos funciones lineales (5.2.3) y (5.2.4) de las magnitudes aleatorias no correlacionadas U v y Z,, para cuyo cálculo se puede aplicar la fórmula (3.9.8). Corno resultado obtenuremos Kx.., (l. t') = Dv sen ú>vt SC!ll ú>vt' + DvC'OSW,t cosw..,t' = =DvC-OSú>v(t-t'). (5.2.5) Esta fórmula muestra que todas las {unciones aleatorias X,, (l) :son estacionarias. Sumando las expresiones (5.2.5) correspondientes a todos los valores v de 1 hasta n, hallaremos la función correlativa de la función aleatoria X (t) que también dependerá solumente do la diferencia de los argumentos 't = t - t'. P or lo tanto, la función aleatoria X (t) determinada por la fórmula (5.2.1) es estacionaria y su función correlativa se expresa por la fórmula
"
kx(T)= ~ D..,coswv•·
(f1.2.6)
v=I
Este resultado es válido para cualquiera
ri
incluso para n
=
oo·
Así pµes, todas las funciones aleatorias que se pueden componer de .l!J.S , sinusoides no correlacionadas de diferentes frecuencias, con ·magnitudes y fases aleatori as, son iunciones aleatorias estacionarias s~eurpre que se cumplan las condiciones (5.2.2) *). El conjunto de frecuencias wi. w2, • • . , Wn representa el espectro de frecue11cias de la función aleatoria examinada. Basta ahora no hemos impuesto ningunas restricciones referentos a la frecuencia w.., en la expresión (5:2.1). Estas últimas podrfon ser completamente arbitrarias. Ahora examinemos un caso particular concern iente al conjunto infinito de frecuencias equid istantes nv n ©v=-;¡-(v=1, 2, .. . ), ~W=úlv+i-Wv=r··
(5.2.7)
*JDejamos al lector quo por si mismo se cerciore do que si las condicfones (5.2.2 no se cumplen, la función aleat-Oria X (1) deter minada por la f6r mu· la (S.2.1) no puede ser estacionaria.
.9 5.:!. Bstructura d11 urla funci(m aleatm·it:z. e3lar.ionaria
20!
donde 1' es un número vositivo arbitrario. En este· caso· la función correlativa, determinada por Ja fórmula (5.2.6), será una función periódica con período 2T y la fórmula (5.2.6) determinará su descomposición en la serie de Fourier. Los coeficientes de esta serie se determinan por l a fórmula conocida en la teoría de series de Fourier +r k.,(-c)coscuvi:_di: (v=1, 2, ... ).
D.=y)
-T
Pero sabemos que la función correlativa de una función aleatoria estacionaria es una fun¡¡ión par. Por coµsiguient!l, en la fórmul·a obtenidá la función subintegral es par y la fórmula puede ser escrita en la forma T
2 f (.).2.8) (v = 1, 2 . .. ). Dv=y J k., {-t) COSIDv't di: o De la fórmula (5.2.6) se deriva que para n = oo la dispersión de la función aleatoria X (t} se determina por la fórmula "" (5.2.0) D,, = k,_. (0) = },; D,.. V=I
De aquí se deduce que si deseamos obtener una función aleatoria estacionaria con d ispersión finita, debemos escoger tales magnitudes aleatorias U., y Z.,, que la serie (5.2.9) compuesta de las dispersiones sea convergente. 1'odo lo expuesto es aplicable u cualquier intervalo Áw entro las frecuencias vecinas en la fórmula (5.2.1) o, lo que es lo mismo, a cualquier valor ele 1' en la fórmula (5.2.7). Por eso todos los resultados o.bteaidos pueden huccrse ex'teosivos torobién a las sumas de sumandos infinitesimales. Pora pasar a este caso, ponemos que *) U., = UT (w.,,) ÁW, Z., = Z1· (cuv)Áw (v = 1, 2, ... ). (5.2.10) Entonce11 la fórmnlo (5.2.1), para n
=
oo, tornará la forma
00
X (t) = m.,, + ~ [U,. (v) sen .,,t + Zr (ID.,) CuSIDvl] Óú>. (!í.2.H) v=l
Luegr¡ ponemos D., = r S.,,(
u., /\
sI (ID.,) Áw,
donde
T
2 (" ~~:;- J k,,('t)COSCOvi:di: u
(v=1, 2 ... ) (fi.2. ·12)
*) Al ili s mirmir ó<1>. el 111íwero de sum~udos en (5.2. t} 1) 11 cualq1Jio1· intervalo dado de Ir~cuenc.ias (úl', co") crece invursamonte proporcional 11 ó
202
Cnp. 5 Fu11cio11es o.leatort118 estaclo11arl a.<
Entonces l a fórmu la (5.2.6) tomará la forma
.. sI
k.~ (i-) = ~
v,..1
(úlv) cos úJ,¡i; Ó.
(5.2.13)
La fórmula (5.2.9) pa.rn Ja dispersióu de Ja función aleatoria X (t) tomará la forma ~
Dx = kx (0) =
2: s'I. (cov) ó.w. v= t
(5.2.14)
En las fónnulas (5.2.11), (5.2.13) y (5.2.14) se muestra con evidencia que si queremos obtener una función aleatoria estacionaria con dispcrsi6n finita, entonces, aumentand o el número de sumandos en la fórmula (5.2.11), debemos disminuir proporcionalmente estos si1mandos. Con otras palabras, aumentando el número de frecuencias en e)! intervalo dado, debemos di~minuir 1>roporcionalmente las dispersiones de las sinusoides separadas para que la sum a de las d ispersiones de todos las sinusoides en el int.ervalo dado de frecuenci11s quede finita. Lls magnitudes Ur (wv) y Zr (rov) en la fórmula (5.2.'11) ~e pue
M [ UT (c.lv) Z1· ((J)µ)] M [UT
(~v)
=
UT {úl ..))
=
O par11 iod!ll> los v11loros de }
co",
(t) •·"
M IZT( w.) ZT (úlµ)I =O para ro 11 =I=
(5.2.15) Wv-
Para hallar l as dispersiones de las funciones aleatorias Ur (wv) y ZT (wv). observemos que en virtud de l as fórmulas (5.2.10) y (5.2.6) las fórmulas (5.2.2) para las dispersiones de l as magnitudes aleatorias U" y Zv se pueden escribir en la forma D[UT(wv)Á©j = D[ZT(úlv).ówJ=sI(úlv)ó.w
(v=1, 2, .. . ). (5.2.16)
Pero en virtud de la fórmula (3.9.1)
D IUT (wv) .Óúl)
= D IUr (ro,)l
(.ó(J))ª,
D IZr (w.) .Ó(I.)] = D !Zr (w.)I (Aw) 3 •
§ 5.2. E•triu;turo.
d~
fwición akatorL11 utactonaria
u11a
203
Sustituyendo estas expresiones en (5.2.16) y efectuando las.reducciones, obtendremos ·~ ((A)v) D[UT(úlv)] = D[Zr((l)v)I= ~ (v = 1. , 2, ... ) (5.2. 17.) Para el ulterior estud io de l as propiedades d'e l os funciones aleatori as Ur (cov) y Zr ((¡)") observemos que en virtud de (5.2.15) y (5.2.17)
..
,. ~_, M (Ur ((J)v) UT ((J) )1A(l)=M (U} (wv)] /!i.(J) = 11
=D[Ur((J)v)]Aúl=si(w..,)(v = i , 2, ... ).
(5.2.18)
M [UT(ro.) Ur (w¡¡)] = Ku7 (ro., roµ) (v, µ. = 1, 2, .. . )
(5.2.19)
Pero represonta la función correlativa de la función aleatoria Ur (4>..,). Por lo tanto, la fórmu la (5.2.18) se puede escribir en la forma
..
~ K i; (ro..,, 4> 11 ) 600
µ=I
T
=si (w"}(v =
1, 2, ... ).
(f>.2.20)
La misma fórmula tiene lugar para la función correlativa de l a función aleatoria Zr (ro..,). Ahora tenemos todo lo necesario para pasa1· ¡¡ examinar el caso referente a la suma de sinusoides con amplitudes aleatorias infinitesimales de todas las frecutJocias posibles repartidas continuamente en la parto posit iva del eje numérico. Sustituyamos en la fórmul a (5.2.11) las magnitudes 11leatorias U..,= Ur (w.) Aro, Z.., = = Zr (ro .. ) /!i.(J) por las magnitudes aleatorias infinitesimales U () d(J), Z (ro) dro. Sustituyamos correspond ientemente la sumn por la integral. De este modo determina remos la íunción aleatoria estacionaria de la formo
..
X (t) = mx + ~ (U () sen rot + Z ((J)) cos wt) dw.
(5.2.2'1)
En virtud de la ú ltima fórmula (5.2. 7) la sustitución de la magnitud dro corresponde al paso a l a magnitud infinitamente grande r. Por eso la función s~ (w) determinada por la fórmula (5.2.12) se sustituirá por la función
.Ó(J) por la infinitesimal
Ssx
(úl)
= ~ :i
..f ~
kx ('t) COS (tl't d't.
(5.2.22)
Con ello, las dispersiones de lus magnitudes aleatorias infinitesimales U ((J)) dro y Z ((J)) doi, eu virtud do la fórmula (5.2.17), serán iguales a s1., (ro) dw.
Cap. S
/l'unclon~•
okatorta8
~a<:lonarliu
s;
Sustituyendo en l a fórmula (5.2.13) las dispersiones (wv) Ó (l) de las magnitudes aleatori as UT (wv) Aro, ZT ((l)v} t>.ro por l as dispersiones infinitesimales s1 ., ((í)) do> de las magnitudes aleatorias U (w) dw, Z (w) dro, obtendremos l a fórmula siguiente par a la función correlativa de la función aleatori a X (t) que se determina por la fórmula (5.2.21 ): kx (T}
=
..f
o
Stx (o>)(',()$ WT d(J).
(5.2.2;1)
111 sustitución análoga en la fórmula (5.2.14) da Ja s iguiente expresión de la dispersión de la fuDción aleatoria X (t):
...
D..,= k" (O) =
J
Stx
(ü>) de.>.
(5 .2.V.)
o
Esta fórmula se obtiene también de (!:i.2 .23) cuando T = O. Si en vez de todas las frecuencias posibles tomamos solamente t vdits las frecuencias del intervalo dado (1 , <0 2), obtendremos la función aleatoria estacionaria ~
X.,,, .,, (t) =
j (U ((J)) sonwt+Z (ro) cosrot jdw,
(5.2.2!i)
cuya dispersión se determinará por l a fórmul u
.,,
D 1Xe1, ,.,,(t)J =
Js
1"
(«>)do>.
(5.2 .2!i)
f~l
Si en la fórmula (5.2.21) se tlividc todo el intervalo de frecucncios (O, oo) en subintervalos, la función aleaLoria X (t) se expresará como la suma de funciones aleatoria!¡ no correlacionadas de la forma (5.2.25). Como era de esperar, la dispersión de la función al eatoria X (t} se expresará <:orno la su ma de dispersiones de los sumandos iguales a las integrales de la forma (5.2.26} extendidas a los subintcrvalos correspondientes de frecuencias. De la fór.mul n·(5.2.24) y d~ las observaciones anteriqres se ded uce que la función s1,, (w) caracteriza l a distribución de l a dispersión uo ln función aleatoria X (t) por las frecuencias. En virtud de la fórmula (5.2.16} l a megnitud D., = s~ (wv) Ó,(l) represeo.la l a dispersión de un armónico de la frecuencia w., que forma parte do la función alontoria ex.aminada de la forma (5.2. 11). Por eso la magnitud s 1 x () dw es la dispersión Infinitesimal de un armónico de l a frecuencia: dada .., que forma pa1·te de la función aleat oria (.5.2.21). Si separ amos ahora de l a función aleatoria X (t) el s umando correspondiente a un ínter~
205
§ 5. 2. Estructura de u114 / uMi6n aleatoria eltaclonarla
valo pequeño de frecuencias (m, Ctl + A
=- ro+ Aoo:
D (X.,, ..,+L'lro (t)J =
"'+""'
Js
1 ,.
(0>) dci>.
"'
S uponiendo que l a función s 1" (c.>) es continua en el punto cando el teorema del valor medio, obtendremos D (X.,, °*"'" (t}l = •t.w ((I)') Ac.o,
(1)
y apli-
dond e w' es ciert.o valor de la frecuencia compnmdido ent re (1) y a> + A(J). Por;cons iguiente, al pasar al límite para Am - O la magnitud (I)' tiende a (1) y obtendremos •que S¡x
D [X..,, <•+ t>w (l)J I" (ro) = t>~l ~w •
De aquí está claro que la función s 1" (ro) carncteriza la densidad con q ue las dispersi on es de armónicos separados de la función alea toria (5.2.2'l} van repartidas por el espectro de freeuoncias. En virt ud de las propiedades estudiadas de la función s1,, (eti) esta fun ci611 se llama densidad espectral de la función aleatoria estacionaria X {l). La integral de .la densidad espectral
.,
S1.- (
~
S1x
(µ) dµ.
(!).2.27)
se denomina funciún espect,.al de la función aleator ia estacionaria X (t). Es evidente qno Ja rlcnsidad espectral es la derivada de l a función espectral (5.2.28) Slx (00} = s;x ((J)) · S ustHuyen do en la [órmula (5.2.27} la e:x.presió1J (5.2.22) de l a densidad csvectrnl, cambiando el orden de integración y cumpliendo lo intogro.ci6n con resp ecto u µ, obtendremos l a :;iguiente expresión d e la función espectral de la función nltmtori o estacionarin X (t) a tr11vlis de su func ión corrl'lativ;\: S 1x(lll) = n2-
.. ~
SCll Ca>t' k,.('r)-- dT. 't
(5.2.2\J)
Comp arando la :fórmul,<\ (5.2.27) con l a (5.2.26), vemos que lt\ fun ción espectral r eprosen tu lo dispersión su mario de Jos armónico:¡ d e 1orlas l as frecuenci ns do O a Ctl que forman parte de la funci(111 olentoria X (t). La fórmula (5.2.21) ex.presa la función aleatorin est aciona ri o X (l) clel ti po examin11rlo a t rn vés de otras dos fu.uci one.~ alentorius
Cn¡i. 5 FundoneN aleatorias estacionarias
U ((J)) y Z () m1yo argumento e:; la frecuencia w. &;tudiemo.'l las pro1>iedades de estas funciones aleatorias partiendo de las pi·opiedades ya c-«t.ucliadas de las funciones aleatorias Ur (w..,) y Zr (ü>v). De (5.2.15) está claro que las funciones aleatorias U (ú>) y Z ((1)) no están correlacionadas. Además, de (5.2.15) se ve que los valores de cada una de las funciones aleatorins U (oo) y Z ((!)) para cualesquiera valores, tan próximos como se quiera pero diferentes, del argumento ro están no correlacionados. Las dispersiones de l as funciones aleatorias U(@) y Z {úl), en virtud de la fórmul a (5.2.17), son infinitas. Ahora bien, K,. (w, ú>') =M {U(w) U(
Í I
(!)') dw ' = .~!x (ro).
(5. 2.31)
li
De las igualdades (5.2.30} y (5.2.31) se vP. que la función correlativa ele la función aleatoria U ((t)), que se cxnmiua como función w' para cualquier valor fijo de CJl, representa una función delta impulsiva con el coeficiente s1x (w). Tal deducción e5 v/llída también con respecto a la función correlativa de l a funcióu aleatoria Z (ú>). Así pues, las funcion es correlativas de l as ftmciones aleatori as U (ú>) y Z (úl) se determinan por la fórmul a
K 11
(~1, úl')
=
Kz (ro, ro') =
S1x
(©) 6 (w' -
w)
(5.2.32)
A p1· imora vista pa.rece que l as funcione~ correltitivas de las funciones aleatorias U((!)) y Z (co), determ inadas por la fórmul a (5.2.32), n~ s_ati.sfacen- l a, <;ondición de simetría, obligatoria para cualquier fti.µción correlativa. Sin embargo, esto solamente parece. En efecto, com-p la, función delta es igual a cero par a cualquier w' -=/= (t), no ho,.porta absolutamente a ·qué sea igual el rnultiplícador adjunt o a la función delta cunndo © 1 =fo ©. Lo que im porta es que para ú>' = úl éste seo igual a s1" (w). Por eso la fórmula (5.2.32) se puede escribir en la form a
K.,, (6>, (J)') = K, (cu, w') =Vs1.. (6l) s1,, (w') i3 (cv' -w). (5.2.33) Para cualquier '"' =fo ú> la última expresión de esta fórmula es igual a cero, lo mismo que en la fórmula (5.2.32). Cuando '"' = ©, el multiplicador adjunt o a la función delta en lo fórmula (5.2.33) lo mismo que en la fórmula (5.2.32), es igual a (co). Vemos que las funciones a:lea.torias U ((J))_y Z (co) de la frecuencia oi disponen de una serie de propiedades par ticulares. L os valores de
s,,,
§ 5.:!. Estructura de una fu.nctém aleatoria estactonarta
207
cada uua de ellas 1111ra cualesquiera, t ap próximos cc;>mo se quiera; valores del argumento w, co' no e:>tán correlacionados y sus disper8iones son infinitas. E.sto quiere decir que las realizaciones de estas funciones alea torias se comportan desordenadamenteypuedencar.nbiar tan fuertemente como se quiera al pasar ·de un valor del argumento a otro, aunque éste sea muy próximo al primero. Estas Junciqnes aleatorias no son estacionarias , puesto que sus funciones correlativas, según muestra la fórmula (5.2.33), dependen no solamente de la diferencia de los argumentos, sino también de cada uno de los. argumentos tomados por separado. No . Ob$tante, a pesar de estás particularidades, las funciones aleatorias U (w) Y. Z (co) son, en .~1 caso general , considerablemente u;iás ·s imples que la. función a.le.atoria estacionaria X (t) que se expresa p9r m.edio de las funciQnes aleatorias U (w} y Z (úl) por la fórmQla (5.2.21). Esto ex.r.l~ca l'a gran importaucia práctica ele las descomposiciones ospcctrales de las. funciones aleatorias estacionarias ele la forma (5.2.21). Ha~ta ahora hemos supuesto que las magnitudes aleatorias U (w) dw, Z (ro) dw de la fórmula (5.2.21) tienen dispersiones infinitesimales s 1" (w) dw, es decir, que el espectro de frecuencias es continuo. Sin embargo, es fácil ver que las fórmulas (5.2 .21) y (5.2.23) abarca n también el caso anteriol'D1ente examinado del espectro discreto de frecuencias. En efecto, poniendo en (::i.2.2'1) y (5.2.23) n
"
U (co)= 2j Uvli(
Z (ro)=~ Zvli(<»- Wv).
(;',.2.34)
v~1
V• ·!
"
Six(w) = ~ Dvt5{úl-!úv) 1
(5.2.3.'i)
\l=i.
donde U1 . • • , U,. , Z 1 , • • • , Z,, son magnitudes aleatorias no correlacionauas, sitntdo D 1U"1 = D IZvl = D "' reduciremos la fórmul a (5.2.21) a l a forma (5.2.1) y la fórmula (5.2.23) a Ja form;·1 (5.2.B). Es fácil ver quo fa fórmula (5.2.22), crue expresa la deusi
n
= ~ ~ v=I
Pero
D.,
~
~
O
O
{.\COI< (
208
!(Véase la fórmula (2.2.24)1. Por lo tanto, n
S1x
(CJ)) =
-·
~ Dv [6 ({J)- 00.,)
+ 6 (Ol + Wy)j.
Pero, como {J) >O, (1)v >O, entonces '" + {J)v, cualquiera que sea el v11 lor positivo de ro, no se convierte en cero y , por consigu iente, ·6 (ro {J)v) = O (v = 1, .. ., n) y obtenemos la fórmula (5.2.:15) lo que demnestrn l a afi rm ación enunciada. Así pues, l as fótm ul as (5.2.22) y (5.2.2::!) son v álidas t ambién en el cuso de un espectro d iscret o. En el caso general, cuando las funciones aloatorias U («l) y Z ({J)) representan l as sumas do las funciones aleatorias U, ((¡,)) y Z 1 ((¡,)) del tipo anteriormente examinado y de las combinaciones lineales de las fun ciones delta con coeficientes aleatorios no correl acionados, la fórmula (5.2.21) determina la función aleatoria estacionaria con u n espectro mixto , que es un espectro continuo con frecuencias aisladas, repartidas en él, a las cuales corresponden armónicos ai
+
§ 5.2. Estrtutura dt una funcl6n nl•at1tria et111cio11arla
2.09
Si en la fórinula (5.2.21) U ((1)) = U 6 {o> - Q), Z (e.o) = Z6 ((1) - Q), donde U, Z son nlagnitudes aleatorias no correlacionadas con equivalentes dispersiones iguales a D, y O es una magnitud aleatoria i ndependiente de U y Z, entonces Ja fórinula (5.2.21 ) toina la forina X (t) = m., + U sen Ot + Z cos Qt. (5.2.36) Ahora bien, la fór mula (5.2.21) abarca, como un caso particular, también funciones aleatoi:ias estacionarlas que ·representan sinusoi ~ des de frecuencia aleatoria con. amplitudes· y fases aleatorias. 'En e~ ejemplo 4.2.3 se mostró que la función correlativa de una función> • aleatoria (5.2.36) se determina por la fórmula DO
kx (i:) = D
~ 1 M cos ror dro,
(5.2.37)
donde/ (ro) es la densidad de probabilidad do la magnitud aleatoria Q. Comparando la fórmula (5.2.37) con (5.2.23), vemos que la densidad espectral do la función aleatoria (5.2.36) es igual al producto de Ja dispersión do las funciones aleatorias U y Z por la densidad de probabilidad de In frecuencia aleatoria Q: S¡x
(ro)
= Df (ú>)
(5.2.38)
Do l a fórmula (5.2.38) se ve que pera cualquier · densidad espectral asignada s 1,, (ro) se puede escoger tal densidad de probabilidad f (ro) de l a frecuencia aleatoria de oscilaciones Q que la función aleatoria (5.2.36) tenga l a densidad espectral .s1., (ro). En efecto, integrando la fórmula (5.2.38)con respecto a o> deO a oo y teniendo en cuenta que f ((1)) =O cuando ">
Js ,,(Ci>) dro= D Jf(CJ.))dw = D. 1
o
(5.2.39)
u
Al determinar de este modo D . hallaremos de 1a fórmula (T>.2.38)
f (ro):
f (
3jx (ti>) 00
(5.2.40)
S 11,. (ro) dw
o
Así pues, entre la infinid ad de tod a.s las funciones aleatorias estacionarias posibles que tienen la densidad espectral dada s1,, ((1)) y dispersión finita, siempre existen tales funciones aleatorias todas lo.s realizaciones posibles de las cuales son s inusoides puras. Esta<> funciones aleatorias se determinan por la fórmu la (5.2.36) en la cual " -0038
2!0
Ca.p. 5 Funcione• tika.torla.s estaciona.rliu
la densidad de probabilidad de la magnitud aleatoria Q se define por la fórmula (5.2.40). Además de estas funciones aleatorias, existe una infinidad de otras funciones aleatorias estacionarias, con la densidad espectral dada s1" (ro), cuyas realizaciones no son sinusoides, sino que representan las combinaciones lineales de una infinidad de sinusoides. Tales realizaciones pueden ser funciones continuas o pueden tener también puntos de discontinuidad de primer género, como vimos en los ejemplos dados en el § 4.2 . .Las fórmulas (5.2.22) y (5.2.23) muestran que la densidad espectral es una característica muy importante de la función aleatoria estacionaria. Conociendo la densidad espectral, se puede hallar por la fórmula (5.2.23) la función correlativa y, al contrario, conociendo la función correlativa, se puede determinar por la fórmula (5.2.22) la densidad espectral. Ahora bien, para la función aleatol'ia estacionaria no importa absolutamente cuál es la característica que se asigua: la función correlativa o la densidad espectral. Generalmente en las aplicaciones es más conveniente asig11ar l a densidad espectral de una función aleatoria estac;ionaria. Ejemplo 5.2.1. Hallar la deusidad espectral de una función aleatoria estacionaria con función correlativa exponencial k,,('l')=De-«l'
Por l a fórmula (S.2.22) hallamos s1,.(ro) =
'2.:
r
t- al t l COS'td't=
(5.2.41)
r
z~ s-°'~ COSlll'td't
o
(5.2.42)
o
La inLegral en esta i6n:nula se caleub fácilmente medla11te In integral por partes. 'foniendo eo vista. abt.ener fórmulas más generales necesarias para los ejemplos q110 se dan a continuacíón, sustituyamos por la magnitud !•· Entonces oh· tendmmos
00
=
~· -
:
2
Je-"''senµT
Volviendo n Integrar por partes, obtendrnmos
..
,.~ ~ e -<« {0SfJ.'t . d; - -i - - --;;"""
"
a- o
.
2U
§ 5.2. Estructura de una fimción aleatoria ettacumarta
De aquí hallamos
«z y
¡..
.,-c.Tcos¡.-td't=«- µ2
.., JI' d - c.~ cosµ-r d -r=
l""
·-Cl~ coeµ'td'f
« « 2 +1Li! ,
(5.2.4'.4)
o
Sustituyeudo esta expresión en el primer miembro de la fórmula (S.:i..43) pejando la integral que ha quedado en la ecuación obtenida, tendremos
y des•
(S.2'.45> Sustituyendo la expresi6nJS.2.44) siendo µ ~ (¡) en ta 'f órmula (5 .2.42), hallaremos lo densidad espectr do la funci6n aleatoria que nos intereso:
(5.2.46)
Por el contrario, considerando asignada la densidad espectral, podemos determinar, por la fórmula (5.2.23), la función correlativa:
Esta integral se puede calcular por la fórmula (23) dol suplemento. Como resultado obtendremos la !órmula (5.2.41). Ejemplo 5.2.2. Hallar la densidad espectral de la función aleatoria e.~tn cionaria cuya función correlativa se determina por la fórmula k,, ('t) = De-a l ~lcos6)0't.
(5.2.47) lt~llamos
Sustituyendo esta exvresión en la fórmula (5.2.22), s 1.,(coi) =
2
"'
~ ~
e- c:tl"
=
"t
cosco't d't =
~ {re-et"( o
C0$
(ú>-ro,¡) "ta'f+
r
, - CtT COS
(ú>+illo) 'fcl'f}.
o
La primeru de estas integrales se determina por I~ fórmula (5.2.44) siendo = CJ> - •o. y ·la segunda , r>or la mism a f6rmula (5.2.44) siendo µ = 6) o· l'or cons1gu1l•Jlt.c,
+
!'
D[ «'+(6>«- <»o)' + "-'+ C+@o)'' « l~
s,,,,(c~)=n o bien
(5.2.48)
14•
212
Cap. 5 Funciona aleatorias estacionarlas
El problema inverso rele:rent& a la determinación de la función correlativa, t.enicudo dada la
kx ('t') =De-"' l 't'I (cos roo't+ V sen (co0 l't' 1).
(!í.2./o9)
Susti tuyendo esta exµresión en la fórmula (5.2.22), halla111os 00
s1,, ("') = -2D n
~ .-«l•I (cos ll>o'l"+yson CJlo f • 1) coSCJ>'t d•=
•
o "'
00
=.E...[\ . - "'"cos((l)o-w) 't di:+ jr e-""'cos(roo+(l))'td·t + :t
,J
o
o
,..
+1'
J·-"''t'scn
00
(6io-ro) • di:+v
J,-o.•sen
((1)0+0>) 't'd't'
J.
Las integrales do esta fórmula se calcuJau fácilmente por !ns fórmulas (5.Z.41i) y (5.2.45). Como resultado obtendremos
a s,,, (Cll) = nD[ o;~-/-(úlo-(1)): o
a
+~+ro)• +
+
bi~l\
V(úlo- (1))
o;z+(lllo - m}~
y((l)o+(I))
+ uz+(eoo+(l)li
J
(5.2.50)
BI prllbloma inverso refcrcute a la determinación de la !unción correlativa, ten iendo dada la densidad espectral, lo resolveremos tambien para este caso en el párrafo siguiente. Puest-0 que la densidad espectral, por su sentido, no puede ser negativa pura ningún valor de (1),, la fórmula (5.2.50) tiene sentido solamente cuando ( ;• l. ,¡;; a./lll 0 lo que antes fue mostrado ¡ior otrn via. ·, Ejeu1plo_ ·5.2 :4. 1-(allar la .función correlativa de la func.ión aleatoria estacion¡ma: X (t) cuya densidad espoctreJ es constante en el Intervalo (0, (1) 0) e Igual a cero fuera 'de Mte intervalo: si O ,¡;; m ,¡;; Olo, $1 (5.2.51) 11"' (lll) = { "O si (1) > w0 •
Por la fórmula (5.2.23) halla·mos
Así pues k.:('t) = ••
seo
(5.2.52)
Dej amos al lector 'que por sí mismo compruebe c¡ue a esta !unción corr.elatin I(\ ~rresponde ui;-a densidad espectral constante en el intervalo (O, C!J0 ), que se determina por la (órmula (5.2.51).
213
§ {J ••9. /)e.!composición espectral de una función aleatoria
§ 5.3. Descomposición espectral de una función aleatoria estacionaria en forma compleja
En el párrafo precedente obtuvimos la descomposición espectral de una funGión aleatoria estacionaria rea l en forma real (fórmul a
(5.2.21)1:
X (t) =
m.,+
..J
(U (Col) sen 0t +z (Col) coswt) dCJl.
(5.3...1)
o
Sin embargo, en los problemas prácticos es más con.Ven~e~.~ cf.e ordinario representar las oscilaciones armónicas en for~a ·c 0mplé'jfi con ayuda do lns conocidas fórw.ulas d~ Euler que .ex·prés!l;:t lii({u.n ; ciones trigonométricas a través de las ÍUl)ciones ·expo.n~D:clal~ft. Q:el argumento imaginari o. Por eso reducimos la descoi:fi.pos'ic'ión 'espéCltral (5.3.1) a la forma compleja. Sustituyendo en la ·fórmula (5.3.1) las exp1·esiones de las funciones trigonométricas por las fórmulas de Euler senColt= obtendremos
X(t)=m,. +
..
eico« _ e-\(l)f
, 2
,
J[u~~)+ z~w>Je•"'rd(I)+ o
r[- u~~) +
z ~úl) e-l"''dw. o Sustituyamos en l a segunda integral las variables (!) = -µ. Entonces obtendremos .. o X(l}=m., + Z(0>)-;W(w) eí.,'dw+ Z ( -µ)1iU(-µ) elltldµ.
+
J
J
J
o En Ja segunda integral podemos sustituir de nuevo la vnrinble de integración µ por la variable ro puesto que la designación de la variable de integración en la integral definida no es esencial:
X (t) =mx+
r
Z (w)-;iU (w) el
l
Z (-w)~IU(-Cll) ei"''d<.o.
Introduciendo la función aleatoria compleja V (w) determinada por la fórmula Z(ru)~iU () si (!)>O, (5.3.2) V((J))= Z( - <0) + 1U(-w} . O {
z
S!
W> .
21~
Cop. S Fu11cionu akal
podemos unir ambas integrales en una úni ca y escribiT la fórmula obtenida en la forma
X (t) = mx +
..
J V ((1)) e
(5.3.3)
1 1 "' tU•l.
Esta fórmula ofrece la descon1posición es pectral buscada c.l.e la función aleatoria estacionaria X (t) en forma compleja. Esta descomposición se puede aplicar con mayor senciller. que In (5.3.1) puesto que todas las operaciones del análisis so cumplen mucho más :;implomenle con u11a función exponcncinl que con las trigonométricas , y a
K • (m, m')-M[Z((J))-IU(
=M[
-+
•
Z (ro' J-!U'(CJl') ] 2
-
z (
...
{M[Z((J))Z(w')J+M [U ((l))U ((t)')I} =
=+
[K, (m, m') + K., (w, cll'}I.
§ 5.3. D•tcomposlclón e1pectral d• rma fund6fl al•4torla
215
De aquf, tomando en consideraci6n la f6rmula (5.2.32) para las fQn· c iones correl a"tivas de las funciones aleatorias Z ((1)) y U ((1)), obten. d remos K 0 ((1), Cll')=+s1,.(w)6((1) -W') si «> >0, (l)'>º· (5'. S.4) Cuando 0>
! {M [Z(-
•
z (-0>')"1; iU (-o>')]
=-
w)Z(- m')J+MIU( - w)U(-6>')1}=
= ! [K,(J
Jro' l)+Ku(lwJ, l
De aquí, volviendo a aplicar la fórmula (5.2.32) y teniendo en cuenta que 1 ro' 1 - 1 6> 1 = ro - w' cuando ro
Para ro>O,
! s x( l c.>1)6(ro 1
w') si oo
(5.3.5)
w <0
[ Z(li>)-W(w) Z( - m') + IOC-w')J K, (ro,
... ! {M (Z (<11) Z ( -
w')J -M [U (w) U (-w')l} =
= +IK.(w,
ll:w' 1)-K., (w, :lw' f)J.
De aquí, en virtud de la fórmula (5.2.32) se deriva que para w>O, <J>' <0
Ko ((1), ro') =+ /s1x (w) 6 (w- 1(l)'1 )-sir (Cll) 6 (Cll-1(I)'1 )1 = O.
(5.3.6)
El mismo resultado obtendremos también cuando w
s,,((l)) =zs1x ( l(l)J),
(5.3.7)
podemos escribir Ja expresión obtenida de la función correlativa de la {unción aleatoria V ((1)) para todos los valores de (1) y (1) en l a forma 1
K. ((1), (I)') = s,, (oo) o(ro - ro'). (5.3.8) Ahora bien, la función aleatoria V ((¡)) posee completamente las mismas propiedades que las funciones aleatorias U ((1)) y Z (w) en lo fórmula (5.3.1). Los valores de la función aleatoria V (ro) para cualesquiera val ores d iferentes Je (¡) y ro' no están correl acionados. Su dis·
210
Cnp. $
Puncloru~ alcat"rftll 1'$/a clonarins
persión es infinita y la función correlativa es proporcional a la fun· ción delta. Sustituyendo en la fórmula (5.3.7) Ja expresión (5.2.22) de la densidad espectral s 1" (m) y tomando en considerar.ión que cos 1 w 1't = = cos fil't, obtendremos
..
sx((¡))
i Jl' k.,(i;)cosrotdT. =n
o Aquí Ja función $ubinLegrnl es par. P or eso la integral en los limites de O a co puede ser sustituida por la mitad de la integral en los límites de -oo a oo. Entonces tendremos
...
Sx(<Jl) = +._;t J Í k,,(i:)COS(A)td'T.
Por olro lado, podemos Ü=
..
(5.3.9)
e~cribir
't~
) k,,('T)S-Oll(l>TdT,
(5.3.10)
put!s lo que la función subintegral es aquí impar y Ja integral se toma en límites simétricos. Multiplicando la fórmula (5.3. tO) por la unidad imaginaria t, sustrayéndola de la fórmula (5.3.9) y teniondo en cuenta que cos (A)'t' - i sen wi: = e· 1wt , obtendremos
...Jr
1
s X (m) =ln
k X ('T )e-l<•'
(5.3.11)
Sustiluyamos ahora en l a fórmula (5.2.23) Ja oxprcsión de la densidad espectral S¡,.. (co) de (5.3. 7). Entonce~ tendremos k" (T) = 2
.J
s., (ro) cos W't d(A).
(5.3.12)
o
Pero la función s,. ((!)) es par:
s,. (-w)
=
s" ((¡)) ,
(5.3.13)
lo que se ve directamente de su definición (5.3. 7) o de l a fórmula (5.3.9). Por consiguiente, la integral en (5.3.12) es igual a la mitad de la integral extendida a todo el eje numérico de-oo a oo y podemos escribir esta .fórJD.ula en la forma
..
kr ('t) =
J s., -~
(ól) COS Wl
dúl.
(5.3.14)
§ 5.8. Descrm1poslclón espectral de u.na /unr.1.6 n ale11torln
Ahora observemos que debido a la paridad do la iuncióo imparidad del seno
Sx
217
(w) y la
('<)
0=
Jsx(oo)senwi:di:.
Multiplicando esta igualdad por la unidad imaginaria i, sumándola miembro a miembro (5.3.14) y tomando en consideración que cos ro• i sen oot' = e-im< , obtendremos
+
kx (<) =
""
)
Sx
(oo) e""~ d.© .
t5.3.15)
De est.e modo bemos obtenido la descomposición espectral de la función correlativa de l a función al eatoria estacionaria X (t) en forma compleja. Poniendo en (5.3.15) -r = O, obtendremos la siguiente expresión para la dispersión de l a función aleatoria X (t}: 00
Dx =" kx (O)=
J
Sx
(ro) deo.
(:>.3.16)
Así p ues , hemos obtenido la descomposición espectr al d.e Ja función al eatoria estacionaria (5.3.3), que r epresenta su descomposición en sumandos infinitesimales no correlacionados de la forma V (ro) e1"' 1 d.© que expresan las oscilaciones armónicas con amplitudes aleatorias infinitesimales en forma compleja, y las dcscomposicioues correspondientes de Ja función correlativa y de la dispers ión (5.;1.15) y (5.3.16). Las magnitudes al eatorias V(ro) ei•>t dro y V (-ro}e -1.. i dro cualquiera que sea el valor de ro, tienen una misma dispersión igual a s" (ro) doo. La fórmula (5.3.16) enuncia que la dispersión de la función a leatoria X (t) es igual a l a suma de dispersiones de los sumandos no correlacionados que forman parte de la expres ión (5.3.3.). Lo expuesto muestra que la función s,,, (oo) caracteriza la distribución de la dispersión de una función aleatoria estacionaria rcfcrcntll al espectro de frecuencias, al igual que la función s 1x (ro) introducida en el párrafo anterior. La diferencia entre ellas consiste solamente en que l a función s 1 x (ro), de acuerdo con el sentido físico, determina por completo la dispersión del armónico correspondiente a cada valor dado de la frecuencia 6.l > O, mientras que la función s" (6.>) div ide a esta dispersión en partes iguales entre las dos componentes complejas V (oo)el.,tdú> y V (-w)e - io>t dro que corresponden a l valor dado de l a frecuencia Cll. Con otras palabras, en una descomposición espectral real (5.2.21) de una función aleatoria estacionaria cada armónic1>
ca,,.
218 ~stá
5 Fúne€rin.u. clt:olnria.f; estacionaria1
representado por un sumando lU (ro) sen rot + Z (
correspondiente al valor dado de la frecuencia (J> > O, mientras que en una descomposición espectral compleja (5.3.3} cada armónico ·está representado por dos sumandos V (w) etwt dro y V (-(J>) e-loll dw y la dispersión de este armónico se divide on partes iguales entre estos sumandos. Por eso la función s1,. (w) está determinada sólo .en el campo de frecuencias positivas reales fisicamente, mientras que Ja función s,. (ro) está determinada para todas las frecuencias tanto negativas corno positivas, aunque las s últimas existen sólo matemáticamente. En la fig. 5.3. 1 se muostra la relación entre las funciones s,., (ro) y sh (w). Como la función s,. (w) tiene el mismo sentido que la s1 ,. (ro} y la diferencia entre ellas se determina solamente por la - - - - - ,:+- - - --w :::- forma matemática de registro de la des0 composición espectral de una función aleatoria estacionaría real, la función F ig. 5.3.1. s,. (ID} ge llama densidad espectral da la función aleatoria estacionaria X (t) al igual que la función s1" (ID). La.s fórmulas (5.3.H) y (5.3.15) que ligan la función correla't iva y la densidad espectral s., (w) representan una forma compleja de olas fórmulas de Wiener-1inchin (5.2.22) y (5.2.23). En aplicaciones prácticas es siempre más conveniente utilizar la forma compleja de la descomposición esp-0ctral. Por eso, en lo sucesivo, al hablar de la densidad espectral, siempre tendremos en cuenta la densidad espectral s., (ID) determinada en todo el eje numédco ro. · Además de la densidad espectral s,. (ID), para la descomposición ~pectral de uná .función aleatoria estacionaria es conveniente intro.duci-r la función espectral (o)
S,,. ((J)) = ~ s,, (µ) dµ.
_.,.
'&¡ ()bv~o
ql!&
(5.3.17)
la. densidad espectral es la derivada de 'la función
.el!P.ectr al:
s,. (<0) = s~ (w) •
(5.3.18)
.Sustiiuyendo en la fórmula (5.3.17) la expresión (5.3.11) de la densi-0,ad espectr!).l y cumpliendo la integración con.i:especto a µ obtendr&mos la siguiente expresión de la función espectral a través de la fun-
219
§ 5.9. Descompo1lclón e1pectr4l de un4 /uncl611 aleatoria
..5
ci6n correl ativa:
2~ 1
S,., (co)-S,, (O) =
l - •-lcn
kx('t)
'\'
(5.3.19)
d"t.
Ejemplo 5.3.1. Para la función correlativa exponencial (5.3.~0)
kx {'t) = De-<ó ftl
..5
la fórmula (5.3.11) ofrece la siguiente expresión do la denl!ldad espectral: s,,(6>)= ~
.-O: l 'ff-hO'fd't.
=
Para cumplír la iotegrac!ón, observemos c¡ue 1 '\' 1 - l' cunndo -r > O y 1-r 1 ~ - i- cunndo '\'
~
o
..
5 e
[
o =
~
a~l4. rel="nofollow"> +
[
J
a+l6>
o bien, reduc: it-ndo los quebrados a un común denominador, D a
(5.3.21)
a.z+ roz
'" (Cll)=n
Esto resultado concuerd a por comploto con (5.2.46). E jemplo 5.3.2. Para In función correlativa k., {'t)=D•- "'l"I cos C!lo'\'
la fónnuln (5.3. H) da Sx (c.i)=
..
::i J.,-a¡
(5.3. 22)
6>o't dl'.
-oo
Divid iendo el i ntorvnlo de integración en dos partos y oxpcesando el coseno
por modio de las funciones oxpn11enditles, obtendremos o o s,..{6>)= ~ [ e
5
.. +\
- oo
o
-Q6
..
e- ol"d't + \ e-
=,°..[ 1 + .... a+ t(wow) +
1 Cl -i{wo+ c.i)
1
a-í{c. rel="nofollow">0 - c.i)
+
+ 1
a + i(c.io+6>)
1·
220
Cap . S F11ncío1U!s ultalorl11S • staclMarlas
Rcducion.Jo los quebrados obtendremos
K u11
coinún donomi nador y poniMdo ji•
«•
=
~'+wt
Da
p• +2 (a'- o>ij) w• + .,¡
•x (w) = : l ·
+ <~~.
(S.3.23)
Ejemplo 5.3.ll. l'srn una func.ión correlativa más ¡¡eneral k.x(i:)=De"'" I • l¡cos oo0T !l<'ll (l)o 1i:1).
+ "/
(5.3.:.!4}
hallamos do un 1t1o
((l))-~[ 4:\
-
1+1v a+/ {"'i)- W)
1-fy
~ - f (<.io + <»}
+
+ t-tv
a-f((l)o - <•Jl
+
1+1y
a+t(w0 +w)
J
o bicu, suprimiendo Jas magnitucfos imaginarias,
n [
•.,(w)=-zn
a-v (w- w.,)
a'+C<11- 0l0)i
a+v(w;-(l)o) ]
+ a•+(w+(l)o)'
(5.3.25)
·
nednc!ondo los quebrados a un común rlonomin11dor, obtendremos '"
(61)
V
=n·
(a-f- ywol ~' +<« -vwo) wi ~·+Z {a"-Ql~)_w:+wJ ·
(S.3.26)
Es evidente r¡uc la fórmnl:l (S.S.23) os un caso particular do l':>l.a fórmula cuando y = O. En otro ca.so parLicular, cuando 1· = a / w0 la fórmula (5.3.26) loma la
forma
(5.S.27) Este caso particular Uono una importancia práctica especial, puesto que corrosponde a la funci6n al~11tcria dírereociable X (t) que tionc la derivada con dispersión íini~ (véaso el ojoruplo 4.6.1). Resnl vnmo~ ahora PI rroblema inverso: considerando asignada la densidad e~pectral (5.3.26) , httll amos la función correlativa. !Zustituyendo la expre.,lón (5.3.25) 011 111 fórmula (lí.3. 15), t endremos
1'%('r)-~[
'fJ a-)'(W-c.>o) a•+(o> - mo)~
2.n
tl"'Tdt0+
-~
rJ
C<+)'(Ql..L.Wg) eÍ6lt¿r,¡], a• +(6l +
-~
+
Sustituyendo las variables ro - ~ (l)0 en l a primeu integral y w = µ en la segundo, la fórmula obtenida se reduce a la forma D [
k,. ('t)=n
a009"1o't
rJ
.iµT dµ
a•+µs -iysenw0'f
-~
J
.. µefµ't dµ
a•+µ'
.,O
l J.
-~
De aquí , tomando eu consideración que (véase las fórmul as (16) y (22) del suplorn'cnto)
J~=~a •-"'''• _J..,f oo
_.,. a:t+µt
1
µe µ"dfJ = { 'º•-"l•I
as+µ'
si 't>O,
-In•-"''' si i:
obtendremos, como er11 de O!pcrar, h. fórmula (5.3.24). tn el caso particular, cuando 'V - O, obLcndrcmos para la fu11ci6n correlatl•n la fórmnltt (5.S.22).
§ .'i.3. Ducompo1lcl6t1 e1pu1NJI· de u.no. función aleatoria
221
En el § 5.1 vimos quo la derivarla de una !unción aleatoria estaclonorie diferenciable os siempre estacionaria. Por eso se puede pl11nte11r el -problema: hallar la densidod espectral de la derivada de una función aleatoria estacionaria. ;Conforme a la fórmula. (5.1.12) la función correlativa de la derivada Y¡ (t) = X' (t) de la funóión aleatoria estacionaria X (t) es k111 ('t) = -k; (t). Sustituyendo aquí l a expresión (5.3:.15) de la función correlativa de la función aleatoria X (t) obtendremos k 111 ('t) =
..J
w~s.~ (<•l) e'"'~ dw .
t'ig. 5.3.2.
Comparando esta fórmul a con (5.3.15), vemos que la densidad espectral de l a derivada Y 1 (t) se determina por la fórmula sv1 ( 6>) =
ro~s"
( w).
(5.3.28)
A.sí pues, la derivación de una función aleatoria estacionaria conduce a la multiplicación de su densidad •espectral por ro 2 • De l a fórmula (5.3.28) se ve que ·l a densidad espectral de la derivada do una función aleatoria estac.ipnaria es igual a cero ,para ro = O y la curva que la refleja toca al eje de abscisas en el origen de coordenadas (fig. 5.3.2). De aquí resul ta que, para que la integral de la función aleatoria estacionaria X (t) sea una fu nción aleatoria estacionaria con dispersión finita, es necesario que la densidad espect ral de la función aleatoria X (t) y su primera derivada se conviertan en coro cuando c.> = O. Examinando las expresiones de la densidad espectral obtenidas en los ejemplos anteriores, vemos que l a int egral de la densidad espectral , multiplicada por 6>1 , se convergerá y, por consiguiente, la dispersión de la derivada de l a función aleatori a será finita sólo para la d ensidad espectral (5.3.26) cuando· y = a.lw 0 • Es fácil comprender que toda densidad espectral continua sx (ro) quo no se convierte en cero cualquiera que sea el valor de ro y que tiende asintóticamente a cero cuando 6>-+ ± 00 1 se puede aproximar, eon cualquier grado de precisión, por una función frac.cionaria racional, es decir, por la relación de dos polinomios. En efecto, como es sabido, toda función continua, en cualquier intervalo finito de variación de la variable independiente, puede ser aproximada, con el grado de precisión deseado, por un polinomio. P uesto que por supos ición, la densidad espectral s,. (6>)-no es igual a cero para ningún valor de w y tiende asintóticamente a cero cuando ro -+ ± oo, es conveniente aproximar por el polinomio la magoitud inversa 1/s,. (w). Con ello, l a densidad espectral s" {w) será representada por un que-
Cap. 5 Funcion•s aleatorta.s estaclo1uirtas
222
hrado racional con numerador constante.~Claro está que al tomar también en el numerador un polinomio en voz de la constante, se puede todavía más fácilmente alcanzar el grado deseado de precisión de aproximación de la densidad espectral. En este caso en la expresión de Ja densidad espectral figurarán solamente las potencias pares de (!) puesto que la densidad espectral es una función par. Además, todos los coeficientes existentes en el numerador y en el denominador de la expresión de la densidad espectral serán realos. Por eso todas las raíces del numerador y del denominador serán por parejas complejas conjugadas. Ahora bien, todas las ralees del numerador y del denominador de la densidad espectral racional fraccionaria siempre se disponen de un modo si111étrico con respecto a los ejes real e imaginari<> en el plano do la variable compleja w. Al descomponer este quebrado racional en quebrados simples, siempre podemos agt'upar las fracciones correspondientes a cada pareja de las raíces conjugadas puramont(} imaginarias del denomi11ador y l as fracciones correspondientes a cada cuatro raices del denominador dispuestas simétricamente con respecto n los ejes real e imaginario. Como resultado obtendremos para cadl\ cuatro rafoes complejas dispuestas simétricamente un sumando de la forma (5.3.25). A los sumandos del primer t ipo les corresponderán en ln expresión de la función correlatíva las funciones exponencia· les, mientras que a los sumandos del segunto tipo les corresponderá n las funciónes ele la forma (5.3.22) o (5.3.24). Así pues, vemos que la función correlativa de prácticamente toda función aleatoria estacionaria so puede aproximar, con un grado de precisión cualquiera, por una combiuación lineal de las tres funciones correlativas tipo examinadas en los ejemplos anteriores.Esto es lo que determina la Importancia de l as t res (unciones conelativas tipo estudiadas. Estít claro que, al igual que en todo.'> otros problemas de aproximación, la representación aproximada de la función correlativa obtenida por esta vía no será única. Para calcular la integral (5.3.16) al determ~nar lo.s dispersiones declas funciones .aleatorias estacionarias valiéndose de las densidades . eiipe€tra'íés cooo-cldas, sé ,puede ap1ic.ar la fórmula
; ·· ~=;. n"?
rJ bo (i~}'ln-2 +bt
~~
(ioo) 2 n-a+ ... +bn - dioo)·i
+ lln- 1 d ~
1a0 (too¡n+ai(loo)n-1 + ... + an-1ioo+ 11 n I~
úl -
.
= (- 1)n+1 _::_ An a0
Dn '
(5.3.29)
donde D. es el determjnante de eJJésimo orden que se obtiene por la regla s iguiente : en la diagonal principal se ponen Los coeficientes a-¡, az, ... , ª" y los sitios vecinos a ellos se llenan por aquellos de los coeficientes a 0 , a 1, • • • , ª• que entran cu la línea ·dada de modo que sus números en cada linea se dispongan en orden decreciente;
§ 5.4. Noción de ruido blanco
223
los sitios que quedan libres se llenan de ceros a1
a0
a8
a2
D,. = a6 a4
O O O 0 ... 0 a 1 a0 O O •.• O a8 a 2 a¡ a0 ••• O
o o o o o o
(5.3.80)
ª"
A11 es el determinante que se obtiene sustituyendo en D11 los elementos de la primera columna por los coeficientes 60 , b1 , • • • , b,._1:
An =
boaoOOOO ... O b¡ 43 G1 aa 0 0 ... 0 ba a4 a~ a 2 a¡ ao . .. O bn-1 O
o o
O
en particular
11 = .!!:....~.
ªº
bo br f3 =~ ba
ª1
¡
z.
O
=
(5'. 3·. 3i)
4n
_...!!... /Joa, - b,o0 4o
OtO:
,
bo a0
ªºªz oa, o ª"
l4=~ b$
Cl3
O
b,
~
ªº ª' ªº o a3 a2 o o ª•
O O
ªª ª• 04
03
o o
ao
ªi
44
. ªº ª' ªº o o a~
Uz a4
o o
§ 5.4. l\\ocióu de ruido blunco
Examinemos Ja Io.ncióo aleatoria estacional'ia X (t) con la donsidocl espectral const an te s 0 • Su función correlativa, en virtud de la fórmula (5.3.15), es k" (T) = s0
...
J
elw< d(J).
Pero conforme a la fórmula (2.2.22) que expre.;a la función delta impulsiva en formo. de l a integral de Fourier
..
~ e'"'' dv> =
2ru'I (i:).
Por consiguiente, l a función correlaUva de una Cunci6n aleatoria estacionaria con densidad espectral constante s 0 se determinn por
Cap . 5 Funr.iottes aleatorlrls tstacfon.ati a$
hi fórmula
k" ('T) = 2n s 0 11 ('t).
(5.4.1)
La función aleatoria estacionaria con densidad espectral constante se llama mido blanco estacionario. Este nombre se explica por cierta analogía que tiene tal función aleatoria con la luz blanca: la luz mencionada representa la suma de todas las componentes espectrales que poseen una misma intensidad; el ruido blanco es l a suma de l as oscilaciones armónicas de todas l as .frecuencias que tienen una misma dispersión de amplitud. Con otras palabras, la luminosidad sumaria de la luz blanca está repartida uniformemente en componentes espectrales, es decir, en frecuencias de l as oscilaciones electromagni?ticas que la componen; la dispersión sumaria del ruido blanco está repartida uniformemente en frecuencias de las oscilaciones t1rmónicas que lo componen. El multiplicador ad junto a la función delta v =
2n s 0
(5.4.2}
se denom ina intensidad del ruido blanco estacionario. La funci6u correlativa del ruido blanco estacionario se expresa por medio de la intensidad del mismo por la f6rmula kx (i') = vB (i:).
(5.4.3)
La fórmula (5.4.2) muestra que la intensidad del ruido blanco estacionario es igual a l a densidad espectral del mismo multiplicada por 2:n: y, al contrario, la densidad espectral del ruido b lanco estacionario es igual a la intensidad del mismo dividida por 2n. Generalizando la noción de ruido blanco, llamemos m ido blanco a toda función aleatoria cuya función correlativa contiene como multiplicador la función delta. En concordancia con esta definición la función correlath·a del ruido blanco X (t) se determina por la fórmula K,.(t, t ') =G(t)o(t-t')= (t}G (t') B(t-t'>· (5 .4.4)
ve
I,.a lunción G (t) que representa el multiplicador adjunto a la función delta en la expresión de.la función correlativa del ruid o blanco se denomina .Intensidad del mismo. En el caso particular, cuando la in.tensid·ad del ruido blanco es constante, éste es estacionario. En·el casó general, siendo variable la intensidad, el ruido blanco no es e8t acionsrio. La fórmul a (5.2.32) muestra que las funciones aleatorias U (ro) y Z ((1)) SO!l ruidos blancos que tienen una misma intensidad igual a la densidad espectral s1,. (m) de l a función aleatoria estacionaria X (t). Semejantemente l a fórmula (5.3.8) mues~ra que la función aleatoria. V (w) ·representa un ruido blanco cuya intensidad es igual a la densidad espectral s,, (w) de la función a leatoria estacionaria
X (t). La fórmula (5.2.21) ofrece la expresión de la función aleatori a estacionada X (t) por medio de los ruidos blancos realés no correla~ cionados U (ro) y Z.(ro). Análogamente la fórmula (5.3.3) expresa la función aleatoria estacionaria X (t) median te el ruido blanco ·com,· piejo ;f (ü>). En el caso general, el ruido blanco V (ro), al iguar que los rmdos blancos U (w) y Z (w), es no estacionario: Por eso la fó&roula (5·. 3;3.) ex.p resa en el ({aso general Ja función aleatoria estacionaria del ·tiein• po X (t) por medio del ruido bl anco no ·estacionario de la frecuencia V (ro). Y solamente en el caso particular, cuand·o. Ja densidad :espect ral s 0 es constante, la fórmula (5.3.3) expresa el i:uido blanco.,estaéiot nario del ·tiempo X (t), que tiene la intensidad 21t8 0 , med iante.. el ruido blanco estacionario de la frecuencia V (w) ·cuya intensid!!-d :es igual a s0 • Así pues, en este Ca.50 el ruido blanco estacionario X,{t)· tiene la densidad espectral s 0 y l a intensidad 2ru0 y el ruido blanco estacionario V (w) tiene la intensidad s 0 • El ruido b l anco es el tipo más simple de una función aloatoria deb ido a que sus valores, siendo diferentes los valores del argumento, no están correlacionados. A la expresión de una función aleator ia mediante una función aleatoria más simple (ruido blanco) la llamaremos representaci6n can6nica integral de la función aleatoria. Las fórmulas (5.2.21) y (5.3.3) dan las representaciones canónicas integra· les de cualquier funcióµ aleatoria estacionaria. Las representaciones caDóni cas integrales de las funciones aleatorias son muy cócnodas para l as aplicaciones. Precisamente esto explica el gran papel que desempeñan las descomposiciones espectralet; (5.2.21) y (5.3.3) en his aplicacionCls de la teoría de íunciones aleatorias cstacionaria::s. En la naturaleza no hay ruidos blancos perfectos del tipo de la función doltn. Es to se explica por el hecho de que en la naturaleza no existen objetos ni procesos carentes por completo de inet"cia. Por eso en todo fenónieno físico el valor de la función aleatoria en ol Jlunto dado determina tambi~n en cierto grado los valores de la misma en otros puntos cercanos. No existe tal magnitud física cuyo incremento
Cop . 5 Fuucioncs al,atoria1 estacto12arla. ~.
con precj:;ión hasta cierto iutervalo y todos los v alures de la magnitud examinada, la diferenci a entre los cuales es menor que este inter valo, se con::iideran como coincidentes. Por eso, desde el punto de vista Jll'áctico, la función aleatoria puede ser considerada como un ru ido l.Jll\nco siempre que l a correlación entre sus valores se haga extensiva sol:~mente a los iutervalos de variación del argumento que son menores t¡ uc el inLervalo míni mo perceptible a l a proci::iión de medlcionos adopt ada. Con otras palabras, l a funci ón aleatoria puede considerarse como un ruido blanco si e l intervalo de cor relación
..,
V= )
kx ('t) d't.
(5.4.5)
- oo
Por l'!lt n misma fórmula se determino nalura h1w 11LI! ta1ubié11 la inte11$idad de \JJl ru ido blanco real con fw1cióu correla tiva kx ('t) distintR de la función doltR. En virturl de (o.3.1'1) la integral eo el miembro derecho de la fórmula (5.4.5) p uede ser expresada por medio del valor de la densida d espectral para 'l - O. Como resultado la fórmula (5.4.5) tomará la forma V
= 21' Sx (0).
(.5.4.6)
Es obvio que una función aleatoria estacionaria cuyas fi10ción correlativa y densidad espectral se de terminan por las fórm ulas kx (t) = D e-"-1TI,
(5.4.7}
prrictlcamonte puede ser considerada como ruido blanco (ruido blanco real) siempre que o. sea suficientement e grande. En efocto, cuaudo o. es suficientemente grande, el valor de la función correlativa exponencial será tan pequeño como se quien para t =!=O cualquiera. P or eso, cuando o. es lo bastante grande, el intervalo de correlación du
§ $.4 . •V oclón de ruido blan.:o
227
esta función aleatoria será tan pequeño como se quiera. Con ello, su densidad espectral será prácticament.e constante en una gama considerable de frecuencias. Es evidente que la gama de frecuencias en la cual l a densidad espectral (5.4. 7) puede considerars.i prácticamente c:onstanw puede ser hecha tan grande como se quiera eligiendo a suficientemente grAnde. En virtud de (5.4.6), 111 intensidad de este ruido blanco real es igual a 2D/ a, es decir, a la dispersión del niisrno multiplicada por 2/a.. Ahora bien, la densidad espectro.! de cualquier ruido blanco e.~taciouario real no es constante, pero puede considerarse p?ácticamente constante en cierio intervalo de frecuencias fuera de1 cual eUa tiende a cero. Ejemplo 5.4.t . En el ejemplo 4.2.7. fue mostrado que la. !upción cprreln· ~lva do l a corriente que pnsa por el circuito cornpuestó ·de. un coi1densador do capacidad C, cargado por el !lujo
donde T = RC e3 l a corn5tante d el tir.mpo del circuito y ¡1 es ln densidad media del fluj o de partículas que van n parar al condensador (la esperanza matern~tl ca dal número do partículas en 1~ unidad de. tiempo) . Supongamos que la densidad medi¡¡ del Oujo de partículas µ crece illnutadamente. rnientras que la magnitud de carga de cada pnrtlcula va disminuyendo do modo que el producto ~·n quede c.onMnnte, igual 11 ''· Rn e.~te cnso ltJ V
k¡ ("t) = 2T t
--
T •
Cuando T-. O es1a función tiendo a cero para cualquier T :f= O y k¡ (O)-+ oo. La intogral de esta función, en los límites infinitos, queda en em caso const1mto, Igual 11 v. Así, para pequeños valore~ de la constante de tiempo T, lH corrie11te que 1>a~a por el circuito e.s p1·óxima n.l ruido blanco con intensidnd v. En el limite p&ro T ~ O. ln c.orrianto on ol circuito repl'osentn un ruido blanco cstnc.lon111fo ptU"fecto. Así pues, el rui.do blanco pcriocto se puede representar físicarof.nto rnmo unn sucesión continua de impulso~ ínfinitesirnales no correlac.i<>nndos que ~ijfUNI uno tra11 otro con densidad medi:o infinita. Observarnos que en ul ejemplo examinado el ruido blanco perfocto 11c obtio· no sol11mnntc cunndo T - O, l!!I decir, durante la descorJa del condensador, que vn cargado por el flujo de partículu, a t.rav~ de una resistencia nuh. Pnosto que en la naturaleza no exfate la resistencia igual a cero, 6
al ruido blanco.
P11ra reflejar Ja limi tación de la gama de írecuencü1s en la cual la densidad espectral es constante, se int.roduce geuera lmente l n noción no ruido blanc.o de bo.nda. Se denomina ruidQ lit.aneo de banda a una función aleatoria estacionaria cuya donsidnd espectral es cons15•
228
Cap. 5 Funciones akatorias estacionaria•
tante en cierta gama de frecuencias y e.'! igual a cero fuera de esta gama: s0 si 1w ¡.,.;: (1)0 , (5.4.8) s,, (w) = { O si 1w1 > C•lo • .Sustituyendo esta expresión do la dcnsid11d eo<pootral en la fórmula (5.3.15), hallamos la función correl a ti va del ruido blanco de banda: kx (i:) =
o bien
s0
(Irº .
J
ei<•T d
.
~iwui: _e-i(&){)'f
S,¡
i't
,
-"'
"•o l>x (i:) = -~-sen 't
ó.l 0 i:.
(5.4.9)
Sustituyendo la expresión (5.4.8) de la densidad espectral en la fórmula (5.3.16), hallaremos la dispersión del ruido blanco de banda: D,, = kx (O) =
"'º
J
So dw
= 2sow0•
(5.4.10)
- 00
Así pues, la dispersión del ruido blanco de banda es finHa. Desde este punto de vista él os más real que el ruidQ blanco perfecto. ::>in embargo, tampoco los ruidos blancos de banda existen en la naturaleza, puesto que no es posible una variación discontinua de la densidad espectral hasta el cero con el valor dado ro 0 de la frecuencia. La fórmula (5.4.!l) muestra que los valores del ruido blanco de hánda en Jos puntos, divididos por cualesquiera intervalos múlti·ptes de st/oo 0 , no están correlacionados. Así, los tórminos de toda ;;ecuencia aleatoria formada por los valores del ruido blanco da lianda en los puntos equidistantes, divididos por el iotervalo n l <»o, no están correlacionados. Con otras palabras, la secuencia aleatoria de los valores de un. ruido blanco de banda, tomados cada intervalo n/ro·0 , .se puede considerar como ruido blanco dtscreto, es deeir, como ~iii;esió/;l d·e ip:¡.pulsos aleatorios no correlacionados. Por eso el ruido .Jl'!tfnc.o..íie ·})anda desempeña el mismo papel en la teoriá de secuencias fi1eatorias--:que ·el ruido perfecto en l¡¡ teoría de procesos aleatorios del. argumento que varía continuamente. § '5.5. Fnncioncs aleatorias estacionarias ergódtcas
Para determinar la esperanza matemática de una función alea· toria es necesario conoéer su densidad unidimensional de probabilidad. En el caso en que las craracteristicas probabilísticas de la runción (:l.leatoria no.son. conocidas, entonces, para la determinación experimental de su esp.e ranza matemática, hay que observar un número suficientemente grande de sus realizaciones para cada valor dado del argumento t. Entonces, conforme a los resultados del ejem-
.~
5.5. /:'u,.cionu aleator((>S e1taclo1tarta1 .rgódlcas
plo 3.9.2, l a media aritmética de l a función aleatoria para cada va lor de t, tomada según todas las realizaciones observadas, puede considerarse como valor de su esperanza matemática para esta t. Coa otras palabras, para la deter minación experiment.al de la esperanza mate. mática de u.na función aleatori a. se necesita obtener un número bas" tante grande de sus realizaciones y tomar el valor medio de estas realizaciones para cada valor dado del argumento t. Per.o la..esperanr za matemática de una función aleatoria estacionaria es constant e. Por eso cabe pregun tar: ¿ se podria utilizar par a la determinación experimental de la esper anza mat emática. de una funcióll alEiat9~¡a estacionaria l os valores de una reaHzación suya para dHeret\le¡¡ valores del argumento en vez de los valores de 'u n gran númer o de diferentes realizaciones para un mis mo valor del arg\llllento? Y en generul ¿se podría aprovechar la circunstancia de que las características probabilísticas de las funciones aleatorias estacionarias no cam bian, cualesquiera que sean los decalajcs en tiempo (o en general a lo largo del eje del argumento), y deter minar las características probabilísticas de la función aleatoria estacionaria por una realización suya, desplazándola por el eje del argumento mediante todos los proced imientos posibles? Para resolver esta cuestión, pongamos en claro cuáles son las condiciones en que una sola realización de la funciól'l aleatoria estacionaria , desplazada por el eje del argumento media nte todos los métodos posibles, puede su ~tituir una gran cantidad de reali zaciones que se observan al toner el argumento un solo valor fijo. Más exactameutc, h111lemos las condiciones en que la esperanza matemática de una función aleatoria estacionaria puede ser determinada como valor medio en tiempo do las ordonadas de una realiz11ci6n suya tomada arbitrariamente. Con otras palabras, determi o~ mos cuáles son los condiciones en que para cualquier realización :i: (t) de la función aleatoria estacionaria X (t) tiene lugar la igualdad aprox imado
+Í T
mx:::::
x (t) dt.
(5.5.1)
•• E11 obvio que la integral del segundo miembro de esta fórmula tiene diforentes valores para distintas realizaciones posibles de la fu nción al1:.1atoria X (t). Por eso los valores del segundo miembro de la fórmula (5.5.1), correspondientes a distin tas realizaciones posibles de la función aleatoria X (t), son v11 lore.<> posibles de la mngni tn
Y1· =+
JX (t)dt. o
(5.5.2)
Cap. 5 Funclonts akat
La' esperanza nrnl.cmática de esta magnitud aleatoria es, e"idenle· mento, igual a m,, puesto que la cs1>eraoza matemática de la funcióu aloatoda estacionaría X (t) es constante e igual a m.,. Por eso, para que se pueda escrLbir lA igualdad aproximada (5.5.t) , es necesaria y suficiente la pequeiioz de la dispe1·sión de la magnitud aleatoria Y T· Bn virtud de la fórrnu l11 (4.7.5) para lu dis persión de la integral de la función aleátoria, In dispersión de la magnitud aleatoria Y r se expresa por la fórmula T
!
D [Y,.] = .-lf r
{
y1
Jr X (t}dt~mx 'J\. 2] = u
= ;2
T T
) ) k.d t- t') dt dt'.
(5.5.3)
u ()
Esta fórmula mut'$tra que la disper.1ión de la magnitud aloatoria Y r y, por lo tanto, el error cuadrático medio de la igualdad aproximad u (5.5. i), se puede hacer tan pequeña como se quiera eligiendo un valor de T bastante grande, siempre que el vnlor medio de la función correlativa eo el cuadrado con el lado T tienda a cero al aumentar ilimitadamente el lado de este cuadrado. La condición suficiente para esto es la existencia d.e uu tal valor -r0 qui! la función correlativa k,, (-r) pueda ser considerada prácticamente igual a cero para 1-r 1> i:0 • Con otras pnlol' ig. 5.5.1. bras, para que la dispersión de la magnjtud aleatoria Y r tienda a cero cuando T-.. oo, es suficiente que exL5ta el intervalo íinilo de correlación de la Iunción aleatoria estacionaria X (t). PAra demostrar lll afirmación expuesta, supo ug¡imo~ que para cualquier & >O existe tal i- 0 >O que
,.
(5.5.~) < e si 1 't 1 > To. Dividamos el cuaJ.rado O < t, t' < Ten tre~ zouns con ayuJ.a tlll
1 k.~
(-r)
1
los rectas t - t' = ± i: 0 • (En la zona St. Solllbre11da eu la fig. 5.5.1, la funció11 correlativa no sobrepasa su valor en la diagonal k,. (O) =D,, y en las dos zonas restantes, sciialad ns en la fig. 5.5.1 por la letra S 2 , la. función carrelativa es ruonor quo e. Por consiguiente,
=
T T
) Jk.,.(t oo
t')dtdl'< Dx ít r<.>a S 1 + e iiroa s~ .
(5.5.5)
Pero el área de la zona S 1 es menor que 1' V2·'toV2 = 2T 'to y el área sumaria de las zonas seiialndas por la letra S 2 es menor que el
§ 5.5. Funcio1us al~alorio.< <.
231.
Area del cuadrado T'. Por lo tanto, T 7
.\o Jo kx(t y
t')dtdt' <2DxT-ro+~r-'
+, ¡¡kx (t T T
t') dt dt' <
tº +e.
20
(5.5.6)
Debido á l a pequeñei arbitraria de e, el segu ndo miembro de es.ta· desigualdad se puefle hacer tnn pequeño como se quiera eligiendo uír T suficientemente grande. Ahora bien, de (5.5.3) y (5.5.6) se deriva que la dispersión de la magnitud aleatoria Y,. tiende a cero .para :¡ - oo si la función correlativa de la íunción aleatoria X (t) tiende a cero para T - oo. Las íuncioaes aleat.orjas ostacionarias para lM cuales ln t.oma de 1111 ,·alor medio )Jrobahillstico por una numerosidad de Loda!I las realizaciones posibles se puedo sust ituir, al calcular las esperanzas matemáticas, por la toma de un val or medio simple del tiempo de una sola r ealización tomada arbitrar iamente, se den omi nan ergódicas. En dependencia de cuáles son las magnitudes, ligadas con la función alealoria eu cuestión, cuyos esperan7.as matemáticas se puede c.alcular a base de w1a sola realiznción suya (cualquiera) tomando un valor medio del argumento, se puede hablar de diferente grado de crgodicid11d. J!:n pnrticular, acabamos de demostrar que la t endencia de Ja función correlativa kx (t) a cero para ,; -.. oo es ur111 condición suficiente de ergodicirlad de la función aleatoria esiacion11ria con re.-;pccto a la espernnza matemática. La desigualdad (5.5.6) muestra que la dispersión de la magn itud aleatoria Y T depende de la relación cnt.I·e la longitud de registro T d11 Ja roalización de la función aleatori a X (t) y el intervalo de cocrelarión 2 To de la misma. Así pues, para poder escribir la igualda1I aproximada (5.5.1) es neces11rio que la longitud de registro 1' lle Ja Iu11ci.ón aleato ria cstacioonria X (t) sea lo suficiouLemcute grande cu co111puración cou su intervalo de correli:lción. Hablando metafóricam1<11te, 5e pueJo dticir que la igualdad (5.5.1) es vúlida si el iutervalo de registro T de la función aleatoria X (l) es lo sufir.ienlomente gr ande ¡1arn que so manifil'.!Ste bien su c11rácter olcatorio. Ejm 1plo 5.5. J. ¿Cuál lo.ogi Lud do 1•cgf~tro de la rundóu ulontoria cstaci<>·
oaría X {L). que tiene la !unción r.orrelntivu /Je-a. l•l Jcbo Lomarsn ¡1ara 1fotnr· minar su l!Speranza matem~tica por la fórmula (5.~i.1) cl'ln 1111 err!'r c11ndrá1irn medio que no super~ a :Y'Dí lO? Según los datos, 111 d1si>ersi6u de In m1
111 comlici6n
e = 0 / 200 v hallnwos
D -cn·0 _ ...!!_ t - 200·
·
To purti~ndo d1
Cap. 5
Obtenemos -r1
¡::::
Fu11t;fotrl'$ 11lnilorias ~1tac:lonarl1Jlf
5,3/a.. !'ara que el primer SUmllJldo dd ~cgundo miembro de
In do:ii¡¡unldnd (5.5.GJ uo sup•w a D/200, es sulicie11te elegir 111 Lon¡¡iLud de registro T, partinndo do lo condición
2DTo
D
-T--= 200 . Dt• 11qui hnlliu1111s 1'/'t0 = 400 o T ¡:::: :H20/a.. Do este modo, para que el orror cuadrático medio, al dctermi nar la esperanzH matcmntlcl\ de la funcióo aleatoria j)(lt lu lót'Tnula (5.$.1). no cxccdn el 10% con rc.specto a lo drsvlación cuadrática 10edfn de la función RlMtorln. en rr.il~ ceM es suficiente rpgisl.rar la realiMción de IA funrión aleat.oria en el intel'valo T 200 veces mayor que el in~rvalo de rorrdoción 2T0•
El v11lor de In función correlativa kx (-i:0 ) de la función aleatoria es In esperanza molemática de la funestacionaria para cualquier ción aleatoria Z (t) = Xº (t) Xº (t + T 0):
•o
k:c (To)
= MXºl (t) Xº (t + 't0)] = JJIJ IZ (t)J.
(5.•5.7)
Por llSO en cie.rtas condiciones la funcióu correlativa de una función aleatoria estacionaria también puede determinarse a base de urJa
sola rcali7.ACión de esta función aleatoria tomando su valor medio roferenle al tiempo. Esto es posible si la función aleatoria Z (t) es ergódica con respecto a la esperanza matemática. La condición suficiente
+
+
Así pues, el momento inicial de segundo orden de la función aleatoria Z ,(t) representa. el momento central de cuarto orden de los valo1•es de la función aleatoria X (t) para los valores del argumento t, t + To, t 1T, t· + -c0 + 't. Ex1iresando este momento mediante la función
+
correlativa de la fw1clón aleatoria X (t) por la fórmula (3.11.34), obtendremos r, (t, t + •) = Jci, (To)+ 1c1 ('t) + k,, (T + 'fo) k,, (T - -Co)·
Aplicando la. fórmu la (4.2.12) que liga la función correlativa de una función aleatoria con la esperanza matemática de Ja misma y con el momento de segundo orden, y teniendo en cuenta que la esperanza mat.emáticn do la función aleatori a Z (t) es igual a k., ('t 0), hallamos lo función correlativa de la función aleatoria Z (t): /,·, (t) ..,. f, (1, t+-t)-k~ ('to)= k! (-c) +kx (-r -¡- To) kx('t-'to)· (5.5.8)
§ 5.5. /o'unclo1U!$ a.katoria.1 e.
233
De aquí se ve que l a condición k,, ('T)-0 para 1T 1- oo t!S sulicien· te para la ergodicidad de la función aleatoria Z (t) con respecto o la esperanza matemática y para la ergodicidad de la función aleatoria X (t) con respecto a la función correlativa. Así pues, el decrecimiento ilimitado de la función correlativa de u na función aleatoria estacionaria normalmente repartida para 1T 1- oo, es la condición suficiente 'd e su ergodicidad tanto con respecto a la esperanza matemática como con respecto a la función correlativa. AJ cu mplir est a condición, la-función cor.relativa de una función aleatoria estacionarla X{t) normalment~ repartida, cuand<> el valor de T es l o suficientemente grande, puede ser determinada aproximadamente por la fórmula · kx (i:o)
~ -} ~ :tfJ (t) z-0 (t +To) dt =
=+ J T
[z(t) - mx]lz{L + 'To)-m.,]dt.
(5.5.9}
u
Ejemplo 5.5.2. Las funcio nes aleatorias estacionarias m>rm:tltnenlc ropartidu, cou laa tres funciones correl ativas tipo examina~n.s en los párralos 1mtn1·iores, que contienAn como multiplicador una función e.xponencinl , son ergódicu• tonto con respecto a l n esperanzo. matemática como con respecto n la función correlativa , puesto que todas esta~ funciones con-elativa.s tienden 11 corocunndn 1..-1- oo . Por eilO l os o.5poranr,n~ mtlUlmútlca11 y l~s lnncioncs c:orrd11tivns de las mismM SI\ punden determinar vor lM fórmulas (:i. ~d) y (á.!Ul)puru un valor de T fo 5ufir.ientomento ¡¡rande. · Ejemplo 5.5.3. l'nra una (unción aleatoria esta.ciona.r la ~inusoidal de lrucuencia deierminada X (1) - U sen w0 1 Z cos 6loJ, M IUJ ~ M (ZJ - O, D 1U) - D (Z) = D, no se cumple la condición su.Uciente de ergodicidad, pucstn que su fu.neión corrnlativa k:o: (T) - D cos
+
M!=+
Í X (t) dt= ;
r,
s
(U sen 6lot+Z cos ro0 t) dt ..
ll
=r'Wo- [U (1-cos úloT)+Z aen <11oTJ. De nqul se ve que el i1Cg11nclo miembro de Ja fórmula (!'í.5 . 1) tiende en esLe caso a cero, es decir, a la esperania mRteinática do la funci6n alodoriR para T-+ oo . Por In ~anlo, la función el eMnr ia r.stneionaria sinuso idal es eri;ódica co n rP.spll(tl\ 11 la esperanza matemático. De un modo eernojnnte hollamos T
K~ (•o) =
·1
T
Jf X (t) X (t +•o) dt""' -u•+zz 2- - cns
p1m1 ¡¡r1t11dtJs valores de ·T. De ar¡uf ~ vo quo el sogund< rel="nofollow"> ullumb1·C1 .i~ Ju fóru1u l 11 (j .5 .9\ es aproxilnttdamento pruporcional al euadrado de lu aruplitml nl~awrla A t - Ul Z 2 rlc ln sinu soidi: y J'Or eso tiene diferP.111~5 \'alorc•s ¡1ara cl istintos
+
234
Cap. 6 Funciones akaÜJrias estaclonarlo.r
realiz~iones.
l'or <:onsiguiou tc, la fundón eleawria estll{'jonarja sinusoidal no
ergódic u con resp...<:to a la lunci6n correlativa. Paro coofirmar esta deducciún, calculomt•S además la dispersión de la inaguitud aleatoria K; (-r0) suponiendo -que In~ ma¡¡ni111dP.s aleatoria.s U y Z están repMtidas normalmente. Teniendo P.$
-0n cu~nla que su 1•spera11ia matemática es igual n la lund6n correlativa kx (-rol = =:: D cus m0 T 0 • ol1tcndremo.~ DIK:(ro)] ::::<M [ (
ai;ze
C09ú>o'to-DCOS(l)o"to)
- M l'
f)ara la.,
magnitudc~
[u•+w;v+z•
2
]=
D (U'+Z•¡+ D"
} :-OS2 6lo-ro.
aleatorias uormalmenle reparlid11.s el momento contra!
.d o cun.rto urdoo e;; igual al cuadrado tri¡,licado de la dispersión !véase la fórmula (2.5.11) ). Por eso M 1u•J = M lZ J = 3D1 y obtendremo~ D [ (To} ) "' D2 cos' •>o To·
x:
lljcmplo 5.5.4. Cnalqui<•r función aleatoria estacionnria con rr.alizacl1rne~ pu1·nment.e sinusoidales no es orgódica con respecl.o a lu función cnrrelntlva inrlu!o ~¡ su fondón corrolativa tiende a cero cuando 1't 1- oo. En efecV•, $i la luución al~ntnria estacionaria X (1) se dntermina por La fórmula X (1) - "'x U sen Ot Z cos Q1 1
+
+
·dondu U y Z son magnitudes aleatorias no correlncionadas, con ~speraoias motemáticQS iguales a cero y dispersiones iguales a D, y Q ~ cualauier magnitud aleatoria no negativa¡ mdo¡¡endiente de l11s magnitudes U, Z, enton~cs, conforme a los resu lados del ejem11lo anterior T
M:=+
Jo X
(1)
dt""' m~.
1
US+Z' x; (-ro)= r-1 JÍ XO (t) XO(t + ro)dl~ --2--cosS:ho u
r.
La primera fórmula muestra que la función aleatoria co n •·~a liwcioncs purom~nte sinuwidales es crgódica con respecto a la espcranin 1n•temálfca. La segunda fórmula muestra quo fJ .segundo miembro de la fórmufo (5,.5.9) tiende .a diferentes llmitos para distintas realizaciones cuando T ..... oo y no ~iende, para ningunl\ realización, a la función correlativa. puru ¡¡n111clt'S valores ele
Los ejemplos examinados muestran qutl ninguna función aleatoria estacionaria, lodas las posibles realizaciones de la cual son sinu-
:soldes, pucdQ ser ergódic11 con respecto a Ja función correlativa y, por
-consiguiente, su función correlativa no puede ser calculada con ay11d11 de una sola realización. En el § 5.2. vimos que , cualquiera quo sea la función correlativa kx ("t}, siempre existen funciones aleatorias -estacionarias, con reali2(1.ciones puramente sinusoirleales, que tienen osta función correlativa. Por eso a toda Iunción correlativa k:c ("t) lo corresponden siempre funciones aleatorias estac ionarias tanto org6
§ 5.5. Fu>lcionts aleaiorias eslacionariu er.gócll.caa
235
aleatoria estacionaria, no se pu.ede determi¡iar si es ella ergó.dJita con respecto a la función correlativa o no. Para ·r esolver est!l cue~' ti ón, siempre se necesita d isponer de una i.n.foi::macióh adiejo!ial ác~rca de las características estadísticas de -la función aleatoria estacionaria, · por. ejemplo, conocer que la función al~atoria está repartida )J:Ofllla'l~· mente. Como vimos, si se trata de funciones aleatorias estacionarias normalmente repartidas, basta ,conocer la función correlativa pi:1ra r
+
T
i X (t) dt,
(5.5.10)
' Xº (t) Xº (t + -i) dt.
(5.5.11)
m.,= lím T~«>
~
T
Ir.<("t:) = lím } T~«>
0
C:n e~t.ns fórmulas el lí mite debe entenderse en el sentido probabilístico, es decir, en el sentido de que la esperanza matemática del cuadrado de la diferencia entre la magnitud y su límite tiende a cero (el así llamado límtte en la media cuadráttca). Ponieudo en la fórmula (5.5.11) i; =O, obtendremos lo. siguiente fórmula para la dispersión de una función Clleatoría estacionaria, ergódíca con respecto a la funci óu corr
D~ = li m T-+oo
+
T
~ [Xº
(t)JZ dt.
(5.(1.12)
l1
Expougamos ahora la interpretación física de la noción de densidad espectral de una función aleatoria estacionaria. Para esto examinemos la función aleatoria estacionaria X (t) ergódica (con respecto a la fooción correlaLi n1). En Jos problemils prácticos la función aleatoria X (t} representa frecuuut~mentc la c.orl'ica.to o la tensión cxistentn en ciert.o circuito.
•¡ Vlmos c¡110 siempre bast.a ('. Ollocor la función r.orrelaLiva pora juzga1· ac!'r ca
Cap. S l'u11clonu 1>uotoria• tttaclonnrltt.•
Con ello, la esperanza malemáUca m:.: es 111 componente consta.nte de corriente o de tensión, mientras que l a {unción aleatoria centrada Xº (t) representa las fluc tuaciones de la· corriente o ele la tensión. La magnitud !Xº (t)l1 es la potencia instantánea ele ln corriente de fluctuación, en la resistencia unitaria y la magnitud T
IV=
y J[Xº (t)l dt 2
(5.:.i.13)
u
os la potencia media de la corri ente do fluctuación on la resistencia unitaria. Pero conforme a la fórmula (5.5.12) la magnitud W para la función alentori11 estocionaría ergódica X (t) no difiere prácticamente de la dispersión de la función aleatoria X (t) para T Lo suficientemente grande, debido a lo cual se puede escribir
=+ J T
W
[Xº (t)]idt.:::: D ,.
(5.5.111)
o
o bien, ten iendo en cuenta (5.3.16) :r ... w [Xº (t)¡2dt;::: s.. (Ci>) dCi>.
=+I
J.
t5.5.1.))
E~ta fórmula muestra que la densidad espectral Sx (cu) caractori?.a en este caso la distribución de la potencía media de 111!! 11uctuuciontl>1 de la corriente en el espectro de frecuencias. Debido a este sentido físico de la densidad espectral , a ésta so le llama con frecuenci11 densidad especLra.l de pot,ericla de una función aleatoria estacionaria. La fórmula (5.5.15) muestra que las fluctuaciones de corriente pueden tener una densidad espectral constante solamente en aque l caso cuando la potencia media de estas fluctuaciones es infinita. Esto confirma la deducción hecha en el párrafo precedente de que el rui do blanco no puede existir físicamente.
§ 5,6. Densidad espectral recíproca de dos funcioues aleatorias estacion11rias y enlazadas estacionarlamentc
Hallemos la función correlativa recíproca de dos funciones aleatorias estacionarias X (t) e Y{t). Para esto representémosl as por las descomposiciones espectrales en forma compleja: X (t) = mx+
..
JV (Ci>) e
(5.IU)
J
{5.H. 2)
1 1 " dw,
00
y (t) ""mv+
W (Ci>) el•it dú>,
.~
$.6. Dtn1idad <1pec1ral dt d o1 fu11cionr~ tltaelonaria•
237
donde V(w) y W(ro) son dos ruidos bl ancos complejos cuyas lilte.nsidades son íguales a las densidades espectrales s., (ro) y s11 (m) de las. funciones aleatoria:s X(t) e Y(t) respectivamente. Para determinar la función correlati va recíproca, hallamos las correspondientes funciones aleatorias centrales. Con ello, teniendo en cuenta la deterJOinación de la fuución correlaliva recíproca de l as funciones aleatorias complojas, pasemos en la expresión (5.6.2) de ltl función aleatoria real Y (t ) a lo.s magnit udes conjugadas complejas y cambiemos l a designación del argumento y de la va.r iable de integración. Entonces obtendremos:
..
Xº (t) = ~ V (rJ)) el•H deo,
yu (t') =
_.,.,
""
} w (w') e-10>1' d-Ol'.
- oo
De aquí bailamos l. '" (t, t') = M [Xº(t) Yº(t')} =
J JM [l'
""
00
(úl) W(111' )1
ci(w1 - (~· 1 ·> dwd«i' .
P ero fo esperanza matemática bajo el s igno integral representa la función correlativa reciproca de los ruidos blancos V(co) y W((I)): M {V (úl) W ((l)')I = Kow ((1), w').
Por consiguiente, l a función correlativa recíproca de las funciones aleatorias X(t) e Y(t) se expresa por medio de In función correlativa recíproc;,1 tlo los ruiúos blancos V(w) y W(w) por !>1 fórmu la K ,.1, (t. t') ""'
J ..) K. ,c
""
- oo
(ro. co>') c1((l)t-
d 111' .
(5.ü.3)
-t'O
Esta Iórmuln muestra que en el caso general las funciones aleatorias pueden estar ligadas no es tacionariamento, 1>uesto que su función correlativa recíproca depende de dos nrgumenLos por so1iarado. Paro que las funciones aleatorias X(t) e Y(t) estén ligadas esLacio11ar iaU1onte 1 es necesario que sea K rw ((¡), w') = O para w' co; es decir , que los valores de los ruidos blnocos V(
*
238
Cap . 5 Funclont• oltolorla$ 4toclonorla1
Sustituyendo esta expresión en la fórmula (5.6.3) y tomando en consideración las propiedades de lus [unciones delta , obtendremos 1(.,.11
(t, t') =
""
J
..
Sxy
(w) dUJ
"" f -~xy (oo)
..f
e 1<cu•-.,· r•>,S (ú> - <~') dw' =
el«1-1·1aw.
Do uc¡uí se ve que en el caso en quo ln fut1ción correlativa recíproca de los ruidos blancos V (F) y W ((1)) se expresa por la fórmula (5.6.4) , las funciones aleatorias estacionarias X (t) e Y (t) están ligadas est.aciooariamcnte y s11 función correl11tiva recíprocu se determina por la I6rmuln
kxv {"t) =
..J
Sx11
(01) ei••• dc11.
(f!.(i .!'i).
La fórmula (5.G.5) e:s completamente análoga a la (5.:U.5) que expresa la función correlativa de una función aleatoria estacionaria por medio de su deusidad espectral. Esto da razón para llamar a lo función Sxv (ú>} demtdad espectral recíproca de dos funciones aleatorias e~tacionarias y enlazadas estacionariamente X (t) e Y (t). fü obvio que la magnitud Sxv (ú)) dro r epresenta el momento de correlación de l os armónicos V {)el6lt dú) y W (w)el"'t dú> de una misnH1 frecuencia ú) que forman parte de las funciones aleatorias X (t) e Y (t). Los armónicos de diferen tes frecuencias en las funciones aleatorias ligadas estacionariamente siempN no está n correlacionados; s61o los armón icos de la misma frecuencia pueden sor correlacionados. Ahora bien, la densidad espectral reciproca caracteriza la distribuci6n del enlace correlati vo entre las fwiciones aleotol'ias en el espectro de frecuencias. La fórmula (5.6.5) muestra que la densidad espectral r11cíproca represent¡¡. la transformación de Fourier de la función correlativa recíproca. Por eso, aplica:ndo l a fórmul a de la transformación inYc1s3 de Fourier , obtendremos
s,.11 (ú>) = 2~
..J
kx~ (T) e-i"'T dt.
(5.0.6)
- oo
Esta fórmula expresa la densidad espectral reciproca de dos funcio · nes aleatorias estacionarias y enl azadas estacionariamente mediante su función correlativa reciproca. Ejemplo 5.6.1. Halla.r la donsídorl espcc.f.ral rccípro1:1t de las funciirnc~ aleatorias cstacionorias y enlnza
§ 5.7. SecuMclas aloatllri
Ole
deterroina. p-0r la f6rmuJa
kxu{i:)=-C~-etlTl11en l'or 111 fórmula (5 .6. 6) hallamc>s
..
s,.11(cú) -
f, J
"'º''
ll~ =a'+(l)J.
e - <>l•l- !ooT sen Wo>d>=
"" e
= _E_ [ f 4nf
_ ..J
5
e«T- Hi)Ot-fCQT
d'f-
..
J,-a.-i--i ~t - h>t J dT
o
-oo
o hlon , después de c.uwplfr la int.ognc.ióu y transfoun11clo11cs ºefome11t5los 2C l«(l)(&)o Sxy
(6J) =- ~· ~•+ 2(a2 - (l)i) (l)•+(I);¡ :
Estn fórwula muestra que la densidad espectral reciproca de la~ funcio ne~ aledtorias re11les puede ser comploju. Ejemplo 5.6.2. Hollar l a función comllati\•a reciproca de las funrionc:>
aleatori u
Y (t) =X (1) -1- X, (1),
Z (1) = X (1)
+ X 2 (t),
d n nclo X (1), X, (t) y X 2 (1) M n funciones aleatorias lllJtacionru·ias no correln1 cionadas con los funcloues correlativas De"""' 1' 1, D, c· cxifYI y Di•-"''1' , rcsp11c· tivamente. Mostrar que Ja., !u11cio11es aleatorias Y (1) y Z (!) estón ('nla zadas cstnciona.r iamente y hallar su densidl\d espectral reclpr<>cH. Seg ún l a definición d o In funr.i6n c.orreloth•R redproca K vz (t, l')= M [Yº(t) (t')l = M [ XO(t) Xº (t')J+ + M (Xf (t) XO(t')J+ M [XO(t) -~ l(t')J+M (X~ {1) Xf
zo
<• bien, p uesto que las h~c.innndtts,
en
funcione~
alnatorias X (t). X , (1) y X 2 (t) uo está 11 corrc>-
K 11 z (t, 1') .,... M IXº (t) Xº (t')f ~ k" (t -
t') .
l) e aqu l se vo que las funcione~ olentorias Y (1) y Z (1) e::;Lán enla:tadM est11cionnrlame nt.e y su funci6n corre)utlva 1·ecí proca coinciclo c.on ll\ !unción co1·rolatl va ile la función aleatoria X (t) . Por lo tanto, la d e nsidad espec.lral r~.c:fprocn dr. l,.s funC'io ncs 3Jeat.oriM Y (t) y z (t) tllD.lbién col11c hl 11 con la dt•usidail ~-~pc<' t ral de l a función ale.atorio X (1):
•uzC6!)-~ •x ((1)) = _Q_ .. ";' • • n · o.·,.,. § 5. 7. Secuencias aleatorias est.'\cionarias
E xaminemos la secuencia aleatoria formacla por los valores de una función aleatoria estacionaria que corresponden a la ::;ecuoncia ilimitada de los valores equidis tD.ntes del argumento con el interv~Jo t.: Xh =X (to + ht.) (h =O, ± 1, ± 2 .. . . ). (5.7 1)
Cap. S FitnciO!lf• aleatorias estacionarla.• E~ta secuencia aleatoria es estacionaria, puesto que su función correlativa depende solamente de la diferencia de los números de los términos de la secuencia:
h,.. = M lXf. Xl:+ml= = ill {Xº (t 0+ M) Xº (to + hó. + 11u~) ! = k,, (mó.).
(5.7.2)
E:.:prese111os nquí fa función e-0rrelativa de la función a leatoria X (t) por la fórmula (5.3.15}. Entonces, obtendremos km
J s.. (w)
=
e1@m!I
dcv.
-<»
Dividamos el intervalo de integración en los segmentos de 2n!Ji de longitud dispuestos simétricamente con respecto al origen de coordenadas. E11to11ces tendremos oo
(2v+l )n / "
V= - ~
(2V- l ):t/ ó
J
~
l>m =
(w} elc.>mó cfui.
Sx
+
Sustituyendo las variables w = 2 vn/ó CI)', en las integrales correspondient.eis, las reducimos t-0das a los mismos limites de integración: 11/ó
J
~
/;,,, =
Sx ( úl '
+ 2 ~n
) el Ol'mlH·2vni du>'.
'\'=- oo - n / A
Omitit,ndo la rayn 11dju11ta a la designación de la vari able de integración y teniendo en cuenta que e~"1 = 1, podemos escribir la 'fórmula obtenida en ln forma :1/ C.
km =
J[~
-n/ó
s_.(ro+
:?.~n)]e;,,,.,"dw.
v=-oo
..
P.o r -~iu, in~rotluciendo la destgnación
si(©)= ~
s,.(<ú + 2~") ,
(5. 7.3)
v= - '1IO ~btend remos
k,,.
=
ni"
J s~ (ui) eiwn~ dw.
(!í.7.4)
-11/ ó
En partic11l11r, poniendo rn =O, obtendremos la siguiente expresión para la dispersión de los términos el.e la secuencia aleatoria estacio-
.fí
:;.7. Sdcumcias aleatorias u t 11r.lonarill$
241
naria n / f:.
) ~(co) dúJ.
Dx=ko=
(5. 7.5)
- nf~
Demostremos que la función ~ (w) determinada por la I6rm11la (5.7.3) es periodica con un período de 2rr./ 6.. Para eso sustituyamos en la fórmul a (5.7 .8) cu por la magnitud (1) 2n!6.. Entonces obt.onclremos
+
+
Pongamos aquí µ = v 1 y observemos que µ, al igual .que· v; rC<'.Orr.e todos lo~ valores enteros de - oo a oo. Como resultado tendremos 2 ( Ctl + )= Sx ( lt) + ) •
~
~
~
~"
µ s=-oo
Comparando esta fórmula con (5.7.3) y teniendo en cuenLa que la suma no depende ele cómo está d(lsignado el índice de adición (éste recorre todo$ los valores enteros de -- oo a oo) , obtendremos
s~ (ro + ~'T )
;;;.
s~ (cu}.
(!J.7.U)
Jo que demue5tra prr.cisnmeute la afirmación enunciad a . La función periódica puede ser descompuesta en la serie do Fourier *). Por e~o la fun c ión~ (w) también puedo ser representada por uua serie compleja de Fourior:
..
s~(ú>)=
~ a 1,ei•"v".
P- - oo
(5.7.7)
Los coeficientes de esta serie se determinan por la fórmu la conocidn de la Teoría
a. p -- _2:t
7t/.,I>
Jl
" (c.>) e-hopa diú .
sd
-Tt/I:.
Comp•lrando esta f.órmula con la (5.7.4) ¡ara m = - p, vQmos que Jos coeficientes
núm~.ro
1G- OU38
2~'.!.
Ca p . .") ,..unclo rtf'.f ufratoria.tt
S usli tuycnclo
c:;~a
ex pres ión
tstac.t<111a rl-'~
(5.7.7), obl·c nd remos
•JO
s•X' (~>) = ~ ~ k - fi 11iwpt. ' 2n ~ v= - w
Por íiJJ, 1>oniendn aquí -p = m y te niendo en cuentn que m, al igua l que p, recorre todos los v11lores enteros de -oo a oo, obtenrlremos 00
~ k me -t0>111:i. . •~,·" (ú1) -- ~ ,, k.J
(.'í. 7.8)
Bxprcs~mos »horn la función aleatoria esl11cío11nda X (t) por In clc11composic:ión cspectrnl (5.3.3). Entonces obtundromos }¡¡ siguiente fórmula para los términos de In secuencia alontoria estacionaria que so examina: .¡..,.
X (to+ tó) = X 11 =in,.+
)
Vd(Ci>) clOl(fo + l•Al dhi.
Cumpliendo aquí la.~ mismru; transformaciones que al deducir la fórmul a (5. 7.4), obtend remos :t/ f;.
Xh
= m., +
JV
..
.i (111)
et..1•t\ tú~,
(.J. 7 .!l)
- ;1/ ó
dorido Vd(w)
=e'"''•
~ V (111 +
2;,'' ).
(!í.7.IO)
v= - oo
A;;i pues, hemos obtenido la representación espectral de una socuenci11 ulcatoria estacionaria. Con ello, debido a 111 pel'iodicidad do la función exponencial del argumento puraroent~ imaginario, el espectro do frecuencias de la secuo11cia aleatoria so puede considerar concentradó 'en el intervalo 1 Ci> 1 n/6. Las fórmul11s (5.7.4) y (5.7.8) soo a1;1álogas a las de Wiener-Jínchin (5.3.11 ) y (.'>.3.15). Mostremos ahora que la función aleatoria Vd (w) on la i:epresenlnción espectral de una secuencia aleatoria estatiouoria no es más que un ruido blanco cuya intensidad es igual a ~ ((i.)). Para esto hallemos la función correlativa do la [unaión aleatoria Vd ((1)). Con ello, es suficiente considerarla solamente en el intervalo de frecuenci11s 1 e~ 1 < n / A. Puesto que los sumandos en la s um a que figura en (5.7.10) han sido obtenidos decalando el mido blanco V (w) en intervalos múltiples del periodo 2n/ 6, todos ellos no est án correlaciona
<
§ 5.7. Suuetu:ia• aleatorias 11tadonar/as
243
dará el multip licador e• <., - "'')to en la expresión de la función co· rrelativr1 de 111 función aleatoria Vc1 (w). Por eso, teniendo en cuenta la fórmula (5.3.8) para la función correlativa del ruido blanco V (w) , obtendremos Kvd ((1),
~
w') = ei(O>- o>11-0 [
Sx ( w
+ 2;" ) J6 ((1) -6>').
"IJ.1::- 00
Tomando en consideración que .el segundo miembro. de ¡lStn Jórmul a, es igual o cero, siendo w' ;/= c.>,. podemos ~usti~.ulr en eL.:.rouliip1foa,, dor, delante de la fun ción delt a, w' por w. Entonces, teniendo en cuenta l a fórmula (5.7.3), obtendremos K •c1 (w , w') = 8'.~ (w) 8 (m-w'). (5. 7 .11) Esta fórmula demues tra que la función l\leatorin V c1 (w) en el intervalo 1 w 1< rt/d representa w1 ruido bl anco cou intensidad ~ (co). La fw 1ción ~ (w) representa la densidad espectral de una secuen cia aleatoria estaciona ria. La magn i tud~ (w) dw es igual a la dispersión de loi; armónicos V.i (w)e'O)!iA dw y V 4 (- 6>) e-l0>M dw que Iormtvl parte de la descomposición espectral (5.7.9) de la ~ecueucia aleatoria estacionaria. Ejemplo 1),7 .1. Jloll nr In deusidnd es11eetriil do u11a secuencia aleatoria e~tuci onurin con 11\ función r.orrelativa km ... Dq 1'"l, O< q < 1. Jl~¡;rcse•llornos l'toví arul'ntu 11; fórmula (5 . 7 .8) en 11\ forma w
-1
s: (!Al)=!. ( ko+
~ kme- 1.,mA+ ~
k,,,e -J0>mA) .
m-1
Jlotiicndo t•n l o primera suma - m = p y olu la l!
l"1 (c.>)-~ -in
..
(ko+ L.J "'1 i>=i
..
k
~ k p . - iO>Pl>) • ,.elwpl> + L.J
,_1
(a.1.12¡
Sustituyendo •qu i la expresión d e la función 1:orrolallva, 110! C(\rcioramos de que nmbas s umos representan en estu caso 1nogrcsionos geométricas. Sumándolas, obtendr~ino:i l a siguiente expresión d() l a secuenci• uleulnria estacionuia quo so exominn: (5.7.13)
EJr mplo ~.7.2. Jl•llar l a d ensidad uspcctl'ul de In sccuo11ci11 aleotori11 esta· riouaria fotJlloda poi· los valorc8 de l a funcí(m alcalorin estacionaria X (1) co n la función cnrrdativa Dr "' 1•1 cns ro 0;, to modos 1;11da i nlervalo ó. L" lu11ei611 corr~lativn de la secuencia . en cnc~tión s.. determina por la !órmula
Cap. 5 Fundonu aleatorias ulttclonctr/as
donde q1 = · -®+ii.>oA, q, ... ,-'14- ii.iogrcslones genu1Hricn~. hallaremos la densiilad us¡>oc tral: d
tJ.D (
•x(ro) = 4n
2+
1 6
J
q,e "' -q¡• tw~
+
'lt 1•>4
e
- q,
+
+ llM
9zt
i - q,.1<•4
+ .1<06q,-
q,
)
•
(5.7.14
l..c dojamos al l('(' l.llr que por sí mjsmo demuestre quo en el caso de una f1111 ri611 correlativa mns gencr11l (!Ul.24) la densid"d cspoctral ~ expr~MIÍ ¡)(lr la fórmula que se difeTf!ncin de (5.7.14) solamente por el m11ltl¡>lícador adicional 1 - iy en los sumnmlo' con q1 y por el muHiplica1\or n1lícional 1 1 y on los sum~ndos con qz.
+
Las fórmulas (5. 7 .13) y (5. 7 .14) rnuestron que ]>a ra tod as las fu nciones correl ativas tipo de las func iones aleatorias estacionarias, las densidades espectrales de las secuencias aleatorias estacionarias correspondientc8 son funciones racionales de la magnitud e1 w~. Esto da razón para introducir en las fórmula.'! (5. 7.4) y (5. 7 .S) en vez de Ct> una nueva vodable z = e!"'"· Entonces, poniendo t o~ (z) = -¡;-~ (w) =
1 Tj .s; ( 1i.\ lnz )
(5.7.1 5)
y ten iendo en cuenta que dz = iz /J,.d<», reduzcamos las fórmul11s (5.7 .4), (5.7.5) y (5.7.8) a la forma
k,,, =
+J l o~(z) ~:
o~ (z) zm-1 dz.
(5. 7.1G)
e,
Dx =
d(ll)-- :tn. 1 O"
~ L..J
'·
,
(5. 7.17)
-m ,
(5. 7. 18)
1'mZ
17\=-oo
dor¡.de la integración se efectúa por las circuníerencia C1 de radio unitario con centro en el origen de coordenadas en el plano de la várfabl'e compleja z. Esto se ve del hecho de que para todas las w reales, la variable z es en módulo igual a la unidad y su argumento varía de - n a n al variar <» de -n/ ó a n//l. Las fórmulas (5. 7. tG), (5. 7. 17) y (5. 7 .18) se ut ilizan al llevar a cabo las investigaciones teóricas de la precisión do los sistemas automáticos discretos (de impulso); ellas no son cómodas para efectuar los c~lcul os práéticos. Con él-fin de reducir las integrales de lasfó1·mulns(5.7.'1) y (5.7.fl) 11 las integrlileg de las funciones racionales fraccionarias en los límiLes infinitos de la forma (5.3.29), conviene introducir una nueva varia-
245
§ 5.7. Secuen.ctas aleatorlaJJ estar!onarlas
ble, poniendo . :-1 •'""!>-i t>.=-+ ·i = e'·wt. +1 z
CúÓ
(5.7 .~9)
t tg-,>-. ~
De aqui se ve que para los valores reales de ro, la variable J.. es real y varía monótonamente de -oo a +oo al variar w de -n/1.1 a n/1.1. Además, ].. es función racional de z y, por lo tanto, para todas las !unciones correlativas tipo y sus combio.aoiones lineales, las densidades espectrales de las secuencias alE¡atorias estacionarias correspondientes rep-reseotan .funciones racionales -fraccionarias de i;. ·ne (5.7.19) se puede expresar la variable z en función do ]..: . !J. 1+0. (5.:7·.20) t=e"" = 'l-ii.. .. Derivando (5. 7 .19). hallamos 6 d'J.. = _ _
do donde (5.7 .21)
En virtud de las fórmulas (5.7.20) y (5.7.21), introduciendo la desig·
-s~~ (A.) = _.3._ sª (2arct..,. A.) = ¿\ X Ó o
20'd ( X
i~ ) . t+ - ti.
1
(5 • 7 ·-?2)
podeWOS ropresentar las fórmulas (5. 7 .4) y (5. 7 .5) en la forma
""r~,
,
5 -"
j
'''• =
(1+1'·)"' "" 1-li. 1-j- }.2
(A)
00
D.,= _Í
..
$.., (A.) 1.~\
'
(5.i.23)
Esta iutegral se puede calcular por la fórmula (5.3.29). La fórmul a para lá función correlativa debe ser transformada, suprimiendo l as magnitudes imaginarias en el denominador. Entonces obtendremos
_ fJ
km -
7
.
(t+i/..)2m
Sx (/\,) (l + ],,2)»•+1
d]..
-oo
o bieJ1, descomponiendo el numerador por la fórmula del binomio de Newton y teniendo en cuenta quo la función p. ) os par y que Ja integral de la función impar en los liruites simétricos con respecto 111 origen de coordenadas e.s igual a cero,
s..,
(5.7.24)
CAPITULO 1¡
RHpresentaciones canónicas de las funciones aleatorias
§ 6.L Tip11s de representaciones canónicas Para aplicar la Teoría rle fuuciones aleatorias a los problemas prácticos, Lieium gran importancia las expr~ionr.<s de funciones aleatorias arbitrarias en función de objetos aleatorios más shn.plcs. Las magnitudes aleatorias escalares corrien l.cs representan los objetos aleatorios más simples. En los §§ 3.8 y '3.!l vimos que las esperanzas matemáticas, las dispersiones y los momentos ele correlacióu de las funciones linc¡¡.le.s de una cantidad cualquiera de magnitu
+ v~=º" I Vvxv (t),
(li.1.1)
donde V" V~· ... son magniturlei; nloatorim; 110 corcclucionad <\S fjuya esperanzas matemáticas son iguales a cero. Los coeficientes ;1djuntos a las magnitudes aleatoriAs Vv dependen, evidentemente, de In variable. t, es decir, son funciones (no aleatorins) de la variable t. A tocla representación de una función aleatoria en forma de una combinación lineal de magnitudes aleatorias no correlaciona!l<1s la llamaremos descomposici6n canónica de la misma. A las funciones aleatorias V" las denominaremos coeficientes aleatorios de la descomposició11 cnnóQlCa y a las funciones xv (t), /unciones coordenadas. Expresando la función aleatoria X (t) por la descomposición canónica, se puede hallar también la rlcscomposición correspondiente para su función correlativa. Para ello pongamos en (6.1.1) t = t':
X (t') = m,,, (t') +
00
}] V,z,, (t'). v=I
(ll.1 .2)
247
Par11 cuolcsquiera valores fijos de t y t', las orngniLudes X (t} y X (t') d etermiuadas [JOr las fórmulas (6.1.1) y (6.1.2) representan las funcione.~ línea.les de unas ruisruas magnitudes alentorias no correlacio011tlas V v· Por lo tanto, el rnonionto de correl11ci6u do .)as.magnitudes a leatorias X. (t) y X (t') para cualesquiera vu lores fijos de t y t' so puede calcular por la. .fórmula (:UJ.8). Como l'esultado obtendremos para la función correlativn de la función alontoria X (t) la fórmula
..
_,
K., (t , t') = ~ D.xv (t) :i;... (t').
(6.1.3)
donde Dv son las d ispersiones de las magnitudes aleat-0rias Vv. Al doducir lo fórmula (6. 1.3), admitimos que en el caso general los coeficientes de la descomposición canónica V. y las .funciones .coordenadas Xv (t) pueclon ser complejos, puesto que en los problemas pr~c ticos conviene frecuentecoeo t c tepresentar las Iuo1:ioncs reales por series con términos complejos. A título de ejomplo puede servir la descomposición de la función real on la serie de Fourior con términos complejos. A toda descomposición do In función correlativa de la forma (6.1.;i) la llamaremos descomposición camínica de lt1 misma. Poniendo en la fórmula (6.1.3) t' = t, obtendremos la descomposicicí11 correspo11cliente piir
X (1.):
00
D,,(t) = Kx (t, t)= ~ D .. l;t,(t)i"·
{li.1.4)
v=\
El mielo hlauco reprcsen~a el tipo más simj)le rle una fu11ción aleatoria. Por eso se puede suponer que muchas operaciones soure una fwtción aleatoria arbitraria 8e liarán más simples, si esta función aleatoria se e.xpresa en fuuciúo del ruido Ltlnm:o. En el ejem plo !)A.1 vimos que el ruido blanco se puede rcpre..."1?nlnr en for111n ele una secuencia co ntinua de impul~os nlo11torios infinitesimales no co.rrclncionaclns carl11 11no de los cuale:; tiono Ulli\ diSJ)Crsiún infinitcsim11l. Por eso ln ex:¡.n:esión de la función aleatoria en I1111ción del ruido blanco ¡¡¡¡ la extensión de la ro¡1r~nt11~.i611 tl e su desco1nposición canónica (G.1.1) parn el cnso de sum11ndos i11fíniLe;;imalcs. Corno 1·esultado, la suma en (6.1.1) será s11stituid11por11no integnil y obttiudremos hl rcpreseutaci6n de la fun1:ión aleatoria X (t) en la forina >.2
X (l)
= m.< {t) + } V (i.) x (t, ;.) dí..
(Ci. 1.5)
J., donde V (/..)es el ruido blanco de parámetro t.. que vnrfa en el i11to1·valo t.. 1 ~ t..~ /..2 . A todn representación de una función ale11Lorio en forma de intcgrnl (0.1.5) la llarnaremos representación canónica lntegral de ln mistna. A los funciones .:r (t, A.) de la vm·iable t, corres-
Cap. /) neprescn tacion(!.~ canónit:
248
pondientes a distintos valores fijos del parámutro ). cm el intervalo A-:). las denominaremos funciones coordenadas de la representación canónfoa integral. De la represent ación canónica integral (6.1.5) de la función ale<1to, rill X (t) se deduce fácilmente la representación correspcimliente rle su función correlativa. Con ello, teniendo en cuenta que los sumandos elementales V (A.) x (t, A) d (>..) en la expresión (6.1.5) pueden ser complejos, a pesar de que la propia función aleatoria X (t) es real, vamos a pasar en la fórmula (6.1.5) a lrus magnitudes conjugadas complejas, sustituyendo en esta fórmula t por t'. Entonces obten
C'"t.
,
;.
X (t') = "'" (t')
+ 1V(/•'} :t (t' , A') d';./.
(6.1.!i)
~.
'l'rnnsponiendo en fas fórmulas (6.1.5) y (6.1.6) la esperanza matemática al primer miembro y multiplicando los valores obtenidos de la función aleatoria centrada, tendremos
Xº(t)Xº(t') ~
4 1'~
JJV(i,) V(>..')x(t, Á)x(t
1
,
/,' )dJ,d>.: .
(6.1.7)
i.t)·l
Ahora , teniendo en cuen t a la definición (4.2.13) do la fnnció.n correlativa de una función aleatoria corn-pleja, cxpcl'scmos la función correlativa del ruido blanco V(A.) po·r la fórmu la
Kv (A., A.')= :lf [V(~.) V (A.')J = G (f.) o(A. -l·.').
(6.1.8)
donde G 01.) es la intensidad del ruido blanco V(/.. ). De la fórmula (G.1.7), en vil'tud do (6.1 .8) , obtenemos ).2 )..a
K" (t, t') =
JJJ(. (!., Á
1 )
X
(l, ;..) X (t'. i:) di, dJ.'
=
>.1 >.¡ }.~Ni
=)} G(A.)o(í..->..') x(t,
7-.)x(t'. /..') df..di..',
(6.1.9)
At >.¡
<:;nmpllendo aquí la integración con tospecto a '}..', obtendremos definitivamente '-• Kx(t, t') = G(i.)x(t, Á)x(t', X:)dí... (6.1.10)
J
~.
Esta fórmula ofrece la representación canónica integral de la función correlativa de la función aleatoria .'( (t).
§ 6.2. Deuomposlc16ri ca!Wnlca tk una fu"ción ak4tortti
249
Poniendo en la fórmu la {6.1.10) t = t', obtendremos la siguientefórmula para l a dispersión de la función nleatoria X{t):
D.'C(t) = K .. (t, t)=
"•JG{>-) ix{t, }.)lid,•.
(6.1.H}
"'
La fórmula (6.1.5) muestra que la represent ación canónica Integra l de la función aleatoria la expresa en forma de una combinación lineal de magniiudes aleatorias infinitesimal es, no correlacionadas V(A.) dA con los coeficientes z (t, J.) dependientes de t; coti ello, la dlspersl6n de l a magnitud aleatoria V (}.) d'J.. es igµal a ~ {'J..) d'J... Aplicando · la fórmul a (3.9. 7) para .·Ja dispersión 'de ·una• comhio'ación lineal de las magnitudes aleatorias no correlacionadas "Y sustituyendo la suma por la lntegrlll, obtendremos preciBamente la fórmula (6.1.1'1). Las descomposiciones espectrales de funciones aleatorias estacionarias, examinadas en el capítulo precedente, son tipos particulares de las representaciones canónicas integrales del t ipo {6.1.5). § 6.2. Descomposición canónica de una fWl ción aleatoria
Sean V~ (v = 1, 2, ...) magnitudes aleatorias no correlacionadas arbitrarias con esperanzas matemáticas iguales a cero y dispersioues iguales a Dv:
M!Vvl = O, Dv = M
ilf[VvYµl=O si
ll V v l2J.
(6.2.1)
Hallemos las condiciones en las que la función a leat oria X {t) puede ser re pre.sentad a por la ilescomposición canónica (6.1.1) cuyos coeficientes deben ser d ichas magnitudes aleatorias V v· P ara esto escribamos la fórmula {6.1.i.) en l a formo x~ (t) =
..
2) V vXv (t).
(<1.2.2)
v~I
Suponiendo que esta descomposición ha sido oblcni1la, tendremos M [Xº (t) V14 ) = ~ M !VvV11I Zv (t).
(6.2.3)
\=I
En virtud de (6.2.1) todos los términos do esta suma son iguales cero, a excepción de tu\ O para el cual el fndice de adición ves igual 1\ µ. Por lo tanto, las fór mulns (6.2.3) y (6.2.1) dan 11
M¡X 0 (t)V11 J=D"z11 (t).
(6.2.4)
250
Cn¡" 11 flepresenta
(IL2.!j)
Ahora bien, para que la funci ón aleatoria X (t) pueda ser representada Jlor la del'co111posición canónica (6.1.1), es necesario que todas las funciones coordenadas :r1, (t) se expresen por la fórmula (6.2.!j), es decir, sean iguales a las relaciones entre los momentos de correlación de la función aleat-0ria xo (t) con las magnitudes aleatorias Vµ y las dispersiones de las magnitudes correspondientes Vµ. La fórmula (6.2.5) muestra <1ue para hallar la descomposición canónica
<
Jl
Vv =
Jav (t) Xº (t) dt,
(6.2.(i)
(t
donde a, (t) 1>ori ciertas funciones que deben ser elegidns de modo que las magnitudes V" estén no correlacionadas. Cambiauclo en fo iórmula (6.2.6) la designación de la variable de integración y sustituyendo la expresión obtenida en la fórmula (6.2.5), tendremos xµ .(t) =
~µ M
ti
[Xº(t) Ja
11
(t') Xº (t') dt'] =
et
=
ti
J
~,,,
aj) (t')
M [Xº (t) Xº (t')] dt'
(G.2-.7)
(t
o bien
~
x"(t)=
iJ" Jaµ(t')l(,,(t, t')dt' .
(6.2.8)
a.
. •) Teniendo en cuenta que las 1uagnitud<:s aleatorias v. pueden ser comploias, para que los cálculos ulteriores sean más cómodos, determinamos las funciones a., (t)- de modo que en (6.2.6) bafo el signo integral haya funciones conjugadas complejas ªv (1).
§
G.~.
Descomposkiiín ca11611tea de um1 funci611 aleatoria
251
Estn fórmula expresa las fw1ciones coordenadas x11 (t) por medio de l as funciones a11 (t) y la fun ción correlativa de la función a)eatoria, X (t). Parn deducir las condiciones a las que c,ieben satisfacer las funcioues ª" (t) con el fin de que las magnitudes aleatorias -Yv, determinadas por la fórmula (6.2.6), sean no correl acionndas, escribamos on virtud de (6.2.!'í) ~
Al [VvV 11J=
~
Jav (t) M [Xº (t) Vµ) dt = D Ja.v (t} 11
a
Xµ (t) dt.
(6.2.9)
a
De aqul se ve que para que las magnitudes a leatorias V v sean no correlacionadas y sus dispersiones sean iguales .a los ..n,(imeroS. C()rresp:o.11t dientes Dv, las funciones ª" (t) y xv (t} deben satisfÍlcer··l:a_s condici.ones
~
Ja.,. (t)
Xµ
(t) dt =
0
Si
µ 9'= 'V,
(6.2.10)
a fl
Í ª" (l) Xv (t) dt = 1.
(G.2. H )
a
Co111 únmonte eslas condicione!! se escriben brevemente en la forma ~
) a.v (t) Xµ (t) dt = t5vµ,
(6.2.12)
a
donde 6"" es una magnitud igual a la unidad cuando los indices son iguales e igual a cero cuando los índices son diferentes (~vv = 1, Óvµ = O para µ. 9'= v). Generalmente la igualdnd (6.2.12) se llnmn cortdición de biortogonalltlad de dos sistemas ele funciones Xv (t) y av (l). Así pues, para que las mugnitudes aleatori(ls V,.. cletcrminu.das por la fórmul11 (6.2.6), senn no correlacionadas y al mismo tiernpo la foncióu aleatoria X (t) pueda ser representada por la descomposición (G.1.1) es necesario que las funciones av (t) y las funciones x.., (t) determinadas por la fórmula (G.2.8) satisfagan la condición de biortogonalidad (6.2. i2). Es evidente que las condiciones (6.2.8) y (6.2.J2) s on tamhitin suficientes para que lns magnitud~ nleatorins V v• determi nadas por la l'óm1ula (6.2.6), sean no correlacionadas, pero, desdo luego, esto no demues tra todavia, que, ¡¡l cumplir las condicione!! (6.2.8) y (6.2.12), la función aleatoria X (t) puede ser rt!prosentacl n por l a descomposición co.nónica (6.1.1 ). Mostremos ahora que se puede hallar un sistema de pares de funciones a..,. (t), x,, (t) que satisfagan las condiciones (6.2.8) y (6.2. i2). Para est o tomemos una secuencia arbitrari a de funciones independien-
tes linealmente f 1 (t), f2 (t), .. ., magnitudes aleatorias
In
(t), .. . *) y determinemos las
Jl
U,=
J/,(t)X(t)dt
(r=1, 2, ... ).
(6.2.1.3}
"
Las magnitudes aleatorias centradas correspondientes se expresarán por una fórmula aaáli:>ga
U~=
6
J/,(t) Xº (t)dt
(r= 1, 2, ... ).
(6.2.14)
"
Hallemos las dispersiones y los momentos de correlación k.. d& las maguitudes aleatorias U1, U2 ... En vírtud de la defiaicíó°' (3. 7.6) y la fórmula (6.2.14) tenemos
k,.=.~f[U~U:J=
ll ll
JJfr(t)/$(t')M[Xº(t)Xº(t')Jdtdt'
(íi.2.15)
"' o:
o bien ll ll
J Jf,(t)f,(t')l("(t, t')dtdt'
k,. =
(r. s = 1, 2, .. . )
(fi.2.16}
" "'
Introduciendo , para mayor comodidad, las funciones ll
z,(t)=
J/,(t')K,,(t, t')dt'
(s= 1, 2, . . . ).
(l>.2.17)
"'
y toma ndo en considnación que debido a la simetría de la función correlativa
n
J/, (t) K,.
~
(t, t') dt =
"
jf
r
(t) Kx (t', t) dt = Zr (t').
(6.2.18)
"
podemos escrib ir la fórmula (6.2. i6) en la forma
r
ll
"
"
ll
k,.=
f,(t) z,(t)dt=
j
Zr
(t)j,(t)dt
(r, S= 1, 2, ... )
(6.2.HJ)
A:bora podemM construir el sistema de funciones aleatorias no correlacionad'as Vv , ·procediendo del modo siguiente. La primera función aleatoria V 1 puede sor elegida arbitrariamente, por ojemplo, se *) Las funclonQs J. (t), / 2 (t), . ... In. (t), .. . se denomin:in inJ.epenJieutes lioealmente, ~i para ningún valor do n. y ninguno de los valores e¡, c 2 , •• ., en distintos de cero. la combinac!ón lineal de estas funciones c.1 1 (t) czf2 (1) + (t) es idéoticamónte igual a. cero.
+ . .. + c,;fn
+
§ 6.f!. D-ompoolcl6n c;:inónlco de
UM
253
Juncl6n ouowrto
u:.
puede lomar V1 = La segwida magnitud V2 debo ser elegida de modo que sea oo correlacionada con V 1 • Para esto es s uficiente tomar V• = c31 V, U: de terminando el coeficiente c21 de la cond ición
+
v._,.
}
~-~ +u:.
V:=ci1V1
(6.2.20)
Vv=c. 1V1+c.aV: + . . . +e,..
,._,V._,+ lit,
y determinemo$ el coeficiente c 21 do la condición de no correlativi
u~ = ''" lf! = - C21V 1 + Vz,
Vt- = -
~- ~ .-,.~1~"~' :+" ,;":
e",V' - c.iV: ... : .. ; ,.
1
(6.2.21)
r J
Ahora, s uponiendo que todos los coeficientes c. 14 est6n determinados de modo que las magnitude3 V" V% sean no correlacionadas, expresemos las diSJ>ersiones y los momentos de correlnción de las magnit udes aleatorias lJi, coo ayuda de l as fórmulns (3.\l.7) y (:$.9.8). <:-0mo resultodo obtond remo:i
u:, ...
v-1
k 11 = Di. l~v• •"' ~ jc,..,¡'Dµ+D,.(v =- 2, 3, . . ;)
-c.
(6.2.22)
i-1
k, 1 =
1D 1
(v=2, 3, .. . ),
k.,.=c_,,c.,,D, + . ·. + cv. 11- 1C11 . µ-1D14-1 -Cvv.D11
(6.2.23) (ti.2.24)
(µ = 2, ... , v-1; \'=3, 4, ... ). Como lns dispersiones y los rnomenl-0s de correlocióu J;V'J' uc las m a¡;nitude~ aleatorias O, sou conocidOI!, eotonce:i las fórmulas {6.2.22), (6.2.23) y (Cl.2.24) pueden ser consideradas como ecuacione:1 ~1 ue oleterminan los coeficiEnHc.s incógnitos y las d ispersiones D. -de la.:s 1uag11itudcs aleatorios V v· Hesolviende> sucesivamente est11i1 .ccuacioues, obtendremos IM siguientes fórmula_q do recurrencia para
c.,.
Cap. ¡¡ ll•J>rtsmloclonLi canónicas de / u nclonei ak alorias
2M
l11s magnitudes D,., e,,.:
k"' D1= k11 . C"=-v.
(v = 2, 3, ... ),
1
(v = 2, 3, . . . ),
1 ~ (G.2.2!3)
v- 1
D. = k,,,.-Y jc,.~¡zn" µ- 1
µ-.
e_,, =
F (~ c,. .c,, .D,. -k, 1
µ
1,)
1
).- 1
µ = 2. .. . , '11 - 1,\ { V= 3, <Í, • . . }
J
Por est as fórmulns se puede determioar succsi v:unente las rnagniLudcs Du c.1 , D2. c,,2, D3, c. 8 ... Como resultado scrlin bailados todos los coeficientes c,, 1, en las fórmulas (6.2.20) y las disper:;iones de las magnitudes aloatorins no correlacionadas Empicando el procedimiento expuesto, se p\1ede construir el sistema de magnitudos aleaUlrias no correlacionados pa rtiendo de cualquier sistema de magn itucles aleatorias independiente linealmente. Ya bicimos uso de este proc<'dimicnto e11 el § 3.11 , dontlc en Yez de e,, .. eran los coeficientes 'l'v 11 = -c,I" Sustituyendo en (6.2.20) la expresión (G.2.14) de l a~ magnitud es alen torias centradas U:, expresemos las magnitudes aleatorfos V .. por la fórmula (6.2.6) donde los fu nciones ª• (t) se d.itormi nnn por l as fórmulas
v•.
ai(t) = /i(t), a,. (t) =
\1- I
Z c,µa
µ• I
11
(t}+ /v (t)
(v
=2 , ~1 ,
... ).
(6.2.2(i)
Susti tuyendo estas expresiones en la fórmula (G.2.8) para µ .., 1, 2, ... y teniendo en cuenta (6.2:17), obtendremos X¡
(t) -
•t (t) D¡
'
J.
x,.(t)= 1
=
v-1
[~
c"11 D,..i:io(t) + z. (t)J
(6.2.27)
µ;=!
(v = 2, 3, . . . ).
Asi pues, el método expuesto ofrece la posibilidad de hallar tal sistema de .funciones ª• (t), que las magniturles nleatorias correspondientes V•• de.terminadas por la fórmula (6.2.6), seon no correlacionadas, y el sistema correspondiente de foociones coordenadas .i:v (t), determinadas por la fórmula ((1.2.8). Estl!S funcione:s ª• (t) y z., (t) sa tisfacen la condición de biortogonaliclad (6.2.12), puesto que esta éoodición; como hemos visto, es consecuencia \ie la no correlativiy de la fórmula (6.2·.5) que en doil de las rnagaitüdes aleatorias este caso tiene la forma (6.2.8). Le dejamos al lector que pot sí mismo lleve a cabo la comprobación dirocta del hecho do que las funciones ª• (t) y x, (t), determinadas por las fórmulas (6.2.25), (6.2.26) y (6.2.27), sat.isfacen lo condición de biortogonnlidad (G.2.12).
v.
§ 6.2. De.$COmpostcl6n can6nica d~ u)w. función aleatoria
255
Eligiendo diversas funciones iniciales f, (t) de las cuales se exige solamente la independencia lineal, obtendremos diferentes sist em·as do paros de funciones a.., (t), xv (t) que satisfacen las condiciones (6.2.8) y (ü.2.12). Ahora bien, debido a la a.r bitraríedad de las funciones iniciales f, (t) se puede por una inlinidad de procedimientos determinar las funciones a.,,, (t), xv (t) que satisfacen las condiciones (ü.2.8) y (6.2.12). Puesto que las realizaciones de la mayoría de las funciones aleatorias que se encuentran en la práctica tienen carácter
en
O< <
~l
K,,(t, l ' )=De-«lt-l'I,
intervalo t 1' . Una vez det.erminndns lns funcion<Js /, (t) por las fórmulas (G.2.28), h11ll11mos por la fórmula (6.2.17) las funci one.s z. ( t). Teni(1nclo on cuenta qut' ~n esto c~so a = O, fl = 1', obtcnoremo~ T
T
t
z 1 (t)=D \ c- 0:11-n
~
dt ' =D { ) , -«(l-t') dt' ll
+ ~ e-ct(t· - i¡ dt'} = t
-D ( 1-e- o:t , 1-e-«(T- r) } _ D -
)_
T
CL
¡·>
-e¿- --e
-<.:i
_ 1.· 1-1)¡ -
y unúlognmente T
z 211 (t) ~v
} ~-a1 1 - 1 '1 sen w,,t' dt' = o
-
DCL
a'Z-f-w~
[2 s~ uro,,1+ ":'..,...'' e-at _ .-cx
d
:2.'iíl
Cap. 6 R epresent.acione1 cu116ntcas de /unciones aleatorias
Zzn+I (t)
=D
T
J
e - o:l< -l'J cos ront' dt'
u
J
-e+«
(1~=1,
2, .. . ).
füisLiluyendo las l!Xprusiones obtoaiclas y las (6.2 .
'En
~to
e.aso cM
IJl,. 7'
t, sen w,. 7' = O
=
y Ja fórmula (6.2 .1 9) da
T
Jf z¡ (t) d l =
k11 =
721) (e - a.T -i+aT),
u T
k1,2n=k2n,1=
J•2n(l}dl=O, o
r k1.2n +1 ~ l
r Zzn..i (t)dt=
2D(1-.-o:r)
J
az + ro•
O
n
r
k2n+1. m+I
= J•~n+t (1) COS <~ni dt o
1'
k>n+I, 2m+t
=
J
Zzn+I (t) COS IDml dt=
2Da~ (1-- e- o:T¡ (ai
+(l);J (a2 + ~>~)
T
k 2n, 2n =
i\
Da [ •2n. (t} sen Cll,. t dt -- -~~~ '1'
~ +~
T
k: n, :m =
~
o
• 2 n (t) sen Olml di
+
2<J)Stn
•
a.~+ ~
] (t - e - o:r ¡_ ,
2D(l)nWm (t-- e - a.T¡ (a.• + w~) (ai+ro-;,.)
(n , m= t, 2, ... ).
Una vez determinados los momentos de corrclación k 7 . , calculamos, por las fórmulas (6.2.25), sucesivamente las magnitudes D, , '"'' Dz, "vi• D., e"., . .. Gon ello, nos convencemos de que en oste caso todo• los <;oeficie11tP.s e"'" r.on los ind ices de distinta paridad, S<>n iguales a c~ro. Por [in, con 3y\ldl\ de las ·f órmulas (6.2.26) y (6.2.27) hallamf)S la• funciones "" (t) y las funciones c
§ 6.3. F6rmula ¡¡ara el término residual
denadas :r" (t):
at(t)=i,
257
a2 (t) =senw 1 t, a 3 (t}=c31 +cosw 1t,
n-1 ª:n (t)= ~ c2n. :mªim (t)+scnwnt, m=\
n ll:n+I
(t)= ~
C2 n+ I, :m-t42m-1
(t)+cos(J)nt
(n=2, 3, . . . ),
m=l
Z¡
Z¡
X3
"2 (t)
(t)
(t)= ---v¡-
Za (t)=--z¡;-
1
(i) n-\
r~n (t) =
1
.o!n [ ~
Czn, :tmZ2m (t}
+ •!n (t)J,
m- 1
z2n+1(t)=
02~+!
n
[
~
C2n + t,zm- 1.t:2m-1(t)+z2n+1(t)J
(n=2, 3, . . . ).
m= I
§ 6 .3. Fórmula para e l té.r mino residual de la descomposición canónica
La precisión eou que la función aleatoria viene re11resentada por el segmento final de la descomposición canónica se puede estimar por la magnitud relativa de la esperanza matemática dol cuadrado del módulo del t~rmino residual o bien, lo que es lo mismo, de la disper!!ión de esle término. Poniendo
Rn (t) =Xº (t) -
" VvX v (t), ::i]
v- t
(6.3.1)
podemos escribir M 11R,. (t) 121= M [R,. (t) Rn (t)l = M [ 1Xº (t) 1~1-
,,
- )j {M!Xº(t) Vvl x.,(t)+M {Xº(t) Vv! ~· (t)} + v- 1
+
n
L; .tl1[V"V,,.J Xv(t)x.., (t) '\',µ= I
(6.3.2)
o bien, teniendo en cuenta (6.2.1) y (6.2.5), n
M
11 R.,. (t) l~l =
Dx (t) - ~ {Dvx,. (t) x,, (t) + D-.,xv (t) Xv (t)} + v=I
n
n
+ V=tl L1 D,,x_. (t) x..,(t) = D x(t)- v= ~ n.., jxv(l)I'· I
(
Ahora bien, l a dispersión del t érmino residual de l a descomposición r;nnónic
2iifl
Cap . 6 Rtprtsenlariones cu111inica• ele /un.done.< al.:aforia•
mula n
M
11 R,. (t) 12 1~ /)_. (t) - 2j
1
D v Xv
v= l
(t) ¡z.
(ti.3 .4)
Como u1111 característica práctica cómoda de la precisión con que Ju fllndó11 ale~torfa viene re1ireseut<,da aproxim¡1dnmcnte por el scgmont.o final de su descomposición cn11ónic11 sirve el error relativo en la dispersión do la función aleatoria 811
__ M 11 l? n ( t) 12] (t) l>x (1·) .
(6.3.5)
Si la dispersión del término residual t iende a cero cuando n--... oo pal'a todas las t eu el intervalo a~ 1 ~ ~: lírn ilfl 1R n (t)l1 J= 0
(a .t; t ~ ~),
(().:U-i)
1l-oo
entonce.<¡ se el.ice que la descomposición (o.1.1) converge en la meclia rnadrática. en el intervalo a ~ t ~ ~. Se puede demostrar que para cualquier función aleatoria con dispersión Iinita existo una iníinidarl de descomposiciones canónicas que convergen en la media cuadrática a esta función alcatorii~ en el intervalo finito asiguado de antemano. Aqui nos limitaromo.s a fo demos tracióu de esta afirmación par11 un lip<> particular ele descomposiciones canónicas cuando on calidad de coeficiel1 tes aleatorios de ln descomposición V v se elige1t las combinaciones lineales de los valores de la función aleatori ¡¡, centrada X 0 (t) en Ja serie discreta de puntos de intervalo a.~ t ~ ~ •). Eligiundo como rnagniLudes ¡¡Jeatorías V v las combillllciones lineales de Jos va lores de la función aleatoria centrada XQ(t) en una sel'ie discreta ele p1111tos t 1, t 2 , • ••• tn, dispuestos en el intervalo a~ t ~ ~. podemos tomar la primera combinaci{m indicada de un modo absolutamente arbitrario; la segunda combinación debe someterse a una únicu condición de no correlatividad con la primera, ele.; la
§ 6.8. Fórmula para el Urmi110 residual
259
les de las funciones delta correspond ientes
" a,.,116 ( l - th)· av (t} = ~
(6.3.7)
11=1
Para esto es suficiente tomar en calidad de funciones/, (t) las .combinaciones lineales arbitrarias de l as mismas funciones delta: · n
f,(t)=
2J /,1tB(t-t,.), h= I
(6.3.8)
donde /,11 son coeficientes ar bitrarios. ·E s evic;lel) te que p¡1ra cúi;1l:quier n fini ta existen sol amente n combioaciones linea~mente il).depi¡l)~ dientes de funciones delta del t ipo (6.3.8). En particular, en la fórmüla (6.3.8) se puede poner f ,,= 1, f rh = O cuando h =/= r (r = .1 , 2, •. .·,n). Sustituyendo l a. expresión (6.3.8) en las fórmulns (6.2.17}"y (6.2.19), determinemos las funciones z, (t), así como las disp·e rsiones y los momentos de correlación de las magnitudes aleatorias U , (r = = 1. 2, . . . , n). L uego, determinando por las fórmulas (6.2.25) los coeflcieotes C-vp. y las dispersiones D,, de las magnitudes ale<1torins V" (v = 1, 2, .. . , n), hallaremos con ayuda de las fórm ulas (6.2.26) los cot>ficiontes avh en lil fórrnula (6.3.7). A continuación, susliluyendo la expr esión (6.3.7) en (6.2.6) y (6.2.8) y cuin}llieudo la integraci ón 1teniendo en cuenta la fórmula (2.2.6)1, reduzcamos las fórmulas (1$.2.íl) y (6.2.8) correspondientement.e a la forma
" a,.hXº(lh) Vv '= ~ ¡, .... -t_
(v=1 , ... , n },
((i.3.9)
n
x" (l)= LJ,,
~ av1.Fíx(l , l11) (v=1, 2, . . ., n}.
(fi.3.10)
1•= 1
L11 condición de biortogon
,, 2'. ª"hXµ (th) = <5"1'
'•= 1
(v, µ = 1, . .. , n) .
(ti.3.11)
Por fiu, la descomposición canón ica (6.1 . ·t ) de la función aleatoria X (t) toma l a forma n
X (t) = m x (t)
+ V=1 L: Vvxv (t) .
((l .~ . 12)
Demostremos que esta igualdad el\ exacto en todos los puntos t 1, t 2 , • •• , t,.. Pnrn osto, e n virtud ele (G.3.íl), escriba in os n
11
n
~ l'"r,. (t1,) = ~~ 2.~ a,.hXº (th} :e,. (t1<) =
" ....... 1
v ,.. \ h - 1
=
n
"
h-=' 1
v=1
¿~ Xº (t1,) ~
(le = 1 , 2 .... , n).
( G.3.13) 17"
280
Cap. 6 Rtprtuntaclonts canónica8 de JuncloMs al
Poniendo, para abreviar, n
bM = ~ ~:¡:,. (th)
,,_,
(k, k = 1, 2, .. . , ll)
(Ci.3.14)
podemos escribir la igualdad (G.3.13) en la fo1·ma n
n
v=t
h.:t
~ Vvxv(t11) = ~j bh11Xº(t,. )
(k - 1, ... , n).
(6.3.l 5)
Tomemos ahora las igualclades (6.3.11) correspondientes al valor fijo del índice v:
+ x (t2 ) + ... + a,.,.x, (1,.) = O, t,) + avzXv- J (t~) + · · · + ª·vnXv~t (L-,,) = av1Xv (t1) + av2Xv (t:) -f- · · · -f(t,,) = 1
ª"'x1 (t1)
)
av 2 1
av 1Xv- 1 (
O,
llvnXv
1 / (6.3.16)
.ª~·~~1.(t~) -~ ~v~X~~I ~~) :-. •.. ... ~~v~X~+.I ~t~~=: ~ J llv1 %,,
(t,}
+ ª•: x,,
(t~)
+ ... + a.,, x,, (t,.) - o
M\Jltiplicando la primera de estas c.cuaciones por ª•h• \a segunda por a:h y, en gcnernl, la 1i-ésíma ecunción por aµh y sumándolas, obtendremos en virtud de (6.3.14) av1b1•1
+
av2
b112
+ ... a.11 b1m =
avh·
((1.3.17)
Asignando aquí al índice v los valores v = 1, 2, ... , n, obtendremos un sistema de ecuaciorrns algebraicits l inealc!\ que determina las mag nituclcs iucógnita.'i bhk correspondientes al valor dado del íntlice 11. ~s evidente qu e el sistema de ecuaciones (6.3.17) correspondientes o v = t, 2, ... , n, tiene la solución (6.3.18)
Est11 solución es único, puesto que debido a la independencia lineal de l as fu nciones ªv•el determinante del sistema de ecuaciones (6.3.17), compuesto de los coeficientesª"~ (v, k = 1, 2, ... , n), no es igual a cero. Asignando ai indice h en (6.3.18) todos los valores posibles h = i , 2, ... , n, hallaremos todos los coeficientes bhlt· Ahora bien, l as magni tudes bhA• determinadas por la fórmula (6.::1.14), con los mismos índices h y k son iguales a la unidad y las demás son iguales a cero. Por consiguiente, la fórmula (6.3.15) toma la forma
" V ..x. . (ti.) -Xº (th) ~
(k = 1, 2, ... , n).
(6.3 .19)
v~1
Así pues, nuestra afirmación que la fórmul a (6.3.12) repre:!Cnt11
§ 6.3. F6rmula po.ra el térml110 resid11.a l
261
exactamente la función aleatoria X (t) en los puntos t 1 , t 2 , • • • , t,, queda demostrada. La fórmu la (6.3.19} muestra que en todos Jos pun~os ~ 11 , •• , t,. la función aleatoria X (t,,) se expresa exactamente por la descomposición canónica que contiene n términos. Por lo tanto, la dispersión del término residual R,, (t) en este caso es igual a cero. cuando t = t 11 t 2 , • • • , tn. En el caso de una función correlativa continua las funciones coordenadas x., (t),. determinadas por la fórmula (u.3 .10), también son continuas, debido a lo cual tambi"én la dispe;. sión del término resi.dual R,. (t) es función continua de ·t . Por · eso~. eligiendo n lo sufi"cientemen te grande, podemos disponer l os -puntos t 1 , t 2 , . • • , tn de un. modo suficiente:o1ente denso en el inter:v·a:to a :s:;; t.«;;:~ para que l a dispersión del térmirio residual sea tan pequeña como se quiera en tod.os los puntos del intervalo a :s:;; t :s:;; ·~. Ahora b ien, al aumentar ilimitadamente el número de puntos en el iuwrvalo a :s:;; t ~ ~ de modo que la distancia máxima entre los puntos vecinos tienda a cero cuando n-+ oo, obtendremos la descomposición canónica de la función aleatoria, la dispersión de cuyo tér· mino residual tiende a cero cuando n ~ oo, j>ara todos los yalores de t en el intervalo a :s:;; t ~ ~- Como consecuencia de 111 nrbitra riedad de los coeficient.es /,11 en la fórmula (ü.3.8}, podemos obtener una infinidad de tales descomposir.iones c:mónicas r.onvergentes. Así pues, hemos demostrado quo toda función aleatoria que tiene una función correlativa continua puede ser ropresent ado en cualquier intervalo finito, valiéndono~ de una infinidad de procedimientos, por una descomposición canónica que converge n ella en la media cu¡1drática. Está cl aro que para la práctica tiene im porLancia no la co11vergencia de la descomposición canónica, sino la posibHidad do obtener un error medfo cuadrático de re presentación de la función aleatoria, por un número pequeño de pri meros términ os de l a descomposición c.anóoica, lo suficientemente pequeño. En lo que a esto atañe, conviene observar que las perturt>aciones aleatorias de entrada de los sistemas outomáticos, como regl a, no pueden ser represcnlad;ii- con precisión admisible por un número pequeño de términos de la dcscompo11ición canónica. Sin embargo, en est.e caso el sistemo que se examina deja pasar de ordinario sólo un pequeño número de primeras funciones coordenadas y, debido a su capacidad de inercia, no rloja ¡1asar la mayor parte de dichas funciones. Por eso, para .investig11r la 1>rec.isión de los sistemas automáticos, es suficiente de ordinario tomar en las descomposiciones canónicas de perturbaciones de crutrado un número relativamente pequeño de tórminos (de 20 a 30}, 11 pesar de que con ello se obtiene una precisión muy liaja de representación de las propias perturbaciones al eatorias indicadas.
262
Cap. 6 ft•prcuntaclones canónicas lk fun cl(,nts al•atorias
§ 6.4. Construceión de la dcscorn¡)()Si ci6n canónica de unu función alenloria por Ja descomposición ca11ónica dr. su función con claliva En los problemas pl'ácticos se logra a veces Jrnllar con re la ti v11 facilidad la descomposición cauónica (6. 1.3) de la función correlativa. Demostremos que n est a descomposición le correspondesiempre la descomposición canónica de la propia función aleat-oria con las mismas funciones coordenadas. Supongamos que se logró representar la función correlativa do la función aleatorio X (t) por la descompe>5ición canónica
..
K.,. (t , t') = ~ D,.xv (t) x,. (t').
(ll.4.1)
v= l
S upongnmos que esta descomposición representa la funcíón correlativa en el cuadrado a~ t, t' ~ ~· Demostremos que a la descomposición (6A.1) le corresponde la descomposición canónica de la función aleatoria X {t) en el intervalo (a, fl) con las mismas funciones coordena
X(t) = m,, (t) +
¿; V,,x,(t).
(U.4.2)
,·~ t
Para Jo doenost.ración basta h11 llar un sistema de fuucione::s av (t) que satisfaga n, junto co n l as funcionos Xv (t), las condiciones (6.2.8) y (6.2.12) en el intcrvulo (u, ~). Eotonccs las magnitudes alealori11s V v• determinadas por la fórmula (6.2.(i), ~erán no correlacionadas y sus dispersiones serán iguales a los números correspondiente.~ de Dv. Con ello. la dispersión 1lcl término residual de la descomposición (6.4.2) tenderá a cero (lar11 todos los valores de ten el intervalo (a, p), e n virLu
(
J
(6.4.3)
a
Esta ex_preS!On se denomina comúnmente producto escalar de las [unciones
(1p, '1jl) =o. Primeramente hallem9s el sisteo;ia de funciones auxiliares g 1 (t), g1 (t), .. ., g,. (t) quo poseen la propiedad de ser·cada una de ellas ortogonal a todas las ru nciones xv (O con números menores y no ser
.9 6.4. Cot1strucción de la descomposlctt>n canónica ortogonal a la función zv (t) cou el mismo número: (g.., , x,.) = O ÜL < v}, (g..,, x") =FO (v = 1, 2, .. .).
263
(6.4.4)
Para esto tomemos una función arbitraria / 1 (t) que satisfaga la condición (6.4.5) U1 . Xt) *O, y pongamos (6.4.&) K1 (t) = f 1 (t). Luego tomemos una función arbitraria / 2 (t) independiente liuealmente de f 1 (t) y pongamos gz (t) = b21 g 1 (t) (6.. 4,. 7) 2 (t).
+/
En v irtud de (6.4.5) y (6.4.6), el coeficiente b21 se puede elegir de modo que la función g 2 (t) sea ortogonal con respecto a x 1 (t). Multi• plicando la igualdad (6.4.7) por x 1 (t) e integrando en los límites de a a ~. obtendremos (g2, X1) = b21 (g,, Xi) (/z, Xt)· (6.4.8)
+
'Igualando esta expresión a cero, hall amos b 2,: /1 21
~
-
(h , :ti) (g,,
(
•
% 1)
Luego hallamos la magnitud (g3 , x 2). Si esta magnitud resulta ser igual a cero, es necesario cambiar 111 elección de la función / 2(t) para satisfacer la condición (g2 , x 2 ) =fo O. P rosiguiendo de tal modo, supoog&mos que han sido halladas los funciones g 1 (t), g 2 (t), ... , Kn-t (t) que satisfacen las condiciones (6.4.4). Tomemos uua función arbitl'aria In (t) linealment e i ndependiente de / 1 (t), fz (t), .. ., f n- I (t) y supongamos que gn(t) = b,.¡g1 (t) + ... + b,.. n- lgn - 1 (t) f n (t). (6.4.10)
+
Multiplicando esta igualdad por x 1 (t), integrando en Jos límites de a a ~ y teniendo en cuenta qun las funciones Jfa (t), ... gn-i (t) son ortogonales con rospccto a x 1 (t), obtendremos (g,., X¡) = bnl (g¡, .'t't) (fn, X¡) . (6.4.11)
+
Igualando a ce1·0 esta expresióu, hallarnos bn 1 ; bn1
= -
(Ín• .1:t)
(lit•
X¡) •
(6 ,,., ' 1'>) ¿;,
Miltipliquemos ahora la i.gualdad (6.4.10) por xµ (t) (µ < n) e integremos en los límites de a a p. Entonces, tomando en consideración que l as funciones Cµ+• (t), .. ., g,._1 (t) son ortogonales con rcs1lecto a xµ (t), obtendremos (gn• Xµ)= bn (gt, Xµ)+ • •. b,.µ (g,., X 11 ) +Un • .: i:¡1 ) . (H.4.13)
+
lW/o
C11p.
(j
Reprrten laclones co11ó11icas de funrimrrs nlt 11toria.v
Igualando a cero esto expresión obtenemos l o fórmula recurrente purn los coeficientes b,, ,,: b _ (/,,,;r")+bn1(K,.rµ)+ ... + b,, , .,_ i(g,,_, ,xµ) (6.4 .14) " 1' - (Cu. x ,) 1
üt = 2,
3, .. . • l! -- 1).
Una vez delerruinad08 por las fórmu las (6.4.14) los coefícieuLos b,, 1 , b,, . ,, _, , hallamos Ja magnitud (g,., x,,). Si ésla resulta igual o cero, debemoll nlcanzar que no sea así, variando la elección de la función/,. (t). Asi pues, tll procedimiento expuest o permite hallar el sistema de funciones g, (t) que satisfocon las co:nd icioocs (!3.4.li). Determinemos ahorn l as fnncionos a,, (t) .Por la fórm ula
..
a., ( t) -= ~ c;,,,,g1• (t)
(v -= 1 , 2, ... ) .
).-.v
(C.4.15}
Co rno lns funciones Kv (t), Cv+ • (t) ... son ortogo1111 les con re~pecto n t otla:-; las funci ones x 1 (t), . . ., :tv - i (t), entonces la función ª" (l} es ortogonal con respecto a x 1 (L), x 2 (t), .. ., x,, _1 (t). Por consiguiente, cligieudo los coeficientes Cv>.· quech1 alc11nz11r que cada función av (t} sea ortogonnl también con respec to a todas las funci<>nel'! x,.+ 1 (t), x,+ 2 (t), . . . , y la intugral de su producto por x,, (t) sea igual n la unidad. Mul tiplicruido (HA.-15) por .cv (t), in tegrando en los límites de a a ~ y t eniendo eu cuenta qui! todas l as funcione:; F:.r+i • g,,+z {t) ... son ortogonales c;on respecto a .:t,, (t), obtendremos (6.4.16) lgu nlando esto magnitud a la unidad, hallamos el coefjciente e,,..,: Cvv =
1 (ll'v• :r.,,) •
(~i .4 . 17)
Multipliquemos ahora la igualdad (6.4.15) por x 11 (t) (µ > v) e integremos en los lím it~ de a a fi. En tonces, tomand o en consideración que todas las funciones g .,.+ 1 (t), g .,.+ 2 (t), .. . son ortogonales con respecto a x 14 (t), obtendremos (a,,, :r14 ) = Cvv (gv,
Xµ)
+ ... +
Cy,
1<-I
(g 14
_,x..) + + Cvµ (g1,, X14) .
(6.4.18)
Igualando a cero esta expres ión, obtenemos la siguiente !ó1·.mul a recurrente par a los coeficientes cv, 11; '"" (/lv1 Z¡¡.)+ ••• +e,., i<- 1 (C1<-h .e., ) Cvµ = - - - -- - ,(-1{µ-.-;r-µ.,..)- - -- - -
(µ= v + 1, v +2, ... ,
V =
1, 2, .. . ).
(6 .4 .19)
§ 6.4.
Co11~1r1ucl{m
dt la dtttomposlclón
ca11~11tca
P rosigu.iendo por esta vía, se pueden determinar sucesivament41 todos los coeficientes cv 11 de modo que las funciones a_,(t), determinadas por la fórmula (6.4.15), satisfagan la condfoión de biortogonalidad (6.2.12). Demostremos que estas funciones satisfacen también todas las cond iciones (6.2.8). Para esto sustituyamos en (6.2.8) la expresión (6.4.1) de la función correlativa. Entonces obtendremos~)
=+ ~ 00
Xµ
(t)
D,, (aµ , Xv)
Xv
(t).
(6A.20)
1 ' v- 1
Esta igualdad se convierte en identidad puesto que las fun'cioncs Zv (t) satisfacen l a condición de biortogonalidad (6.2.1,2). Asf pues, el sistema hallado de funciones av (t), junt o con las· fun• ciones coordenadas x" (t), satisfAcu todos las condiciones nece~arias. Por lo tanto, las magnitudes aleatorias V., determinadas por la fórmula (6.2.6), no son correlacionadas en virtud de la igualdad {ü.2.9) y sus dispersiones son iguales a los números corrt'spondientcs de D~ . De aquí se deduce también que todos los números de Dv son positivos. Por eso la función correlativa puede sor representada por la descomposición canónica (6.4.1) solamente con los coeficientes positivos de D ... 'Por fin, en virtud de las fórmulas (6.3.4) y (6.4.1), la dispersión del término residual de In descomposición canónico (6.4.2) de la fw1ció11 aleatoria X (t) tiende a cero pura todos los ''a lores de t en el intervalo a·~ t ~ ~· Asi pues, hemos clemostrado por vompleto In afirmución enunciada. El proceso expuesto de detarminttción de las iu11ciones a, (t) que satisfacen, junto con las funciones dadas x,. (t), las condiciones de biortogon11lid11d (6.2.12) se puede continuar teóricamente sin límites. Prácticamente, si empre conviene limit11rlo a cierto número finito de funciones. Después de determinar por el procedimiento expuesto las funciones g, (t), g2 (t), ... , g,. (t) que satisfacen las condiciones (6.4.4}, hallnmos las funciones ª• {t) en forma
ª" (t),
"
n,. (t) = }l c".,.g~ (t) (v = 1. 2, ... , n).
(G.4 .21)
A:=-v
Una vez determioados los coeficientes
c.,. por las fórmulas
(6.4. 17)
y (6.4.19) para v ~..., 1, .. . , n, h~llaremos las Iuncione8 a1 (t), .. . . . . , a,. (t) que satisfacen, joli to con las funciones x 1 {t) , x 2 (t), . . .
. . . , x,. (t), la condición de biortogonalidad (6.2.12). Si In función correlativa de la función aleatoria X (t) se expresa con suficiente precisión por los primeros n términos de la descomposición (6.4.1), en t ooce:i las Iuncíonll.'l a, (i), ... , an (t) halladas de
•>La i ntL'gl'ación término a término de In 11erle (ll.la.t} es posible si estH serle converge uniformemente c-00 respecto a cada una do las variable11 en el int-0rvaln (a, 6). Generalmente esta condición so cumple, si la función eorl'(tlati va K,. (t, •')u limitada y contiuua.
Cap. 6 J(epresentacion.es canbnicas de f unct,,r>.es aleatorias
W ll
este modo , satisfarán aprox imadamente también, junto con las funcione. x, (t), x2 (t) , . . . , Xn (t), las condiciones (íi.2.8). A co nsecuencia tll• osto la fórmula (6.4.2) ofrccll la de~compos ici6n canónica a prosim nda de la Junción aleatoria X (t), que contiene n términos. Con ello, la dispersión del término residual será aproximadamente igual , en virtud de (6.3.4), al término residual del segmento correspondiente de la desc.ompos ición (OA . ·l ) cuando t = t'. F,jrmrlo 6.4. 1. l:iupongamos que la fu nción correlutiva ne lq lundó n al,•alol'in 1:~t.~cio11nria X (t) ~e 1~xprc.
..
2J
k,,(tJ =
/)y C0$(l)y't .
\1=71
Al
1·~¡¡r~~~ntar Cl~lR
fórmula
e11 la
foruia
n
k". (t - t' )= ~ (D,, S~ll <11"1 S(IO ro,.¡' + Dv CoS ol~t C!)S Colvl' ), 'V':SJ
<1bsurv~nH1s
guo é~t.n
X (t)= illx-1- ~ (Uv :;cnro,.t .·f-Zvc.lvL). v- 1
A1111í U,, Zv sou magni Ludc•~ alMtori:is no C
f"'
z 1 (t)
=
!'(In
<•»t,
;r.2 (1)
= cos ro.e,
:r. 3 (t} ~
son
S upongamos también que / 1 (t) = sen ro1 t, /: (t) = cos ro 1t, /, (t) = sen
(i)zt,
@2
t,
z 4 (t} = cos
013 1.
/ 4 (t) = cns ro 2 t
y eligimos la primera función g 1 (t ) coi ncideute con {1 (t ): T
g 1 (t) =&mro1t,
(g1o :c1) =
5sen210,1dt=T. -T
La s~guuda función g, (t), ortogoual con rcs11ect.o a la primnra función c.oorder1ada :l'.2 (t), la hll5Camos eu la forgia g2 (1) = b 21 g 1 (t) 2 (t). El c11oficiente b21 lo determinamos de la condición d~ biortogonali
+/
T
g2 (t)=cosoo.1.
(e,. x 2) =
Jcos~ ro,1 dt ='l'. 'f
267
§ 6.4. Construcción .de la d<scomposició11 ca.nónica
+
+/
Luego suponemos que sea 8• (t) = b 31g, (t) b 32 g2 (1) 3 (t) y busc·nmos los coelicientcs b 31 y b 32 de la ·c ondición de ortogo11olidad de g 3 (/} con tespei: t o a x1 (1) y x 2 (t). Como resultado hallamos g3 (t)= -
8 sen (l)2t + senw 21, a;¡-
Suponieodo que g4 (t) = b 41 g 1 (t)
+b
" (g3, x 3 )=1' ( 1-9iii') .
g (t)
42 2
+ b.,g, (t) + f, (t)
y determina·
dos Jos coeficientes b11 , V. 2 y bu de la condición de ortogonalidad de g, (t) con
ru~p<'<'to
a
.r1 (t),
g4 (t)- -
x 2 (t) y x3 (t). hallamos
4 cos (l) t+cosro t, (g , x4)=T ( .1 - Snt 16 ) . an 1 2 4
Una vez. detorDlinadi!S las funciones llv (t), ~u¡>
+
=
+
+
T(!ln~~-li 4) (3nscnti>1t-8son<1>~t).
ª• (t)
+
+
Ut~puéR de p
3n T(9n•-t6) (3nCOS(ll¡t -4w.sro,t).
az(t)
+
l lm1 \ C7. ~ul·st.o ri 3 (t) ~ r. 03 g 3 (1) r 3;g, (1) y dote.rmínado ~I COl•ficil'llle C33 de In ct1111hci611 (o., .:t.} = 1 y (I} coeficiente c34 dn la condición dt! ortogonalitlnd
aa
3n (8 scnro11-.,n&i11c12 " T ( :rZ-S4) t). 9
P or fin, pon iendo a, (t) = cug, (t) y hahiondo deti>rmilllldo el cooficieut.c ""
=
3n 1• (9nZ- ill) (4 co.s ro.1t-3n.cos (1)21).
LI' ckjnml•~ al lector que por sí mismo compruch« q110 las magnilu•lt·s ulcat.<wias r +~· U 1 = .~ xo (t}sen 10,1 di, Zi = ~ xo (1) cos oo 1t dt, ~T
-T T U2 =
J
T Xº (t) sen ro 2t di , Z2 =
J xo
(t) cos m~tdt
-T -T no ron corrclacion:1das; í:on ell(l , la~ 1nagnítudes u, y y las magnitudes U 2 y Z2 , la dispersióu D 2•
z, tienen la d isp~r~ión D1
2.68
Cap. 6
R~prcuntacionn
con6ncla• dt funcionci akatorias
§ 6.fi. Represcntnclón canónico integral de une función aleatoria
Sea V (i..) un ruido blanco arbitrario: l\1f 1V (l.))= O, } K, (i.. A.')= M [V p.) V(>.'))= G ('.) ó (l. - ?.'),
(G.5. l¡
donde G (i..) es la intensidad del ruido blanco. Hallemos las t:on diciones en que !11 función aleatoria X (t) puede ser expresada por medio de este ruido blanco V (A.) por In integral (6.1.5}. Por.a BSto hallemos fo función correlaeiva recíproca de l a función aleatoria X (t) y del ruido blanco V (A.}, suponiendo que la función aleatoria X (t) se expresa por la representación canónica integral (6.1.5). Aplicando (4. 7.4) para la función correlativa reciproca y la integral de ella, obtendremos para todos Jos valores de A. en el intervalo t.,< A.< 1,2 ¡.,
K,,.(l, ?.) -= ~ x(t, µ)G(i..)6(1.-µ.)dµ=G(i-.)x(t, t.).
(U ..).2)
).,
De aquí se deriva que l a función coordenada z (t; A.). para cadR v11lor dado del parámetro >.., debe expresarse por la (órmula x(t, ?,)=
K,,o~}.) ).) -=
c'¡i.) M[Xº(t)V(i..)l.
(6.5.3)
El segundo procedimiento posible de deducción de esta fórmula es semejante al procedimiento de ded ucción de l a fórmula (6.2.5). Escrib:imos In igualdad (6.1.!i) en la forma J.1
xu (t} =
J
V (i..) x (t, )..) dA,
(tl.!l.4)
'·'
multipliquéroosla por la función aleatoria V (µ) y tomemos 11.1 esperanza ma~mática de los miembros derecho e izquierdo de le. igualdad obtenida. Entonces, en virtud de (6.5.1.) obtendremos
,,.
M [Xº (t) V(µ)]=
JM [l! (J.) V(µ)] x (t, !.) dJ.. =
~.
A<
= JX (t,
i..) G (l.) 6 (/.-µ)di..= G (µ)X (t, µ).
(6.5.5)
~.
Es precisamente de aqui de donde obtenemos la fórmula (6.5.3). La fórmula (6.5.3) muestra que el ruido blanco V (i..) debe ser correlacionado con la función aleatoria dada X (t). El ruido bl anco V (i..) correlacionado con la función aleatoria X (t) conviene buscarlo en
§ 6.5. Representación de una f1mclon aleatoria
269
la misma forma en que buscamos las magnitud·es aleator-ias ·n.o ·correlacionadas V" at hallar la descomposición canónic:a de .la f unción aleatoria X (t) en el § 6.2. Para esto tomemos cierta función a (t; A.) depend iente del parámetro 'A y vamos a buscar el ruido blanco en l a forma ~
V (A.)=
Ja (t,
A.) Xº (t) dt.
(6.5.6)
Hallemos las .c ondiciones que"debe satisfoc~r la .función a (t, ?..) para que la función V (A.) sea un ruido bll!Dco: Para hallar, es~as concJicio-· nes, sustituyamos la expresión dei.ruido..blanco (6.5 ..6) .9n .la i4rniuJa. para las funciones coordenadas (6.5.3). Entonces obtendrem.os: i
--
x(t, A.) = G(/..) M [Xº (t) V(}.))=
= G~A.)
~
Ja (t', A.) M [Xº (t) Xº (t')l dt' = " = ~A.) Ja (t', A.) Kx (t, t') dt'. (j
G
De este modo, hemos recibido la nes coordenadas: x(L, A.) =
G~}.)
" siguiente fórmula
(6.5.7)
para las funcio·
6
Ja(t' , }.)K,,(t, t')dt'.
(G.!i.8)
Como vemos, e!!ta f6.rmula !:Se "~emeja mucho a la (6.2.8) para liis Ju.nciones coordenada!:S de la descomposición canónica; sólo que en vez del número -v en ella figura el parámetro ininterrurnpidam(mte variable A. Así pues, hemos recibido una condición que deben sa tisfacer las funciones a (t, A.) y x (t, A.). Sin embargo, l a condición (6.5.8) no es suficiente para que la función aleatoria V (J.) sea un ruido bl anco. Para obtener una condición adicional a la cual la función V (A.) será ruido blanc-0, multipliquemos la fórmul a (6.5.6) por V (A.') y tomemos la esperanza matemática de la expresión obtenida. Entonces hallaremos /1" 0 p,, A.')= M fV (J.) V (A.')J
=
~
~a (t, A.) M LXº (t) V (i.')I dt
(li.5.9)
c.
o bien, teniendo en cuenta (tl.5.3),
e
J<0 (í., í.')~) a(t, i-.)G(A.')x(t, t..')dt= et
~
=
C (A.')
Ja (t, J.,) "
X (t , J.'} dt .
(!i.5.10)
:.!70
Cqp. 6 Represmtaclone• canón.ira• de funciono alratoria•
Comparnndo esta fórmula con la segundo fórmu la (6.5.1), vemos que para que la función aleator ia V (A.) sea un ruido bl anco, es nece· sario que las funciones a (t, A.) y x (t, A.) saLisfngon la r.ondíci6n 11
.Í a (t,
i,) X (t, j..') dt =
~p., - f.').
(1) .~. '11)
a
Estn coud icióJI es el nná logo ele la dt> biortogonalidad (6.2.12). Para dislinlos valores de A. y A.' la integral del producto de las funciones z (t, A.), a (t, }.') debe ser igual a cero, es decir las funciones z (t, >..) y a (t, 1..') dehen :oer ortogonales. Hemos visto en el caso de dc.<;composición canónica que para cuolc¡uier función 11leot oria se puede siempre hallar las funciones :r.v (t) y av (t) que sotisíocen las condiciones (G.2.8) y (G.2.12), micntrns qne en el caso de representación canónica integral no existe un m6lodo ge111mü de determiuacióo de l11s funciones x (t, í.) y a (t. J..) quc solisfuccn las condiciones (6.5.8) y (6.5.11). A cooLinuoción 11 portaremos u rw serie de ejemplos cuando ~e puede hL\llar fácilmon Lo tale!< funciones x (t. /..) y a (t. J..). Las condiciones (6.5.8) y (6.5.1.1) son ll<'cesorias p¡¡ra que 111 fu11ción aleatoria V (A.). determinada por la fórmula (6.5.6), sea un ruido hlaHCO y para que In función aleatoria X (t} pueda ser exprC'siHla en función de este rui do lilanco por medio de la representación canónica integral. Es evidente que estas condiciones son suficientes para que 111 !unción aleatoria V (J..), determinada por la fórmu la (H.::í.6), sea un m ido blanco. D emostremos que las condicieneii (G.5.8) y (6.5.11) junto con la condición 1..s
I a (t,
l.) .r (t '. i..) di-.= 6 (t -t')
(6.5.12)
At
son suficientes tambián para qu.e la runcióu X (t) sea expresada por la represent11ción canónica integral (6.1.5). Para esto calculemos en el segundo miembro de la fórmula (6.5.4) la integral y demostremos que, ul"cumplir liis cond'iciones (6.5.8), (6.5.11) y (6.5.12), ésta es igual a la función aleat:oriA cen trada Xº (t). En vlrl11d de las fónnulos (6.5.6) y (6.5.1 2) tenemos As
¡.,
~
Áa
a.
JV(,.)x(t , i..)d>.=} {J a(t', 1.)Xº(t')dt'} x(t, J..)d>.= >.t
=
~
>.1
ct
A1
JXº(f') {.í a(t', í.)z(t, í.)dl.) dt'= =
,,
JXº (t') ~ (t -
"
t') dt'
=Xº (t).
(fi.5.1 3)
§ 6.5. Rtpr
271
De este modo, hemos demostrado que las tres oondiciones (6.5.8), (6.5.11) y (6.5.12) son suficientes para que la función aleat-0ri a V (A.), determinada ¡>or In fórmula (6.5.6), sea un r uido blanco y para que la función alenloria X (t) se exprese en función de este ruido blanco por la representación canónica integral (6.1.5). Ejl'niplo 6.5.1. En el ojemplo 4.6.2 hallam.o s que l a derivada d e.la funcíó n nleatoria X (t) <'Oll la Cuncióu ~orrelati va Do-«Jl-l'f tiene la función c.orrel atjva de In forma ll•éase la fórmula (4.6.17)) K 111 (t, t') =20a6 tt-l')-0a2 8- c:tll-l't.
Ahora bien, en este caso la foncl óu correlativn contie ne el somo.ndo 2Da6 (t - t ') Ql\O es la funci911 correlativa del ruido blanco. Sin embargo, lo. propia derivada X (t) no es mid o blnnw, pu est o que en su función correlotlva hay todnvla el ! umando Det•eAfl-l'I. Puesto que este sumando tiene l a misma formn que la función correlativa úe la íunrión rucatoria X (t), es natural suponer quo ~o p11c1k· hAllar una combinac16o \al do la función aleatori" X (t) 'Y de s11 clcrh1ada X ' (t) . quo sea un ruido blanco puro. Examin1>mo., Ja suma
v (tl
~ ax
(t)
+ x' (1) .
(c.r.. 1 ~)
¡.::11 f11nt.i6n corrdativa, com11 fuución correlaL!,·11 de la su rnn de dc>s ru11eío11c• al1·:1Lorias , es lg11al a la ~11mu 11(• l •s funci<>rll's correlativas 'Y corr~lativas rt'<·íprnros do Jos sumando>'. es dt>eir,
K, {l. 1') =- Kv, (1, t')+a•Kx {I, n+aKX{/¡ (1. 1' ).;,-etKX//l {t', t). Oh:«'1·v1)wo.~
nhm·a q ue,
m1
''Ít'l1l(l do (4.G.11;), 1>111·11
K XIJ l
(t, t')~K.,¡¡, (t', /)=0.
c11alc~q11i •u·a l
(G.f>. lii)
y t' (0.5. i H)
En cfc.-ct.<•. al permutar los ar¡umenlos t y t', las expres!oues (4.6.1 4) pasan unu a la olra . puesto que con cUn el ~ig1111 de deaiguiJdad entre el ¡lrimero y ~I !;<'gu 11dn argumento o:nmbia on el opuesto. Ln S\Jma de cual qlll~l'D. de la$ cxprcsiorocs (.\..ll.14) con otr a expresión, que liena los a rg umentos t y t' pcrmutailos. es igu nl u cero, qu o <'~ l o qu i' dc11111esLra In igualducl (li .5.16). S u'ftituy<·111lo l a~ expresiones de l as funciones correlativas ~o (6.(1.11\) y tenie11Jo e n r.uent11 (C\.5. tr.). ohtendJ'emos K 0 (t, t') = 2Da~ (t - t'). (0.fi.17)
Ahnra bien, la fnnei6n aloatorin V (t) = aX + X', dctcrminKda por l a fórmu · la (1$.5.14), rapmso11La en este c.oRo un r11ido hlo nc,o con intonsidud igual a 2Dr:t.. Cun ot.ras palahTnS, In función al eatoTia examinntlJL X (t) <>SI~, ligada con el Tuido bliuico V (t). qn o tiC"ne Ja i n t1>nsi dad 2Va, ¡1or In ccunción d ifcrcucial lin~ll l de primer or
~~ l.a
X' -1- aX
=
V (t).
(fi.!>.18)
1l<'11:1dóo, pa111 la cnnr!ic.i1íu inicial X (le) ... O. o hte>nd rcwo• 1
X (1) - c-ctl \ V ('t') én clt.
¡,, 1.'Xprc5ió11. l11lrodu1.cam1•s el multiplir~1lor r·'" hojo d ,;igno inll'gral y extondamos el limite supcrinr dl' intcgrnci6n ha~LH cierto 11 > t. ol m ultiplir.:1r l a funri6n s111Jint~g1·a/ por IA r111wióu un íilacl cscnlomul:i i (/ - r >. Trnu.~rormomos co1a
272
ca,,. 6 R•presenttlL'/f)ne8
Igual n cero parn
T
>
fu11CIO MS
ttúatorios
t:
t
X (t} =
d1t
CfHW 11ÍC0$
~
e -a(l-'t) V (T) tT-r~
lo
h
J
,-a(l-Tl j (1 - -r) V (T) dT.
(6.5.19)
lo
Esta l'xprcsión contit>ne Ju constnnle arbitraria In. l'ara lletlll'minar esta cons tante hRll<'mos l a función correlat iva Je la función nleat.orio X (t). Aplicando In 16rmula (lo .7 .3) pata la función correl ativa d e la integral lle la función 11leetc>rlo y leuieu
= -.-a(l- T)
C (t, T)
1 (t -
T),
ol>lt1nc.lromos t1 t1
K,, (t, t'}=
JJ
2aDc- a(l-Tle- a W- T) 1 (t - T) 1 (t' -'t)
6 ('t -
T') ciTd't' -
to fo
h
... iav \ ,- au+t' - 2 <>1 (t-T) l t>rimcrmnent.e exnmínemvs d
cn~n
io r uanolo t < t'.
(l' - T) d't.
Toudr~mos
J t
Kx (1, t ') =2aD
, - aH+1· - 211d't = n 1, - aW-ll_ e-a
to
Cunnclo t
> t',
nn virtud J i: la ~im~I río podemos e.'!CrilJ ir K,. (I, t')=D ¡, - a<1-t')_e-a(l' + 1- 21,,11.
Heunil•tiu o estas fórmolns, obt omlremo~
K,. (t, t"J = D{c- alt - t'l _e - u
(0.5.20)
De Rquí se ' 'C que> la función a lflat Ol"il'I X fl) rnn lu func ión t•
J _.,. 11
X (t)
=
V (T) e-a(l - 't) t (1- T) ,JT
(1
(G.5.2il
Asl' pues, la función aleatoria estacionnría con función corrt>lntiva exponencial so exP.resa por l a representación ca nónica integral (l\.5.2i ) en llll i n t.erYalo sem ilnfimto cualquiera (-oo, 11). L as funcitmes coordenodo~ d o 4'Sta representac ión c nnónica integral so determinan p<>r l a f6Tmnla :r (t,
1..)
= t-~t-A)
1 (1 -
/,),
(6 ..5 .22)
Para h11ll11r IM func.ioncs a (t, ?.), obsen •tlmos que la fórm ul n (IU1. l 4), on In cual el ruid o blanco V (1.) vo ~xpre-oado mPdi11nto la función aleatoria X (t), puede !W'r CMrit.a en In forma
,,
V (1.)=
~
(c5'(1.- 1)+ et6(/. - t)JX (1)<11
§ 6.5. He¡¡rcst11taci61'
De aquí
:xi
ik una función. a{'1atoria
ve que a (t, >.) = b' (/• - t)
+ w~ (>. -
t).
273
(6.5.23)
En el ejemplo que sigue veremos que las funciones x (t, A) y a (t, 11), determi· nadas por h• fórmulas (6.5.22) y (6.5.23), satisfacon las tres condiciones (6.5.8), (6.5. U} y (6.5. t2). Elemplo 6.5.2. Los resultados del ejemplo anterior muestran que la fun· cl6n afeatoria no estacirinaría X (t) con la Cunel6n correlativa (ll.5.20) so expresa por la re¡>resontaci6n canónica integral (6.5.19) en el i'ntervnlo' finito (1 0 , 1,). Con ello, las funciones coordenadas x (t, X) y las funciones a (t, >.) van exprt>sadas por las mismas fórmulas (6.5.22) y (6.5.23) . Es fácil cerciorarse de quo en Mte caso las· funcione-s;,; (t, 1') y a (t, >.) satis' facen las tres ecuacione.s (6.5.8), (6.5.11) y (6 .5.12). En efecto, para. t 0 < t <;:
<>-
JK,, (t, t')a(t'·A.)dt'=
to
lt
=D ~ l•-Q'.(t'-11 - e- <><1+1·-210>¡ [<5' (X-t')+o:B (X-t') dt' = to
=-Da (e-«O.-t) _ e-a.(t+),- 21ol] +Da ¡.-a.(X-t)_e-<>
Para
10
< 1. < t <
ti
~
a (t', >.)
/(~ (t,
obtcudremos
11
t') dt' =
io t
=D
J
[e- cr
11)
=!Ja ¡c-a
+ 6 -et(t+>.-2tol] +Da [e-<>(1-i.l _
6 -a.
Al div idir las ux1>rcsiu11es o bte11idas p-0r la intensidad del 111ido bl<111co V().). igual c11 esto caso a 2Da., obtcndremo• procisnm~nte. la función :r. (t. ).)
t
Jx:(t, >.)(l \1,
}.')dt=
to
J
, -«(t- M J (1-X} [6' (1.'-t}-f-etó (i.'-t)dt =
tn
=
f)~' (c-a(i.'-~lt =-rxe-a(1.'- i.)
(1!-i,)]+et• - a(í.' - i.lt (>.'-í,) =
1 (í.' -1.H-e-«O.' - l"B (1.'-i.)+
+ne-a(X'-í.l t ().'- i.)=e-"!1.'-M6 (1.'-Á).
Pero 6 (X' - A) = O paro todos los valores d~ A.' •I• )., Pm eso el multiplicad•ll' .,-«<>:-;.¡ puede ser m1st.ituido en la expresión obtenida por la unidu
271,
Cap. 6 Rtpre.sentactones
con{Mit:lf.<:, d.;
funr.iQnl'$ qlealrlri r "
E jem plo 6.5 .3 . Le dejamos al lector <1uo por sí mismo se convenza ele q ue sl X (t) es una func.ión aleatoria estacionaria con la función c.onclativa k,.(i:)=Dt-al•I
(cosw0't+ : seneoo l" i), 0
entonces la función aleatoria
v (t) = x·
(t) +"to.X' (t)
+ ~ix (t),
~;=a•+
w&.
(U.5 .24)
representa un tuido blanco con intensidad igual a 2Da~•. Al cxamiuar la ig11aldad (6.5.24) como ecuación diferencial con respecto a X (t) y al integrarla, 1105 cercioramos de que la !unción aleatoria X (t) se expresa a través del ruido blanco V (i..) por la fórmula t1
X (t)= ; 0
J
V (A) . - sen
<~t 1 ).
(6.5 .25)
-QO
F.stn fórmula ofrucc ltt representación cuuónka inl.Cgral de le función a l eatori a X(/) co11 las fu nciones coordenaJxs
1 "'(t, J.) = - -
.-0t<1- 1»sen ro0 (t-J.) 1 (t-1.).
(ú.5.26)
Las funciont?!l a (1, 1') s e dcterminnn en este r.a.!!O '(lOr la fórmuln
a (1, i.) = 6• (}. - t)
+ 2alí' (>. -/) + a211 (/. -
t) .
(6.5.27)
Al igual que en ol ejemplo anterior. 11 no puede convoiwerse 1le q1u. la8 [111iriunes A) y a (t, ¡.), determ inadas por las fórmula.~ (6.5.!W) y (ti.5.2i), ~atisfacen l as coudiciones (6.5 .8), (6.5 .{1) y (6.5.12).
:r (1,
~ 6.(). neprcscutaci ón canónica integral de una fun ción aleatoria estacionari a
E n los §§ 5.2 y 5.3 construimos uua clase de funciones aleatorias tist acionarias representables por las descomposiciones espectrules (5.2.21) y (5.3.3). Dado que las funciones aleatorias U (w), Z (w) y V (w) en éstas fórmulas son ruidos blancos, la descomposición espectral de .una función aleatoria estacionaria es, al m ismo tiempo, también S U· representación canónica integral. Aplicando la Teorí a de representaciones canónicas integrales de funciones aleatorias, oxpuest~· en el pár.rafo an terior, ahora podemos demostrar que cual quier función aleatoria estacionaria se expresa por la represent ación canónica integral (5.3.3). Este hecho ha quedado sin demostrar en los §.§ 5.2 y · 5'.3. Al demostrarlo, podemos afirmar q ue la clase de funciones aleatorias estacionarias, construida en los §§ 5.2 y 5.3, incluyotodas l as ftlnciones alea tori as est acionarias. Para la démostración observemos q ue las funciones (H.G.1)
.~
6.6. Reprtsentación de una funr.iún ak.atc>ria
27!!
satisfacen las ecuaciones (6.5. 11) y (6.5.12). En efecto, 00
r J
..
r ei(l.-7'')1 dt =
_1_ e-i1''t dt = -121t 2nJ
eiAt
-
-oo
Í
J
ei1't
(j ('}..-'A')
'
""
_i_e-·i1'1'dJ.. = -I- l elCl-t')).d'}..=(j(t-t') 2n 2nJ
(véase la fórmula (2.2.22) que ofrece la representación de la función delia eo forma de la integral de Fo"Qrier). . . : Para cerciora·rse de que las funciones x (t, i.) y a (t, A.), d_étetm.i~~; das por las fórmulas (6.6.1), sat.isfacen también )a ecuación.''( 6.5.8), basta demostrar que la iptegral
..
J k.,(t-t')a(t', '}..) dt'= 2~ J k,.-(t-t')ei).t'clt'
(6.6.2)
-oo
= e·i i.t solamente por el multi¡..licador independiente de t y tomar este mult.iplicado1· como función G ('}..).Efectuando en la integral (G.6.2) la sustitución d~ las variables T = t - t', obtendremos
se distingue de Ja iunción x (t, i.)
2~
..J
~
k x (t-t')eº· 1' dt' = é>.t
J kx(T.)e-º•'dT.
~'l.
-oo
De aquí se ve que las funciones x (t, A.) y a (t, /..), det.erminadns por las fórm ul as (6.6.1), satisfacen la ecuación (6.5.8) cuando G (;.) = -¿~ En virtud de lo demostrado tor ia V p.) =
..J
_.,.
l:lll
2~
k x (i:) c- il.t dT.
(G.G.3)
el pánafo anterior, la función alea-
..J
Xº (t) e-il-I dt
(G.H.4)
representa un ruido blanco cuya in t ensidad es igual a G (:A.) y la función aleatoria X (t) va expresada en funci ón de C?stc ruido hliinco por la l'Cpresentación canónica integral X (t) = mx-1-
°"
JV(>.) e
1 1 '· dÁ.
(lU>.5)
Esl.a fórmula difiere de (5.:J.3) rnl omenle por la df.•sigORción de lá trccuencia.
27G
Cap. 6 fl•p,.,1tnlactones can6ntc4S
d~
fun.clont•
al~atorlas
Comparando la fórmula (6.6.3) con la (5.3.11), nos convencemos de que la intensidad G ()..) del ruido blanco V ()..), determinado por la fórmula (6.6.4), coincide con la densidad espectral sx (i.) de la fun· ción aleatoria X (t). Por fin, en virtud de la fórmul a general (6.1.10), la función correlativa de la función aleatoria estacionaria X (t) se expresa por la representación canónica integral
..
kx (t - t') = .~ G p.) c11..1e1M ' di.=
Í
Sx
(A.) ew1-n cD,..
(6.6.6)
-oo
Esta fórmula se distingue también de la (5.3.15) solamente por l a designación de la frecuencia. Ahora bien, hemos demostrado que cualquier función aleatoria estacioonria se expresa por la representación canónica integral (6.6.5) que coincide con su descomposición espectral (5.3.3). Demostremos ahora que para ninguna función aleatoria no estacionaria la descomposición espect.r al puede ser su representación canónica int.egral. En efecto, supongamos que la función aleatoria no estacionaria X (t) se expresa por la representación canónica integral (6.6.5). Entonces su función correlativa debe expresarse por la fórmula (6.6.6.), es decir, debe depender solamente de l a diferencia de los argumentos, lo que contradice a la suposición acerca de la no estacionaridad de esta función aleatoria. Asi pues, si se logra expresar una función aleotorin no estacionaria por la descomposición espectral (6.5.5), la función V (f.) no puedo ser 11n ruido blanco en esta descomposición. Esto quiere decir que la descomposición espectral de una función aleatoria no estacionaria Ja expresa solamente a través de otra función aleatoria V (l..), que en el caso general no es más sencilla y no da .nada para la práctica. Examinemos ahora dos funciones aleatorias reales X (t) e Y (t) que son estncionarias y estacionariamente ligadas. Expresemos 111 función aleatoria X (t) por la representación canónica integral (6.6.5) y 'la· fuucióp aleatorio Y (t), por la representación canónica integral Y (t)- m11
""
+)
W (i>.) e0 •1
ª'"
(6.6.7)
En este caso el ruido blanco V <'•) se expresará por la fórmula (6.6.li)
..
y el ruido blanco W ('..), por la fórmula semejan te
W (1.) = ~ ~ yo (t) e-i).I dt. _..,
(6.6.8)
Calculeinos la fnnción correlativa recíproco de los ruidos blancos l'1(A.) y W ()..). Para eso pasem,os en (6.6.8) a l as m_agnitudes conju· gadas complejas y cambicmoo las designaciones del argumenlo y de
§ 6.6. Rtpreuntaci6n dt una función aleatoria
la variable de integración.
~2
M [V(/•) W (>..')] = bien
4~2
K...,,('>.. , "-')=
Entonces~obtendremos
JJ
M LXº (t).Yº (t')J _e•w 1·- >J>dtdt'
-w -oo
.... Jl
Pero
k:r11 (t - t'fetv:•·-M>dtdt'.
-oo - oo
La sustitución de las variables t' t' da
= t- i: en l a integral con
! Jk,. (-t) e-
K•.., (1'.1 A.')=
4 2
Z77
11
-oc
11.t d-c
l
e lt>.' - /.JI
respeéfo
dt.
-oo
..,
j
etv.·-i.i1 dt = 2n6(A.-1'.' ).
..J
Por consiguiente, introduciendo la designación s,.11 (/..) =
~~
_.,,,
kxy
(-c) e- fl.t d't,
((j.6.9)
obtendremos K ow
(!., >.') -=
S.r¡¡
(J.) 6 (A. - /..').
(6.6.10)
De este modo, hemos demostrado que l a función correlativa recíproca de l os ruidos blancos en lns representaciones espectrales de do::s cualesquiera funciones aleatorias estacionarias y estacionariamente ligada.~ contiene como multiplicador la función delta. Esto quiere decir que los valores de estos ruidos blancos, correspondientes a diferentes valores de la lrccuencia, no son correlacionados. En el § 5.G. hemos mostrado esto recurriendo a otros razonamientos.
CAPITULO 7
En t.i·opía e información conlenida en las magnitudes aleatorias
§ 7. l. Medición do JI\ indeterminación do remímeuos aleatorios. Noción de entropía
Todo fenómeno aleatorio está vinculado con cierta indeterminncióo. El resultado de observación de un fenómeno a leatorio no puedo 11er predicho con plena seguridad, es decir, es indeterminado y se hoce cleterminado solamente después de In observación. Por eso, ni ¡llanificar trabajos rolnciono.dos cou la observación de fenómenos aleatorios o al calcular sistemas destinados a funcionar con señales no conocidas de antemano, debemos tomar eo consideración la iodetermiirnción de los resultados de observación de los fenómenos aleatorios, tener c1i cuenta que los resultados de unas mismas acciones y rruehas pueden ser en ol proceso de trabajo dist.intos. Cabe preguntar ¿se podría medir In indetermi nación de fenómenos aleatorios y tenorla 011 cuanta en l\uestros cálculos? Para ro.~olver esta cuestión, prestemos atenció11 al hecho ele que en ciertos casos podemos comparar la indeterminación do los resultados de diferentes experimentos y decir con seg1:1ric!ad que la i ndeterminación de una prueba es mayor que lo de otr11. Así, por ejemplo, si, como resultado de una prueba, el acontecimiento A puerle producirse o no producirse con la probabilidad de 1/2 y, como resultado de otra prueba, el acontecimiento B puede sucecler con la probabilidad de 0,99,entonces está claro intuitivamente que la primera prueba posee mayor indeterminación que la segunda. En efecto, el resultado el.el pri mer experimento es absolutamente im.p,o..sible.,pr.odecir., Al contrario, prácticomonte podemos estar seguros de que no··aws.. equivocamos ·a! ·predecir que, como resultado del segwido experimento, el acontecimiento B se producirá. Si en la tercera prueba el acontecimiento C t iene la probabilidad de 0,9 es evidente que esta prueba posee mayor indeterminación que la segunda y menor que la primera. Esto ejemplo muestra clarameoto que la estimación cuantitativa de indeterminación de Jos resultados de observación de los fenómenos aleatorios os, en principio, posible. Para hallar ol modo de tratar la estimación cuantitativa de la indeterminación de los fenómenos alentorios, imaginémonos que participando en cunlquier trnbnjo, por ejemplo, en el mando de un proceso de producción, liemos efectuado cierto experimento. El resultado del mismo es necesario comunicár.;elo a otros participantes, pHL'a que puedan cumplir su parte del trabajo. Claro está que la comunica-
§ 7.J. Medldón de la lndrt.rminac16n
279
ción acerca del resultado d.e la prueba liquida 1ior completo la indete~minació,n quo existia 11ntes de llevar a cabo el e~pedmento. Para transmitir las comunicaciones se utilizan generalmente los medios de enlace. La transmisión de comunicaciones se efectúa por l a!I líneas de enlace con ayuda de determinadas señales. Por eso, para trausmitir una comunicación, es necesario ponerle en correspondencia uuu sucesión determinada de señales o, como se dice, cifrar la comunicación. El código binario es el más sencillo. En éste l a· tran.Smisión de comunicaciones se efectúa por señales de dos tipos. Al ligar con un tipo !le señal el cero y con el otro, la unidad, reduciremos la codificación de l a comunicación a su representación en forma de una sucesión de ceros y unidades que alternan de un a roamira det!)rm inaclA. Con ello, es necesario, naturalmente, asegurar que a distintas comunicaciones les correspond·an diferentes sucesiones do ceros y unid ades. Desde el punto de vist.a teórico, al cifrar comunicaciones, 11s necesario tratar de gastar con m11yor economía el tiempo y los medios requeridos para su trausmisi6n. Esto se puede a lcanzar eligitmdv t.lll procedimiento lle codificación co11 el cual liea mínimo el número esperable de signos (señales) con ayuda de los cunles i;e transmit.en las comunicaciones. Es obvio que para asegurar el nt'1mero mínimo esperable de signos para la transmisión do los comunicaciones acerca 1lel resulta.do de la prueba en cnostión, es necesario representar los resultados de mayor probabili!lad por las sucesiones m6~ cort1:1R de c.l\ros y nnidade8 y los de menor prohnbilülnd, ligarlos t;On sucesiones más largas. P.l posible número mínimo esperable de signos requerido pnrn l iquidar por completo In indeterminoción ele\ resullncio de la prueba, nl emplear el procedimiento más económico de codificación, conviene tomnrlo l'Or medida cuont.itativa de 111 indeterminación del experimen1.o. Con ello, l a unidod
se
• ) • Bih el! 111111
<:11 •'~¡>añnl •cH¡ri~v
nhr~viatur11
bina,.io•.
tkl término inglés •hinury cligib quo •i¡¡11iíica
Cap. 7 Entropla e lnform~l6n
280
subgrupos que contienen más de un resultado se siguen di vidiendo. Al fin y al cabo lodos los subgrupos contendrán cada uno un resultado y, con ello, a los resultados más probables les corresponderá menor cantidad de digitos binarios y a los resulLados menos probables, una cantidad mayor de los mismos. Ejempl o 7 .1 .1. Si son posibl"~ ocho rP.snl ta
1
2
3 4
Pi
1 Dig.
1
o
7 1
4
ti Oíg. 21 Di¡¡. :l ílig. 41Oi¡¡. ~
l
8 l
¡-¡¡ 1
5
B4
R
64
7
iR
8
64
l
1 1
1
1
1
1
1
1
l
1
1
1
1
1
1
()
t
1
o
1
1
1
1
1
l
1
1
1
1
1
l
1
l
1
•(
Oíg. 6
l o
#
1
1
J
1
1
o
-1
-Ahora bien, la comuniueión sobre el resultado mlis probable del uxperimont_o,.;!Júe t.ion& la 11robabilidod de i/'l., se transmítirá por un solo dlgit<> blnarlo, Q; . l11.. ~omunlc11c1_6n sobre el segundo resultado del experimento, q ue tiene In pr~babil'l aad d'e 114, se trausmitirá por dos dígitos i y O; la comunicaci6n del tere~ resultado,. que tione la probabilidad de t /8, se tro.nsmitil•:i Jl<>r tres d lgitos; l a comunicación sobro el cuarto resultado quo tiene l a probabilíd ad do 1/ 16, ise traDJmlt lrá por cuatro dígitos y 1as comuo1cacione.s acerca de cada un<> de lo~ demb reaultad()s, cuyas probabilidades son igualea a t /64, se tro.nsroiti· rán pÓT seis dlgitos. Rallemos la indeterminaci6n del nperirneoto en cuestión, la cual, según la definición o.nteriorm.ente do.da·, .es igual a la esperuza matemática del número de-dlgitos requeridos para transmitir la comu.ntcaci6n sobre el resultado de la prueba. Los val ores p0slblos del número de sjgnos que puede comprender la <:0municací6n sobre el resultado de l a prueba son 1, 2, 3 4 y 6. Las probabilid~ d es de estos valores son iguales, respectivamente, a 1/2, lJ¡, 1/ 8, t/t6 y 4. t / f\4 = - ift6. Por eso la esperanza matemática del mimero de dlgltos <jllC 11uede cnm-
§ 7.J . Medición de la tndetermtnactón
·281
prender la comunicación sobre el resultado da la prueba es igual t 1 t 1 1 H~1. +2 . +a . +4· +s. ~z bits.
2
4
8
16
16
Así pues, la lndewrminación del experimento eo c;uestión es igual a 2 bits. E jemplo 7 .1.2. Si son posibles ocho resultadC?s del e~p~i:mento y la probab ilidad de cada uno de ellos es igual a 1/8, entonces él pro~dim.lento expuesto de codificación de las comunicaciones acerca de los re5Ultados del experi!llento lo ofrece la tabla siguiente: 1
p¡
1
1Díg.
tiOíg. 2¡ Oig. 3
1 t
l
8
2
8
1 1
o
o
o
o
8
o
l
4
8
o
1
5
8
1
o
1 1
(i
8
7
-¡:¡
8
1 1
8
1 1
3
t
o
-o
-1
o --
1
o
1
1
1
1
1
o
-1
A11oi-n bien, la comunicnción sobro cualquier r()S11ltndo del oxpel'imcuto ro fran~mite en este cas
Examinemos el experimento con n resultados posibles cuyas probabilidades sou todas iguales a potencias enteras de una mitad . Es fácil comprender que, al emplear el procediniien t o de codific11ción expuesto, al resultado de la prueba cuya probabilidad es 2-"' l o· corresponderá m dígitos binarios, lo que evidencian claramente los ejemplos citados. Así, pues , la esperanza mntemática del número de d ígitos comprendidos en la comunicación sobre el resultado de l experimento en cuestión es igual ¡¡ R = ~~m2-m, (7.1.1)
::¡82
·donde In adición se reali'la con respecto a todos los resultados posi· bles de la prueba. En oste caso, ostá claro que si ciertos ra~ul t11tlos del ·experiniento tienen probabilidades iguales, les corresponderán sumandos iguales. Observemos ahora quo en el ca~o en cue:;tión, en que Ja probabilidad del i-ésimo resultado de la prueba p¡ = 2-"', ,cJ número de dígitos comprendidos en la comunicación acerca de este .l·esultado del experimento e!! igual al logaritmo binario de i;u probabi· .li
¿;,
JI= -
p; ~log p 1•
(7 .1.2)
1~1
Esta magnitud, obtenida por nosotros para el caso particular c1Jando •los rirobabilidades de todos los rcsultndos del expl•rimento se cxpre.sa11 por potencias enteras de una mitad, so toma por medida c11nnti1.at.ivu tic indet.ermi1111ción de cualquier prueba con un número iinit.o de rosultados posibles y :>e llama eri.tropí.a del experimento. En ve'l. de ·expe1·imenlo , ~e riuede hablar de un sistema con número finito de ·estndos pos ibles que tienen prob11bilida1les as ignadas de ontemnuo. La cntroill a de (~Ste sistema, determinada por la fórmula (7.1.2), es la medida de indeterminación U.el si;;temn. Claro estú que en In ueíi· nic.ión de l:i entropía (7.1.2) se t ienen en cuenta todos los resultados posibles
"
(i .U1) L; PF - 1. 1-1 ,l,11 cnt.ropía de un experimento con. un mímero finito n > 1 de rcsultndo!'\ (o de u11 sistema con un númeJ'o íinito de estados posibles} ·l>.~ si cmprn po.~itiva, puesto que lo.<; logaritmos de fraccio.n cs propias ¡¡on negativos. Si la pruebi1 tiene un solo resultado posible cuya pro· habiliuad es igual n la ttnitlnd , entonces la entropío de la prueba es :igu.al ¡i. cero. Esto es natural ya que el experimento con Uil solo resultado 'Posible careee por completo de -indeterminación. Demos:ti'emo.~ ·ci:ue· entre todos los experimentos posibles, con n resultados · p.S>s'i:~Jes, 'la .'~ayór entropía la poseen los experimentos dé resultados <e(tuip.roliábles. Para la demostracióu, deduzcamos una desigunldad .auxiliar. que· necesitaremos. más de una vez a continuación. Observe· .mos que para cualesquiera valores positivos de x
ln
x< .x-1.
(7.1.4)
efecto, el logaritmo e:;1 una función monóton11 creciente con derivnda monótona de.creci'ente. Por ·consiguiente, se representa por una -c1i r.va, cuya- 'convexidad esta dirigída hacia arriba, que se encuentra por com.vleto· bajo· cualquier tangente a olln (fig. 7 .1.1.). En particu· Jar, la curva que representa ·al logaritmo natural se halla por com-
.E1}
§ 7.J. Mediei{ln de la indetermlrtación
283.
·pleto bajo la tangente a ella en el punto x = 1 que tiene la ecua~ió11 y = x - 1. Precisamente de aqu.í se deduce l a desigua l(lad (7. 1.~). El signo de igualdad en (7.1.4) 1.je.ne lugar sol umente cunncj.o x = 1.
!Poniendo x
=
1/u, obtendremos
!I
In .!...,.;:..!..-1. "'
!/•:&•/
lt
-de donde l nu= - ln.!. :;;,. 1-.!.. "
u
Ahora bien, para cualesquiera valores positivos de u ln ¡¿ ~ ~ 1 -..!. " .
(7 · 1 · 5)
· 7.t, t. F1g.
Pasando aquí de los logaritmos naturales a los binarios, obtendremos 2 logu::;.,.( 1-
~)2 1og e.
(7.1.6)
Esto es précisament.e la desigualdad auxiliar buscada. En virtud de la definición (7.1 .2), la entropía de un experimento ~oo n resultados equiprobable!I e.5 n
n
Hp= "1
¿;
..!.n. 2 1og..!..=!logn "1 .!. = ~lo¡,¡n. ll ""'ll '
(7 .1.7)
t.~ t
i= l
Observemos ahora que las probabilidades iguales do iln, que consti· tuyen en suma la unidad , pueden ser s ustituidas en (7.1.7) por otras probabilidades cualesquiera p 1 , p 2 , • •• p,,. quo constituyen en total la unidad. Entonces la entropía de un experimento con n re~ultados equi prohables se expresará por la fórmula /f 1,= 2logn
n
"
1=1
f= l
¿j p1=~ ~p1 2 logn .
Hc~tando de esta expresión la (7.1.2) de la entropía de un oxpe1·i111onto con n resultados que tienen las probabilirlades p 1 , • • ., Pn, tlm
Hp- ll =
2.'
i--1
p1 2lognp 1•
De nr¡uí, aplicando la desigualdad (7.1.6). obtenemos ,.
ll 1, ·-H >- =tog e ~ ~ p1 i= t
n
(1-~) 1ip,
=
2
n
loge ( .'-'# ~ p¡ - ....,¡ ~ ..!.) ,.~ O. (f. i=l
1=1
Esto demuestra que la entropía de un exporirnento con rcsul tl\dos equiprobabJes no puede ser menor que la ele otro experimento r.ual-
Cap. 7
Enlrupía
e ln/1mnación
quiera con el mismo número de resultados posibles. Como el signo de igualdad en (7.1.6) tiene lugar solament.e para u= i , la entropía de un experimento con resultados equiprobables siempre eii mayor que l a cualquier prueba que tiene el mismo número de resultados posibles pero diferentes probabilidades de l os mismos. Observemos todavía que, como muestra la fórmula (7 .17). ht entropía de un experimento con resultados equiprobables será tanto mayor cuanto mayor sea el número de resultados posibles del mismo. 'fodas las propiedades examinadas de la entropía se coucuerd;;u plenamente eon nuestras ideas intuitivas acerca de la indeterminación de 105 resultados de observación de fenómenos aleatorios. § 7 .2. Entropía de una magnitud aleatoria. Entropía condicional media
Extendamos ahora la definición de entrop[a, daúa en el párrafo nnterior, a l caso de un conjunto infinito de res\\Ltados posibles de un experimento. Para esto introduzcamos la noción de entropfa de una magnitud al eatoria. Examinemos primeramente una magnitud aleatoria discontinua X cuyos posibles valores x 1 , • •• , Xn tienen las probabilidades que son iguales a p 1 , • • • , Pn• respectivamente. El experimento tiene en este caso n resultados posibles y las probabilidades de éstos son iguales a las de l os valores correspondiente:; de la magnitud aleatoria X. Tomemos la entropía de este experimento por la de la magnitud aleatoria discontinua X. De este modo, la entropia de una magnitud aleatoria discontinua representa la suma, tomada con signo contrario, de probabilidades de todos sus valores posibles multiplicados por los logaritmos de estas probabilidades: n
Ji [X)= -
¿; p1
2
i~l
log Pt·
(7 .2.1)
Para determinar la entro.pía de una magnitud aleatoria continua X, dividamos el dominio de sus valores posibles en un número finito de. tnter:valós / 1, • • • , In y tomaremos por el i-ésimo resultado del ·expei:imento el en·cuentro del valor de la magnitud aleatoria X en el i-ésimo intervalo. Las probabilidades de estos resultados del experimento serán p;
Í f(x)dx=f(x1)flx1, 1¡
.,,, '2]p¡=1,
(i=1, . . . , n),
(7.2.2)
i=t
donde x 1 es cierto valor medio de x en el i-ósimo intervalo, Ax 1 es la longitud del i-ésimo· intervalo y f (x) es la: densidad de probabilidad ·de l a magnitud aleatoria X que se supone ser continua en cada uno .de
~~
7 .2. Entropía de '""' magnllud alealorta
los intervalos / 1 , • • • , !,.. La entropía del experimento, en virtud de l a definición (7.1.2), será H
=-
n
~
1... 1
" = - ~
1-1
11 (x1) óx!f ~log lf (xi) óx¡] = f (x1) [2 log f (x1) + 2log óx¡J Ax1
o bion H
=-
n
~
n
f (x;) 'log /
(x1) óx1 -
i~l
~
f
i~t
(x1) ( 2log óx1) 6.x1•
(7 .2.3)
E n esta fórmula el paso directo al límite para óx1·- O es ·~mposible, puesto que en este caso el segundo s umando crece ilimitadamente. Para vencer este obst ácul o , observemos que en los problemas prácticos nos i nteresa generalmente no la indeterminación absoluta de cualq uier magnitud aleatoria sino solamente en cuánto su indeterminación es mayor o menor que la de otra magnitud o bien en cuánto ha dism inuido la indetern1inación de la magnitud aleatoria en cues. tión como resultado de uno u otro experimento. Y como las diferencias de las entropías no cambian al t ransferir arb itrariamente !IH origen , entonces el segundo su mando del segundo miembro de 111 fórmula (7 .2.3) se p\1ede sustituir por la magnitud constante arbitraria /f 0. E ntonces la entropía del experimento en cuestión se 1loterrn.in ará por la fórmula
"
JI= Ho- ~ f (x1) :1og f (x1) Ax;. i ;;;;s 1
En esta fórmula se puede pasar al límite a l aumentar ilimitadnmenl1> el número de intervalos en el que se divido el úominio de ''alorP.s posibles úe l a magnitud aleatoria X y a l tender a cero las longitu
obtendremos 00
11 = H 0 -
.\
_,.
f (.:i;) 2 log / (x) dx.
(7 .2.li)
Co111(mroente, para sencillez, se supoCJe que 11 0 = O y se determina la entropía de una mr1gnilud aleatoria continua X por la Iórmul11 00
l1 =
-
j
_.,.
f (x) 2 log/
(x) dx.
(7 .2.f>)
Observemos a hora 11ue l a integ~al 011 (7.::!.4) y (7.2.5) es la espcrande 111 fuu cióu i log /(X) de l n magnitud a leatoria X. Por eso ln definición (7.2.fi) de entropía ele unn magnitud aleatoria ~;i uiat.emálica
Cap. 7 Entropfti ~ l11/ormad1in
continua se puede escribir también en la forma JI ... -M ¡• log f (X)J.
(7.2.6)-
Puesto que el origen de la entropía ha sido cambiado arbitrariamente al deducir las fórmulas (7.2.~) y (7.2.5), l a entropía de una magnitud aleatoria continua puede ser tanto positiva como negativa. Análogamente al pasar de la escala termométrfoa absoluta, por ojer.npl o, a la centígrad a, obtendremos los valores de temperatura t anto. positivos como negativos. La fórmula (7.2.6) determiua tanto la entropía de una magni t ud aleatoria continua escalar como la de un vector aleatorio cuyas. coutponeutes son magnitudes aleatoria:¡ continuas. La fórmula (7.2.5) puede servir también para la determinación de la entropía de un vector aleatorio continuo, si la variable x se entiendo como vector(es decir, como un conjunto de varias variables) y la integral, como. integral múltiple extendida a todo el dominio do valores posibles del vector aleatorio X. En forma desarrollada esta fórmula se escribirá así:
"'
11 = -
)
...
J/(:r,
1 , ••• ,
x.,) 2 log / (x1• • • • , x,.) dx 1 •
••
d:c,.. (7.2.7)
Es fácil comprender que lo entropfo de una magnitud aleatoria. depende sol amente de la distribución de las probabilidades do sus: valol'es y no depende de la disposición de esta distribución con respecto al origen de coordenadas. En efecto, la integral (7.2.5) O<> cambiará si en eJla se efectí1a lo sustHución do Ju variable :r; = = y - a. Esto quiere decir que las magnitudes aleatorias X y Y = = X + a tienen la misn10. entropía para cualquier a. En particular,
..
x•
1 /f(XJ =- - -Í .-W' V2nD J
_
rero 1 -
.r -...
V "t.nU -oo Por lo tanto,
e
2D d.i=-1,
( -1- 'log2nD-.=:, •log •) 2
W
d:r:.
,8 7 .2. Entropía de una ma¡mitud alt a.loria
28T
Eitmplo 7.2.2. C.o entropía de la distribución uulforme, ~n vlrtud de (7.!!.5)b
ll [XI "" -
1 f - 1-21og- d;z=2Jog (b-a). j b- a b- a a
l::femplo 7.2.3. Para l a disuibución oxponcncial J (x) "" la ent.ro)lla se determi na por la fórmula 11 IXI=
-
Io k•-•r
kt-b (z
>
CJ)
(2Jog k- kz2Jog •) dx.
..J
;zke-•"dz=M(.Yl = f .
)'01·
con ~igu irml~,
JI [Xf ~ _ 2Jog k + tJog < = 2Jog
"f.
l\l!Ís ndelante veremos que una imporLantísima tarea práctica C!5' hl estimación de la variación de la indetermi nación de la nwgnlturl aleatoria X después de efectuar el ex peri mento como resullado dcr cunl se hace conocido el va lor de otra magnitud aleatoria Y. lntuiti v:>mente está claro que la indeterminación de la magnitud aleaturi a X disminuirá si las magn itudes X o Y son dependientes y perm11 neccrú invariable si dich as magnitudes son independient e~. A con tinuación veremos que esto es precisamente así para nuestrn definición de la med ida de indeter minación de una rnagnitud 11lea· tori;1. Para estimar la indeterminl\ción de la magnitud olcalnri n X , quo queda despu6s de observar Ja magnitud aleatoria Y , conviene iulrotlucir la noción de entropía de la magnitud aleatoria X con re~pcc to 11 la magnitud Y. Es evidente que para est.o es suficiente s ustituir e11 la fórmula (7.2.1) las probabilidades de los "ªlores de la magnitud X por los probabilidades condicionale.-; corrcs11ondien tes. Scun. X e Y dos magnitudes aleatorias discontinuas y p 1¡=P
( ~:;~ )
(i= 1, . . ., n; j= 1, .. ., m.), (í .2.8}
En virtud del principio de ad ición de probabilidades, las probabilidades no condicionales de los valores de la magnitud Y se det.ernii · nao por Ja fórmula
,,
q1=P(Y=y¡)= ~ p,¡, 1- 1
(7 .2 .!J~
Cap. 7 l!:ntr<>pía
üt}t,,.mar.i6n
t
y aná logamente las probabilidades no cond icionales. de los valores de la magnitud X se determinan por la fórmula m
p¡ = p (X= X¡)=
'3
n
}j
PIJ1
i"'l
p¡
i ""\
= 1.
(7 .2.10)
Las probabilidades condicionales de los valores de la magnitud .aleatoria X con respecto a Y ser án
"
P1J=P(X=x1IY=Y1)=fll., 2::P1¡ = 1, q¡
i=I
(7.2.1'1)
y las probabilidades condicionales de los valores de l a magnitud aleatoria Y con respecto a X serán (7.2.12)
Según l a definición (7 .2.1) la entropía condicional de l a magnitud aleatoria X para el valor ciado y 1 de la m agnitud Y se determinará por Ja fórmula
"
lf IX j y;f = - 2j PtJ 2 Jog P 11(j =1, .. . , m).
(7 .2.13)
!=i
La entropia condicional de Ja magnitud X dopende del valor que toml\ la magnitud Y, es decir, ella misma es u na magnitud aleatoria. Por meclida de indeterminactón de la magnitud aleatoria X. que qued11 después ele observar la magnitud aleatoria Y , se toma la esperanZ(I matemát.ica de l a entropía cond icional
"'
1-I y IXJ = M [H rx 1Yll = .}j q¡Ef \X 1y¡]. J=i
Sus~itl,ryendo
aquí la expresión (7.2.13) de l a entropía condicional
y (om~ndo en consideración (7 .2.11), obtendremos
ífy[XJ= -
z: "
i=i
m
~_; p1¡ 2log P¡¡ .
(7 .2.1~)
;,::.1
Esta magnitud se llama entropía condicional media de la magnitud aleatoria X con rospecto a Y . De un modo análogo se determina la entropía condicional media
i-
'ffl
¿; P1J 2 logQ11 . t i=I
Hx lYJ= - ~
(i .2. 1.) )
Para determinar la entropía condicional de la magni tud aleator ia continua X coa respecto a la magnitud al'oatori n coutinun }'",
.§ 1.2. Entropía lle
Ullll- IMf{rtitud
aleatoria
281!
.Qast11 sustituir en la fórmula (7.2.5) la densidad, de probabil_idad de l a magnitud aleatoria X por la densidad de probabilidad condicfona:l correspondiente / 1 (x 1 y}. Entonces obtendremos
..
H[X I YI=-
I f,(xly)
2
logf 1 (xjy)dx.
(7.2.16)
Esta magnitud clepende del valor y de la ma~ni.tud aleatoria Y.. Para determinar la· entropía condicional media de la magnlt11d a,I~ atoriá X con respecto a Y, se debe multiplicar .l a e;(P,resión (7'.rt~) por la densidad de probabilidad f 2(y) de la m:agniiµd aleatoria. Y e integrar con respecto a y. Como resultado ·ohtendi;emos 00
lly!Xl=M'[fl!XIYIJ=
00
J J fz(y)/t(xjy)=logfdx j y)dxdy.
-oo -oo
Pero
f2
(u) f1 (x 1 y) =
f
(x, y)
es la denfii
00
~
-QO
- co
Jj
f(x , y) 2 logf 1 (x j y)d:.cdy.
(7 .2.17)
Esta fórmula p1Jede ser re11rosentada también en Ja forma
H 11 IXl = - M ¡z log f 1 (X 1Y)I.
(7 .2.18)
Si !ns magnitudes aleatorias discontinuas X e Y son indepundientes, entonces p¡¡ = P1•JJ• P11
y (7.2.1:l) dan
= p ¡, QiJ = q¡
Il u IXI =JI !XI, Ji,. [Yl
=H
y
las
IYJ .
fórmula ~
(7.2.14)
(7.2.'19)
Lo mismo en. el caso de las magnitudes continuas independientes X o Y, sus densidades condicionales de proliabilidad coinciden con las c-orrespondientcs densidades de probabilidad no cond iciouales y volvemos a obtene.r las fórmulas (7.2.19). Así pues, si las magnit11des aleatorias X e Y son independientes, todos sus entropías condicionales y las entropías condicionales medias coinciden con las correspondientes entropías no condicionales. Jfo el § 7.4 demostraremos que si las magnitudes aleato rias X e Y son de11endicntcs, la magnitud condicional med ia de cada una de cllru; con respecto n ln oti·a e:; siempre meno.r que la corrcsJlondientc entropía no conllicio· nnl.
290
Cap. 7 Entropfa e tnfomu:&IÚll
Ejemplo 7 .2.4. Las magnitudes aleatorias X e Y tienen distribución conjunta normal. Hallar la entropía de la. magnitud al eatoria X y su eotropln condicional me1lia con respecto a Y. CoJUo, según lv demostrado on el § 3.6, las uistribuciones condic.ionales y no condic ionales d ~ l as cnmponento do un vector aloal.orio DOTmalmcnt11 Tepartidn son normales, entonces, 11era calcular la entropía y In entro11ia condicio nal de la magnitud al11al-0ria X. se puede aplicar la fórmula deduoida en el ejemplo 7 .2.1. l'uosto quo conforme e> (3.G. 11) la dísp~rsión condicional de la magnitud aleatoria X 110 depend e del valor 11 de la magnitud Y, la entrooia condicional mndia do la magnit ud X Clln re:ípectn a Y coinci
., ¡ -
--
1
2rttC•a
v2mrl>[XJ= - 9log • 1 2 CJ t C12- C1t 1 2nt Hu (XJ='log V2mlJ [X 1YJ=T 'log-. ~
Al rom¡inrnr
,
'11
fórmulas, vemos 11ue la P.ntropía condicional medio lle 111 magni t ud X r.on respecto ~ Y es menor que~" CJ1lropla no condicional si cu + O, M clccir, si lnR mpgni\.ucles X e Y sou depend iontns. S i X o Y 5'lll i ndepenrlient.us. entonces c12 = O y la entropía conJiclonal mt'
Examinemos ahora dos magnitudes aleatorias discontinuas X e Y y hallemos su entropin conjunta, es decir, la ent ropía del vector
aleatorio con las componentes X , Y. Según la definición ella e.5 H [X, Y ¡ = -
¿;n L;'" PIJ ~log PIJ·
1- 1 1-1
Pero p 11 = p 1QIJ [véase la fórmula (7.2.12)1. P or lo tanto, n m 11 IX, YI = - 2~ ~ p;j (Zlog p1 + 2JogQ;j} =
·-·;-1
n
m
1- 1
j= I
= - ~ ( }j P11) 2 tog p¡ -
n
L.
i=l
tn
~ PtJ 2 log Qu.
(7 .2.21))
;~ 1
Observemos nhora que cooforme a (7.2.10) m
~ p;¡ = P1
1-1
(i = 1, .. . , n).
Por eso el primer sumando en (7.2.20) es la entropía de In mngul tud aleatoria X. El selfUndo sumando, en virtud de (7.2.15), representa la entropía condicional media de la magnitud aleatoria Y con respecto a X . Por consiguiente, la fórmul a (7 .2.20) puede ser escrita en l a forma lI IX, YJ = R !XI+ H ,, [YJ. (7.2.21) En virtud de Ja simetría se puede tamb ién e.~crib ir II [X, YJ =ll IYI +Hy IXI.
(7 2.22)
§ 7.$. Propiedad extrema! dt la distribución
"º"'"ª¡
2Jlt.
Asi pues, la entropia del conjunto ·de dos magnitudes aleatorias es, igual a la suma de la ent ropia de una de ellas y la entropía condicional media de la otra. Si l as magnitudes aleatorias X e Y son. independientes, las"igual• dades (7.2.21) y (7.2.22), en virtud de (7.2.19), toman la forma
R [X, Yl = H [XI
+H
IYJ.
(7 .2.23)
De este modo, l a entropía del conjunto de dos magnitudes aleatorias independientes es igual a la suma de sus entropías. Aplicaud9 el método de· ,induc.c ión, mate.máti.c~, .se: pue.de e.#en~ der las fórmulas (7 .2.21) )(.(7.. 2.22~·a. ui;t núlnel'o ~rbitrario '
11 IX 1,
•• .,
Xnl = Il lX.l + J1 ,., IX2l
+ .. . -+
H,,,, . .. ,,,,._, IX,.l. (7.2.24)
Si las magnitudes aleatorias X l> ... , X,. son independientes, la fórmula (7 .2.24) tomará l u forma n
H¡X., .. .• Xnl = l;H[Xd .
(7.2. 25)
i=ot
§ 7.3. Propiedad extrema! de Ja distribución normal Demostremos ql1e entre t odas las magnitudes aleatorias que ti enen la misma dispersión, las magnitudes aleatorias normalmente repartidas son las que ¡1oseen mayor entropía. En el ejemplo 7.2.1 liemos calculado ya la entropía de distribución norma l 1
_..!!..
f ,v(xl = v2nf) -ª w .
(7.3.1 }
Puesto que (7 .3.2) In entropía de la magnitud alcatoi·ia X puedo ser represc11tada por la fórmula
H IXJ =
f / (x) 1og /,,. (:e) d.'C =
"" -
N'
1
00
=
f (1og 2nD) f f.v (x) d:c+ 2~1 (2 loge) f x f 2
2
-~
-~
N
(x} dx.
(7 .3.3)
292.
~
Cap . 7 Hntropta
!n/hrmaciini
Examinemos ahor<1 la magnitud ulcatoria arbitraria Y que tiene la esperauzu matemática igual a cero y la misma dispersión D que Ja magnitud aleatoria normalmente repartida X. La densidad de probabilidad f (y) de la magnitud Y satisface la condición
..
..
--
-oo
...
) y 2 f(y)dy=) x 2 f(x)dx=) x2 /,y(l:)dx=D. --
(7 .3.4)
l'or lo tanto, en ambas integrales del último miembro de la fórmula (7.3 . .'í), la densidad nor.mal de probabilidad IN (x) puede ser sustituida por la densidad de probabilidad f (x). Entonces obtendremos lI !XJ
,~
..
..
T(log 2nD) r f (x) dx+ +(loi;r e) J x f (x) dx = 2
2
-~
2
-~
=-
""
J[ -{ ªlog (2rr.D)- ~
..j f
2
log e] f (x) dx
o bien, teniendo en cuenta (7.3.2) /J [XI= -
(x) 9 log fN (:e) dx.
(7 .~~.!:í)
Ahora bien, la densidad de probabilidad de una magnitud aleatoria normalmente repartida en la oxpresión de su entropía, fuera del signo del l ogaritmo, puede sustituirse por l a densidad arbitraria de probabili dad a la cual corresponden la esperanza matemútica igual a cero y la misma dispersión igual a D. Rest ando de la expresión (7.:1.5) la expresión M
~ f (x)ilog / (:r.) dx
H [Y]= -
- oo
de la entropía de la magnitud aleatoria Y, obtendremos
lf!Xl - H[Yl=
..J
/{.:i:) 2 log /,..,<~;) dx .
(7 .3.<J}
Apliquemos ahora la desigualdad (7.1.6). E11 virtud de esta desigualdad podemos escribir 2 1og
f (r.} :-;:;,,
/;.;(:i:)""'
[1 -
fr; (:r) /(x)
J log 2
e
.
(7.3.7)
§ 7 .11 . ln/ormad6n qu• ·••
293
Dado que la dousidad de probabilidad f (x) no puede ser negaiiva, entonces de (7.3.7) ~e deduce que (·
J
2 loge f /(.x)~log~dx# /,y (x) J
-~
/(x)
[1- ft1f (r)(r)J dx=
-~
= ~loge[
00
..
-cio
- oo
f f(x)dx-)
/.v(x)dx J=O.
As[ pues, el segundo miembro de la f6rmulo (7.3.6) no puede ser negativo, d e donde se deriva que 11 !XI ~ H IYJ. (7.3.8) En (7.1.(i) el signo de igualdad tiene lugar solnmente en el caso cuand o u = 1 . Por lo t anto, también en (7.3.8) el signo de igualdad tendrá lugar sólo en el caso en que la densidad do probabilidad f (x) coincide indénticamente con la dens idad norm al de probabilidad IN (x). Esto el! io que demue~tra que l a distrihución norrnul lienc mnyor entropia que otra distribución cualqu ier11 correspondiente o la misma d ispersión. De un modo 1tlJsolutamente análogo se demuestra que entre todas las distri buciones que ticnon el mismo .inter valo limitado de valores posibles ele unn magnilud nleatoria continua (a, b) b
i /(x}dx=1 ,
(7 .a.U)
"
Jo distribución uoiforme en el intorvnlo (a, b} posee la mayor entropía. Con ay uda del rrusmo método Re demuestra qu e entre t odas las magnitudes alea torias cont inuas positivas con la misma esperanza matemática m
..
...
r
f(x)dx=1,
J
x/(x)dx=m , (7.3.10) o o las magni tudes r epar t idas por la ley exponencial poseen l a mayor entropía. Le proponemos al lector que por sí mismo demut>stro est,ns aserciones en calidad de ejercicio útil. ~ 7.4. lntormacl6n que se contiene en las magnitudes aleatoria.."
Para eliminar por completo l a indeterminación de una m ngni tu d alea toria, es necesario efectuar u n experimenlo y determinar el volor que ésta toma. Sin embargo, en lo práctica l a magnitud aleo to-
294
Ca¡>. 7 Entropia e. informaclon
ria X, que nos interesa, a menudo no se puede someter a una observaciór1. Bo tales caso.<; tenemos que contentarnos con la observación de o ~ras magnitudes aleatorias y por los resultados do osta observación sacar conclusiones aellrca de la magnitud X, es decir, obtener la información sobre la magnitud X. Si esto es posible, se dice que las magnitudes aleatorias que se observan contienen información sobre la magnitud X. Intuitiv romente está claro qu.e la información sobre la m11gnitud aleatoria dada X I!\ puedon contener MlamentA magnitudes aleatorias ligadus de uno u otro modo con dicha magnitud X, es decir, dependientes de X. Las magnitudes aleatorias independientes de X no pueden contener ninguna in.formación de X. Ahora bien, se puede decir que la información es una de las formas de manifestación ele la dependencia entre las magnitudes aleatorias (o entre fenómenos mús generales). Es natural que corno merlida do cantid::1d de información :so!Jre la magnitud aleatorl a X que se coot.ieoe en la magnitud aleatoria Y se toma la disminución de la indetermina¡;ión de la magnitud X ohtcnida como resultado de la observación de la magnitud Y , es decir, la diferencia entre la entropía de ln magnitud X y su entropía condicional media con respecto a la magnitud Y. Partiendo de estas consideraciones, la cantidad de información sobre la magnitud aleatoria X contenida en l a magnitud aleatoria Y se det.ermina por la fórmula I , !XI =H CXI -Hv IXJ.
{7.4.1)
La iutuición nos sugiere que la cantidad de información no puede ser negativa. Demostremos esto. Par11 ello basta mostrar que la entropía condicional .media de unn magnitud aleatoria no puede sel' mayor que su entropía no conclicional. Para simplicidml, nos limitaremos ni caso de magnitudes discontinuas X , Y. No obstante, esto se pue1le demostrar tambión. de un modo absohit.amente semejante, referente a magnitudes aleatorias r-ontinuas. Sean X e Y dos magnitudei; aleatorias discontinuas cuyos valores de probabilidad se deterrii.inan por las fórmulas (7.2.8)-(7.2.12). La entropía condicional media de In magnitud aleatoria X con respecto a Y, en virtud de. (7:,2,1:4), se determina por la fórmula JI u [X] = -
" ).i "' Pii ' lo!{ P1J·
~
i=I
(7.4.2)
J~l
Aplicando la fórmula (7.2.10), reduzcamos la expresión de la entropía no condicional de la magnitud X a la forma n
ll IXJ = -
~ p¡ ~log P1 = -
f =l
,~
m
2: l=• ~ p;¡2 log p,.
1~1
(7.4.3)
.9 7.4.
lnfor111ación qut st conlitn~
tll
las m4¡;niludti aleatorias
2.95
Restando miembro a miembro la fórmula (7.4.2) de la (7.4.3), obtendremos
11 fXl-H u IXI
n
m
i=I
1-1
="'L.J "1· p L.J
11
1
1ogfu /JI
o bien, teniendo en cuenta (7 .2.11)
" "'
H [XJ-lf11 [Xl= "' "' pfJ 2 logBL. L.J L.J Pl'IJ
i-•
i= l
(7 .4.4)
En virtud de l a desigualdad (7.1.6) ' log...E.!.L p . p¡gJ
2 loge. (i-filL) PI/
(7;4.5)
De (7.4.4.) y (7.4.5) se deduce que n
"'
1.~ 1
¡ .. ,
s rx 1-Fiu!Xl :'.?i1oge ~ Li PIJ( 1 n.
=
1
"~;¡) = m
loge ( 2j ~ p11t~t
J- 1
n
m
i...;l
;. J
Li ~ p¡q¡).
(7.4.6)
Pero n
m
~ ~
i = I j=t
n
p;1=1,
~
i- J
m
n
f~ I
l~t
m
i: p ;q¡= ~PI j,_t ~ Q1= i.
Por consiguiente, la desig11nldnd (7.4.6) es equivalente a la de.s igualdad (7.4.7) II IXI -H 11 JXI ~O. En (7.4.5) y (7 .4. 7) el sig110 de igualdad puede tener lugar solamente en el caso cuando PiJ = p 1q¡ para todos los i, j, es decir, cuundo las magnitudes X e Y son ind ependientes . Así pues, hemos d11mosLrado que Ja caotidlld de inform oci6n no puede ser negativo y puede ser igual a cero sola mente en el caso de X e Y i ndependientes. Si lns magnitudes X e Y ~on dependientes, cad a una de ellas contiene unn cantidad positi va (le información sobro l a otra. ü c (7 .2.21) y (7 .2.22) se deduce que
H IXI
+ H:x lYI =
H IYI + H uX,
de donde
H IXJ - flv fXI =H IYJ -H,, IYI. Esto quiere decir que la cao\idud de información que se con\ieoe en Y sobre la magnitud X es igual a la cantidad de información
29G
Cap. 7 f : ntropla e inform11<:llon
quo se contiene en X sobre Y: l w !XI =
fx
IYI.
(7.4.8)
De (7.2.21) y (7.4.7) se deriv a t nmbién que H IX, Y) ~ JI [XI H IYJ.
+
(7.4.9}
Puesto que según Jo demostrado, la entropía condicional media de una magnitud al eatocta no puede ser nunc a mayor que su entropía oo condicional, entonces, de (7.2.24) se deduce la desigualdad n
JI
!Xs. ... , XnJ ~ ~ H !X1J.
(7.4.10)
1~1
El signo de igualdad tiene lugar en (7.4.9) y (7.4.10) solamente co ol caso d1:1 magnitudes indepondicntes. Las fórmulas (7.4.9) y (7.4.10) muestran que la entropía de un vector aleatorio no puede :ser mayor que la 8UIDA de las entropias de sus componentes y puede ser igual a esta suma solamente en el caso do componentes independien tes. De la desigualdad (7.4.10) se desprende también que entre Lodos los vectores aleatorios cuyas componentes tienen entropías asignadas de antemano, los vectores aleatorios con las componentes independientes poseen Ja mayor ent ropía. Lu desigualdad (7 .4.10), junto con la propiedad ex.tremal de la disti·ibución normal demostrada eu el párrafo anterior, muestra que entre todos los vectores aleatorios cuyas componentes tienen dis persiones asignadas de ontemano los vectores normal mente distribuidos con las componentes independien tes poseen la mayor entropía. Ejemplo 7.4.t. Hall ar la cantidad de w!ormación ncen~a de una euutponente dcl vector aleatorio normalmente repartido, C(lnteoida en ot ra componente. En virtud dn l
.!, iiog 2
C11C22
cuc.,-cf.
o blon, toI\lando en considernci6o las rolaciones (3.6. i8) y (a.6.19) entro los coeflclehtos c 11 y las füs~rslonM y el coeficiente de C(lrrelación de las compo-
neotes del vecto'r aleatorio,
1
D D
l
=~log, r.--::;. xv v1-r' donde r es el cooficiente de coruJaci6n de las magnitudes aleatofi115 X e Y.
11,!Xl=z-'logD
x
¡/_!!k, v
Se puede demostrar todavía que por .oingu.oa transformación de la magoitud aleatoria observada Y se puede aumeo tar la cantidad de información que ésta contiene sobre la magnitud aleatoria X. Con otras palabras, ninguna fu nción de la magnitud aleatoria Y puede
{I 7,4, Información que se co11tte11e en ta$ magnit udes aleatorio•
297
contener mayor cantidad de información sobre la magnitud X que Y. Solamente en el caso de una transformación recíproca univoca, ó, usando la terminología física, transfornrnción reversible, la cantidad de información queda invariable. En el caso de una transformación irreversible, la cantidad de· información disminuye obligatoriamente. Es obvio que la cantidad de información que se contiene en una magnitud aleatoria discontinua sobre si misma es igual a su entropía: I,. [XI = JI IX]. (7.4.H) En efecto, una vez efectuada la observación de una magnitud aleatoria, no queda en ella ninguna indeterminación. For ·coiisigtiienie• . su entropía condicional media con respecto a sí misma es igual a·cero.. Esto es lo que demustra a la fórmula (7.4.H). Al comparar lo fórmula (7.4.11) con (7.4.1), se deduce que ninguna magnitud aleatoria puede contener más información sobre la magnit ud aleatoria discontinua X que la misma magnitud X. Esto. está c111ro intuitivamente sin recurrir a lns fórmulas.
Capítulo 8
Determinación de las cai.·acterís ticas estadísticas según los resultados de los eAJ>erimentos § 8.1. Dolermiuación de las probabilidades de acontecimientos, las (unciones de disb'ibución y la!! densidades de probabilidad
Como sabemos, la estabilidad singular de las frecuencias de acontecimientos y de los vlllores medios aritméticos de magnitudes aleatorias es un factor experimental impol'tantisimo que sirvo de base de la Teorla de las Probabilidades y determina la posibilidad de su empleo práctico. En el § 1.2 dimos la explicación elemental de estos factores. En los ejemplos del § 3.9 los úhimos fueron explicados -teóric<1mente con ayuda de las propiedades principales de l as esperanzas matemáticas y las dispersiones de magnitudes aleatorias. La estabilidad lle frecuencias y medias, que se observa prácticamente y se desprende de los principios fundnmontales de la Teoria do las Probabilidades, da la posibilidad de determinar por vía experimental las caracteristicas estadísticas principales (l as probabilidades de acontecimientos y las esperanzas matemáticas de magnitudes a leato·rias). En todos los casos esta posibilidad se determina por el hecho de que las dispersionos de ciertas foor.iones de los resultados aleatorios .de los experimentos t.ienden a cero al crecer ilimitadamente el número de pruebas. La frecuencia ele un acontecimiento es la relación de la magnitud aleatoria (el núroero de veces de producirse el acontecimiento) al número de pruebas, es decir, ella misma es una maguitud aleatoria. En dititintas series de n expllrimentos iguales cada \loa, la frecuencia del acontecimiento tomará distintos valores. Sin embargo, la dispersión de In frecueoci11 siempre puede ser hecha tan pequeña .c<:>'trio se quiera si se realiza en la serie n un número de experimentos lo sufici.e ntemente grande. La media aritmética de la magnitud aleatoria obtenida en una serie de experimentos os uua magnitud aleatoria, puesto que el valor de la magnitud aleatoria que se examina ·es en cada prueba aleatorio. Por consiguiente, en distintas series de n experimentos iguales la media aritmética de la magnitud aleatoria prácticamente siempre tomará d iferentes valores. No obstante, tenien-do la serie un número de pruebas n lo suficientemente grande, la dispersión de la media aritmética puede ser hecha tan pequeña como .se quiera. Debido a esto l a fluctuación de J11s medias aritméticas, en distintas series de n experimentos cada una , será tan pequeña como :Se quiera siempre que n sea lo bastante grande. Así pues, al aumentar ilimitadamente el número de pruebas, las frecuencias de aconte.eimientos y las medias aritméticas de magnitudes aleatorias tratan,
§ 8.1. Detmn lnac16n d~ las pro/Jahilldadu
en ciert o grado, '
En la prácticn se emplean de ordinario sólo las estimaciones fu odadas, puesto que únicamente en este caso se pueue obte ner una estimación tan precisa como se quiera (es clccir, u.tia probabilidad de grandes errores ta:u pequeña como se quiera) al ser el número de .-xperimentos lo suficientemente grande.
ªºº
Ca¡1. 8 fJelerminact 6n a~ In., Crlrt
Lr1 esLimación cuya esperanza matemática, cualquiers:i que ~ca· el número de expe·rimentos, es igual a ltJ. caracteristica estadística que se aprecia se denomina no desplazada. La estimación cuya e11peran-· za maten1ática no es igual a le. caracteri~tica estad ística que se aprecia se denomina desplazada. La determinación de las estimaciones de lus ca racterí~ticas estadísticas, sus leyes de distribución y los errores admisibles con. probabilidades correspondientes es la tarea principal do un apart ado· especial de. la Teoría de las Probabilirlades denominada Estadística Matemática . La Estadística Matemática mod erna rep resenta una vasta y bien estudiada asigna tura que dispone de numerosos y eficaces métodos de investigación y a la cual se han dedicado muclios libros especiales. Eu esta breve introducción a la Teoría de las Probabilidades 110 es posible exponer ni siquiera algunos métodos. fundamentales de Estadística Matemática. Por eso nos limitamns. aquí a. los procedimientos más elementales de la determinación de las aprecillciones de las características estadísticas principales. A los lectores que doseen conocer más profundamente los mét·odo~ de la Estadística Matemática moderna les recomendamos el exc.elente· li bro do H. l
P·= ~. (1
(8.1.2).
Al calcular la estimación de la probabilidad de un acontecimien tor la·. magnitud aleatoria X" se su.stitu.y e por su v alor m que se ha obtenido como resul tado de los experimentos. En conclusión se obtienel a fórmula (8.1.1). •) H. Kramór. Mathe"!atical Methods of St1ulistics. Prin:ct•m lln iv Press, t946 (Versi6n rusa : H. Kramer. Métodos matcmtit.icos de Estn11ística. Editorial de Literatura Extranjera , 1948).
§ 8.1. J)dtrm l nacl6n tk úu probalilllúadts
301
En el ejemplo 3.9.1. fue mostrado que IR esperanza matemática ·de l a frecuencia l'* y su dispersión se determinan por las fórmulas .(Vúanse las fórmulas (3.9.25) y (3.9.2G)I
M ¡p•¡ = p , D ¡P• J= .!!!.L, ll
(8.1.3)
·donde p es la probabilidad buscada del acontecimiento y q = 1 - p. La primera fórmula (8.1.3) muestra que la frecuencia del acontecimiento es la cs~imación no desplazada do la probabilidad del mismo. La segunda fórmula (8.1.3) muestra que la d~perslón de frecuencia es inversamente proporcional al número de expor.imento~ n. Si la calidad de estimación (8.1.2) se caracteriza por su 4esvla-ción cuadrática media, se puede decir que el error d~ la ,~estiip ación ·de probabilidad de un acon tecimiento, según la r~rmula (8.1.1), .decrece inversamente proporcional a Ja ralz. cuadrada del nóméro de experimentos a medida que aumenta este número. Así, por ejemplo, al aumentar e l número de experimentos 100 veces, el error de estima-ción disminuye 10 veces. La función de distribución de la magnitud aleatoria X representa la probabilidad del acontecimi.onto X < x considerada como fun-ción de la variable x. Por eso en calidad de 8.'JLimación de la función -de distribución de la m11g11itu1l aleatol"ia X se puede tomar la frecuencia del acontecimiento X < x calculada pnrn 1.orlos los v11lores «le x. Como vimos en el § 1.2, al realizar 1~ experim1Jntos, lu frecuencia del acontecimiento X< x siempre so representará por unll curva -escalonad11, con ello, lns a lturas de los escalones son iguales a 1/n o múltiples de este número. Para hallar la e.~timnció n de la funció n de distribución de una magnitud aleatoria continua, est<1 curva c!'\Calonada comúnmente se alisa, es decir, se sustituyo por una curva más suave. Así p ues, por esti mación de la !unción de d istri bución de unn función aleatoria X se toma generalmente [11 función obtenida median.to la diferenciación de la curva csc11lonada de lil función -0mpirica de distribución h allada corno curva de la frecuoDcin do! aconteclmi.onto X < x en [unción de x. Lo tiiftmmc.iación puede ser llevarla a cabo con ayuda de una curva 11naHtica convonionte -0 n simple vista. En el primer cnso se obtieno una expresión 1111alitica de la estimación de la función do distribución. En el S(lgumlo caso la estimación de la función de distrihució11 se obtiene en forma de una curva suave que la representa. L a derivación de la expresión analítica de la estimación d e la funció11 de distribución de une\ m11gnitud aleatorin es el mejor procedimiento par a hallar la ostímación de la densidad de probabilidnrl do la misma. Sil\ embargo, so puede encontrar Lnmbiér.i la~ estimaciones de las densidades de probabilidad por medio de la derivación gráfica de la!I curvas que representan las estimaciones de las funcion es de distribución. Por fl11 1 se p11ede hallar la e.~timación de la den-
Cap . 8 Dctcrm.f.uaci6n dP. las co.ractl!ristccas
sidad de probabilidad de una magnit,u d aleatoria, sin determinar· previamente la función de distribución, como la densidad de la fre-· cuencia con que el valor de la magnitud aleatoria va a parar en dis-' tintos pequeños intervalos del eje numérico. Para esto el intervalo, en el cual han ido a parar todos los. valores de la magnitud <1leatoda, observados como resultado ele los. experimentos, se divide en intervalos pequeños y para cada intervalo· se determina la relación entre la frecuencia con que el valor de la .r m0gnitud aleatoria alcanza est& intervalo y su longitud. Los resulJ"ig. $.1.1. tados obten.idos SI.\ representan gráíicament.e. Para e~to en cada intervalo se construye un rectángul~ cuya altura es igual a la rel ación de la frecuencia con que el valor de la magnitud aleatoria vn a parar en este intervalo a su longitud (fig. 8.1.1). A semejante gráfico se le llama poUgono de frecuencias. Para hallar la estimación de la densidad de probabilidad, el polígon~ de CrecuenciR.S obtenido se alisa con ayuda de una curva l\nalltic& conveuicnte. Como resu ltado se obtiene la expresión analítica dela densidad de probabilidad. § 8.2. Determinación de los momentos de magnitudes aleatori as
Por estimación de l a esperanza matemática de una magnitud aleatoria conviene t omar su media aritmética obtenida como resul-· tado de experimentos. Supongamos que como resu ltado de n pruebas. independientes realizadas en iguales condiciones la ioagnitud aleato-ria X ioma los :valores Xtt • • • , Xn· Entonces. la estimación 1n: de hi 131ip~ranz_a :rna,~em:ática m., se determinará por _la fórmula
t8.2.1)' La estimación de la esperanza matemática toma un valor determinado solamente después de llevar a cabo los experimentos, puesto q~1e. las magnitudes x 1 , • • • , x,. representan los valores do la magnitud aleatoria z obtenidos como resultado de las pruebas. Designemos por medio de Xu ... , Xn los valores aleatorios de la magnitud alea.toria X en n experimentos dados. Entonces l a estimación de la esperaoza matemát ica de la magnitud .aleatorfa X, considerada antes de realizar la pr.ueba comoº magnitud· aleatoria, so expresará por la
.~
303
8.2. Determinación de fo< momentoa
fórmula
" An=¿ ~X;.
(8.2.2)
i~1
En el ejemplo 3.9.2 fue demostJ;ado que la esperanza matemática y la dispersión de l a media aritmética de una magnitud aleatoria X al efectuar 11. experimentos se determinan rror las fórmulas lvéaos& las fórmulas (3.9.27)] M
[.M~J = ~'"
D
[M~I = ·n,:· ,
La
donde Dx es l a dispersión de la magnitud a leatoria X. -p~imef~ fórmula (8.2.3) muestra que la media aritmética es una estimación no despla:r.ada de la esperanza matemática de la magnitud aleatoria. La segunda iórmula (8.2.3) muesua que siempre que la precisión de la estimación (8.2.2) se caracterice por su desviación cuadrática> media, el error de Ja estimación de la esperanza matemática decrece· ioversameute proporcional a lfñ al aumentar n. La dispersión do la magnitud alcntoria X r epresenta, segúri la definición, la esperanza matemática de la magnitud aleatoria (X - m,,)z. Por eso la media aritmética de la magnitud (X - mx)\\' es una estimación natural D:, de la d isporsión D :x:· n
D~~~~ "'1 (x¡-m.,-) 2 • 1i ,c..,
(R.2.'1)-
l= I
Esta estimación depende de la esperanza matemática m,, de la ruagnitud aleatoria X. Por eso puede ser aplicada sólo on el caso on que la esperanza matemática de la magnitud aleatoria sea c-,ouocida. En este caso la estimación (8.2.4), como estimación de la esperanza matemática de l a magn itud aleatoria Y = (X - m,,)2', es una estimación no desplazada de la dispersión de la magnitud aleat.oria X. Sin ern.bargo, la esperanza matemática de una magnitud aleatoría es, como regla , desconocida y se determina por los re~ultados de los mismos experimentos que la dispersión. En tal es casos conviene sustituir en la fórmula (8.2.4) la esperanza matemática por su estimación. Como resultado, paJ"a la estimación de la dispersi1'in de la mngnitud alentorin X se obtiene la fórmula
"' ( 1 L.J ~ • l').r~n xc-ni.,;*)2 .
(8.2.5)
ic:t
No obstante, c.%0 cst.i maci.ón resulta ser desplaiatla. Para de.mostrar esta afirmación, SU$tituyamos en la fórmula (8.2.5) los valores concretos :r.11 • • • • x~ de la magnitud aleatoria X, obte.nidos como resul-
Cap. 8 Dctcrmlnaciii" de Las caractt.rí1tlca1
tad o de experimentos, por la~ magnitudes aleat.orias correspondient es X h . • . , X,, y vamos a co nsiderar In esii maci6n de la dispersión, s in enlazarla con ¡>ruebas concretas, como magn itud aleatoria:
Z,.
=*i (X; -M~} • 2
(8.2.G)
1=1
Para determinar la esperanza inatemática do esta estimación, basta todos los sumandos de l a suma por l11s esperanzas matemáticas de los mismos (véase el § 3.8). Calculemos previamente las esperan zas matemáticas do los sumandos que forman la suma de l a fórmula (8.2.6). Conformen la definición de la dispersión de una magnitud aleatoria, teniendo en cuenta que la esper11oza m atemática de 1a diferencia X 1 - 1W: es igual a cero. tenemos M¡(X1- M.~)J=DLX1 - M~J. (8.2.7) susti~ui.J"
Pero
n
X1-M':=X1-.!."" . ,, ¿,i ;-i
n
X1 =(i -.!.)X¡-.!. ~ 1X¡, n n. ,¿J ,_,
donde el índi.:e i anexo a la sum a muestra quo la adición se realiza con respecto a todos los valores del índice j ele 1 hasta n, salvo el valor j = i. Así pues, la diferencia X 1 - M: repre~en ta un.1 función lineal de n magoitucfos aleo torias Xi> .. . 1 X,.. E~tas magnitudes son independientes puesto que según la suposición los experimentos son independientes. Por eso, para cakulAT la d is¡iersión rle Ja diferencia X, - M~ se puede aplicar la fórmula (3.!).7) para la dispersión
(t 1)'D
Las fórmulas (8.2.7) y (8.2.8) muestran que las e.\lpernnzas matemáti.c:as de todos los sumandos en la suma de la fórmula (8. 2.6) son iguales. Por lo tan to , (8.2.!J) Así pues, la esperanza matemática de la estim ación de la dispersión .D,, (8.2.6) no es igual a la dispersió n D ", aunque tiende a D,. cuando a-+ oo, como esto debe ser de acuerdo con 111 definición de l a esti-
§ 8,g, Deurmina.ción de los mnmc11tos
305
mación. El resultado obtenido muestra que la fórmula (8.2.5) dl! una estimación desplazada de l a dispersión. Esto quiere ~ecir que, aplicando la fórmula (8.2.5) para estimar la dispersión de una magnl':. tud aleatoria, obtendremos un error sistemático. La dispersión resultará ser por término medio menor que Ja rea l. Para hallar una estimación no desplazada de la dispersión de la magnitud aleatoria cuya esperanza matemática es·desconocida·, obser. vemos que, en vir tud de la fórmula (8.2. 9), la es1)eranza matemática de una magnitud aleatoria n
1
Vn = n-1 -ª-Zn = -n -
-
~ (X1-l'vf'!.)~ 1~
(S.2.10)
i= I
os igual a la dispersión D.-. de Ja magnüud aleatoria X. Por eso la estimación no desp lazada de la dispersión D., de la mngnitud aleatoria X suele determinarse por la fórmula
"
D:= "~ 1 ~
(.1:1 -m1) 2 .
(S.2.11)
i=I
Esta fórmula se aplica generalmente para determinar l as dispers iones de magnitudes aleatoria,, por los resultndos de los experimentos cuando las esperanzas matemáticas son desconocidas. Aná'logamente se hallan l as estimaciones de los momentos de correlación de magnitudes aleatorias. Como, según la definición, el momento ele correlación kxu de dos magnitudes a leatorins rea los X e Y es l a esperanza matemática de la magnitud aleatoria (X - m,:) (Y - m ), entonces la estimación natura l del momento de correlación es fa media aritméticn do esta magnitud al eatoria: n
kt11=-} ~
(x1 - m..,)(Y1 - m11) .
{8.2.12)
Esta fórmula da una estimación no desplazada del momento de co~ rrclación siempre que las esperanzas matemáticas de las magniludes aleatol'ins X e Y sean conocidas. Si las esperanzas matemáticas do las magnitud es aleatorias X e Y son desconocidas, entonces l a estimación no desplazatla de su morrwnto ele correlación kx.y se ofrece por la fórmuln 7•x11 ,.. =-. .
,. _i
"
1
"" ( 3:;-mx ") ( y ; -m*) 11 ,
~
(8.'-'. ·13)
i::a l
dond e ~. m~ son las estimaciones ele las esperanzas male:máUclls de l ns magnitudes aleatorias X, Y respectivnmonte:
"
m~=+ ~ l=1
' " 2 0-0938
j :¡ ,
308
Cap. 8
D~terminactón
lk las
caracterí.~ttcas
§ 8.3. Determinación de Jos momentos de funciones aleatorias estacionar las
Al determinar las características de funciones a leatorias estacionarias, se supone comúnmente que éstas son ergódicas y se ut iliza una sola realización suficientemente l arga de la magnit ud aleatoria, obtenida experimentalmente. Supongamos que coruo rasultado de la prueba ha sido obtenida Ja l'cali:c.ación x (t) de la función aleatoda estacionaría crgódica X (t) en el inter valo O ~ t ~ T. Entonces, en virtud de lo expuesto en el § 5.5, por estimación do la espcranzn matemática de la función aleatoria X (t) se puede tomar la magnitud
·r m~=+ ~ x(t) dt.
(8.3.'1)
Según lo dcltlostrado en el § 5.5, la esper anza matemática de esta estin1ación es igual a la esper anza matemática m.., de la función J;
1
.r;(t• t) .r(t)
r'trV\Arll~
j_J~ Fig. 8.S.i.
}"ig. 8.3.1.
aleatoria X (t} y su d ispersión tien de a cero cuando T-+ oo. Por consiguiente, la fórmula (8.3.1) da u na estimación no desp lazada deJa,.~sp~ranza matemática de la función aleatoria estacionaria X (t) . .La estiinAción. de l a f¡mción correl ativa k,. ('T) de una función !!leatoria estncionaria ergódica (con r espec to a la correlativa) se determina, e'n' virtud de los resultados del § 5.5, por la fórmula
i
'!'-~
kHi:)= T~"'
lx(t)-m!'J [x(t-1-•)-m~¡dt.
Aq~í el valor medio ba sido tomado ea el intervalo (O,
(8.3.2)
T - 't') puesto que .. l as funciones x (t) y x (t+ T) son conocidas conjuntamente solamente en este intervalo (fig. 8.3.1). La fórmula (8.3.2) da la estimación de la función correlativa para 't' >O. Cuando i: < O, l a estimaci ón de la función correlativa se determina de la condición de su paridAd
J
8.9. Dettrmil'l4Ción de los
mame~.101
307
Se puede recomendar que la fórmula (8.3.2) se aplique cuando T/5. Si T tiene grandes valores, el error de la estimación cl:e la funcióa. correlativa segúa. la fórmula (8.3..2) aumentará. Si la ·esti~a cióa. de l a íuncióa. correlativa, obtea.ida por la. fórmula (8.3.2), tientfe con evidoncia a cero al aumentar T {fig. 8.3.2}, se considera quir J.a suposición acerca de la ergodicidad de la función aleatoria es justa. Si la estimación de la función correlativa tiene una «co1a» di.stinta del cero (fig. 8.3.3), se considera que la suposición acerca de la ergodicidad no se justüica. En estos casos conviene determinar cuál k)rJ es la causa de no ergodicidad.. Eln el § 5.5 hemos visto qile una causa tipica de no ergodicidad de un proceso aleatorio estacionario con respecto a la función correlativa es la presencia de una componente perió~· ;g. 8.S.3. dica en la propia función alea toria. Si es ésta la causa de no ergodicidnd (más exactamente, de qno atenuación» de la función correlativa), conviene separar de la función aleatoria la componente perióclica y sólo después hallar la estimación de In función correlativa aplicando la fórmula (8.3.2). Si en la función aleatoria en cuestión hay una componente sinusoidal , entonces, en virtud de los resultados de los ejemplos 5.5.2 y 5.5.3, la fórmula (8.3.2) dará en la [unción correlativa una cosinusoide de la misma frecuencia , cuya amplitud es igual a la mitad del cuadrado de la amplilud de la componente sinusoidal de la función aleatori a. Prácticamente esta cosinusoide en la forma pura servirá de «cola» do la función correlativa (fig. 8.3.3). Por. eso la frecuencia y la amplitud de la componente sinusoidal que forma pa1·te de nna funcióa. aleatoria estacionaria se determina fácilmente por lo. «cola» que se tiene en la estimación de la función correlativa. Al mismo tiempo, la fase de la componente sinusoidal puede ser determinada sólo por selección procurando obtener que desaparezca la componente periódica en la estimación correlativa. En el caso de que en la esti· maeión de In func.ión correlativa haya una componente periódica no sinusoidal, conviene descomponer esta última en 1a serie de Fourier en los cosenos de las frecuencias correspondientes al período. Con ello, serán determinadas las amplitudes y frecuencias de las sinusoides correspondientes que forman parte de l a propia función aleatoria. Las fases de estas sinusoides se determinan seleccionándolas por turno de modo que se logre la desaparición de las cosinusoidcs correspondientes en la ~cola~ de la función correlativa. De un modo absolutamente análogo se baila l a estimación de la función correlat iva recíproca de dos funciones aleatorias estacionarias y estn.cionariamcnte ligados X (t) y Y (t). Si se supone que estas
•<
~;
2Ü"
HOS
Ca p . 8 Dett:rmi11(JciV11 tl11 las curactcrÍ$ticas
fm1ciones aleatorins son orgóclicas con respecto a la función correln.tiva recíproca, entonces la estimación de esta úllima a hase de un p11r de realizaciones x (t) e y (t) de las funciones 11leatoriM X (t) e Y (t) i1notoda.'l en el intervalo O < t < T se determina por la fórmul a
k~v (i:) = r ~ ~
T- t
J [x (t) -m~J
{y (t
+•)-mil dt.
(8.3.3)
Es ta fórmula ofrece la estimación de lu función correlativa reciproca para T > O. Cuando ;
111~ -e: 1~ ~
X (
i/1 -
~)
i~ 1
+~ n
lÍ =
;e ( if:> -
~)
•
i~1
Poniendo aquí, para abreviar, que X¡ =X
(i6 -
~)
(í= 'l ,. , ., n) ,
obtendremos para Ja estimación de la esperanza matemática de la
funt
(8.3.5) A.nálogamento, para las estimaciones de la función correlativa y de la función correlativa recíproca obtendremos las fórmulas 11 -Jll
k.~(m.ó)= n-ni --"" ¿; (x;- 1n:)(xi+m -m.~).
1
(8.3.6)
i;. f 1
n-m
lr~¡,(mA)= - kJ "'1 (x1-m:) (y1.¡.m- m~). n-m
(8.3.7)
§ 8.3. Dtt•rml11aci611 de los """"'"~
309
Pasemos ahora a determinax las densidades espectrales de funciones aleatorias estacionarias. Como procedimiento mós sencillo para halla.r la estimación de la densidad espectral de una funciórl alea-
toria estacionaria puede servir l a aproximación previa de estimación de Ja función correl ativa de una de las tres funciones corrolatívas tipo, examinadas en l os ejemplos de los §§ 5.2 y 5.3, o de l a combinación lineal de tales funciones, con determ.ioación sucesiva de la densidad espectral por las fórmulas (5.2.22) ó (5.3.9). Con ello, l a estimación de la densidad espectral se obtiene en forma de una !unción racional fraccionaria, lo que es muy cómodo para resol\'~r los problemas prácticos para los cuales se determina la densidad espectral. En virtud de los resultados del § 5.5, la estimaciól) de la ·.fo~nción correlativa de una función aleatoria estacionaria, ergódica con respecto u ln función correlativa K;(T) ...
T~'T
T-1'
Jo Xº{t)Xº(t -+ -r)dt,
tier.de a ln [unción correlativa k,. ('r): lim le (-r) = kx (-r),
(8.:U:!)
(8.3.9)
T-oo
en el sentido de que la esperanza matemática del cuadrado de la diferencia entre K~ (i;) y k:c (-r) tiende a cero cuando T-+ oo. Surge l a pregunta: ¿Se podría determinar la esti mación de la densidad espectral sustituyendo en l a fórmula (5.3.9) directamente la estimación de la función correl ativa calculada por la fórmu la {8.3.2)? Con ello, es necesario sustituir en la fórmula (5.3.9) el intervalo infi nito de integrnción por el finito (-T, T), puesto que, por la realización de l a función aleatorL de longitud T, es imposible determinar por la fórmu la (8.3.2) la estimación de la función cor relativa para 1.- 1 > T. Para resolver la cuestión planteada, es necesario hallar la esperanzo matemática y la dispersión de la fun ción aleatorin 1 s ;(cll)= 2n
1K~('t°)COSCJ>'td1:= ~ 5
( K;(-r)cosrotdi;. (8.3.10)
-T
Es fúcil ver que, en virtud de las fórmulas (8.3.9) y (5.3.9), la esperanza matemútica de la función aleatoria ~: () tiende hacia la de11sidad espectral s,. (CJ>) de la función aleatoria X (t) para T-+ oo. No obstante, en el caso general, la dispersión de la función aleatoria S~ (ro) 110 tiende a cero cuando T-+ oo. Por lo tanto, la función {8.a.10), obtenida como resultado de la transfor mación de Fourier de la estimación de la función correlati va, es wrn estimación no fundada de la densidad espectral y por eso priicticaroente no puede servir de estimación de dicha densidad.
3t0
Cal'. 8 Determinación de las caracterfsliciu
Para hallar la estimación fundada de la densidad espectral valién· dose directamente de la estimación de la función correlativa, sin aproximarla previamente por Ja expresión analítica, observemos que para la función aleatoria normalmente repartida X (t) la función s~ ((1)) posee la propiedad de que para cualesquiera (J)¡ y (1)2 fijas*) fon '.2'-N>
Js: (w) d(J)""' Jr s.• (úl) d(J).
"''
ti)I
(¡)l
(8.3.11)
En (8.3.11) el limite debe comprenderse en el sentido do que la esperanza matemática del cuadrado de la diferencia entre las integrales en (8.3.11) tiende a cero para 1'-+ oo. En virtud de (8.3.11) se puede considerar prácticamente que, cuando T sea suficientemente grande, será válida la igualdad aproxi mada
""Js~ (
(8.3.12)
Ct>i
WJ
independientemente de la realización posible de la función aleatoria X (t) utilizada para el cálculo de la función S~ ((J)). Poniendo en (8.3.12) ro 1 = CJlo - a, úl 2 = ro 0 + a , para un valol' de a Jo suficientemente pequeíío, obtendremos ~rj-"
~ s., (ro) dw ~ 2as,, (ti.>~).
(8.3.13)
Wl)-Ct
De otro lado, en virlud de (8.3.10) roo+« r S~(c.>) KHt) sen(wo+ci)T-;son (©0-a.) T du=
J
O>o-a;
dw =+)
o
r
-_ n2
JK* ( ) cos
1:
T
1:.
(8.3.14)
o
Sustituyendó l as expresiones (8.3.13) y (8.3.14) en (8.3.12), obtendremos después de .d ividir por 2a
+J 7'
IG(•) COSúlo;~ona:t d't~s.,(wo)•
(8.3.15)
u
1') Véase J. L. Doob. StochaHic Process~. Iohn Wiley, 1953, chapt. 10, § 8 (Vc1·sión rusa: J. L. Dooh. Pi:ocosos probal>ilísticos. Editorial de Lif.eratura
Extraujera, 1%6, cap. 10, § 8).
au
§ 8.8. Dtltrmlnaeión de lo• momonto1
De aqu! se ve que de estimación fundada de la deo.sidad espectral de una función aleatoria estacionaria X (t) puede servir la función 1
• ( )
Sx.
(O)
1 ""'n
\ k* ( ) cos wi: sen
~
"
T
etT
Ct'f
d
(8.3.16)
't,
donde ~ (• ) es la estimación de la función correlativa calculada por la fórmula (8.3.2). Al deducir la fórmula (8.3.15), fue a plicado el teorema de la media a la integral del segundo miem bro de la igualdad (8.3.12). Tenemos derecho a hacerlo siempre que la densidad espectral s,, (Cll) sea continua en el intervalo (w 0 - a, w 0 et). Sin embargo, e.l t.corema de la media no se puede de ningún modo aplicar a fa i ntég'ra.I del primer miembl'o de lo Igualdad (8.3.12). Esto se expficii por•el carácter especial de l a función aleatoria (ro). Todas sus realizaciones son funciones que oscilan rápidamente en una gran gama. Adeuuis, siendo T lo suficientemente grande, sus realizaciones, en un intervalo tan pequeño como se quiera (Cll., (l)z), realiuin en amplios limites una infinidad de oscilaciones caóticas. Por eso el valor de la función aleatoria .§; (w) en el punto w 0 es aleatorio, tiene una gran dispersión y debido a esto no puede ser tomado por su media en este intervalo. Por este mismo carácter de la.s r ealiiaciones de Ja función 1d eat.oria (ro) se explica el hecho de que la igualdad (8.3.11) es vólicln , mientras que la propia función aleatoria s~ (w), cualquiera que se11 el valor ro, no tiende hacia el valor correspondiente de l a d ensidad espectral s,, (w). Como resultado de la integración, las oscilaciones de l o funcióu aleatoria S;. (w) se aligan, y al ser T lo suficientemente grande , cuando el número de oscilaciones en el interv11lo (w1o
+
s:,
s;
s;
+
s;
3\Z
Cap . 1/ O etermhuuiiin dt fot eararttrlltlca•
dictorios. Es evidente que estos requisitos los satisface el mnyor vnlor do a para el cual la rlensidad espectral s., (c.>) puede ser considerada aproximndamenle lineal en cualquier intervalo de frecuencias ele longitud 2a. Prácticamente la magnitud conveniente de a se determina por selección. De un modo semejante, para la estimación de la densidad espectru l recíprocn lle dos funciones aleatorias estacionarias y estacionariamente ligadas X (t) e Y (t) se obtiene la fórmu la
S~v (< >) = 'l~'
T
J
/.:;y
(T) e-
1"''
-T
so: ~'t
d't.
(8.::1.17)
§ 8.4. Determi nación de los momentos Je fu nciones aleatorias uo estacionar las
El cálculo de la estimación de la esperanza matemática ele u11a función aleatoria estacionaria, valiéndose de la fórmuln (8.3.1), se puedo considerar como alisado de su rcalii;aci6n obtenicla como .z:
t'
Fig. 8.4. t.
Pig. 8.4.2.
rcsullndo del experimento (fig. 8.4.1). Es natural que surja la idea de gencrnliiflr este procedimiento para las Iunciooes aleatorias no estacionarias y c!.eterminar lo esperanza matemática ue una función alillitoria: no · estacionaria alisando una de sus real iz11cioncs (fig. 8.4.2). Esto es completamente posible si la realización de uno funci6o aleatoria X (t), obtenida como resultado del experimento, iis lo suficientemente larga. En esle caso el alisado de la realiz11ción puede ser efectuado a simple vista o bien aplicando cualquier otro método de alisado de funciones. Para alisar n s imple vista, es neeesario construir la realización obtenida (o anoLarla directamente durante Ja prueba) en una escala lo suficientemente pequeña por ol eje de 111 variable independiente, para que se maniíicste lo más claramente posible la bando llenada por la realización . Trazando a Bimple vista la línea axial de esta banda, obtendremos precisamente la curva que puede ser tom11da por estimación de la esperanza tnAtemática do la íunci6n aleatoria.
§ 8.4. D.termi11acl hn de /.f)s mome1.tos
313
Para alisar con ayuda de calculadoras digitales o calculado1as manuales, se puede aplicar el método de la media móvil. Este método consiste en ·que ·por valor alisado ·de l¡¡. función en cualquier punto t se toma s.u media en cier to intervalo con centro en el punto t. Al variar t, este inter\lalo se mueve a lo largo del eje t que es lo que ex·p lica· el nombre dado a este método. Aplicando el método· de lá media móYil, obtendremos para la estimación de la esperanza mate• mática de una función aleatoria no estacionaria l a fórmula
m~= 2 ~0
l+To
Í
(8.4.t) x(s}4s. 1.=r0 Cuanto más ~randa sea el iritervalo 2T0 ·e·n ésta :fórmula :fa:nto "i:nej
Kx (t
+ T, t) =
ftf [Xº (t
+ T)
Xº (t)
(8.4.2}
En virtud de esta igualdad, la estimación del valor de la función correlativa, cualquiera que sea el valor fijo de T, puede ser obtenida alisand.o la realización de la función aleatoria
ZT (t} =[X (t+"f} -M~ (t + T}l [X (t)-M; (t}],
(8.'1.3}
que se considera como función de ,-. El alisado puede llevarse a cabo a simple vi:sta, trazando la línea ax ial de la banda cu la cual osciit1 la realización de la función aleatori a o bien aplicando cualquier otro método de alisado de funciones. Al utilizar para el alisado ol método de la media móvil, obtedremos para la estimación de la función co21-osss
Cap. 11 {)e/ermlnac(clrt de tus t:arar.terístlcas
rrelntiva la fórmula
K~(t +i:, t)= 2~
1
"t+ T1
J [x(s+-r)-m~(s+-c)] [x(s)-~(s}]ds. (8.4.4)
t - T1
La magnitud T 1 debe ser elegida lo más grande posible, pero tal que el valor de la función cor.r elativa para el valor dado de -e, considerado como función de t, pueda ser estimado aproximadamente como función lineal en cualquier intervalo de longitud 2T 1 • Conviene subrayar que la determinación de la esperanza matemática y de la función correlativa de una función aleatoria no estacionaria aplicando el método de alisado es posible solamente en el caso en que la longitud do la realización anotada supera considerablemente el intervalo de correl ación de la función aleatoria. Noobstante, en este caso la precisión de las estimaciones obtenidas de tal modo será considerablemente menor que en el caso de funciones. aleatorias estacionarias puesto que los intervalos de mediación en las fórmulas (8.4.1) y (8.4.4) 2T 0 y 2T 1 deben ser por necesidad considerablemente menores que l a longitud de realización T (cinco veces. por lo menos). Al determinar l a esperanza matemática y la función. correlativa de una función aleatoria estacionaria, como intervali> de mediación se toma prácticamente toda la longitud de realización. Por eso las esperanzas matemáticas y las funciones correlativas de funciones aleatorias no estacionarias deben determinarse, como regla,. por varias realizaciones. Pnra determinar la esperanza ma temática y la función correlativa de una función aleatoria no estacionaria por varias realizaciones de la misma, obtenidas experimentalmente, se recomienda emplear para cada realización el método de alisado expuesto anteriormenteY tomar las medias aritméticas de los resul tados referentes a distintas realizaciones. '. .. Por el método de alisado de uno o varios pares de realizacioné& d:e· dps ·funciones aleatorias se determina de un modo semejante la funció.i:i. correlativa _recíproca de l as mismas. · ·$tibray~,mqs ·~na vez más que el método.de alisado de u.na o varias r.!i.aJizl!¡:'iones· .se puede utiHzar para hallar las estimaciones de las espei:ai'i'za~· ri)°at~miiti9as · y fünciones correl ativas .de funciones aleatorias:i!iolam·~níe: en· el caso'·en que los intervalos de coi:rel aci6n det.odas 111s funciones aleatorias ·anotadas son pequeños en comparación ci;mJ a ·longitud.
§ 8.4. Determinación de los momentos
315
realizaciones expuesto anteriormente. Con ello, cuanto más O!lci laciones caóticas efectúen las funciones anotadas en el intervalo de anotación tanto menor número de realizaciones será necesario. Para las funciones aleatorias con esperanzas matemáticas y dispersiones lentamente variables, las cuales se pueden considerar próximas a las estacionarias (el caso de una no estacionaridad débil), se puede limitarse a una realización lo suficientemente larga. Pero si la longitud de las realizaciones anotadas es comparable con el intervalo de correlación de la función a-léatoriá, por ejemplo., si todas las. realizaciones anotadas representan .curvas suaves, entonces es en principio imposible hallar las estimaciones conveniente.s de las esperanzas matemáticas y las funciones corr~lativas y correlativas reciprocas sirviéndose del método de alisado de ):as .realiza· ciones. En semejantes casos el único procedimiento posible de det'erminación de las estimaciones de las esperanzas matemáticas y .de las funciones correlativas y correlativas recí·procas consiste en tomar un nú mero suficientemente grande de realizaciones (del orden de 100) y, examinando los valores de las funciones aleatorias para diferentes valores del arguir\ento como n1agnitudes aleatorias, emplear las fórmulas del § 8.2 para el cálculo de las estimaciones de sus esperanzas matemáticas, dispersio.oes y momentos de correlación. Este procedimiento es, desde luego, absolutamente general y puede ser utilizado en todos los casos. Sin embargo, siempre exige un gran número de realizaciones para obtener una precisión satisfactoria de Jas estimaciones de las esperanzas matemáticas y funciones correlativas. Además, si la longitud de l as realizaciones anotadas es grande en comparación con el intervalo de correlación, este procedimiento no es racional puesto que no utiliza toda la información comprendida en los resultados de los experimentos. Por eso, si el intervalo de c.orrelación de Ja función aleatoríA es pequeño en comparación con la longitud de las realizaciones obtenidas como resultado de las pruebas, para la determinación de las esperanzas matemáticas y de las funciones correlativas se recomienda emplear el método ex.puesto u1ás arriba de alisado de una o varias realizaciones.
2t•
Suplementos
t . Algunas intcgr11lea delcrminadas Al !lcdurir ciertas fórmulas de la T eoríB r1r les Prnhnbilidades hity que arliear la fórmula
..Jr
"'
e"1-h•r> c1t = -Vñ -- tl.iií , 11
(1)
p1ir:1 cualquier vnl or real do /1 > O y para cuulquil'J' '1 complejo. En porticul nr, cuoudo '1 = O. 111 lónnul11 (1) toma la forn111
vállch
I
, - h•t•
ª' = ~ii .
(2)
- oo
..J
Para dtldunir la l
T ('1)=
el'lt-11•1•
dt.
(3)
Derivandn esta f6tmul11 cnn rc3pe<:LO al pnrámetrn •1 e intcgrandn por ¡>arteil,
obl~od N!mos
l'(r¡)'=
J t.'ll•-h•1•a1 ~ - 2!t r
-....
e 'lffk- h•rt =
o bloo l ' ('1) -=
.;J.s l (T}).
(4)
Esta fónnula pu~e ser coruildcrada como la ecuación diferencial que determina la Integral l (t¡). Para determioar '()Or completo la in~gral l (TJ) , ahora es sufi· ciente ballar su valor para un valor cualquiera de '1· Lo más sancillo es calcular el valor de esta integral para '1 = O, es decir, l a Integral (2): I (O) =
J"'
e-h•t•dt
(Sl
Sf7
Supúmmún
Puesto que esta integral no depende .de cómo está desig11e la la vai:iable de
..J
fntn¡iraclón, "" ¡¡uedr. escribir ta11Jbién
1 (O) ~
M11lti¡1l irando miembro a miembro las
J
J
""
¡2 (0) -
e-h••• a.,, fórmula~ (~) y
(6)
(11). obtendremos
00
e - l1tt: dt
, -Ah• tú-
-oo
J { J ,-,...•d.s} ,-h•t•ae = J¡J.,-c1•+••J111 ~
=
dtd.t.
-w
Dn
-oo
-oo
-w
o~l.e
E~to
~
~1~
modo, hemos reducido el problo1n u al cólcu lo d~ la integral doble. integral >
r'íÍa':':º""º en cousidcración quo el jacobi:1110 dl' esta tranoformación "s igual
I =
ª'
81
í)t
Os
Tr Tr
oq¡ -;¡;¡.-
i
1
r
r
Tcoscp Tsen 'P - T sen
r
- -¡:;¡:-,
obtend remos
e-r•r dr =
-
I'° "
n e _ ,., u .. h'l ,
1¡,o;
de donde se deduce precisamente la fórmula (2). J,ft integral de la cruaclón (4), i¡¡ual a
fórmu la
V:
para 11 - O. se oxprNa por la
- ...
n 1 (IJ)=" - V11.-e4h•.
F.sto es fácil roroprobar por la sust.itucíón directa. As!, rues, la fórmula (i) r¡uoda demostrada. Ue (1) se dedu~n fácllmcnt.e h18 lórmuills
..J
_.,.,
t21'-le-h•t•dt = 0
{k = t. 2, ... ),
(k = 1. 2, ... )
(7)
(8)
318
Supü~nlO•
Pare deducir estas fórmulas, derivemos l a fórmula (8) con respeel.o al parámetro '1· Cnmo result11d<>
obtcuclr~mos
...
/'•> ('l)- ) , ••11•-1t1t1 dt
(r =1, 2, ... )
_.,.
Poniendo aquí t¡ = O,
rnu~rcmos
..,
Jt••-h' 12
/m (0) =
(r=i, 2, ... ).
dt
(9)
Asi pues, LOOns las int.cgralos que nos ioteresrui ron los \"alorcs de derivadas de Ja integral l (1)) para T) "" O. La primera derivada de la integral I (i¡) se determina por la lormula (4). Para detmninar las derivndas do órdenes superiores de la integral f (1)), derivAmos la fórmula (4). Enl.Onces obtendremos !" (l¡) = 2! .1 (11)
+~ l ' ('l)
(!O)
y en general
r-1 'l / c•>(l\)=-w- ¡cr-i1 (1\l +w11.-11 (1J).
(11)
Para demostrar esta fórmulA, es sufic-icnte utilizar el método de inducción matemática. Suponiendn que e.~ti fórmula os válida para cierto valor do r, demostremos que es válida también para r 1. Derivando la fórmul a (11), obtenem os
+
/
2 ¡1r>(T)) =~ /
2
lo que era nocesarin domoslrar. Así pu~. put.l'W que la fórmula (11) es válida para r = 2 (Ja fórmula (10)1, ésta es váfü!A pnra cunlquler r. Snponíendo "n (11) que l') = O, obtendremos r- 1 Jm (0)= 2h 2 ¡ ir- ti (0).
(12)
Pero de (4) se tleri\'a que/ ' (0) = O. Por con~iguici1tc, los valores de todas lns detlvadas de órdenes impares de la inte~ral l ('1) para TJ = O S<>n iguales a ~eru, lo que demuestra la fórmula (7). Ademas, esta fórmula está clara sin demostraei6n, puesto que la integral de una !unción imp11r eo limites simétricos siempre 'i gual 8 cero. · Poniendo en (t2) sucesivatnente r = 2, 4, 6, .. . , 2k, obte11dremos
ea
/' (0) ...
z!,
l (O), ¡IV (O)=
!,
2
¡• (0),
¡12--~, (O)= 2;;;; 3 /
1<2~> (0)= 2~ f /<~A-11 (0). Multiplicando todas est11~ igualdades entre sí y efectuando las simplificaciones eorrespondionU!s, obtendremQS /<2A>(0)= 1. 3.5 ii.i.t~k-1) [ (0).
Suplermntos
319
Sustlluyendo aqu1 la expre:>ión (2) de la magnitud l (0), obtendremos precisamente la fórmula (8). !Dado que la Iunci6n subintegral en (8) es par, de (8) se deduce una fórmula m6s: (2k-1)11
(k=1. 2, • .. ).
2k-Hh~h+l
(13)
Para ln integral análngo. con potencias impares tiene lugar la fórmula
... í
J
o
,:--1•-htt• di ""':u.o (k - 1)1
(k=1. 2, ... ) .
(14)
raro deducir esta fórmula, observemos quo pllrn cnolquior o:> O ( 15)
En erecto.
I• ~t
- at• dt
l
f
""'2 J •
-~•a
o
1
,-a"/..
1
"=2-=ao -2(1·
Derivbndo la fórmula ( t !\) con respecto Rl parúmclro, obtendremos
.
"' ¡:k-1
J º
- (lt>
dt
(k -
1)1
~ ~-
Pnnleudo aquí a;= h', obt.endrcmC>S precisameuto la fónn11l:i (14). Con ayuda de la~ fórm11las (·J ) y (2) se puede calculn.r nlgunas ou-as inlegrn· le.:i determinadas que tenemos que aplicar en ostc libro. Demostremos que par¡¡ cualquier valor i·oal dG T y pora cualquier o: po•ltivo
.r. ··µr . J
Par~
dµ. o:~+ µ2
..f
=..::.. e-'11~1
( 1(;)
a;
tle1h1rir esta fórmula, observemos que parn c111üesquiera µ y a reales 1 - --
a•
.- =
+ ¡••
~
,-1a~µ•)•d-
-·
(17)
En virlud de esta fórmul11 111 integral en (1!\) puede ~cr susLituidn ¡ior la i11te~rnl
doble:
.. ,
• -oo
t•sn· d oo) ~8 1~ndµ a~ +µ~
f
J
o
,-ccx•+µ•¡z'dt.
¡1,. int,ograd611, obtendremos
Can1loia11do el orilt-u
il',..,.t'd r J a•+; = J ,-oc:i d:
~
o
-~
J
OQ
•it11-1 11i
d¡t.
( 18 )
-~
l't•rn 1:011furme 11 lu fórmul• (1) 00
-
'("1
r -•'1'-•11• du~:oyz~. , / 1t - 4. Je
- oo
Sust.ituyeudo
tl~tn 1•s¡u-~sión
..
j
Aunwutando el dremns
cu (18}, l{'n
..
J
'~ dµ -t Vte+ -µ2 11
c;i•
o.,poo~ulc
hasta que
:!('
..
=
"'*
t
-
, 1; . V•
obtMga el cuadrad o tomplch•, nbten-
{-
V ñ ,-ª'"' r exµ ~
P!l rel="nofollow">
d•_ .
V•
Hogumns ahor" la sustiludón de lns variahles
Al variar
V;" dC!de (l hnsta oo. 111
variable t cambia llJ011ótu11nmeut.e tl o:«le -oo oo. P111· lo t nnto. l::i ecundón (20) tie110 una solo sol11ri6n posiUvo c.on respecto a (en la figura daJR se mun>"tra t en !unción du Esta solución se rlotermina por la fórmula lrn~la
t
V.l
v ;;.
De aqul hallamo s
__!!._=~ (t+ 2
Fig , S.1.
Y:
Sustliuy ~ndo las expNlSloDes (20) y (21)
para
i
= Oy t
7 J
(21)
Za;
en (19) y teniendo en cuenta que t = -oo
= oo para : = oo, tendremos
~t'fµdµ =Vi ci2+µi
"
t - aJ'f l
r 6_,.
}..,
(1 +
t ) di. V:~+2al-rt
De aqul, tomando en eonsidornción que la integral de una función impar e n 1, oh-
límites simétricos es igual e cern y aplicando ltt fórm ula (2} para I•
=
,<; uplemnlto•
321
l~ndrcm<>s
quo es l o que demuestra a la fórmula (16). De la fórmula (16). derivando con re~pocto al fórmula
.. µ•:""' 5
_ .. q. e11
~
+µ
·= { íne-«I T 1 para
par~metro
-e> O.
-lnr- c:
-r, se oMiono la (22}
En vlrtud de la fórmula conodda de Euler, la fórmula (16) puede ser c~rlia la forma
!Je nqul, teniendo en 1a1enta que en límites si016tricns La integral de una ltu1cl6r> impnr es igual a cero y la iot.egral do una funr.ión par e5 igual 8 la integral 1l11pl1cada de O a oo, obtendrAmos
..
\' cosµ'tdµ
J 11
n
a:,+µ'l . 2a.
-O:ITI
.
Suplementos
2. Tabla de lns \'alores de Ja lunulón de Laplace
u
0 ,00 0,01 0,02
0,03 0,04 0,05
0,06
0 ,07 ' 0,08
0,0!l 0,10 1
0,11 0,12
0,13 : 0,14
! a•
(u)
f,
u
0,0000 0,0040 0,0080 0,0120 0,0160
0,36 0,37 0,38 0,39 0,40
0,0199 0,0:!.39 0,0279 0,0319
0,0359 0,0398 0,0438 0,0<\78 0,0517 0 ,0557
!
(u)
\!
u
0,26<'.2 0,26i3 0, 2703
1,08 1,09
0,7&
0,273"
1,H
0,7t.i
0,3665 0,3686
1 ,13
0,3708
0 ,42 0,43
O,tG28 o, 1664
o, 1808
0,78 0,79 0,80 0,81 0,82 0,83
0,2764 0,2794 0,2823 0,2852 0, 2881 0,2910 0,2939 0,2967
1,12
0,41
0, 1554 0,1591
0,1844
0,84
0,2995
0,50
0,1879 0, 1915
0,51 0,52
0,1950 0, 1985
0,2019 0,2054
0,85 0,86 0,87 0,88 0,89 0,90 O,!H
0 ,3023 0,3051 0,3078 0,3106 0,3!33 0,3159 0.3·186
0,92 0,93
0,3212
1 ,28
0,3238 0,3264 0,3289 0 ,3315 0,3340 0, 3365 0,3389 0,3413 0,3437 0,3461 0 ,31.85 0 ,3508
i,29 1,30 1,31 1,32 1,33 t ,34 1,35 1,36 1,37 1,38 1.39 1,40 1Jt1 1,42 1,43
0,44
0, 1700
0,45 0,46
0, 173t.i
0, 47 0,48 0,49
0,1772
0,77
0,0675
0,18
0,0714
0,19 0,20
0,0753
0,53 0,54 0,55
0,0793 0,0832 0,0871
0,57 0,51\
0,0910
0,59
0,2224
0,0948 0 ,0987
0,2257
o, 96
0,2291
0,2357 0,2389
0,97 O, 98 0,99 1,00 1,01 i,02 1 ,03 1,04 1,05 1,06
0,22 ' 0,23 i 0,24
0 ,56
0,2088 0,2123 0,2157
0,2100
! 0,26 i 0,27
o, 1026 o, 1064
0,28
0,1103
0,60 0,61 0,62 0,63 0,64
0,29 0,30 0.31 0,32
0,.1141
0,65
0,2422
0,2454 0,21'86 0,2517 0,2549 0,2580 0,2611
; 0,25
¡
¡ 1 t
¡rn
O, 1179
0,66
0,1217
0,67
0,1255 0,1293
O,G8 0,69 0,70 o, 7t
0,1331
0,1368
1 CD (u)
º·
0,17
0,2{
u
0 ,72 73 0,74
0,0596
l
·•
0,1406 0,1443 0, 1480 0,1517
: o.1s o, t i;
0,0636
1
o,2324
0,94 0,95
1,07
0,3531
0,3554 0,3577
1,10
1,14 1,15 1,16 i ,17 1,18
1,19 1,20 1,2i 1,22 1,23
1,24
1,25 1,26 t,27
0 , 35\19
0,3621 o. 361.3
0,3729
0,3749 0,3770 0,3790 0,3810 0,3830 0 ,3849 0,3869 0,3888 0,3907 0,3925 0,3944 0,3962 0,3980 0,3997 0,4015 0,4032 0,4049 0,4066 0,4082 0,4099 0,4115 0,4131
0,4147 0,4162 0,4177
0,4192 0,4207 0,4222 0,!.23ts
323
Sup/eme11lo1
Continuación u
1 1,411 1 ,(15 1,116 1 ,47 1,18 1,49 1 ,50 l,5t 1,52
t,5a 1,5' 1,55 f ,56 i,57 1,58 t ,59 1 ,60 1 ,61 1,62 1,63 1,64 1,G5 t,66 f ,67 i,68 1,69 t,70 t. 71 t ,72
CD (u)
0,4251 0,4265 0,4279
0.4292 0,4306 0,4319 0,4332 0,4345 0,4357 0,4370 0,4382 0. 4891 0 ,4406 0,4418 0,4429 0,4441 0,4452 l' ,4463 0,4474 O,M181• 0,4495 0,4505 0, 45t 5 0 ,4525 0,4535 0 ,t,54S 0,4554 0,~564
0,457ll
1
u
1, 73 1,74 1,75 1 ,76 1,77 1 ,78 1,79 1,80 t ,81 1,82 1,83 1 ,84 1,85 1,86 1,87
1,88 1,89 1 ,90 1,91 1,92 1,93 1,94 1,95
1,96 1 ,97 J ,98 t,99 2.00 2,02
(u)
1 0,4582 0,4591 0,4599 0,4608 0,4616 0;4625 0,4633 0,4641 0,4649 0,4656 0, 4664 0,4671 0,4678 0,4686 0,4693 0,4699 0,4706 0,4713 0,4719 0,4726 0,4732 0,4738 0,4744 0,4750 0,4756 0,4761 0,4767 0,4772 0,4783
1u 2,04 2,06 2,08 2,10 2,12 2,14 2,16 2,18 2,2.0 2,22 2,24 2,26 2,28 2,30 2,32 2,34 2,36 2,38 2,110 2,42 2,64 2,46 2,48 2,50 2,52 2,54 2,56 2,58
(u)
1 0,4793 0,4803 0,4812 0,4821 0,4830 0,4~
0,4846 0,4854. o,~861Y
0,4868 0,4875 0,4881 0,4887 0,4893 0,l.S98 0,4004 0,4909 0,49t3 0,4918 0,4922 0,4927 0,4931 0,4934 0,4938 0 ,494.l 0 ,4945 0 ,4948 0,495·1
1u 2,60 2,62 2,64 2,66 2,68 2,7Q 2,'(2
2;14
2.~ ' 2;78 2,80 2,82 2,84 2,86 2,88 2,00 2,92 2,94 2,96 2,98 3,00 3,20 3,40 3,60 3,80 4,00 4,50 5,00
cI> (u)
1 0,4953 0,4956 0,4959 0,496t 0,49.63 Q,4965 0;4957 0,4~9
d[4~ti
Ó,4973 0,4974 0,4976 0,4977 0,4979 0 ,4980 0,4981 0,4982 0,4984 0,4985 0,4986 0,49865 0,49931 0,4996ü 0,499841 0,499928 0,499008 0.499991 0 ,49999\lni
A ouesttos lectores: tM llh edita libros soviéticos traducidos al cspaiiol, inglés, francés y árabe. Entre ellos figuran las-. mejores obras de las distintas ramos de la ciencia v l a t.écnica; manuales para los centros de enseñanz'ásupcrior y escuelas tocnológicas; 1itera~ura sobre ciencias naturales y médicas. También se Incluyen monogra!las. libros de divulgación clentllica y ciencia ficción. Diriian sus opi niones n Editorial t Mllh, 1 Uizhskf por. 2, Moscú GSP l-t10 129820, URSS.
Libros que serán publicados por la EdJtorial «Mir»
en 1973
GÚELFAND l., GLAGOLEVA E., KIR!LOV A Mt'J'ODO DE COORDENADAS
Es un libro de .lsrail Guelfand, doctor en ciencias fís'icom~t,emáticas y profes0r de Ja Uni".ersi¡Ja_d ·~~ t.'osc)l, .~~;1l~jai;i_di(¡ K1rilov, ·candidato a .doctor en c1enc.ias fis1co~'!llªtemat¡~as•· y ~e Elena Glag6leva, colabo?adora: cient1.ffoa. Es'. el·..:· · " ·· ~~ · r.~ . sorie de matemáticas:· «Biblioteéa de··l a ·escuela flsico
En esta obra se·describe el nlétodo ·iliíJas·cooidena.<1'~$;
'á,i
ii'.4eoití ·
el procedimient-0 para determinar la posicl6n de utt 'pilnto o cullrp<)
con ayuda ila cifras o de otros símbolos. De un modo ingenioso y comprensible, a fo. ver. que r igurosa· mento cíen tífico, so trata de las coordenadas de 11n punto sobro una recta, sobre un plano, en el e~pacio¡ del espacio cuadridlmeosional, d·eJ cubo cuadriaimensíonal y de otras cuestiones de interés relacionadas con la matemática moderna. En cada una de las parles del libro so dan tareas y prnguntas n resolver por el lecl<>r. Es un libro de matemáticas para los escofaros del tercer aíio do la~ escuelas especiales de matemáticas y no exige conocimientos C&lJeciales quu no estén incluidos en el pro· g rama escolar, Todo el que S(.> intere!!() en las matemáticas, leerá est.a libro con sa tisfac.ción.
1:107.Ai':OV YIJ.
PROCF.SOS AJ,EATO llJOS
En el libro de Yu. R6zanov, doct-Or en cieuci11.s íisicomalrunútiGOs, se estudian la teoria de las probabilidades y los procesos aleatorios. En el mismo ge e.s;ponen las nociones fundaml.'utales y los métodos de la teorla de las probabilidades moderna, en modelos sencillos se analizan las propiedades más caracte.rísticas de los procesos aleatorios de di$tin\os tipos, se e¡¡amlnau loll problemas teóricos de las probabilidades que son motivo de cierto in terés para diferentes fines. Durante la exposición del material se omple11Jl, generahnente. mi6todos direct.os de las probabilidadeso, lo cual contribuye al desarrollo do la intuición sobre eate particular, do mucha importancia on la resolución do los problemas teóriws de este tipo. Gracias a é~t-0, el libro do Yu. Rózanov se destaca entre otros manuales poi· la teoría do los proceSQs alea\Qrios. Además, los primeros cap1tulos del libro contienen las nociones indispensables de la lcnda de las probabílidades, por eso nn se exigo de lns lectores un couocimionto previo do otroa manuales ni una preparación matemá tica general. Es indud~ble que este libro está destinado a at¡uellos que por vez primera estudian la teoría de las probabilidades y los procesos nleatorios. Sin lugar a duda.a, será acogido co11 grau in terés por los especialistas, sobro todo, por los profesores de estns disciplinas en los centros de eneeií8Jlza técnica superior. Ante todo, este libro se recomienda a los esludiantu de lu especialidades fi sicon1etemáticas y técnicas de Jos centros de enseíionzo superior, así como a los especialistas que se interesan por la opllcación do 111 \eoria do los procesos aleat.orlos.
l. SUVOROV MATEMATICAS SUPERIORES Esto libro se debe al doctor en ciencias; físi¿omatemátlca:;. IOROFEl'SUVOROV'. Esta obra·compreniloel estudli>.ilelassl'guien'.;. tes partes do las matemáticas supe~ior~s: .g~oni'~trlª'?'ailalitica» en el plano y en el espacio, cálcúlo diferenciálc•é:.fategra1 ,icon!: coptos fundamentales del análisis matemátié;o;·'.iieriés, ' conceptós. sobre líneas planas y alabeadas, dlferenciaclón e integraciónrle funciones de varios argumuntos y ecuaciones diferenciales. Aqu! tambi6n se inelu7en problemas y ejemplos con sus rcsol11ciono~ y algunas indicaciones de tipo metódico. El libro está ilustrado con esquemas geométricos que facilitan la comprensión det material y aclaran los métodos para la solución de los problemas. Es libro de t·ext.o para los centros de enseiianza técnica superior y media. Su principal mérito es Ja forma clara y concisa en quel!e .:>xpoM ~l material. En ruso so han publicallo ciuco edic.ione"' de este libro.
En l 97lj La E dit orial «M ir » l'u blí cara: pi\tuJl~{AN V.
J,A TEOKl A l>I!: LAS P ll OUAIHU DA DES Y LA E1:$TAD1S1'1CA MATEMAT ICA l~st.o tratado ha sido escrito Jo conformidad con el nuevo c11rHo de In tuoría de las probabilidades y de la est.adistica mate-
mútica. El material de esta obra se presenta en tres partes fundamcnt.olM: les dos primeras so dedican a la teoría de las probabilidades y 111 última, a Ja estadística matemá tica. En este manual se cstudinn los tu1uas ~iguientc9: prnbabilidad de las hipót