Introduccion A La Teoria De Las Probabilidades-pugachev

  • Uploaded by: saltamontes69
  • 0
  • 0
  • January 2021
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Introduccion A La Teoria De Las Probabilidades-pugachev as PDF for free.

More details

  • Words: 123,586
  • Pages: 330
Loading documents preview...
Introducción V. S. Pugachev ala Teoría de las Probabilidades

B. c.

n~rA'IEn

BBe.n;emre B TOOpmo BepORTHOCTei

V. S. PUGACHEV

Introducción a la Teoría de las Probabilidades

F;DITOR fA L .\fil\ MOSCU

CDU fi l!l.21=60

Traducido del

m~o

por A. Sa1uojv•ílov

lmpre>"<> en In

vnss 1973

@ T raducción nl cspnñol 11:ditol"ial

n

022:\-28t, ou (01)-1:1

~fir.

!9711

Contenido

Pr6"1110 . . . . . · • • • · · · • · · · • · • • · · · • . . . . • Cap f1ulo J. Probabilidad d~ un aconúcimienlo • . • • • . • • • • • • ~ 1.1. Objeto de la Teorla de las Probabilidades. Significado do los m&todos ostadlstlcos . . . . . . . . . . . . . . . . § 1.2. Fund amentos experimentales de la 'l'corln do las Proha.bíli
vector aleat.orio . . . . . . . . . . . . . . . . . . . . § 3.2. Funciones condicinnolcs de distribución y tlen.!idades condicionales de la probabilidad . . . . . . . . . . . . . . § S.3. Leyes de distribución de las fttnciones ele magnitnd~s alc.1t<>ri a~ § 3.4. Momentos de un ver.t.or alonto.rio . . . . . . . § 3 . ~. Punción cMacterlst ka de un vector aleatorio . . . . . § f\.6. Lny normal bidimensional ue d istribución . . . . . . . § !-1.7. Magnitudes nlentoriM complojas . • . . . . . .

§ 3.8. Propiedades de l~s e~porauias mntemiítioos . . . . . . . § 3.\1. l'ropicd at!cs de las disporsioncs y clo los momentns 110 <".orre-

laci6n . . . . . . . . . . . . . . . . . . . . . . . . § 3.10. Determinación de loMm1ime111os do l as funciones do las magnitudes alt>aL<>riu . . . . . . . • . . . . . . § :u l. DistriLucióu nor mal polidimen~ional . . . . . Capittcfo 4. Cara . Adición do fu11r.ir111cs nleat,.Tins . . . . . . . . § 4.6. Derlv~c1ón de 1111~ fnur.i{m a)()atorla . . . . . . § 4.7. Integración de una fundón aleatoria . . . . . . . i 4.8. Secuencias Hlentoriu. Procesos aleatorios mark<1vi:inos

7 11

H

13

25 35

39

80 87

!19 iO'.l 115 t!Q

124 1~7

1al

137

t ~O

l f>~

15f> 15\)

11'l 176

180 181

HlS 188

6 Capitulo 5.

Funcl11rt~1

alt:atorias uiaclonaria.r

. . . . . . • . .

Hl3

§ :i. l. Dcfiuicióu y 1.ropicrlades prinril'al""
eslac.iouarins

. . . . . . . . . . . . . .

§ 5.2. E•lructuru d o una func ión ufoaviriu <'Slnci onaria • • . . § 5.3. Dcscorn¡,..sicióu •·~peclrul do una fuurlón alr111nri11 cslal'io· Dariu ~n forma compJrju . . . . . . . . . . . . . . . 5.4. Noción de ruido blanco . . . . . . . . . . . . . . . . f>.f,, l1uu.,., it1nes al eo.torios estncional'iais or~ód icas . . . . . . . !Ui. Den~ftlud espec t1·AI recíproca de dos funci•Jn~s ~stncionari AS y c 11l•zad11S cst!leionorlamnulc . . . . . . . . . . . . . &.7. St.~uoncias al~atoriu cstaciona.ri~ . . . . . . . Ca.pilulo 6. llr.¡m:sentacio11e~ rawí11lca1 de i 1t11cio11'1 11katorio.R § 0.1. Ti pos de 1·cp1·eso11tac.icmcs canónica~ . . . . . . § tl.2. Dcseomposic.ióu ('llnónica de una fuoriílu alcat.oria . . § li.3. Fórmula para el t.bmino residual de 111 d~ompo~irión M · nÓDÍfl\

• • • , •• • • • • • • • • · • - • • • • ·

(l.~. Con~u·uccióll

de la closcomposició11 cooónica llB 11n11 función aleal.ori11 sogún In descnm¡l()Sirión cau611ica do su fondón correllttiva . . . . . . . . . . . , . . . . . . . . , . ~ r..r,. Rcprt'llentnción ~anónica iut.<:gral do unm función .1leatoria § 0.fi. l\cpr~;;entaciÓn C~ ll(>nica UlWgTaJ do UJll\ función aleatoria estacionaria . . . . . . . . . . . . . . . . . . Cvpitu lo 7. ¡:;ntropla e tn/ormacüín 1¡11c " '"lltlcnc m la$ 111a¡p1il11dtR §

a/,atorlas

. . . . . . . • . . . . . . . .••

1.1. Medición d o la i nd Nermi noción clf> fenómenos nlealorios. l\orión de untro11ío . . . . . . . . . . . • . - . . . . 7.2. Entropía ele nnn mognit.ll d nleal11r io. fü1trnpía co t1dic.ional mNlin . . . . . . . . . ..•..• . _ ... . ..• J 7 .:~. P rnpieda•I extrcmnl de In distribución norn1ol . . . . . . § 7.4. Juformnción quo se eonUcno en las megoituMs aleatorios

ínpltulo 8. Dct1r111i11oci611 de In.• cnrnrtuf•ticn• .,ttJ.dfstlcas U(!ún lo• res11//ados de •.r¡l'rinmitos • • . . . • . . . . • • . . . .

~

8.1. Dclcnuinacióu di\ lns probabilidades J e 1tcnnlrdwientos. lrui fa ndl'l11es de d i~trihución y l as densi1lades de prohllbiüdad ~ 1\.2. Detcrruinacióu 1lc los momentos ele magnitudQS aleatorias ~ 8.3. D1•t.ermi 1111ción 111• l"s 11w 111c11to• ele f1111r ion<"\ Rlcntm·iRs cstn• r.iouarinH . . . . . . . . . . . . . . . . . . . . . • • § 8.4. DelCl'minación de lo• mon1c11t <'• lac" u


••

'_ rI e--.~ dz ...

112n

0

262

21i8

2.H '..!78

2í!I 284 291

2!l:>

298

298

31)"¿

306

3l2 316 316 322

Prólogo

Este li bro ofrece una exposición elemental de la Teoría rle fas Probabilidades y la Teoría de Funciones Aleatorias en el volume·n necesario para o.similar los fundamentos de la moderna Teorio de Procesos de Mando, R adiotócnica Teórica y Técnica de Cá'lcul o•. El presente libro se b asa en las conferencias repetíd nmente l eí
8

Pr6lo110

En el cuarto capítulo se exponen los conceptos principales de Ja Teoría de Funciones Aleatori as. Se dan lns definiciones de la íw1ció11 11lentoria y sus caracterlsticas fundamentales: las leyes de distrib ución dti diferent es órdenes, de la esperanza lllatemática y l a función correlativa. Se da lo definición de la función de correlación mutun de dos funciones aleatorias. Se esti1dian las propiedades principales de las funciones correlativas y de correlación mutua. Se examinan la.s operaciones lineales fundamentales de la Algebra y del Análisis sobre las funciones aleatorias: adición, derivación e integración. Como un caso pllTticular se analizan las secuencias aleatorias, sus esperanzas matemát icas y !unciones correlativas. Se dan las definiciones de l a cadena m lll'koviana y el proceso aleatorio markoviano. J~n el quinto capítulo se exponen los fundamentos de la Teoría de Funciones Aleatorias Estacionarias. Se presta especial atención a las representaciones espectrales de las magnitudes aleatorias estacionarias. Se introducen las nociones de densidad espectral y deu.<1idad espectral recíproca. Se da la definición del ruido bl anco y se e:1tudia11 sus propiedades fu.ndamentales. Se examinan las propiedades ergódicas de las funciones aleat orias estaciooarias. Se es poneu los elon1entos de l a 'feori a de Secuencias Aleatori as Estacionarias. El sexto capítulo trata de los fundamentos de la Teoría de Representaciones Canónicas do Funciones Aleatori~. Se analizan las descomposiciones canónicas y las representaciones canónicas integrales. En el séptimo capítulo so dan las definiciones de la entropía de una magnitud aleatoria y la cantidad de iuformación que se contiene en una magnitud aleatorin sobre otra m agnitud aleatoria. Se exa· mi}t'all las propiedades principales de la entropía y 111 cantidad de información. Se demuestra la propiedad extrema! do la distribución norinaJ. En el últ.imo, octavo capítulo se exponen los procedimientos más simples plll'a determinar las probabilidades de acontecimientos y las características probabilistas fun1lamontales de magnitudes aleatorias y funciones aleatorias segúo los datos experimenta!llS. En pal'ticular se examinan las cuestiones acerca de l a determinación de la estimación estadística de esperanzas matemáticas, funciones correlativas y densidades espectrales de las funciones aleatorias

PrólOf!o

9

estacionarias ergódicas. Se expone también el método de determinación de las esperanzas matemáticas y funciones correlativas, basado sobre la diferenciación de sus realizaciones obtenidas experimentalmente. El libro está destinado a los estudiantes de los centros de enseñanza técnfoa superior, los postgraduados e ingenieros que deseen conocerla Teoría de los Probabilidades en el volumen necesario para el estudio de los fundamentos de la Teoría de Procesos ·de Mando, lo.s princi píos teóricos de la Radiotécnica, la Teoria de precisión de los dispositivos de medición y de cálculo, la Teoría de Información y la Teoría de Comunicación. Para alcanzar Ja finalidad prefijada, el autor trataba de incluiren el libro solamente lo requerido para comprender los fundamentos. de las materias arriba mencionadas, evitando todo lo superfluo, es decir, lo que no halla uso directo en estas asignaturas. Esto explica también la ausencia en el libro de una parte tan amplia e importante de In Teoría do las Probabilidades como la ley de grandes números y los tcore111as límite. Solamente sobre ejemplos elementales se demuestran dos teoremas principales simples, referentes a la ley de grandes números y se revela el sentido de esta ley y su importancia para las aplicaciones prácticas de la Teoría de las Probabilidades. El libro contione gran cantidad de ejemplos que ilustran el uso práctico de los método¡; de la Teoría do las Probabilidades. Muchos de estos ejemplos se torn an dircct.amente de aquello8 campos de la. técnica para cuyo estudio el libro prepara al lector. Tales ejemplos dan al loctor los conocimientos necesarios para el estudio posterior· de la1< aplicaciones Lécrdcas especiales de los métodos estadísticos Los lectores que deseen conocer la Teoría de las Probabilidades en menor volumen pueden omitir algunos capítulos y párrafos. Asi, por cjompJo, los lectores que deseen estudinr sólo los conceptos principales de la Teoría de lns Probabilidndei; y ele la Estad ística Matemática pueden limitarse 1\ leer los primeros tres capítulos y los primeros
10

Pnílo{lt>

Los lectores qua deseen estudiar los conceptos principales de la Teoría tle .lns Probabilidades y de la Teoría de Funciones Aleatorios Estacionarias pueden limitarse a leer los primeros tres capítulos (con exclusión eventual de .los§§ 2.4, 3 .5 y 3.1.1), los primeros cuatro párrafo:; del cuarto capítulo, el ca¡iítulo qui11to y los primeros tres párrafos timos. El libro puede servir de base para 1rn ctm¡o semestral de la Teoría de laf< Probabilidades, que comprende 60-70 hora., de conferencias, ·en los centros de enseñanza técnica st1pt1rior de especialidades correspondientes. Al autor le gustaría expresar un profundo reconocimiento a J. N. Sinizin por su ayuda y cortesín inapreciables en la preparación de cstl.l libro. El autor agradece también a E. S. Ventzel, L. A. Ov·ChRrnv y E. S. Kochetkov que han leído atentamente el original y con sus observaciones críticns y discusiones han c-0ntri bu.ido .a mejornrlo esenc.ialmonte. V.

S . P 1igachev

CAl'fTULO 1

Probabilidad de un acontecimiento

§ 1.1. Objeto de la Teoría de las Probabilidades. Significado de los métodos estadísticos Cada fenómeno del mundo que nos rodea se l~alla enlnzpdo., Jil,ás o meuos estrechamente, con un conjunto lnfipito de otros .hechos. Toda ciencia estudia solamente cierto número finito ele vinculos. De tnl modo se establecen las regularidudcs fnndamontales de los fenómenos estudiados que reflejan las conexiones intornas principales inherentes n e~tos últimos, En principio, es imposible llegar a c.;onocer t.oda la diversidad iofinita de rdaciones existentes en cu¡ilquie.r ftinómeno dado. En cada otopa del conocimienCo humano siem.pre queda sin estudiar u11 a multitud infinita de vínculos propios a un cierto (euómeno. En cunsecueucia, cada regularidad puede reflejar solamente t111 número finito de relaciones fundamentales, debido a lo cual las leyes se cumplen sin precisión, con ciertas desviacioues. Las dasviaciones de lo regular originadas por \lna infinidad de víuculos no previstos en el fenómeno dado, se llaman fen6ment>s a.leatorios. De este modo, la ca~uaH
12

Cap. 1 l'robubilld,.d d< '"' oco11vclmirulu

de observaciones del fenómeno dado se hace grande, en l as mismRS desviaciones accidentales se descubren ciertas regularidades que pueden ser estudiadas y utilizadas para determiuar la inHuencia de la!! desviaciones mencionadas sobre el curso de los fenómenos ¡>or esll1diar. Así pues, aparece la posibilidad de i nvcstigar fen6menos aleatorios frecuentes, es decir, tales fenómenos aleatorios que prtícticamente pueden ser observados un número ilimitado de veces en las mismas condiciones. La Teoría de las Probabilidades es precisarnente la ciencia que estudia las regularidades en los fenómenos aleatorios frecuentes. J,a historia del desarrollo de la ciencia pone en relieve que muchas ramas de la ciencia en cierta etapa de su desarrollo se ven obligados a tener en consideración las de:sviaciones aleatorias con respecto a lo regular e investigar la influencia de las mismas sobre el curso de lo~ procesos que se estudian. En la etapa inicial, cada ciencia aplicada e!!tudia solamente las regularidades fundamenta les de los fenómenos examinados. Con ello, a causa de l a imperfección y b11ja precisión do lo.s instrumentos de medida, así como por reducidas exigencias a la precisión de las dependencias obtenidas, no se revelan fenómenos aleatorios ni aparece la necesidad de tenerlos en cuenta. Pero, a medida que se desarrolla cualquier rnma do l a ciencia siempre surge, en cierta etapa, la necesidad de tener en coni;ilían más los cam pos de aplicación do los métodos probabil!stu:os o como l'e 1es suele llamar estadisticns. Así, por ejem pi o, antes en IR Hidrodimímien y la Aerodinámica se e.'lludiaban solamc111 0 111:; regularidades fundamentales, mas en la tercera década de nuestro siglo, al descubrir que los fenór:oenos de turb\1lencia poclínn ser estudiarlos con éxito valiéndosé d!l los métodos estadísticos, apnreció la teoría estadlstica de turbulencia. Antes, In teoría de i·egulación nutomática y r;1diotécnica estud la'ban solamente las regularidades principales que se empleaban en lo práctica de proyección de las unidades indnstriales correspondientes. Sin embargo, durante los últimos
§ J .2. Fundamentos experimenta/e.•

13

§ 1.2. Fundamentos experimentales de Ja Teoría de las Probabilidades

Cada ciencia se basa sobre algunos hechos experimentales que sirven para formar los conceptos fundamentales de la misma. Estos hechos y conceptos se utilizan para desarrollar la teocia· científica y para obtener determinadas conclusiones prácticas. Y por Iiil, las conclusiones de la ciencia se comprueban por la práctica. La coincidencia de las conclusiones científicas con los resultado.s práctico.s es el criterio de validez de uoa teoría cientüica. · Examinemos cómo se pueden estudiar experimentalmente los fenómenos aleatorios y caractcri zar los resultados de este estudio. Para ello daremos la definición de algunas .nociones iniciales. Se llama experimento (prueba) a cada real'ización de condiciones y acciones determinadas en las cuales se observa el fenómeno aleatorio quo se estudia. Pueden servir de ejemplos, la ·medición de cierta magnitud o el tiro contra un objetivo determillado, el regist ro ile la señal de salida de un sistema automático durante cierto l apso de tiempo, la elección al azar de algún objoto que se halla e1l un conjunto de objetos semejantes. El r esultado del experimento puede ser caracterizado cualitativa y cuantitativamente. Cualquier característica cualitativa del resultado del experimento se llama acontecimiento (sur.esll). Por C'jeinplo, el hecho de que al medir cierta mngnit.ucl e'I resultado de la medición sea igual al número dado o menor que éste, es un acontecimiento. También son acontecimientos. el impacto o el fallo al producir un disparo. El acontecimiento .se rlenomina cierto, si éste so produce obligatoriamente como resultado del oxporimento en cuestión. Se llama tmposible al acontecimiento que no puede suco1ler como res1J.ltado del experimento dado. Se denomina aleatorio al acontecimiento que, como resultado del experimonto dado, puodc ocurrir o no. Cualquie1· caractel.'Ística cnantitativn del experimento se llama magnitud aleatoria. De e jemplos pueden servir el resultado de la medición de cierta magnitud y las coordenadas do los puntos de impacto al producir un disparo. También son magnitudes aleatorias las ordenadas de la curva que se obtiene Al reg-istrar una variable por ejemplo, la señal 1le salida de 11.n sistema nutomiit.ico. Examinemos la sucesión de n experimentos iguales. Supongamos que, como resultado de cada experimento, se registra la llegalla o no \legadn de un acontecimiento .4. ~n esta .sucesión, unn característica natural
Ca p. 1 P robabilidad dt un aeonlccin1itnlo

escribir

P• (A) =~ 11

(1.2.1)

.

donde m es el número de veces que se produC<3 el acontccimionto A al realizar n experimentos. Estudiemos las propiedades fundamentales de las frecuencias de los aconteeimientos. Ante todo, est~ cloro que la frecuencia de cuolquier acontecimiento representa una fracción propia o es igual a cero o a Ju unidad: O ~ P * (A)~

1.

(1.2.2)

Llamaremos tncompo.ttbl6s, en el experimento dado, a doi; ucontecimiento A y B, si en este experimento la producción de ullo de ellos excluye la aparición del otro. Do ejemplo puede servir el in1 pacto o el follo al producirse un solo tiro. Es necesario seiialar que la noción de compatibilidad o incompatibilidad de acontecimientos siempre está relacional.la con qué experimento precisamente se tiene en cuenta. Los mismos acontecimientos A y B pueden. resultar in complllibles en un experimento y compatibles en otro. A.si, por ejemplo, el impacto y el follo son acontecimientos incompatibles, si el experimento consis te eu producir 11n solo tiro y son compntibles si In pruebn ]lrevé vario.!! tiros. Abora bien, supougumos que los acontecimiontci!\ A y B sou incompatibles en el experimento dado y que ósta se repite n vece¡¡. S11pong11mos que para nosotros no tiene ninguna importancia, cuól será el aconteciJniento que llegnrá: A ó H. Con otrns palabras. no~ interesa un acontecimiento compuesto que consis te en q11e ocurra el acontecimiento A o el aconteci miento B , indiferentemente de cuál de ellos precisamente. Supongamos q11e en calidad de ex¡ierimento compramos un billete de loter ía con el fin de ganar uro coche o una moto. Sea el acontecimiento A la ganancia de un coche y el acontecimiento B, la ganancia de una molo. En este caso nos interesa 1111 acontecimiento compuesto que consiste en que ganarem.os un medio de transporte, indiferentemente de cuál de ellos: uri coche o uno moto. E s evidente que, en este caso, Jos acontecimien tos A y B son incompatibles, porque un billete pl!ede ganar un solo premio. Supongamos que como resultado de n Oi!:perimentos se produjo m veces el acontecimiento A y l veces el acontecimiento B. Por consiguiente, el acontecimiento compuesto t A ó B• se produjo m + l veces y su frecuencia es igual o

P • (AoB)= rn.+l . 11

(1.2.;i)

Mos eu el caso en cuestión, la.s frecuencias de los ncontecimientos A y B equivalen respectivamente a m/ny lln. Por lo tonto, In iguAI-

.~

1.2. Fund(1met1tos •:r.¡>trlmtntole.<

15

dad (1.2.3) se puede escribir así: P* (A o B) = P* (A)+ J>• (B).

(1.2.4)

Esta fórmula expresa el teorema
Fig. 1.2.i.

Fig. 1.'.l.2.

o unión de estos acontecimientos. En las fígs. 1.2.1 y 1.2.2 se n111estra la suma de dos acontecimientos como el campo contorneado 1ior una línea gruesa. La fig. 1.2.1 corresponde nl caso cuando los acontecimientos A y B son compatibles y la fig. 1.2.2, al caso cuando A y B son incompatibles. Según la definición de la suma de acoll'tecimientos, el aco11Lecimiento «A o B» se puede escricir también on In forma 11 B y li1 iguald1;1.d (1.2.4) que oxprosn el teorema rle adición de frecuencias, se pueile escribir así.: P* (A<+ B) = P* (A)+ .P* (B). ( 1.2.5)

+

El teorema «ie adici.ón do frecuencías es válido ¡111ra cualquier número de acontecimientos incompatibles. Los acontecirnicotos A 1, • • ., An se llaman incompatibles si ningún par de ellos pueden producirse juntos. Si los acontecimientos A., ... , A,. son incompatihles, E'Jltonces: .,..

.P• ("~ A1) = i= l

1l

Lo P• (A¡). i.:....t

(1.2.Ci)

E1' fácil demostrar oRta fórmula directamente, igual que para el ca~o de dos acontecimien t os incompatibles, o bien aplicando el método de inducción matemát.ica. La fórmula (1..2.6) expresa el teorema general de adición ele frecuencias: la frecuencia de producción de uno de los acontecimientos incompntibles, no importa preci11amente de cu[tl se tratn, es igual n In snmn rle las frecnencias de estoR sucesos.

16

<:ap. 1 l'robabilidod de un aconUclmltnto

En algunos casos, :>urge la uccosidnd de examinar varios acontceiroienlos 011 correlación, por ejemplo. cuando hay que determinar, cómo iortuye la aparición o no aparición de un uconLccimicnto sobre la frecuencia del surgimiento do otro. En este caso, ndemós de la frecue11ci11 del acontecimiento /1, para toda la serie de experimentos realizados, se calc11la también la frecuencia del acontecimiento A teniontlo en cuenta sólo aquellas pruebas q:ue han llevado a la producción de otro acontecimiento .8 que .nos interesa. Con otras palabras. aritos de determinar la frccucncin del acontecimiento A se seleccionan sólo aquellos e.'l:perimcmtoR en Jos que ha sucedido el acontecimiento B siJt tomar en consideración los clcmás. La frecuencia riel acon tecimiento A calculada sólo po ra aquellas pruebas ea las que i¡e ho producido el acontecimiento B se llama frecuencia condictonnl del ucoutecimicnt-0 A con respecto al ncontccimiento B y se designa por p• (A 1B). Si nl efectuar n experimentos el acontecimiento B ha sucedido l veces y eJ acontecimiento A ha sucedido junto con el ncontecimieot-0 B k veces, entonces la frecuencia condicional del 11contecimieuto A con respecto 11 8 es igual n 11

P• (A 1B) = T .

(1.2.7)

'Puesto que las fracciones l/n y k/n representan respectivamente la fr.ecoeD cia de l acontecimiento B y la de la producción conjunta de los ncontecimientos A y B, ln Córmulu (1.2.7) puede ser 1!$Crita así:

P*(AJB)=P·~¿(;)B).

(1.2.8)

De 111odo a11álogo se determina ln frecuencia condicional del acontecimiento B con rospecto a 11, como la frecuencia
P• (A y n) P• (A) •

(1 2 9) • .

Las fórmulas (1.2.8) y (1.2.9), que se puode11 escribir en Ja forma P * (A y B) = p • (A) P• (B 1 A) = = p • (8) P• (A J B), (1.2 10) expresan el t eorema de multiplicación do frecuencias que diC<1: la frecuencia de la producción conjunta de dos acontecimientos es igual a la frecuencia de uno de ellos multiplicada por la frecuencia condicional del otro con respecto al pr imero. El acontecimiento que representa la llegada a la vez de varios acontecimientos suele llamarse producto o lntersecci6n de estos últimos. En la fig. 1.2.3 el producto de los acontecimientos A y B se muestro como la parte común (sorobreoda) de los campos corres-

lí 1.2. Pundamentos

e,r.perimenta,le.~

li

pondientes. Valiéndose de la definición del producto de acontecimientos, el aconteaimiento «.A y B1> se puede presentar cómo el producto AB. Entonces el teorema de ·m ultiplicación de frecuencias, expresada por la fórmula (1.2.10). se escribirá en la forma

p• (AB)

=

p • (A) p• (B 1 A)

=

p• (B) p •

CA

1 B).

(1 .2. fi:)

(jJ

Comparando la frecuencia condicional del a.contecir.nient o A respecto al B con la del acontecimiento A tomada en tod'á lá serie de experimentos efectuados (lla mada corrientet.nente incondicional), se puede estimar la correlación de los acontecimientos A y B. Si al realiz'ar un gran nú mero de pruebas l a frecu encia condicional 8 A ¡jfl-:.. tlel acontecimiento A respecto al B es aproximadameute igual a la incondicional del acontecimiento A, esto quiere decit- que el número to tal de veccti que sucede el nco11 tecimieot.0A se divide más o rnenos proporcionalmente entre aqu ellos Fig. t.:i .:i experimentos en los que el acontocimiento B se ha producido y nc¡u e!los en los que éste no se hn prod 11ch)(i. fü;Lo puede :iervir corno indicio de que el acontecimiento A no d cpcutle del B. Si la frecuencia condicional del acoutecimicnt.o A respecto al B se diferencia considerablemcrJtc do la frecuencia inl'.ondicional puede extender el teorem11 de multiplicación de Irecuencius par!l un 1rúmero arbitrnrio de acontecimientos. Como resultado se obtiene que p• (AiA2 ... An) = = p• (A,) P* (Ai 1A,) . • . J>• (An 1A 1A2 . '. An-1) (i.2.12) cou ello, el orden de numeración de los acontecbn icut.os no tiene importancia y puede ser estahlecido arbit rariamente. Ahora bien, pasemos al problema cl el e~tudio experimental de magui tuues aleator ias. De acuerdo con la defi nición general dada, ~e ll11111a aleatoria toda maguitud que, como resultado de un experimento, no toma más que un valor cualquiera, y como res11l tado de varios experimen tos, puede tomar valores tliferentas. Calln valor que ¡mede ser tomado poi- la 111ng11iiud aleatoria, como cousecuencin del experimento, se llama s11 valor posible. Designaremos a las mag nitudes aleatori as con letras mayúsculas, principalmente con las últimas l eLras del alfabe to lalino, y a sus valores posibles, con las minúsculas correspondientes. Por ejemplo, a l as magnitudes aleatorias la~ designaremos con l as letras X, Y, Z y s11s valores posibles , con las letras x, y, z respectivamente. Con t oda rn agnit.ud aleatoria X so

18

Cu p. 1 Pro/Ja bllidad de un acontect11ilent.o

puetle eolaiar el aconLecimiento A que reprt!Senta el cumplimiento de la desigualdad X < x, donde x es el número dado. Entonces, se puede determinar la frecuencia del acontecimiento A para diferentes valores de x. Co100 resultado obtendremos la función ·, (1.2.13) F• (x) = P* (X <x), llamada ordinariamente función estadística da distribución de lu magnitud aleatoria X. Para estudiar las propiedades de la íunció11 estadística de distribución, supongamos que, como resultado de F(;-;J f

---------------------.---___. 1

~



--

,- -

1



1

1

1

1

1

1

1

'I

1

1 1

1 1

1 1 1

!

1

I

' :1

1

1

¡¡ :

1

-t1

1

1

1 1 1

fig. i.2.4

n experimentos, la .magnitucl aleatoria X ha tomado ciertos valores que numeraremos en el orden de no decrc~\ruiento : x., x 2 , • • • , x. (fig. 1.2/1). Es evidente que para todo valor de x en el inton•ulo de xh < x ~ xk+" el número de experimentos en lo~ que ha siilo cump\idn la desigunldad X< x es igual a k. Por consig\lie11Le, (1.2.14)

Para todo valor de x ~ x,, el número de experimentos en los que ha 1a dosi.riaidad X < x. es igual a cero y para ~ualquicr v~lor. de x > x,,, el numero de experimentos en los que·ha sido cu1n,plida' la,·desi.gu~ldad X < x es igual a n. Por lo tanto, la iuució11 estadist~ca· de distribuci.ó n de la· magnitud aleatoria X representa unt(' fui:icii6'n escalonad~, igual a cero en todos los p11ntos del eje numéric9 quehallan a l a i)quierda de todos los puntos x,, . ..• x .. correspóndiontes a los valores que ha tomado la magnitud aleatoria X como res'ultado d9 los experimentos efectuados; e igual a la unidad en todos los· puntos del eje numérico que se encuentran a la derecha de t.odos los puntos x., . . .. x,. (fig. 1.2.4). · Si el punto x pasa .a través de un punto éualqui·era x,, •.. , Xn cp1e nd coincide con ninsi~ó ~wnplida

se

-~

1.2. Fundamento.< experimt11tales

19

g.tÍn otro de estos puntos, la función estadistica de distri}~ucj~n ~e incrementa de un salto en 1/n. S i l puntos cualesquiera de los ~ 4 • , .•· ... , xn coinciden, entonces, a l pasar el p unto x a través de.• é1iÍ\l punto «múltiplo de l» , la función estadística de distribución se incrementa de un salto en l/n. Lt1 función estadística de distrfüución es una característica co.m pleta de los resultados de la observación de una magnitud aleatoria en la serie dada de experimentos. Sin em.b argo, a veces,es' con" veoiente limitarse a una característica más si mple, aunqµe lió se'a completa, de la magnitud aleatoria, valiéndose de varios· rnúmeros. En la serie dada de experimentos, la característica numérica oiás simple de la magnitud aleatoria X es su valor medio aritmético .·,

"

mx=n • 1 "'' .c.i X¡ .

(1.2.15)

i =1

En caso de c¡ue l valores cualesquiera, de x ,, . .. , x.•• tomados por la magnitud aleatoria X como resultado de n experimentos, coincidan, el coeficiente de este valor general de x, en la fórmula (1.2.15) es igual a la frecuencia de aparición de este valor lln.. Así, por ejemplo, si x 1 = ... = x 11 = a 1 , .'!:1 1+1 = . .. = x1 1+ 1z = a z, .. ·• Xz1+· .• +11<-t + 1 = . . . = X11+ • • ·+ 11< = Xn = ª"' la fórm ula (1.2:15) toma Ja forma

" nªr· l,

" mx• = .'-J

(1.2.16)

r=I

Por l o tanto, el valor medio de una magnitud aleatoria, en 111 serie dada de experimentos, es igual a la suma de todos los valores tomados por esta magnitud, mul tiplicados por las frecuencias de dichos valores. Con otras 11alabras, el valor med io de una magnitud aleat oria no es m ás que su valor medio pesado, con l a particularidad de que los pesos de los valores tomados por la ma.gnitud aleatoria son iguales a las frecuencias correspondientes . Es fácil comprender que el valor medio de una magnitud aleatoria se puede interpretar como el centro de gravedad de S\tS valores obtenidos como resultado de los experimentos (si, claro está, se considera ,,q ue los valores tienen igual peso). Parn caracterizar la dispersión de los valores de la magnitud aleatoria X en la serio dada de experimentos, se puede utllizar el valor medio de alguna medida positiva de desviación de la magnit ud aleatoria con respecto a su valor medio. E n calidad de medida positiva .de dM:viacíón de- una magnitud aleatoria con respecto a su valor medio, lo más cómodo es hacer· uso del cuadrado de la diferencia entre el valor- de la magnitud aleatoria y su· valor medio. Enton·

z•

Ca¡>. 1 Probabilidad de

20

1111

acont-.t:lmi•nt1>

ces, como característica de la dispersión de los valores de la magnitud aleatoria X en la serie dada de experimentos, se obtendrá la magnitud

"

D*=~ ~ (x· --.,.")~ ':t' u¿,,J' ~,

(i.2.17)

,,_ t

generalmente llarnada dispersiórt estadística de la magnitud aleatoria X. Es evidente que la dispersión eslauística tiene la misrna dirncnsión que el cuadrado de la mara caracterizar la dispersión, es más conveniente valerse de una m¡¡gnitud que tenga la misma dime1nsió11 que la mag11it11d a \cato ria en cuestión. Para obteoer tal cnracterística, es s1úicie11te exlraer la rafa cuadradn de la disrersión estadística. Por consiguiente, como llledicla prúcl.ica \le Ju dis¡1er~ió 11 tle lus valores de la ;n;1g11ítud n'leatoria X, en la serie dada tle experirnontos, ¡ruede servir Slt desvincl6n estadistú:a cuadrática media que no os rn.ás que la raíz cuadrada positiva de su dis~.rsión. estadística:

a~= V-D~= -- Í -f.-~ (x1-mW

V

(1.2.18)

ic: I

Si alg11nos valores de x¡ tomados por la magnitud aleatoria X coinciden, entonces coinciden también lüs sum1.1ndos correspondientes en las fórinulas (1.2.17) y (1.2.18) y se les puede unir. De este modo, la dispersión esdadistica se expres ará mediante los valores de a1, • • • . . . , ak tomados por la magnitud aleatoria, y las frecuencias de los mismos, por la fórmula. 1l.

.0:= ~ ~ (a,-m~) 2

(1.2.19)

r-1

Pues~o que la IDagnitu1l 1/n representa el incremento de la fun-

~.ón

.esta(,iJ.:itica de dist.r lbución de lo magil~t\ld aleatoria en cada uno • • • , .:r.n, las fórmulas (1.2.15) y (1.2.17) se puede e~ibir en.Ja foi:ma

M· lps puntos x 1,

n

ni:=¿; x;óF• (x 1), i- 1

(1.2.20)

n

D~= }.: (x1 -nt:) 2 óP (X;).

(1.2.21)

!=1

Ejemplo 1.2.1 . .Hallar la función estadística· de distribución, el valor uiedió·, la dispersión ·estadística y· la desviación estadls(ica cuadráticp modia d6'. hu .magnitud aleatoria X s.eg<m los re;,11Jtados do los 20 experimentos ¡m)~entados en la ta.bla.

'

21 1

3

2

l

1

1

t

1

H

1 13

12

1

r x¡

1

7 ,7

1.,2

11,0

1

1

"

¡;

5

1

7

1

I¡ . i

5 ,6 1 ü.7

1

1

.14

15

5.8

2,0

1

w

-17

l l 6,5

1

8

1

1

5,9

4.!)

5 ,1

ll,1

li.4

;r¡

1

1

3.2 1

!l

1

1 ,I~

4,3 1 1

· 5.:~

,.1.9 Zo . 1 1 ~;6· ¡ 4 ,81 5 ;2 18

l;

•...

En el caso dado, Ja función estadlstica de distríbnci6n se ·muest1;~ ·é~ '.t~ fig. 1.2..5. Sustituyendo los valores de x 1 por los de l a tabla en las lói:'mufü

FtrJ 1

--- - - -- -- -- - ------ --- --- ---~

_¡---!

...-+ 1 J1 1 1

...J: 1

~ol J

.,

:ti

~JI

1I 11

1111 1 1 ¡ ll 1 1 I 1 11 1 1 '

_rt/11 1 ::1 1'

~ )!11 1 ..1 l 111 1 11111 111 11111 111 1111 1 11 1 111 11 111

.-11

:u::

o

1 11' J 11 1 111 1 1 11 I 1111 1 11 1 1111 '"

/

2

3

4

5

G

11 11 11 11 11 11 11 !

1

1

7

:r

Fig. 1.2.5.

(1.2.15) y (t.2.17), hallnmos el valm· modio y la dispersión estadís ti ca de la magniln'l 11lcatorl11: º " 97,\J 49 D-'<• ~ 36,8 20' ~ 'l,,>. mx = 20 ::::: ' , PD

l.n desviación csLaolístic.n cuadrí1Líca mcd ia d11 la magni tud aleatoria, CA!'O datli> es igual n

el

Co1no ha :;ido señalado anteriormente, debido a los errores de medida, el res ultado de la medición de cualquier val or siempre es una magnitud aleatori a: Repitiendo varias veces la med ición obtendremos resultados diferentes . .l:lasúndose en lo expuesto, si falta un error sistemático, l a media ari~lllótica de todos los resultados do medi-

Cap. 1 Probabilidad dt un aconl1elmltnto

ci6n puede servir de medida del valor real de Ja magnitud que se mide, y la desviación estadistica cuadró.Lica media, así como la dis· persión estadística, puede servir como característica de la precisión de medición. Cuanto menor sea la desviación estadistica cuadrática media, tanto más estrechamente se agruparán los resultados de las mediciones en torno a su valor medio ari t mético, y tanto más pre· cisa será la medición. Así pues, las características numéricas examí· nadas de una magnitud aleatoria tienen un sentido práctico bioo determi nado. Al estudiar los fenómenos aleatorios, hay que cnracteri7.ar con frecuencia el resultado del experiment-0 no de una sola magnitud aleatoria sino de varias o incluso de una inJinidad de las mismas. Por ejemplo, el movimiento del aire en un punto va cai:acterizado, en uo momento determinado de tiempo, por tres componentes del vector de la velocidad del viento. Al registrar Ja señal de s!llida de un sistema automático o la señal de entrada ea un receptor de radio, se caracteriza el resultado de esta prueba por el conjunt o de ordena· das de la curva obtenida, que son precisamente magnitudes aleatorias. En tales casos, además de las características examinadas, que se pueden calcular por separado para cada una de las magnitudes alea· torias que nos interesan, hay que introducir cierta magnitud que caracterice el grado de dependencia entre las magnitudes aleatorias. En calidad de tal característica del grado de dependencia entre las magnitudes aleatorias X e Y, en la serie dada de n experimentos, se puede tomar el nwmento correlativo estadístico de las mismas n

1.-;, ={ ~ (x; -

,_i

m: )(y1-m;).

(1 . 2.22¡

En esta fórmula x,. y 1 son los valores que han tomado las magni· tudes aleatorias X, Y como resultado del Hísimo experimento (t = = 1, . .. , n) y m~. son los valores medios aritméticos de las magnitudes X, Y:

mu

n



i ~

m~=11

Yt·

{1.2.23)

Para comp.render que el momento correlativo estadístico puede, en un grado determinado, caracterizar la dependencia entre las magnitudes aleatorias X, Y, basta reparar en que sí no existe nin· guna relación -entre X y Y, en cada banda estrecha de la anchura de l:ix, paralela al eje y (fig. 1.2.6), el centro·do gravedad de los puntos disp.uestos en.. esta ha.oda se encuentra aproximadamente en la rer.ta Y = m~. dondequiera que se halla elegida dicha· banda, si el núm ero de e:s.periroentios 1i as lo suficiente grande. Dividiendo toda la pnrte

.~

1 .2. Jlundamentos ezptrlmt.ntole.•

del plano xy que contiene los puntos experimentales (x 1, y 1 ) • • .. . . , (xn, Yn), en bandas estrechas, se puede dividir también la sullia que ·figura en la fórmula (1.2.22) en sumas parciales correspondientes· á ·_diferentes bandas. Para todos los puntos que se ballan en los limites de una banda, la magnitud x 1 - ~ tendrá aproxi madamente un ~smo valor que puede ser sacado fuera del signo de la suma. En el caso de l as magnitudes independient es X, Y, la ruma restante será, según lo expuesto, próxima a cero, si el número de experimen~ n es lo sufuciente grande. De este modo, en caso de que l as magni• ~udes X , Y sean independientes, el momento correlativo ~te.dístico debe ser pr óximo a cero, si el número de experimentos es lo suficiente

,,,.s o

. . . ..

. :.·.:·:. -

~

... .: : .

m; • Fig. 1.2.U.



.r Fig. 1.2.7.

grande. Disti nto de cero, el momento correlativo estadístico indica que entre las magnitudes aleatorias X , .Y existe cierta relación. En la Iig. 1.2. tl. se muestr<1 la distribución de los puntos experimentales en el plano xy cuando entre los magnitudes aleatorias X , Y no existe una relación evidente. En la fig. 1.2. 7 se da la dh1tribución de los puntos experiruent.ales en el caso en que la relación entre las magnitudes aleatorias X, Y es muy. visible. Es necesario señalar que tratándose de la dependenc.~a o independencia entre l as magnitudes aleatorias, se puede por ahora dár a est as uociones sólo un sentido intuitivo basado sobre nuestras ideas generales aoorca de la posibitidad de representar las dependencias llntre las magnit.udes en forma de gráficos. Así, por ejemplo, la distribución de los puntos exp erimenta les expue!'lo en l o !ig. 1.2.7 dn motivo para trazar una recta cuya ecuación puede, con cierto grado de precisión , caracteriza.r la dependencia entre l as magnitudes aleatorias X, Y. Por el c.ontrario, 111 distr ibución de los puntos experimentales expuesta en la fig . 1.2.6 110 da lugar a lo representación aproximada de la dcpcndencitt entre las coordenadai;; cu formo de una curva. Ejt•mplu 1.2.Z. Mallm· 1 11~ dispr.~ionl'!! ~tudf~t ie.o• y 1·1 mnm~lll •• eorrr· lati\'O cst.ntl i stico tlt! las mnituitudes aleatorias X, Y sc·gú 11 1.,~ 1·t-s11ll ndo$ el ~ , 11 < ~x¡1Mi ment 11lM ~stn11 nsi1111adns u11 In lilbln .

'.M

Cap. J Prof)Qbilidad d.e u.n aconterimiento

\l

l-o,!1 j-<1.2I 0.21-3.ol 0.9 1t .~ l-1,oj (),( ,_l/_i_---;.l-1-.-, 1-·1,6-0.2! º·º _-2.0,-0,t l '·' 10.1 1 j

1) . 8

J, !)

j-0.2 -0 ,!l

....~....¡..~~o1=~=

~,~.;...~..,.¡~~"*"~-=i==~=:=~~~~=?~~

j

¡ v.

1

·11

;r:¡

¡

1.11-:l..'1 [-0,812.71

Yt

l- 1.:i¡ -1.1

'11

13

j

15 1 rn



j

1s

l

rn

[--0,81-0,610,0 !1.í 1-1.8 1,11 1 o,1s i-o,s[ 1,11-o.s! 1J, 5 ¡- t .9 O.ti

- - - - - - ' ' - - - - -!

- 0,1¡

Al 11ri n~ipio, hallemos los va lores mcdi<1$ dt< IM 1113gnitucl cs

}{ , l'

~i rvió 11clo1111~

211

u l1?0lCll'i1\S

de lus fórmulas (1.2.23): - 2,1~



mx=~;.v-

01 ,· •



- 2,1 ::::::: - 01 •· ,

r1i¡, = ~

~u~titll)'llll
y

• •

.•

.• ir:



2

s

'º 20

51)

100

100

Fig. i.2.9.

Fig. l.2.8.

(1.2.17) y ('l.2.22), hallamos las di spersiones estadistics.s de las magnitudes aleat•mas menci<madas: 36,8 ·i , 8 , D •:t~w1:::::: • 25,8 t 3 D"~w~

·

y su momm1to coi·relativo

o~l3dístieo:

21 , t J 1 ':r11""20""' .. .

k'

ne c~1' 111od1i, en el caso dado hay razón para cou~id~rar a las magnitudes slual<>riAS X , Y r.omo oula?.nd as p
§ J .iJ. l'roba.btlidad dr.l ac011tecim ientu //sus propiedades

Si se aumenta ilimitadamente el-uúlllc;ro de

e,xperimen~os

25

y des-

pués de cada experimento se determina.la frecuencia de aconteeimie,11; tos y las caracterí1>tica,s de las magnitu,dei; aleat_orias, tenien4o e!l' cuenta todos los experimentos ya realiza¡los, se puede adve+~i~.. q~ a medida que aumenta el número de experimento¡>, las frecuencias. de los acontecimientos y las características de. la~ IJlagn_itudes a:le.a.tQrias tienden a estabilizarse cerca de ciertos valox:es. ¡\ títu lp de ejemplo, en la fig. 1.2.9 se muestra el gráfico ·dE!. la I.rec.ullncl:a c.~w· que sale:el escudo en función del,.número de lanzamien.to~_de .~a 1Jl.Qi:!e4a. .n./!',). Par a mayor comodidad, en el ej.e de ahscj.sas.,e;>!á. .traza_~9 . ~1 logaritmo del número ele lanzamientos. Como vem.oi¡, a .medi(i'a . <J¡t\~ aUIOenta ·el .número de experimentos, l a. amplitud, de las oscilaciohe~ de la frecuencia dism~nuye y la frecuencia cpn que sal¡i el escudo llega a .ser próxima a la mitad. Puesto que Ja función estadística de d~tribución de una magnitud aleatoria no es 11\ás que un conjunto de frecuencias correspondientes a diferentes valores de x, y en las fórmu las (i.2.16) y (1.2.19) también entran lus frecuencias de los correspondientes valores posibles de dicha magnitud, está claro que también. l a función estadística mencionada, su valor !lledio aritmético y la dispersión estadística, así como el momento correlativo estadístico de dos magnitudes aleatorias deben tender a esta hiHzarse al aumentar ilimitadamente el número .de experimentos. Por supuesto, este razonamiento no puede de ningún roodo considerarse como demostración de la estahílidad de las car acterísticas de las magnitudes aleatorias al aumentar el número de experimentos, sino que solamente ayuda a comprender l a ese11cio. de este fenómeno que se observa en la práctica. La estabilidad de las frecuencias de los acontecimientos y de las características de las magnitudes aleatori as c1,ando el número de experimentos es grande , representa la regul arid ad pri ncipal de fenómenos aleatorios frecuentes, es decir, tales fenómenos que se pueden obser var un número indefinido de veces. Esto sirve de base para introducir l as correspondientes características teóricas abstractas de los acontecimie11tos y de las m agnitudes aleatorias, que no dependen del experimento, cuyo conocimiento permitiría estimar la conducta de los acontecimientos y de las magnitudes aleatorias, cuando el número de experimen to~ fuera grande, sin realizar est os últ irno1'.

§ t.3. Probabilidad del Rcon l.eci mien to y sus propiedades

La probabilidad es la característica t eórica fu11dawe11tal de un acontecimiento aleatorio. Se llama probabilidad de un acontecimient o al número qnc caracteri za la frecuencia de este acontecimiento •) H . Cramcr. Mnt.hnmatical ~[ethods of Statistics. l'rinccton Univ. Pr~ss, 1(146 (Versión rusa: H. Crnmer. Métodos matomátícos ilo EstnclísC.icu. !;;1lilC1rinl de Literatura l~ xtranje1»1 , t Mll) .

'26

Cap . 1 Probabilidad de un

11r.011tec!rnlenlu

.nl ser grende l a cantidad de experimentos, es decir, ta l número cerca del cual tiende a estabilizarse la frecuencia del acontecimiento si !a cantidad de pruebas aumenta indefinidamente. De est~ modo, la probabilidad de u n acontecimiento representa su frecuencia «teóric a» . .Conociendo la probabilidad de un acontecimiento, se puede, sin realizar ningunas pruebas, predecir cuál será la frecuencia con que aparecerá el acon tecimiento al ser grande el número de experimentos. Se puede también decir que la probabilidad de un acontecimiento ·es la medida de la posibilidad de suceder uu acontecimiento efectuan·do una sola prueba. Si la posibilidad do un acontecimiento es muy pequeña, éste aparecerá muy raramente al realiz11r un gran número .<Je experimentos. En este caso, al prepararnos para efectuar una sola prueba, prácticamente podemos estar seguros de que el aconte·Cimiento no sucederá. Por el contrario, si la probabilidad de un acontecimiento difiere muy poco de la unidad. al prepararnos para realizar un solo experimento, prácticamente podemos estar seguros de que el acontecimiento sucederá. Hablamos aquí de seguridad práctica y no de seguridad absoluta porque, al prepararnos par a realizar una sola prueba, no podemos prever con absoluta precisión cuál será su resultado. Este experimento puede pertenecer a alguna de aquellas raras pruebas en las que un acontecimiento de poca probabi.lidad sucede, mientras que un acontecimiento do probabilidad próxima a la unid ad no sucede. Ln frecuencia de un acontecimiento i mposible siempre es igual a cero y la de un acontecimiento cierto siempre es igual a la unidad. Por eso, según la definición dada de probabilidad, la probabilidad igual a cero debe ser atribuidn a la probabilidad de un acontecimiento imposible y In probabilidad igual a l a unidad, a un acontecimiento ·ciert.o. Sin embargo, 11 continuación veremos que existen también acontecimiento~ aleatorios que tieuen la posibilidad igual a cero o a la unidad. De este modo, si la probabilidad de un acontecimiento -es igual a cero (a la unidad), esto no significa todavia que el aconte0ciriíiento es ·imposible (cierto). Esto significa solamente qu.e, al aU:i'itentnt ihdefirtidamente el número de experimentos, la frecuencia d.el acóntecimiento tenderá a cero {a la unidad). La probabilidad de un acont.ecitniento A se designa por el símbolo P (A). En 11lgunos casos, la probabilidad de un acontecimiento so puede ·determinar fácilmente teniendo en consideración la simetría de los resultados de l os experimen~o!\. Así, por ejemplo, si el número de lanzamientos de una moneda perfecta es grande, el escudo y la cifra .saldrán práctican1onte con igual frecuencia. Por eso, al arrojar al aire una moneda, al acontecimiento representado por la salida del ·escudo se le debe attibuir la probabilidad igual a 1/2_ Lo mismo, .al echar un dado perfect.amenle fabricado que tiene la forma de cubo, .fas ~eis r.arns, debido a su simetrfa. han de !lalir con frecuencias

§ 1.:1. Probabilidad tkl ocottltclmíeruo 11 •u• propitdades

27

iguales, si el número de pruebas es grande. Por consiguiente, la frecuenci a del acont"8Cimiento, representado por la salida del número de puntos múltiplo de tres, debe tener l a t endencia de estabilizarse cerca del valor igual a 2/ 6-1/ 3, al ser indefinidamente grande el número de experimentos. Así pues, l a probabilidad de que salga el número de pun tos múlt iplo de t res, al arrojar el dado una sola vei, es igual a 1/3. Es evidente, que la probabilidad de un acontecimiento no. pue~e ser negativa ni tener un valor mayor que la unidad, o sea para todo acontecimiento A (i.3,.1) O~ P (A) ~ 1.

Las probabilidades de acontecimientos, como números que representan irecuencias teóricas de acontecimientos cerca de las cuales tienden a e:s~abilizarse las frecuenci as reales al aumentar indefinidamente el número de pruebas, deben poseer toda.s las propiedades de las frecuencias. En particular, en virtud del teorema de adición de frecuencia, demostrado en el párrafo anterior, se admite el siguiente principio de adición de probabilidadu: la probabilidad de producción de uno de los acontecimientos incompatibles, no importa de cuál se trate precisamente, es igual a la suma de probabilidades de los mismos: (1.3.2) P(A 1 + Ai+ .. . ) =P (A1) + P (Aa) + ... Este principio se admite tanto para un nú mero finito cualquiera de acontecimientos A 1 como, en el li mite, pata un conjunto numerl\ble de acontecimientos A 1•). Se dice que los acontecimientos E1t ... , E,. forman un grupo complcki, si, como resultado del experimento, se produce obligatoriamente u no de olios, por lo menos, es decir, si la suma E 1 E2 + + .. . + En representa un acontecio1iento cierto. De esta definición y del pri ncipio de adición de probabilidades so deduce que la suma de las probabilidades de los acontecimientos incompatihles que forman u n grupo completo es igual a la un idad:

+

(1.3.3) Dos acontecimientos incompatibles que forman un grupo completo se llaman contradictorios. A todo acontecimiento A le corresponde un acontecimien Lo contradictorio A q11e represent a la no producción del acontecimiento A. De (1.3.3) se desprende que la suma de l as *) Se !luma numtrablt el conju nto iníinilo cuyns elementos se pueden numerar {es decir, poneT en cnncordnnnia 1!0 0 c11ila olcmrnt-0 nn nÍlmero ent.e-ro de modo c¡ue a di5t111tos elemenl.05 l es c;orrespond an n(uncros entoros s no so puo1lon llevar a I:> con"eSpondcrie;a biunlvnca con los números enteros i;e ll a1nn 110 nl•merablt.

28

Ca p. 1 ProbabilúUul de un aconletimitnla

probabilidarles de los acontccimie11tos contradictorios es igual a lit unidnd: P (A) + P (A) = 1. (1.:1.4) Jfo cie.rtos casos, la determinación directa de la probabilidad ole un aconLecimieniO A resulta dificil, mientras que la probabilid11ú del acontecimiento contradictorio A se calcula sencillamente. En tales casos, la probabilidad del acontecimiento A se halla fácilmente con ayuda de la relación (1.3.4). Ahora bien, examinemos más detalladamente la cuestión de calcular la probabilidad de un acontecimiento en el caso ell que los posibles resultados de la prueba posean simetrfo, como, por ejem11lo, en e l caso de los lanzamientos de una moneda o un dado. Supongamos que con el experimento dado se puede enlnztll' un grupo completo de acontecimientos incompatibles E 0 . • ., En que, 11 consccueucin. de la simetría, deben producirse con igual Irecuencia al ser grande el número de pruebas (por ejemplo, la salida del escudo y de la cifra Rl nrrojar una moneda o l a salida del uno, el dos, el tres, el cuatro, el cinco y el seis al echar un dado). Esto quiere decir que las probabilidades de n acontecimientos Ei. ... E,. son iguales unos a otros y , a causa de l a igualdad (1.3.3~. cada una de ellas equivale a 1/ 11. Supongamos ahora que ol acontecimiento que nos interesa se prod11c~ obligatoriamente, si sucede uno de los aC-Ontecimientos E1 , • • • , E,,.. y no puede producirse, si sucede cualquiera de los acontecimionto~ E m+1t . . . , E,.

o sea, A =- ~E 1 • En este caso, basándose en t!l 1-1

principio de adición de probabilidades, tendremos que P (A) = P (~E,) t-t

= ~ P (E1) =

~· .

(1.:1.5)

.¡-1

So llaman casos los acontecimientos incompatibles equiprobubles que forman un grupo completo. Se dice que el caso E 1 favorece a,l acontecimiento A si, unn ve7. sucedido, este caso lleva a la prorhicción obligatoria del acontecimiento A y desfavorue al acontecimiento A, si, una vez sucedido, este caso excluye la posibilidad de aparecer el acontecimiento A. La fórmula (i.3.5) muestra que si por ra7.Óll de simetría de los resultados de la prueba non esta última se puerle ligar un sistema de casos tal que unos de ellos favorecen al acoutecimiento A y otros le desfavorecen, entonces la probabilidad clel Rcontecimlento A es Igual a la relación del número de casos favornbles al acontecimiento A, al número total de los mismos. EJrmplo 1.3.1. Al lanzar llDn moneda u11a sola V(l1•• son pogibles dos casns : la Mlidn ilo.1 csc.111:lo y In ~elida de la c.ifra. Uno dr ell M f:woroce la apn•ir i6n del l"IC11do. Por lo tanto , In probabilidad de quo salga el ~l!(' udo r.s igual a 1/2.

/$ 1. 3. Pmbflbllitla.J del ac01ttecim tento y ..us

propfodo.de.~

29

Ejemplo 1,3.Z. Si se arroja una solo. ve1. un dado, hay ·seis·casos diferente~: la salida del& cara del uno,· el dos, el tr9s, ~l cuatro, el ci.nco y el sei~ .. t;>.~·ellos lns son negras y 7 blancas. Hallar la posibil iClad de que la bola extritída al n?.ar de la urna sea blanca. En oste ca.so, le .pruel}n:,cPnsiste en saca\· una sola bolu. y contiene 12 !)aso~, de ello~ 7 fov.or~on.h sa¡ida de u.na bola blanca. Por lo tanto, la :probabilidad de quo se cictrnig1< 111\a ·bO~n blancl\ equivale a 7/ 12. · · ·

.El esquema de casos que da la posibilidad de c¡Ucular de un mo(lo comparativamente sencillo las probabilidades de acontecimientos se encuentra en los Jlroblernas prácticos y sobre todo cu la ti;cnica , ·con poca frecuencia. Por eso, la fórmula (1.3.5) tiene uua nplicoción práctica muy limitada. A la frecuencia condicional de un acontecimiento le co.r respo ntle la nocifüi de la probabilidad condicional de un :1contecimiento que significa la probabilidad de suceder utl acontecimiculo a comlicióll de que se haya producido algún otro acontecimiento. Según la fó<mula (1.2.8) deducida en el párrafo anterior, la probabilidad condt·Cional de un acontecimiento A con respecto al acontecimiento B ·s e determina como la refación de la probabili
PP<1:,)·

(1.3.6)

De uo mod.o semejante se detorruina lri prolrnbilidarl del aco ntecimiento B con respecto a A. L a definición de la probabilidad condicional de un aco ntecimiento expresa al principio de multiplicación d~ probabilidades que dice: La probabilidad de la prod11cción conjunta de dos acontecimientos es igual a la probahíli
110

tiene

Cap. 1 Probabilidad de un aco11tecwue11t11

De acuerdo con las nociones intuitivas de la depcndenci\\ y la independencia de los acontecimientos, se dice que el acontecimiento. A depende del acontecimiento B si P (A 1 B) -:/= P (A). El ac-0ntecimiento A no depende del B si P (A 1 B) = P (A). De la fórmu la (1.3.7) se deduce que si el acontecimiento A 110· depcude del B, eutooccs, tam1>oco el acontecimiento B depende del A. Do este modo, es conveniente hablar solamente de la dependencia reciproca o la independencia recíproca de los acontecimientos. Dos acontecimientos son independientes solamente en el caso en que la, proclucción de uno de ellos no Calllbia la probabilidad del otro. Los acontecimientos A 1 , •• ., A,, se denominan independiente~­ por parejM, si cualesquiera dos de ellos son independientes. Los acouted mientos A 11 • •• , An se llaman independientes, si cualesquiera dos productos, compuestos de éstos, que no contienen sucesos. comunes, son acontecimientos independientes. Si. lo:; acontecimientos A 1, •• ., A,. son independientes, entonces, basándose en l a definici ón dada, dos acontecimientos An y A 1A 2 • • • son independientes y, por consiguiente, P (A,, 1A 1A.2 • • A,._1 ) = J> (An)i luego, dos acoot-Ocimientos. A,, _1 y A,A 2 • • • A,, _2 son independientes, debido a lo cual P (A,._ 1 1 A 1A 2 • • • A 11 • 2) = P (An_ 1), ••• ; los acontecimientos. A, y A 2 son independientes, a causa de lo cual P (A 2 1 A 1) = = P (A 2). Por lo tanto, para los acontecimientos independientes. A 1, A 2 , ••• A,. Ja fórmula (1.3.8) toma la forma P (A 1A 2 ••• A,.) = P (A 1) P (A2) .•• P (A,,). (1 . 3.9}·

A,._,

Do este moclo, lo probabilidad de la aparición conjunta de dos. acontecimientos independientes es igual al producto de las probahi· Iidades de éstos. Ejt?mplo l.3.
prlloba c.oosiste en (ruede la urna !!O extrae una bola y so anota su color, despuós de lo r.ual la bola se mete de nuevo en la urna. Una vez mezcladas las bolas, de Ja urna vuelve a sacarse una bola. Hallar la probabilidad do quo ambas veces· sen extraldR una bola blenc.a . ·,Llamemos aconiecimiento A a la salida de una bola blanca la primera vozY. acontecimiei:itQ ·B; a su salida la segunda vez. Es evidente, que tanto en la· prim~ra sacada corno en 11! B-Ogunda hay 12 casos de los cuales 7 favorecen la sálida i:le una 'bola blanc.a. Por consiguiente, en el caso dado P (A) = P (B) = = ·7/121 P (B 1 A)= P (A 1Br= 7/12. Por eso, basándose en el principio de multiplicación de probabilidades 7 7 49 P (AB)=P (A} P (B I Al=12 ·12=m.

La probo.hilidad de que se saque on~ hola blanca la segunda vez no ~!'pend&· absolutamente de la primera extracción. Por eso, en ol caso en cuestlon, los· acontecí rnjentos A y B son i ndepondiente.q, Ejemplo t.:\,5. En las condicionos do! ejemplo o.nterior, hallar la probl!-· bilidad de la salida de dos bolas blancas sin volver a meter en la urna la J>t l-· mera.bola sacada. En est& caso, al extraer la segunda bola, hay 1t casos de 1051

3'1:

§ 1.9. l'robabilldád del ac<mtecimtento y sus propied<"lcs

cuales G favorecen la salida do una hola blanca, a condición de que Ja primorn hola sacada sea blanca (es decir, de quo Suceda el aconteciQJient-0 A). Por consiguiente, lu probabilidad condicional de que aparezca una bola blanca pol" segunda vez, a condic.ión de que la primera bola .oxtraída ha sido blauca (es decir, la pr<Jbabilidad condicional del ac0ntecimiento B con respecto al A) • S igual a 6/i 1. Aplicando el prim:i¡Jio do multiplicncüSu de probahíHdades,. hellauws l a pl'ubahilidad de qtui ambas holas sacadas soan blanc.as: 7 f) i P (AB)= P (A) P(B 1 A)=¡] ·rr=~.

Si la primera oola e:>."traída resulta ser negra, la prohabi.Jidad de sacar una bol'á• blanca c11 la segunda sacada (es decir, la probabilidad condicional d·ol .acoutecimiont<> B con respoct<> al A) us igual a 7/1:1. De este modo, Ju probabilid.a d de que salga una bola blauca la segund11 vet aquí depende cousidor11hlemel)~ de cuál ha sido la bola extraída la primera vez: l' (B 1 A) .¡. P (B). l'or lo tanto, los ncoutecimit>ntos A y B son oo e.'te caso dopendientes.

La:s operaciones de adición y de multiplicación de acontecimientos poseen algunas propiedades características de la adición y la multiplicación de números. Por ejemplo, la suma y el producto delos acontecimientos A y lJ no dependen del orden en que se toman ~ A B = B +A, AB = BA . Las operaciones de aclicióu y multiplicación de acontecirnientos son asociativas:

+

(A

+ B) + e = A + (B + C) = A + B + e. (AB) C = A (BC)

=

ABC.

Por fin, las operncioncs de 11clición y multiplicación de acontecimientos son distributivas: (A

+ B)C =AC+Bc.

Todas estas propiedades se deducen directamente de las definiciones de la suma y del producto do acontecimienLos. Así, por ejemplo (A B) ro¡ires¡¡nta la prod\lCCión del acontecimiento a la vez con el acontecimiento A o con el acontecimiento B, es decir, indiferentemente de con cual de ellos precisamente. Evidentemente, el acontecimiento AC BC también consist-0 en producir.se o C junto con A o C junto con B. Sin embargo, no todas las leyes de adición y multiplicación de · números son aplica bles para la adición y la multiplicación de MonA coincide. tecimientos. Así, por ejemplo, el acontecimiento A evidentemente, con el A. Lo mismo que la aparición conjunta de A con A coincide con A. Por consiguiente, A+ A= A, AA= A para cualquier acontecimiento A. En muchos cosos las operaciones con los acontecimientos ayudan a simplificar esencialmen.te el cálculo de probabilidades de los misnws. Por eso, será útil estudiar dichas operaciones nn poco más detalladamente.

+

e

e

+

+

Cap. 1 Probabilidad

d~

un acon/rclntitnto

Sean A y lJ dos acontecimientos cuahisquicr o, A y B, los acontecimientos contradictorios correspondülntes. Es fácil vor quo A+ iJ rcpresenLa un aconteci mi ento contradictorio a la producción conjunta de A y B: /í lJ = (AB).

+

En efecto, A + B es la producción de uno 1le los acontecimientos A y B, COJl\O mitdmo, lo c.¡uc equivale a la no producción de AB. En go1 1 er~l para cualesquiera acontecimientos Ai. .. . , A"

" ~ 1- 1

A1~ (lj" A;). 1-1

La protlucció11 conjuula ele los ;1contccimiento:s A y JJ (In no producción de los acontecimieotos A y B) es, evhlentemento, coutra
A y B:

Y cu gcnoral n

"

Ir A1 = (LA;). ,_ ,

i:.w- 1

Si con la pruohn cm cuestión ostá oulazado 1tlgí111 ucontac imiooto cierto E. enL011cas cualquier ;tco ntecimicnto A no puede apar1icer sino quu ju uto con este aconleciniitlllto cierto y, por lo tanto, A =AJ:,'. Eu particular, la s uma B

+B

Por eso .4 = A (B

re¡>resen~a

+ R}

=

AB

un nco1üecimieoto cie rto.

+

A ñ.

Esta f6rmulo ofrece la dcseom posi.ción del acontecimiento A en dos acontecimientos incompátiblcs A B y AB. An!logamente podemos escribir·

B = AB

+ AB.

Ejt·mpl o l .ll.6. Hallomo!! l a pro\J11bilídn(l do que ~ur.eJ·a. por lo monos, 11110 d~ l os aconlccimiento~ A y 8 . 1•8 1lccir, IH probnllllidad del 11contooimiento A B . t eniendo on cuenta <¡ue (•Slos suc<>o;<>S. on nl c11so g~ncral. pueden ser co111pelibles. Seg(Jn l;o• regla~ e.\p11e~t11~ tlu adición de ncontecimicntos,

+

A+ B=AB+AB+AB+AB=AB+AB+ AB.

+

Esla fórmula ofrece la descompo~lcióo del acontecimiento A B en tces sucesns lncompalíhlos AB. AH y AB. Va li é11dose de las dcscomposicionos' oblonida~ de lvs aconleeiml eoto~ A , B y A B en los succ5o!! Incompatibles. podemos

+

.< e~cnbir,

J .8. Prol. a/>ilidacl del aco11teclmlento y sus

bMn11d11 nn• en el principio de adició n do

prnpiedade~·

(13

probabilid~des

+ P (AB), + P (AB),

P (A)= P (AB) P (B ) = P (AB)

P(A +B)= P (AB) + P (AB)+ P (AB). su~til11ycnl1<1 las CX(ll'('SÍOnes do las prnbabilidndes p (A B) y p (AB) de l~!I primeras dos fórrnnlas en la tercera, se obLiene

P =(A+ B) = P (A)+ P (B) - P (AB). Pasemos ohoro a deducir algunas fór mulas que son hriport'al)t.es para la aplicación . , . . , . En algunos casos, es düícil calcular cfirectame'i:1te l ª' :PrOQ~Lm­ dad de 1u1 acontecirn iento A que nos iotercs a , pero se puede calcular. fácilmente las p rohabilidade~ conrlicíonales del acontecimient.o A con r c:s11ecto 8 \'Arios sur.esos Íll CO lll Jlll lÍhl os E1. ' . ., en que formau

1111

"

gr upo completo. En esLe caso ~ E 1 representa 11 11 11co11leci1:. 1

miento cierto y, por lo tanto, fl(A)=P(AE)=P(A

n ¿," E¡) = P(~AE,).

1-1

i= I

Por 1iso, :iplicn ndo el principio de 111lición de probn1'iliclndes, se obtiene

,_,"

P(A)- ~ P(AE1).

Aplicando ahora el principio de multiplicaci611 lle probaloi lid ndt-s , liene

se

n

P (.4) = ~ P (E 1) l' (A I E1).

(1.3. 10)

i-=l

Esta fórDlula se llama fórmula de pro/Ja/Jilidad total. F.jt'mplo 1.3.7. La rrobabilidad de c¡ue

N•

la seiial de radio recibida hnyn

11na señal úLll es igual a p. C..a probabil)da e$ igual o ~. lhll~r la probal1ílidad ú 1¡11u d problema clo revelación de una •dial \ílll $0 resuel va incnt'rectamrntc y la p1·0· babiliclnd dr 1111a resolución com~cta. Bn el ca~o en cuestión •'I aco11l<>ci mil•11to A es 11n11 rcsolucíón errónea. ul acnotecim icntn K , reprP~('J•ta la prc,.,ncio de l·a ~l!i1al útil Pn la sei\al de radio que so ree ihe y el acont cdmiento E:. la :i1m~ndn de la Sl'ñHI 1otil (es rlecir, la re<:c pción de so lo ruidn). Según los 1latns, P (e 1) = p.

P (A 1 E,) = a. P (A 1 E,)

~ ~.

Ademá~ .

pues to qu~ In~ arnnteeimirnlM

"°"

1!1 y 6, 5011 i11cornratihle<"1 y fnrman un gruri• t<>tal (M dedr. "'" r.•lr rnsn COntradír.torloS), p (I·: , ) = 1 - p. i'or C"ll~igniPnle , Aplirnndo )a fórmul a d e 3 - 0~38

34

Cap. 1 l'robubtlidad de un acontttimlen to

probabiliclad tota l (1.3.10}, se obtiene Pr.rr

=

P (A) = P (E1) P (A

1E1)

+ P (E,) P

(A

1E~)= pa. +

(i -

p) ~­

La probubilid:id de la r es<>lucióu correcta, como probabilidad de un aconlo· cimirnto to11tradictorio, es iguJI n

Pcorr=P (A)=1-P(A)=1 - pa-(1-p)~f,a 1ubma fórmula puede ser obtenida aplicando directamente la fórmula de probabilid ad toLal. Ejemplo La.8. La probabilidad de Llegar a una central telefónica k llama· do.s durante un intervalo de tiempo t es igual a Pt (k). Los acontec:imicntos que consisten en Hogar k llamadas en un intervalo de ti~mpo y l llamadas en otro intervalo de tiempo cualquiera que no va recubierto por el primero, son inrle· pendientes, cualesquiera que sean k y l. HaUar la probabilidad p 21 (n) de que durante el intervalo de t iempo 21 lleguen n llamadas. Designemos por A la llegada de n llamadas durante el lnte1·v:1lo de timn· po 2t. Supougamos que el acontecimiento Eh consiste en haber exactamente k llamadas en la primera mitad del intervalo de tiempo indicado, con ello, según los datos, P (E~) = Pt (k) (k = O, 1, .. ., n). Es cvideute q \ 10 para que se produzca el acontecimienw A a condición de que tenga lugar E1., es neeesario que en la S<>.gurorla mi tu~ del int~valo do t_ic mpo ~I lleguon n - k lla"!~..ia~. Por ]() tanto, P (A 1F.h) = Pt (n - k}. A¡;hc.andQ In fórmula de prohabdulad total, Jinllamns n

P (A)= p 2t(n)= ~ Pt (k) pt(n -k). h=O

En las aplicaciones, pnra l ns mismas conclic.ioncs, surge con frecuencia otro problema: como resultado del experimento realizndo se ha producido el acontecimiento A y basándose en esle hecho, /1ay que emitir su parecer acerca de cuál de los acontecimientos incompatibles E1t . . ., En, que forman un b-rupo completo, tiene lugar. En el caso general, es imposible resolver esta cuestión con absoluta corteza. Por eso, prácticamente se puede !'olamcnle plantear el problema de revelar las probabilidades de Jos acoutccicoientos E¡, .. ., En conociendo que, como resultado de la prueba, ha sucedido el acontecimiento A . Es evidente que en el caso en cuest ión las probalJilidades buscadas oo son más que )as probaLilidadcs condicio· nales de los acontecimientos E 1, • • • , En con respecto al aconte· cim.ien to A. Por oso, aplicando el prjncipio de multiplicación
P(E~ I A)=

: (E_k)P( A f Ek)

(k=1, ... ,n).

(1.3.11}

~ P (E1) P (A I E;) ""'1

E;sta fó'rmula se Uaµ¡a f6r.mule de Bayes *). Las probabilidades úicondicionales P (E,.) se · llaman probabilidades a priori y las '

~)

E'n los problemas de radiotéenicac la fórmula (i.3.11) se llama a veces pcj¡1cip!o de probabtli.4ad i~versa>

f~rqiu1a o

§ J .4. Repetlr.i6n de los e:zperlmentof

35

-probabilidades condicionales P (E;;. 1A); probabilida·des a posteriori d'e los acontecim'i entos E,. (k = 1, .... n) *).

·· Ejemplo 1.3.9. 'FeDiendo los ·mismos datos:que, eo el. ciemplo f..3.7, s'lipon~ gamos que la sefl~I ..Je radio reci.bide, ha sido .tratada· ¡ior un di,s positiv? radio; rceceplor, Y. la seual tratada ha supora,clo el mvel de umbral da:do, debido ·•ª lo cual el sistema de deieccióil ha decidido que la·i;eñal útil' está presenté. Hállar la probabilidad de que la séiiál·· útil efootivamente :esté presenta y 1n probabh lidad de que ésta esté aueente. . · . , . . . En el .caso .en cues'tión:·teDemos .los. mi.$mos .acontecimientos .E, y E11.que 1 eii e,l ejemplo t.3. 7. ~I ac<;i~(ecii:D_iento 'A es .el.hecho dé iíU:~ 1(~81 ir~(ada:'..P."or el sistema de detecctóp baya superado el niv~l de umbral..,.Segµn los:da.t os' dél· e)emplo;·Ja probabilid'a d de "dec1.d it' quo 'Ja, señal útil se :tiene; en·'e l i;aso)le,su presencia ~n la ~ñal recibjda (es decir, la ·p¡obabilidaq d4 la so!uci,ón }ust~ en es~e caso) es igual a. 'P. .(¡4 1E 1) ~ 1 - d y 18. proba~ilidad' d(deeiair. qú~ ta señal 'Útff está presente ién 1)1' éaso de la 'téc'epcl6:0 de soJo rüid'O'> eqtilvaJé, a P' (A 1 E 2) jl. Por eeo, aplicando la fórmula de Dayes (1.3 ..11), ballam'0s

=

p (1-a)

p (E1 \A)

P(E~IA)

(1-a)+(t-p) ~. (1-p)jl p (t-a)+(t-p) jl'

P

Valiéndose de la fórmula de Bayes, se pueda determinar de un modo semojante la pYobobilided de la .l!reseDcia y de la ausencia de la señul útil en el caro en que el sistema de det<)Cc16n decide que dicha señal faJta en la roc.iLida.

§ f .4. Repetición de los experimcnws

Un experimento complejo consiste frecuentomente en que una prueba elemental, como resultado de la cual puede aparecer o no aparecer algún acontecimiento A, se realiza repetidas veces y nos interesan las probabilidades de diferentes resultados de este experimento complejo. Llamaremos independientes a los experimentos, si la probabilidad de producirse un resultado cualquiera de cada uno de los exparimentos no depende de los resultados de los otros. Esta definición concuerda perfectamente con la de la independencia de los acoot.ecimientos expuesta en el párrafo precedente. En efecto, designando por A 1 cualquier re:mlt.ado posible del i-ésimo experimento, observamos que n experimentos son independientes cuando, y sólo cuando, son independientes los acontecimientos A 1 , • • • , An , es decir, cuando las probabilidades condicionales del acontecimiento A 1 con respecto a todos los acontecimientos A" ... , A;_1 , A;+1t .. ., An y con respecto a todas las coincidencias posibles de estos sucesos son iguales a la probabilidad incondicional del acontecimiento A,. Convengamos en decir que los experimentos se realizan en co~ diciones iguales, si la probabilidad del acontecimiento que nos interesa A tiene en todas las pruebas el mismo valor p.

•¡ 11 priori- loe. lat. que sig1úfica •que viene aotes., o sea a11tc~ de la prueba. A posteriori, •que viene después•, o sea, después de 111 prueba.

3¡;

Con. 1 Probabilidad de utt aconuctml•"'º

Corno resultado de n ox·perirnento:;, el ncohtecimiento A puede no producirse ni una sola vez, producirse una, dos, .. .. n veces. E~ necesario hallal' las probal.Jilidades de diferentes valores del 1i úmero de aparición del acoQtecimíento A. Designemos por P.,.. n la ' probabilidad de que .en 11 experi01011tos inde¡¡endientes realizados en iguales condiciones el acontecimiento A se produce exact¡lmente rn veces (rn =O, 1, ... , n). Para· resolver el pro-blema planteado, tomemos n casillas y registraremos los resultados de cada; prueba, anotando en la casilla correspondiente A , si el aconteciroien.to A se produce en este experimento y A, en el caso contrario. Entonces nuestra tarea se reducirá a la dete~minación de la probabilidad de que algunas. m casillas estén ocupadas por la letra A y las n - rn restantes, por l a letra iL P11esto que no nos importa cuáles casillas estarán 011upadas precisamente por la letra A, con tal de que el número de tales casilbs sea igual a m, entonces, aplicando el principio de adición de probabilidades, llegamos a la conclusión de 'que la -probabilidad bttscada P m . 11 es igual " la suma de las probabilidades de todas las colocaciones posibles de m letras A y de n -1 m letras A en n casillas. Del Algebra clemenLnl se sabe que el número de procedimientos con cuyff ayuda se puede sClleccionar m elementos de n es igual al número de combinacionos de n elementos en series de n~. Por consiguiente, la probabilidad de sucecler el acontecimiento A exactamente m veces, al efectuar n experimentos, es igual a la suma c;:.de sumandos cada uno de los cuales .ro.p resenta la probábilidad' de obtener, como resu·1. tado de la prueba, una coioéación determinada de m letras A y de n. - 1n letras A en n. casilla;. La probabilidad de cad¡i colocación, basándose en el teorema de !JlUltiplicaci ón de prohal¡ilidades, para los acontecimientos independientes es i,gual a p'll q" - "', donde, por abreviar, so ha !lecho. q = .~ - p .. Efectiva.meute, para que, por ·~J~,g,i.pl 9, Jas p.r~ro.!¡.~as m .ca13~~lai¡ i:esul~!l est!lr ocup¡¡.das por ~la letra fi'1.•y~l~ .úl.timl!S'-.n· - m, ]l.or 1la letra A-, 1lS necesarla 'la ~incidencia de',Jqs -.-acontecif!lientos•,sigu,en,tes: producción de A .en el. .p rimer e;r:petimentQ, produccióJl de )1 en el segu11do experimento .e~ .• prerjmentq .et.e .... no pN.ducción de A iin ..el· enésimo ex.perime.~to .. -Multiplicando.; las .p~obabil~<j.ades 4e. estos acont~c!mientos, obtendremoa,:.pot .fin·,1 p"' q"1''!'. De est.e modo, .la probabdld;id .bus·Ga(l:a ,!le ·q.ue .1ü ·acontecimien~o A se produzca, m v..oces,. al -:realizar n eX:p9.rimentos, .es,.ígual.a.la. $tilii-a.c :;:. de· sumando~ igu.ales a P'°'·qn-;-m, es decl r, · >· : f Pm . n=C':p"'q"-"' (m=O, 1, .•. . n). (1.4:1)

El segu~do· problem•a .JiJa,do con

h

¡:epetición de las : rrneba~

§ J .4. Repelle~." de 101 nptrlminlo•

37"

consiste en balial' '1a probabilidad R 4·• " de que el acontecimiento A se produzca no menos de k veces, al realizar n experimeñtos. Sobre ·hase ilel principio de adición de probabilidades, esta probabiÍided, ·es igual a

la

R

R11..n -

11

~ Pm.n= ~ C!;pmq"-"'. · ~

(i.4.2)

m-,.A

Es conveniente aplicar·esta fórmula -en el.caso en que.k;;;;;. (n + 1)./2> En el caso cuando k < (n .-t., t ) 12:, es. conyeniente expresar l"a probabilidad , basándose en la fórmula {1.3..4), por medio de la orobabllidaCi del' acontecimiento· contradiciori'o, es ifeciri 'po~ ·medfo de. l¡i prób aliijidad de que el acontecimiento A se prod'uica niéóos -d.e, k 'veces. Entonces se obtiene 11. - 1

h-1

m.-0

ma-0

Rt,,.=1- ~ Pm,n=1- ~ C~p•c/-m,

(1.4.3)

En particular, esta fórmula ofrece l a siguiente expresión de 111 probabilidad de que nparezca por lo menos un acon tecimiento A: R 1 , n = i - q". (1.4.4) Esta fórmula puede ser también obten ida co11 facilidad directamente observando que la probabilidad de no producirse el acontecimiento A al realizar n experimentos es igual A c¡n según el teorema de multiplicación de las probabilidades de acoo tecimientos independientes. La probabilidad de suceder el acontecimiento A una vei, por lo menos, como la probabilidad del acontecimiento contrndictorio a la 110 producción de aquél, se determin11 restando q" de la unidad. Es evidente que l a suma de todas l as probabilidades P ,. , " (m = O, 1, ... , n) es igual a la unidad, como suma de proba bilidades de los acontecimientos incompatibles que forman un gru po completo. Esta tesis puede ser también demostrada ohservando que la suma de todas las e.xpresiones (1.4.1), según la fórmula del q)" = 1". binomio de Newton, es igual a (p

+

Ejc'mplo f .4.1. La moneda se arroja seis voces-. Hallur ln probabilidntl
=

Ri, •"" t-C:pOq•-qpq•= M.

Ejemp lo 1.4.2. La probabilidad del fallo de un &iet ema automático duronto cierto Interva lo de t iempo es Igual B O,!. Hallar la probabilidad del lallo d~ tres sist emas exact8lllel!te de los diez que ~e encuentran en explotación. Hallar la probabilidad de que uno de los diez sistemas, por lo menos, funcione bien.

38

Cap. 1 Probabilidad de un acontecimiento

Sea el acontecimiento A el Callo de uo sistema e.xamioado por .separado . O,f , q = t - p = 0,9. La probabilidad del Se11ún los datos P (,t) = p faJlo do m = 3 sist~mo.s de n = 10 en explot11el60, do acuerdo eon la f6romla (1.4.2) es ígual a

=

P3 ,

1o= Cf0p8q7=

3~º;, ·O,iª·0,9

7

~ 0,057.

Aloorn hallemos la p1•obabilidad de que, por lo menos, uno de los diez si~te mas

funciona bi en. Por la fórmula (1.4.4) es fácil hallar (considerando como 11contecimle1.1to A el funcionamiento sin fallos del sist.ema) R1 , 1o=f- 0,110 = 0,9999999999. Ejt'mplo t .4 .3. La probabilidad del fallo de un elemento det.erminado del sistema es igual a p = 0,05. Par:1 aumentar la fiabilidad del sistema, en ésLe, en vez do uno, se han Introducido 'n 5 elementos semejantes que funcionan simultáncnmentc. Con ell o, el sist.oma se estropea sólo on et caso en que faHe n tollos los cinco elementos. Hallar Ja probabilidad P do que el sistema íunclo ne sin fallos. La probabilidad de que fallon todos los cinco"elexnentos es igual a p' = .,. 3, 125 ·10-7 • Por consigui ente, la probabilidad do que el sistema luncíooo sin fallos será P = 1 - 3,125- t0-7 ""0,9999997.

=

CAPITULO 2

Magnitudes aleatorias

-§:·2. f. Función de distribución y dcñsidail.
.

de

J!Tobilliilldad .

.

'·:'·. En el§ 1.2 vimo!:! que de característica experimental de una ·ma·g«. nitud aleatoria puede servir su iuneión·-estadística de distribución: Conociendo la función estadística de distri bución de una magnitud 11leatoria X, se pueden hallar las frecuencias con que sus valores se encuentra11 en diferentes intervalos del eje numérico. De modo análogo, en calidad de característica teórica de una magnitud aleatoria X, no relacionada con la r ealización de e~ptirimentos cualesquiera, se puede tomar la J>robabilidad de cumplirse la desigualdad X < x considerada como fnnción de la varill'qle x:

Ji (x) = P {X

<

(2.1.1)

x).

Est11 función se llama función de distribución de la magnitud aleatoria X. Ejemplo 2.1.1. Hallar la función de dis\_l'lbución del númer<• de VCC9$ que se prtltlucc un aco11tecirui~.11t el número ele vo.:os X que sucede el acout.ocimiento A al realizar ,. ¡11·uebas es una magnitud aleatoria, que, romo resuhado de un experimeuto compl ej<) consistente en rz pruebas elementales, toma uno de Iros valores polSiblcs O, t , 2 . . .. , n . La probabilidad de q_ue esta magnitud aleatoria tome el valor m en el ca~o en cuestión se expresa por la fórmula (t.4.t) deducida en el párrafo anterior. Supong11mos t\hora que x es una variable qu e varia en los límites (-oo, oo). Para todos los valores negativos de :i: y siendo x ~ O, la probabilidad de que el número de veces que sucede el ac•>0tocimiento A se-a W(>nor que z e¡¡, evidentemente, igual a cero. Si O< x ~ t, la probabilidad de que el númoro do ve«s que ocurre el aconteeimien\o A S()a me1wr que x rup1·esenla la probabilidad de que el acontecimiento A no suceda ni una 'l<1la vez, u decir, es igual a P 0 , n· Y en general, si k < z ~ k 1, la ¡1robabilido.d de qur. el número de veces que se produce el acontecimiento A sea menor que z no es más que la probabilidad de que el acontecimiento A o no ocurra ni una ~la vez, o aparezca una Rol a vez, etc., o suceda Je veces, es decir, equivale a

+

~ Pm,n (k m=O

= i,

.. ., u - 1). Y, por fin, si z

>

n, la clesigualdad X<"

representa un acontedmicnto ciert.o y su probabilidad es igual a la unidad. Pe este modo, h. función de distribución del número de veces que ocurre el acontec.imiento al realizar n pruebas independientes, en las mismas condldono$,

40

al~atnrtas

Cap. 2 Magnitudes

se det.orrnina pc>r l11 fórmula

F (x) = {



C¡¡tp•nqn-m

si x
tn=O

(k=O, 1 . . . , n- ·I),

t

si

(~.U )

x> n.

1·:11 la fig. 2.J.1 so muestra el gráfko de esta función dr. distrihvcióu para el cu;;o ('ll que n 5, p 0,95.

=

=

En el ejemplo examinado los valores posibles
' ----------------r--

entouces, la función de distri bución de la magnitud a leatoria X se determina por Ja fórmu la F(x)= ~ p1 ,

(2.U)

X¡<"'~

donde la desigualdad. bajo el signo de suma indica que la adición se' efectúa toman.do to~o:;; los valores del íJJ.dice í p;ira; los cua1es se ~u.m.ple ,est1l, .de&.i!W<1!dad.. Cqn otras pala.bras, c.ualquie_ra qúe sea e.LY:a.lor.\,d.e~-Z·da·: función:, de. distribución ·es ·igu al a la ·suma· de ·pro"

li.~.P.!Y~~~§es'~lt~4;~s.:lo~ ~~1.?.r~ :x(d~: 11;t'. in1;t~i;iitua· ~.leatori a

;r· ni,eno-

. ~~~. !l~,e:;~:. Jf~,:,~y~q;~,n,to., que' ~~:.tdi,l ~re.c.er! .se)~ace ~g.ual:~J;.1+to e.ntou-. ~~·~s¡~h~.!J..rne¡Q: ~.e Jos v.a.lor:.es.. ·'fL-.m epores. que x:queda. mvartable-; · ·es•:d~cir.,·:ladunción:·de ·dis&ri:bución F"-(:r-) t iene en· el pünt o x = Xi+i el~·fuismo··valO:r ·qu~ · p¡1i'a,toda i en e!'ii:tterv,alo-.r1 < ~· < -X;+ 1• Si x iíl'can:La tün \r'áfor 'm ayor "de X¡~¡, entonces' la' fuución d-e di'stribución l!,U1Ile1,1tª" ª :(!.!l.!t o e~¡ la m¡¡.gnit1J,IJ!.p 1'H· Y,or consiguiente, el valor d~ la· funci6J.1 de ~istribución, en el pu nto de .d iscontinuidad es igual (sü J:a~~f~ ~ tf'iz,~'liefa~ A~ é~ie 'i?JJ~t~, o se_a.; .1.a runci?n. 9e dist ribt!ciól\ ~ CQrítinua ·a 1.á ·¡zq:ui~¡:otj.a:. E;n la .fig. 2.1.1'. Jos v.a lores de

ae

0

ª

.~

2.J. Funct6n qe di.flribucf.fm ¡¡ de.nsidad. dt probabilld{ld

41

· 11! Junción de distribución i¡n los puntos de discoqtinuid1;1d~,est~n indiPa,do&-. por . puntos gruesos. .. .. . . ... : , .. . . '. . Exa)Dinemgs . ahora :d ils prq.pied~des generales.-de. 18;.,func.i.óri. d.e. d~stribuc!4n d~ un~ mf!gnítup, alaa:toriª cu4lq'\liei:a•. .Igual que,,~9,dª" ptpbabilidad, la función de distrib~leión~no puedo ser. .negati~a; '.!t ser. muyor que la unidad: . ,. · D ~ F (x) ::;¡;;:l. (2~t.5}

. Luego, cualesquiera que sean a; y ~. a < ~. para cumplir la ·desigualdad X<~ .es !'lecesa.r.io y sufi~iente que sea X < ·.o. (). .;a ::;;; X < ~. Con:io· ·'los acontecimientos X < (i. y a::;;; X < ~· son. .·i13compatibles, entonces; según el principio de adi~ión de pr~balii-. · ~~~

P (X

<

~)

=P

(X

<

a.)

+P

(ct ~

x·< fü.

.

· ~

De aquí, basándose en la definición (2. t.1) lle la función de distribución, sigue la ig11al
P

(a~ X<~) =

F

(~)

- F (
(2.f.6)

De este modo, la probabilidad de que el valor de la magnitud aleatoria se encnentre en el segmento (a.~). del eje numérico, o en su extremo izquietdo, es igual al incrernenio de la función de distrib11ción en este segmento. Puesto que la probabilidad no puede ser negativa, entonces cuale!!quiera que sean a y ~. a.<~; la magnitud F (a) no puede ser mayor qu·e F (~). Con otras palabras, la función de distribución es una función no decreciénte. Tomemos ahora una succ.'!ión indcfinidamentocrecicntc de los valo. res xi, x~, .• ., x,. ... rl'e la v11ri11ble il:, 1im x,. = oo. Los valores

........

respectivos de la runcióp. de distril1ud611P(x1),1"(x2 ), •• ., P (x,.), . .. forman una suce~ión no decreciente de núnieros cuyo límite superior e::i la unidad. Del .Análi.sis Matemático .so sabe que tal sucesión siempre tiene límite. Por otro lado, si todos los valores posible::i tle la mngnitud aleatoria X son finitos, entonces, siendo Xn lo suficiente gran1le, la probabilidad, de l a desigualdad X < Xn será lo próxima que se quiera :i la· uni
,,,_"'

De modo análogo se demuestra qnll (2.1.8} -~· Si :i.:1 , •. ., x,,, ... es unn sucesión creciente arbitrnria· de los valores de Ja variable x qu.e converge a algún valor de x 0 , lim x 0 = :i.:0 , F(-oo)= lím}'(x)=O.

n-eo

Cnp. !! Magniludn ~nLonccs

4l~ntortos

todo valor posible de la magnil11d ale11toria X, menor que

x 0 , pertenece a uno ele los intervalos x,, ~ x < x,,.¡. 1• Por ·consiguien'te. el acontecimiento X < x 0 no es más que la sumo de un: conjunto numernble de ac1>ntecimientos incomµntibles X < :rlt x 1 :::;;; X < ·<Xi, .. ., xh ~ X < x~+ 1 . . . Sogún el prí1\cipio de adición
P (X< ~·0) = l' (X< x,) +

..

L. l' (x1,.,,;. X < ..,11= \

Xh.i) o bilm

F (:r-0) = F (x,) + ~ [F (x.,.1) - F (x,,)J.

•=•

0

DI.! este modo, In serie del miembr o dcroel 10 dtl In igualdad obte11irtn converge y su suma es igual a F (x 0). Puro la suma de los n primeros términos de esh1 i;eric es igual a F (x,.): n- 1

F (:i:,) + ~ ¡F (xkH)- F (x1,)I = lt-t

= /t'(x,)+ IF (:ri) -F (..1:1)1 + · .. + lf (x,,) -

F (Xn-1)1 = F (x,, ).

Por lo t onto, lím F (:en)= F (Xo) n-+ ..

y si la magnitud x 0 - x,. os Jo suficiente poq11eiía, la di!erenciA F (x 0) - F (x,.) ser~ tan pequeña como se quiera. Do este mod,o, la función de distribución es co11ti11ua a la hquicrda y su \'alor en todo punto es ig11al al límite de su vnlor a la izquierda ~le este punto. Pasemos ahora al límite en la Jgualdad (2.1.6) cuando ~ -+ a. En este caso, el intervalo (a, ~) converge al punto a y obtendrem0$ P(X=a)=F(a+O)-F(a), (2.1.9) -donde F (a+ O) es, como siempre, lím fl (a+ l e 1). De este modo, l a, p~i:i~aQil.id~d..

t-......O

de quo la 11111gnitud aleatoria X to me el valor. a es "i¡rüal ,ál,'salfo de . su· fUJ1ci6n de distri'buci6n en el punto a. $i lu - 1\lncí'ón : ll,~~ disttibÚciQo es contit~ua en el punto a, la probabflidad <1.9' ?fue··1a.JPl!gn'itud aleatori a tome el valor a es igual á ~ro. Estas tesis se ilwiiran claramente en el ejemplo 2.1.1 examinado más ~tri ba.

· ·s¡ la función de dislrib11ción de una magnitud aleatoria X es continua para todos los valores de :z;, entonces la probabilidad de ·C~~Jquiera de sus valores posibles es igual a cero. A primera v'ista -estaf·deducción es contradictoria: como resultado de una prueba la 111~gpit'!d , aleatoria tpl)la, ~bliga,t.oriamen.te cierto valor y al olismo ·Uempo ra.probabilidad de que ésta to.me cualqu ier ·vafor asignado de antemano es igual a cero. En realidad, aquí no hay ningun a con-

§ 2 .1 . F1111cl611 de d l1trll>ució11 y de!lsldad de prolJafl ijidaf! .

.43

"t·r11dicción. En el § i.3 ya se1ialamos que un acootecil'.)lieokó·]l(!sibl'e puede tener la probabilidad igual a cero. En •el caso ·en :.cuéstión , .si a es un valor posible de la magnitüd ~leatori a 'X' y i;q 'fU:ó.!?ió~ de distribución es continua en todo el eje numérico, la igµ~ldad X "=• a es un acontecirnieot o posible cuya proba}>ilidad es igual· .i. cero. Esto solamente quiere decfr. que. al ser muy grande el número d e exper imentos, .s erá i;nuy raro que la maguitud aleatori;;i X tome €1 valor dado a, así que la frecueo·. Fo , ~ia de este. valor tend rá la t en· "; -- --~--~-dencia de apr oxi marse a cero. Dado que la .ptol:iabilidad de la ~ 1 .igualdnd X = a, en el caso de una !' 1i 1' función continua de distribución, 1 1 es ig ual a cero, entonces la fór11 1' mul a (2.1.6) puede ser escrita en 1 1 l a forma ' 1 P (o < X < ~) = F ( ~) - F (a), Fig. 2.1.2. (2.1.10) A base de las propiedades estudiadas de la función
+

l' f( x ) -- ~o

P(x.,¡;; X

< :r+6x)

t.x

.

(2.1.1 1)

Si l a densidad de probabilidad de una magnitud aleatoria X en el pun to x es distinta de cero, entonces :x e.s un valor posible de dicha magni t ud. Si la densidad de probabilidad en el punto x 1 es mayor

Cap. ll ilfa11nitudt1 11úa.torlas

que en el punto .z1 , se pued.e decir que el valor x 1 de la ma.gnitud aleatoria X es más probable que el valor .z1 • Expresando la probabilidad en (2.1. H } por la C6rmula (2.1.li), obtendremos (2.1.12} De esle modo, In densidad de probabilidad de una magnitud aleatoria es ignnl a la derivada de su función de distribuciót1. De la defin ición (2.1.H) se deduce directamente la primern propieclad fnnd11mcnlal de la densidad de probabilidad: la densidad lle probabíli1lad de una magnitud aleatoria es una función no negat.iv11 (2.1.13) 1 (.:r} ~o . In tegrando la fórmula (2. 1.12) y teniendo en cuenta (2.1.8), obtendremos la expresión de la fun ción de distribución de una magoitult alentorin en función de su densidad de probabilidad : X

F (x} =

Jf (x) d.z.

(2.1. 14)

Suponiendo que aq uí x - oo y t eniendo en consideración (2.1. 7), obtendremos la segunda propiedad fundamental de la densidad de probabilidad 00

~

j (x) ~ =

t.

(2.1.'1 5)

De los fórmulas (2.1.10} y (2.1.12) se deduce que la probabilidad de que l a magnitud aleatoria X tome el valor comprendido entre a y B es igual a la integral de su densidad de probabilidad tomad& en los limites de a a P: ti

P (q. <.X < .P} =

~ ! <~> dx.

(2. t.16)

a.

Flg.' 2.1".8.

ET sentido geométrico tlé esta fórmula es .evidente. La probal>ilida d· de ·que el valor de la magnitud' a"leatotia X se encuent re en el segmento "(lq.do (a, p) es igual al área--.cle la figuro limi ta.d a por arriba por lo c1irva· q ue refleja l a densida4, de probo-bllidad, por abajo por el eje de abscisas y por los lados, por las rectas x = a y x = p (fig. 2.1.3). La .igualdad. ~2.i.15) indica, que. toda el área limitada. por la cpn•a que representa lll.! densidad de probabilidad y por eje .de l!bsci.sas es, igual a la unidad.

~~

2.1. Punct611 tk dl.tlrlbucl61t' v "dtn$Ulad de probabilidad

45

•·• La magnitud f (.z.) dz representa, ·c·o n una eJi:acfitud de hasta 'iofioitesiinales de orden superior, la •probabilidad de q'Uet>la magn_i-· dz). De acuei:do tud aleatoria X tome el valor en el intervalo (z, x · ~on l a terminología adoptada en el aoúlisis esta magnitud se llama ~lemento de probablúdad. La funci ón de distl'ibución de u.na magnitud aleatoria, o su densidad efe probabiiidad, 0 el CO!ljWllO de V!l(Ores -posibles de Una magnitud alea.t.oria discreta y las probabj]id ade~ de los misroos·so11 dife~ntes formas de e-'!'.prosión de la ley de distribución de· dich~ magñit.ud. La· ley de dtstribuci6n., o sea la di$trlbuci6ñ de probabilidadés de

+



1 1

1 1

1

1

1 1

1 1

a

a Fi¡. 2.1.4.

()

b Fig. 2.1.S.

.r

uno magnitud aleatoria es u.na característica completa de la mism;i , qu e determina sus valores posibles y permite comparar l as probaliilillades de éstos. Una de Jas mcís diiundidas leyes de distribución de magnitudes aleaLorilll! es la ley normal de distribución {Ley de Gauss) para la eual la densidad dP probabilidad se determina por l a fórmula (x - a>•

t /(z) = --=-e~. (2.1.17) o V2:r Esta ley de distribu ción será examinada en el § 2.5. Allí mismo, en la fig. 2.5.1, se da el gráfico de l a densidad normal de probabilid ad (2.1.17). La distribución de probabilidades para la cual la denshlad do probabilidad es constante eo el intervalo (a, L) y es igual a cero rucr3 de este intervalo se llama unif<>rme. La densidad analítica de prob11bilidad de una mag nit.u d aleatoria uniformemente distr ib11id1.1 se expresa p or la fórmula

(

~

! (z) = < l O

si a< x
(2.1.18)

si~b. EJ gráfico de esta den.!!idad se muestra en la fig. 2.1.4. Los valores dl! la · densidad de probabilidad eo los puntos rle discontinui dad pueden ser tomados arbitrariament.e, puesto que no inrinyen en las

41i

Cap. 2 M,,Jlnilruüs akn.torla1

intcgrolei< de la forma (2.1.10). Aplicando la fór mula'(2.1.14), hallamos con facilidad la función de distr ibución ele unn! inagoitud aleatori a X uniformemente distribuida:

F(x)={ z~a

si

:r< a,

b- o.

si

ci<x
1

si

x> b.

(2.J.1tl)

En 111 :fig. 2.1.5 se da el gráfico de est a función de distri bución. Ln clis tribuciitn d6 probabilidades pa1·a la cual l a densidacl ele· )l l'Oh11bilidad se út>l.crmina por l a fórmula 1

= { 2h~.i;e-h2.,,

X

/( )

O

Si X> 0,

si x
(2. 1. 20~

se llama de Ray/e¿gh. El gráfico de la densidad de probabilida d p;ira la ley de Rnyleigb se presenta en la Iig. 2. 1.6.

r Fig. 2.1 .ti.

Fig. 2.i.7.

Susiituyeudo la expresi ón de la dens.iclod de probabilidad eni la fórmula (2.1 .14), hallamos la función de distribución de UJla magnitud aleatoria X repartida según la ley
J

1 xe-hix d.x=1-e - 1•ªx' si x>O. (2.1.21} o Si x < O, osta función de distribución es igual a cero. E l gráfict> de l a función de distribución para l a lay de R ayleigh se muestra eft la fig. 2.1.7. . La ley de distr ibución a la cual corresponden la densidad de probabilidad y l a función de distribución f (x) = ke-h, P (x) = 1 - e-b si x >O, (2.1.22)

F(x)=2h2

se denomina exponencial.

.~ :!.J. Funrión dt.t 1Jii~tril11.u:ltm. y
'•1

U11a gcncralizai;ión cviúcntc de fos Jc_ycs d e dis tribudón cxpout:1ncial y ele fü1yleigh es fa ley 01· l;is fór-

mulas F(x)=i -e- 11" 1' ,

f(x)=nkx 11 -le- ""n si x>O .

(2.1.23)

J~sla ley de d istribu ción f11e aplicatla por primera vez a los probliimas tle Ja ¡irácLica por Weilou ll. l!:n el cuso 1rn1ticular, cuando n = 1., Ja ley de vVcibulJ so trnu~forma en ex poucncial. Cuando n = 2, la ley de Weibull 110 es más que la tle distri bución de Raylcign.

¡.;,;emplo 2 .1.2. l<;n la t•!orín de liabilid:tcl de lo~ dispositivos auto·m&ticos~ la fiaL ili1lnd do un elemcnl<> n r) la ¡irobal>ilida en el intorv~lo de Ucmpu (t, 1 rlt}, ~uponiendo 1poe hnRLH el mt>mento t el elemento funcionaba norrnri lrncnw. r.m1<•r\i1<11d<• la fuflc.i6 11 1, (t), ~e pucrlr, ltall~r la 1,,Y fo distJ>íbucióll 110 la d urni;ió 11 del sorvicio. Jl ;ua Jiall nr la ley do di~lri bud611 tlo la d uración de ¡;crvicio del elemento examinemos dos acontcci m iont.os: A (buen f11ncinnamiento del olemcnto hasta cl momento 1) y B (follo del elNoe1110 en el iutervaln ile tiempo (t, t dt)). l>s ovitlente que el ncontccimiorito B 110 ruedo suceder s iM iunto con el acoolncimíento A. por quo o! elemento puede fallar en ol hohirvalo de tiempo (1, t dt} s11lamcnLc 011 pj e.ase) de fundrnrnl' hie.11 lta~tu el rnornenlo 1. Por eso l' (lJ) = = P (A 8). y bnsánd onn~ en "¡ prinripio de mnltiplicac.ión de probabilidades. podomns P.scrihlr /> (8) = P (11) P (O I A). (:U.24)

+

r.

+ +

lJesígOC1l>OS las funciones i11róg11itas ilo distribución y la rfo.nsidad de prnbabi· lih>tliili B ~s igual , <:.on exactitud hasta iofínitr>simnlcs d1) ~egufüio ordcu, al .•,lomcJttto de probabilidad corrospon
<

T

<

t

+ dt) =

f (1) dt = F (t) dt.

La probabílidacl del aroutcc.in1icnto A se exprnsa ¡1or medio de la Cunc.ióu el<> tl!slrihnci6n de l a duraci ón ele servicio del elemc11lo T :

l' (A)= f' (T ~ 1) = 1 -

P (1'

<

t) = 'l -

F (t).

J1or fin, l:i probabilitlnd cornlido11al /' (B 1 A) !'r la int.eo¡;ldarl mcdin tle fallos del elomeuto ;, (/): !' (0 1A) = A. (t.) dt. , Su¡¡tituyendo las expresio11es ohtcnidas en la fórmula (2.1.2.t.), obtt>udremo~. '-.~~.!ipués d& dividir nmhos miembros por dt, la ec.uación diferencial para la fun: · ·~i6ji de distrihucióll F (t): .

P' (t)=[1 -F(t)J7'(t).

(2.1.25)

·.. De.do que 111 duración de s.i1·vici<> del el~ment.o n1> puede ~e.r negativo, o\ acnntecim\ento T la ~1111clón d'1ferenc.lal (2.·t .Z5}, con in condic.ilm inicial do Q,tll> F (0) = hnllanms In función ile distr-ibución d~ l a durad6n do Sl•l'Viclo dt'l

º·

Ca/>. :! Altt¡t111/utlu alrn turias (1l1:menLo:

1

F(l}=l-cst> { -

J

(:t. L211)

,. (l)dt}.

o lle ;tt¡ul, por
~

f (t)=f. (t}cxp { -

'· (1)

dJ}.

(:t.1.27¡

o J-:n rJ ~""" parlicular, ele qui:> Ju í11Lo11s 1dn1! de !olio~>. (IJ = A ~en las iórmulns (2 .1.26l y (2. 1.27), toman la forma P(I)= l -e1",

f (1)=1.e-~ 1 •

~Ou.>La nlc

(2,1.28)

De cs~o 111odo, siendo consta nte la i1M11Riil acl de fallos>., la duración do servicit1 de 110 ~l nmeuLo est.á subordinada a la ley C'C.poueneinl da distribución, lo q ue explica el gran papel que dic ha ley desem peña en la t eoría de !iabílidad Je los sist.ornns automáticos . Ejrmplo 2.1.S. Para los mismos Jalo~ del ejemplo unwrior, hnllar Is ¡woliahilid•d condicional de quo el cfomenW rnllc 011 ol lnt.crvo.lo de t.iornpo (ti. 11) s11ponien1lo que funciono bien hast1< el 1oornento 11• ~xamí11omos dos aeontecimícntos: A (ol ín11cionarnionw nnrmal d el elc111ot1lo hasta el mnmenLo 11). B (el fallo 1lel elemento ou el íoter\·alo de ticmpf> (/1. 11 )). VAli6ndoMS de la formula (2.1.lll) obtend remos P (O) • P (t1 < T < t~) = ~- (lz) - I' (l1J (:1.. 1.29¡ (Z.1.30¡ P (A}= P (T;;;, 11) = 1 - l' (1' < 11) ~ 1 - F (1, ).

r

Sustitu yc111lo estas ex¡iresionus en la f6rmu l;i (2. t.24) y t<>rnurH)u '"' rucnl.n que en el ca:«¡ dado el acont.ccimienw IJ no ¡iuedu producirse sino junto con el ar.onlcdmicnto A, hallaremos l a probabilidad huscadu de 1¡uc ralle "' elemouto en el i11t.crvalo do tiempo (1,. t,) a coadici6n Je t¡uo hasta el momento 11 haya funcionado bien: P(D ) A}=P (ADJ= P(B) ~ F (1,)- JI (11) (Z. l.1ll ) P(A)

P (A}

t-F(to)



S ustitu yendo ar¡ul la exprnsión (2. t.2B) fl•r:t fa fuuci6n d.u rtblcud rcmos de!initívameoLo

,,

P(0 ( .4)=1.-oxp { - .1· l.(!}dt} .

di~tril.111c.ión

'. JI (1)

(2 .!.32)

11

'En ol cn!o ¡iatti~ular, en qu~ la i11te115i<J11d 1lc fallos ), us <;OIL•tante, la su.stitn-ción de la cxpr~óo de la fuución de d1 >tribuciii11 de (2. l .28) (•n la fórmula (2.1.29) ofrece l a siguiente f6rwula para la prubxbilidatl do que fulle el olcment-0 en .el intervalo de tiempo (t., 12): P(B) =e-'l.1t-e-'l.1• . (2.Ui'.3) La ~ustitución de Ja expresión (2.-1. 28) para la función 1lt• 1li~tri l1oción en (2.1.:11¡ olrece la siguiente Córmula para la prohal>ilidad condicional de que falle el -elemenLo en ni intervalo do tiempo (li. 1.) a condición de que hasta ~1 runmcnlo ~· haya fu ncionado bien:

P (BIA}= 1-c-w, - 1,).

(2.1.::V.)

.~

I!.:?. 11plic<1eLh11 de las frmdo11t1 lmp1Jbtr:as

49

§ 2.2. Apllc11clón de las funciones impulsivas y generalizl\clón ele la noción de Ja densidad de probnbilldad La fórmula (2.1. 12) muestra que, segú n la definición común de la derivada, Ja densidad de probabilidad exisle solamente en las magniludcs aleatorias cuyas funciones de di stribución son continuos y tienen las primeras derivadas continuas por intervalos en. todo el eje numérico. T ales magnitudes aleatori as se denom inan co11t1nruis. Desde este punto de visto, por ejemplo, las magni ~ud es aleatorias discontinuas (discretas) no 11¡ poseen densidacl de probabilidad. Sin e1nba"tgo, desdo el punto de vista práctico c.onvi tine ampli11r el cone-0pto de densidad
Fig. 2.2.2.

Fi¡. 2.2.1,

¡nwtla i<er ex wmliclo

11

cua lesquiera mognHudois aleatorius que lle

encuentren en los prohlemas prácticos. Parn aclarar e l modo de hacerlo , observemos que desde el punto Je v i~ta práctico se puede considerar que la función de d istribución de 11011 magnitud nlcatoria discontinua (de cuyo ejemplo puede servir la curva escalonada de lo fig. 2.1.1) ticoo la 11inivada igual a cero por doquier, a excepción de lo¡¡ ¡11111to!I X ¡, • • • , Xn• o igual al infinito en los puntos X¡, • • • . . .' x,.. ~o obstant-e, en virtud d(' los rórinulas (2.1.9) y (2.1.1ü) la íntl'gro l de esla derivada en un intervalo, todo lo pequeño que se qniera, que conti<'no ol punto (y que 110 cont iene otros pu ntos x 1) debe oq nivaler a p" . La función quo posee tales propiedades se pnede construir sirv iéndose de la noción sobro In fnnción tleltn irn¡111l1
x,.

<'>_(O)= OO. ~

) ,<¡ (x) cl.r



=1

para cualqu icr

f'

> ü.

l

(2.2.1)

~· Para <Jt•e, toniendo Cll cuonta la tl1>rinició n adoptada ('.L 1 .1) do lit función de distribución, se pueda usar la funcióu delta co lo que toca ;~ la derivación de las furn~iones 1le distribución disconti11ut1s, es necesario snbol'di1111rlu a una coHd icióu complc111entaria. o e &(:t)dx = O, 6(x)d.x=1 parn cualquier e>O. (2.2.2.)

J

J

o

-t'.

La funcióu que posee tales propiedades puodo ser obte11ida, por ejemplo. como límite de un impulso rectangu lar posi~ivo del ó.rea 1wi~aria cu11ndo la duración de oste impulso tionde a cero (2.2.1). Es toda vfo más cómodo definir la función delta co mo límite de la densidad exponencial lle probabilidad si k-+ oo [véanse las !órmulas (2.1.22 )1 (fi~. 2.2.2): (~·)= \ O s i x O tlsta función tiende a C('fO euam.lo k -+ oo •. Si x O

.J

6~ (x)d.c = k

n

~

re-~"dx = i -e-"".

~

Cuoudo k - r oo estu oxpre~ión tiend e a la nnidnd. De es te modo, la función obtenida en el límite para k-+ oo satisface tarnbi6n l ns condiciones (2.2.2) Ln propiedad fundamental de In función delta viene expresada por la fórmnln ~

»t&

) qi (s)cS(:c- s)ds = ) cp{s)cS(s - x)Js=cp(x), x- e

(2.2.4)

x- e

c¡ ue es válida p ara toda funció n continua (x). Para convencernos de esto, examinemos la integral x+t

j

~- ~

~


Jq¡(x-t)6i(t)dt, -e

donde por 61 (t) se desigua el impulso uni t ario rectangular mos trado gráficamente en la fig. 2.1.1. Es evidente que pura cualquier & > O se puede tomar l < e. Entonces obtendremos " l En c!ect-0. abriondo lu indeto1·mi nnción obtondromos

s~11íin

la regla de L'HÓJJílal,

§ 2.2. Aplieaclón de las.Junclones

tmpu/.,~it,as

x+• ) q>(s)61(x-s)ds=+

Jip(x-t)dt

x- t

O

1

o bien, aplicando el teorema de la media

x+e

j

qi(s)ll,(x - s)d~=+<¡>(x-0)

t

Jdt=cp(x-0). U

X-&

a.onde a es cierto valor medio de ten el intervalo (O. l): O< 9 < l. Al pasar al límite, cuimdo l ->-O, la magnitud 0 tiende a cero y obtendremos x+t

Jcp(s)6(x-s)~ = qi(x),

(4.2.!J)

x- P.

lo que demuestra precis
s,

s

b

b

~

a

j ~> (s)o(x-s>ds= .i qi(s)ó(s-x)ds = •r(x).

(2.2.ll)

Observemos ahora !pJe la función delta puede ser consitleratln como derivada de la función unidad escalonad11 1 (x) c¡ue se determina por las iguuldadcs O, 1 (X.)= {O si x 227

1

-<



X> Ü.

< · · )

En la fig. 2.2.3 aparece el gráfico de la función uHidncl escalonada. Usondo la función delta impulsiva, se p\1ede determinar la densidad do probabilidad para cual.csquiera mngnitudes aleatoriAs, en particul ar, para las discontinuas. Es fácil comprender riue la densidad do ¡1robabilidad do una magnitud nll'at.oria disconlinun X con los posibles valores x 1 • • • ., x 0 , cuyas probobilicl:ules cquivnlen respectivamente a p 1 • • • , p,., se expresa por la fórmula n

f(x)=

¿j p 1Ó(.c-x 1) .

(2.2.R)

i=i

En cfcclo, esta función es igual a cero por doquier, Snlvo los punt1>s • •• , Xn, es infinita en los puntos x,, .. ., x 0 y su integnil en el intervalo, todo lo pequeño que se quiero, que contiene 11n solo

X11

!,•

Cap. 2 Magnftiulrs al~11lnrÍ(lS

5Z

vn lor posible xh, es igual a p": "k+a "•+a

J /(x)d.x =ph J 6(x-xh)dx=p1t

... - 8

{k=1, ... , n)

(2.2.0)

"h+•

Si lu fuoción tle d isti-ib11ción lieno snllos iguales a p 1, . . . , p,. e n los puntos x,, ... , Xn rospcctivnm cnte, y entl'e oHlOs rn111to~ es continua, ento nces, rcslundo de <Jlla 1n expresión n

l: p11 (x-x1), 1= 1 obtenJromos una función co nti11uu. Por eso, lu función rlo uistl'ibució11 uc torln rn,,gnitud alealoria X. que Stl 1>0edo 011co111.rru: en los problemas scu Lorlo en fo forma

..

F(x)=Fi(x)+ 2°)p11(x-x;),

(2.2.10)

1-1

1loudc P, {x) es n1111 función continua y p10 • • • , p,,. los 8altns ue F (x) en los puntos x 1, •• ., x,.. Con cllo, la lunción 1!' 1 (x) prácticamente siempre resulta ser difcrenciablll por i nter valos. Por tlSO, dcri"ando la fórmula (2.2.10) y teuicodo en cuenta que la dedvurla de la función unidad cscnlonnda es una [unción dcha, ol>Lendroinos IRs iguiente llxpr~ión do la densi
..

+ ,_, ~ p /3 (x-x;), 1

(:!.2.11)

douJe j 1 (x) es una [unción cuya integral en cualquier intervalo iníinitcsimal es una magnitud infini tamen te per¡uoiin. J.,a magnitud aleatoria cuya deu~hlacl de la probabilidad 1·0presentn In s orna de una función corrien te y
S3

§ 2.2. ApltrMl6n de los /urrcionu lmpi.L
dol elemento está limitada, en valor absoluto, por el número a y es igunl a la senlll de ontrada cuando osta última tieno el val or en los Hroito.q de (- a, a). Hallar In ley de distribuci611 de fa ~eñal do salida Y de dicho elemonto no lineal. Según la deflaicl6 11, l a función de distribución de la mngnitud aloalorln

Y roprosonta la probahilidnd do cumplirse la desigu aldad Y< y, probabilidad que se considGTa como función de y. Puesto que la señal de sal ida del elemento no puede ser menor que -o, entonces, siendo ll < -a. s11 función de diski· buc16n P1 (y) es igual a cero. Comn la señal de salida del element o examinndo e~ siempra menor quo a, eu louces, al ser y >a, su función de distribución F~ (¡¡) os Igual a la nnida•I. lfo el intervalo -a< y< a la desigualdad Y < y us nquivalcnte 3 la desi¡¡ualdad X < v (flg. 2.2.4) y por eso

Fi(Y)=P (Y
2 54 F1 (x)="+ • si - 2,5a
r'~ (y) =~ y+Z,5a :O,I. - a < y

<

ll .

Do ~to modo, la función de db-tribución
cl~m~nto

r,

2 5 Fd11) = J v+4al • " s i

l

-11


~¡ 11 rel="nofollow"> a.

1 (2.Z.l2) 1 Esta funr.í1ín Liene s11ltos igu;1Jes a 3/8 1 y 1/8 en los puul.os¡¡ = -a y y~ a. '--~-··-~---...,..--·' · 1a · Za a Q, a ?.a Ja !/ .E l g1·Mico de esta Iv11ció11 npm·eco en la fig. Z.2.5. Fig. 2.2.5. J,a 1lonsidad de fa p1·obabil idad de la magnilud aleatoria Y os, cvirhmtem~nte, igual a cero cuamlo 1J < - a y cunnd<> v > a, y on el intervalo -a < v < t densidad de la ¡irobaloilidad de la mugnitud aleatoria Y se puede oxprcsm· por la fórmula

-

+

1

3

1

li (y) = 4ª ll (u+a) - l (y-a) J+ 8 6 (!1+al +¡r <~(y-a) .

\:!.2.i::S)

no c~te modo, In magnitud aleatoria Y tione un conjunto 1liseonliouo Jrm plo 2.2.2. Sef{Ún los rr.quisil.os, un sistema autoroútko debo IAH1~r la durac.ió11 do S<>.rvfcio 10 • S i durante est.e por íodo do l.iompo el sistema fall1t, éste so somete a In 1·eparnci6n y vutllvo a omplear~o hnsta que sirva el pinzo la· Jlull ar In loy de tlistrlbución Je) ti"rnpo ele funciouamicnto del sistema ilespués de la pri n1cra reparación S.

c~peciales

Cap. 2

Ma ~nllude.t

nfoatoriot

i.:s eviden!.c que la magnitud ul1•at.oria S •-.SLá ligada primer falln del sist<.'mn T por lu fórmuln

0

S ""' {

10 -



T

c.011

el mowon11> Jet

T ~ to,

si T

<

10 •

S no puedo ser unn magnitud nfl¡!"nlivu. Por <.'S<J. cuando s,;;;; O, ln función de d1striburión f'1 (•) de ln magnitud alcnt.orio S es i¡:u~I a cMo. Cunndo s > O.

t;(s)

--- - -------- ----1

1 1 1

1 1

¡

. 1í

e·H1

-- .. ---"-- --

º

1

·· - ---'--------

1

fo

s

f"ig. 2.2.ll.

rila se e.xv1·!1!a por la furociórt de distril,ucit.n ¡.·(t.) del moroonlrt dtli primer fallo drl sist.<>ma T: ~·, (s) = P (S < •) = /' (I~ - T < 1) P ( 7'"> lo - s) = 1 - P (T < 10 - s) =

=

1-

=

/l (to -

r).

Suslitu¡•cndo R<¡ui la o.~rrcsiórt (t. 1.2ti) propi~ u 111 funr.ión de distribución dn la dur&ción del '!l'rvic10 ~·n fallos dl•I sistemn T, obtendremos ta-• /lt(t) .,.. o.q ¡ { -

~

1.(t)dt} s i

il <•
(2.2.tr.)

Oe aqui se ve que cuan1lo .t - +o la furoción ele di~lribur.i6n dd tiempo de fnn· cionnmiento del sistemo después do la primera repnración S tieode n uu valor tlisli nto do cero:

'"

1'1 ( +O) =e:<¡> { - \ 7. (1)

dt} .

lí Cu&ndo s .... 10 , la [unción do distribución ¡.·, (1) t iendo a la unidad. l)orivandn la fórmul:l (2.i .14) con rc~pecto n $')~colendo en cuenta 11ue F1 (s) - O, siendo

1.;;;;; O, ballaromos la dcnsidod de la probabilidad do la mngnitud aleatoria S:

J

l I~

lo- •

f¡($}=A.(t0-s)oxp { -

A.(t) dt } + 6 (•}n.lp { -

i. (1) dt} .

En el cnso ¡>articular cuando la intensidaJ de fallo! ;. (1) las !órmula.s (2.2..14) y (2 .2.15) tornan la íorm11 Fi(s)=e->.
(2.2.1 5)

="- es constante, (2 .2.16) ('.l.2.17)

§ 2.2. Aplicacló11 de la1 /1mclonu Impulsivas

E11 las (igs. 2.2.G y 2.2. 7 su muestran l os gráficos d e l a función do distribución y de la densidad de la probabilidad d (•) co11toni da oo la expresión de la densidad de la pro· babilid od. r./ (IJ Vcnon~ qun el liompo de fnne.ionamionlo del •istemR S . llespués de la primera r~paraclóll hasl11 1•1 fin de la d urac ión de servicio , reprcS
distin ta

no cero.

Ejemplo 2 . 2.3. E u ~1 problema lle clotoc· Fig. 2.2.7. e ión do la soiial en l o.~ ruidos , l a amplill11l dl' la i;cll al útil U os de ordinar io una mngnltud alontorin 9ue puedc tomar c ualriui¡,r vnlor. tanto posi~ivo como negativo. Ln amplitud úe la scñnl r P• h¡u~l n coro c uando Ja señal no está pr~•cnto y so recibo s61o ntid•>. Si iguol que en los ~jc1nplns del § 1 la probabilidad do la presci1c.ia dt1 la ~eñai rs igual a p. ontoncM, la ¡irobabilitlnrl do In :mscncia de 111 S<'ñal. es decir, la 11roll11hilidnd del \'&lor cero dr su amplitud es lguol n q = 1 - 1•- On esto modo, 1 o. a111plo1 u1! di' I« fcñnl U no ~más 1¡uc uun on ugnil ud nlrntnria d e tipo noixto

.a,

o F ig. 2.2 .8.

1l. l•'ig. 2.2.9.

co11 ,-olores posibles que llenan continurunonto tod o e l ejo numérico y cou un va.lor r><>sibln cero exclusivo quo t iene la probabilidad q. En las ligs. 2.2.8 y 2.2.9 !'e rnuu.~trnn l os gráfieos do la func ión do distribuci611 P (u) y do Ju dcns itlad de probabllldnd J (u) 1lc la nm plítud de Ja señal útil nn el pre>blcmr1 de det«c i6a .

Obsen•emos que In condición de quo la función delt a sea unidireccional (2.2.2) es necesnri a sólo para quo las fór mulas concernientes a lns fltnciooes clo distribución y 1.1 las densidades de la probabilidad concuer1len con la definición adoptada (2.i.1)
C1tp. !!

eles

t o

.~lagniludt$

,

~ (x) d:z: = J 6 (:z:) dx =

aleatnrln.t

¿ pnra cualquier e> O.

(2.2. 18)

Con ello, lo función 11nidacl escolonadn l (x) se cletermiu n por la f(irra111 ln

q,¡ •• {

~

si

z
si

x~o.

si

;c>O.

~:U!.

I:>)

.En la fig. 2.2.10 se mucs!ra el gráfico de In función 1 (x) de acuerdo con es lo c11so. Ln función della par se puedo oblener, por lljemplo, como el límite tic la deusiclnd normal - O. l'or fi n, pm·11 cualqu ier e '> O ,V

e

.1f 60 (.r) dx =



o

-~.2:t

.J

""'

e-20rd.c =

-t:

:e

(}

Fig. 2.2.11).

- l'Jó

Si a ...... O, esta ex presión tiende o In 1111idad [vénse la fór111ula (2) del supltimonto 1). Esto se deduco también d tll hecho de que e l á rea total dispu11st a bajo la curva de In
.1

¡,

¡véase In fórmula (1) del suplemento Jl. Haciendo en esta f<Srmula '1 = i:z:, b = o/ y sustituyendo la variable de integración t por la vnriable e,¡, obtendremos la representación de Ja función 6a (x)

Y2

§ 2.2. A plicacl611 de las funci0ties

11>11>11141~'1%&

57

'por la integral de Fourier: (2.2.21). .Al pasar aquí al límite para cr-+ O, obtendremos la incógnita representación buscada de la función dt?lta por la integral de Fourier:

11 (x} = }n

..Jelwx

dw.

(2.2.22)

-oo

Al susLituir h1 fw1ció11 cxponencb1l por su expresión mediantelas !unciones trigonornétricas, según la fórmula de Euler (2.2.23). e"º" = cos wx t sen (l)x,

+

reduciremos la [órrn11!:1 (2.2.22) n la forma

ó (x} =' 2~,

""

.., [

J cos.r.d«>].

Aqui Ja segunda integral es igua l a cero como iutcgrnl de la función· impar en los límites simétricos. Por consiguiente. In función delta. puede ser representada por la inWgr¡¡l do Fouricr en la forma real: º" .. & (x) = ,--(2.2.24) _·(,1 ~ cos wx d 111 = -n1 cos w~: dw.

J ll

-oo

Observemos que las i·n tegrales de las fórm\1 las (2.2.22) y (2.2.21~) divergen. Por eso conviene entenderlas como límites de las integrales convergentes correspondientes: de la de (2.2.21) y de la
{2.2.20). Cumpliendo en la fól'nuila (2.2.6) la derivación do la integral con respecto nl pimímcl.ro x, obtendremos In .t órmula b

) 4

1p(~)ó'(x-~)
b

j lfl(~)<'l'(s-x)d;= q·'(x),

(2.2 . 2~1)

a

válida para cualquier x, a< x < b y para t.otla función (p (x) que tiene cont.inua la primera derivada. Prosiguienrlo tic tal mo(lo,

Cap .

:t Magnifodet altalorla1

-0blo11drcmos la (ór11111la b

J•r !.~l6'"> (:c - s)
11

Sqi (~) {i(n) (~ - :r)

= (-1)n

d'

=

lp(n)

(x),

(2.2.26)

válida para cualquier :r, a< x < b, y ¡Jara Lodo. función q> (x) q ue os continua junto con s us derivadas hasta 1Jl order\ n inclusivo. r,a deducción dnrlll de las fórrnulas (2.2.2:í) y (2.2.26) no es rig urosn . Para deducirlns rigurosamente, es suficiente ;1ustituir la función delta eu lns integrales precedentes por la densidad normal do In probabilidad 11., (:r), que se determin n por la fórmula (2.2.20). ~umplir 1n integración por partes y luego pus;;r al límite para a - O.

$ 2.3. Momen tos do una mag nitud aleal.oria En el § 1.2. se illdicó que como caracLcríslict1 numoricu cxpcri111cnLnl de nna magnitud nleatoria X puelle servir su valor medio estadístico n

tn~ = ~

1- 1

XI

óP (.T¡),

(2.3.1)

donde x,, ... Xn son los valores tomad os por In magnitud aleutori n X como resultado del experimen to y ó.F* (:r1) son los incrementos de la f11nción ostadlsLica de distribuci6u on los puntos x 11 • • • , Xn · Como resultado de las pruebas, toda magnitud aleatoria puede tomar solamente un conjunlo li nito de valores. Sin ombnrgo, teóricamente, los valores posibles de una magnitud aleatoria pueden continuamente <listribuirse en cierto intervalo. Por eso, de análogo teórico del valor medio estadístico de una magnitud aleatotia X sirve la integral m_. =

..J

xdF (x) =

-OI)

..,

J xf (x)
(2.3.2)

-oo

-donde F (x} es la función de distribución do la magnitud aleatoria X y f (x) es la densidad de la probabilidad de l a misma. E sta magnitud se llama esperanza matemática o valor medio de la magnitud aleatoria X *) . La esperanza matemática de uno magnitud aleatoria ·es el resultndo de 111 toma probabilísticrt do Loclos sus valores posibles ~) SI 01\ la fórmula (2.IJ.2) In in~gral oo oxi~te, la m11goitud alentorla no ·tte110 esperanr.a matemática. Si n embargo, tal caso r.ui no so encuontra en los

-problem as de la práctica.

§ 2.9. M nmr.ritns de urin magnilud alf!alorla

59

cuando el peso de cadn uuo de estos valores se toma igual a l a denfdatl de l n probabilidad de l mismo. Si lo~ uxpcrimontos :se repiten ili¡:nitadamente, la frecuencin .de que los valores de la mnguitud aleatoria se encuontron en ol intertlx) se e:;tabilizará cerca del elemento ele provalo pequeño (x, x bnLilidnd correspondiente f (x) óx. Por eso el va lor medio estadístico tenderá a estabilizarse cerca de l a esperanza matemá~ica Designaremos la esper:mza matemática de una magnitud aleator ia X también por el slmbolo il!f (X}: m.,=MIXJ. (2.3.3)

+

m:

m.,.

Al generalizar la definición
~

j"" <¡; (x) f (x) dx.

(2.3.4)

Esta determinación coucuerda por completo con el scoLido do la esperanza matemática: La esperanza matem~tica de uoa 111ngnitud afoatoria qi (X) se determina como su probnbilistico valor me11io pesado, cuarulo a cada valor posible q> (x) de la .misma so da el peso igu¡il 11 ln densi1l3d de lu probabilidad correspondiente / (x). Suponiendo en la fórroula (2.3.li) r¡r(x) = x' (r = 1, 2, ...), determinaremos los momentos de una magnitud a leatoria X. Se ll(ltnn momento i1iictal del orden 1· o sencilla mente momeiito del orden 1· 110 ln mflgnitud aleatoria X n l n esperanza matemática de su r -ési1no gn11l1>:

...

a, = .lf (X ' (= \ x'/ (x) dx. J

E~

(2.3.5)

tividen te que la esperanza matemática de la magnitud aloatorin su momento do primer orden: m.,, = a 1• Los momentos de tli fercotes órdtines do una magnitud aleatoria pueden ser vir lle cnractorísticas numéricas de la mistnA. Eo este caso, es evidente que una sola 011pornnza matemática no puede 1le ningún motlo ser característica suCiciente do la magnitud aleatoria, s i110 quo dol.Crmioa solamente el valor medio cerca del cual so disperson los va lores posibles do dicha magnitud. Para caracterizar la fluctuación ele In magnitud nloatoria os necesario valerse de otras cnrnctllrÍ.<;t,icos m11n6ricns . l~n ol § 1.2 ha s ido intl"oducida para este fi11 l n dispersión esto.dística do la magnit11d alentoríu determinada por 111 (61•mula (1.2. 'l7) ó (1.2.21). La característico. teórica corres11ondionte SG obtiene snstituyen1lo on ln fórmula (1.2.21) ln sumn por In i11 tcgral y el elemento de la frccuoncia F* (x;), por ol correspondicnw ,• 11:-

X

rev1·e~eota

60

Cap. 2 Magttitucles aleatoria•

mento de probabilidad dF (x) = f (x) da. UM1 característica teórica más amplia do la inagnitud aleatol'ia la constituye el momento central de orden r que se determina por la fórmula 00

¡t, = M f(X -1n,.,)'J =

Í (:c-m,:)' / (x) dx.

(2,3.6)·

En lo sucesivo nos encontraremos frecuentemente con la diferencia entre la magnitud 11lcnt.oria y su esperanza matemática. Por eso convengan:ios en llamar mcignitud aleatoria cenLrada a esta diferencia y sefialarh1 con un pequeño cero en calidad de índice suporior Xº = X - mx (2.3.7)· Entonces ol momento central de orden r de una magnitud aleatoria X puede ser determinado como la osperau:ta matemática de r-ésim<> grado de la correspondiente magnitud aleatoria centrada !!r = M [(X")'J. (2.3.8) De Ja fónnula (2.3.6) se deduce que par<1 cunlquier 1nag11itucl\ aleatoria el momento central de primer orden es igual a cero. Et momento central de segundo orden puede ser tomado en c11Jidad de la característic:i do fluctuación de los valores posibles de la magnitud aleatoria y se llama dispersión de fo misma. Designaremos la dispersión de nna magni.j,ud aleatoria X con D [XI o más brevemente con D ,,. co

D,, = D [X) = M [(Xº)2

=

Í

(x-m,,) 2 / (x) dx.

('.!.3.9)

- oo

Do esto modo, Ja rlispersión de la magnitucl :ileatoria representa Ja ~spcranza rnal l•mática del cuadrado de la correspondienlt• magnitud aleatoria ceat.ri11l a . Para tener una irlea más clara acerca del sentido do la esp1m1nza niatemática ·y de In dispersión de la magnitud aleat oria, C'Quviene aprovecharse de la analogía mecánica. Examinemos tal distribución de: la..masa en una línoa recta (vástago) con la cual la densidad de la lll~" .en cad<1 punto es igual a la densidad de la probabilidad de la .~agnitud aleatoria. 1.a masa distribuilla oo toda la recta serú igual a.la 1¡nidad en virtud do la propiedad (2. U 5) de la densidad ·de .la ,p robabilidad. Es evidente c¡ue entonces la esperanza niatemática de \111 magnitud afoatoria representará ln coorde11ada dol cenLro de masas -.d~l vástago: 00

S Xc, m.

xf (x) d:r;

= ..:-;:..:::.:.......___ S f (r) dz

J

xf (x) rlx = mx.

(2.:-1.10)

.ti 2. !J. M omen tog de ttna mov1itud aleatoria

61

De la fórmula (2.3.9} se ve que de ao.6.logo mecáo.ico de .l:a dispersión de la magnitud aleatoria sirve el momento cc,io.tral de inercia del vástago. Cuanto mayor sea el grado de concentración de la masa -cerca del centro de masas del vástago tanto meo.or será la dispersión -Oe la magnitud o.leatoria correspondiente. Aplicnndo la fórmula del binomio de Newton, se ·puede expl'esar .todos Los momentos eentrnles de una mngnitud aleatoria por medio de los momentos iniciales de la misma. Le dejamos al lector que ~leduzcn por sí mismo las fórmulas general.e s y nos limita mos a deducir In correlación entre la dispersión, la esperanza matemática y el momento de segundo orclen de la magni.tu(l aleatoria. En virtud :de l11s fórmulas (2.3.2), (2.3.5) y (2.1.15) tendrernos Dx = µ2 =

J (x-m.,.) í (x) 2

00

d.x =

j

(x2 -2m,.. x+ m~) f (x) d;c =

-oo

=~-2mi + m! = ~-mi, ·-= ~-et;.

Do es te modo, D:<=Ct-i-et~ = ai-mi.

(2.3.H)

~sta

fórmula es análoga a la fórmula conocida de la rnecánica teórica que expresa el momento de inercia del cuerpo C-On respecto a cualquier eje por modio del momento de inercia respecto nl eje paralelo que pasa a Lravés del centro de masas del cuerpo. La dispersión de ln magnitud aleatoria tiene la dimensionaliclad del c11ad!'ado de la misma. 'P.nra los fines prácticos conviene más t enor !11 medida de fluctuación de la magnitud aleatoria cuya dimeosionalidad es igual a la de esta última. En calidad de tnl medida se Loma la desviación cua,drátt.co-media de la magnitud aleatoria que ~e 1letormina como la rafa cuadrada positiva de la dispersión do est.~ úll.ima. (2.:3.12)

De rnodo análogo, en vez del momento inicial de segundo orden conviene frecuentemente tomar la magnitud =

T)

VCtz

(2.3.13)


=

i b- a

b

í

J xrdx

b•+L -ar+l

(r + l ) (b-a) ·

n

µ, ~ b~a

J (z- ªt r 1.

.,

b

{ dr=

O si r es impa t (b - a}• . 2, (r+i} s1 r es p.v .

02

Cap. 2 /11 ngnltudu altatorias

F.jcmplo 2.3.2. La esperanza matemática y e1 nioro~nlo inich1l de segundo onlcu do In magnitud aleatoria X, di~tribuida según la ley de Raylelgh, dit liCHcl'oQ con {2.1.20), (2.3.2) y (2.3. 5) so dotcrminan por lo,, f6riu11lns

m"=2h2

Iz~e-h•xt

d%

=

~

00

et2 ~ 2h

n ~~ :r~e - 11axt dr. •= fi!j i

. •)

$ustiluyondo estns cx¡lrt'!!i•incs en Ja fórmula (2.3. 11}, hallnrnos la cli$persi6n de l a roagrlitud ulcntoria X: ~ ) j Dx - <%2-111! - ( 1-4 Ji2 • l::j~m 11l o 2.3.S. La esperan~a mutc111útic11 y la disreri.ión ile ln mngaitud alratoria tcpnl'tjcJa Regún la ley CXIJOnoucinl (2. t.22) se determinan ¡mr las f6r-

mulos

m,.=k

J:u-l•Xd;¡;...;-} . "'

... D~..... a.,-mt-k fl z2c-ll.cax -...!._=_!. ., k~ k2 .

¡¡

F.jcm¡!lo 2.:lA. En IM con
Ej1!mrlo 2.3.5. En las conilicinnos clcl ojomplo 2.2.2. la esperanza matcnuilir.11 , e momont.o i11icial de segundo orclon y la diepcrslóu Jel tiompo de fuuclonamient.o S do l1Jl sistema aut.omlilic<J después de lu primera reparació11 so determinan por las fórmulas I~

m,-

J

'1>.e-A(lo - •l +e-M•6 (s) d$= to-+ (1- .-Mo¡. •

21

2

?..t

0 0:2=16-¡;-+¡:;rlt-e •),

D, =

¡'.'!

(t -e- 2.>.lo)-

~ e->.to.

Deduzcamos las fórmulas gcncrnles para la esperanza malcmiítica y la dispersión de una magnitud alontoria discreta. Dasándose en *) Véanse las f6rxuulas (13) y (14) del suplemento 1.

8 2.S. Momentos de una magnitud aleatoria

63

lo expuesto en el páuafo anterior, la d~nsidad de la probabilidád de una magnitud aleatoria discreta X se expresa, mediante sus valores posibles X¡ y las probabilidades correspondientes p¡, por la fórmula (2.2.8). Sustituyendo la expresión (2.2.8) en la fórmula (2.3.2) para la esperanza mutcmútica, obtendremos

m.,=

n

n

i-1

t- 1

oo

J x~p¡c'l(x-x;)dx=~p¡ J x6(x-x )dx 1

-oo

De aquí, en virtud de (2.2.6) obtenemos

,.

mx= ~ p¡X¡.

(2.3.14)

i= I

De este modo, l a esperanzo matemática de una magnitud aleatoria discreta es igual a la suma de los productos de los valores posi l!les de la misma por sus probahilidades. La fórmula obtenida se considera frecuentement e como determinación de la esperanza matemática de la magnitud aleatoria discreta. De mo
"

Dx = ~

•=l

Pi (:r1-m.~? ·

(2.3. 15)

La comparación de las fórmul as (2.3.14) y (2.3.15) con (1.2.16) y (1 .2.19) respectivamente r.omprueba una vez más que la cspcram:a matemática y la dispersión son los análogos teóricos de la media em.p írica y de la dispersión em pírica. En fas fórnn1las (1.2.16) y (1.2.19) los valores de las magnitudes aleatorias X y (X - mx)2 obtenidos experimentalmente so multiplican por las frecuencias ele est os valores halladas como resultado de pruebas. En las fórmulas (2.3.14) y (2.3.15) los valores posibles de estos magnitudes se multiplican por las probahilid<1des de dichos valores. Ej\,\Fllplo 2.3.6. Hnllar la csrwranza m11tMnátir.n y In di~persión de> la iuugn itucl alcntoria X sub-Ordi.nnda a la d istribución binominal (al núnn1ro do v1!GOS ~ produce el acontecimie.nto al efoctua1· /1 exr1e.1•imnntos il1cfopc11d ientes). En c>I ~ 1.4 se demostró qu e la prnl>abilida1l Pi. .n do que ~.iorw ncont.e<:iroicntn snc.,<Jn k Vl'r.es al r.fn...tunr n pl'llr.bas indep
qu"

Ph, n=C!phqn- h (p+q= i).

Compo11gamos la Cunrión S

(u.): tt

n

S (it)=(q+pu) • = ~ C~pkq·•-huh= ~ Ph. ntLh. 11= 0

"""º

~11\mi<;"s

obt.c111ltcmos n

mx= ~ P1t, ,.k=S' ( l )= np(q + p¡ ~-1=•1p, kc=O

ct2=[,1u{!uS'(u)}J 11 _ , ~np(q+np). l)x

~

=

npq.

2.1. F uu<:ió11 (':lrllctcrística do una

m11~11itud

a leatoria

J.::n mucbos problemas, como cnr¡¡clerística útil de la magnitud nleatori n !'lir vo su /unci6n característLca. Se llnma función caracterí~­ ticn de 1111n nrngnituJ aleato ri a X a la es¡ierauza rnalomática d e la rnngnitwl nleatorin coropleja eo.x considerada como función del ¡¡;1réÍinelro J... Aplicando la fórm ula (2.3.4.), oblcndremos la expresión siguiente para la función característic11 de In magnitud aleatoria X:

J _.., 00

g (>.)

=M

[e1M J =

elAX

f (x) d.e.

(2.4. 1)

P11ei;lo 1¡ uo 1el'-" 1 = J para cualesquiera valores reales do A. y x, entonces. eu virtud ele la propi edad principal ele la densidad ele l n p1•obn l1ilírl11d (2.1.15), la fonci6n car11ctcrí stíca ptira cualquier va lor rel\I ilhl,11.1 f (b) de una magnitud alcl\tori11 1·011ti1111 a X e~ Cuocíón in tegr able no negativa lm Lodo el e je numérico. Por eso, s i es continua o tiene un uúmcro finito
f (:i•) =

J,.

J Jf (~) e•>-
di..

- oo

(2.4.2)

- «

Se puede dei,Dostrar que esta fórmul u c.s válida también en caso do que f (x) contenga una combinación lineal de las funciones delta**). De est e modo, la fórmula (2.4.2) es válida p ara las densidaclcs de l as vrobabilidades de magnitudes ale11torí11s 1;ualesquiern. Pero en virtud de (2k1) 00

~

-~

-~

Í /(t) e 1Mt-x>ds =e- 11-~

)

1:"·~/(s)ds = e-f>·"g(I..).

• ) C. 1. Ficb~nhol.i, Cur so dd Cálculo d if1:ro11c.inl "iuLe¡::rnl. •'i~ruulguiz. 1959, cap. Hl, § 6. ••i Vélll!O, J)07 eiemplo, V. S. Pup;achcv. 1'eoríll' de magnitudes aleatorias y su npllcaci6o en l os proble,ma.~
i;

6.5'.

:!.4. Función ca.riicterística de una magnit1ul aleat1ui11

Por eso la fórmula (2.4.2) irnede ser escrita en la forma

J"" e-i'),,xg (i•) di..

f (x) = 2~

(2.4.3)

Esta fórmula expresa ]¡1 clensidacl de Ja probabilidad de ln maguitud aleatoria X por medio de su fancióa caracteristica. De este rnodo, la· fnn cióñ característica de un11 rnagnitud aleato· ria es su característica prol>abiJística completa. Conociendo l a fu11c~ón característica de l a magnitud aleat oria, se puede hallar l'a densidad de la probabilidad de la tnisma y, por consiguiellte, fa. fun-; ción de distribución, es decir, detl?rminur por .c~m1pleto. la . ley de distribución de la magnitud aleatoria. L¡¡s fórmulas (2A.1) y (2.4.3) 01uest1·an que la funci.ón caracterís· tica y ln densidacl de lo . probabilidad do una magnitud aleatoria están c11lazadw; por un p1
por la C6rmula

·

n

r:(~.)= ~ C:!,pmqn-mei~m= (q+pei'·)n.

(2.4.4)

m= G

,Ejemplo 2,4,2 •. La !unción característica de cüalqnior .magnitud aleatoriu discreta se expre.sa por la fórmuln L. n

¡¡ (/.)=

~

(2.4.5)

¡i.,/A-
v-1

dondo z 1, • • • , z,. son los valoros po~iblcs de In tnngniLud aleat.01'i11 y p., . . ., p,. son las pl'Obabilidndes de 0$\.os valores. La fórmula (:!.4 .5) ••S válida •también cuundo n = oo. Ejemplo 2.li.:{. J, u íu nr.i61l ca1·ac.te1·istica de una magnitud aloat.ori11 re· partida uniformewont~· {•1i el iutel'vulo a < x < b Licue la fun11a b

g (}.) = b-1 a

J\

ei1'x d:&

a

.

1

il.(b-u)

(ei1.b-eiM¡,

(2.4. ti)

·

1'.fcmplo 2.t. .4 . La foudón C.llracterístic.a de unn mngnit.ud aleatoria dis-

Lribuifla segúu la ley expono1icinl su exprusn por la íórm11la

J ~

g(>.)=k

e-"(k-0.)d:;;

=

(2.4.7)

k!:...IA •

o

Ejemplo 2.4.5. La función c.nract<.>rísticn de la señal de

~ali
plo 2.2.1 se dot<Jrminn poi· la (órm11la P,(í.) =

Y en el ejem-

1 }· "ª1 _..,jr c•>:u { 11 (y+a)- 1(11-a>1+s:i ll
5-0938

--:¡¡¡r

~e

¡;•



(2.4.8)

Cap. 2 .Magnilude$ altalorla1

66

Ejemplo 2.4 .G. La funeión earncterística del t iempo S 1le fuucion»micnt.n In prim~r11 re11•rMcion , en el ejemplo 2.2.2, siondo Nn~t.arote la intensid ad de los fallos /. (t) - e, tirno la forma del sistcmu 1111tnmático despuú:s de To¡

¡; (i>) ••

Jei;.• (ce-« 'o- •> + 6 (•) e- eTol ds~ 7

n

,. 1

=e-< o

+

e (el>.To_ e-C'l'o c-t-IJ..

(Z.li .ll)

Los momenLos de una magnitud aleatoria se expresan fácilmente por medio de la función cnracterística de la misma. En efecto, derivando la fórmula (2.4. 1) con respecto a A., obtendremos g' (1i.)

e· (>..) "" i y en goncrnl

..

=i

).

1

..

xei>.x¡ (:.r) d2:,

Jx•ei>-"J (x) dx

...

g
Jxhe••x¡(x)dx

_..,

(k=1, 2 ... ).

(2.4.10)

P ara "- .__ O las integralos en los segundos miembros de las Iúrmulas obtenidas represen tau los momentos de la magnitud aleaLoria X. Por eso, su poniendo que en (2.4.10} A. = O, obLen1l remos 1

CX.A = j'ii" g(hl (Q)

(k= Í, 2, • .. ).

(2.4. tf)

Observemos que la derivación de la in tegral (2.4.1) cou respect o ni poró.tnetro 1.. bajo el signo iutegral es ¡JOsible sol amente en caso do que, como resultado de l a derivació11 1 se obtenga una integrnl uníformemente convergente, es decir, si el moiucnto cor respondiente de la magnitud aleatoria X e~;ste. De est e modo la fórmula (2.4.H .) determina todos los momento.s exh;tentes de h1 magnitud aleatoria X. Análogamente, por med io de l a función característica se l>uede expresar los momentos centrales. MulLiplicnndo 111 íórmula (2.4.1) por e -1>.me y derivando lo igualdad obtenida con respecto a A, tenclromos [e-1>.m,., g (i.) 11~) = l~

""j

(x - mx)h e1>-<"-m.Y) d (x) dx.

§ 2.4. Función caracttrítli<:a de una magnitud aleaturili

61

Suponiendo que aquí >. = 0, obtendremos la fórmula s!guiente para los momentos centrales de la magnitud aleatoria X:

µ~ = ,! [e-i;.m.,g(>.)J~o

(k=2,3, ... ).

(2.4.12)

Ejemplo 2.4.7 . Hallar la espera.n za matemática y la dispersión del núm&ro .X do veces que sucede cierto acontecimiento al efectuar n pruebas independient.es, si para una sola pcueba la probabilidad de que el acontecimiento ~e produzca oo igual a p . Deri vemos la i·elacióri (2 .4.4): g' (A) = inpe;'}. (q pcil.¡n-1 g• (A.) = ¡inpe¡¡. (q Eutour.e~.

+ + pi).¡n-• (q + npei'·).

SP.g1ín las fórmulas (2.4 .11) y (2.3. t l ), obtenemos

m.~=a 1 =f g ' {O)=np, 1

et:=-¡¡-(( (O) =np (q+np), D.,=et 2 -etl = npq. Le dt>jainos al lector que por sí miSlllo calc ulll D,. = µ, aptíc1111do la fórmula (2.4.12). Ejemplo 2. 4.8. Hallar la e8peranza matemática y la dispm·$ión do una magnitud aleatoria X uniform•~rnent" rcp•rtida. Escribamos fa fórmula (;!.4.G) en la lorma

g (>.)

eil.b_ el>.a

i'>.(b-a)

Do aquí por derivación '

__ 1-

g (i.)- b-a

h~Jlamn~

[.!2 (b

00

2_ 4 ·1

" >+ .cJ

(iJ.)k-2

lt

h

J

k(k-2)! (b - a)

'

lt-8

Supoogumos que aquí J.. = O y ~uslituyumos las expr~sioncs obtenidas en (2 .4.11). E11tonr.cR obtoudrcn1os

Cup. 2 Magn.itude.< akatnrla•

G8

§ 2.f>. J..o} nor mal do distribución {Ley de Gauss)

La densidacl e.le lo prob¡¡IJilidad de un11 mngnitnt\ alt1atoria X normalmente repartida se ex presa por la fórmula

f (:e) ~

1

111/iit

lX - n)Z

e-:¡¡¡¡-

(2.~,. I )

cou In q ue nos conocimos on el§ 2.1. En la fig. 2.5.1. se muestra 111 curv11 que representa esta densi
f(.r)

Fi¡¡. 2.5. 1.

Fig. :l.5.2.

cc11Lro de distribución o centro de dispersiÓ!L Cuaodo x = a, la orde· nada cle:la curva de la densidad nor mal do J¡, proh11hilidnd es ig ual 1 a y - • AJ ctisminnir o, esta ordenada crece ilimitadamente. 1-: 11 o

2tt

este caso la curva va ach atá ndose a lo largo del oje de abscisas de moclo que s u área queda igual 11 la uuidnd (C ig. 2.5.2). l~sto se deriva Je la Córmuln

-oo

para h = 1/cr V2, cuya deducción se ex pone e n 1:1 snplerno nto ·t . De este modo., al dismin uir o, la densid ad tl e la probabilidad en ol centro de d ispersión crece y en los demás puntos, a partir ele ciert o valor de cJ, se reduce. Con otr as palabras, a l d ismiuuir a dism inuye lo dispersión de los valores posibles do ln magnitud aleatoria. La ley normal do distribución esta muy ' lifundida en los prot:lemas prácticos. Por eso se ha hecho muchas tentativas de deducirhl teóricamente basándose en hipótesis inicia les sencillas. Varias dcrlu cciones de la ley 11o·rmul de distribución file.ron ofrecidas por Gauss . S in embargo, la base de todas estas d educcione!'I lu constitu yen tosi~ que ellas mismas depon ser a1'1n fun1lamentadas. Fue Linpnnov el qne por primera vez llegó a aclara r fas causils dl:l In amplia difusión de lo ley normal ele distribución. Est1: cien~ííi co demostró que :ti

§

2.5. !.e¡¡ rwrmal de dlstrtbuclórt fkg de Cau.-;.•)

una magnitud aleatoria puede coosh.lcrorse como la .suma de un gran uúmero de pequeños sumandos; entonces, al i;er laa condic~ones lo suficiente comw1es, la ley de dist ribución de dicba •magnitud se aproximo n la no rm al s in que importe cualf!~·sean las ley~s de distribución di! lo!I suuinndos tomados por separado. Puesto que prácticamente las magnitudes aleatori as, en la m11yoria de los casos, suelen ser el resultado de la acción de un gran número de diferen tes cau~as (véase el § 1.1.), la ley norma l resulta ser el principio de distribución más clifunrlido. No obst ante, en muchos ¡¡roblemas se pueden Ancontrc1.1· leyes de distribuci ón distintas de la normal. Nos hemos convencido ya de esto en los ejemplos de los §§ 2.1 y 2.2. Hallemos los momentos d o una magnitud aleatoria oorma.l,xneote repartida. Para esto h agamos uso de las fórmulas siguientes cuya deducción so ux¡>one en el suplemen to 1:

"' r t211 -h•z• dt J e

~ (Zk-1)11 , ;;; ;!llJ,•ll+l

V "

(k = 1, 2, ... )

(2.5.li)

donde cou (2k - 1)fl se de:signa lli producto de todos los número::; e11t.eros imparc!! a partir de 1 b a~la de 2k - 1. De ncuerdo con (2.8.2) y (2.5.1) la esperanza matemática de uu u 111ag-niL111l aleatoria norm~tlmente rorrnrtido se expresa por la fórmula

rn:r =

Cf

1 v2n

""

_
Ji xe -oo

(2.5 .. )

2ii> clx.

hts variables t = x - a y va liéndose de las fórmulas (2.5.2) y (2.5.3) s iend o k = i , h = 1/a V2. obtendreuios

~ustituycudo

m:r= .. ~ v v2n

..

t•

J(11+t)e- Toi"dt=a.

(2.5.6)

- oo

Est e rc1mlt11do podín ser provisto de antomouo, teniendo ea cuenta la si moLrln de lo d is tril..111ci(m normal con n1spectv al cen Lro 1le düslrilmción a. Pnrn daturrnioar los momentos ceotrnles, apliquemos la f6r111ulfl (2.3.6). Sustituyendo en es to fórmula la ex.presión (2.5.1) de la dcn1:1ill11d oormol e.le la probabilidad y teniendo en consideración (2.5.n), obtendremos ¡1, -

,~

o v ~n

co

r J

- oo

(:c:-t1)2

(x-a)'e--¡¡¡;r- dx =

vin 2n

ro

t

r t'e-Toi°dt. J

(2.5. 7)

'10

Cap. 2 Magnitudes aleatorias

En virtud de la formula (2.5.3) esta integral para todos los valt>•~ impares de r es igual a cero. Por consiguiente, todos los mom!l'Jlt6 centrales de los órdenes impares de una magnitud normalmente.distl'1: huida son iguales a cero; µ2h-t = O (k = 1, 2, ... ). (2;Si81 Si r = 2k es par, entonce:i haciendo uso de Ja fórmula (2.5.4) páta h = 1/o V2. obtendremos de (2.5.7.) ~'2k = (2k - 1)!!02 = 1.3.5 .. . . . . (2k - t) ai (k = 1, 2, . . .). (2.5.43)

En particular, para la dispersión y ln desviación cuadrática media de una magnitud nleatoria X repartida normal mente, obtcndremo.~ los fórmulai< (2.5.10) De este modo, el parnmetro o cu la expresión (2.5.1) do la ley normal de distrihución repre:stlllta la de:1viación cuadrática medía de la 111ag11.itud aleatoria. Basándose en la primera tic estas fórmulas, la exprcsió11 (2.5. 9) para los momento:; de los órclenes pares se puode escribir en la forma µ 2,.=(2k-1)!! D!=t·3·5 ... (Zk-1)D: (k=t. 2, ... ) (2.5.H) Pues bien, todos lo~ momentos de los órdenes pare~ do la m11gonud aleatoria normalmente repartida se expresan 1ior medio de su dispersión. Sustituyendo en (2.5.1) la expresión del parámetro a en función lle la dispersión de la primera de las fórmulas (2.f>.10) y teniendo eu cuenta (2.5.6), obtendremos ·

f(:c)=

vl

2nDx

~"-mx-)t

e

--w"

.

(2.5.12)

Esta fórmula muestra que la ley normal de distribución se determina por completo por la esperan.za matemática y la dispersión de la magnitud aleatoria. Asi pues, la esperanza matemática y la dispersión caracterizan de un modi> completo la magnitud aleatoria normalmente repatUda. Claro está, que en el caso general, cuando el carác· ter de la ley de distribución es desconocido, para determinar esta última no basta saber la esperan7.a matemática y la dispersión. Sustituyendo en (2.5.12) D" por o~, expresemos la densidad normal de la probabilidad por medio de la esperanza matemática. y la desviación cuadrática media de la magnitud aleatoria: {.i:-mx)2

1(x)

1

º" V211

-~

e

(2.5.13)

11

§ 2.5. Ley .n<>rmol de dlllrtbuclq11 (ley de GaU$$)

Hallemos la función característica de una maghitu,d aleatoria

X normalmente distribuida. Para estó sustituyamos la expres'.i.6 n (2.5.12) de la densidad de la probabilidad en la fórmula (2.4,'1'). Entonces obtendremos oo

t

g(I..) = ,v1 2nDx --

~

(;te-m:r.>'

11.:<-~

e

"

dx=

Je

.

00

e'>.m,,

Vi.-iD,,

t2

f).t-w-

= -=

X

dt.

-«>

La última i11tegral se puede calcular por la fórmula

cuya rleclucción se da en el suplemento. Aplicando esta fórmula, obtendremos f

g (A.) =

/·mx-z-Dxt-•.

(2.5.14}

Le dejamos al lector obteuer independicntcmcnt-0 con ayudn de la función característica hallada, las fórmulas, anteriormente deducidas, para los momentos centrales de la magnitud aleatoria normalmente distribuida. Deduzcamos ahora la fórmula para la proba'bilidad de que los valores de una magnitud 11le11toria X norn1almente repartida se encuentren en el intervalo dado (o;, ~). Susiituyenrlo la expresión (2.5.13) de la densidad normal de la probabilidad en la fórmula (2.1.16), obtendremos p _ (x-mx):

P(o;<X<~)=

a,,

~~\. e

io~

V
Después de sustituir las -..·ariables la forma

" z= ~

º" '

dx.

esta fórmula loma

Jl- m,.

P (a:<

X<~)= ,~-T e-:; dz. 2n J V

(2.5.15)

«-mx

--u;-Esta integral no se expresa por med io de las funciones elementales. Por eso, pa ra calcularla, se in Lroduce una fuución nueva

11> (u) =

V2'i Je- ~· dz. o

(2.5.16)

Cap. 2 1)1agnttudM nleqtaríns

E:st.ll ruucióu se
«- •1 nx
~2

-- Jr 1:--T- dz = -V~ A l :>ustiLuir

c~tn

cll ( ~ -m,. Ox

)-<.1> ( a- mx). (2.ri .17)

expresión en (2.:).1;í}, obtc11dre111os

P(a<X(~-m.,.. ) - (r>( (J>:

Dcmost.rcmos

(fx

¡1bori1

a-m,.) . º·~

(2. 5.18)

que la función (!l (u) os impnr. Tenemos Cl>(-u)=

v\- re-~ dz. o

(;¿.5 .19)

- 1t

Al crectuar aquí la sustitución de las variables t = en cut:>Olí\ (2 .5 . -16), obtendremos 1.4

t~

(u), Vzn ~ lo que demuestra Ja imparidad ele la En el caso pnrticular, cuando el con respecto al centro 1!0 dispersión, ser expresadas et) la forma a = mx y ln fórmul11 (2.5.18) toma la forma P

z y al tener (2 .5.20)

función ID (tt) . interva lo (a , f3) cs ~imétrico las magnitudes u. y ~ plWden e, ~ = m,. e, dond11 t: O,

(1 X-m,.j <e)=(¡) ( 0~J-

+

>

(- ;~) .

(2.!'.i.21)

De aquí, teniendo en consideración la imparide1d de la función cD (tL), obtendremos / ' ( 1 X - m., 1<e}=2rJ) ( ; .. ) . (2.5.22)

Las fórmulas (2.5.18) y (2.5.22} d an la posibilidad de calcular con. ayuda do la Tabl a ele la Función Q) (u) de la prolrnbilidad do que los vnlores de una magnitud norruolmeut.c reparti
Ejemplo 2.5.1. Hallar l a vrobabilidad de que el "alo~. que toma u110 magnitud aleatoria X oonnnlmente roportidl\ como resultado da la prueJ,a, sc1·ñ no menor de f m y no mayor de 7 m, si la esperanza motemó.tic'a do la mi swá as iguol o 3 m y la desviación ruudrática media es igual a 2 111 . Según la f6rruula (2.5.18), teniendo en cuenta lo imparidad de la lunci611 da Laplnce y empleando la To.hin de la Func.t ón do Lapluce, hal lamos

p (t

<X <7)=4>

('7-; 3

)-m ( 1-;3 ) =

= <J> (2)+<1> {t)...,O,lt772+0,3413=0.8t85. Ejemplo 2.5.2. En las condiciones del ejemplo anterior l1allar la probabi· li1lad do que la magnitud aleatoria X lome uu valor no menor de 2 11• y no mayor de 4 m. k;l iut!ll'valo (2,4) es sin1étrico ~•rn respect.Q ol punto z ... a siendo e ~ m,. - a - J3 - m.., = 1. Por eso hnccmos uso de la f6rmuto (2.5 .22). Entonco~. •mpleando la 'fabla do la Fu11ci6n del.aplaco. olil.ondremutoria noruialmeot-0 re11art1da so encucutren en lns sogmon· los do 2o.,, 4o:>;1 Go.,, 80,, de lo ngitud dispuestos simútricnmente con rcs11ecto al ceulro do JfsticJmr.ión. l'or la f6nuula {2.S.22) lialbmos Ph = P (1 X - m.x 1 < ka,J = 2!.lc (/<). f:n la Ta!Jl a encontramos Cl> (1) = 0,3413; (2) - 0.4772; (3) = 0,4981'>-'i; e() (li) =- 0,49!lll68. 1"01· consíguíent~. las ¡1robabiliria normalmcnl~ ropnrtída, las desviaciones que superen 3rr,. y so consideron licnitados por el i111crvalo {m:r - 3<7,.,, m,, 3o.,) todos lo• valores prtíclicamenlc poRihles •le la 1t1ismu. · ·

en

+

§ 2.6. Ley de Poissou Supoogamos que ciertos nco.ntecimieutos succdo n en los mom en· tos nlcotorios cont inu amente repartidos en el eje numéric.o-. Tales aco11teci111iontos form11u unu secuencia !le suc.isos llnwadn hahitirn lmenlo flujo de acontecialientos. En ca1idncl de ejemplo do un r!ujo d<.' u¡;ont.ccimient.os puedeu :>ervir las ll amaJas do los uhonndos tlll uua centra l teld6nica, p:isos de los ruedios de trunsporte por un cruce. fallos ele los elementos do alg(m sistema técnico. En muchos problemas de l a J•ráctica so puede considerar que 1·J finjo de acontccimie11to~ :satisface las coodiciones siguiente:;: 1) :-i (L 1 , t 2) y (t 3 , t 4 ) son cualesquiera irlt.erv11los de tiempo no so1Jrep11cstos, entonces, In probabilidad de que :;e ¡iroduzcu cu11Jquier 11í1mcro do acontecimiento:< en e l tran..scurso de uno
Cap. 2 /.fagnllu~• al4atorl
74

2) la probabilidad de que un acontecimiento se produzca en el de un intervalo de tiempo infinitesimal (t, t ót) es una infinitesimal de orden llt; 3) la probabilidad de que se produzca más de un acontecimien to en el transcurso del interva lo de t iem po (t, t ót) es u na infinitesimal de orden superior en comparación con llt. Es evidente quo el número de acontecimient-0s que suceden durante cualquier intervalo de tiempo (t 0 , t) representa una magnitud aleatoria discreta cuyos valores posibles son todo~ los números en teros no negativos O, i , 2, .. . Des¡gnemos esta magnitud aleatorin por X (t) y lo probabilidad de que ésta tomo el va lor de m designárnosla por p,,. (t 0 , t) o, más brevemente, por Pm (t):

+

tran~urso

+

P (X

= m) = Pm (to,

t) = Pm {t) (m = O, 1, 2 . . . ).

(2.6.1)

Hallemos la ley de distribución de est a mngnitud a leatoria. Para calcular las probabilidades Pm (t), demos al argumento t un i11cremento infiniLesimal llt. De ticuerdo con laR dos últimas condiciones superpuestas en ol flujo de ncontecimien tos P1 (t~ t + L\t) = V (t) L\t + o (ilt), }

(2.6.2)

~ p1, (t, t + J.t} = o (/lt),

~=Z

donrl e v (t) es cierta !uoción no migaliva que consideraremos conocida*). Calculemos primeramente Po (t). Pat'a ello observemos que Po (t f}.t) es la probabilidnd de que dos acontecimientos coincidan: ningún acontecimiento se produce en el intervti lo (t 0 , t) ni en el intervalo (t, t + llt). Según la primera condicióu estos dos acontecimientos son independientes. Por eso Po (t + L\t) = Po (t) Po (t, t+ llt). (2.6.3)

+

Pero en virt ud: de (2.6.2) Po (t, t L\t) = 1 - v (t) f:lt +o (L\t).

+

(2.6.4)

Sustituyendo esta expresión on (2.6.3), obtendremos Po (t L\t) = Po (t) - Po (t) v (t) llt o (M),

+

+

•¡ Con el simbolo o (f!it) se designa cualquiera (no u ua conerota) inlinitesimal do orden superior en comparación con f!it, así que O(ót)

~~o~=O. Es evidenle que la suma de cu•lquier númoro finito de tales magnitudes es también Ja magnitud o (61).

76

§ $.6. L•u _de PoW!ln

de donde

o (61) - v (t) Po(t)+ 61·

Pasando al límite cua ndo 6.t-+ O, obtendremos (2.6.5) p~(t)= -v(t)Po(t). Así pues, para la probabiUdad incógnita p 0 (t) hemos recibido una ecuación diferencial lineal homogénea de primer orden. Para hallar la condición inicial que determina a la constante de integración, basta tomar en la fórmu la (2.6.4) t = t 0 y pasar al limite cuando 6.t -+ O. Entonces obtenresión (2.lí.2) y w1iendo todas las i11fin itesimales de orde11 superior por un solo simbolo o (ó.t), obtendremos Pm (t + C..t) = Pm (t) + lPm-1 (t} - Pm (t)l 'V (t) Ó. t -1· o (6.t), de doudo

+

+

Pm (t+tit)-Pm ( 1) · tlt -

v (t} Í Pm-1 (t} - Pm (t))

Al pasar a l Iímít-e cu1111do ó.t-+ O, obtendremos p;,. (t} = V (t) (Pm- t (t)- p,.. (t}J.

+ _o A_t(lit} _

.

(2.6. 7)

Así tJUes, para determinar todas las probnbilídades Prn (t) hemos obtenido una cadeu¡i de ordinarias ecuacionos diferenciales Ji11eal01! ne primer orden. Paro. ballar las condiciones iniciales, basta tomor en (2.6.2) t = t 0 y iiasar al límite pora ó.t - O. Entonces obtendremos (m = 1, 2, ... ). (2.6.8) Pm (to) = O

Cuµ. !! Mat:u l tub.t alf atorcas

Hagamos en las ecuaciones (2.6.5) y (2.G. 7) la susti tución de !ns variables 1

Jv(T)dt.

Í,=

(2.6.!I}

lo

E.si.<• e:; posible yu que In fuoción v (t) no es 11egativ;1 , en virtud de lo cual A. e:; la ftmción no decreciente monótonn t. 'l'enienilo en cons ideración que en virtud de (2.6.9) dlldt = v (t), escrihamo¡; lns l'Cunc ioocs (2.6.5) y (2.U.7) respectivamente en ln forma clpo

,,,,,.

(2.li.10}

Ci"[" = - /lo

--;v.- = -Pm+ Pm-1

(m= 1, 2, ... ).

(2.H. U}

lntogrnndo la ecuacióu (2.6.10) y teniendo en cuenta ln eo11dició r1 inicinl que se deriva de (2.6.6) y (2.li.9) : Po = 1 para?.= O, olilc11drcmos

Po = e->..

(2.6.12)

Lnego, integrando sucesivamente las ecuaciones (2.6.11) qu11 c11rrespo11den a m = 1, 2, ... , y tenien1hi en cuento que en virtud de (2.6.8) y (2.6.9) p 1 = p~ = . .. = O para A. O, llegaremos n la fórmula geueral

=

Pm=~e-¡,,

(m=O, 1 , 2, ... ).

(2.G.13)

En efecto, tiuponiendo que la fórmula (2.6.13) es válida cun11do

in = k y sustituyendo la e.xprcsión (2.6.13) de la probabilichul Pk en la ecuación (2.6.11) correspondiente 11 m = k+ 1, obtendremos pnro la probabilidad PH-s la ecuación

(:!.G.14) Es fácil convencerse, haciendo la sustitución directa, que la integral de la ecuación (2.6.1 4), que se convierto en cero par11 'A. O, se expresa por la fórmula

=

P~+• =

i.,h+l

(k+1)!

e->-.

As! pues, la fórmula (2.6.13) es vál ida para m = k + 1, si ésLn es \•állda para m. = k. Pero la {ónnula (2.6.12) deducida a11Lcriorme11te muestra que la fórmn l11 (2.6.13) es válida para m =O. Por consiguieote, la fórmul a (2.6.13) es válida para cualquier m. La fórmula (2.6.1 3) determina por completo l a ley de distribución del número X de acontecimientos c¡uo se producen en el tra11s• curso del in tervalo de tiempo dado (t 0 , l). Esta ley de distribuc.i6n

so ll ama ley de Poii<soo.

.~

Z.6. úy de Poluo11

i7

Aclaremos el sentido Jol parámetro A.. Para esto calculemos la csperl\Jlzn matemática del 11úmero de acontecimientos que se prodµcoo durante el intervalo de tiempo (t 0 , t). Va liéndonos de la fórmula genera l (2.3.14) pRra lu espera nza matemática de una maguitud a leatoria discreta y In fórmu la (2.6.13), obtendremos

>.1•

..

->. _) ->. ~

m-;;;¡- e mac. t

-

i.m-1 _ L.J (m-1)1 -

.r.

uri= t

?, A.~ = i.e-" ( 1 +-¡¡- +zr+

1.~ . .. +T!+ ... )

La serie del segunrlo miemhro de esta igualdad representa la dcseom· pos ición conoc.itla do lo función oxponeJ1ci11l e>-. Por lo tanto,

M !XI= A.

(2.6.15)

Pues IJico, e l parárncLro A representa la esper11oza motomática ele la magnitud aleatoria reparUcln según la ley de Poisson (del númel'O (lo ncontecimientos en t!l intervalo de tiempo clnclo). De lo demostrado y J e lu fórmu la (2.6.9) Stl deduce que la magui· Lucl ó/. = v (t) ót en t'l punto do continu iclarl t de la función v (1) re¡iriisenla, CO H un¡¡ exact.itml hasta infinites i ml\lcs ele órdenes s u pe· dores, la ei;poranza matoroiitica del número de acon~ccimientos quu l!C producen en el t.ransc11rso do un intervalo de tiempo iniinitcsimnl ót. P or consiguic11te, h1 rnngnituJ vt = dJ..ldt r('prcsentn la velocid11d 111cdio de producció11 110 los acontecimientos o e l número modio d e acont11ci111i<'11bos que ~uc:eden en 111 unidnd di' tiempo. Por eso la magnitud v (l) se cleunmin:i dern;idad media o iut.111sidad del flujo de ncor1 Lcciniicntns. Lo,: flujos de aco11ll'ci 1níon 1os del tipo cx11111inado se llumnn ¡ioi.'lsonlanos, p ll esto rpw el número de aconlcci111it•11tos que so produce11 c~n el transcurso do t:uolquier intervalo ilo ticu1¡10 ropreseola pMa tal rlujo una m11gnituJ aleatorin repartida según la ley 1le Poi'> ·

son. t-:jcmplo 2.G.I. Hallur lu ley de distrihució11 clt•l número de nlcctro11M <'miti1l os ¡1or el c.~lndn Jn u n lnbo electrónico dnrnnw el iulcrvalo de ticmiro T . supouil'tu o que la ca11tidt1d media de electronc,; quo se cmiU>n en lu u11ida1l liempo l'S igual a \'. l!:n vista ele que la canti1lud t.t1tal do e.l<-ctrones t>mitiJos por ('l cátodo 1•• tlnoi nnc. el problema dado convicuo 1101· complot.o al osquumo 110 su1·gim iont11 ''" In rli~tl'ihución il<.> f'oi~sou. Es dccii-, so pucclo consid111rur que par" un8 i11 1i11 i l OSimo l T la probabilidad do q110 durnnte uste intervalo so "mita 1111 "lP.Cti·ón 1•:1 uua magnitud d<.> urden T y I• ¡¡robebilidnd de que en el transcu1'So d11I intorvnl•i T ~o hnyn lauz:ido más de un <•ll!l'Lrón debe Sl'r nua infinitesimal
78

Cop. Z Magnlludn

al~alorlas

cen dos electrones o más. Sí tomamos distíntos intervalos de tiempo no sobtepu~tos, cut.onces se puede e.un 11Uficie11tc evideooí11 considerar que la cantidad

de electrones lanzados durante uno de estos intervalos no Influye en la.~ pro-

habilidades para los dilercnU\s valores del númel'o de el ertroncs omitidos on el trauscurSc> de otro intervalo do tiempo. Ahnes del problema examinado y ul ílujo de el ectrones so puedo co nsi1l crar poi:;;;<J11ia110. l'ar11 aprovecharse de la loy de !'11isson, hay 4u!\ hallar In esperanza matemática del numero de electrones emitidos dunrnte el intervalo de tiompo T, es dceír, el número medio de elect.roue11 t>mitidos en el transcurso del tiompo T . Como. según la co11dicl611, en la unidad de tiempo so lanzan por tórmino medio v t>lectroncs, un el trauscurso dt>l tiempo T so lanLatán por término modio ''T elt>Ctroucs. Por eS(), en el clll!o dado, A - vT. Sustituyendo estit expresión '"º la iórmula (2.6.13), oblc11dremM (v'l')m Pm=n;¡-

1

-v•

( m= O, l , 2, ... ).

(2 .G.1G}

Esta lól'o1ulo rlotermiua ¡101· complete¡ ltt ley tlu di~tribución del nún1cro do electro1 1n~ !llllitido!; por el Ni.todo durante el lntnrvalo de tíempo T . E,lt'.mplo 2.6.2. 1':11 condiciones del ejemplo anw•·ior hallar lo loy do distrihudón 1lul intervalo d o t iem¡>O entre dos iustautcs suceKívo~ du emisión de elecL1·01111S. En vírtml do q1w los elret ro11es se lanzan del dtodo cm instantes ~Lentorios, el interval t).

Ln p1·obabiJidad P (T > 1) de que d1ir&Jlle el tiempo t no se lance dol cátodo ni u11 solo electrón ee puedo determinar por la fórmula (2.fi.16) del ejemplo anterior, tom~ndo T = t, m = O: P (T > l) = e-'º1• Por /.'(t) = P (T< 1) = 1 -e-"1 •

""°

Derivando esta fórmnla con respecto a t, hallamos lo de la magnitud aleatoria T: / (t) = }" (t) = w-vt.

den~id11d

dl' La probabilidad

Las lórmulas obtenidas determinan la función do distribución y Ja densidad du la ·prllbabilidad del intervulo T entre dos instante.• &ucesivog do emisión do elect.rone.-¡ paro t ;;;;.. O. Puesto que 111 magnitud del intervalo T 110 puede ser negativa, entonces, para 1 < O tenemos I (() .,. O, F (1) = o. Como vemos, ul ínlervafo do tiempo eotro dn~ lanzamientos sucesivos de electrones está rupartidll según la ley exponencial. Ejemplo 2.6.3. Hallar la ley de cl!strílíución del número de llamacl as a In central tele fónica durante ol íntorvalo de tiem¡>Q dadu (1,, t.). Este problema se distingue dol anlerior solnmonto por el hecho de que no podemos considornr que el número medio de llamadas 011 ln unidad de tioi:npo sen Independiente do la hnra del dío. Po1· eso debemo~ adm itir que el número medin ele llamaclas v en la unidnd de tiE>rnp<> depende del instante t. Más pre· cisament ~, el níimero modio do ll amadas en el tran.scurso de un intervalo mfi-

79

§ 2.6. Ley d• Pol•ton

+

nltesimal de tiempo (t, t dt) se debe tomar igual a,, (t) dt, donde la intensidad del flui<J de llamadas v (t) es la funci6n de tiempo dada. Es evidente que en el problema en ctiosti6n tambión se cumplen práctica"lllente las condiciones en l as cuales C$ válida la ley de l'oisson. La probabilidad de cualquier númoro de llamadas duronto el intervalo de tiempo (t., t:) puede -ser considerada indepen
J'• v(t)dt.

••

Sustituyendo esta expresión crn la fórmola (2.6.i3), hallaremos la probabilidad buscada de que se l'edban m llamad•s durante ol intervalo ele tiempo (li. t 2) : (2

Pm =

,! J

"(t) dt)"' uxp { -

1(



ti

J

v (t) dt} .

11

En conclusión observemos que muchos ot ros problemas de la práctica también llevan a la ley de Poisson. A.~í, por ejemplo, si ciertos puntos se reparten aleatoriamente por cierta parte de un plano o del espacio de modo que se cumplen las tres condiciones a las cuales debe satisface.r el flujo de acontecimientos, entonces el número de puntos que se encuentran en cualquier zona del plano (del espacio) representa una magnitud aleatoria repartida según la ley de Poisson. Ji:n este caso, la integral ele la densidad media de puntos, extendida a la zona dada, representa la esperanza matemática de la cantidad de puntos que van a parar en esta zona.

CAPITIJLO ;¡

Magnitud.es aleatorias vectoriales

·* 3.1. Función de distribución

y densidad rte probabilld:1d

de un vector aleatorio

En algunos prohlomas hay que considerar conjunt11mente varias magnitudes a leatorins. B1 conjunto de cualquier número n de magnitudes aleatori~s X1 ,X 2 , •• • ,, Xn es conveuiente considerarlo como una sola magnitud aleatoria vectorial n - dimensional X cuyas componentes so1;1 las magnitudes Xt> X2 , •• • , Xn. En este caso hay que tcuer en cuenta que solamente en los casos cuando n = 2 y n = 3, con la noción de vector se pueden ligar representaciones geométricas directas. Así, por ejemplo, dos magnitudes aleatorias X, Y siempre si¡ pueden co1iside rnr como coorde1wdas cartesianas rectangulares de un punto aleatorio en el plano. El rarlio vector de este punto con respecto al origen de coordenadas representa un vector aleatorio bidimensionnl con las componentes X, Y. De modo análogo, tres magnitudes aleatorias se pueden considerar como coordenadas cartesianas rectungul<1res de nn punto a leatorio, en e l espacio tridimensional. El vector con más de tres componentes no se puede represeu4ar geométricamente de un modo evidente. Por eso el vector aleatorio X con un número de componentes p > 3 debe comprenderse simplemente como el conjunto de magnitudes aleator.ias escalares que uq tienen uun represenLaci6n geomét.rfoa directa. Para mayor simplicirlad y c;laridad , n<»; limitaremos al est.urlio de los vectores aleatorios bidimensionnles. Sin embargo, t.ocla>i nuestras deducciones se pueden exlender fúcilmente a los vcct.orcs aleatorio:; con un número cualquiera do componentes. Se llama función de distribución de un vector aleatorio liicli111ensio11al con componentes X. Y o función con;unta de distribución de dos magnitudes aleatorias X y Y a la probabilidad de que se cumplan conjuntamente las des.iguald
!" (x, y)

=

P

X< :e ) . ( y< Y

(:3.t. 1)

Desde el punto de vi::;ta geométrico, ln función de distriliución 1lu un vector aleatorio bidimensional (X, Y) representa la probabilidu


3.1. Funcltín d'- tltstrib11ción y densidad 1/e probahilldad

81

A 111 izquierda y debajo del punlo (x, y) (fig. ~.1. 1 ). Conociendo la función de distribución dol vector aleatorio fo' (x, y), se puede calcular In probabilidatl de que ol punto alcalorio ~e encuentre l'll cualcsquícra z.o nas 1·ectaogulares.

EJt'mplo 3.1.1. Es [~cil Vt'r q u11 In probabilidad de <1ue el ext.r~auo
torio (X, Y) se encuentre en la milll.d sombreada de la banda, mostrada 011 la fig. 3.1.2, so expreM mediante la func1ó11 1ln di~1ribu­ cíón por In fórmula 1'

(~~ ~'
=F (x,<\)-Jl(;r,y). (3.1.2)

Fig. 3.1.1.

F.jc111r.10 3.! .2. El rect.í111gu lo mos(.rnúo en In fig, 3.1.3 ~e 111w•h• c.0 11sidcrnr como lo 11Jf,.re11ciu th' clo~ ~·mibnndus ínfü1 itas del ti110 examit111tlo 011 j~m11lo

ru ..

y

l'ig. 3. ·U J.

nnlcri or, l'<>r eso. e11 virtud Je la fórmula (3.1.2) 111 prouubiliolad de: que d puroto aleatorio (X, Y) se r.ncuenll'O "" rl rrclángulo :<e <1XJWt Ju íu1¡.-iú11 tl e tlistrítmrión por l:• lórmnlu /> (

~' ~ ~ ~ ~)

= F (fl,

b) -

f'

(fl,

y) -

¡: (a, b)

+ ¡.· (a. ~>).

(:'1.1.31

Lo rnísmo que ·rinrn 111!1\ magnitud aleaLol'ia esc;ol:ir se puedo definir la densidad de la probabilidad do un vector aleatorio. So Llnma dcnslclad de la probilídMI ,fo que su t.'Xlromo se oncuent.re en nna :r.01111 ioliniLesimal y el i'Ll'en de e:>ta zona al co11t1·11cr csla úllin111 "'' uu 11unlo:

z <.: X
(J.1.4)

Au-o

En vírLud de esta de:fini.t;i ón, la magnitud f (x, u) dx dij rcpresenLn, con on;i exactitud hasta inlinitcsimales de órdonoi; superior11s, la p1·0bubilidad de qu1;1 un punto nlc11lorio (X, Y) se encuentre en el ractá11gulo infinitesimal cuyos v6rtices se ballun en lo.s puntos (x, y). 6-0938

Cap. ,g Ma11nltuáes aleatvritis vectorialt.•

82

(x + d.x, .11), (x, y-f-dg), (x + dx, y+ d.11). Debido 11 ~to, la pr(}babilidad de 11ue un ¡¡uuto aleatorio S con las coorclenadns X, Y se eucucntrc en una zona cu¡¡lquie.ra B del plano (fig. 3.1.<1) es igual a la integral de la densidad de la proliabilidad extendida a Ja zona B*): P(SEJJ)=

y

J~ J(x, y)d:~dy.

(iU.5)

R•

Puesto que In integrnl deiinida no depende de cómo e;;tiiu designadns las variables rle integración, la fórmula (3.1.5) puede ser escríta en la form a 3:

P(SEB) ~=

r \ f (u,

Jn·

v)dudv .

(~t1.fi)

Fi¡¡. 3.IA.

La función de distribución e.le! vector alcll1torio (X, Y) representa la pr.obnhilidad el~ que ol punto aleatorio (X, Y) se aucuent1·e en el cuadrante con al vértice en e! punto (x, Y) (fig. 3.1.1). Por eso, aplicando la fórmula (3.1.6) podemos expresar la función de distribució n del vector a leatorio po t· rncdio de la densidad de la probabilidad del mismo: y

X

F(:i:,

J f(t¿,v)dl,l.dV.

y)=~ - oo

-

(3.1.7)

OC)

De la fór1J1ula (3.i.7) se puede obtener t amb ién 11.1 r-onclf1ció11 inversa, es decir, ln expresión de la deusidad de fo probabilidad del vector alllatorio (X, Y) por medio de su función de dist.l'ibuclón. Para osto e~ suficiente derivar la fórmula (3.1.7) una. vez con rcspeeto a x y una ve7. con respecto a y. Entonces , de 11cuerdo con la regla de la derivación de la integral definida con respecto al límite supedor, ohtondremos

_ f (X, Y) -

IJ2J7 (z, y) iJzi!y •

(3. 1.8}

Ahora bien, la densidad de la probabilidad de uu ver,tor aleatol'io bidimensional es igual a la segunc.la derivada mixta de la función de distribución del mismo. Examinemos ahora las propiedad.es fundamentalC!S de la fu.ncióu de distribución y de la densidad de la probabilidad del var,tor aleatorio. Estas propiedades se semejan , en lo principnl, a lM de. 111 densidad de la pr.oba.bilidacl y de la función de distribución inherentes n. una magnitud aleatoria escalal'.

•¡

J~l

signo E e;; ul do porleJlonciu. Lo. notación S E n significa que el puoto

S pcrtonere n la zona 8.

.~

iJ.J. Pu11cif.n de dlstri/JucUm y dcnsiqatl de probobilitfitd

83

En primer lugar, l a función de distriuucióo no puede ser mayor que la unidad ni tampoco puede ser negativa: O~ F (x, y)~ 1. (3.1.9) En segundo lugar, si el punto (x, y) so tl'asladu hacin arriba o a la derech a, la probabilirl11d de que el punto aleatorio se encuentre en el cuadrante sombreado de la fig. 3.1.1 no puede disminuir. Así pues, la función de di..stribnción de un vector aleatorio es la función no decreciente de cada uno de las variables al tener otra variable un valor fijo. Más adelante, si x _. - oo, entonces Ja probabilidad de que se encuentre en el cuadrantl' con el vértice en el punto (x, y) ·tiende a cero. P ues bien, P (- oo, y) = O cuulc¡uit~r¡1 que se11 el '·ulor dr: y, (B.1.10) (:1. 1.11) F (x, - oo) = 3 idem x S i y - oo, entonces el a<:ontedrniento Y< y t iende a un acontecimiento cierto Y< oo y 1n probabilidad de que so curnplnn conjuntament.e las de-'ligualdades X < x, Y< y tiende a lo probobi.lidad de que se cumpla l a desigual dad X < x, es dec ir, o Ja fUJ1ción de distribuci6n de 111 magnitud Ale11toria X. Design1111do est.A fun-· ción de distribución con F 1 (x) obtendremos la propiedad siguientede la función de distriliución de un vector aleatorio: F (x, oo} = .P (X< .2:)

~

F, (x).

(3.1.12)'

De mc)dO amílogo, dl:!::iignl)nn
F (oo, y)

= P

(Y< y) = F2 (y).

(3.1.13)·

i\horu bieJl, si uno do los argumentos ele la fund6u de distriliu-· ción de un vector al eatorio se LomA igu1d Al infi ni to , ohttmdrnmos hl función de distriJrncióu de la COJ1Jponento del vector nlcntorio· correspondiente a otro argumen to. Por fin, cuundo x ..... oo, y - oo e l cumplimiento de las dcsiguuldades X<.'< , Y< y t:iencle a u11 acontcl'imieuto cierto. Po r eso Jl(oo, oo) = 1. Pa~cmos ahora aJ estudio de la!; propiedades de Ja densidad de Ja p:robabilidacl. Directamente de Ja definición se dcil 11ce qut> la dum;idad de la prob11bilidnd de 1111vector11le11lorio llC> puecle ser ncgativ1.1:

f (x,

y) ~

O. (3.1.-15} Luego, en el. haciendo en (3.1.7} x =y = oo, toniclulo en cuenta (3.1.14) y el hcc.ho de que la integnil definida no

d~pende

do la desig&*

84

nnción de las

Cap. H M a¡:nita,U, aleatoria.• uectorialc.• variable~

1lc integración, obtcndrernos

"" ,.

J J/ (:t, y) dx dy = i. -

(il.1.1G)

\ >0-(11)

Esta fórmula se pllerlc ohlencr también apJicun .Y

OC

(!:U .17)

F, (x)= } dri ) f(u , y)dy. - oo

- oo

Al dcriva~ tista fórmula c.on respec.to a :i:, obtendremos la expresión de In densidad de la Jll'obabilida
/i(x) =

j

(:~.1 .18)

j(x , y) dy.

Oc modo scmejant.e expresemos la densidad de la probabilidad de l n magnitud aleatoria Y por medio d e la densidad conjunta clt1 la 1n·oba1Jilidad ele los mag1ütudes all.lo ~orias X e Y:

""

fz (y) ~-' ) f (X, y) dx.

(3.1. Hl)

Por consiguienle, para hallar la 1lcnsidail de Ja probabilidad de una componente del vector aleatorio, conv iene integrar la densidad de la probabilidad del mi!lmo respecto a 111 variable correspondiente a la otra componMle._ Ejemplo 3.J.:l. Bl vcct()r •INttori(1 con l u.~ c:omp1>neutcs X, Y está rep artido u niformemento den~ro ele un rectúngolo : ( 1 · :r.,

) _

Y -

{ii'• O

ab

si 1x 1 ,,;¡;; a , l 11 1 .;¡;; b, 1x 1>a o 1y1 > b.

si

Ballar la Cunci61t de distrihuclóu del vector aleutt>rio y las probabilidad de r.ada una de las componentes.

(3 .1.20)

den.~idades

el e la

§ il.f. Fwu:wu do

di~tril>ue1ón

Su•lituyendn la cxpt"<'~i611 l>Arn la en la f6rn111h (3.1.7), nblA!nclreuws

+ +

(x a) (y (z a)/2a (y+ b)/2b

I' (x. y)= {

85

g den.idad d; probal>ilidod

d~füidacl 11~

+ ú)/4ab

la

si 1z 1~ a, si 1:i: 1 < a, si x > a,

o

sí si

z

<

prob~bil id ad

(3.1.20)

1 y 1:.;;; ú, ¡¡ > b,

l 11 1 < b,

-u,

y

<

(3.1.21)

- b,

1 x > a, y > b. l'or las fórmulas (3.1.18) y (3.1.19) hallamos l:1s d~naidodes de las probabilld•dos / 1 (x), t. (v) de )as con1ponenles X , Y: 1' (")

r ' 12a si

- l

1% 1 " a. si 1 z 1> a,

O

) ,_ { 1/2b I 2 (V 0

s'.

SI

(3.1.22)

1 y 1 <; ll, 11/ J > /J.

Venios 11ne cada 1101\ 1111 ltts compononl.<>s del vec lcll' ulcotol"io. t'\•pnrtido u111formemu11to un d Tectúngulo, 1ambl6n se l1alla olisLl'ibuid:t unílormemcnté on 111 segmon t-0 c.orrespondí~ni... Ejemplo 3.1.4 . El V<X'l.o r uk•atorio con lus co111po11u11tes X. Y est:í repartido unifonnemente denlro ole umo dip•e: • z: , V: • 1 na/J ~· ~ -¡¡r ·... l. (3.1.23) i (z, 11) ~ . .,~ y~ { 0 Sl -;¡r+b'!° 1,

>

Hallar las donsldades
00

/1 (r)=

Jr t (x,

11)

Jr

1 dv=-;¡;¡¡

2 }/ /
1-

("'7 )2

_,,.,~ ~

Así rues,

{t{z)={ :a;/1-(~) 2



1:i1...:; a.

(3.1.211)

si lz J> a. l)o nrndu somojanto se puede hallar La densidnd de la rrcbnbilidad /2 (u):

/:(ul-

{

~ nb



I-

(b, )2 si l!il < b. si

(:l.l.25)

lvf>li.

Vomo11 qu... a distinción del ejomplo 1mterior, ~da 1111n •lo J.1., ~owponl·ntcs del veewr aJMtorio, repartido unirormomente denlru do In elip:IO. oo est.í suhor-

ilinada n In ll')' de wstribiu:ión uniforme.

D1! 1111 modo complot111ncnte análogo ~e doterminau 111 funcióu de distril.Jución y la densidni.l do ln probabilidnd de u11 vector ,, lcalorio 11-dimensional X cuyas compononws :svn inug11itudcs alcl\lo1:ins X,, ... , Xn· Se llamu /uncitín de distribuciñn del V1JcLor uknturio X 11 h 1 probubilid.aü tle <¡uo se cumplan conjuntnnicnte las clcsigua ldadcs XJ < Xt, X 2 < x: . .. ., X,.< x,., co nsiderada dicbo prob11-

gr,

bllid11cl comu [unción de las v11riabll'.'I 1

Xi. •• .,

X1<x1

/l(:r.1 , • • . , XR ) ~ p \ ·

l =

1

x,,:

)

. . . . ' ,,



(3.1.26}

So denomina densidad de la probabilidad d1i l vector aleatorio X al límiLede J.a re lación de la probabilitl a1l de que el veclorseoncnentre en 1111:1 1.nna infinitesimal, u la mugnitu1I tic esta zona al contraedn en el punto: !'

/(.r,, .. .,

(:t¡ <;, X¡

líin

l:n) =

,

:ll'J:

-o

<x1+6.r.1 )

1 ~ . . . u.

(:~.1 .27)

6x1

i~l>·'• • n

Todas las propiedades de la fuoción tl11 clistrillucióu y 'le lu densidad de la probabilidad, deducidas ante riormente para los vectores nlealorios bidimensionales, se extio11d1111 fácilmente a los v~cto­ re.~ de un 11ún11!rn cualquiera de diooo1L'lionc~. E 11nmcrcmos esta!! propieclades sin deducirlas. Ln f1111c i,í11 de distribución de un ,·octnr ulont orio no es negativa y no pued e ~cr mnyor que la unidad. Si por lo mono5 una de las vnriablcs x1 L
F(x1•••

., :in)=

/( ~~lt

:tn

l ... ) f(u

"'-- ) -• • · ' ""' -

1,

.. .,

u.,)du, .. . du,.. (3.1.28)

(3 1 29)

i)11f(%¡, ,,., Xn )

8ziiJ:r: ••. Ox,.



• • -

Ln densidad de la probabilidud de un vec.t.or aleatorio no es neg11liva, y lo integral de la misma , por toda la zona de valores posibles de las magnitudes aleat orias X 11 •• ., X,., es igual a la

unidad. Si se integra la detl!!idad de la probabilidad de un vector aleatorio ri-dimensional con respecto a cu11lesqu1er11 m de las variables :i., •. ., :in, como resultado se obtend rá la densidad de la probabilidad del vector n - m -dimensional formado por las componentes correspondientes n las demás variable.o;.

§ .1.2 . 1"uncto11<'s cnndicionalcs
87

Ejemplo 3.t.5. Se conocu la densidad do la probabilidad f (x, y, : ) de un vector aleatorio tridimensional con las componentes X, Y, Hall u las densidades do la probabilidad / 1 (.r) , fi (y) /~ (•) de las componentes X, Y, Z por separado y las densidadE!$ de lt1 pr<>liabi11dad f,z (x, y). f, 3 (.r, •), t. 3 (y, •) do los vectores bidimensionales (X, Y), (X, Z) , (Y, Z). obtenidas al iiroyectar el vector aleatorio (X, Y, Z) sobro los pin nos Oz.y, O.rz, Oyz respnctivamcnte. En virtud de la última propiedad do la dellSidad de la probabílldad tenemos que

z.

~

f¡{x)=

- ?O

y, z)d¡¡dz. f:(y)=

1-a (¡¡, •) =

f(:r:, y , z)dzdz,

"'

..J

f (-1>, y, z) dx dy,

-oo -oo

/12 (:r, y) =

W

J .~

- oo

JJ 00

/a(•) =

N

~

J ) /(x,

..

f (.z, !f, : ) dz, / 13 (x, z) =

Jf

..J

(3.1.3-0)

f (x. y.•) d¡¡,

(x, y. zJ d:r.

Ejemplo 3.1.6. La probabilidad de que un punto aleat-Orin con las coordenadas (X, Y, Z) so encuent re en la Z<>na dada B del espacío tridimeosional se deterwina por la fórmula P (SE

n, ~

¡

J

~ ¡ (x,

y , •) d .. dy dz.

(:.\:1 .:11 ¡

§ 3.2. F unciones condicionales de distr ibución y dens idades condiciona les de la probabilidad

En l a práctica s ui·ge con Irecuencia la necesidad de hallar la ley de distribución
(3.2.1) Ahora hien, la función de distribución de la magnitud aleatoria X con respecto al acontecimiento y1 :;;;;; Y < Yz representa la probabilidad condicioual de la desigualdad X < x con respecto al acontecimiento quo consiste en el cwnplimiento de l a desigualdad y 1 :;;;;; Y < y 2 • Lo mismo que toda probabilidad t:ondicional, esta probabilidad se determina por la fórmula (1.3.G). Tomando en esta fórmula por acontecimiento A el cumplimiento do la desigualdad X < x y por el acontecimiento B, el curnplirnien Lo de la desigualdad y1 :;;;;; Y<

l'ap . •t MaRnilu.dn at.:a1orla1 IY"tl<1rlolri


¡'' 1 (X 1y., Yz) =

P (

X < ·" YJ .,;.

)

Y< U2 < Y: 1

p ( .,,. v Y1 <> '

(3.2.2)



Ambas probalJ i 1id arle~ t'n es ta fórrnu.la :m pueden ex ¡n·csar JHlr 111cdio de ln densicfad de la probabilillacl rlcl wctor aleatorio (X, Y). El c11mplimicnl-0 conjunto do las clesigualdade;. y, ~ Y< Y: y X< :e corresponde al hecho de que el punto aleatorio (X, l") 11e encuentre en In mila1J rle 111 uamla mostrada e u Ja fig. :'l.2.1. Por eso valiónd onos de In fórmula (:1.1.0), }uillamo:i

P (

\'.' <

'/ y x

Y1 ~

)


""

J ) f(¡¿ , o)du.dv. X

_..

!12

11 1

(3.2.3)

T.a proLnbilidad en el
mngnilu
/>(y, ~ y< 1/2) = -~ /3 (JJ) tly.

(:'l.2A)

u,

Sustituyendo liis oxpresio11es (3.2 .3) y (~.2.lo) ohlenrt remos

la fórmula (3.2.2),

ji.

X

S

t'fi

dri

f f (11. u) dv

F, (z 1 Yt. Y2) = ---'°- vi-"-=-1- -S t:<11l au

(3.2.!))

11 ,

Derivando esta fórmula con ro.~pecto ax. se puede hallar la densidad corulicional de lo. prohabilid ad de la magnitud aleatoria X a condición do que In magni tud a leatoria Y tome el valor compreudido en Jos lim ites Y1 ~ Y < u2: Vz

l

t (z.

v) dv

(3.2.fi)

,9 iJ.2. Funciom:s conclictonale1 de distribución.

$()

En esta fórmul a hemos sustituido en el numer<1dor In designacié111 de la variable de integración v por y. Do todas las leyes conclícionales tle (listribución de la magnitud aleatoria X , correspondientes a distintos v11lores tia y 1 y y 2 , la ley de distribución ele dicha magnitud a condición de que la magnitud Y tome un valor determinado de y es la q11e tieno mayor impo1·tm1cii\ práctica. Para 11brcviAr. llam oremo~ a esta ley sencillamente ley condicional de dlstrtbucwn ele la magnitud aleatoria X para el ,·:llor dado y de lo magnitud aleatoria Y. Para hallar esta ley condicional de distribución se puede hacer eu las fórm ulas (3.2.5) y (3.2.H) Y1 =y, y 2 = y -H~Y y pa~ar ul límite cuando ti.v- O. Suponiendo cu la fórmula (3.2.6) y 1 = y, y 2 = Y+ ó.y, considerando las funciones f (x, y) y / 2 (y) continuas con respecto a y en el intervalo (y, y + ó.y) y aplicando 11 las integrales en el numerador y el h11hilidacl de lu magnitud aleat ori a X con rospecto a h1 uwgnil.wl olcatoria Y. EnLvucos vbLorulrcn1os

1y) -- · ! f: (>:, y) J.1 (·· ·<· (¡¡} •

('' ?

8)

•>- - .<

De modo somej.;mte obte1ul remos la I6rmula puru h1 densidad condicional de Ja probabilidad do Ja mag11 it.ud a leatoria Y con rc;;poct.o a In 111agnit11d X:

f 2 (y 1X )

-

! Cx, y} / 1 (x)

(3.2.!))

.

Las ·igual
11

(x)

/2

(y 1 x) =

h

c~crihir

(y)f 1 (x 1 y) .

c:-11 ln forma (3.2.10)

Estu [úrmula e.xJ.lresu el leorcnin de mu ltiplicación de la:; deusidades dE:: la probabilidad : la 1lcnsidad coujuuta de la probabifülatl ele dos magnitmles ¡tleatori:i s es igual a la dcJLsidad de la prolJnbilidad de 1wa de ellns mu lt iplicada por la densidad condicional ele 1 ,~ otrn c.on respecto n ln primern. La:; 11wguiLulles aleatorias X y Y SlJ llainan dependientes , s i los acontecimientos que consi:;t:en en el cumplimiento de las desigualdades X < x y Y< y iion dependientes por lo menos )llll'a un par ele vn lores dn x y y. Las magnitudes aleatorias X, Y so llu111¡u1 inde.pendie11tes, si los acoutccimionlos quu consisten en el cumplimiento do las clesignnldadcs X< .1: y Y< y sou inde.pe11die111.e:;

11ara cualesquiera valores
X<x) = P(X< x )l'(Y
(3.2.11)

Pcl'O el primor factor en el segUJldo miemlJro es l a función de distribución F 1 (x) de la magnitut1 al eatoria X y el segundo, l a función -d~ 1lislrib11ci6u F 2 (y) de la magnitud aleatm:ia Y. Por consiguiente, F (x, y) = P1 (x) F ~ (y). (3.2.12) Así puos, la función conjunta de disl-ribuciún de las inaguitndcs aleatori as X e Y es igual al producto de l as fUJ.1ciones do d istribución de las mismas. Est a coudicióu es necesaria y stúiciente para la indopencloncia de las magoitude5 aleator ia.; X, Y . Esta condición -elche cumplirse id t!n t icamente, es decir, para cualesqui era v alores do x e y . De ella se puede obtener la idenLidad análoga para las ~l cnsidndes de la p robabilidad. Derivando l a identidad (:3.2.12) rnrn \"ez con respecto a x y nna vez con respect o a y, obtendremos

f

(x, y)

= !1

(x)

/2

(y).

(3.2.13)

Ahora bien, l a densidnd conjunta de la proba bilidad de las magnitudes aleatorias independientes es igual al producto de las densidades de la probabilidad de las roismas . Esta condición es ta01bién necesaria y suficiente para que las magu.itudes aleatorias X, Y sean .indepen
f,

(x 1 Y) =

f 1 (x), Í2 (y

1 x ) = f z (y) .

(3.2.14)

Así pues, para las magnitudes aleatoriru; independientes sus densida-Oes condicioniles de la probabilidad coinciden cou las incondicionales . Esto concuerda completamente con nuestras ideas intuitivas acerca de la dependencia y. la independencia de las magnitudes aleat orla:s: si llega a ser conocido el valor de una de las magnitudes aleatorias, mientras que la ley de distribución de la otra magnitud no varfo, entonces las magni tU'des aleat orias son independientes. Así pues, las iguald"a des (3.2.14) reflejan el hecho intuitivamente comprendido de que las magnitudes aleatorias son i ndependientes i311tonces, y solamente entonces, cuando el conocimiento del valor de una de ellas no varía la ley do distribución de la otra. Con otras palabras , la información que obtenemos fijando ol valor de una de las magn itudes aleatorias 110 contiene ninguna noticia acerca de la segunda magnitud aleatoria.

.lf 11.2. Funcinn<s cottd/( conalt> dt dislributllin

91

Ejemplo 3.2. J . Hallar las densidades condicionales dfl la probabilidad do

las com¡>ouentes de un vector nlrntorio unlformcmonto repartido dontro del rectángulo 1 z 1 < a, 1 y 1 < b .

Usando los resultntlos del ejrm11lo 3.i.3, por las í()rmulos (3.2.S) y (3.2 .9) hallamos J (:r ( )= f(:r, y) ~ {l¡"lo si ¡z¡ l ll l (3.2.15) 1 11 / 2 (¡¡) O si l z l >a. lv l)> b,



1z1a. IYl :;>- b.

¡ ( 1a:)= i(x. Y) = { 1/2 'V fl(.i:) O

si

(3.2.10)

Es evidente C\Ue !ns componentes del vcctw aleatorio 90n !ndependien~. puesto

qM sus de.ns1d11dcs condicional(IS do ln pn1babilidad coínciden con las lncondlclonnlcs. Ejemplo 3.2.2. Hallar las de nsidades condicionales do· la probabilidad de ateat.orio repartido unifonnomenlAI dentro do la elipso :t!-/ol +¡¡'lb' - i . Sustítuyendo en las fórmulas (!:.2.8) y (3.2.9) l as ~xpres!ones (3. 1.23) (3.t.24) y (3.1.25). obtenemos

UD v~t.or

/d.t 1.vl {

y1 2a V J - (y/b)'l sl 1x1
si l.t l rel="nofollow">aV! -(y/I>)~.

,~

si I Yl
2b V 1- (.r/a) •

f:!Yl zl c: {

~¡ I Yl>bVt- lz/a)i.

O

(3.2.17)

(3. 2.18)

A uiierenci• 1lel ejemplo 3.2.1, las compooentos dol veetor aleatorio u nlla olipsc dependientes.

""º

formcrooute ropartldo dentro
De modo completamente somejanle se determinan las iunciones condicionales de distribución y lns densidades ele la proba1Jilld11d de los vectores ale alorios. Co mo rcsuli.ado obtendremos Córmula:s absolutamente idcln~icas a las llcclucidas para las mu¡;ni Ludes fllenlorias escalares X, Y. En particular. obLendremos el teorema do mnltiplicación de las densidades de In ¡irobabilülnd de los vectores aleatorios: la 1le11~i­ dad de In probobilidad del vector aleatorio n + in-dimension11I obte1tido por mect io de la unión d el vector aleatorio n-dirncr1:sio1\11l X (X 1 • • •• , Xn) y del vector alea~orio m-dim cusional Y (Y" .. . . . . , Y m) es igual al producto de la densidad d o 111 probabilidad ele uno de ellos por la den~idad condic:ional de In prohahilidad del otro; f (.:t, , . . . , x,,, Y1• .•. , Ym) ... f, (x¡, .. · x,.) /2 (y,, ...

• · ., Ym

1 X11 • • ., :r.)

= /2 (y,,

••• , X n

· · ·• Ym) /1 (.r,,

(:U .rn)

j YI• •.. y,..) .

.t:s CYidente que si se designa el coojunto de las variables x 1 ,

. . . , x. por una sola letra x y el conjunto de las

• • •

variable.~

y1 , ••• . . . , y,,., por una sola lotrn y. entonces la f6rmuln (3.2.19) tomRrá la forma de (:i.2.'JO). Pues bien, lu fórmulu (3.2.10) es válicln tam -

92

bión para las 11rngnitud(ls nlcnl.ol'ias vectorii\lcs X. Y, si poi- x, y se c11liu11den las \'aria bles vectoriales correspondientes. En el ¡nirrufo untcrior vi rn o.~ qua también lus fó.rmulas (:·l.1.18) y (3.1.1!)) 11011 vúfüh1s para las m11gnitude11 :deatorias vectoriales X, Y. si pot x, y se onti.ellllcn los vnriab les vectoriales cont'~!JOl'ldientcs y la ~ integnlle~ se e nticnJtlH como lut.cgrnlc~ rnúlti ples .•. , Xn, y 1 , • • • , y,,.. Si e.«Los 11co11tecimit>ntos. son d e11enrlientes poi· lo roouos p11ra un co njun to de valores al'll que los vcctort•s a leatorios X y 'Y sean i11depcndient.cs s irvo ilt igualclitd idl-n~i co de s u ÍUJlción conjunto de d istribución (o ele In tlern1 igualclad idóntica de s us densid ades coutl icionnles de In probahilhliicl u los incondicionnles. Ahora bien, cado wto tle las idcnliclodc::= (3.2.12), (:Uu:3) y (:'1.2.H) G8 la coll!licióu lll!t:es¡cria y suficiontt• para que los vectores X, Y sean indepe11c.li1mtes, si por x, y se e nti enden las variable:; voctorinles co rrnspondienleis. Apliquemos ahora el teorema de multiplic11ción de li1s donsiclndcs. de 111 probnbilidnd a u11 vector n - 1-rlimens io nal X con la~ com¡>onente~ X 1 , • • • , X,. _1 y a un vector uni
f (.'tt. · · -· x.) = /1 (x1) li (x2 1:i:¡JJ (x3 1 X11

.t~) . , .

• • . Ín (xn 1x., ... ,

Xn - 1)·

(3.2.20}

Las magnitudes aleatorias X¡, .. ., Xn !!U llaman i11.dependiente,<¡" si dos vect-0res cual esqu iera, que so p ueden form ar de estas magn itudes aleatoria~ y que no contienen componentes comunes, son independientes. Con otrns palabras, las magnHndes aleatorias X 1• • •• , X,. son indepe ud.ientes cuando, y solamente c nnn
·''

3.~.

Funcion,.s

(Ondtci11ncd..cs ,¡C' dlrtrtliw;ihn

De la fórmu la general (3.2.20) se deduce que la rlensidad conde l a Jlrob;ibilid11d de las magnitude.c; aleatorias independientes es igunl ni inoduclo de sus dens idades de la probabilirlad f (x., ..• , Xn) = 11 (z1) f~ (.r2) .. . fn (x,.). (3.2.21) jWlta

Esla condición es necesaria y s uficiente para que lns magn itudes X 11 • • • , Xn sean independ ientes. Ejemplo 3.2.3. Su11o ni¡amos quo un rcccpt.or recibo un Lfon do impulsos (00 l as amplHudos ol<'nlorias z,. z, . .... Zn. Cada impulso 7.¡ rcpresent.a l a sumn un ino1111lso ti dt>I ruido X 1: Z1 S 1 +X¡ (t 1, 2, . .. , 11) . L3 misión del det<1Ctor consiste en revelar lo set1nl útil , es de(;ir. en resolver e l problt-ma: conLi~nen o no 101' impulsos reci bidos una seña l 1Hil {informnción útil) o no SI.In más que impufSl)S rlc. ruido. Este 'J)roblt>ma Li(.>D(.> gran i01po11Ancin porn lo rccopciiín o lnrga distancio, ya c¡11e l'D t>.st.& coso 10-'I i111puL""s dn ~iial ú~il son comps rnhl~s. nn lo elor c:..>nsist.c en <¡111' és~ dt>ja 1)aSllr ¡,. ~l'iial Si Cf (Z) > e y llQ )a 1leja p8Sl\T si q> (Z) ~ e, dontll' <¡> (7,) l'$ c i<'rt:o fu11· c iñn de Jo.s i mpulsos recibidos formnda por el dctcc,lor ~· r ~ l"i NUl niwl dr u.mbrnl. CIJn o ln<S palabras. si qi (7-} > e, " ' d ~t.eet.nr th•t .. rmiun qun lu:iy ""iínl y si 1~ (Z) .;;; r. l'l dcl<"CIOr dcte1·miM qcw no hny seiial. P.:') Uf,,..~ttriu clc?tet'lOinar: a) la prnliubilidnd de que t \"uga lugar uno .revclnci6n c-0rrec1a al Nnµ loar el mét odo deClo d e l•1lttUDient.o d e la sci\nl qul' ~e recibe. C'S 11-.~ir, p•u·o ln f11nd1ín 'P y cl ni\'OI de umbral e ua1lns; 11) lus proba bilid ad es C')ll1lidona!l'(< 1l1· que 5t' co1m•lru1 on'OJ'e:' 1lc Jo~ t.ipos: i) l:c prvlmbilidi1d de> que 1n st>iial s~ pi••rou
ne

=

=

redb•dos;

2) la prob~ltilic!Rcl de nlu rma fa lsa, es decir. ir, pr11!111hilirl nd dt- qur '~ cl..-idn qntu nc1 rl1 isti:. Pnra la ~ohrdón rc'!!lllto i>cr w:ís ciare y ~imp!t•. ~IJ[lilll~ulrh•S qur los ímpnlsos de Sllñal itlil roH mnp•iluclPS co1wcidas :t'/ • •. •• s~ y lo 4"" sn 1l('sc1•1lC!c·c es sohnncntc cl µr< z,. .... z.,,. Supongl'lJllos t amhiéu q1111 cnnuccrnos fo ley de dislrihudón de> los ruidos. r,; cl1•dr. conocemos lo dt>nsidaol •le probnbilidnd de los impul :;os porásitcis f (:I'). Y. por fill. s uponganw:< que •'I< conodd~ la probahílida sofüol p y. pclr .·ousi¡,?n ien lo. l:11nhié11 la probabilitlacl du lll au!!('ndn de )A

señ al ~ = t -

p. Primeramcmll' eaJ..11fomos los prohobilidades cnnd iciont•ll'i! de que ~e come· tan errores tfo dos ti pus, l.'S dceir, lu probnhilidod de p~nlicl1t 111: l:o s~r.nl cua11do ést.a e:-;i;11.e y la probubil idud de alarma '8l!:a cu8 ndo In seiial 110 exis tí!. P~ro esto h3llemus la clonsi1hd c<mdicionnl do probabilicfacl do los impulS-Os rccibiclo.o¡ cou respcc.to n ln scliJ•I út.il ¡, (: 1x). l'ucisto que. de acuerdo c...,11 Ju conrlición ad ouitiJu (es dcc:ir. el vretor c:l\n l a~ l a se11a1 útil s tiono solamente dos valorP.ll vosibles: compo11cntes .<~ •• ••• s~,) y O (rn1 decir, e l vector cuyn,, compouPntcs soro t odas igualt'S a cero), es suflcio'Jll<' hallar la densidad de ¡1roh nbilidnd de la señal rcci· bidl\ cuaorlo está pr~(.>llll' • ~ 5l'ña! útil / , (: 11;º) y la Jcrosidnd d<.' 111 probnliiliJad de h• sclial recibida cuond
•º

•¡ Esta mi¡><>siciún no es de i1111ior1,l111cio. Lfl sul11<"i 611 clel pooblcmA sobre la ro\•Pll\ción óptima clr 1ma i;<>llnl. que se da c11 r.s~e t>jemplo. se n..-.:t irnd"· si n ~ml>ios
tM

Caµ. IJ MnJ(tll lut/,,< altatorliu w ctorcaks

ul follar la seíiaJ útil se 1·00\bo :solamente ruido, la doll:!idad condicio11al de probabilidad de la seúal quo "ºrecibe~ cua ndo oo n>1ti presente la sefial útil, coíocide con la densidad de prol>abiliand del ruido

f,

<: 1 Ol

(:~.2.22)

= / (z).

En cnso tle quo "sté p1·e.,onto lu señal útil , so lo 11djunta el r uido. f'vr 4lSO I• densidad rondiclonal do probabilidad de la soilal que se reclb~. cuando se tiene In 5eiial \ttil, se obtiene do lo densidad de probabilidad del ruido f (2') sustituyendo en oll11 el argumm1lu r por la difcrenr.i11 e1Hre el valor posible de la sciial reeibida ~ y el valor do la señul útil s•:

Ir<• I •º>= I <•-•º). Pnn mnyor claridnd, on la Iij¡. 3.2.2 so mur!!tra Jo dispersión de las rcalii:icio· nes Je ln señal que so recibe, al faltar la señal útil, y lo elipso de dispersióu do la

s,

z,

l'ig. 3.2.::.

señal eJJ recepción. al Cl:llar presente 111 señal úlil, pnrn el caso de roccpci6n de dos Impulsos z,, Z:· E~tc dibujo aclal'a 111 dcduccióu do la fónnula (3.2.23). Las fórmulas (3.2.22) y (3.2.:.1.3) dotcrminan por comploto la densidad condicional

do probabilidad do 1a se11al recibida con 1·especto o la sene.l útil.

La p6rdida de la se~al se caracterizn por el beoJ,o de quo, al esta r preJIOnt.0 la seflal, la función cp (Z}, debido al efecto de los pttrásitos, result.u ser menor que el nivel de umbral e o igual a este úllimc>. Por lo tanto, la probabilidad condicional da la pérdida de la señal, es decir, la probabilidad de la desigualdad cp (Z) .;;; e es igual, al tenerse la soñal útil, a la integral de la densidad condicional de probabilidad (3.2.23), extendida a la wnn determinada por la desigualdad cp (Z) fO;; e: Pper.=P (rp(s) < c 1 S=.0)=

f

~(z~~r

/(s -- tO)dz.

(3.2.:V.}

La alarma falsa so carncteriia por al hecho de ciuc, al estar ausnnle la scfial útil, ln función

uel 1·u ldo, mayor que el nivel e, al estar nusente In señal íitll, cs. Igual a ln integral de 111 densidad condicional do probabilidad (3.2.22) extendida.

§ 3.2. Pu"rlones

c()ndiclonal~tt

a l a ioua determinada por la desigualdad q¡

(~)

9!>

dt di•lrtbuclón

>

e:

~ f(i)dz. «<•~>•

Pa.1 = P(•1>clS=O)=

(3.:!.25~

Pasemos ahora al cálculo Je la probabilidad de que se cometa un crrorYn l resolver el problema de la revelación de los soñnlcs. Para esto apliquomos' lo fórmula de la probabilidad completa. El •• deLector puede tomar una docisión falsa cuando hl\y una de dos hipótesis que forman un grupo completQ doacontecimientQs iocompaLibles: la hipótesis E, consiste en que la sefial úUl está presente; su probabilidad es iguol a ,e; In hipótesis Ei consiste en que la sel'la l útil está ausente; su probabilidad es igu¡¡l " q 1 - P.· Las probabil ida1les Fig. 3 .2.:~. condicionales de un error, tonioodo estas dos hipóUlsís. se determinan {IOt l as íúr1m1las (:~.2.24) y (3.2.2~). SusL1t.uycnrlo ootas oxpre:1iones un la fórmula de la p-robnbilida
=

Pm. ~ 111'

= /'

((Z)> e 1S=O)=

~

/(:-sO)o'2 + q

f

(l!.2.~li)

/(s)d:,

«<

<1<2).,..

L11 probabilidad do que el ¡in¡hlcrua de la rovclncióu s~ resuelva corrcctu· 111e11te so determiuará comC> In probabilid ad do que se produzca el acou\cci111i e nt1> contrario t3. 2.27) ]J,. cvrr. -= 1 - l'crr. Para hacor eálculo.s completos, examinernus un cuso rnás concrct.o de In rcccpción de dos impulsos, ~u¡xiniendo que los impul>tO$ de ruido sean magnit11d1•" aleaturias independientes, norm:tlmenle distribui1las, con iguales dispersionc.; D y esperanzas mnlcm,íticAS iguales a cero. En calidad de funcicín e¡: (z) Lomt'moe la función lincnl lj> (:,, •2) = b:.,.

ª'' +

En e~te cnso la fórmula (3.2.
= J' (q> (Z) -~ e 1 S'"' -'º)-=

lJ

a.z1 bl2....Zc

2~0

(i 1-.c1)f ..Hti -i~)Z

•-

UJ

dz1 tl:z.

Ln iono. do in~l"Jc.ión so m11c.,h·n en la fig. 3.2.3. Parn calcnlur la i11Wgrnl.

~usl.il11y:11nos las variables ''" 1:11 ruodo quu en la.s nucvus \'ariahlcs "'' 1•: In

de intcgr~ción se limit e sulameoto respecto a unn de las variables, digamo~ con l'llllpCcl.o a u 1 mionl.ras r¡ne rrspi:cto a u2 se oxlio11cl11 de -oo hast.'\ r.s lúcil co1nprendei· que 11ara cstQ bnsta dirigir ~1 ojo u 1 ¡lcrpcndi<:ularuu•Jlto a la rcct11 a z1 bz 2 ,;;;; e y el rjn 1t2 11aralelamonto; a esta roc1>1. Enl.ouccs, C•llllrt <'S fácil de ~upQMr, Ja,, 111rnvui; variable¡¡ u1 y ": se 1let.ermi11d1·1\n por l as fúr11111 l 11~ (ln el!c11l11 ~e las nnc\'lts val"iublcs no tiene importuncio)

1.0111<

+""·

+

u, ~

ª'• + bi2. +

Ut -=: b.t1

0%2•

90

Cap. 3 Ma¡rnllud"" aleatorias l'llr.torin!n

Ot'spcjando : 1 y

=• eu estas ecuaclonc:!. ob~endreruos au 1 + b11 2 •1= a~ + b2 />1q - a 11z

ª'+b• . .El hcobiono
~Lu

1Jz 1

t.J•unsformnción os igunl n

1

¡j;.1

Oi 1

a

-1 -

~tffl;

b

a•+b• az + .b •

u:,

h

1> a~+/,:&

+

1.

..,, _

1t~+b\I.

7íü"; iiu: ,,z b~ C:ou t:il s usliluci1í11 ele 1as variablll!I, los lírnitos de iutagrac;ión se dotouninarán por 111 dosl¡¡u&Jdnd 111 .;;; e, 1'~ deeir, In intcgraci<ín ~& efectuará do - oo bosta e eon r.~pr.111-0 a ,., y ele -oc 11asta +oo COJI n>S11nctu a u,. Como resultado, la Iórnnrla parn la pmb11bilid111l c.ondiciunal de pérdida do Je .se.6a! tomará la forntrt J> (s?+"•gn 21J(4&.rllt) ~

e

=

~

'Jn/J (a\.-'.- bS)

du,

'"1-'"¡-t11:r: 27lí1•+h1¡

I! -

=

du, =

(.-Q.t~-'""'g l /J(n•~·')

1

= ,v.,.,. ¡;;:;

)

_.,.

1,

e

-• l 4

'

1

t= 2

d111lllc (JI (u) e~ lt1 fitución s In >iusenlt• In seiial tílll:

,., ( c - at/-b.<~ ) + "' VD (aj-f-b") '

~robobilidacl

( 3 _2 , 28)

do 11larma fals11 al estar

( e ) . (3.2.29) . . = P(cf(Z)>c i S = Ü) = ~- ,. vo ca•+bi) a.2 ..\. En las condicione~ del ejcml>lo anteTfor hallar el procedi-

Pu r Ej~mplo

miento óptimo de tr11 t.amiento de Jo. señal roclhid11 por el detector, que a~gure la probab,11idod mlnima de que se cometa un error y, por consi2Ulent.e, 111 probabilidad máx.lm• de una resolución eorreo\11. Con olra.s palaDr$5, hallar ln (unción 'P. y el nivel de umbral e 11. condición do que se garantlc-e la probabilidad

mínimo. do un orror. Para resolver esoo problema, aprovecharemos el booho de que

~ f (z-sO) dz+ ) f (:-G°) dz = 11(:)><

'l'(•)<;(c

..Jf

.

(z--s0 ) dz = 1,

- oo

y l'SCribiremos la f6rroula (3.2.26) en la forma

Porr. ~ P-

Í '11(<1>c

ÍP/ (s- •º)- q/ (a)I d:.

(3.2.30¡

§ 3 . 2. Funciones


co11dicio11ala

97

-Do·11quí está claro que la _probohilidad de un error Porr. t iene el valor ~ojmo cuando la Int egral es mbtma. Por lo tanto, el problema se reaucc ·a lñ .élección de la función qi (z) y la magnitud e-de modo u.!, que la integral en (3.2..30) tenga· el 'olayor valor J>.<>Slble. Es oviden~ que e3ta integral aumenta al añadir. a la iona de lntevactón tales parces del éSpacto del vec1.9r : en lnil cuáles. la fu'n ción ¡subintegral es positiva, y disminuye al añadir -a la zona de integtációí;l tales partes ··del .espacio en las que la fundvn subiutegu.1 os negaliva. Por consigy.leote ,, ,eet.it lntegtal tione el valor máXirno e;n el caso el\ que la zona de integraCión.coin•cid e con aquella •1ona del espaciQ'··del vector : on l a cual la !lincfón slibintegral ·· es •positiva, es decir, cuando la desigualdad

e (3.2.31) ·cquívalo a la de.,igualdad p/ (z - $ 0} - qf (•) > O o bion

f (i -$0 ) /(i)

':/

(3. 2.32)

>-¡-

Su¡>Qngamoe aborn que 9 C'-l es una función 11.rhitraria·, dgurosamenlo crEciente. Entonces de (3.2.32) so deriva que

11 ( / (zf -(:)sU) )

> 9 (.1.). p

(3.2.33)

Comparaudo esl.8. d"-SiguaJdad con (3.2.3l ), ''emos que l a función umbral e se pueden determinar por las fórmulas ip(,)= 0 (

/ (;~()),

c=0

qi (!) y

(f),

el

(3.2.34)

En este caso la desigualdad (a.2.31) será equivalenw a Ja desigualdad (3.2.32) y Ja f,robablllda
.,.

f (: I

e= In 1- .

•º) «>

("l '> '.-15) • ·- "

P

En el ce so psrticul ar cuando se trata de impul sos de ruido indepcudienles nor maJ m~nte r eputidos con esperanzas mat emá\icos lgnale! a eel'Q e iguales dispeC$iOnes D,

f (r ) =

(Z:i)~' 5ñ exp

{

"

~ rf} 2~) 1-1

y la primera lórm1Jla d<} (3.2.35) toma la forma

crl•l = -

n

n

n

i= l

i- t

i..: t

2~ ~ f(:; -s?)' - zfl == ~ ~ •?z1- 2~ ~

(.-n2.

(ll.2.;l6)

Pues bien, en este caso la íund(in óptima cp {z) es Ct1nción lineal do l os i mpulsos recibidos, es decir , el detector óptimo es un sistoma llncftl. El mismo resultado se obtend rá en el ca!o de \ID ruido arbitrario normalmente repartido. La relació n de las densida des co ndiciooeles de pl'Qbebilidad de la suñal que se rec:lbe al estar presente la s1>.ñal útil y al estar ésta ausente se llama relact6n d~ 11erosim tli111d. Así pul!l<, el siswma do revelación óptima debo calcular la relación Je verosimilitud o cualq uier función creciP.nto do esta relación y 7 - 0~)3 8

Cap. 3 Ma11nitudts nkaluritrll 1-.,c/orfaks

98

compararla con el umbral c. Para determinar el umbral por la segunda fórmula (a.2.34), es nec:esario eonoeer Ja probabilidad de prose.o cia de Ja señal útil •' en la soñt\l recibida s. Sin embargo, en la práctica est.a probabilidad es de ordinario desconocida. Por eso ol problema de revelación se rc.suelve frecuentemente por otro pro~dimiooto, a eabcr, partiendo do la condición de probabilidad winlma de p6rdida dela sefial JIPer. ·dada la prob¡Lbllldad do alarma falsa Pa. t ... a. Para hallar la Iunoióu óptima ip ¡:) y el umbral e con los cuales la probahiiidad do pt\rdida de la sella! es mU1iU1a y lo. probabilidad do alarma falSA tiene cl Yalor dado a:, se puede aplicar el m&todo de mult.iplicado:res indefinidos de LBgrange. Entone<--~ el l?roblema se reduce a la det.ermuiación de la función 'I' (i) partiendo de Ja coocl1ei6n de que la magnitud

1'1 =1'per.-l-A.Pa.r sea mí nima, donde í. es ol multiplicador imlciiuido que se halla de Ja condición 1!0 que ps.t. =c. después de detennlnar 111 función q> (:). Este problema se l'\ISUelva igual que el de determinaci<ín de la funeióu qi (•) pai·líendo do la eondic.ión de que la probabil idad comple&11 do errores soo mínillla. Como resultado hallaramos


l(;c.t )

c=O(i.).

13.2.37)

L• ~uuda de estas fórmulas determina el umbral e por JDrdio de la magnitud ineognila A. que, a su vez, se baila partiendo de Ja. condieión de que Pa.t. = a . Eo luglll' dn esto se puedo determinar el umbrnl e directamente de la condición Po.e. c. dejando la magnitud >. lnd et<:rtninada. Eu efecto, haciendo uso de la fórmula (3.2.25) e igualando l a probabilidad de alarma falsa a La magnitud a;, obtendremos. para la detormlnnc16n d1•l 1lmbral e, la ec:u11ci611

=

J/

(i)

d~=a:.

(3.2.38)

et(•)>•

En pRrticular, al revelar la señal en dos impul~ indopcndient.es u,,rmalmente repartidos con esperanzas maoomáticas iguales 11 cen> e iguales dispersiones D, para determinar P•·I · se puede (!Jllp)ear la íórmula (3.2.29) del ejemplo anterior. pucst-0 quo la función 6pi ima cp (z} según (3.2.36} es en est.e caso lineal. Comparando la expresi6n do la runeión cp (:,, "1) del ejemplo anterior con (3.2.36). vemos que en.,¡ caso en cuesti6n 4 ~ $flD, b = 4/D. Su.sUtuyendo estas expre-

siones en (3.2.29), hallamos

/la.1. "".f-Cll

(eV Ml'~(•g)h) ·

,lguo.J~ndo

esta expresión a la magnitud a, obtenemos la ecuación para dot-0rminar ol umbral

11>

(e V (stJ•!c~l") =~-a.

(3.2.39¡

Sea v el yvJor del argumento de la función do Laplaee para el cual ésta es igual n 1/2 - a:, es deelr. cJ> (v} t/2 - a:. Comparando esta iguoltlad con (3.2.89), hallamos

=

(3.2.4.0) ~hora !¡len, en estq Cl$O el umbral e se determina directamente por la f6r111ula (3.2.,0) y ln segunda 16rioula ·do (3.2.37) se hace innecesaria.

§ S .3. Leyes de di.tribu.ci61' de las funciones

99

§ ,a.3. Leyes de distribución de las funciones de magnitudes aleatorias En los p.coblemas prácticos se necesita frecuentemeµte )laJla.r .~as leyes de distribución de magnitudes aleatorias. que repres~ntajl las funciones de otras .magnitudes aleatorios que tienen leyes de distri, bución conocidas. Supongamos que la magnitud aleatoria Y representa la función. uniívoca- dada de la magnitud aleatoria X: Y=

(x) y la probabilidad c 0ndic~onal de este valor con respecto al acontecimiento X = x es Igual a la unidad. Por consiguiente, la densidad condicional de probabilidad de la función aleatoria Y con respecto a la X representa una función delta (3.3.2} /2 (y 1 x) = Ó. (y - cp (x)). Sustituyendo esta expresión en (3.2.10), hallemos la densidad conjunta de la probabilidad de las magnitudes aleatorias X y Y: f (x, y) = !1 (x) 6 (y - q> (x)). (3.3.3} Pues bien, si la distribución bidimensional está dispuesta totalmente en cierta curva (lo que corresponde al hecho de que para cada valor x de la magnitud X la magnitud Y tiene el único valor posible), entonces la densidad de probabilidad del vector aleatorio (X, Y) se expresa con ayuda de la función delta impulsiva por la fórmula (3.3.3). Ahora, para hallar la densidad de probabilidad f 2 (y) de la magni~ud aleatoria Y P.S suficiente emplear la fórmula (3.1.19). Entonces obtendremos "" (3.3.4) /dy) = /1 (x) ó (y-


J

Esta fórmula es la fórmula geueral que dotermina la ley de distribución de una función unívoca dctcrminndn de la magnitud aleatoria X. Examinemos ahora ol caso de la dependencia continua recíprocamente unívoca entre las magn.itudes aleatorias X, Y. Esto quiere decir que la función


100

uno, de la magnitud Y sino que, a su vez, a cada valor de la magnitud Y le corresponde también un valor, y sólo uno, de la magnitud X. En la fig. 3.3.1. se muestra la curva y =


}'ig. 3.3.2.

Fig. 3.3.L

Suponiendo que la función


fdy) =

'") /1 (u)~ (y-q¡ (u)) du.

(3.3.5)

"'

Hagamos la sustitución de las varia.bles V=

(3.3.6)

cp (u,).

Considerando esta igualdad como una ecuación con respecto a u para el valor dado v, observamos que esta ecuación tiene la única solución en la zona de los valores posibles d.e la magnitud aleatotia X (fig. 3.3.:1.). Con otras pal abras, en el caso eo cuestión, existe la .funéiói¡ iriv!)rsa unívoca (3.3.7) u =1j) (v). De aquí hallamos (3.3.8) du = l (v) 1 dv,

w'

donde las diferen.c iales du y dv son positivas. Sustituyendo las exllre.siones (3.3 ..6) y (3.3.8) en la . fórmula (3.3.5) y teniendo en cuenta qué, .al, ~ustitui~ 'las variables (3.3.6), el intervalo (i1, x2) pasa al intervalo (Y1r y'2 ), obtehdremos ~.

j Is('~ (_v)) 1'1>' (v)l 6·(y -

fz(y) =-

11¡

v) dv.

(3.3.9)

§ 3.3. w11t1 dt dutribunpn tk 1,,.

fu11d~ntt

'De aqu!, en virtud de la propiedad conocida de la función delta '(2.2.6), hallamos /2 (y) = f 1 (lji (g)) l 'lf (y) 1 . -(;:J.3.10) . .EJcmplo 3.3.1. L a mognltud aleatorln Y es función lineal de la magnitua al'oatorta X:

Y=a X +ó.

, Hallar

(3.3. tl)

densidad de probabilidad conocieudo la deMidad do probabiliaad / 1 (z) de la magnitud aleatori11 X. En el caso en cuestión, la función q> y la función inverso .¡, se determinan re3pecti"ameote por las Córmul~ 8u

y -

q: (z) -

+ b,

az

"'li' (y) = (// - b)/a.

z

Sustituyendo la úl tima eicprreión 011 (3.3.10), obtendremos lo fórmula parn la deusidad de probabilidad do In fnnciún lincul do la 1t1t\¡¡nitud ~lo•loria: i '1 (¡¡) " Tilf /s

(

y- b) .

- a-

(3.3.12)

Eo p•lrticul a r, cuaudo (x-m)<

/1 (z) ..,. ~e--roo

al hn

d o la fórmula bailada tendremos ((y -b)f
2n::.

!2

Asl pues, la fw1ción lineal do una m11gnitud nl1>J1to1fa no1·1nnlrnonle r~purtida t ambién 41.'!tá disltibuida normalmente. Ejemplo 3.3.2. Sea Y =aSPllólX.

donde X es la magnitud aleatoria normalmenl(y) =

!

111·c8c11¿ ( I YI<•)

y su derivada

'f' (11)•

1

6l

Vo•-u•

.

Sustltuyoodo esta oxprc.'lión en (3.3.10) y Uniendo en onenta quo O>/ IT

ft (;r.) "' {

si

1z 1-<. :rl2m,

O si 1z 1>11/i(I),

obtendremos

/,(y) =

{

l

si 1~, ,.., .,

O

si

n Va• - y•

IYl>n.

(~.3.t~)

tO'i El gráfico do esta densidad de probabilidad se muestra en la fig. 3.3.3. Tal ley de distribución se llama ley del arco seno. Esta ley se encuentra frecuontemente en los problemas prácticos como ley de distribución de los errores debido a las excentricidades de los limbos en los ··gonióu1etros f,fYJ y otros instrumentos de medida. ' Ejemplo 3.3.3. Para mostrar oomo se aplica la fórmula (3.3.4) en eJ caso general, cuando la función cp (:z) 110 es monótona on el inte:\lalo de lus \lalores posibles de la magnitud a.leat-Oria X, ex.aminemos el caso cuando Y=senX,

-a

a

y

y la rnagoi\ud nlcat-Oria X está uniformemente repartida en ol intervalo ::J::rt:

x) =

I1 (

Fig. 3.3.3.

{1(l:rt s~ lxl_,,,; ,.., O s1 1:r1 n .

>

Según (3.3.4} la densidad de probabilidad de la magnitud aleatorialY(se_determina por la fórmula 1t

/ 2

(y) = :n

J

_,,

o (y-sun x) dx .

Para cakular esta integral, d.ividamos Ja zona de integración en tres partes

-1(

l'ig. 3.3.4. tales, que la función Y=SOll :r=q>(r.)

sea monótona en cada una de ellas. Entonces obtendremos

f2 (y)=~

-~

[

.\

-n

cS (y -senz}d:r +

~

n

-nn

NZ

J O(y - senx)d:r+ ~ 6(y-sen:r)dxJ.

Hallamos las funciones inversas :cara cada parle de integración. De la fig. 3.3.4 se deduce que 'lj>, (y) = -n - are sen y si -1 .,;; y .¡;; O, "1i (y) = are sen y si - 1 .,;; 11 ,;;;; 1. "13 (y) = n - are son y si O ~ u .,.;; 1.

108

§ 3.3. Ltgu d• dlt1rlbució11 dt las /unclo11u

Hallem0$

l~s

derivadas de las funciones i nversas par a eada parte:

,¡.¡ - 1lli Cv>= -(t-ll'l- 112• l~Í (V) =(f-¡¡2)-1 12.

Suetit11yendo en las integrales las variables· respecttvnmeilto :i: = "'' ('11), :i: ... 'ljl 2 (11). :i . . ip3 (11), teniendo en cuflllta que. en esto c11so s~n :i: t¡, y aplicando las expresiones obtenidas para 11>> (:i:) , •ti (:r) ,y ~i (:i:), tendremos

=

=

f:
o

[J

1

6 (y- 'l) (i-•1'>- l /2¿ll+

_,

ó (¡¡ - T))(1 - TJ' )-l/ 2dti+

- 1

1

+ j cS(y -

t

i~

11)(1- 11'>- 112 d11J =

o

De aqul pal'a

J

[2

J"-

112

d11J.

-1 1y 1

<

1 hallamos /,(y)

Fuera del intervalo J y J < t, la den.sidad de probabilidad / 2 (y) es igual a cero, puesto que para 1 11 J > 1 Is lunci6n suhintegral en el último tnterválo es idénticamente Igual a cero en el intervalo de lntegraei6n. Ahora bien. la densidad do probabilidad de Ja magnitud aleatoria Y se determiDR por la 16rmula

/ 2(Y) = {

:-tVi-yZ si si

luJ< 1, 1y1 >J.

Ejemplo 3.3.4. La magnHud aleatoria X estii repartida unilormemo.nte en el intervalo (O, 1). Rallar laJoy do distribución de la magnitud aleatoria Y = X'. En vista de la monotonía de la función v cp (z) en el intervalo (0, 1), b don.sid8d do probo.bilidad de la uiagnitud aleatoria Y se puede determinar por la f6rmula (3.3.tO). Dado quo

=

x = 1~ (v)= VV. lji' (Y) =1 /2

para O < :r

<

1,

VY

y ft(:i:)= 1

ballarno~

( ) { 1 /2 -Vii si 1) < ¡¡ < 1, f2 y O si y<. O, V> 1. Ejemplo 3.3.5. Ln magnitud aleatoria X está repartida 1111iforrnemonte

0 11

el intervalo (- i , 1). Hallar la ley de distribución do la magnitud aleatoria Y-X'. En 11Ste caso la dependoneia ent re las magnitud es aleatorias no es reciproeament.e unívoca en la iona de los valores posibles de la magnitud X. Por eonsiguientc, no se puede aprovechar la fórmula (3.3. 10) y hay que reeumr a la. fórmula general {3.8.4). Puesto quo la magnitud aleator ia X está distribuida uniformemente on el intervalo (-1, 1), entonces, según la f6rmula (S.S.,). obtendremos 1

/ 2 (y)={

J6 - t

(y-z1) d:i.

104

Cap. iJ Jl1 ar:nttudes aleato,fos 1;ectorialcs

La lundón y = :>: es mouótona en cada uno da los intervalos (-1. O) y (0, 1). Por lo tanto, en el inoorvalo (-i , O) tenemos que % = 1P1 (y) = - -VY. .¡.; (y) = - 112-VY, y en el intorvalo (0, 1) .,,. (y) = 112-VU: :r •h (yl = Vil. Por eso , dividamos la zona de i ntegración en dos partes y cumplamos en la primera i11tcgrnl la sustitución d e las variables x = ip1 (1¡) y en la segunde , z = •l>z (1¡). Entonces obtendren1os 2

=

o 1r

.l2
_,

t

6(¡¡-1¡) 2

dT]

-v;¡

1r d11 +2 J 6 (y-1J) 2

-v;¡ =

o

1

1 \

= -:¡

i

6(¡¡-1¡)

111¡

1

l/lj = Z l/y

si 0


Por consiguiunte, la densidad de prohnbilidudJ de la magnitud aleatoria Y se determina 11or la fórmula

J2 (•)={

tril/Y 0

y

si Sr

O
y1 .

Ejemplo 3.a.6. Hallar la loy de distribución de la :roñal dó salida Y del olement.o no lineal en el ejem(llo 2 . 2. 1. Según Jos datos, la señal do salida Y ~.stó limitada en magnitud absoluta por el número a y es igual a l a se1i al de eutr.ada X cuando eoste último tiene el valor l•n Jos líroites (-a, u), es decir 11 si .Y>a. Yo: 1p (X)= X si IXJ..,;: a, { •i X

-a

<-a.

Tenicudo un cueuta que Ja señal de entrada X está uniformemento reparlida en el intervalo -2,Su 1

fi(y )= -¡;;

'·t j

<x<

1,5a, sogún In fórmula (3.3. 4), obtonemos

6(y - r¡>(x))clx=

- :!, (ta

,,, 4~

a

-e

[

)

Ó(y+u)d-<+

I -n

- 2 , ~a.

1

1,r.a

6 (y-x)d:i:+

J 6(y-a)dx] ~

a

3

i

.

= 44 11(!1+11)-1 (y-a)t+s li + 8 6 (y -a). ·: ..D.e un moQ..o absolutamen~e semeJante se d·e tetmina l a ley de d i~tripuci6r;i. ae.l .vector ale¡¡~oriQ y q1,1e represen.ta l a función de simple ·~alüación del .vector aleatorio X cuya densidad de proba-bilidait es·· conócida .· Supongamos qué las com¡ioneo.tes Y 1, .' •. , Y m del vector aleatorio Y son fu nciones de simple ' 'aluación de las componentes X¡, ... , Xn del vector aleatorio X: YJ = cp1 (X1 , • •• , Xn~ (/ = 1, •.. , m). (3.3.14)

§ 9 .3. Leyes de distribuciim de las /u11clones

Es necesario hallar la densidad de probabilidad t~ (y1,, •• . • ,-' y,n) del vector aleatorio Y, conociendo la densidad de probabilidad / 1 (xtt ... , xn) del vector ·aleatorio X. Para .resolver el problema planteado, hallamos pr.imeramente la densidad condicional de probabilidad del v~ctor aleatorio Y ·éón respecto a X . Puesto que para cualesquiera ' valores x 1 , • •• Xn 'd e las magnitudes aleatorias X 1 , • • • , X 11 cada una de las magnitudes aleatorias Y1 , • . . , Y m tiene, en virtud de las f6.rmulas (3.3.14j, solamente uu único valor y l a proba~ilidad de., est.e valor e:;¡ igµal a- la unidad,. entonces la d!)nsidad cohdiciónal de probabilidad· d'ei ·v ector aleatorio Y con respecto a X representa el producto de lasfunciones derta

/z (y,, · · · , Ym 1x,, ·. ·, x,,) =

n"'

;.;,1

Ó (Y1-'fJ (X¡, ••• , Xn)).

(3.3 .iS)

La "densidad conjunta de probabilidad de los vectores aleatorios X y Y, según la f6.rmula (3.2.19), es igual a f (x,. · · .. :e,., Yi. ... , Ym) = m

=fi(x,, .. .,xn)

lJ i3(Y1 i= I


(3.3.16)

Integrando esta igualdad con r~pecto a x 11 , • ., Xn y cambiando· la designación de la variable de integración, hallaremos, según la fórmula (3.1.19), fa densidad buscada de probabilid11d del voctor aleatorio Y: i2 (y¡, . .. , y,...,)=

=

""

""

j .. . Jt.

ll11 )

(11.i.

nO

(y¡-
(3.3.:17) Ahora supongamos que el número m de las magnitudes aleatorias Y 1 es igual al número n de las magnitudes aleatorias X 1 y que· la dependencia entre las magnitudes aleatorias X 1, •• ., Xn y Y 1 , • • ., Yn. os recíprocamente univoca. Este quiere decir que el sistema de ecuaciones v¡ =

q>J

(u 1 ,

•• .,

un)

(j = 1, . . . n)

(3.:3.18}

tie11e la solución. única en la zona de l os valores posililes de las magnitudes X 1, • • • Xn: u¡ = 'ljl ¡ (1J 11 •• ., v,.) (t = 1, .. ., n). (3.3.19) Al llevar a cabo en (3.3.17), para m. = n, Ja sustitución de l as. variaLles de integración valiéndose de las fóru1ulas (3.3.18). (3.3.19),. de acuerdo con la regla de :;ustitución de las variables en una integral

106

múltiple obtendremos /2 (¡¡¡ ..... Yn) = X

) · ;/ )

fr

ft('IJ.>1 (vi, · ·., v,,), .. ·, 'l\Jn (rJ1, ··.,!In)) X

O(y¡-v1) 1

;=t

.donde

8('ip ., .. ., "'"' it (u¡, . . ., v,.)

~
(3.3.20)

illjl1 (u11 . · · , "") iJv 1

°'1>1 (L'(•

011>1 lvh .. ., L'n)

Olj>z (u¡, ••. , u,.) ilv1

Olp.(v1, .. .,u11 )

81~,

· · · 1 Vn) iJv2

Dvu

Í)L•3

,11¡1,. (VJ> •.. , vn) iJ•~n (v., . .. , On

ª"•

íJtJn

(v1, •..• v,.)

i)lj>,. (vt> .... v,.)

º"•

ilvn

·es el jacobiano de las funciones (3.3.19) y B, la zona en el espacio •• ., v,. en la cual las fórmulas (3.3.18) transforman a todo el espacio de las variables U¡, •• ., u,. (en el caso particular, B puede coincidir con todo el espacio de las va1·iables v 11 •• ., v~). La integración en la fórmula ·(3.3.20) se puede cumplir aplicando la propiedad fundamental (2.2.6) de la función delta. 'Como resultado obtendremos

.de las variables v1 ,

/2 (y.,

· · · , Yn) =

"( = /( 1 'lr1 Yt.

) ·•( ))l<J(1p¡, .. .,1p,.)j . . ., y.,' . . " ~·n Yt. .. ., Yn il(y¡, .. .,yn) J'

(;)..3.21)

Aquí, al calcular el jacobiano, los argumentos v,, ... , v11 de los 'funciones ip1 (v¡, ... , v,.) deben ~er sustituidos por l as variables -correspondientes y 1, •• ., Yn· La fórmula (3.3.21) es válida. para todos los valoras Yt> .. ., y,. en la zona B. Fuera do la zoo.a B la ;densidad _de ,probabilidad / 2 (Yt> . . ., y11 ) es igual a cero. • Ejem¡ilo-;3.3.7. llallar las leyes de distribución d'e las coordenadas polares ,-Oe,.uil ;pllcl;l.to ,aléatorip <situado· Qn el plano, si las coordenadas rectangulares del

mismo tienen la densidad conjunta de probabiliqad / 1 .(x, y). . .. Designemos las coordenadas •polares (91 radio vector y el ángulo poi.ar) ¡:>or ..R . y O, O-<
-.con .el jacobiano : ~:; ~ = R. Aprovechando las dependencias obtenidas, presentemos Ja. expresión para la· densidad conjllllta do probabilidad de las ·~.fdenadas pola.res h (r, rp) en la forma • .

/,(r, rp)=/1 (x, y)

j 88(~;, ~) l=r/1 (rcosrp, rsen rp).

(3. 3.22)

a.

§ 3 .9. l4v<1

dislrlbución d• /u fum:lontJ

107

Por intcgnción de la última igualdad con respecto a cp y r couespondiento, hallamos la densidad do probabilidad del radio vector y del ángulo polar: 2n

t,;(r) = r

'"' (cp)-

J{ 1

)

rsencp)dq>,

(rC08q>,

r

I (3.3.23)

fi (r cos lj), r sen q>) r dr.

J

Si la densidad conjunta de probabil idad de las coordenadas rectangulares depende solamente del radio vootor. es decir, { 1 (z, y) =- / 1 (1/~ -

h (r). eotonces de (3.3.23) obtenemos

fr {r) = 2tcrh (r),

!

(3.3,24)

00

,.., (q>) =

rh (r\ dr = COOSt.

(3.3.25)

En el caso particular de una distribución normnl cfrculnr en el plano, cuando j

h (r) = inJJ ~

••

- 20

D ,

d& (3.3.24) y (3.J.25) hallamos

(3.9.26)

r•

l,l(r)=-lr , - 2D, 1

'·~ (cp) = :!:t .

(3.3.:t7)

Por c:onPiguiente, el radio vector del punl-0 aleatorio e,stá reparlido p-0r la ley de Rayleigh y la Jase está repartida uniformemente. Ejemplo 3.3.8. Hallar Ja ley do distribución de la amplitud y do l a fase de las oscilaciones a rmónicas nleatorias de frecuencia determinada X (r) =- U sen oot Z cos oor, (3.3.28)

+

si los coeficientes U, Z son independientes, normalme11le repartidos con iguales di spersiones D y con esperan us matemáticas iguales a cero. En el caso dado se puedo nproveohar directamente los resultados obtenidos eo el ejemplo anterior. En e!eclo, presentemos (3.8.28) en la forma X (1) = A seo (), (3.3.29) donde A = U1 z!, = arclg (Z/ U).

+

V

+

z.

Entouel!S la dent.3.30)

Por lo t~nto. la amplitud A de una 011Cilación armón ica aleatoria está distribu ida 'Jl(>r la ley de Rayleigh y la fose <J> está uniformemente repartida de modo

l08

Cap. 3 Ma¡¡nitud•s aleatoria• 1>er.torlale$

,,.

que 11

(l D f"a=

t

-w



t

(3.3.~·I)

/~ (
Por eso, en los problemas conc~rnientes a la radioté<:oic3, dondu es nt'ccsario examinar lrocuentemente las señales que representan o~cilaciones armónicas con amplitud y fase aleatorias, es la ley de Rayleigh la que se suele tomar oo calidad do IRy do distribución de la amplitud. EjeÍllplo 3.3.9. Hallar la ley de distribución de Ja suma de las magnitudes aleatorias (3.3.32) Z =X + Y, conociendo Ja hiy de distribución de los sumandos. Al sn.~tituir en (3.3.32) las magnitudes aleat.:>rias por

s>J~

valores posibles,

obtendremos

(3.3.33) z = z + y = 1f (x, y) Esla ecuación tfone le. solución única respec.to a cualquiera de las variables, :i;, IJ· Despejando en ella, por ejemplo, :i; hallamos :r = ; - y = 1j> (z, y). C'..omo en el caso dado tenemos u11a sola función i¡:, cnwnco.~ el jacohiano es igual a ~,/az = 1. Por e.so, aplicando la fórmula (a.a.t7), en el caso en <>1>estión teuuremos 00

JJ

1: (z).,,.=

(¡ (x, y) 6 (:-:r.-¡¡) d:i; dg =

-oo -oo

=

1

00

/¡(:r, z-z)dx-=

J

j¡(z - ¡¡.y)cly.

(3.:J.$4)

-oo

La segunda integral en esta fórmula se obtiene si en la ecuación (3.3.33) se despeja y en vez do :r. L11 fórmula (3. 3.3~) determina la ley de distribución de lo suma de l as magnitudes aleatoria~ X e Y tanto dependientes como independientes. C'..onviene seña.ln1· un importante caso particular cuando los sumandos X e Y son inde· pendientes. En este caso /1 (;¡;¡ ¡¡) = k (:r) l (y), (3.3.35) donde k (x) es la densidad de probabilidad do fa magnitud aleatoria X, 1 (!/} es la densidad de probn)iilidil.d de In mngñitud 'a)eat()ria Y. En este caso partícula~ la substitución de ia expresión (3.3.35) ch la fórmula (3.3.34) da comi> resultado

/~(:)=

..J

_..,

k(z-y)l(y¡dy=

J k(:i;)l(z-.tjd:r.

(3.3.36)

La integral de tal tipo se llama.de ordinario c<mvoluc!ón de las funciones k y l. Ahora bien, la densidad de probabiUdad de Ja suma de \1os magnitudes aleatorias independientes ropresonta la eonv9lución de las densidodes de probabilidad de los sumandos. La operación concerniente a la detl)rmínación d~ la loy de distribuc.ión de la suma .según las leyes de dis\ribución de Jos sumandos indep
§ 3.1. Momentos de un vector al•atorla

109

.recibido en la Teoda de Probabilidades el nombre de adi.cl6n. o co'¡11posicj6p da las leyes de dist ribución. Es evidente que de un modo absolutamente análogo se puedo obtener la ley de distribución de la suma de un número cuaJqui.era .de magnitudes aleato. r ias. En lo que se refiero ·a los sumandos 'independienteg, se puede procede( 'también del modo siguieot~: hallar la composición de las leyes de dist~ibución. de los dos primoros sumandos, luego h11llar Ja composición .de la ley de distrih.ll:' cióo de l a suma (lo los dos primeros y Ja ley meoCionada del tercer sumando, ·etc.

§ 3.4. Momentos de un vector a le atorio

Se llama momento de orden r+s de un vector aleatorio (X, Y) a la esperanza mate,mática del producto X"Y':

a,.

=

(3k1~

i'4 [X'Y'I

para cual esquiera .r y s enteros no negativos. Es evidente que en el vector aleatorio bidimensional existen k 1 momentos del orden dado k, es decir, t antos cuantos son los procedimientos que se p ueden emplear para partir un número entero positivo k en dos sumandos enteros no negativos. Para calcular los momentos de un vector aleatorio, valgiímonos de l a fórmula general para l a esperanza matemática de la función unívoca arbitraria , real o compleja, de l as magnitude11 aleatorias X, Y. En virtud de l a definición de la esperanza m atemática como valor medio probabilístico pesado; para determinar dicha esperanza de la magnitud aleatoria q> (X, Y) conviene multiplicar cada valor posible cp (x, y) de esta última por el elemento· de probabilidad correspondiente f (x, y) dx dy e integrar el resultado obtenido con respecto a todos los val.ores posibles x, y de las magnitudes aleatotias X, Y . Como resultado obtendremos

+

"' ""

M[(J'(X,' Y)J= ~

\ q;'.(x, y)'f(x, y)dxdy.

(3.4.2)

-oo -<»

Es fácil comprobar que en el caso en que la [unción q> depende sol amente de u no de los argumentos, la fórmula (3.4.2) da el mismo r esultado que (2.3.4). En efecto, si, por ejemplo, q> (X, Y) .... q> (X) no depende de Y, l a fórmula (3.4.2) da como resu ltado:

J J lf!(~:)f{x, y)dx dy =

00

Jlf[q>(X)l=

"'

=

Jq> (x) dx J f (x. y) dy . -oo

(3.4.3)

- oo

Pero, en virtud de (3.1.18), la integral de l a densidad conjunta de probabilidad de las magnitudes X, Y con respecto a y es igual

ttú

Cap. IJ Ma¡:r.twd« akatorias r;ectnrlults

..J

a la densidad de probabilidad de la magnHud X: /(:e, y)dy=f1 (x).

Por eso la fórmula (3.4.:J) se puede escribir en la forma

1ll ltp (X)] =

..J

q; (x) /,(r) dx,

lo c1uo demuestra la afirmacióu enunciada. Así pues, como era de esperar, la esperanza matemática de la magnitud aleatoria q> (X) calculada por diversos procedimientos con ayuda de diferentes densidades de pr obabilidad, ligadas con la magnitud aleatoria X , siempre resulta la misma. Suponiendo en la fórmula (3.4.2)


.....

a,. =

J Jx' y'f (x, y) dx, dy.

- oo

-

(3.4.4)

0)

811 particular. esta fórmula da los momentos a, 0 y a 0 , tlo las magnitudes aleatorias X y Y tomadas por separado. A.hora bien, los 1noment:os del vector aleatorio (X, Y); en los cuales uno do los índices es igual a cero, coinciden con los momentos de las componentes correspondientes del vector mencionado:

donde a~ y a~ son el momento de orden r de la magnitud aleatoria X y el momento de orden s de la magnitud aleat oria Y respectivamente. En particular, los momentos a 10 y a.01 :;¡011 iguales a las esperanzas matemáticas de las magnitud·es al eatorias X y Y rci¡pec,tiva, mente. De un modo semc¡aow se determinan "los momentos .ceutr&les s del vector aleatorio. Se denomina momento central de orden r del vector aleatorio (X, Y) a l n esperanza matemática del producto (Xº)'(yo)': .

+

(3.4 .5} dond e Xº .= X - m.,, Yº = Y - m¡¡ son las magnitudes aleatorías centrndas correspondient(ls. Para calcular estos momentos, supongamos ..;1 1e en l a fórmula (3.4.2) qi

(z, y) = (z -

m,,)' (y -

m~) ·.

.~

9.4. M()met1lo8·dtt

u11

vtttor aleatorio

Entonces obtendremos

µ,, =

1) ...

00

-oo

-GO

(x-m,,)'(y - mv)"f(x , y)d;cdy.

(3.4.6}

Suponiendo que en esta fórmula uno de l os indices r, ses igual a cero. obtendremos los momentos centrales de las componen-tes del vector ·aleatorio µ,o = fl~ , µo•= f.1.~·

En particul ar, los momentos centrales de ,segundo orden µz 0 y l'oa repre:ieutan hts dispersiones de las magpitudes aleatorias. X y Y~ µ20 = µ;' = D.,, µ02 = µr t:: D,,. Para los Cines prácticos tiene gran· importancia aquella parte. de la Teoría de Probabilidades que se limita a l a investigaéión de los momentos de primer y segundo orden de las magnitudes a leatorias. En lo que toca a la ley normal de distribución de la magni.tud aleatoria escalar, como hemos visto, para determinar por completo la ley de distribución es suii~iente conocer el primer momento de la magnitud aleatoria, es decir, la esper anza matemática, y el segundo momento central, es decir, la dispersión. Para las leyes de distribución distintas de la normal esta tesis puede no ser válida. Puede ocurri r que n o sea bastante ,el conocimiento de la esperanza matemática y de la dispersión p ara caracterizar por completo la ley de distribución. Pero, no obstante, l a dispersión caracteri za l a fluctuación de una .magnitud aleatoria. Esto ofrece la p osibilidod do limitarse en muchos problemas prácticos a la determinación de los momentos de primer y ¡:;egundo orden de l a magnitud aleotoria, haciendo caso omiso de la l ey de distribución. Para el vector aleatorio bidimensional existe, además de los momentos de segundo orden µ 20 y µ 02 , todavía el momento de segundo orden µ 11 • Este momento, que tiene unn importancia especial para los fines prácticos, se llama momento de correlaci6n o momento de enlace de las magnitudes al eatorias X, Y. Designaremos el momento de correlación de la.'l magnitudes aleatoriAs X, Y por kxy· Suponien do en la fór mula (3.4.6) r = s = 1, obtendremos par a el momento de correl11ci6n de lns magnitudes a leatorias X, Y In fórmu la siguionte: lrxM = ~LlJ = Nf [XºYºJ =

)"" J"" (x -

m,,,)(y - m 11)/(x, y)dxdy .

(3.4.7)

- oo - oo

E l ntOQl('nto do correlación de dos magnitudes aleatorias can1cteriza hasta cierto grado, no por completo, la dependencia entre est as magnitudes aleatorias. En efecto, el momento do correlación

Cap. 9 M agnitu4es alcaforias

t!2

ve~toriaLes

11s el análogo teórico del momento de correlación estadístico [§ 1.2, la fórmula (1.2.22)]. En el § 1,2 la intuición nos ha sugerido que el momento de correlación estadístico distinto de cero indica la existencia de cierta dependencia entre las magnitudes aleatorias. Por eso, es natural esperar que lM magnitudes aleatorias soan dependientes, si el momento de correlación de las mismas es distinto de cero. Las magnitudes aleatorias X y Y se llaman correlacionadas siempre que su momento de correlación sea distinto de cero. Las magnitudes aleatorias se denominan no ·correlac~onadas si su momento de correlación es igual n cero. Demostremos que las magnitudes aleatorias independientes nunca están correlacionadas. En efecto, supongamos que X y Y sean i ndependientes. Entonces su densidnd conj unta de probabilidad es igual al producto de sus de11sidades de probabilidad, y podemos escribir 00

kxy =

00

J J (x-mx) (y-m

11 )

-oo

-

/i(x) /2 (y) dx dy =

!IO

= ( J (x-m:r) / 1 (x) dx)

00

(

J (y -

mv) / 2 (y) dy) . (3.1.8)

l'cro cada una de eslas integrales es igual a cero como momcnlo central de primer orden de fa magnitud aleatoria correspondiente. Por consiguiente, el momento de correlación de las magnitudes ongamos que la distcibu·cj,6n\"de')a ·m,agnitud aleator!-a X es ·simétr-i ca con respecto al origen de· coordenadaS. En este caso m,, = O, y a un mismo valo.r de la magnitud Y le corresponden dos valores de la magnitud X iguales en w.agnitud abi¡oluta y de signos contrarios para lo~ cuales la densidad a·e prol)abilidad. tiene un mismó valor. Por eso, a cada elemento pósf~ivo de la integral (3.4.7) le corresponde un elemento 11egativo ig¡.tal,e¡i.magil:iiud. absol!l.ta. Por lo tanto1·en este caso, el momento ~e· correl¡icil!~ k,.11 es igual a cero, es decir, las magnitudes aleatorias X y Y no están correlacionadas. Ahora bien, aqui las magnitudes X

l13

Y. Y n o están correlacionadas a pesar de que entre ellas existe la dependen cia fUDcional. Se puede demostrar una afirmación todavía más general: si l!l distribución conjunta de las magnitu des aleatorias X, Y es simétrica por lo menos respecto a una de las rectas paralelas a los ejes de .c oordenadas y que po.sán pór el punto (m.,, m ), entonces el momento onde u n elemento negativo de igual magnitud abSóluta. _ A.si pues, para l as magnit,udes ·aleatoria~ con moment o:i. fi~itos ae segundo .orden, la noción de no corr elativ idad ·~más amplia que' I'a de in dependencia. Cuando decimos que las magnitudes aleatorias no están correlacionadas, superponemos en ellas limitacié>nes consi·ae~ rablemente menores que en el caso cu8.lldo decimos que ellas son independientes. La exigencia de independencia de las magnitudes es más rigurosa que la de no correlati vidnd. E n algunos casos es más conveniente examinar el momenlo de correlación normal o, como éste suele llaolarse, el coeficiente de correlación. Se don omina coefictenle de correl.actón de las magnitudes aleatorias X y Y la relación del momento de correlación de las mismas a la media geométrica de sus dispersiones : k"V

kzv

rxy= VoxDy - º"-ªu '

(3.4.9)

Ejemplo 3.4 .1 . Hallar el momento de eorrelacióo de !ns componontcs do un vect.or aleatorio rc.P.artido uoüormemeote en un rectángulo. Como la distribución conjunta de las com¡>Qnentes del vector aleatorio dispuesLo en el plano es sim~t.ríca con respecto a los ejes de coordenadas, entonces es evidente que m~ = m11 = {), kxv = O. De esto se puede convencerse llevando a cabo la coropro1>"ción directa. Por consiguiente, (vé&Be el ejemple, 3.2.1). laa componentes del vector aleatorio (X, Y) no solamente están no conelaclonadu sioo que son también i ndependieotee. Ejemplo 3.4.2. Hallar el momento de correlación de las componenl.es de un vector aleatorio unüormemente reparUdo en la eli)lSC. En virtud de la simetría de la distribución de probabilidades del vector aleatorio, esté. elaro que m,, = mv O, k,.11 =- O. Sin embareo. en el ejemplo 3.2.2 hemos descubierto que X e Y son dependientes. Asl -eucs, IA.s magnitudes aleatorias X, Y son dependientC3 pero no est&n oorrolac1onndas.

=

Si en la dofinición de la esperanza matemática y de la d isp.e rsión de una magnitud aleatoria, enunciada en el § 2.3 !las fórmulas (2.3.2) y (2.3.!>)I la densidad de probabilidad de l a magnitud aleatoria X se s ustituye por la dens idad condicional de probabilidad de X con respecto a cierto acontecimiento .tt o con respect o a otra magnitud aleatoria Y, obtendremos la d efinición de la esperanza matemática condicional y de la dispersiún condictonal de X con respecto a A o Y. Designaremos la esperan za matemática y la dispersión condicionales de la magnitud aleatoria X con r especto al aconteci miento A por • - tt88

Co.p.

a Ma¡;nltude.•

aleatorias 1;ectorlale..

lif IX 1 AJ y D IX 1 Al respectivamente. De un modo análogo designaremos la esperanza matemática y la dispersión condicionales de la magnitud aleatoria X con respecto a la magnitud Y correspondientemente por M [X 1 Yl y D IX 1 YJ. De un modo absolutamente igual que para un vector aleatori() bidimensional se determinan los momentos de un vector aleatorio con un número cualquíera de componentes. Le dejamos al lector que por sí mismo escriba las fórmulas generales y nos limitaremos a los momentos de primer y segundo orden. Los momentos. de primer orden do un vector aleatorio n-dimcnsional X representan las esperanzas matemáticas mx 1 , ••• , m"n de las componentes X., .... Xn . Esto da lugar a que la esperanza matemática del vect.or aleatorio X se defina como vector mx cuyas componentes son l as esperanzas matemáticas m,, 1 , • • • , m,.n de l1;1s componentes X 1, • • • , Xn correspondientes clel vector aleatorio X. Los momentos centrales de segundo ordcu del vector aleatori() n-dimensional X representan las dispersiones D,.1 , • •• , D,.,. y todo.s los momentos de correlación k;, 1,.2 , le"'"" ... , kx,._1' ,.11 de sus compommtes X 1, • • • , Xn. Suponiendo, para abreviar, que

kw = D"v' kvµ = kxvxµ(v, ~t= 1 , ... , n; V
(3.4.10)

obtendremos nt momentos centrales del vector aleatorio X que se pueden considerar como elementos de la matriz cuadrada *). ku kt2 • • • k1n 11 K = k21 k22 · • • k211 =JI kvµ knikn2 · · · knn

llv, µd, . .. , n•

(3.4.11)

Esta matriz se llama matriz de correlación uel veclor aleatorio X. Ahora bien, si se limita a los momentos do primer y de segundo orden del vector aleatorio X, éste se caracterizará por el vector de esp~ran~a matemática m., y por la matriz de correlación K. El momento de correlación de dos magnitudes aleatorias no deperide··evidenternente del orden en el que se toman estas magnitude5 (3.4.12) Así pues, los elementos de la matriz de correlación dispuestos con· respecto a la diagonal principal son iguales une> a 9tro, es decir, la matriz de correlación es simétrica.

sim~~r.icamente

•¡ So llam;! .matrli a un cuadro de números dispuestos en renglones v columnas. Si el númti.ro de renglon~s es'tgoal al de c<>lumnas, la matrir. se llama cuadrada. Si el número de renglones ne> ~s igua1 til de columnas, la ·matriz se llama reetai;igular. ·

f:tS

§ 3.5. Fund6rt característica 46 un r>ector altatorlo

§ 3.5. Función caracter ística de un vector aleatorio

La función característica de un vector ale·atoiio X con las ·componentes X., ... , X.,. se determino. por lil fórmula

· g(A.i. • . . , A.11 ) =M [exp {t(A. 1X1+ ••• +A.nXn)}J.

(3.5.1)

Cuando n = 1, de esta fórmula se deduce la definición de la función característica, de una magnitud aleatorla escalar, enunciada. en el § 2.4. Aplicando la fórmula (3.4 .2) (más exactamente, su general.i~a­ ción referente al vector aleatorio n-d imensional) para el cálculo· de la esperanza m atemática, obtendremos la siguiento·expresión para la función caract.erí.l;t.icn del vector aleatorio X:

J ... J exp 00

g (?-.i, . . • , A.n) =

- oo

{i (A.1x 1+

. .. + A.~••n)} X

- ao

X

f (x1 ,

••• ,

Xn) dx, ... dx,..

(3.!i.2)

Dado que la densidad de probabilidad de un vector aleatorio, debido a sus 11ropiedo.des princi1>ales (3. 1.15) y (3.1.16), es una función integrable no negativa, se puede presentar dicha densidad por l a . integral de Fourier /(x1 1

••• ,

Xn) = (i!)n

r... r

dJ..t ... di..,.

-oo

5.. · )/(~¡,

. · ·,

~n) X

-oo

-00

xexp{ip. 1 (~1 - x1+···+A.n(~n-Xn)J}de1 .. • d~,.

(3.G.3)

1-'ero en virtud de (3.5..2)

j ··· - oo

r/(~t. ··. ,

Sn)cxp{iP.dsi--X1)+ · · .+A.n (su-Xn)J}

-oo

X

+ ... +

X ds1 ••• d~n = exp { - i (A1X1 A.,.xn)} g (J.. 1, ... , An). Por eso la fórmula (3.5.3) se puede presentar en la forma

f (X¡ .

. . . . Xn )

=

(:.!~)»

00

00

-oo

-oo

J ... 5 exp {-

i(A1X1

+ ... + ArrXn.)} X

X g (A.¡, • · • 1 t .n) d'l-.1

. .• dA.n.

(3.5.4)

Esta fór mula enuncia l a densidad de probabilidad del vector aleatorio por medio de la funci ón caraclerística del mismo. Ahora bien, la función característica puede servit de característica probabilística completa de un vector aleatorio. Conc;icicndo la función característica, se puede hallar, por la fórmula (3.5.4), la 8*

116

Cap. 3 Magnitudes aleatorias <'tctorialu

densidad de probabilidad del vecwr aleatorio y, por consiguienta, la función de distribución del mismo. Las fórmulas (3.5.2) y (3.5.4) muestrau que la funaión característica del vector aleatorio es la transform ación de Fourier de su densidad de probabilidad y esta última es la transformaci ón inversa de Fourier de la función característica. Conociendo la función característica del vector aleatorio, se puede determinar fácilmente los momentos del mismo. En efecto, al derivar la fórmula (3.5.2) k 1 veces con respecto a A.,, k 2 veces con respecto a ~. etc, k,. veces con respecto a A,., obtendremos*)

~1+ ...1t +hng().1' ~

. . . , /..,.) Jt.

o).¡' {})'21 ..• 8~-n·

X exp {i (A. 1x1

" +. . . +1'n

""J

.= i •

- oo

. • .

"° )·•

__,, ~ X ;.r; ¡ • • •• x nn.

_..,

+ ... + AnXn)} f (xi. . . ., x,,) dx, . .. Xn) dx , ... dxn. (3.5.5)

Suponiendo quo aquí A. 1 = ;,2 = ... = }.,,.

(et•+· .. +~ g 11

t

""~'oí..~·

¡k1+. .• +J
(kit . . ., k.,

=

= O,

obtendremos

(í..1o •• ., An) ]

. '. d'>J;."

o

(3.5.6)

1, 2, . ..),

donde el cero significa que, una vez efectuada la derivación, hay que admitir que /, 1 = ?..2 = . . . An = O. De un modo absolutamente semejante se puede ex¡mis.a r los momentos centrales del vector aleatorio mediante la iunción característica del mismo. Con a~ruda de las fu ociones carncter.ísticas se puede resolver el problema de determinación de las leyes de distribución de las funciones de las magnitudes aleatorias, examinado en el § 3.3. Examinemos primeramente una magnitud aleatoria escalar Y enlazada con otra magnitud aleatoria escalar X por la dependencia funcional y ='P (X), (3.5.7) donde q¡ es una función unív.oca !ll'bitraria. En virtud de la definición, la función característica de la magnitud aleatoria Y se expresa por la fórmula

o bien

..

ga(i..)~ ~ ~X)/i(z:)dx,

(3.5.8)

•) Clar.9 está que la f4r.mula (3.5.2) se puede derivar .sol~~ente en el C!iSO de que )as integrales, obten1d6!! como resultado de la der1vae1on, se conver¡an úniforme'aiei:i~· es decir, si' ·e·J'.isten los momentos correspondientes del vector

~~·

'

H7

§ 9.5. Funcl6n caracterf$ttca de un wctor olealorio

.¡aonde ft (x) es la densidad de probabilidad de la magnitud al eato-1i'ia X. Al tomar la transformación invérS'a de 'Fourler, hallaremos, ,según la fórmula (2.4.3), l a densidad de probabilidad de la magnitul!, aleatoria Y: 00

!2 (y) ""' 2~

Je-l1..ug2 (A.) dA..

(3.5.9)

-oo

De uo modo análogo se h allan, con ayuda de l as funciones característ icas, las leyes de distribución de l as funciones vectoriales de las magnitudes aleatorias. Si las co~ponentes del vector aleator io Y son las fwlciones univocas conocidas de las componentes del vector aleatorio X: Y-'= QJ11 (X., .. ., Xn) (k = 1, •.. , >n), (3.5.tO) entone~

la función característica del vector aleatorio Y se define por la fórmula

Kz (A.t, • • · , A.,,,) =

..J J..

- oo

exp {i IJ..iipt(x.,

.. ., Xn) + ...

-oo

+ J..,,.q¡,,. (xi. •.• , .Zn}J} f,(x.,

... , .Zn) dx1

•••

dx,.,

(3.5. 11)

donde f 1 (xtt ... , xn) es la densidad de probabilidad del vector aleatorio X. Al tomar l a transformación inversa de Fourier, hallaremos la densidad de probabilidad del vector aleatorio Y: 00

t~ (Ys.

• • ·, Yrn) =

(2 ~)m

..

J ·.. J exp { -

i(A.1!11

+ .. · + AmYm)} X

-oo

X Ka (A.,, • • ·, A.,,.) clA.1 • · • dA.m.

(3.5. 12)

Las fórmulas (3.5.11) y (3.5.12) resuelven por completo el problema pl anteado. Ejemplo 3.5.t. Hallar la ley do distribución de la suma de dos magnltudea aleatorias independientes uniformemente repartidas cuyas esperanzo maternátleu son iguales a e.ero. En esto caso ténemos una sola magnitud aleatoria escalar Y que roptG19nta la suma de las componentes del vector aleatorio bidimensional X:

Y= X,+

X1.

Las densidades de probabilidad de las magnitudes aleatorias X, y X r se determinan correspondlontemonto por las fórmulas 1 1 ( )- { 1/212 si 1;r, l <; o, ' O si 1;rl 1 a,

z, -

1/2b si h,(.>:.)= { O si

>

l z 1 l < b. jz2

I>

b.

H8

L~cloriales

Cap. 3 M ag11itiidts aleatorias

La donsidad oonjuota de ¡irobabilidad do las magnitudes aleatorias X, y X 2 es igual al producto de las densidades de probabilidad de las mismas. Aplicando la fÓl'm11la (3.5.H), hallamos la función característica de la magnitud aleato· ria Y: •

/!y (l.)=

b

..!b J dx1

)

-a

-b

eil.(x 1+"•l tb:2 =

J =Tab •

J



1

b

l)..:(¡

dJ:

-a

sen A.a sen j.,b abl..2

e'f.x• dx.,

J



-b

Luego, según la fórmalu. (3.5.12), hallamos la densidad de probabilidad de la mAgnitud aleatoria Y:

..,

fd11)=

~(!/)

t = 21111b

.. f .l

.:oo

2~

J . -v.ugy

{Á) cli>.=

- oo

e

- i~Y

sen 1..a·sen }.b áJ..= 1,.2

00

-a-b - la-61

O

la - 61 a+6 y

1

=21iai}

\

J

__;_ s.

cos?..¡¡.senl..a·sen/.;b áJ ?,.2

A-

- oo

Fíg. 3.5.1.

:lJ\ab

sen Áy·se11 Áa·sen Ab A.

d1'..

!'ero la última integral es igual a cero oomo integral en límites simétricos de la fnnci6n impar. Al mismo tiempo, l a prin1ora integral, como Integral en límites simétricos de la función par, es igual a la integral doblada en los límites desde O basta oo. Por oonsiguiente, /,(y)= n~b

.J

cos i,y . se~¡.a·Sl•n M d1' =

o 00

= 4:ab

J[cos(a- b+y)t.-cos(a-b-y)l,cf>..

De aqili,

11:Pli~ndo

-cos (a+b+11). A-cos(a+b-y) A) 12'' la fórmula conocida

he.liamos 1

/2(Y)= Sab ( la·+b+Yl+la+b ·-yl-[a-b+y 1-la-b-y( ).

El gráfico de esta densidad de probahilídad se muestra en la fig. 3.5.1.

§ 8.6. T.t.y n orrndl b/;llmc111lo11al dt dulrLbu
119

§ 3.6. Ley norma l bidimensional de distdbucl6o

La densidad de probabiUdad del vector aleatorio (X, Y) bidi· mensiona l normalmente repartido se enuncia, en el caso general. por la fórmula

---

f(:r:, y)aa V•u~-cJ, exp { -{-lc:u (z- a)'+

+

2c12 (z-a)(¡¡-b)

+en (y-b)2J} ,

(3.G.i)

donde lns magni~udes e, .. c 22 y ei 1c22 - e!, son positivas. Hallemos la ley de distribución y las leyes condicionales de distribución de las componentes X y Y de este vector aleatorio. Según (3.1.18), la densid11d de probabiUdnd de la magnitud alealorin X se expresa por la fórmul:I

/,(x) -=-

Y• 11~~·-ii=

r

cxp {-{-1c11(x-a)2

+

-oo

+ 2c:z (:r:-a) (y-b) + en (y -

b):I} dy ...

= V •11•u2n

•f1 oxp { - .!.c11 (z-a)' \ X

..

{-{-¡2c,i(z-a)v+c~u2 1}

.

X

_}

exp

J

2

dv.

(3.6.2)

Para el cálculo de la integral obtenida apliquemos Ja fórmula eo

I e"'_,..,~ dt = -~e

.,s

.= .

41

<"·6.3>

-oo

cuya deducción se expone eu el suplerueuto !(fórmula (1)1. En vi rtud de Ol!tA fórmula.

r.. -+

_

exp {

f2c,dx-a) v+ c211Pt} dv = = , / 2.:i exp { c}, (z-a~}. V cu 2t1:

(3.6.4)

Susti\uyendo esta exp!'e$ión en (3.G.2), obt.en
f, (x) =J./
cllc:;:cr. (z-a)'} .

(3.6.5)

Com parondo esta fórn111l11 con l a expresión (2.5. 12) de la dcusidDd de probaliilidaJ normal unidiruensionnl, vamos que la componen-

120

Cap. 3 M ag11itudea alea!Qrlar vectoriales

te X del vector aleatorio bidimensional normalmente repartido (X, Y) también está distribuida normalmente; en este caso la espe.ranza matemática y la dispersión de dicha componente se determinan por las fórmulas

m ,,=a,

Dx

(3.6.6)

En virtud de la simetría, la densidad de probabilidad f 2 (y) de la magnitud aleatoria Y se expresa por la fórmula análoga a (3.6.5):

el( {- CuCaz·-cf, I 2 (Y ) =-,V/ C11Ci2-C~. 2cun P 2cu

(

y

-b)2} •

(3.6.7)

Al comparar esta fórmula con (2.5.12) resulta que la esperanza matemática y la dispersión de la magnitud aleatoria Y Re definen por las fórmulas (3.6.8) Pata determinar la densidad condicional de probabilidad de la magnitud aleatoria X con respecto a Y, apliquemos la fórmula (3.2.8). Sustituyendo en ella las expresiones (3.6.1) y (3.6.7), después de simplificar obtendremos

/1=(z !y)= =

·v~

exp

{-ir

C11

(z-a)ª+ 2c1z(X-a}(y-b) + ::: (y-b) 2 ] }

o bien 11(.e1 Y)= V ~~ exp { -

'~1

[

x -a+

;;~ (y-b) ]2}.

(3.6.9)

Ú:na fórmula semejante se obtiene para la densidad condicional de probabilidad de la magnitud aleatoria Y:

/2{ylz)=V;: exp

{-e~ [y-b+ ;:: (z-a)J2}.

(3.6.10)

Comparando las fórmulas (3.6.9) y {3.6.10) con la expresión general (2.5.12) de la densidad de probabilidad normal unidimensional, .llegamos a la conclusión de. que la ley condicional de diStribución de cada com,Ponente del vector aleatorio normalmente repartido es también normal con ·respecto a la otra componente; con ello, las esperanzas matemáticas condicionales y las dispersiones condicionales de las componentes X, Y del vector aleatorio (X, Y) se definen

12t

§ 9.6. Le¡¡ 11orm4l bidimensio11al de dUtrlbuctón

por las fórmulas

M(Xiy)=a- ~:~ (y- b), D(Xlyl=c~i' M[YlxJ=b-~(x-a) . D(Ylx)=-Cz-i1- . \Ci2

l. . ¡·

(3.6.11)'

. Al comparar las expresiones (3.6.5) y (3.6.7) de la,.s densidades.de probabilidad no condicionales con l as (3.6.9) y (3.6·.10) de las densidades dé probabilidad condicionales· de l as componentes de. un vector aleatorio normalmente repartido, se· desprende que eSias .~omp-0néntes son por lo común magnitudes aleatorias dependientes. Y soJamente en caso en que c12 =O, las componentes de un vector aleatorio bidimensional normalmente repartido son indepen!lientes. Démos la interpretación geométrica de los resultados obtenidos. La ecuació·n c11 (x - a) 2 2c12 (x - a)(y - b) c 22 (y - b)' = 2k2• (3.6.12). cualquiera que sea el valor k, es la ecuación de la curva central de -segundo orden con centro en el punto (a, b). Como el discriminante D = c 11c22 - e~. es positivo, entonces esta curva representa una elipse. Si se considera k como parámetro, a la ecuación (3.6.12) le corresponde una familia de elipses concéntricas semejantes. En todos los puntos de la elipse correspondiente al valor dado del parámetro k la densidad de probabili.d ad f (x, y) tiene un mismo valo1"

+

+

igual a V~ e-11.•. Al alejarse del centro de dispersión, es decir, al aumentar el parámetro k; la densidad de probabilidad disminuye .. Debido a esto, la distribución de los valores posibles de un vector aleatorio bidimensional se puede representar geométricamente pol"' una famHia de elipses concéntricas semejantes cuya .espesura dismi· nuye, al alejarse del centro de dispersión, proporcionalmente a la magnitud e-1ti. Tal cuadro de la dispersión en el plano, subordinada a la l ey normal, se llama díagrama de dtsperst6n . L a ecuación x=a- ;;~ (y'-b), (3.6.13)· que represenla gráficamente la dependencia de la esperanza matemática condicional de la magnitud X del valor y de la magnitud Y es, como es sabido de la teoría general de l as curvas de segundo orden, la ecuación del diámetro de una elipse (3.6.12) conjugada con la dirección del eje x. Este diámetro divide en dos partes iguales a todas. las cuerdas de la elipse y corta a la elipse en los puntos en los cuales. las ta ngentes a ésta son paralelas al eje x (fig. 3.6.1). De un modo absolutamente análogo la recta

y = b-.:J.!.(x-a), Cz2

(3.6 .14)

que refleja la esperanza matemática condicional de la magnitud Y

Cap. 3

122

"1axnUud~1

akatqrltJ.t rutorln/,.

en función del valor x de la magnitud X, es el diámetro clel diagrama ·de 1lispersión conjugado con la dirección del eje y. Esta recta divide .eu 1los partes iguales o todas las cuerdas de la elipse, paralelos al eje y, y corta a Ja elipse en los puntos en los Y q r cuales l as tangent.es a esta últ.ima son paralelas al eje y (fig. 3.6.1). La recta (3.6.13) que representa l n dependencia de Ja esperanza matemática condicional de la magn itud X del valor y de la magnitud Y se llama linea de regresión de l a magnitud aleatoria X a Y. Análogamente la recta (S.6.i 4) so Uama línea de Pig. 3.1.i.1. regresión de la magn itud aleatoria Y a X. Como es sabido de La teoría de las curvas de segundo orden, los ángulos de inclinación de los ·(•je~ del diagrama de d ispersión (3.6.12) con respecto a los de coor·d('n;idns se de terminan por la fórmula t<> 2A -- 2.!L ..... cu-cu.

(3.6.15)

De aqui se ve que las componentes de un vector bidimensional norma lmente repartid o son independientes precisamente cuando, y solaniente cuando, los ejes del diagrama de dispersión son paralelos a los ejes de coordenados. Hallemos ahora el momento de correlación de las componentes X , Y del vector bidimensional , aleatorio norma lmente repartid o (X, Y). Sustituyendo en la fórmula (3.4.7) la expresión (3.6.1.) .Je la densidad normal de probabilidad, teniendo en cuenta que l as -esperanzas matcmáLicas de las magnitudes aleat orias X y Y son iguales a a y b respectivamente, y cambiando las variables 1• = x - a, v = y - b, obtendremos k "V -= 1/c11c11-ci-: 2'"\ X

..

..,

X

J J uvexp { - -}[cuu'+ 2c13u11+c21v~1} dudv. -oo

-

(3.6.16)

(IQ

l?ara cumplir primeramen te la integración con respecto a 11, añadiremos los tér111inos en el exponente que contienen v hasta que se -0btenga un cuadr ado perfecto. Para esto conviene adicionar y restar -en el exponente la magnitud cJ, u1 . E ntonces obtendremos

k:xy -

.. Vcu~~-cl, J -oo

en

¡¿ exp

{-

cuc~;c¡, u'} du X

§ 9 .6. Ley normal bidimef1SÍOlloJ de di•trihllcl6n

..A.l sust.ituir las variables t tendremos

=

v

+ c,i u

X

J (t -

C22

123

en la integral interior,

00

:::

u) exp { ~~t~} dt

-oo

o, valiéndose de las f6rmuJas (2.5.2) y (2.5.3),

Ahora, aplicando la f órmula (2.5.4), obtendremos k

_ xu-

-V2ñtf.

., /cuca - ch cu

-v

Despu.;s de efectuar las mos dcfi11iti vamcnte

2ncu

-;;;;- V(c11c22-cf~)3 .

simpliíica·~iones

correspondientes, obtendre(3.(i.17)

k:r:y=

Esta fórlltula muestra que las componentes de un vector aleatorio hidimensional normalmente repartido están no correlacionadas si, y sólo si c12 = O. Pero ahteriormente vimos que la igualdad c12 = O es necesaria y suficiente para que las componentes de un vector aleatorio bidimensio1111l normálmente repartid<> sean independientes. Ahora bien, las componentes de un vector aleatorio bidimensional normalmente repartido están no correlacionadas precisamente si, y sólo si , son independientes. La segunda fórmula de (3.6.6), la segunda fórmula de (3.6.8} y la fórmula (3.6.17) se pueden considerar como ecuaciones con las incógnitas c11> c12 y c2 2 • P ara resolver estas ecuaciones, multiplicaremos miembro a miembro las segundas fórmulas de (3.6.6) y (3.6.8) y de la fórrnula obtenida restaremos la fórmula (3.6.17) ~levada al cuadrado. Como resultado obtendremos DxDll -k!~ =

f Ct JC22 -

• .

C1t

(3.6.18)

Dividiendo por esta fórmula, miembro a miembro, la segunda fórmula de (3.6.8), la segundn fórmula de (3.G.6) y la fórmufa (3.G.17),

C1tp. IJ Ma¡!.11i/ud;:s aleatortas vedtwlalts

124

después de simplificar, obtendremos Du

Cu= D,,p~- kh C12

=-

DxD:x:.. k';,v D,,,

C22=

J1

'

D,,,Dy - k~v .

'

f

(3.(i. Hl)

1 )

Así pues, basta conocer las dispersiones y el momento de correlación de las componentes de un vector aleatorio bidimensional normalmente distribuido para determinar por compl eto todos los coeficientes en la expresión de la densidad de probabilidad del mismo. Es evidente que no es suficiente conocer solamente las dispersiones D"' y Dv para determinar la densidad conjunta de probabilidad de las magnitudes aleatorias X, Y. Por consiguiente, como muestra el ejemplo de las magnitudes aleatorias normalmente repartidas, no basta conocer l as densidades de probabilidad de las magnitudes aleatorias, tomadas por separado, para determinar su densidad conjunta de probabilidad. Sustituyendo las expresiones (3.6.19) en la fórmula (3.6.1) y teniendo en cuenta que las magnitudes a y b representan l as esperanzas matemáticas de las magnitudes aleatorias X, Y respecti vamente, obtendremos t

f(x, y)= 2lt YD X D y - ki:Cl/ X X

exp { -

Du (r- m,,,) 1 - 2kxv (z-mx) (y-m 11)+Dx (y-m11) 2 } . Z(DxDv-khl •

{3.6.20)

§ 3.7. Magnitudes aleatorias complejas Ha¡¡ia. ahor~ hem¿s examinado solan1eute las magnitudes aleatoreales, ,lo que ~ suficiente para las aplicaciones prácticas. Sin 4m.bargo, durante la determinación de las funciones características de las· magnitudes aleatorias reales ya hemos encontrado las magni~u¡ies aleatorias .complejas Y = el1'X y Z = et(¡.,, X1+· · · +¡.nXn). Así pullS, en la Teoría de las Probabilidades conviene examinar no solamente las magnitudes ale¡1torias reales sino también las complejas. En los capitulos ulteriores, al estudiar la teoría de funciones aleatorias, tendremos que calcular las esperanzas matemáticas, dispersiones y momentos de correlación de l as magnitudes aleatorias complejas. Por eso deberemos extender las nociones de esperanza matemática, dispersión y momento de correlación a las magnitudes aleatorias complejas. Se llama magnitud aleatoria compleja a tal magnitud aleatoria cuyos valores posibles son números complejos. La magnitud aleator~as

§ 3.7. Magn.lludu altat<Jrla• compleja.•

ria oompleja Z se puede representar en l a forma Z = X+ iY,

12:">

(3.7.1)

=

Donde X y Y son magnitudes aleatorias reales e t V - 1. A un conjunto cualquiera de valores posibles x, ¡¡ de Las magnitudes aleatorias X, Y l e correspon de un número complejo z = x + ly que es un valor posible de la magnitud aleatoria compleja z. Considerando l a magnitud aleatoria compleja como función do dos magnitudes aleatorias reales X , Y, se puede aprovechar la fórmula (3.4.2) para el cálculo de la esperanza matemática de la inagnl· tud aleatoria Z. Como resultado oblendremos

.....

il{(Z ) = )

) (x-ly)f(x, y)dxd¡¡=

-oo -oo ...

~

00

J J xf(x, y)dxdy+i ~ l yf(x, y)dxdy

-oo - oo

o bien

-OQ

-co

M [ZJ = M [XJ + iM IYJ.

(3.7.2)

P ues bien, la esperanza m atemática de una magnitud aleatoria compleja es igual al n ú mero complejo cuyas partes real e i maginaria son iguales respectivamente a las esperanzas matemáticas de l as partes real e imaginaria de esta magnitud. Al hacerse extensiva la noción de dispersión a las magnitudes ale11t.orias complejas, es natural que se t iende a conservar la propiedad pl'incipal de la dispersión: la positividad esencial. De acuerdo eon esto, se llama d ispersión de la m agnitud aleatori a compleja Z = X iY a la esperanza matemática del cuadrado del módulo de la correspond iente magnitud aleatoria centrada: D lZI = M [ 1Z - m, 12 1 = M 1 1ZO 12 ). (3.7.3)

+

zo

Teniendo en cuenta que 1 1 s = (Xº)~+ (Yº) 2 , se puede escribir D [Z) = M l(Xº) 2 (Yº)' I.

+

Pero, como veremos en el párrafo siguiente, la esperanza matemática de l a suma de magnitudes aleatorias es siempre igual a l a suma de s us esperanzas matemáticas (el teorema de adición d e esperanzas matemáticas). Por eso D [Z) = M ((Xº)'l M [(Yº) 2 1.

+

El primer sumando del segundo m iembro representa la dispersión de la magnitud aleatoria X y el segundo s umando, la dispersión de l a magnitud alea t oria Y . Por consiguiente, D !ZI = D lXI D lYJ. (3.7.4)

+

120

Cap. 11

Ma11n l1ud~1 al~atoria•

wr.Jorlal.,

Ahora Lien, la dispel'Sión de una magnitud aleatoria cou1pleja esigual a la suma do las dispersiones de las partes real e imaginaria de la misma. De la definición del momento de correlación (3.4. 7) de una mnguitud aleatoria rea l se deduce que el momeuto do correlación
se determina por la fór1uula k,.v

=

M

IX6Y0 J.

(3.7.13)

En el caso par.ticular cunndo so trata de las mngnitudes aleatorias reales X y Y, est a deíinición del momento de correlación coincide con la dada en el § 3.4. El momento de correlación de las magnitudes aleatorias complejas se puede expresar por medio de Jos momentos de correlación de las partes reales e imaginarias de las mismas. En efecto, de acuerdo con el teorema de adición do las esperanzas matemáticas M

[XºYºI=M [(X1+ iX!) (}'~-iY~)J =

+

= 111 tX~Y11 M [X~l'~J +M { tX~Y~j - JI f iX~Y~I · Pero, como veremos en ol párrafo siguiente, la magnitud constante se puede sacar del signo de esperanza matemática. l'or eso, sacando del silzno de esperanza matemática la unidad imaginaria i, obtendremos M

IXºYºJ =

M

rx1Y:1 + M rx:v:1+ iM r x:)'~I- iM [X~F;¡

o bien (3.7 .7)

Hemos deducido las fórmulas (3.1.4) y (3.7.7), valiéndonos de cie.r tas propiedades de las esperanzas matemáticas que se est8'blecerán en '81 párrafo siguiente. Está claro que luego, no debemos aplicar las fórmulas (3.7.4) y (3.7.7) al demostrar las propiedades de las esperanzas matemáticas. Para evitar la confusión, convengamos en que en lo sucesivo exam¡naremos, como regla, las magnitudes aleatorias reales y siem_pre ind,clU'emos especialmente cuando se t rate de las magnitudes aloatorlas complejas.

§ 8.8. PropiedadeG de las e$peran:M matemáticas

127

§' 3.8. Propiedades áe las esperanzas matemáticas

Estudiemos a.hora las propiedades. fundamentales de las esperanzas matemáticas. En .este caso, para la universalidad, consideremoS· que las magnitudes aleatorias que se examinan y todos los números.· .que se encuentran pueden ser t11nto realeS 1¡omo complejos. Esto nos. éoncederá el derecho d~ aplicar iodas las fórlJ1ulas obtenidas a la,smagnitudes· aleatorias complejas, lo que necesitaremos en Jos capítulos sucesivos al estudiar l a teoría de las funciónes aleatorias .. La esperanza matemática de cualquier, magnitud no aleat.ori'a: es igual a la propia .magnitud M (e]

=e,

(3.8. 1')1

En efecto, la magnitud llo aleatorja e tiene un solo valor posible cy la probabilidad de que tome este valor es igual a la unidad. l)or eso, aplicando la fórmula (2.3.1-4), obtendremos precisamente Ja fórmula (3.8.1 ). La esperanza matemática del producto de una magnitud no aleatoria por una aleatoria es igual a l producto de la primera magnit\ldi por l a esperanza matemática
=

cM IZJ.

(3.8.2)>

Con otras palabras, la magnitud no aleatoria se puede sacar doL signo do esperanza matemática. En efecto, MlcZJ=

j j c (x + iy)f(x,y)dxdy= =ac r j (x + iy)f(x, y)dx dy = d11Zl-

-co -oo

-oo

-!);,)

La esperanza matemática de la suma de las magnitudes aleatorias. es igual a la suma de sus esperanzas matemáticas M

rx + Y] = M

[XI

+M

[Y).

(3.8.3)'

Primeramente demostraremos estu propiedad para l as magnitudes aleatorias re<Jlcs. En este ca~o , en virtud de la fórmula (3.4.2)> M[X + YJ=

.... J)

(z -t-y) f (x , y)dxcly=

=

j j xf (x, y)dxdy+ r j yf(x, y)dxdy.

-oo -oa

-oo -oo

i28

Co¡>. 3 Ma¡¡nitud,. nleatorltu Vtctoriak1

Ac.¡uí ol prírncr sumando representa la espera.oza matemática do la magnitud aleatoria X y el segundo, lo. esperanza matemática de l a magnitud aleatoria Y. Así pues, para las magnitudes aleatorias reales la fórmula (3.8.3) queda demostrada. Supongamos ahora que X y Y sean magn itudes alea torias complejas: X= X1 iX 2, Y= Y1 tY2. (3.8.4) donde X,, X 2 , Y 1 y Y 2 son magnitudes aleatorias reales. En virtud de (3. 7. 2) tenemos

+

M IX

+ Yl =

M IX1

+

+ Y + i (X2 + Y2 )1 = IX1 + Y 11 + iM IX 2 + Yil· 1

(3.8.S) Puesto que para las JI1agnitudes aleatorias reales la fórmula (3.8.3) ya ha sido demostrada, entonces = M

+ Y,l + Y21

M [X1 M IX2

= M = M

rx,J + M IY1l. IX 2 l

+M

IY2 1.

Sustituyendo estas expresiones en (3.8.5) y volviendo a aplicar la fórmula (3. 7 .2), obtendremos lvf IX+ YI = M lXd M 1Y1l + t{M (X 2 1 + M IY2 1} = ""'JVf !Xi!+ iM IX 2 l + M IY1 J + iM !Y2 l = = /11 IX 1 + tX 2 l + M IY1 iY3 J - M IXl + M IYI, (3.8.6)

+

+

que es lo que se trataba de demostrar. Asl pues, la fórmula (3.8.3) está uemostrada para cualesquiera magnHudes aleatorias. Valiéndose del método de la inducción matemática, esta propiedad de las esperan~as matemáticas puede hacerse extensiva a cualquier número de magnitudes aleatorias reales o complejas Z 1, Z:, . .. , Zn: n

n

vcl

v=al

M I ~ Z,,]= ~ M[Z..J.

(3.8.7)

Las fórmulas (3.8.3) y (3.8.7) enuncian el t eorema de adición de l as esperanzas matemáticas: La esperanza matemática de la suma de ·magnitudes aleatorias es igual a la suma de sus esperanzas mate,máticas. La esperanza matemática de un11 función lineal de h1s aleatorias (3.8.8) es igual a la misma función de las esperanzas matemáticas de estas magnitudes: n

mu= , .L: a,,m, V + b. _,

(3.8.!l)

§ 8.8. Propiedo.de.s d.e. lo.s c.
En efecto, según las propiedades deducid.as de las espera uzas matemáticas 1t

n

v= t

\'=1

M IU! = M [ ~ avZv+ b) = ~ M [a..,Zv) + Jf [b) =

n

2J

v~t

a,,,M JZ,,J +b

q1.1e es lo que demuestra la fórmula (3 .8.9) Supongamos ahor a que X e Y son dos magnitudes a leatorias arbitrarias, escalares o ve~toriales, con componentes roales (las magnitudes aleatori as complej~s siempre se pueden ·considj)rer comq vectores aleatorios b idimensionales ·con componentes rea les). Sea cp (X, Y) la función unívoca de las magnitudes aleat ohas X ; Y. Según la definfoión (3.4,2)

J"" J"" cp(x,y)f(:r;,y)dxdy,

M[q¡(X,Y)J=

donde f (x, y) es la densidad conjunta de probaliilidad de las m
J J q> (.r., y)/, (.1:) f2 (YI x)
.M 111• (X, n i =

""

-oo -oo

=

J"" r Jcp(x, y)/2(Y!,;)dy] /

1

(x)dx.

- oo

- w

La in tegral interior reprl'senta la espe.ran1.a mnt.emálica conclicional de l a función 1p (x, Y) de la magnitud aleatoria Y parn el valor cln
""

J 1p(x, y)f (ylx}dy=M'[x, Y)lxr. 2

Por

(3.8 .10)

con~igu iento,

}\f l


Y) I =

r

M lcp (x, Y} 1x i /1(x) dx.

(3.8.11)

La magni tud 1V [<¡> (x, Y) 1xi dopende del valor x de la mag11 it111l alent.oria X. I'or eso la magnitud M [q> (X, Y) 1 X 1 ropresc: nt u lA función de la magnitud aleatoria X : ;'\tf [cp (X, Y) 1 X] = ~'( X). La integral en la fórmnla (:.\.8.11.) representa la esperanza mntemúo-o s3H

i30

Cap. 3 .Magnftudu altatorla• vtctortalt1

tica de esta función:

J"' Mlq¡(x, Y)lxJ/s(x)dx=M[M[q¡(X, Y) IXJJ. - oo

Por lo tanto, M [q> (X, Y) l = M [M' [


I XI).

(3.8.12)

Esta fórmula demuestra que la esperanza motemática de la función de dos magnitudes alentorias (escalar es o vectori11les) se puede calcul ar no a la ve1. sino consecutivamente: primeramente se halla la esperanzu matemática condicional, considerando fijado el valor de una ele las magnitudes aleatorias, y luego se baila la esperanza matemática de la así obtenida función de esta magnitud aloatori n. Esta propiedad de las esperanzas matemáticas se utiliza frecuentemente en la.'l aplicaciones prácticas. Ejemplu S.8. 1. ll:allat· la esperanza matemática dol prodm:to de lns componoutcs X, Y do 11n vector aleatorio bidimensional normalmente repartido. Según la fórmula (3.8.12) bailamos primerain~nte la esperanza matomát1ca con· dicional del producto XY para el valor fijado :i: de la magnitud aleawria X. Eu virtud do (3.11.21, al caleuJar esta esperanza matemática r.onrlicional , el valor z de In mugnilud a eatoria X so puede sacar del signo de la espernnzn mutomátiro. Entonce,, 11bt.cnd1·emos M [:i:Y I :i:[ = z:M IY I zJ.

Sustituyendo n.qul la exprosi6n de la espernnui watemáticR condicional do la magnitud aloaloria Y dr. (3.6.il), obtenlda on el § 3.6, hallaremos

r

M fzY I ::t) = ..: b-!il. {z- a)J . C:t:

S11sLituyC11llo oqul x por la magnitud aleatoria X, obtendrnmvs la función de la iuognitud aleatoria X: lj;(X)=M iXYJ X)=X

[b- !1!.. (X-4)]. e,.

Luego, por la lúrmula (3.8.i2). hallaremos

M [XYf=M [M[XYJ XJJ~M [

xr

b- ::: {X-a>]]

o bien, aplicando las propiedades de las esperanzas matemáticas, determinadas m6s arriba,

= =

En ol § 3.6 vimos quo M fXJ .,. a y en el § 2.3 se demostró que M [X'l cx 2 ml,+ D:r ff6rmula (2.3.H)J. Por eso, teniendo en cuenta que mx =a y"aplícando la formula (3.6.G) pnra Dx• obtendremos definitivamente

=

ab

§ 3.9. Propledadu de U.. di1per1lO(l(S

t31

o bien, aplicando la fórmula (3.6. t 7) para el momento de correlación de ¡._, componentes, Af [XY) -

ab

+ kxg ~ m,.mg + kxir

Hemos deducido esLa fórmula para el caso en que X y Y repreaentan las componentllll del vector aleatorio normalmente repartido, para ilustrar la aplicac1ón
§ 3. 9. Propiedades de las dispersiones y de los momentos de correl ación

Ahora vamos a estudiar las prQpiedades de las. disper5io~es y de los momentos de corrol aci6n de lai ·m agrutudes aleatoriás. Eu este caso, como en el párrafo anterior, consideraremos que, en l<>.. gen,er.n.J., todas las magnitudes aleato:rlas y los números que se 'examina!\ pueden ser complejos. Esto es necesario para el estudio de la teoría
1e ¡tD I XI.

Análogameute se demuestro que el momento de correlación de las magnitudes alcat.orias (3.9.2) U= aX, V= bY, donde ti y b son números complejos arbitrarios y X y Y son magnitudes Rleatorins, se determina por la fórmula k.,. = ab kx¡r (3.9.3)

Si las magnitudes a leatorias U y V representan funciones lineales do las mngnitncle.s a lentori'1s Xi, .. ., Xn, n

_,

n

U=~ avXv+b, V=~ CvX.,, + d,

(3.Ü.4)

v=I

g.

Cap. 8 Ma11niludcs auatorltU L>eclOrlak.~

enLonces l n di1>persión Je la magnitud aleatoria U y el momento de correlació11 de las 1nag11it.udes aleatorias U y V se determinan por lns fórmulas: n

D,L =

~ a,,ñ.1,k,,11 •

(3.9.5)

"'·"1-- l

"

kuc = }~ avC1-1k...,",

(3.H.IJ)

v. µ=-1

do11clo k. 11 El~ d inome uto de c.orreh1cil¡11 de l as magn itudes aleatorias X,,, X,, (cunnd.o µ, = v, la magnitucl k•.., representa la dispe1'si6n de la m11gnitud aleatoria X..,). f::n eiecto, n

D (Ut = M'!IUº l2 t=M l l ~ a.X~l'l = v=t

....,. M l

n

n

~ ~.. xt.~I =

~

JA.. V=" l

n

a..,,4',.M [X~Xtl =

Y. fl..:9 1

~ V, µ .c J

a,4°11 k,,..

De uu cuo) toman la ÍOL' lll(\

"

Du= ~ l ª• 12 D., v-c

"

k..o = ~ a,~.D..,

(3.!l.7) ('.l.9.B)

\-::S.l

donde D.., = k,.., es la d ispersión do la mogni\ud aleatoria X.., (v =1, .. ., 11). En l as aplicaciones prácticas tione importancia un caso particular más, r eferente a la fórmula (3.9.5), cuando la magnitud U repr~ senta ln su ma de las magnitud e.~ alt!ntorias X,, .. ., Xn· n

U=~ X..,

(3. 9. 9)

\!:t i

E$ evidoute qui.' en est.e Cll.l!o a, = 1 (v fórmula ('3.9.5) tomará ltt forma

= 1,

n), IJ -=O y la

ti

D[UJ =

~ kw.·

(3.9.10)

v,µ- 1

Ahora bion, la dispersión de la .~urn a
133

§ 3.9. Pr,,piedadu rk llu dts¡•
Eu el caso particular, cua ntlo las magnitudes X¡, .. ., X están correlacionadas, Ja fórmu la (3.9.10) toma la forma

no

n

DiUI=

l.; D,.

(3.9.H)

v~t

Así puos, la dispersíón de la suma de l as magnitudes aleatorias no correl acionadas e~ igual a la suma de las dis persiones de los sumandos. Teniendo en cuen t a que D [ UI = a;., y D v = a~, donde <Ju, a,. . .. , a,. son las desviaciones enadrtíUcas medias de las magnit udes aleatorias U, X,. ... , X ,., respectivamente , podemos e11cribir la fórmula (3.9.11) en fa. forma n

a~ = 2j ,~1

a!.

(:3.9.12)

Las fórmulas (3.9.7), (3.0.8), (3.9.11) y (3.ll.12) :>011 aplicnl.Jles para cualesquiera magnitudes aleatorias no correl acio11ad11s. Eu particular, son válidas para las maguitudos aleatorias inde¡1endieotcs . Calculemos ahora la csptiranza matemáti ca del producto de lns magnitudes X o Y para !as n11Jg11itude.'i aleatorias ijfbitrarias X e Y (el momento inicial mixto dti segundo orueu). Heprescutando las magniL11des aleatorias centradns, en virtud de las 1iropiedades de 111s esporonzas matemátic,nl:!, obtendrtiioos·

M IXYI

=

M [(m.x

+ xo

)(m¡¡

+ Yº)I = in..,iñv + M[X f··r.

o bien

(3.9.13) En el caso particular, cuando se iratn de las mngnitudl'S aleatoria.':\ no correlacionadas reales X o Y, la fórmula (3.9:13) toma la

forma M IXYJ

= m..,mv.

(:·Ul.14)

Esto ti~ til así llamado teorema de multiplicación de las esperanzas matemáticas: la esperan za matemática del producto de dos mugnitudes aleatorias no correlaciouadas reales es igual al producto do las esperanzas rnatemáticM do las mismas. A Jüerencin del teo rema de adición, el de multiplicnción es válido solnmeute vara las magniturl os aleatorias no correl acionadas reales. En ¡rnrticnlor, es válido tamb ién para las mngniinrlcs nleatorías renles ínrlepen
(3.9.'i!'i)

134

Cop. 3 M •lfnltudu alealuriM vu1orloú1

Para la demostración nos valemos de la propiedad de la dispersión no negativa. Para cualesquiera magnitudes aleatorias X, Y y números no aleatorios a y b, la dispersión de la niagnitad aleatoria a X - b Y no puede ser negativa: D laX - /JYI ;;;::, O. (3.9.16) Aplic11ndo lo fórmula (3.9.5) y teoiendo on cuenta que en el caso dado n = 2, a1 = ci, a2 = - b, obtendremos

D [aX -bYJ =la l~ Dx+I b¡: D11 - abkx11 -abkvx· (3.9.17) Observe1uos ahora que lc11 ., =M [yoX0J=kx11 , (3.ll.18) es decir, al cambiar el orden de l as magn itudes aleatoria:; complejas, el inomcnto de correlación pasa a la mngui tud conjugada compleja. 'fe11iendo esto cu co1\Sideraeión y sustit uyendo la expresión (3.9.17) en (3. !l.16). obtendremos 1111ra cunlosquiera a y b (3.9.19) Ahora, aprovechando que a y b sou arbitrarias, hagamos

a= k,.11 , Entouce:s,

b

=

D,.

(3.9.20)

a desigualdnrl (il.9.19) Lomará la forma

ll<x11 11 D~ + D~Du - Dx 1kxu r~ -D" 1kxy12 ::;.. O o bien (3.!l.21)

De 11qui se ve que 11ara D,. >O

Dz.Dy -

'""V 11 ;;;. o,

de donde se deduce l a desigualdad {l.9.15). Cuando D,. = O, la magnitud aleatoria centrada Xº es igual a cero con la probabilidad equivalente a la unidad, debido a lo cual kxy ... M [XºYºJ = O, es decir, también (3.9.15) se satisface. Sustituyendo en la desigualdad (3.9.15) las ralees de lai; dispersiones por las desviaciones cuadráticas medias, podemos escribirla en la forma k:t11 I ~ ª"'ªv· (3.9.22) De las desigual dades (3. 9.15) y (3.9.22), así como de l a definición del coeficiente de correlación {3.4.9) se desprende que pro·11 cualesquiera magnitude~ aleatorias el coeficiente de correlación no excede en pmódulo a la unidad: 1r,,u1~1 .

(3.9.23)

{I 8.9. Propi<dodtt de liu tluptralonu

135

De los cálculos citados se ve que el signo de igualdad en las fórmulas (3.9.16), (3. 9.19), (3.9.21) y , por consiguiente, también en las (3.9.1!'.i), (3.9.22) y (3.9.23) es válido si, y sólo si, l a dispersión' de la magnitud aX - bY, para los valores elegidos de l os coeficientes a y b, es igual a cero. Pero esto, a su vez, es posible solamente cuando la magnitud cent rada aX 0 1 - bY º 1 con probabilidad equivalente a la \midad es Igual a ~ro. Ahora bien, en todas las fórmu las escritas el signo de igualdad es válido s i y sólo si, entre las magnitudes X e Y existe dependencia funcional lineal del tipo

(3.9.24) Esto permite obtener cierta idea de qué es lo que oaracteriia el coeficient e de correlación r,, 1,,. El coeficiente de correlación caca.eteriza, por decirlo así, el grado de aproxi mación de la dependellcia entre las magnitudes aleatorias a la dependencia fu ncional lineal. En el caso de dependencia lineal el módulo del coeficiente de corrolación e~ exactamente igual a la unidad: 1 r.,v 1 = 1. Sl l rxv 1 = O, no puooe existir dependencia lineal entre las magnitud.es aleatorills . Los valores de 1r"!I1 comprendidos entre ol cero y l a unidad dotorm inl\n hasta quó punto la dependencia entre lns magn itudes aleat ori as es próxima a l a depend encia funcional lineal. Ejemplo 8.9. t. 1-hllar la esperanzo matemática y 1" dieporsiún de la freouencia de tm acontocimieotn pam n prueba~ incl e¡1011dienLeS realizadas en Iguales oonclieionC5 . Designemos ror X,, el número do vocl'S que sucede el aconteei mionto A oomu resitltado de la v-ésirna pruebo. Cnlculemos la esporanza mntcniállca y la dispersión de ln magnitud iileatoria Xv. Esta ma¡n1l11d tiene dos valores posibles: O y 1, euyos probabilidades son q = i - p y p, respectivamente. Por lo tant o, aplic:ando la fórmula (2.3.14), ob\.endNrno.'I mxv = O g 1 •p = p (v = 1, 2, ••. , n).

+

Así pues, la espnranzo. matemática del número do veces q\le se produce un &con· t eeimieuto al efectuar un solo experimento es siempre Igual a la probabilidad de esto acontecimiento. Apro,•echando la fórmula (2.:1.15}, liallamos la dlapersl6n de la mngnltud ale.atoria Xv D,,.., =(0 m,...)'I q+(t-m,,..,)' p=p1 q+q2 p= pq (p+p) = pq (v = 1, ~ ••. . , n ).

Según Ja dnfi nielón, Ja freeuencla U do un acontecimiento A repr~ent~ la relación del númern de veces que sucedo el acontecimiento A. ol cual. evidentemenw. es i¡¡11Al al número do vecOIJ que se prod11ce lí.~t.e on cada una do las pr11~h11.~. al 11úmoro total de. experimentos realit.ados:

" u-.!. ~ x ... "¿i Esta fórmula muestra que la Crecuencla del acontecimiento A es una combinación llDeal de las magnitudes al entorios itHlependientes X, • .. ., X,. que Tcpresontan los números dn veces que ocu trn el acontecimiento A on cada una de las pruebas

realirndn~. Pur consigui«Hte , pura rlctorminm· Jn cspQmnia 1uatemáticn do la frecuencia U se puede hacer uso de la [órmuln (3.8.9). Ten iendo en cuenta quo nn esf.e CRSo torio• los copficient.es ªv son iguales a 1/ri v e l término iutlepertd iente b ~.s igunl a cero. nbl.1.1mhomos · n

fl

m.u = .!..n.4.J ~ 111-;( =!. '1 p ~ p. n.4.J V

v-- 1

(::J.9.25)

'\"= l

s\sí PHl'S. In esperan?.a mRt{'m:ltir.a de 11\ fre~uencin dr. un acout.ecimieuto es

igu11l 11 la probabilidnrl de este último. Para determinar la dispersió n de la

fr1~c.1w11ci11, upliquemos IR f6rmula (3.9. 7). C'..omo rr.sultado obten
" " o,, ,..J.. Y.º"=~ '1 P't= !!L. n"' L.J n tl ·

-..

"~= l

v

1:1.9.26)

v~L

De lo• res uhndos obtenid(ls se puede sacar la deducción ¡míctic.a siguiente: In espurn 11zA rnktCmótico rlo la frecu encia, cualquiera que sea el número do Ptll"· bas, es ig\wl n In prob~bi.lidad del acont.Qelwiento. y la dis persión de Ja froouonci11 ti~ndo a ~<,ro ul uumcntar ilin1itadamente el núuwro de e.q> pruebas <:!1 lo suficiente grnod(I, proíctica111eule lo~ v11lo1·"~ posibles de la frecuencia de pt·od ucciú11 de un acontccimi~nto están cornprnndidos en límites tan est.rechns como se qu ier~ . Por oso, al ser grande el núnH!ro lk PX.l>erirnuntos, podemos tomor la frecuencia cou que !;e produce un ~c.onlccimic111.11 vor la probabilidad del ~contfcim·ionto. La expresicín (3.9. 26) J>ara la di s p1!rsió11 do la frecuencia nos pormitn retim9r d<.> un modo apt·oxiinado la ¡1ref.isiio11 ron que la írecueocia s"' ncerca a la probabilidad. l'arn obtonor quo la frt-c11t111c.ia ilc un <1co11tt1cim.iento sn aproxime de un mo1lo suficin11te1oe11to exart.o u 1:1 probabilidad dol mismo, prác lic.ame11le bastan algu uas tleccnas du pruoba s (70-100) sie mpre q1w la ¡>mbabilidad del acontecimiento no sea próxi rna :11 cero o a Ja unilla1J. Los resultados nl>t(lnitlos son um1 cunsec.uenda dicecla dlJ la defin ición v las propiedades de las probabilidades de neonteeimieotos, osí C(lmo d11 la ti.~rfo de8arwllnda sobro l a bns~ de estas dofinicionos y propiedades. Asi imes, de las leyos dn la 'J'eorín de las Probabil idadus se deduce la propiedad de est,abilidad ele los fr•!cuoncias de acontocimicnto~ quo se observa en Ja priiclica. Pol'con~i­ !tlli.::ntc, los cnn~eptos ¡me~tns como baso de la TeOl'ía d e las ProhMbilidancs n•rn Ja po$ibilidad de descnbir correctamente lns propiedades de los fenómenos aleatorios· !recuentos que .S<• obscrvao en Ja práctica. J>or eso la •r eoría de las Prn·babilid!ldes se puede ajltícar a lvs problemas de la prl\ctica, estando en este caso seguro~ de que las deducciones obtenidas con ayuda de esta Teoría S-On exactas. E je1¡1plo S.9.2. Examinemos ahora una magnitud aleatoria X. Supongun1os que se realizan n expcrime11tos independientes on iguales c.ondiciones ':! que· en cada u no do éstos se rcgistrn ol valor que toma la magnitud aleatoria X. Luego , según los datos obtonídos como r-0s0Ttado de las pruebas, se calcula e l valr¡r ¡nQdio aritmétie<> de la mag11itud X. Designemos por X,, ol valor que la Diílgnitud aloatoría X to111,1 ou la 11-ésims prueba . Es evidentl.\ quo orat~ rle quo los exper-imentos hayan sido ofoctuatlos, de liut.110, 1Js t<.> va lor os llna magnitud aleatoria, debido 8 lo cual ul valor menio •l'itm<\tico ne la magn itud X, al l leV•I' a cal><> n experimentos,

tambi~n es unn inagu itud afoHoria. Según los datos del µroblem11 , X., ... , Xn son magnitudes aleatot-ias independientes con igual e•-µ~ranza mat:emática m.,

§ IJ.JO. Veúrminación dt

101

momentos

137

e íguoJ dispct!i6n D". Aplicando lus fórmulas (:1.8.!l} y (3.9.7). bailemos la es~ran~a rnalomática y la dispel':!i6u del valor medio aritmétlco de la magnitud aleatoria X al dcctuat· " expt•rimu11tos: n n

mu·=-k- 2: 111,.vmol

m,.,

Du=~,; ~

D,. =

~".

1

(3.9.27}

v=l

Del ciemplo examiu11.do se tles¡ironde que la es11oranz11 matemática del valor modio aritmético de una magnitud aleatoria, cualquiera <.1uc sea el número de inde)lendientes, es igu11l a la esperanza matemática de esta magnitud, y la dispersion do la media 11rltmética l!S inversamente proporcional 1tl número de experimentos realizado~ n. Por lo tanl11 al ser el número de. o¡¡perimentus n lo suficicnt.c grande, l tt.~ dc:1viaciones précUcamenle posibles del valor medio 11rltmétlco 1le una mag11i1 ud uleatoria cun 1·especto a isu esperan ta matemátira estarán r,omprendidus on límit~is tan estl'echos como so quiera. Bslo do la posibilidad do detern1inur las OSJleranzas matemáticas de la;; magnitudes ulualol'ias Hegún los resultados ele las pmehas, tomando su~ valores. medios arltmóticos, cuimdo el n{irut1ro de exporimentos tis lo suíícieule grande, poi· l as esporun211~ matemáticos. Y <'omo lo~ mnmento~ do lns magnitudes aleatorias son las ospo1·n11zas matcmiitirn~ il<· ch•rl~!! fouciouos do 11SIM mag11itud~s. 011\,or1e11~ cualosquit•m m<>mt>ntos 1\0 lu~ magnitutlc¡¡ aleatorias S(' pueden determinar corno Jos valores medio.~ cor respondie11IC'.S. s1 eJ número d~ oxrorimant.os es lo suCicio11111 graud.,. En particular, las di•pcrsione!I eslu1lís~icru1 Je las u1agnit.11d l'11diPntc3 morucnf.os dr c urrcfod611 ostullístkos. j'll\r los mo mentos do correlaci611. CXJl~riwontos

L11s tesis deducidas en los ejemplos considerados son los Loorewas wús seocillos dt! u11u gra11 cantitlacl ele teo1·omus que onLran en 111 parte especial de la Teoría de las Probabilidades _que se Hamo t:orrienLomente ley de grandes núm.eros. La ley de grnudes números dtiLcrmin¡¡ por vía teórién, partiendo d11 los conce11tos fundnmeutales lle In Teoría de l as Probabilidades, las 1.1ropiecladcs t.lo lol! fenómenos aleatorios !recuentes que so observun 11n la práctica. Ahor a bien, la ley de grandes números fundamenta la validez de !ns tesis principalo." ale 111 Teoría de la~ Probabil id udes y la posibilithid de Ja aplicación práctica de esta teoría.

§ 3.10. Drtermi 11acltí11 de lo!' momentos do lni1 fu11cio11es de ln11 mngnitudci1 alcat:o rias En la práctica sm·go frccul.'11Lemc11tc el problema lle daLcmniuar los 1nomentos de una maguitud aleatoria Y cuando vienen dadas l as características probabillsticas de otra waguitud alcnLoriu X con In cual l n nrngnitud Y osti ligudu (lor unn clopendon1;io f1111cio11al t.leterrninarla: y = q¡ (X). (3.10.1)

dond e rp es 1111a íuncióri un ívoca complctamonte determinada. En los dos párrafos anteriores est11 problema foc resneho pura el caso de una fu nción lineal c.p. En el caso general, paro determinar los momonto.s rlo In magnitud alontoriu Y, es necesario conocer Ju ley de
138

Cap. 3 Ma¡!n.itudes akatnrias vocwriales

bución de la magnitud aleatoria X . .Entonces, todos los momentos de la mngnitud aleatorio Y que nos interesan. pueden ser determinados por las fórmulas (2.3.4) y (3.4.2). gxaininemos primeramente el caso de las magnitudes escalares X e Y. Según la definición, el momento de la magnitud aleatoria Y de ordcn k es la osperania matemática de la magnitud aleatoria yk, a~=M(Yk]=Af(
ª'

00

=

J


(3.10.3)

(k = 1, 2, ••• ).

- oo

Abora bien, los moJUentos de la rnag:nitud aleatoria Y, enlazada por una dependencia funcional (3.10.1) con la magnitud aleatoria X, se determinan en principio sencillamente siempre que se conozca la densidad de probabilidad de la magnitud X. Supongamos ahora que Y es el vector aleatorio cuyas componentes Yi. ... , Y,,, son funciones unívocas cleterrninadas de l as componentes X,, ... , Xn del vector aleatorio X: Y1t =
En este caso, aplicando la fórmula (3.4.2) (más exactamente, su generalización extendida a lo~ vectores aleatorios ¡1olidimensiooales) para calcular los momentos del vector Aleatorio obtendremos

a~•... .. k,,.=M !Y~' ... Y~,?'I = =M [
J.. . J
..

-eo

-QO

1

(x., ... , x,,) ..•

e¡>~"' (xi , . •. ,

Xn) X

X/ (xlt ••. , x,,)dx1 ••• dxn (k, , .. . , k,,. = 1, 2, ... ).

(3.10.5)

Las fórmulas (3.10.3) y (3.10.5) son las fórmulas exactas para calcular los momentos de la magnitud aleatoria Y según l a densidad de. probabilidad preasig,nada de la magnitud aleatoria argwnento X Ejemplo 3.10.1. Hallar.la es¡ioraoza rrui.temiítica y la di spersióJl rlc lll seilal de salida do un elemento no 'lineal cnrente do inercia, sí la soñal de entuda ro· pr esenta la suma de una señal útil determinada 1yde111 perturbación X. La sefial de salida Y del elemonto que se considera se espresa por la f6rmula y= q> (s +X),

§ a.JO. Detcrmtnación ik lo.•

mom~11t0$

1S9

donde cp es la ~Ión no lineal Ulltvou (caracterlstica del elemento no lineal). A!I pues, las señalos de entrada y do salida de este elemento están ligadas por la depeudcucia funcional del tipo (3.10.1). Pat11 aplicar la fórmula (3.10.3), con .,1 Iin de calcular la cspNanza matemática y la di!persiún de lo magnitud aleatoria Y, es necesario con11cer la donsi1lad de prnbabilidad f (:•) d<' In magnitud aleutoria X. Entonces la fórmula (3.10.3) dará

.,,

m11 =ctf=

J rp(8+:z:)f(z)lk:,

-~

af-= ~

q>2 (1+:z:) f(z)dx.

-m

Lue¡o, la dispersión de la magnitud aleatoria Y so puede determioat por la fórmula (2 .3.it) que expresa la dlspérslón por medio de l os momentos iniciales

ª'

y

a,i:

Du=ct~ - (af)2: t:n los problemas de In nutomáti1~a la magnitud m11 reprosent·a de ordin11rio la porte útil do ln señul de saliclu
Las fórmulas (3.10.3) y (3.10.5) son complicadas para la a¡1licacióo práctica, a pesar de que son en principio sencillas. Por eso es natural que surja la pregunta: ¿se podría sustituir estas fórmulas exactas pero complicadas por otras más sencillas aunque sean aproximadas? Resulta que en muchos problemas prácticos se puedo hacer esto con ayuda de la linealización de las funciones. En los§§ 3.8 y 3.9 vimos que si las funciones IP (X) y qi1, (Xi. ... • . . , Xn) son lineales con respecto a sus argumentos, los momentos de esta.-s funciones se expresan por fórmulas muy elementales que se deducen de las propiedades de las esperanzus matemáticas, dispersiones y momentos do correlación. Para una determinación aproximada do las esperanzas matemáticas, dispersiones y momentos de correlación de las funciones no lineales derivables unívocas continuas de las magnitudes aleatorias, descompongamos estas funciones en la serie de Taylor en la vecindad de las esperanzas matemáticas ~... .. , mxn de las magni tudes aleatorias X 1, • • • , Xn y omitamos en las serie.'> obtenidas todos los términos s uperiores al primer grado. Entonces obtenclreroo!! Y v =
C11p . •3 Magnitudes aleatorie<s vectoriale.<

140

magn itudes aleatorias Y 1 , • • • , Yn l as expresiones aproximndas siguientes : ('\/=1, .. . , m), (3.10 .7) myv ~
~

vµ ,_,

"

""' ( ilq;,. ) .t:J é).r.,. ,;-=rn /t , l=-'i

'

-

( 8
• ~ xt=11li

k"' ht

(v, 11=1, ... , m)

(3.10.8)

x1

Puest.o que estas fórmula~ son avroxiinadas, surge la cuestión acerc<J de l os límites de su aplicnción práctica. Para resolver esta cuestión conviene observar quo por ser las fórmulas (3.8.9) y (3.9.6) exactas

o

o F'ig. 3.10.1.

Fig. 3.10.2.

para las funciones lillcalcs, par11 las funciones uo lineales serán tanto más cxact¡¡s cuanto más próximas sean estas funciones a las lineales ei1 el campo de los vnlol'cs prácticamente posibles de las mognitudcs-argwncn tos X 1 , • • • , X,. . Por consiguiente, las fórmulas (3.10 . 7) y (3.1.0.8) son aplicables en aquel caso en que las funcione~ <j>1, ••• ,


La ley normal de distribución de un vector aleatorio n-d imonsional X con las component es X 1 , •• ., Xn o b ien, lo que es lo misrno, la distribución conjunta uormal de n. m11gnitudes aleatorias * ) g ) lect.or puede om itir esto párrafo si n perjudicar la comprensión de <":t~i todo fo sucesivo.

.~

3.J1. Dlstrlilut.t6n normal poltdlmmtlonal

X¡, .. ., Xn se caracteriza por la densidad de probabilidad

f (x11 • · ·, :'")"" (3.11.1) En e.'ta fórmula el coeiicient.e adjunto a la función exponencial represen ta el multiplicador normalizador, elegido a razón de que La integral con respecto a todas l as variables de -oo h11sta óo sea igual a la uni dad; C representa l a matriz compuesta con los coeficientes cpq: cu C12 ••• e,,.

C=

y 1

e 1os el dolermin unte

Czt Ciz • •

C2,.

(:1. 1'1 . 2)

de esta m11triz C11 C12 • • • Ctn

1c 1 ~

C21 Cn • •• C2n

Cn1Ct1i · · • Cnn

Observemos que el producto (x.. - a.,) (x 1, - u 1,) para c.u11lesquiera indices v y µ desiguales entra en la suma do!i veces: una voz con el coeficiente e, .. y otra con el coeJiciente c ..". Por eso, cuales· quiera q uo sean los índices desiguales v y µ, el papel esencial lo desempeña solamente l a suma de los coeficiente$ c... Cµv· Por consiguiente, esta suma, :iin pérdida del carácter ge!leral, siempre se ¡1uode consillerar djvidida equivalcnt~mente entro los l:lum11ndos y de est e moclo considcrnr que lo matriz Ces simétrica, es d ecir, que cpq = Cqp .para cualesquiera p y q. Demostr emos, ante torlo, qu e las magnitudes X., ...• x., examinadas por separa1lo, y cualesquiera combinaciones compuestos 1lc ellas t ambién están normalrnonto ropartid11s. Para esto recordemos que p11ra determinar l a cl1.rnsicli1d de ;prob11hi.lirl11d rlc cierta parte d e la1¡ rnagniludes aleal.orias, digamos X 1• • • • , X, (l < n), cs necesario inLegrnr la densidad conjunta de probabilidad ile toda11 l1ts mogniturles X., ... , X"' con respecto n ltis vnriahles corrospoudientes a las magni t udes 1·estantc~ . en el caso dado con respecto a X1+i. ••• , x,.. En v irtud Ú<' esto regla, la dcnsidml de proltabiliclad de las magnitudes alentorias X 1• • • • , Xn -• ~e ox prcsnrá por In

+

Cap. 3

/lfal(ntlude1 a lfatorla1 vectorialu

fórmula

1•. ' . ., n.- l (.z .. ... :e,,_,)= t

(3.11.4) Pero n

¿ P. q-

n- 1

1

~

c1,q (x11 -m 11)(xq-m.,) =

p . q.ol

Cpq(x,, - m,,)(x,1 -m,,)+

n- 1

+ 11-~1 Cpn (x,. -m,,) (xn-m11) + n- 1

+ 2J

Cnq (:r.,.-m.) (:tq - mq)+cnn (x,. - m 11 ) 2 •

q- t

Teniendo en cue ntu que la suma oo dependo de cómo están designados los indices con respecto a los cuales se realiza la adición, podemos sustituir en la tercera suma el índice de adición q por p. Enlonces, teniendo en consideración que Cnp = Cpn y sacando el m11ltipliC11dor común x,. - mn fuera dPl s igno de adición, obtendremos n

~-1

~ c1..1 (x 1,-m1,)(xq-mq) =

p, qoo l

¿;

'"pi

Cpq(xp - m 11)(xq-m,1)+

n-1

+2(x,.-m,.) ~ c11 n{x,. -m,,)-f· Cnn (x,. - m,.)z.

(3.11.5)

,,_ 1

Sustituyendo esta expresión en (3.H .4) y sacando el multiplicador quo no depende de x,. fuera del signo integral, obtendremos despu!Ss de reemplazar la variable de integración t = x,. - m,.

h., .. . , n-t (X¡,

• • • , Xn-1) =

--

=V(~)~

n -1

exp {-}

~ Cpn(Xp-mp)(x9 -n~9)}

X

p,q- 1

oo

X

n-1

1exp {-t ~ C1m(xp-mp)-{c11,.t } dt. 2

(3.H .6)

,,_1

Para calcular la integral obtenida, apliquemos la fórmula -

e11i-11~1idt= V:i h.

11"

e4h'

(3.11.7)

§

143

3 .11. Di4tribudón normal polidlmentlonal

deducida en el suplemen to [fórmula (1)1. Suponiendo en esta t6rmula que '11-1

11 = -

~ Cpn(Xp-m,,), h2 ={c,.,.

y sustituyendo la expresión obtenida de la integral en (3. H .16}

hallaremos 11, ... ,n - 1 (x1, ... ,::t,.. 1) =

,. _,

+ :lc~n r ~ Cpn (z,,-m,,) ]2} = J•= I

_ , /

- V

!C 1

n-1

(

t

(2n¡n-l e,.,, exp '\. -

2

~

L.J

(

c 1,n
x

p, q • I

X (x,, - mr) (xq -m,1)}



(3. t 1.8)

Comparando e~ta expresión con (3. 1:1 .1), vemos que la distribución conjunta de lns magni tudes X 1, • • • , X,._ 1 es normal. Puesto que esto es válido paro cualquier n y la ex.presión (3.11. 'l) de la densidad normal de probabilidades es ~hnétrica con respecto a las variahles z .. .. . , x., nuestra afirmación está por completo demostrada. Integrando la expresion (3.11 .8) sucesivamente con respecto a z,._ .. z,. _2 , :r2 , hallaremos la densidttd de probabilidad de una componente X 1 del vector aleatorio normalmente repartido. En este caso nos convenceremos de que la esperanza matemátíca de la magnitud X 1 es igual a m 1• Ahora bien, en la expresión de la densidad de probabilidad del vector nleator¡o normalmente repartido, los números m1, •••• m. representan las esperanzas matemáticas de las componentes del mismo X 1, • • • , X,. : mi! = ni.,., (p = 1, ... , n). Al dividir la expresión (3.H .1) por (;j.11.8), hallaremos l a densidad condicional de probabilidad de la magnitud aleatoria X" con respecto al conjunto de lt\s magnitudes restantes X¡, ... , Xn_ 1:

f ~ (Xn 1x,, ... , Xn - 1) =

=V*

exp { - }

~ p, q-1

Cpq(Xp - mp)(z9 -mq)+

o bien, teniendo en cuenta (3.11 .5), Ín(Xn jx¡, · . ·, Xn-1) =

=

·v,. c2~"

n- 1

2j c¡in (x 11 -mp)-

oxp { - {en" (x,.-mn) 2 - (x,, -mn)

,,, ........ 1

n-1

~

_.!_ Pero

(3.11.9)

kJ

2

n-J

2.~

11 .~l

n- l

c,,.,cfJ 1,

(.-i:,,-m,.) (xq -m,1) = [ }i c1m (x1,-m 1,)]

2

,

p-1

y , por consiguient e

{c

Tt.- l 11 0

(x,.-m,,) 2 -i-(:r," -mn) ~ c 1,,. (xp-mJI)+ ¡>=I n- 1

, .,, 1 ~ -:-

CpnCqn ( - - :t 1; -

mv) ( x,1 - m,1)

cnn

c.

==

J>,q=I

n-1

o=+,C:n., {(x,,-m,.)'-L2(x,.-m ""

~ el'" (xp-ln¡i) [·· tnn

0 )

__,

}J-.t=l

n-t

r ~

L

7r.:11 t

c 1H1 -.-(Xi;-mp) e nn

,2} 1 [Xn -

f -'

=-:rCn 11 ~

.

n- 1

mn + ~ ·-Cpn (x1,-m1,) )>= l

Cnn

]2 •

Sustit.uye.n
X11-1)=

V ~':t" ¡¡xp { - yCnn [xn-mn+ n-1

+~

Cpn

12} .

( x1,-tnr)J C1p1

(3.11.10)

p= l

Esta fórmula muestra que l a disLribución condicional cie la componénte X,. del vector aleatorio normalmente repartido es normal, con ello l¡¡ esperanza matemática condicional y la dispersión coo(jicional de dicha componente son respectivamente iguales a

(::l.11.11)

D IXn 1x,, ... ';tn-il =C1ttt -l-.

§ 3.11. Dlnrlbuel6n normal poltdlm.ntlonal

145

La primera de estas fórmu la.s muestra que la esperanza matemática condicional de la componente del vector aleatorio norniªlmente repartido es función lineal de l os valores de l as componentes restantes. La segunda fórmula (3.11.11) indica que l a dispersión C.Oildiclonal de la componente del vector aleatorio normalmente repartido no depende del valor de las demás componentes. De un modo semejante noo convencemo.9 de que la distribución condicional de cualquier parte de las componentes del vector aleato· rio normalmente repartido es, con respecto a las demás componentes, normal y las esperanzas matemáticas condicionales de las,coQ'lponentes son funciones lineales de los valores _de l as componentes re¡tan~. Aplicando l a fór mula (3.3.2f), llegaremos fácilmente a Ja. con~ clusión de que cualesquiera funciones lineales de las componentes del vector aleatorio normalmente repartido están repartidM tambián normalcoente. Esto da la posibilidad de cumplir cual esquiera transformaciones lineales de l as magnitudes aleatorias normalmente repartidas y siempre obtener en este caso magnitudes aleatorias normalmente distribuidas. Calculemos ahora las dil!persiones y l os momentos de correlucióu de las componentes de un vector aleatorio normalmente repartido. Para ello, con auxilio de la transformación lineal, reducimos el sistema de las magnitudes alea torias Xtt , .. , Xn al sistema de las mag11Hudes a] c¡¡L-0rias no correl acionadas V 1 , . . . . V", suponiendo de momenlo que las dispersiones y los momentos de correlación de las magnitudes aleato rias X " .. .. X 11 son conocidas. Esto se puede hacer por una infinidad de procedimientos. El procedimiento más sencillo consiste eo que se supone que X 1= m1 + V1 ,

}

X2 = m2 + '1'21Y1 + V~.

X11 = m3+ '\'~ 1V1

(.3.11.1 2)

+y.3V2+ V3,

+

Xn = 1nn ·l· Yn1V1+ vniVi+ ... '\'n. n-1Vn. 1 Vn y se elige y 21 de wodo tal lJUe la magnitud V 2 no esté corrclacionadn con V1; luego se eligen y 1 , y y 32 de modo tal que l a magnitud V 3 no esté correlacionada con V, y Vi. etc; y '\'n1> Yn:• ... , 'l'n• n-1 de modo tal que la magnit ud V" no esté correlacionada con V ,. ... . . ., Vn _,. Es evidente que, al emplear tal procedimiento, el número de coe!icientes desconocidos 'l'i•v es igual al número de condiciones que deben ser satisfechas. En este caso todos i'v..- se pueden determi· oar fácilmente por turno. D1i la pr.imera fórmula (3.'11.12) está claro que la dispersión /) 1 d~ la 1n11gnitud aleatoria V 1 es igual 11 111 cli:1µ.irsión de 111 mngni· tud X 1 : D 1 = Dx, = k 11 • ln-00!8

Cap. 9 Mognilutk•

146

al~utorios

r;ectoriak•

Para determinar el coeficiente y,,1, expresemos el momento de :orrelación kv 1 de las magn itudes ale11tol'ias Xv y X 1 por la fórmula (3.9.8), considerando X v y X 1 como funciones liueales de las magnitudes aleatorias no correlacionadas V., . . .. V,,. Teuieud n cu cuenta quo los coeficientes adjuuws a V2 , •• • , Vv en la expresión (~.1. 1. '12) de la magnitud X 1 son iguales a C!lro. y que el coeficiente 11dj1111to n V 1 es igual a la unidad, obtendremos

k, 1 ~ y..,,D,

= Yv1k11.

De aquí hall a uios que k,,¡

Yv1= k;7' ·

(3.11.13)

As! pues, tollos loi' col'ficicntes 1'2 1• • • ., y,. 1 se expresan muy ~en­ cilla mcnte por medio do los mouientos de corrclllción k 31 , . • • , k., , de las magnitudes X 2, •• ., Xn con X., y mediante la dispersión k 11 do lu mognitud X 1• Una vez dti lcrmiuado Y21o hallamos Ju dispersión JJ 2 dti la magnitud nluatoriu Vz. Para esto expresemos por la fór111ula (3.9. 7) la dispcl'sión D"• k~~ de 1<1 magnitud aleatoria X 2 • T eniendo en cueJtltt qua en csLt1 cuso lodos los coeficiente~ y,. 11 son reales, ohieodrcmos

=

kl1 k ' D kl, D :2== kti 11-r i -= ~ + z

k

De donde (3.11.1{¡)

Par11 clct.ermiuar y,.2, expre:!emos por la fónnul11 (3.!J.S) el momcnLo de correloción k. 2 dt1 liis magniLuclcs aleatori as X" y X 2 • Entonces obLondrcmos - k~, k vz = i'vt'\'ZtD 1 + Yvz Di = Yvt'\'itk"u T i'vz kuk22 ku o, teniendo on considerncíón (3.11. 13), z. .., .4·,.1ku .L " ""2

k11

• rV2

De :iquí hallamo!' y,~ =

k11k,,..,-k,.1/c%l kukzi-klt

(v=3, . . ., 11).

(3.11.15)

Proc-0die11do cleJ mbmo modo, cx11resemos s1.1cesiv1111lC'nlc los demás coeficientes Vva (v = 4, .. . , n), .. ., y,,, 11 _ 1 por medio do las dispersioues y los m omentos de correlación de las magniludcs aleatoria~ X 1 , •• ., Xn. Dado quo las magnitudes V11 •• ., Vn son funciones linC'ales de las componentes X 11 • •• , X" del vector aleatorio normalmente repartido, todas lru; distribuciones de las magnjturles Alea torias Vi. . ..

t47

§ 3.11. Di•trlbuc:i6n normal polldlm1n&io11al

... , V n, tomadas por separado y en cualesquiera com binaciónes,

asi como todns sus distribuciones condicionales, son normalej¡. En particular, son normales las distribuciones de todos l os pares de V vi V 11 • Por consiguiente, en vfrtud de lo demostrado en el § "3.6, las magn itudes nleatorias V 11 • • • , V,. no solnrnonte no está n correlacionadas, sino que son i ndependien tes por parejas. Demostre~ ' ro.os que éstas son independientes también en conjunto . .Gónsideremos primeramente la distribuci9n conj untA dlii tres ma·g nitudes·aleatorias V 1, V 2 , V s. En virtud de las fórmul·a s (3.11 .H) ¡ Jp.: esperanza matemát ice condicional de la mangni tud V 3 es fw1ción 14ieá'l de:Joil valores v., v2 de las magnitudes V1 , V 2 y su dispersión conüiciQn.a.l 6 3 no depende de v1 , v2 • Por eso, la densidad condicional de próbabílidad de la magn itud V 3 se expresa por la fórmula 1

fs(v3lv1J v2)= ., 1 -

" 2nda

- _.!_ Cla-1..1- Pt>o>' e 2A•

(3.11.16)

y ln den sidad conjunta de probabilidad de las magnitutloo Vi. V2 , V 3 es igual n

/12., (vi. 112,

v~)

= f1z (v1, Vz) la (vs l 111, 112) = f

u~

{

= 1((2n)• o,D,!!. 3 exp

-

201 -

11: :.w, -

- Jlv:) 2 } ;u,3 =

(t•3-Ctl/1

--· V (2n)ª1D 1 V A~ oxp {- .!..2 [(-l-+~ ) /)•1 + ( 1 +1:..)11ª+ IJ1 ó3 7;:; L\3 • 2

+_!_.v; + 2~u1v v 11 - 2 ...!!.. v2v~J}. 2 -2...!:.. Áa A., l\3 1 3 As De nquí. npl il:ando In fórmula (::1.11.8), holl111nos la densiclad conjun-

ta de prubnbilitlad rlo las magnitudes V 1, V3 • Tt•nicndo en consideración que en e."k' CASO n -= :). 1 11 C22=o;+ 6,, , 1

af'>

/ 13

(v., v,,)

.-

=JI" J~:,

exj) { - { (c; ,u:

donde • tu •

f

c.. = a 3

A;•

C23 = · C:l!!=

C 1~ = C2 1 = ~,

hn ll nmos

1

C33=

1

a•

_ .1_ :\¡ '

-1- c;,v; ) -1- 2c;~v1 11~)}

,

0t~f'>2Da

=Di+ L\.;- 63 (L\3+~:0,) ' a2Da

ó3('\3+~2 1.J,) '



a

r.., ... - A3+ f'>~D, •

Pero segÍln lo demostrarlo l as magnitudes 11leatori;1s V, y V3 son indc¡>enero es to pue1le ser solamente to•

148

cuando a = O. De modo análogo podemos demostrar que de la independencia de las magnitudes V 2 y V 3 se desprende que j} = O. Ahora hien, la distribución condicional de la magnitud V 8 , determinada 1>or la fórmula (3.1:1.16), no depende de los vttlorns u,, ll2 eta las magnitudes V¡, V 2 y, por lo tanto, coincide con la distri bución no condicional de la magnitud V3 y, por consiguiente, Ó3 = D 3 • De 11qui se deduce que las magnitudes V1, V 2 , V 3 son independientes en conjunto. Luego, por inducción, aplicando el mismo procedimient o, se demuestra que las magnitudes V., .. ., V.- son independientes en conjunto para cualquiera que sea k. Asl lHle.s, para cualquiera n, las magnitudes aleatorias V" ... . . . , Vn, que tienen una distribución conjunta normal, son no correlacionados si, y sólo si, éstas son independientes en conjunto. Do iu inrlependencio. rlc las mitgnitudes aleatorias V., ... , V11 determinnhlel! r>or 111 tra1tsforrno.ci6 n de (3.11.12) se deriva que al sustituir en la fórmula (3.11.1) las cxprt>sionas rle las variables Xtt • • • , Xn• determino.das por las fórmulas (3.11.12) sustituyendo las magniLudes aleatorias V 1, • • • , Vn por las variables u 1, • • • • • .. Un, todos los coeficientes adjuntos a los productos de las varinhlcs u1, • • • , Vn deben convertir~e en coro, y los coeficientes adjunt.os n v!/2, ... , u!/2 deben ser iguales a las magni tudes inversas de lits clispersiones 'l/D 1 , ••• , 1.ID,. correspondientes 11 las magnitud<'S V1, •• ., Vn· Esta condición nos permitirá establecer las relaciones buscada.'! entre las dispersioneK y los momentos de corrclaci611 de las mag11itudes aleatori as X1t .. .. X" y los coeficientes c,,q en la exp resión (3.1.1 .1) de l a densidad norm al de probabilidnd. AJ sustituir ea las fórmul as (3.11.12) las magnitudes aleatori11s por l;1s Val'iablcs correspondientes, y las exp resiones obtenidus x., ... , Xn ea el exponente de la (3.11.1), vemos que los productos u1v,. se obtienen solamente como resultado de 111 multiplicación tle (x,. - mn) por (x 1 - m1) (x~ - ma), ... , (x,._1 - mn-1) Y como result11do de elevar a l cuadro.do (x,. - m,.). Por consiguiente, el coeficiento adjunto a v 1v,. en ln expresión obtenida es igual a Cnl

+ C11z'Y21 + C,.3y31 + • • • + Cnn'Ynt·

Jgunlando esta expresión a cero y sustituyendo los coeficientes Y21. Y»t• .... y,. 1 por sus expresiones de (3.H.t3), ob tendremos la relaclóo ' siguiente: (3.11..17) Observemos ahora que la expresión (3.11.1) de l a densidad normal es completamente simét rica con respect o a :c1 , • • • , z,, y l a numer11cl6n de las magnitudes ~lcator\as X 1., • • • , Xn se puede establecer nrbltrariamente, por e jemplo, se puede tomar l a magnitud X 1, por la primera y la. magnitud X.., p or la n-ésima. Por consiguiente, la relación (3.11.17) es válida no solamente para la n-ésima linea

.-$ 3 .11 . D l.iribu.c/.én. normal poltdtmenslonal

i.\9

de la matriz (3.11 .2) de los coeficieDtes Cpq y para lo. primera columna de la matri:I. de couclación K del v~tor aleatorio sino que, en general·, pnra cualquier linea de la matriz C y para cualqllier columna 1lc 111 matriz Je correlación K con números no coincidentes. Asi pues, ele (3.11.17), en virtud de la simetría, se dedu.ccn la$ rel acion~s

-1-. • • -1válidas para cualesquiera µ, v, ~~ .p v. Cµ1 k1v

-1-

C 142k:v

C¡;nknv

= 0,

(3.11 ,18)·

El cundrado de l a variable v 1 se obtiene evidentemente en cada sumnndo del exponente en (3.11.1), además, el coeficiente adjun to o u~ en el su mando c11 (x 1 - m 1} 1 es igual a c11 , los coeficientes ane· xos o ~ en los sumandos tipo c91 (x9 - m 9 ) (x1 - m 1)., p .p i son.. iguales a las .magnitudes ' correspondientes cp1y,, 1 y los cooflc~~!lte~ ad junto~ a v~ en los sumandos Cpq (x9 - mp) (xq - m11 ); p, q, ".p 1, son iguales 11 las magnitudes correspond ientes CpqYpiYqi · Por consi-' guiente, cm v irtud de (3.H.13), el coeficiente sumn rio anexo a u~ es igual n

+.-

"

~

Cpqkp¡kqt•

ll P , t/"'l

Por otra parte, este coeficiente debe sor igual a lu magnHuJ inversa rle la diSJlersión 1/D 1 - 1/ k 11 de la magnitud aleatoria V,. Por lo t anto, es válida la rolllción

o sea n

L:

C pqk¡,.kq¡ =k11.

(::J. 11.19)

'" q..l

'l'ruo~formemos

el pri mer miembro d o esta iguald ad . Eíuc\u11ndo prirner111nente la 11dición con respeclo :il indictl q y sacando fuera del isigJ10 rlo suma con respecto a q el factor com1í11 kpi. podemos escr ihir n

n

n

h Cpqkm kql = p=-1 L: (q-l L: Cpqkqt) kpl· p , q-1

(3. H. 20)

l'ero. ed virtud de (3.i1.1 8),

"

~

q=I

Cpqkq1 = Cp1k11

+ Cpz/cz1 + .. . -1-Cpnkn¡ =0,

1rnrn cualquiem p -:¡. 1. Por consiguiente, en Ja su ma coo rcs~cto al índice p en (3.11.20) todos los sumandos son iguales a cero, snlvo el sumando correspondiont,e a p = 1, y obtc11clromos

"

)-: c1,qk,,akq 1 = (

p.17= \

2:" c,9 kQ,) k 11 •

'l'- t

150

Cap. 3 Mag11iludes aleatorias vectorialt:s

Sustituyendo esta expresión en (3.11 .19}, obtenemos l a r elaci6n n

~

Ct<¡kq1

g=l

=c11k11 + c12k21 + .. . ·i- C1nkrit= 1.

(3.H.21)

De aquí, debido a la simetría de la expre11ión (:·U 1.1} de la densidad normal de probabilhlad con respcc:to a la!! vari ables X¡, •• • , x 11 , obtendrcrnos la relnción Cv 1k1v

-J-

C,,2k2v

-J- • • .

+ Cvnknv =

1 (v

=

i, .. . , n).

(3.11.22) Así pues, hemos deducido las relaciones (3.11.18) y (3.H .22) que ligan Jos elemento;; de la matriz de los coeficientes e, de forma cuadrática en el exponente de la expresión de la densidarl normal de probabilidad con los elementos de l a matriz de correlación f( del v!lc t.or alea torio. Para determioar las dispersiones y los momentos de correlación de las magnitude~ a!<Ja todas X 1 , •• • , X,., t omemos todas las ecuaciones (3.H.18) y Ja ecuación (3.11 .22) correspondiente al mismo valor q del indice v: C11k11

c,,.k1q

+ C¡2/~~q + .. . -J- C1nk>iq = Ü,

+ c,.2k 2q + ... +

Cnnknq

= O.

Estas ecuaciones forman un sistema ele ecuaciones algebraicas lineales con respecto a k 1 ,1 , k 2 q, ... , knq · U na vez resuelto este sistema, obtendremos

. kp1¡

= C11C12 • • • • • • · • • • • • • • • • • • • • C1n C21C2z • · • · · · • • · · • • • • · • • • • C2u

Cu 1C11 2 • • • • • • • • • • • • • • • • • • •

C,tn

Por fin, d espués d~ descomponer el determiJ1antc del numerador por los elemento!'! de lá p - ésimn columna, obtoni:l.remos Cpq

k¡iq = m (p, q= 1 . . .. ' n).

(3.11.23)

§ 3.11 . D t.trlbuc"5n normal polldtme1Ulonal

donde, por Cv9 elemento Cp ,1 =

t5t

= C1,, Cq ¡>

se designa el complemcnlo algebraico del en el determinante 1(; j: Cu ••• Ct.p-tCt.¡.>+-t •••

e,.

Cq-lol • • • Cq - 1.p-1Cq- t.p+1 • • · Cq - 1.n

C11q= ( -

!)P.,q

Cq~· t.I ' . 'Cq+ 1.p-1Cq+l •P+I • • • Cq+ t.n e,, , · · • Cn .p- 1 Cn.p+1 · • • Cnn

(p, g

= 1,

... , n). (3.11.24)

La fórmula (3.11.23) expresa las dispersiouos y los mómentos ilo correlnción de las componenles do un vector aleatorio normalmente repartido por medio de 10:1 coeficientes, de Corroa cuadrática en ol exponente de la exprt!sióo de la densidad de probabilidad del m ismo. Las relaciones (3.11.18) y (3.11.22) permiten resolver también el vroblom n in\•erso, es decir, expr esar los coeficientes c,,q en la expresión de la de11.Sidad normal de probabilidad por medio do las db;por~ioneM y los momentos de correlación de las magnitudes a leatol'ias. Para resolver este problema, tomemos la ecuación (3.11.18) cort·espondionte a un mismo valor p del fodice µ y la ecuación (3. H .22) corres1>omlicnte o -v = p y escribá.moslas en l a forma

Esla~ ecuaciones form11n UJt sistema de ec uaciones ulgcbraicas lineales con Tespec.to o. c 1,., cp 3 , • • • , Cpn· Al resolver esto sistema de ecuaciones, obtendremos, al igual que antes: Cpq

=

ffi {p, q

= 1, ... , n).

(3.11.25)

dond e 1 K 1 es el determinante de la matriz de correlación K: (3.11.26)

152

Cap. 3 111 agnltudts altatorla.< •·ectorlalt •

y Kp9 es el complemento algebraico del elemento k,,q en el deter-

minante 1 K 1*). Para lo sucesivo necesitaremos todavia 111 fórmula

1C11K1 = 1,

(3. 11.27)

que liga los determinantes de las matrices C y K. Para l a deducciém de esta fórmula observemos que, según la regla de multiplicación do los determinantes, los elementos del determinante 1A 1 = = 1C I I K 1 se definen por la fórmula:

l::n virtud de (3.11.18) y (3.U.22) , las expresiones obtenidas son igu11les a cero para µ =/= v y a la unidad para µ = v. Por consiguiente, i o ... o

1A 1-= 1C l IK 1= O i

... O

o o ...

= 1,

1

lo cunl demue.~tra la fórmula (3.11.27). Sustituyendo las expresiones de los coelicientes Cpq de (3.'11.25) y la ex¡>resión del determinante 1 e 1 de (3.11.27) en (3.11.1), obteudremos la siguiente fórmula para la donsidad de probabilidad de un vector aleatorio n-dimensionnl normalmente repartido: t

f (:c., · · '' :Cn) = V(2n)" 1K1 X

x exp { -

~J 21

n

h

Kpq (:cp-mp) (:cq - mq)} .

(3.11.28)

P. q=I

Esta fórmula muestra que la distribuci ón normal se determina por completo po11 la esperanza matemático y la matriz de correlación del vector ale'atorio. Le dejamos al lector que por sí mismo obtenga de (3.U.28) laJórmula (3.6.20) .deducida más arriba para la densidad conjunta de probabilidad de dos magnitudes aleatori as. Pasemos ahora a la determinación de. la función característica de un vector aleatorio normalmente repartido. Sustituyendo en la fórmula general (3.5.2) la expresión (3.H.1) de l a densidad normal • ) SI el lector conoce los elementos del Algebra matricial, verá con fac1lida3 dU.Ctamente de (3.1t.t8) y (3.il.22) que las matrices C y K son roctprocamento Inversas, debido a lo cual se obtienen a la vez las fórmulas (3. 11.23), (a.11.25) y (3.H.27).

153

§ 3.11. Distrtbu.cló11 normal pol tdlm
de probabilidad, obtendrcmO.!!

- -%-

"

~

(3.Ü.. 2~}

Cpq(Xp-m p)(xr¡- mq} } dx., ... , dxn.

p, q-1

Una vez sustituidas las varia.bles ·con.forme ·a las fórmulas (3.11.1·~), los coeficientes anexos a los productos de l as variables v1 , •• • ,, :Vn en el exponente serán iguales, según lo decnostrad·o, a cero y ln exprésión para l a función característica tomará la lórma --

g (A.i, • • · , An) =

n

V(~~)~ exp { i ~

TnrAr} X

1'= 1 00

X

J ... Jexp { -oo

i [J..1v1 + "2(1'21V1+1>2) + • •.

+ An (1'n1V1 -!-

-oo

"

t} dvl ... du,..

+ 'Vn2vi + •. . +vn)J- ~ 2 r~I

Aquí la función subintegral se descompone en el producto ele los muhiplicadores carla uno de los cuales depende solamente de una de las vatiables vh .. . , v,.. Por eso la integral en la expre8i6n obtenida es igual al producto d·e n. integrnles simples y

g (J..i. . • . , A.n) =

V ¿~)~ exp { t ~ mrA.} X r- 1

00

X ) exp { i

p.,+ ')'StAz + ... + X dv 1

l'ntAn) Vt -

...

2~¡ }

j exp { tJ..,.u,. -

X

{~,..} dv,..

-oo

Aplicando 11ara el cálculo de los integrales obtenidos la fórmula (3.11.7), obtendremos g (A.1t •.• ' A.,,)= VI

"

e 1D1 ••. Dn exp { i ~ m,J..,- ~I

X

r-1

X (?., + Yztf·z + . ·. +Yn17..,,)2- .. . -

~" },~}.

(3.11.30)

Cap. 3 Magnit11dts o.li!atorias vecloria les

De la fórmula (3.11.14) se deduce que D 1D2 -k11 k11k,1-ki, ku

-

1k11

ku 1

kz1 k2z •

De las fóroiulas semejantes para D 3 , • • • , D,. se deduce fácilmente que el producto Ds. ... , Dn es igual al determiuante de la matriz de correlación K. Por eso, en virtud do (3.11.27), 1 C 1 D 1 • • • . . . Dn = 1. Luego, abriendo el par~ntesis en el exponente de (3.11.30), obtendremos los cuadrados de las variables Á1 , •• • , !..,.. y todos sus productos posibles. Por lo tanto, n

g (A.i. ..• , /...,.) =·exp { i ~

n

rn,A., - f ~

aw/A.1,1,q. (3. t t.:·H) p,q=I Para c.alcular los couficicutes a.Pq• observemoH que ol coeficiente anexo a í..~ en (3.11.30) es igual a D 1/2 = k 1 /2 . .Por consigoicute, a.11 = kit. Puesto que la expresión (3.11.29) de la ·función c.aracterística es 8imétrica tanto con respecto a lus variables 1. 1, • • • , ii.11 corno con respecto a las variables do integración x.. . . ., ;e,,, entonces, en general, a.pp = k 1,p. A C-Ont.i.uuación, el coeficiente adjunt.o al producto A1A. 2 en (3.H.30) es igual, on virtud de (~~.1L13), 11 D 1Y2112 = k 2 1!2 = k12/2. Por consiguiente, u 12 = a.2 1 = k 12 = kzt• de donde, en virtud de la siroetría, llegamos a la conclu,;ión de que, 011 general, apq = kpq · Sustituyeudo esta expresión en (3.11.14), obtendremos definitivamente r=I

"

g (A.tt ..• , "-n) = exp { t ~

n

m,A,-{ ~

~t

kpqApAq} .

(3.11 .32)

P , qc;i\

En el caso particular, cuando n = 1, esta fórmula da la expresión (2.5.14) de la función caracterís tica de la magnitud aleatoria escalar normalmente repartida. En conclusión del párrafo deduciremos la fórmula para el momento central mixto de cuarto orden de las componentes de u11 vector aleatorio :r¡ormalmente ··repartido. Conforme a la fórmula (3.5.6), para ·Cletermiuaf' cualquier momento central es necesario hallar la ~oi'res'pi>~di~nte función caracterfatica derivada del momento aleatorio ~entr;tdo. La fórmula (P: 11.32) da, para la función característica del vector cuadridimensional centrado normalmente repartido, ra expresión siguiente: g (/,.1 , Az, As, A. 4) = exp {

-f ~'

kpqA.pA..q} •

(3.11.33)

P. q.,t

Derivando esta expresión con respecto a las variables A.h /..2, A.3, J.., una sola vez y haciendo luego A1 = Az = A. 3 = A4 = O, ol.itendremos en virtud de (3.5.6) (3.11.34)

CAPITULO 4

Características de funciones aleatorias .

§ 4.1. Leyes de distTibueión de una

magni~ud

aleatQria

E n el capitulo 1 vimos que en los pi;oblemas prácticos1se im'c ueu..~ tran magnitudes aleatorias que varían sus valores en el proceso del experimento. De ejemplo de tal magnitud aleatoria puede servir el resultado de la medición o del registro de cualquier magnitud que es función del tiempo o do otra variable cualquiera. La magnitud aleatoria que cambia su valor en el proceso de una prueba re presenta una función aleatoria. En l os problemas prácticos se encuentran con mayor frecuencia funciones alea- :e torias del tiempo. Sin embargo, u.no tiene que operar también con funciones aleatotias de otros argumentos. Así, por ejemplo, la superficie del mar agitado representa, en cada instante dado, una superficie aleatoria cuya Z-c oordenada es fun- q t dón aleatwia de la abscisa y la ordenada. El estado de esta superl"ig. 4.U. ficie, en un momento de tiempo determinado, puede ser obtenido como resultado del levantamie.nto aerofotogramétrico. El vector velocidad del viento en una atmósfera turbulenta es función aleatoria de cuatro argumentos: de las coordenadas de un punto del espacio y del tiempo. Teniendo en consideración los ejemplos citados, demos l a definición general siguiente: se llama función aleatoria a tal función <;uyo val or os, para cada valor dado del argumento (o de los argumentos) una magnitud aleatoria. Cada función concreta que puede ser registr ada durante una sola observación de la función aleatoria se llama reali:iación de la misma. Por ejemplo, el oscilograma que registra una función aleatoria del tiempo representa la realización de la función aleatoria. La superficie del mar agitado fotografiada en el instante dado también es un ejemplo de realización de la función aleatoria de dos variables. Si repetimos l as pruebas, oblendremos ·diferentes realizaciones de la función aleatoria (ag. 4..1.1). De acuerdo con !o expuesto se puede dar también otra definición d o la función aleatoria: la función aleatoria representa cierto conjunto d e funciones concretas con una distribución de probabilldade,s pre-

1SG

Cap. i Coroctul1ticos ch fuMion.a akatorliu

fijado en el mismo. No obstante, para los fines aplicativos es más conveniente usar la pri mera defin ición. Convengamos en designar las funciones aleatorias por las mayúsculas del alfabeto latino tomando generalmente l as últimas letras del mismo. Las minúsculas correspondientes las emplearemos para designar las realizaciones de las funciones aleatorias. Designaremos por t el argumento de la función aleatoria, h aciendo caso omiso de que sea éste una magni tud escalar o un vector de cualquier número de mediciones (es decir, un conjunto de varias variables). Claro está que en los gráficos se pueden representar por curvas y superficies solamente las realizaciones de las funciones aleatorias y no las propias funciones. Las funciones aleatorias pueden ser escalares y vectoriales. Como ejamplo de una función aleatoria escalar puede servir la señal captada por el radiorrec~ptor . De ejemplo de una función aleatoria vectorial puede servir el vector velocidad del viento en la atmósfera turbula11ta. El número de la componente de una función aleatoria vectorial se puede considerar como argumento adicional que puede tomar solamente valores enteros determinados. Por eso, la componente X v (t) de una función aleatoria vectorial se puede considerar como la (unción aleatoria escalar X (t, v) de los argument os t y v. Por consiguiente, al estudiar las propiedades generales de las funciones aleatorlt1s, propiedades inherentes a IM funciones aleatorias de un número cualquiera de argumentos, puede Hmitarse a las funciones aleatorias escalares. Todos los result ados obtenidos serán aplfoables 111 conjunto de componen tes de cualquier función aleatoria vectorial, es decir, a la propia función aleatoria vectori al. La función aleat ori a del t iempo caracteriza el proceso de variación de la magnitud aleatoria en el transcurso del tiempo. Por eso, las func.i_one¡¡. aleatorias del tiempo se llaman de ordinario procesos alei;itorios (a veces estocásticos). La función aleatoria de, las coordei;iadas; de un, ,punt;o del espacio se denomina corrientemente campo

aleatorio. Los, a.r gumentos de las fubciones aleatorias pueden variar ininterrumpidamente . en cierta zona o de un modo discreto. Los valores de la función aleatoria de un argumento discreto forman una secuencia de magnitudes aleatorias llamada sec~nci.a aleatoria. En la mayoóa de los problemas concernientes a la automatización o la radiotécnica uno tiene que operar solamente con funciones aleatorias del tiempo. Por eso, teniendo en cuenta el objetivo princi·pal de este libro, servir de introducción a la Teoria de las Probabilidades para los que deseen estudiar sus aplicacinoes en el campo de la automatización o la radiotécnica, asi como en el de las asignaturas relacionailas con estas últimas, en lo sucesivo vamos a exponer el material referente a las funciones aleatorias escalares de 11na

§ 4.1. Leyes dt dl$1ribuci6n d• una ma¡!11ituá altalorfa

157

variable independiente escalar que cambia continua o discretamen te en cierto int ervalo a< t < 11 (en pa.r ticular, puede ·ser a. = - oo, 11 = oo). Sin emhargo, conviene recordar que todos los métodos generales de la Teoría de funciones aleatórias son aplicables a cualesquiera funcione.s aleatorias de argumentos escalares o vectoriales.*) ' La función aleatori a se puede considerar como el conjunto· de magnitudes al eatorias X t que repr esentan los valores de Ja misma para diferentes valores de t; X 1 = X (t) (u < t < 11). Esto quiere decir que la función aleatoria es equivalente a un:·.c oujunto infinito de magnitudes aleatori as. Por eso ·el ml!-terial ..c(entífico de la Teoría de funciones aleatorias es considei'a:blemente· más complejo que el de la Teoría de magnitudes aleatorias. Conforme a la definición, ol valor de una función aleatoria escalar, para cualquier valor fijado del argumento t, es una magnitud aleatoria corriente. En el capítulo 2 vimos que cualqu ier magnitud aleatoria se caracteriza por completo por su ley de distribución. Por lo tanto, la caracteristica completa del valor de la función aleatoria X (t), para cualquier valor fijado t, os la densidad de probabilid!ltl ele este valor, que de..
Cap. 4 Caracltrlfliro.< de /un
rizarse por la densidad conjunta de probabilidad / 2 (x,, x2; ti. t 2) que se llama densidad bidimensional de probabilidad de la función aleatoria X (t). Según lo expuesto en el § 3.'1, la densidad bidimensional de probnbilidad / 2 (x1, Xú t., t 2) también determina por completo la densidad unidimensional de probabilidad / 1 (x1 ; t 1). En efecto, en virtud de la fórmul a (3.1.18) 00

/.(:r 1; t 1 ) = ) fi {xs. x 2 ; t 1, t 2) dz2 •

(4.1.1)

La densidad bidimensional de probabilidad de una función alea· t.orio representa una característica más completa de la misma que la unidimensional puesto que por la densidad bidimensional siempre Sij puede detcrminac la unidimensional. No obstante, tampoco la densidad bidimensional de probabilidad es, en el caso general, una caraclC'rística completa de la función aleatoria. Pero ¿es, tal vez, el conocimiento de la densidad bidimensional de probabilidad suficiente para poder resolver lodos los problem11s pl'ácticos? Es fácil ver quo no es asi. Por ejemplo, para la integración de una magnitud aleatoria, es necesario tomar sus valores para un número bastante grande de valores del argumento, componer l a s uma correspondiente y luego pasar al limite, dirigiendo este número a la infinidad y el intervalo máximo entre los valores vecinos del argumento, a cero. A.'!í pues, aunque esto sea una integración arproxlmada, tenemos que examinar en conjunto un número bastante grande de ordenadas de una curva aleatoria, si queremos hallar la ley de di.stribuci6n de la integral de la función aleatoria. Continuando los razonamientos anteriore11, se puede determinar una densidad tri·, cuatrid imensio· 11111 (y, en general, den dime.nsioncs) de probabilidad de la magnitud ale11toria para .c ualquier n entero positivo. Es evidente que la densid.!ld d!l· pr9b_a-bilidad de cualquier orden inferior puede ser calcu· Ja~a cP,or ,lo ,del.. orden superior, Por eso, c(\da densidad .de probabilidt\d ppsterior es una coracteristica más completa de la función .aleatoria que· Wdas las densidades anter.iores. Como resultado se obtiene una secuencia irúinita de densidades de probabilidad de órdenes siempre crecientes. Surge la pregunta ¿es esta secuencio infinita. de densidades de probabilidad una característica completa de la función aleatoria? Las investigaciones matemáticas dan a esta pregunta una respuesta positiva que, sin embargo, no es válido para todas las !unciones aleatorias. R esulta que .la secuencia infinita de densidades de probabilidad caracteriza por completo la función aleaiol'ia solameuto en el caso en que todas sus realizaciones posib)es son suficientemente «lisas•, es decir, si toda realización puede 8er determ.i nada , cual quiera que sea el grado do exactitud, 'por sus valores en una serie discreta de puntos que se encuentran uno de

§ 4.2. b"8perotUa motem4ti

159

otro a una distancia suficientement.c próxima (a excepción, tal vez, de cierto conjunto de realizaciones cuya probabilidad sumaria .de producción es igual a cero¡ prácticamente todas estas realizacion.es pueden ser despreciadas). En algunos c·asos la secuencia in.finita de densidades de probabi· Jidad de la función aleatoria puede ser determinada de un modo compar¡¡Livamente simple. Lo cosa es así en lo que se refiere al caso más ampliamente difuso de la ley normal de distribución. La función aleatoria se considera nonnalmente df#rtbutda siempre que todas sus densidades de probabilidad de cualesqui~ra órdenes sean normales. En el párrafo siguiente veremos que Parª una ,función aleatoria normalmente distribuida toda la secuencia infinita de densidades de probabilidad se determina por completo si se conoce la densidad bidimensional de probabilidad. Vemos que la caracter!stica probabilistica completa de una magnitud aleatoria. sirviéndose de sus leyes de distribución de diferentes órdenes, resulta ser muy compleja. Por eso surge la pregunta: ¿no se poclría en algunos problemas prácticos limitarse a características más simples, aunque estén lejos de ser completas, de la función aleatoria, análogas a las características numéricas, de las magnitudes aleatorias. Como vimos en los §§ 3.8 y 3.9, las esperanzas matemáticas, las dispersiones y los momentos de correlación, es decir, los momentos de los dos primeros órdenes de las funciones lineales de magnitudes aleatorias se pueden calcular, sin conocer las leyes de distribución de estas magn.itudcs aleatorias, sabiendo s ólo sus momentos de los órdoues primero y segundo. Se pueden ob~ener fórmulos semejantes también para momentos de órdenes más altos. Hemos visto que para una clase más difusR rle magnitudes aleatorias, o saber: para las magnitudes aleatorias normalmente repartidas, los momentos de los dos primeros órdenes resultan ser una característica completa. Por eso, también al resolver problemas prácticos de la 1'eorfo de !unciones aleatorias, es conveniente limitarse al est udio de los dos primeros momentos sin examinar las leyes de distribución. En esto caso resulta 11uficieoto conocer los momontos de Jos dos primeros órdenes de l·as funciones aleatorias para el estudio de cualesquiera operaciones line11le11 sobre dichas funciones.

*

~.2.

1-°;gpera nza ma lemótlcll y función corrolali,•n

de unn función aleatoria Fijoroos cualquier valor del argumento t y examinemos el valor 1le In !unción aleatoria (para este valor del argumento) como una magnitud aleatoria corriente. Para esta magnitud aleatoria podemos determinar la esperanza matemática que, hablando en general, dependerá del valor elegido de t. Dando a t todos los v11lores posibles,

160

obtendremos cierta función m,. (t) a la cual es natural llomarle esperanza matemótica de l a función aleatoria X (t). Así pues, se denomina esperanza matemática de la función aleatoria X (t) a t al función m,. (t) cuyo valor, para cad11 v11lor dado del argumento t, es igual a la esperanz.a matemática de la magnitud aleatori a X (t) para este valor (fijado) de t•):

m,, (t) =- M (X (t)I.

(4.2.1)

En virtud de la fórmula (2.3.2), la esperanza matemática de lo función aleatoria se puede expresar por su densidad unidimension11l de probabilidad:

m" (t) =

..J x/

_..,

1

(:e; t) d:i.

(4.2.l)

Según la definición , Ja esperanza matemática repr esenta el valor medio (pesado on cuanto a l a probabilidad) de la inagnitud aleaLoria. Por lo tanto, para cada valor dado de t, la ordenado de la curva m,, (t) representa el valor medio de la de la curva aleatoria X (t) pal'a este valor de t. Así pues, la esperanto matemática de la función aleatorin no es más que una curva media alrededor de la cual se disponen las realizaciones posibles de la función aleatoriR (fig. 4.2.1). Es evidente que al considerar solamente la esperanza matomútict1 de la función aleatoria, despreciamos todas las desviaciones aleatorias posibles, red uciendo a Ja med it1 todo el laaz de realizacio· nes posibles de la función aleatoria. Así se procedo al empicar los métodos de investigación corrientes no relacionados con la Teoría de las Probabilidades. No 'Obsta nte, el sentido de la Teoría de las probalilidades consiste precisamente en examinar no solamente los valores medios regulares de las magnitudes, sioo también las desviaciones aleato rias con respecto a éstos. Conforme a lo dicho, pa,ra caracterizar la fluctuación de las realizaciones de una función aleatoria en torno a su esperanza matemát.ica , so puede aprovechar la dis¡férsfón de dicha función, la cual, en virtud de la defiuioión (2.3.9), vil expresada por la densidad uoidimonsional de probabi· lidad de la función aleatoria por la fórmula 00

Dx (t) = M ({X (t)-m., (t)}UJ

=

J{:t-mx (t)}2/t(~; t) d:r.

(4.2.3)

-oo

En los problemas prácticos a veces es conveniente en lugar de la dispersión examinar l a desviación cuadrática media de la fun• ) En este caso, se supone, clero ostá, que la esperanza matemática de h magnHud alefttoria X (1) exisie para cualquier t, al Igual que todlll! lllll esperanzas ,matemáticas de las cuales se tratará n continuación.

§ 1.2. E.•pemnza matemdtktt y función correlatll:a

ción aleator ia: <Jx

(t)

=V Dx (t).

16t

(4.2.4)

La esperanza matemática y la dispersión de la i;nagnitud alea.t oria so11 características numéricas de sus valores para c;,ada valqr d ado del argumento t. E.Has, en cierto modo, determtoan la banda qu~ se llena por las realizaciones posibles de la función aleatoria (fig. 4.2,2 y 4.2.3). Sin embargo, la esperanza matemática y la disper.sión

f ig.

4.~.1.

Fig.

ft . ~ . 2.

no delermi nan la conducta de las realizaciones posibles de la función aleatoria dentro de la banda indicada. En las fig. 11.2.2 y 4.2.3 se representan las realizaciones de dos funciones aleatorias con iguales ~peranzas matemáticas y dispersiones. Sin embargo, éstas se comportan de u n modo completamente diferente. Es obvio que a l derivar, por ejemplo, estas dos funciones aleatorias obtendremos resultados absolutamente distint os. P or eso, además de l a esperan?,a matemática y la dispersión de la magn itud aleatoria, nocesitnmos conocer el grado dll vari11hUidad --- de s us rea lizaciones, la rapidez del cambio de las mismas al vorint el l"ig. 1..2.s. argumento t. A título de ejem· plo tomemos dos valores t 1 y t 2 del argumen t o t en los dos gráficos (figs. 4.2.2 y 4.2.3) y separemos una realización de la función aleat oria eu cada gráfico. En el primer caso, el conocimiento de Ja ordet1111lu de la realizaci ón cu el punto t 1 habla l)Oco clcl valor de e8ta realización en el punto t2 , corno resu ltado de una gran int.ensidad d e variación de todas l as realizaciones de la función aleatoria entre los puntos 11 y t 2 • En el segundo grMico, el conocimiento del valor de la realización cuando t = t 1 permite indicar más exactamente el valor posible do la realización cuando t = t2 • Con otras palabras, en el. sogu ndo ()a~o. el conocer el valor de realización en el punto t 1 prácticamente limita de un modo consider able l a gama posible de valores de las realizaciones en 1:11 pUllto t 2• En el primer caso, Ios va lores d!l las -realizaciones posibles de la función aleatoria X (t1) y X (t2) cu 11 -09;¡3

i62

Cap. 1

l"aratt1rlnica.~ d~

l1111tlunn al-eatorlt11

los puntos 11 y t 2 depondeu poco uno do otro, en el segundo caso, éstos están enlazados por una dependencia más fuene. Para ilustrar gráficamente esta tesis, llevaremos al eje x1 los valores de la ordenada aleatoria X (t1) y al eje .:i:2 , los valores de la ordenada aleatoria X (t2) (iig. 4.2.4 y 4.2.5). Tomemos una gran cantidad do realizaciones y marquemos fos puntos IX (t1), X Ct:)I, que corresponden a ostas realizaciones en el plano .:i:1, x 2 • Parn las realizaciones do la función aleatoria, representadas en la fig. 4.2.2, las magni tu des aleat-0ri as X (t1} y X (t2 ) están vinculadas i1.;1Jilmente. Por eso la dispersión de los puntos IX (t1), X (tz)/ en el plano

~2 l. ..

. . . · 1: . Q



Xz ·



: 1:

1-'i¡¡. 4.2.4.

. --

:e,

. ......

.......

• Q •

.x,

Fig. 1,.2.5.

x 1x 2 en eslo caso es aproximadament-0 circular (~ig. 4.2.4). Par o la función aleatoria, cuyas realizaciones se muostran en la fig. 4.2.3, las magnitudes oleatorias X (t1 ) y X (t 2) están eulazadas por una dependencia fuerte. Por eso, para 111 función aleatoria cuyas realizaciones se representan en la fig. 4.2.3, los puntos posibles rx (l,), X (t2 )1 se dispondrán en el plano z1x 2 formando una elipse alargada (fig. 4.2.5). Para caracterizar el gra do de dependencia de los va.lores de uo a función aleat.oria, correspondientes a dos valores diferentes del argumento, lo más simple es va lerse del momento de correlación de estos valores de l a función aleatoria . Llamemos /uncl6n aleat2rla centrada a la diferencia entre la función aleatoria y su esperanza matemática:

Xº (t) = X (t) - m., (t).

(4.2.5)

Entonces el momento de correlación de los valores X (t) y X (t') de la función aleatoria X (t), que corresponden a dos valores arbitrariamente elegidos dol argumento t, t', se determinará por la fórmula

K., (t, t') = M IX° (t) Xº (t')I.

(4.2.6)

Dando a t y t' todos los valores posibles en l a zona de variación del argumen to de la función aleatoria X (t), obtendremos la unción de dos variables t , t' que se denomine junci6n co"elati.va (n veces .autocor:relatiua) de la función alea toria X (t). As! pues, se llama

§ 4 .2. Esperanza matcmdlica y funtión torrr.lativa

función correlativa de la función aleatoria X (t) ·a1 momen'to.rde ·cer• rrelación de sus valores para dos valores del argumento t, t', con· siderado como función de t y t'. Al coincidir los valores de los argumentos t' = t, el segundo. miembro de la fóroiula (4.2.6) representa la ·esperanza matemática:' del cuadrado de la función aléatori'a centrada, es decir, la disP,e.i'sión de la función aleatoria X (t}: ·!

K,, (t, t)

=

D,, (t).

(4.2 ..7)

Así pues, la asignación de la función correlativa de una fµnci'ón ; aleatori a determina también su dispersión. Para calcular la función cor.relat iva de una función aleatoria so exige, on el caso general., el conocimiento de la densidad :bidi-1 mensional de probabilidad. Entonces, en virtud de (3.4. 7), la 'fun~" ción correlativa de In función uleatoria X (t) se determinará por la fórmul a K,.(t,t')=

.... JJ

fx -m,,(t)jfx'-m.x(t')]/2(.r,,x';t,t')dxd.x'. (4.2..8)

Teniendo en consideración que siendo t' = t, los valores X (t') y X (t) de la función aleatoria coinciden, y aplicando la fórmula (3.3.3),' hallamos la siguiente expresión de la densidad bidin1ensional de probabilidad de la función aleatoria X (t) cuando t' = t: ' /2

(x, x'; t, t') = / 1 (x; t) ll (x' - x).

(4.2.\J)

Su.stituyendo esta expresión en Ja fórmula (4.2.8) y cumpliendo la integración con respeoto a x', sirviéndonos de la fórmula (2.2.6), reduzcamos la fórmula (4.2.8) a la forma (4.2.3). Las fórmulas (4.2.2) y (4.2.8) pueden ser vir para el cálculo de la esperanza matemática y la función correlativa de la función aleatoria siempro que se conozca su densidad bidimensional (y por 1 consiguiente, unidimensional) de probabilidad. Sin embargo, en muchos problemas práct.icos resulta posilite determinar la esperanza matemática y la función correlativa de una función aleatoria empleando métodos más simples, sin recurrir a la determinación do las densidades de probabilidad. Luego vcrcmo~ en ejemplos como esto se hace. A veces, para caracterizar el enlace entre los valores de una magnitud aleatoria, en vez de la función cvrrelativa, se usa la funct6n. correlativa normada que representa el coeficiente de correlación de los valores de la función aleatoria para dos valores del argumento. En virtud de la determinación del coeficiente de correlación (3.4.9)' y de la fórmula (4.2. 7), la función correlativíl normada de una funH•

ción aleatoria X (t) se determina poT la fórmula

n (t , t ') X

K.~ (1 , t')

-V D,.,(1) Dx (1')

Kx (!, t') -=-v~===;:::;;;::;=.::::::;: K., (t, t} Kx ( t', t')

(4.2.10)

Es evidente que la asignación de la dis1iersión y la función correlat iva normada de una fuoci6n aleatoria es equivalente a la asignación de la función de corl'elación de la misma. J';n lo suce~ivo necesitaremos examinar todavía el momento inicial de segu.ndo orden de una función aleatoria, el cual se determina como el momento inicial mixto de sl!gundo orden de sus valores para los valores arllitrariamento elegidos t, t' de s u argumento: r,, (t, t') = M [X (t) X (t')J. \(li.2.11) El momento de segundo orden de una fanción aleatoria se puede expresar por su esperanza mntemá tica y .su funci6n correlativa. l\ (t, t') = m., (t) m,, (t') + Kx (t, t'). (4.2.12) Esta fórmula es consecuencia directa de la fórmula (3.9.13) para I~ esperanza matemática del producto de dos magnitudes aleatorias

y de

las definiciones (4.2.6) y (4.2.11) de la función correlativa y eJ momentú inicial de segundo orden. , . Hemos dado las definiciones de la esperanza matemática, fa función correlativa y el momento inicial de segundo orden para las funciones aleatorias reales. En los problemas prácticos uno tiene que operar sólo con funcio11es aleatorias reales. No obstante, en las investigaciones teóricas conviene frecuentemente introducir también funciones aleatorias complejas. Por eso, es necesario generalizar los conceptos introducidos extendiéndolos a las funciones aleaiorias complejas. De acuerdo con la dcfinicihn del momento de correlación de Jas rungnitudes aleatorias complejas, la fm1ción correlativa de una f.p.Jlció_n aleatoria compleja X (t) se determina por Ja fórmula 1 · l'l

Kx{t, t')=MfXº(t)Xº(t')].

(4.2.13)

·Por una fórmula análoga se determina el momento inicial de segundo oi¡d!lD de üna función aleatoria compleja. 1'

Ejemplo 4.2.1. E:rnmiuemps la fuoción aleatoria ..., X (t) = U sen cu0 1 Z cos root ,

+

(4.2.14}

donde U v Z son magnitudes aleatorias no correlacionadas cuyas esperanzas matemáticÍts son iguales a cero y cuyas dispersiones son iguales a Di y Di. respectivamente. Esta funo;lón aleatoria representa las oscilaciones armónicas d'e la frecuencin circular © 0 con una amplitud aleatoria -Vvr.:¡:-z¡ y con una fase inrctal aleatoria arctg (ZI U)•). Las realizaciones de esta función aleatoria · •) Eu este caso el arco tangento se toma en el primer cuadrante, si Z rel="nofollow"> O¡ > O; eñ el segundo, si Z >O, U< O; en el ttrcero, si Z 0.

n:

§ 4.$. E1ptra11Ja. ma.únult~ y /uncl/¡n correlatl~'a

165

=

soo slousoides coo un periodo T 2n/1Jlo y con diterentes amplitudes y fases inicial es. En el ejemplo en cuest ión la función aleatori a representa la combinación llneal de dos magnitudes aleatorias con l os coeflelentes sen (l)Ql y cos C»ol· Por eso, aplicando la fórmula (3.8.9) nos convencemos do que la esperanza matemática de la función aleatoria X (1) es idénticamente igual a cero: m,, (t) - mu sen 6>0 t m : cos (l)ut e O. Poniendo en la fórmula (4.Z.14) t = J', obtendremos X (t') = U seo Olct' Z cos w0t'. Esta fórmula, junto con (4.2. 14), muestra que los valores X (1) y X (t') de la función aleatoria examinada, pan dos valores arbitrariamente elegidOll del argumento, son combinaciones lineal es do dos magnitudes aleatorias no conelecionodas U y Z. Aplicando la fórmula (3.l.1.8} para el momento de correlación de dos comb1oaciones lineales de magnitudes aleatorias no correlacionad as, hall amos b función corroladva do la función 11.leat.orlo X (1); K,, (t, t') = Ds sen Wot sen wot' D2 cos IJlol cos mol' (4.2.15) En el caso particular, cuando D 1 = D 2 = D , la fó1·mula (4'. 2.15) toma l a !oraiá (4.2.16) K., (t, t') = D cos (¡) 0 (t - t') . Ejemplo 4.2.2. Examinemos uu caso más gencrAI , cuando

+

+

+

X (1) =

h"

(4.2.17)

Xvfv (I),

"-t donde / 1 (t), . .. , f,. (1) son cualesquiera funciones no aleatoriasi on el caso general , complejas, y X 1 , •• • , Xn son cu alesquiera magni tudes a eatories con esperanzas matemátices arbi trariu, pero fi nitas, y momentos de segurnlo orden. La esperanza matemática se encuentra para esta función aleatoria muy sencillamente como la de u nB función li neal de les magnit udes aleatoria.~. Aplicando la fórmu la (3.8.9) , hall amos ,

"

m" (1)~ ~ m,. fv(I). v=S

(4.2.1~

V

Observando que los valores de la función aleatoria que

~

examina son,

para dos valores del argumento arbitrariamente elcgidlls, !unciones lineales de las mismas magnitudes aleatorias, podemos ªf.Licar la fórmula (3.9.6} para

calcular la función correla\iva de esta función a eatoria. Entonces ubtcndremos Kx(I, t')-

" k, µ,/v(l}/ .(1'). ~ 1

(4..2.19)

v,¡i.=I

donde le,,µ es el momento do ~orrelación de las magnitudes ~lc,alorias X", x., Dxv>· Ejemplo 4 .2.3. Generalicemos ahora el problema del ejemplo 4.2.1 suponiendc1 aloatorias no solamente la amplitud y lo !a•c, sino también la frecuencia do la,, oscilaciones 8rmónlcas. Así pues. examinemos In lundón aloatoria X (t) = (J sen Qt Z cos Sll, (4.2.20) donde U, Z, Q son magnitudes aleotori85 lndependiei•tes; con lo particufaridAd de q uo las magnitudes U y Z tienen esperanzas mnt~111 úticas iguulos a c.ert> y l as mismas dispersiones D, y la magnitud al eatoria Q c.M•c teriza por lo 1lensidad do probabilidad J ((¡)}. · La esperanza matemátic11 de l a función aleatoria X (t) es idénticamente' igual n cero. L a fórmula (4.2.16) determina la {u udón correlativa condicionar (v, µ. -= [, ...• n; kvv -

+



100

Cop. 4 Carac/uíslicas iU /1•nclont1 aleatoria4

ele la l1111cióo aleut.oriíl X (1) para el valor dado

O>

de la ireeucucia O:

=

=

0>] D cos w (t - 1 ). Ahcll'n. ¡>nra b~llnr la función correlativa de l a función olcatori a X (t) basta 11mll iplit ar Ja iuneíóu correlativa conúicional hallada por el eleroe11to correspoudiC'ute de probobilidnd / (1.0) d© e integrar con respect.o a todos los v11l orcs posibles w d e la IDl\lf11it11d a1eatoria Q. Entonces, teniendo en cucul a quo la lrencu1mria de oscilac iones es, en su esencia, una magnitud positiva, debido a lo cual ~u
K,. ( t, t' J 0>) = M (X (1) X (t') I Q

..

J

/(w) cos oo (t- t') d<».

K,. {1,1 ') = D

(4.2.21.)

o Exn rn ineroo~

al1o ra ol coso concreto cuando

f () w

2a .., . d n (ci~+ 21 sien o

(A)

>O



(4 .2.22}

E n csl.e c oso la f6rmul11 (t, .2 .21) da ') 2Da K X (1t I ms. J\

""~ ~

c osw{r -t') d

-i +(A)i

W.

(l

Esta i nlc>gral po.cd e !l
x,. c1, n~o.-a1

1

- 1 · 1.

(4.2.23J

Asi pue.<, on el ca.so en q uo la den.s idad de prohabilldad de l a frecuencia aleatoria de oscilociones 11rm6n icas .se det ermina por la [órmula (4.2.22), l a func ión C (1, U,. ..• , U,.),

dond e q> es la fu nció n complotaroente determinada de los parámetros indicados >.'~ U., .... U,.. son los parámetros aleatorios para los cu al os está asignada la densidad do problibili'd ad f (u,. . .. , un)· En virtud de la definición d e l a Mperanza mat.emática f{lónnuln (3.4.2)1, éSta y el momento do segund o orden de la función a leatoria X (t) se determinan por las fórmulas m,, {1) =

..J .. . J..

<¡> (1, tt 1, •• . , u,.) f ( tti. . .. , u,.) du 1 du: ... du,.,

..J J..

(4.2.25}

-oo

r .. (l, 1')-

<¡> (t ,

u1 • ... , u,.)


X/ (u1 • . .. , un) du1 .. , du,.. (4.2.26) Co~ocie11do la csrerat\Z• mut.emática y ol momonto inicinl de seS'!ndo orden, se puedo ueterm í uar la función correl ativa d e la magnit o.d nl eator1 ~ X (t) ~ or l a fórmula (4.2.t2).

§ 4.2. Etptran:f1o

m4lem4tka y fund6n correlatl!Xl

t67

Vemos que cuando la dependencia de la función aleatoria con respecto a los par,motros 8.leatorios es no llnoal, para determinar su esperanza .matemática y la función correlativa 9! necesario, en el caso general, conocer la densidad de probabilidad de los parámetros aleatorios , miont.rae ([Ue para detecminor la esperanza matemática y la función correlativa de una función li.neal de parámetros aleatorios basta conocer solamente las GSperanzas matemáticas y las dispersiones de los parámetros aleatorios. Ejemplo 4.2.5. Examinemos cierto elemento carente de inercia do un sistema automático, es decirJ tal el emento cuya señal de salld·a ,: en cadil lnst.ant.o dado, depende solamente det valor de la señal de entrada en el.m ismo momento de tiempo sin depender do cómo cambia esta último. hasta él i nstante dado. Supongamos qµe la señal de entrada X (t) BS función aléa.turia del t iem.Po,.cuya esperenin matemática es igual a la ~üal útil <JUº varía lenlamente·en ra entrada del ole meo to en cuestión y la Ctrnción aleatoria ce.n trada repre!On,' ta l!!, perJuibación, es decir, las fluctu11cionos aleatorias de l a señal de entrada. Generalrñonte la señal de salida de tal elemento se envía a la entrada de cualér: dis~sitlvo de inercía. E~te dispositivo, como regla, no tiene tiempo para responder' o las fluctuaciones rápidas do ln aeiíal de entrada y roaceiona en lo principal s11bro su valor medio quo va.ria lontaw.eDte, os dedrl sobre l o esperania matemática. Asl. por oíemplo, si los timones del avión rea izan r~pld11s oscilaciones 11lcatori.as., éste no tendrá tiempo pn.ra responder a ellas y reaccionará sólo a las clesv1ac1ones medias do los t1m nnes alrededor de las cuales éstos se desv[an a ambos l ados. P11r oso en las aplicaciones de la Teorla de las l'robnbilidade!. en el campo de la automática, la esperanza matemática de la seííal de salida Y (1) se toma írecuentement~ por la seiial útil en la salida del clemont.o y las fluctuar.iones de la ~llal ele salida con rcs~eto a su esperanza matemática, P.º' el rnido en la salida del elemento. El problema consisto en hallar la señal util, la dispersión ~·la lunc.i6n col"fehtiva del ruld11 en la. salida del elemento\ conociendo las caracteristfr,a~ probabilísticas nocesarias ·de la señal de ent,r aaa. Supongamos que la dependencia de ln señal de s nlldn del elemento con rospoclo o su ~efial_ de entrada se determina por la {6rm11la

Y (1) = q> {X {t}},

(4.2.27)

dond e cp es, en el caso general, función univoca no lineal, la característica del elemento. Es evidente <¡lle para dewmioar la e3peranxa matemática y la dispersi ón de la función aleatoria Y (1) basta coool;éJ', en el caso genCYal, la deMidad unldimensionlll de pr<>babllidad de la Cunci6n aleatoria X (1). Entonces, la esperanza matemática y la dispersión de la función aleatoria Y {t) se expresarán por lns fórmulas

mu (t) =

r

q> (.r)

D,(') -1

/t(z; t) dz,

(•(>) - ..,,(')0 '"'"l "..

1

(4.2.28)

J

Parn hallar la función com1laliva de la funclóo aleatoria Y (t) basta conocer, en d ca~o general, la den~idad bidimensional de lo función aleatoria X (1). EntoncM l a luuci ón correlativa de la función o.l eatorio Y (t) se delerminará por l a lónnula

J .Í

00

Kv ( l, t') =

..

(q>(z) - rnv(l)) )
(4.2.29)

Cap. 1 CaracterúticM de

168

funcion~

akatorilu

Es evidente que la función eorrel1ttivn do 111 {unción 11leatona Y (t) so puede determi nar también por la fórmula (4.2.12). calculando ¡m.• viameote el momeoto ioicial do ~egundo orden por la fórmúla

r 11 (t,

t') =

.... !J

!¡>

(x)

(U.30)

q> (z ') /i(z, :r'; 1, t' ) dz tlz' .

-co -oo

J::ste p1·occdimie11<.o lleva de ordinario a cálculos nHÍ~ ~im¡1les.

La priwora fórmula do (4.2.28) determina la señal útil c 11 la salitl a del elorucnto exawi11ado y la segunda, ol nivel de n1ido en la salida del mismo. Lns fórmulas obt onidas en este ejemplo permiten ox81Dinnr el p3SO conjunto de la~ seiiafos {1tiles y las perturbacionet (ruidos) por cualesquiera ele1ncn tos caroutes do incrcin de los sistema~ automáticos. Ejemplo 4.2.6. Exawino.ruos un dispositivo que funciona de modo quo. ol aetuer en la entrada un iropul80 momuntánoo. la variable do salida RU<¡uiuro un valo r constanl.-0, proporcional a la magnitud del impulso de entrada, y queda 11)

s, Q

s,

'

ltS,

o

Q

:

...

:-

~1~.~ ,.,...~~~--,.r

.s, 1rs, t

~

Fig. 4.2.6.

.rt-----r---:

l"•

' ....___, '

t

1

Fig. 4.2.7.

invariable hasta que acciona eHmpul<;o siguiente (fig. 4.2.G). Una vei rccl bido el impulso siguiente, la verla.b le de salida cambia por un &alto su valor y 110 hace proporcional a la magnitu.d de este impu150. Asl pues, el dispositivo en cuestión transforma. la sucesión de los impulsos en una función escalonada, en la cual la altura de cada escal ón es proporcional al últlroo impulso accionador. S upongamos ahora quo a la entrada de tal dispositivo llega una secuencia de Impulsos aleatorios (por ejemplo, el flujo de partfoulas ~adas con düereotes cargas). Hallar la esperanu matemática. y la función correlativa de la variable de salidn del clisQ08it1vo dado, suponiendo que los impulsos son. magnitudes aleatorias independientes.con ésperania.s matemáticas Iguales a cero y un11 misma dispersión. D, mientras que los momentos de acción de los impulsos forman un flujo de .Polsson con una densidad media constante (véase el § 2.6). En estas condiciopes se puedo coniliderar que el número de impulsos quo actuan en el transcurso de cualquier lapso de tiompo se subordina a la ley de Poisson. Ahora Lieu, l as realizaciones de ·l a fuooi6n aleatoria en la salida del dispos itivo en cul!l!tión serán funciones eaeelooada.s con momentos independientes de paso da un eecalón a otro y con alturas aleawrias de los escalones. La espetanza matemática de tal función aleatora X (t) es Idénticamente igual a cero, puesto que las alturas de los 'escalones, pN>po;i:clonales a Jos impulsos correspondiente~. tienen esperanzas mat emáticas ÍIJUales a cero. Toroemog ahora dos instantes t y 1' y hallemos el momento de correlación de las alturas de los escalones correspondientes a estos instantes de tiompo. Aqul son poslbles dos caM>S (flg. 4.2.7): 1) en intervalo do tiempo (t, 11 ). a la entl'ada llega, por lo monos, un Impulso;

v

§ 4.2. E•ptrttn:a maum6tica ¡¡ /uncl6n corrdat•va

101>

2) en el intervalo de tiempo (1, t') a la ent rada no Uoga. ningún h npubo. En el prlrner caso, las alturas de los escalones son ma~nitudas -aleatoria~ lndopendientes, ya que los lmpulsosJ según la condición, aon independientes uno del o tro (fig. 4.2.7, a) . En el aegunuo ce.so, los punt-0111 y 1' se encuentran en el mismo escalón (fig. 4.2.7, b). Al deducir la !6r¡nula pBl·a el momento de co. l'l'elación, es necesario ten.e r en cuenta ambos c aso~ con .lns probabilidad&s co~ rruspondientes. Designemos por Y el número de impulsos (fue llegan a la entcada dura.nte el intervalo de tiempo (1, t ) . Cuando Y > O, en virtud de lo expuesto, el momento de ~orrelaci6n de las ordenadas de la funcl6o aleatoria en cuestión es igiial a cero. Cuando Y - O, tenemos que X (t') .., X (1) y, ,eor consi11uie11· te, el momento de correlación de las megllitud es X (t) y X (t ) es igual a l• dispersión de los impulsos D. La probabilidad de los acontecimientos Y >O y l' ""' O ~e puede e11lcular aplicando la ley de Poisson (2.6. 13). Entonces ob· tendremos 111 siguiente expresión para la función corrolaliva de la !unción aleaturin OllC11lonada 11uo se examin11: K,, (t, t')= M(X (t)X (t')J = - P(Y> 0) M (X (t) X (t ') 1Y> OJ+ P (Y =O) M (X (l)X (1') i.Y= OJ = = P (Y > 0)-0 + P (Y=O) D=De-µf l-1 '),

dondo µ e~ l a densidad d11l fl ujo de impubus, es doci r, la cantidad media do impu lsos que actúan en la unid ad do tiempo. Ahora bien, la función correlativa J e la función aleatoria en cuestión so determina por la fórmula K,, (t, t') = v.,- 14 l l-t' 1

(4.2.31}

Vemos que también en el ejemplo dado se hn obt enido una función corrn· lativa exponeocial. Ejemplo 4.2.7. Un condensador de capacidad C se carga por el !lujo lle partlculas que tienen diforcntos cargas, y en 1(19 intervalos antros los mom ontos de llegu.tla de las partículas se descarga a través del;reslstor R (flg. 4.2.8). Hallar la esperania matemática y lo fu11· ción co1Telativa de la corriente aleatoria que pasa por el e l(t) resistor, si al cond ensador llegan , por lt\rmino medio , µ R partículas on la unidad de tiempo y las C8!J8S de las par· t itulas son magnitudes ale11t.otlM indeJlend1entts con las mismas esperaru;as matem:itfcas IJ e Iguales dispersiones D. Fig. 4.2.8. Designelnos por Q~ la carga aleatoria de le k-ésimo parú cula y por r,. el momento ale-torio de ~u llego1la al coudensadur . En el mome.nto T11, la t ensión " en el condensador ca0thi11 1><11· un Mi to en Qh/C después de lo cual la magnitud absoluta do esto inr.remcnto"h de ln to11sión disminuyo ~c.gún la ley ex.ponencia!

m

l -T11

Qh -T

11.•

La corrientll en el circuito, engendrada por la llegada al condensador 1!0 la k-ésima parLÍeula , SCl'á igual a u.IR. Por consiguiente, la corrienlo total en el circuito I (1) en cualquiel' instante t se Jetermln&rá por lu fórmul a 1 / (1) - T

l - T1t

~ Q11.e

--

T



(4 ,2 .8~}

2.,,~,

donde la adjcióu se extiendo a t odos los valore~ K cOrL"CSJ.IOllilicntes a lns pal'tlcu.las que caen en el condensador 11asta el instante 1 y T ... HC es la asl llamsda constante de tiempo del circuito.

·JiO

Cap . 4 Cara
Para resolver ol problema planteado, primeramente examinemos $6lo la varto de corriente en el circuito engendrada por las partlculas que llegan al ~ondensador durante un intervalo grande de tiempo finito (s , t) y luego pasemos al límite cuando s ...... -oo. Designemos por 1. (t) la corriente en el circuito ('Ogendrada por las particulas quo llegan al condensador en el transcurso del intervalo de tiem110 (s, t). El número de partículas que llegan al condensador -Ourant.c el intervalo d0 tiempo (s, 1) se puede considerar subortlioado a la ley de l'oisson; on estG caso. la csporanza matemática de esw n(tmoro de partículos, segúi1 los da tos, es igual a µ (t - s). Por lo tanto, designando par Rm d acont.ccimiento c.onsi~tentc en que durante nl intervalo de tiem¡io {•, 1) al condensad or llegan m partkulas {m =O , 1, 2, ...) y aplicando la fórmula (2.6.13), pura la probabilídnd de cstll 11conteclmi0Dto obt endremos la fórmula

P ( ~"'ml

[µ (t -s)I"'

mJ

6

-µ ( f-•)

(

O • 2

m= '

.1.,

)

'

••••

(4.2.33)

l~n el r.a~o c.uando en el intervalo de tiempo (s, t) al condensador llegan m

¡1arti1·ui;1s, la c.orrientu prod11cicla en el c.ircuit.o por ¡>M la fónnula

cs~as

pa1'ticulas se

oxpre~a

(4.2,34) lt=l

Hariendo rospecto al número do particul as que llegan al condoDsador on el int01·vnlo do tiempo (s, t) todas las hipótesis posibles m = O, t, 2, ... y aplicat>do

'1a fórmu la de la esperan7.a matemática compli;ta (3 .8.12), expresemos l a espe1·a117.a matemática de la función aloatorin I • (t) por la f6rmnla
M{l,(I}]= ~ P(Em)M[l,(t}JEmi• m-0

(4.2.35)

La esperanza matomútica condicional de la func ión aleatoria 1 8 (1} pnra la hipó tesis Em debe calcularse h11llando la media ¡robaliilística con respecto a todos los valores posibles de las cargas do las parttculas Q/t y a todos los valoros posiL>l"s de los mome!!toS de llegada de las partic'tllas al cQndellSador T,. , siendo Cijo -el número m de partículas que actúan en el intervalo de tiempo (t, t) . En virtud de los teoremas de ac!ici6n y multiplicación de las esperanzas matemática!!, teniendo. ill\ coilsiduaci6n la Independencia de las magnitudes aleatorias Q,. :y Th, podemos·escribir m

M[I8 (t)1Em]= ; .

~

m

1-Th

Jlf

[Qke--T- J-

1'=1

t-Th

i ~ M(Q1<}M [e--T'j.

(4.236)

11-1

Pbra calcular M lcxp {-(t - T,.)IT )J para una partkula que actúa en el instan·t e t = T1¡, en el intervalo (s, t), es ne.:osario, de acuerdo con la. regla general, multiplic!U' Los valores de la función exponenc ial, correspondiente a todos lo~ vnlores po's ibles r,. en el intervalo (s, t), por los elementos respectivos de prntabilidad e integrar. Como resultado obt.endremos M[exp{ - (t - T1t)/T} )

Jexp{-1t-i:)/T}/(i:}di:, •

(4.2.37)

·donde f (T) es la den11icl ad do probobilidad de la magnitud aleatoria Th. En virtud de la c.onstancia de la densidad media de los momentos de acción de las partículas, éstas, al Rer muy grande su número, se reparten estadlstlcamento -Oe un modo uniforme en el intervalo (s, t}. Por consiguiente, la densidad de pro-

§

~.S.

i.7i

E8pt•a11w matem611ca y /u11cl6n. corrtlati"4

habilidad del momento de acción de cnda putfoula tomada por separado debe considerar~ constante en el intervalo (1, 1) : / ('T) = 1/(t - 1). ,S ustituyendo esta expresión en (4 .2.37), obtendremos t-Th

Mle--T-)= l~I

t:.

1- •

t

5~--:¡-d't-

1- • 8

(t-e_T_).

(4.2.38)

Sustituyendo esta expresión en (4.2.36) y teniendo en cuenLa quo la esperanza mateinAtica de la c.arg11 de cada pnrtlcula es igual a q, hallaremos la esperanza matemútic.a condicional de la. función aloato1·in 1 • (1) p11.ra la hi pótesis Em.: t-•

m

M [l ,(i) 1 Em)= ~ _q_ .JC.J t-s

t-.s

m (1- e- 7)-__!_(1 - e- - T l-1

).

(4.2.39)

Sustituyendo las expresiones (4.2.33) y (4.2.39) eu (4.2 .35), hallamos -la espcru1za matemática de la íuuci6n aleatoria l 1 (1): -

M 11 (1)1- ~ [ ~t (1-s))"'



~ m- 1

m!

e-11(1->)

.!!!!J_ t -1

t(1 - .,-7) -

t-•

=µqe-µ ( 1-

t) (

1-e-7)

~ {µ (t - - 1}fm~1

(m - 1)!

m- 1

EvidenLemcnLe quo la suma de la serie ea c~ta fórmula es igual a lo t11nto

,_,

M (I. (1)]= µg

.11<1-•>.

Por

(l -•-y).

Al vo.sar al llmile ¡ara R - -oo, hallamos la esperanza matemática de la cornenle aleatoria (1) un el circuito: m¡. (1)

=

M

II (1))

~

1-'IJ·

(4.2.40)

Para hallar lll función correlativa de la corriente aleatoria en el circuito, obsP.rvemo~ que si t' > t

t
Aqul ol pl'iruer sumando ~ diferencia de I (t) ¡¡oJomente por e l mu!lipUcador no aleatorio y el segundo sumando es independiente de 1 (t), ya que contiene ~lamento magnitudes aleatorias independiente" de las msgnitudes aleatorias que ontran en la expresión (4.2.32) parR 1 (t). Por eso, cuando 1' > t, la función <'.Orrelativn de In corriente/ (t) es igual al momento de correlación de las ma~­ nitud!'ll 11lentori11s I (I} y I (t) exp {-(t' - t)/ T} para los valores dados t y e , es dedr. l ' -1

xi (1. n-v 11 (1)\ .-......,,.- .

(4.2.41)

i72

Cap. 1 Cora<úrfitietU d4 fu11elon.e1 auatoritU

Ahora nos queda solament41 calcular la dispersi6n tle La corriimte I (1). I.a disrcHl611 condicional de la lunción aleat.oria J 1 (1) para 111 lti~ti!!is wnsiHtonto eu que on el intervalo de tiempo (4, t) al coñdeneador llegan "' pHllcul••. ~ Igual a la 8Uma de las dispnrsionc.s de los sumanrlns 1)11 la fórmula (4.2.34) 011 víl'~ud do la indeP.endencia de los miemos. Para ballar l a disporsión de un sumando en (4.2.34) calculemos 11rimert1ml\nte su momentn inicial dn sr.gu11do ord•'"Según el tt'orcu1a •fo multipl1~11ri6n de las espcrallz11s ml\lomáticas M (Qle -~

t- t,.

l-T11.

.,.-]=MI n~IM {e- T'""J. 2

Luego , ~11 virtud •lo l a co1111eidR 1·orroladón t'-ll lrl\ 111 11ispcr.1ión de la magnitud aleotoria ~· su mnm~Dlt• iniri al do segundo ordrn !fórmula (:l.3. H )], M IQlJ=q' +D, y la ~Apcranr.a matemática Jo la función Pxpo11e11clal so c.olrnla de lo. mismll'

mlllle•·n que P.O dedujo 111 fórmula (4.2.38}. Do aqul, valiéüdonos de nuevo do l aconolaeil>n 1>.ntre la dispeTslóo y el momento Inicial do s11gundo orden y tenien1lo en cuenta que la expresión pan la dls¡>llrsi611 c<>nd icii()Dal dé la fundón aleatoria 1. (t), 1IAda la bipótosis Em, contiene in sumanrlo., iguales, obtendromlls Dfl {1) 1 E 1~ m ('I •

m

2+v)

2T(t-1)

(1-e -

z i-·

r¡_

n111

1-•

'

{l-s)i

{t-e-T)~

·

Multiplicando esta e.xprosión por la probaliiHdad de la hipótesis Em• que se det~rmlna por la fórmula (4.2.33), y sumando con resp~tn a todos lo5 valores posibles do m, hallaremus la dispersión no condicional do la función aleatoria r. (t):

, '+D)

Dfl.{1)- 11 ' 9 T 2

a t-.• • t-• (1-•- T)-~(1-e-"T"°)i.

,_,

P a~ando

en esta fórmula al limito ¡>nra s- -oo , hallamos Ja dispel'3i6n bu:icaJ1> de la corrieote aleatoria que cirrul11 en el cil'l:uito I (1):

Dff (1)1 =

11 (q;:D),

(,.2.42)

Por fin, su:rtituyondo cH11 exrorPs.lón en la fórmula (4 .2.41 ), obtendtemos K 1 {t, t')

'+D) -~ 11 (92f e 'l' siendo t'

"> t.

Es evidente r¡-ne cuando I' < 1, la 11ílarencla 1' - ten el exponente se sustituir~ por 1 - t'. Como resultado, la runció11 correlativa. du la corri eilte aleatoria en ol cil'l:~it9 dado J (1) so expresan\, parn todos loe valores t y t', por la fónnuln l { 2+D) ii-1·1 e- - T .K t(t, t')- 1 ~

sieoclo t' < t.

(4.2.43~

Do esta moiio, así como en los ejemplos 4.2.3 y 4.2.6, hemos obtenido do nuevo una .fllnció~ correlatlv~ exponencial. No obstante, lais realizaciones posibles d8'1as fu,nc1onee aleatorias examl.nadas en estos tr~ ejemplos ~ienen un c.ar~cte1" completa.mente dlforento. En el ejemplo 4.2.3 todu las reahzaeiones J>OSJbles de la funCJón aleatorio. representan sinusoides do diJerentes Crecuencias, amplitudes y fas911 iníciale.!!. En el ejemplo 4.2.6 todas laa realizaciones posibles de la funci6.n aleatoria son fllJlCiones escalonadas. En el ejemplo dado todas las rea· llzllClooes ))Olllbles de la función ale11toria representan funciones dl!continuas cuya for.ma se mueetra on la. fig. 4.2.9. En el ejemplo 4.2.3 la rapidez de c!t..

173

§ 4.2. E•ptra(l:a. mattmátlca g funt16n corrtlatiw

minuci6n de la !unción cor relativa al crecer la magnitud absoluta de la d ilerencla de los argumcnt<>S, se determina por la m11gnitud a que caracteriza la gama de fo~ valnres priíctícamento po~ibles ile la frecuencia rlo oscllaci6n. Eµ el ejemplo aueorior la rapidez de disminuc ión de la función correlaUva se determion c<>m1>lotamonte por la frecuencia media de los impulsos !" En este ejemplo la rapldoi dij dismi nucióu dli de estos : Ir~ ejemplos muestran que unft misma fun:--J :-. _ ci6n cnrrelAl.h-a puede corresponder a dife: : : 'i rentes fu ndoues deat.
de

v :'

Ji¡ (t, 1') ~D¡t-«ll-l'I [ C<'9 Wo (t- t')

+~

S()ll

J.

0Jo 11- t' 1

(4.2.44)

La función alentorla oxaminade en este ejemp lo repre8e11\a el as\ llamad o efecto rlc grtlllaUa, corrfo nte de ruido engendrada on los circuilos eléctricos pnr el bombardeo rio lllectrones y otras partículas cargadas.

Los resultados obtenidos en los ejemplos an teriores muestran que la función correlativa está lejos de ser una característica completa de la función aleatori a. En pnrticul ar, ella no determina de ningún modo el carácter de las realizaciones posibles de la función alea toria. No obstante, para re~ol ver muchos problemas prúcticos, el conociruicnlo de la es11oranza matemática y la función correlativa de uno función aleatori a resulta ser suficiente. Eu los capítulos anterio!'es vimos que la ley normal de distribución se deter mina completamente por los momentos de primer y segu ndo orden de las magnitudes aleatorias. Por eso, conociendo l a esperanza matemática y l a función correlativa de una función alea.loria normalmente repartida, se puede determin ar todas sus densidades de probabilidad de cualesquiera órdenes. Ahor a bien, parn unn función aleatoria normalmente repartida, son la esper anza matemáticn y la función correlativa las que determinan por co mpleto to
174

Cap . 4 CararleristlcM de funclonu

ol~atorl11s

§ 4.3. Propiedades de la fu11ci6n correlativa De In definición {4.2.6} do la función correlativa so deriva di rectamente que ésta es simétrica: K., (t , t') = Kx (t', t). (li.3.1

Gráficnmente esta propiedad significa (fig. 4.3.1) que en los puutos simétrico.'! con respecto a 111 bisectriz del ángulo do coordenadas lo función col't'e lativn tiene valores iguales. Esto quiere decir que In

q

Pig. 1,.3 .J .

Fíg. 4.3.2.

superíi cio que representa la función correlnliva es si1uétrica con respecto 111 ¡>!ano perpendicular al plano t, t' y que pasa por la bisectriz mencionada. La seguuda propiedad de la función correlativa .se deriva de la propiedad (3.9.15) del 01omento de correlación ; lo función, corr~Ja­ tiva, cualesquiera que sean 1.os valores do los nrgnrne utos t, t', no su¡1era en módulo a la raÍ1. cuadrada del producto de los valores de la dispersión
1Kx (t, t') .,.;;: y·~ D" -( l)_D _x_(t-') =V K.~ (t, t) K,, (t' , t').

(4.3.2)

Esto significa que la magnitud absoluta de la función correlativa en cualquier punto A no puede ser mayor que l a media geométrica de sus val ore5·en los puntos By C do la bisectriz del ángulo de coordenadns, obte nidos como res ultado de la intersección de dicha bisectri7. .con rectas trazadas desdo el punto A paralelomente a los ejes de coordenadas (fig. 4.3.2). Para cualquier función no aleatoria


11 Kx (t, t') (l


~ O.

(4.3.3)

o

Las funciones de dos variables que ·poseen esta propiedad se llao1an ~firifdas no· negativas. Asi pues, la función correlativa de una función aleatoria .es una .función determinada no negativa. En este caso, la función Kx (t, t') puede tener valores negativos para ciertos valores de los argumentos t, t', pero la integral (4.3.3) nunca será negativa.

§ 4:3. Propitdadet de /.a

funció11 corre/.aetva

17&

Para demostrar la desigualdad (4.3.3) sustituyamos en (4.3.3) la expresión (4.2.6) de la función correlaiiva. Entonces obtendremos. b

J=

b

JJK., (t, t')

q:i

(t) cp (t') dt dt' =

a "

JJM [Xº (t) Xº (t')l cp (t) cp (t') dt dt'. "

=

b

(4.3.4)

o o 1



Pero la integral es el límite de una secuencia de sumas. Según· el t eorema de adición de las esperanzas maiem~ticaS,• la esperan:za mate.•. mática de la suma Siempre es igual a la· suma de l as"esperiln?:aS ro:ate-' máticas, es decir, el orden, de operaciones de adición y de la. é5petailza matemática siempre se puedo cambiar. Esto· es valido para toda$ las sumas de una secuencia. Prácticamente esto siempre es vál-ido también en el límite. Así pues, se puede cambiar el orden de operaciones de integración y de esperanza matemática. Cumpliendo esto en (4.3.4), obtendremos

uJ b

J = M

b

Xº (t) Xº (t') (p (t) cp (t') dt dt'J.

a a

Aqui la función subintegral se descompone en m ultiplicadores cada uno de los cuales depende de una sola variable. En este caso, l a doble integral puede ser sustituida por el producto de dos integrales. Puesto que en lo sucesivo aplicaremos con frecuencia esta transformación de l a doble integral. vamos a cumplirla detalladamente. Sacando las funciones de la variable t' fuera del s igno de integral con respecto a la variable t, obtendremos b

J = lV/

,,

[J X~ (t')
"

Dado que los límites de integración a, b son constantes, la integral con respecto a la variable t repre~enta una magnitud constu11te y puede ser sacada fuera del signo de la integral con respecto a t'. J = i'rf [

Puesto que la la variable de una magnitud tuyendo en la

JXº (t) q¡ (t) dt ) Xº (t') q¡ (t') dt'] . "

b

a

"

(4.3.5)

integral definida no depende de la designación de integración, la segunda integral en (4.3.5) representa que coincide con la primera integral. Por eso, sustisegunda integral l a vari able de integración t' por la

Cap. !J Característfras de funcio11.s aleatorias

17ti

variable t, obtendrenioH J

~M

,

[{

JXº (t) q;

(t)

dt}

2 ].

(4.3.(i)

11

Es evidente t¡ull est.a magnitud no puede sor negativa , lo que clemuesLrn ln validoz de la dosigu¡¡ldad (4.::1.3).

Es íácil también ver que Ja función correlativa no cambia, si a .la í1111ciún ale¡¡torin se le añade cualq1tier fllnción no alent.oria. Cou otras palabras, dos funciones aleatorias cuya di'ferencia 11 0 es aleatoria tienen una misma función correlativa. En efecto, si Y (t) = = X (t)

(t) q¡ (t') K,, (t, t'). (4.3. 7)

+

+

X:s liicil v\lr que las propiedades demostradas, salvo la (4.3. 7), las posee también la función correlativa normada de la función alea· toria. Con ello, en virtud de que la función correlativa normada es igual a la unidad para cualesquiera valores iguales de sus argumentos t' = t (es decir, en la bisectriz del ángulo de coordenadas del plano t, t'), la segunda propiedad de (4.3.2) para la función couelativa normada da (4.3.8) 1 R., (t, t') 1 ~ 1. ~sta desigualdad es tamb ién un corolario dí.recto de la propiedad (.;l:9.?3) del coeficiente de correlación.

*

4.4. Función correlativa recíproca y sus propiedades

En muchos problemas prácticos se necesita examinar conjuntamente varias funciones aleatorias. Para la característica conjunta c¿mpleta de · dos (o de un número mayor) fonciones aleatorias, es necesario asignar tamhién, además de las deosidades de probabilidad de cada una de ellas, todas las densidades de probabilidarl conjuntas de SW! valores siendo elegidos arbitrariamente los valores de los argumentos. La más simple de las densidades de probabilidad conjuntas de dos funcion·es. aleatorias X (t) y Y (t) es la densidad

§ 1-.4. Fu11d6n correlativa recíproca g sus propiedades

177

bidimensional conjunta de probabilidad f 11 (.x, y; t, t') de sus valores X (t) y Y (t), siendo arbitrariamente escogidos los valores de los argumentos t, t' . Esta densid·ad de probabilidad depende de t y t'

como de los parámetros. Para caracterizar la relación de dos funciones, aleat.ori as X (t) y Y (t), se usa generalmente la función correlat~va recíproca .de las mismas, la cual se determina como el m:omelito de correlación· dt> los valor.es de estas dos funciones aleatorias, correspondientes. a los valores elegidos arbitrariamente de los argumentos t y t' Kxu (t, t') = .M {X" (t) Yº (t)l. (4.4 .1),

La función correl11tiva recíproca es función correlativa d:e las vári!i.hles t y t'.

.. Si es conocida la densidad bidimensional conj.unta de'-·p robabi• liclad f 11 (x, y; t, t') de las funciones aleatorias X ("t) y Y (t), ·su función correlati va recíproca se puede calcular por la fórmula

....

Kxu(l, t') =

JJ -(.'(>

{X-mx (t) ] [y-m 11 (t')lf11(x, y;

t, t')dxdy.

-C'IO

(4.4.2)

-

Sin embargo, en muchos problemas prácticos resulta posible calcular la función correlativa reciproca por procedimientos más simpl(ls sin recurrir al cálculo de la doble integral (4.4.2). Si la función correlativa reciproca de las funciones aleatorias X (t) y Y (t) no es i dénticamente igual a cero, entonces las funciones X (t} y Y (t) se llaman correlacionadas. Al contrario, si l a función correlativa recíproca de dos funciones aleatorias es idénLicamente igual a cero, est.as. últimas se denominan no correlacionadas. Semejantemente a co.mo 80 dedujeron las propiedades de la func ión correlativa, se demut1stran la8 siguientes propiedades de la función correlativa reciproca. Al permutar simultáncament-0 los argumentos e índices, la función corrclatiYa recíproca no cambia: K:r.v (t, t') = Kux (t', t) . (4.4.3) Aquí se trata do dos funciones correlativas recíprocas y la igualdad signific11 que, 111 permutar los argumentos, una función correlativo recíproca pasa a otra función correlativa recíproca de las mismas funciones aleatorias tomadas en el orden inverso. Demos In intcrprotacióu geométrica de esta propiedad. Para ello construyamos dos superficies en:cl sistein<1 do coordenadas cartesianas ~. 'J. ~: ~ = K"Y (~, 1')), ~ = K 11 x (S, 1')). (4.4.4) Estas superficies representan las funciones correlativ11s recíprocas de 1M funciones alel\torias X {t) y Y (t') tomadas en diferentes órdc· 12-0~:is

1i8

Cap. 4

Ca,-o.rtt!rfs lirn.~ d~

.functont& aleatarlns

nes. Tomemos dos puntos (t, t') y (t', t) simétricos con respecto a la biiroctriz del ángulo de coordenadas. Cada una de las superficies (4.4.4) es, en el caso general, no simétrica con relación a la bisectriz del ángulo de coordenadas. No obstante, la igualdad (4.4.3) muestra que estas superficies representan una reflexión especular recíproca con res_pecto al plano que pasa por la bisectriz del ángulo de coordenadas s011 y el eje O~. Así pues, las Z-coordenadas
(



'E s evidente que la función correlativa recíproca normada pogee todas las propiedades demostradas de las funciones correlativas reciprocas, salvo 11\ desigualdad (4.4.5) que, en virt ud de (3. 9.23), se sustituye por la desigualdad IRxu(t, t') 1 ~ 1 .

(4.4.7)

Para la exposición sucesiva necesitamos introducir todavía-e] momento inicial de .<¡egundo orden de dos funciones aleatorias X (t)° y ,Y (t), el cual se determina como el momento inicial mixto de segundo orden de sus valores, siendo elegidos arbitrariamente los valores de los argumentos t t':

rxu (t, t') =M IX (t) Y (t')l.

(4.4.8)

En virtud de la fórmula (3.9.13), el momento inicial recíproco de segundo orden se expresal por l as esperanzas matemáticas de las

§ ,.4. Fun<:ión correlativa recíp,.oca y •tu propt•dadts

179

funciones aleatorias X (t) y Y (t') y la función correlativa r.ecíproca de las mismas: r.,v (t, t') = m,, (t) mv (t') K.,'11 (t, t'). (4.4.9)

+

Hemos determinado la función correlativa recíproca y el momento inicial recíproco de segundo orden para las funciones aleatorias reales. Eo virtud de la definición (3. 7 .6) ·del momento de ·correlación de las magnitudes aleatorias complejas, l a función correlativa recí~ proca de dos funciones aleatorias complejas X (t) y Y (t) se deter·mina por la fórmula · K,,11 (t, t') = M [Xº (t) yo (t')J . (4..:4.lO) Por una fórmula análoga se d'e termina: también el .momento ·"iniciar recíproco de las funciones al eatorias complejas X (t) y Y (t). Ejemplo 4.4.l. Hallar la función correlativa rocíproca de las

funcioo~s

aleatorias

"

n

"""1

v~I

X(I)=~ Uvfv(t), Y(t)=~ Uvgv(t),

(4.4.11)

donde U,, . • . , U.,. son magnitudes aleatorias y ft, ... , !,.. g,, . . . , g.,. son ci<•r· tas funciones completamente determinadas, en el caso general, complojas. Las funcionos aleatorias X (t) y Y (t) son funciones lineales
K:cy(t, t')=

~

kvµfv(t)gµ (t').

(4 .4.12)

\1,)1=1

do11de kv., es el momento de correlación de l as magnitudt>s aleatorias Uv, U., (v, µ 1, •.. , n; kvv = Dxvl · Si, en el caso particular, las magnitudes u,. ... , Un no están correlacionadas, entonces

=

n Kx¡¡ (1, t')= ~ I>00 f,(t) Kv(l "). V=1

(4.4.13)

y

E jemplo 4.4.2. Hall ar la función correlativa recíproca de las funciones

alt>atorias

X (t) = 'P (t, u . .... Un), y (t) = .¡;(t. u,, ' ... Un). (4.4.14) considernndo conocida la densidad de probabilidad de las n1:ignitudes aleittorias U ,. .••, Up.. Conforme a la definición general de la esperanza matemática de una función arbitraria do las magnitudes aleatorias pod emos escribir f,.y(t, I') =

r

j ... _.,.

<¡>(t, Ui. .• . , Un)ij>(t',p¡, . .• ,un)X

X f (u1, .•• , Un) du1 ... du,.. Luego, por la fórmula (4.4.9), se puede calcular Kxr,¡ (t, t').

(4.lo.15)

180

Ca,,. 4 Caratleristkas de f unciomi akatori
§ 4.5. Atllcl6n de funciones aleatorias

Examinemos l a f1rnci6n aleatoria Z (t) que representa l a suma de lns funciones aleatoriss X (t) y Y (t): Z (t) = X (t) + Y (t). (-1.5.1.) Supongamos que son conocidas las esperanzas matemáticas mx (f.), mu (t). l11s funciones correl ativas Kx (t, t'), Ky (t, t') de l as magnitudes aleatorias X (t), Y (t) y su función correlativa recíproca Kx~ (t, t'). El problema consiste en hallar la esperanza matemática y la funci ón correl ativa de la función aleatoria Z (t). Le esperan.za matemática de la función aleatoria Z (t) se determina dlrectamente por el teorema de ndición de l as esperanzas matemáticas. Como resultado obtendremos m, (t) ... m,, (t) + m 11 (t). (4.fi.2) Sustrayendo esta fórmula d e (4.5.1), obtenemos l a relación entre las fun ciones aleatorias centradas Zº (t) = X° (t) + Yo (t). (4.5.3) Aplicando esta fórmula, hallamos que Zº (t) Zº (t') = Xº (t) X° (t') + Yo (t) Yo (t') + + Xº {t) Yº (t') + Yº (t) Xº (t').

(4.5.4)

De aqui, teniendo en consideración l as definiciones (~.2.6) y (4.4.1) de las funciones correlativa y correlativa recíproca, obtendremos la siguiente fórmula para la función correlativa d e la función aleatorin Z: K, (t, t') = K,, (t. t.') + K 11 (t, t') + K., 11 (t, t') + K 11x (t , t'). (4.5.5) ·É í.rvirtud de la propiedad (4.4.3) de las funciones cor.rela tivas reciprocas~ la fórmula (4.5.5) se puede escribir en l a forma

K,., (t, t') = K:r (t, t')

+ K 11 (t,

t')

+ Kx 11 (t, +

t')

+

E,. 11 (t'. t).

(4.5.6)

Eu el caso particular, cuando las funciones aleatorias X y Y no 'e stán correlacionadas, K." 11 (t, t') = Kyx (t, t') ""' O y l a f6rmula (4.5.6) tomo l a forma K,., (t, t') = Kx (t, t') + Ky (t., t'). (4.5.7) Ahora bien, la función correlativa de la su roa do las funciones aleatorias no·correlacionadas ·es igual a la suma de l as funciones correlativas de los sumandos.

§ 4.6 . D erl•YJctrm de 1uia f11nrl611 altal or la

181

Las fórmulas obt.enidas se hacen fácilmente extensivas a cualquier número de sumandos. La esperanza matemática de la suma de las funciones alea torias

" Xv (t), Z (1) = ~

(4.5.8)

v~t

es igual a la suma de las esperanzas matemáticas de los sumandos: 1\

M .(t)= ~ m,, (t). 'V=t

(4 .5.9)

V

La funci ón correlativa de la suma es igual a la sµma de 111s fµ nciones correlativas y de tod as las funciones correlativas .recíprocas de los sumandos: n

!(, (t, t'j

= V, ~ K,, ,. (t, t'), 11~! Vµ

(4.5. 10)

donde Kx..,"'µ (t, t') es Ja (unción correlath•a reciproca de l as funciones aleatorias X" (t) y X 14 (t) [que coincide para I' = v con la correlativa Kx.., (t, t') de la fu nción aleatoria X.., (t)J. En el caso particu.lar en que las funciones aleato rias X 1 (t}, . . . . . . , X,. (t) no están correlacionadas, toda!! sus funciones correlativas reciprocas son iguales a cero y Ja fórmul a (4.5.10) toma un a forma más sim ple

K ,(t, t') =

2:"

K,. (t. t').

v= I

(4.5.11)

v

§ 4.6. Derivación de una función aleatoria

Exami ne mos Ja función ¡¡leatoria X (t), todas las realizaciones posibles de la cual son funciones difereociables. Entonces la derivada do In función aleatoria X (t) Y 1 (t) =X' (t)

= ª·~,<'>

(li..6.1)

representará. la función aleatoria cuyas realizaciones posibles son las deri vadas de las correspondientes realizaciones de la función nleatoria X (t). Hallemos la esperanza mat.cmát.ica y la fu nción correlativa de la derivada Y 1 (t) suponiendo conocidas la esperanza m11tomática y la función correla tiva de la función aleatori a X (t). Como para cualquier t fijo la magnitud aleatoria -X (t-1- 61) - X (1) Y " () t t:.T rep resenta la combinación line¡¡l de las magnitudes aleatorius X (t + 6.t) y X (t), ent onces, aplicando In fórmula (3.8.9), ohten-

Co11. 1 Coroctuíillca.s de /unclont~ akatori
182 dteDtOS

De aqui, al pasar al limite para lit-+ oo, suponiendo, desde luego, que este lhnit~ existe, obtendremos

niu, (t) =

m~ (1).

(4.(i.2)

Así pues, la esperanza matemática de la derivada de una función aleatoria es igual a la derivada de su esperanza matemática. Con otras palabras, las operaciones de derivación y de esperanza mate· miitlca se puede cambiar de lugares. Pasamos ahora a la dete rminación de Ja función correlativa de la derivada Y 1 (t) de la función aleatori a X (t). Conforme a la deter· minación (4.2.6) teuemos que K

1•1

(1 t')=M[dXO(t) ~l= '

dt

dt'

~

8 = M [ 81 ;,, {Xº(t) Xº(t')}] = 8:;,. M IXº(t)Xº(t' )J.

o bien K

111 (t,

, iftK,. (1, t') t) = IJt 81'



(4.6.3)

Ahora bien , la función correlati va de la derivada de la función aleatoria es igual a la segu nda deri vada mixta de su función correlativa. De un modo semejante hallamos la función correlativa reciproca de la función aleatoria X (t) y de su derivada Y 1 (t). De acuerdo con la_ definición (4.4.1) tenemos que

K,,, (t . t') = M [Xº (t) dX;~t')] = = M

[;.{Xº (t) Xº (t')J] = 8~. M [Xº (t) Xº (t')J

o bien

Kx~, (t t') = oKxIJt(t,' t'J •

,

(4.6A)

Así pues, la función correlativa recíproca de la función aleatoria X (t) y de su derivada es igual a l a derivada parcial de la función correlat iva de la función aleatoria X (t) con respecto al segundo argumento. En virtud de (4.6.4), la fórmula (4.6.3) se puede t ambién escribir en la forma

Kv, (t, t')

(4.6.5)

.~ ~.6.

Dertvaci6rt de 11na funcl611 alratoria

188

De wi modo completamente análogo se puede hallar la esperanza matemática y la función correlativa de la derivada de cualquier orden p de la función aleatoria X (t): Yp (t) =-= X

(t). Como resultado obtendremos l as fórmulas siguientes para la espe· r anza matemática y la función correlativa de la derivada de orden p de la función aleatoria X (t):

K

(4.G.6)

m 11P (t) =- m~» (t), (t t') IPPK,, (1, I ') uP



(}/P(}¡'JI

(4.6.7)



De un modo semejante se deduce la fórmula para la función correlativa reciproca de las derivadas de los órdenes p y q dida !unció!) ale11tori11 X (t): K (t t') = a1>+0K,, (t. t'l (4.G.8) UpVq

'

qtJI 8t'q



F.,jcmplo 4.G. l. Hnllar In e.'perlinza matom&ticn y In lunrión corrcluliv11 de la deri vad~ de la funcicín alentoda X (t), si

111x(t)=a+bt+ct2,

}

1].

14 6 9 · · > 0 Por In fórnmla (4.6.2) hRllumos la csporaniu roatcml\Licu de In derivuda Y, (t) - X' (1): (1)=m;. (t)=b+2ct. (4.6.i O)

Kx (t,

t')-oe-"' lt-•'I [ cos Wo (t-t')+ :

S-On«>o 11- 1·

"'u,

Parn hallar la fm1c.i611 corrcl atív~ de 111 rlerivadal dotcrn1in arnos primeramente la fonci6n corrclalí\'a rcclproc.a de l a fuoción 11 cutoria X (t) y su 1IOl'ivnda. Aplicand() la fórm11la (4.G.4), obteudre mos: 1) si 1'

>

Kxu, (1, t ') = D

1

0~,

{

. -l1 (l'-I) [

cosro0 (1' - 1)+ :

0

sen ro0 (t-t')

- -D at~Cll3 :l) sl t'

<

Kxy (1, t')=D 1

J} =-

,-a(l'-l) S(ID

Cllo (t' - t);

1

0~,

{ e - a(l-I') [cos
0 (t-t')+ -D

~

son6l0

2

ª +
~

(t-1')]} =

e- 11<1- 1'> sen 6>o (1 - t' ).

(l)o

Do oslc wooo, para cuolcsquiera t y t'

K,,~

1

(1, t') = D etU + c.i! e- 4 11-1'1sen6>o(t-t'), ClllJ

(4.6.H)

Ahfrelativn do la derivada Y, (t) - X' (t); como resultado obtondremos

184

Cap. d Caraetert.stica.~ de functonc$ alf•atortas 1) si t

<

r

K 11 (t, z') =D (a.2 + wa> e- a Cl' - t) [cos 1

2) si t

> l

K 111 (t, t')= D (CT.2 ..¡.. ro~)

w0 (t-t ' )+2- seuw0 (t - t')] ; wo

cos 000 (t-·-t') -

c-a
~ sen w0 (t-t')

J.

Todns osta.~ fórmulas se pued~11 reducir a una sola fórmu)Q válida 1n1ra Lodos los t y 1': K 11 (t, t')=D (a2 1

+ ooi) e- a Jl - 1'1 [cos w0 (t-t ')-~ sen ~>o 1t-t'1]. Wo •

(4.6.12)

};jcmplo 4.6.2 . Hallar In CS(Jeraoza matemática y la fu nción correlati va de lu derivada de In función aleatoria X (t), si m,. ( t) a O, Kx (t , t') De-a. J l - t' l. (4.ll.13)

=

En virtud do la fórmula (4.tl.2) la ()Sperania matemátic a de la dcdvada de la func.ión aleatoria 1ruo se exam ina es idéntlc anienle igual a cero. La fórmu-

la (4 .6.4) dn si t < t'

K

.•º(t t')= D..!!_ e-« (t'-- t) = - Dr;.e-""
X&/1

s i t'


(4.6.14 )

t t')= lJ.!!_e-a
K XUt < '

'dt ' ··

-

v.



Así yueo;, la íunción correlativa rec iproca de Ja función a leatoria X (t) y de su derivada tiene en este caso discontlnuldad do primer género pa1·a t=t' con un salto igual a 2Da. (fig. 4.6.1). Es fácil comprender que restando de os tu funci ón la función escnlonada unitaria 1 (t-t') multiplicada por 2Dr.t., obtendremos una función continua que designareinoo por f (t, t'). Ahorit bien, la función correlativa recíp1·oca de la función aleatoria X ( t) y de su derivada puede ser presentada en esto caso por la fórmula K,.

Fig.

111

(t, t')

= f (t , t ')-l- 2 Da1 (t - t').

(4. o.1.5)

donde / (1, t') es una Iunción continua que se determina por la fórmula , { 2Det.-Da.e-a (t'-t) s i t < t'. / (t, t ) = (4. G.16) DCT.e-o. Cl - I') si t>t'.

1,.1).1 .

Al derivar la fónnula (4.6.15) con respecto a 1, teniendo en cuenta (4.6.16) y ion¡ando:en consid.eración :que la dorivada de la func ión escalonada unitaria delta,. 9.~toncJ~mos en virtud de (4.6.5)

~s .. ft¡nci~n.

K



(1, t')=

of~, '2..+2DCT.1' (t-t' )=-Dr;.ie-a¡t-t'l+ 2Dw5 (t-t' ). (4.6.17) ut

Vemos que )a func;ión. correlativa de la ~erivada de I~ función aJ .,ator}n X (t} contiene en este caso un sumando proplltc10nal a Ja fo oc16n 1lelta 6 (t - t ). P.or cou~iguiento, la di$persi6n de la derivada en ~J caso dado es infinita: D 111 (t)

=

K 11, (t, t)

=

-Da-2

+ 2Da.() (0) =

eo.

§ 4.7. / n/t¡¡raci6n dt una /uru:lón

al~a/orla

.Esto es fácü c.omprendcr yo quo l a !noción correlativa de la íunci6n alcntoria X (t) 110 iien~ en este caso lo seguudn rlcrivada mixta. en S()ntido común. para 1' ... 1 y, por lu tnn to , la fullción X(/) uo es diTeronciobl11 en el ~ntido corricn· te. Pnr ~so Qn In expresión de IR fund6n correlativa du 111 tlorivada ha ent,rndo prcclsa mlmte la función rleltu.

§ 4.7 . Integ ración de una función aleatoria Exam inemos la función aleatoria de la variable s: b

Y (s¡ =

Jg (s, t) X (t) dt,

(4.7.i )

donlle g (s, t) es la funció n (no aleat oria) asig nada. Supongamos que son conocidas m., (t) y !\." {t, t') y hnlJemo~ la esper an zn qt¡i.te" mática my (s) y la fun ción correlat iva Ku (s, s') de lá fu ncióii' lilen· tori a Y (s), así como RU función correlativa recl11roca con X (t). Dado que, según lo demostrndo en el § 4.3, lus o peraciones de esperanT.u matemática e integración se pueden permutar, entonces "

Jg(s,t)M [X (t)lclt, b

;lf[J'(s)l = M[J g(s, t)X{t)dt] = u

Q

o bien m,1 (.~) --"'

b

Jg

(s , t) m,. (t) dt.

(4.7.2)'

Q

Estn fórmula es la gencraliznción ele Ja fórmula (3.8.U) para la espcrnnza matemática de In fu nción lineal de mag11itmlcs a leatori11:< corrientes. Luego, s ustrayendo (4.7.2.) 1le (4.7.1), o btemlrt'mos

}'º (.~) =

/>

Jg (s, t) Xº (t) dt . n

Según Ja (lefinición de la función correlntiYu (lo .2.ü) tenemos

K11 (s, .~') = M [Yº (s) Y1 (s') ] = ó

1

I (s' ,

a

r.

b

=M

[

g (.<, t} Xº (t) di

h

=

M' [ .\

g

t') X º (t') di']~

b

Jg {s. t) g (s' , t' ) Xº (1) Xº (t') dt dt' J=

n ''

b b

=

JJg (s. t) g (s', t') M [Xº (t) Xº (t')l di di.' " "

i/36

Cap . 4 Características de. ju11cinnes at.:alorias

o l>ie11

Kv(s, s')~

b

b

u

a

JJg(s , t)J((s' , t')K ,.. (t,t')dtdt' .

De un modo análogo sti puedu ob'Lentir la siguiente fórmu la para Ja función correlativa recíproca Kxv (t, s) de la función aleat
K .Ty (t, s) =

Jg (s, t') !(., (t. , t') dt' .

(4.7A}

l~n la práctica es suficiente 11 veces hallar la dispersión de l1;1 integral de la función aleatoria. Como la dispersión de la función aleatoria es igual al valor de su función correlativa, para iguales valores do los argumentos, su¡ioniendo que en (<~.7 .3) s' -= s, oblcn·dl'ernos b

Du (s)

= Ky (s, s) =

.~

b

Jg (s, t) g (s , t') K x (t, t') dt dt'.

(11. 7.5)

a a

De cstn íórmuln se ve que, }llHa c11Jcul ar la dispersión de In i11togral ·de la función aleatoria, es necesario conocer la función correlativa de In función subintcgra! . Vemos que resulta ser suficiente el conocimiento de la esperanza matemática y de la función correlativa para realizar sobre las funciones aleatorias las operaciones elementales del análisis: la deriva-ción e integración de las fuuciones aleatorias, así corno lus operaciones lineales del Algcbra. EjP.mplo 4.7. t. Hall&r ln csperanz11 mntornútica y lu luución correlativa ·de la integral de la función aloatoria Y,(•) =

1•

X (t) dt,

{4.7.6)

:si

mx(l)=a-1-bt, } K,, (1, t')=D•-°'11-l'I

(4.7.7)

En este caso la función g (s, t} es igl!al a la uuidad en el intervalo (O, s) y .a cero en el intervalo (s, oo). La fórmula (4.7.2) da (4.7.8)

§ !1..7. lnt.Brt1ción th una funci61l aleafor¡a

.

La fórmula (4.7.3) para la función correlativa cuando •

K 11 (s, 1')=

¡' ¡•'

K,.(t, t')dt dt'=D

•'

~ ~

.-o:



t

•'

o

o

t

(l-I')

<

187 r' o frece

dtdt'=

=D} di[) ,-a(l- t'ldt'+ J0-a(l'-l)dt'] = =D

• [ 1_ 0 -at --et

~ o

• -a<•'-ll-t] dt= et



Para hallar la expresión de la función cnrrelativa cuando r > l, e!! sulir.ient.c . en virlud de la propiedad de la si.metrla de la función correlativa, permutar los argumentos t y s'. Como r~ultado, parn todos los : y•', la !unción correlativa de lo int egral de la función aleatoria X (1) so e~prc~artí por la fórmula K 11 (s,

•')= ~ [2ct mio (s, t ')-1+•- ª' +.,-cu· _ .,-al•-•'IJ, (4.7.9)

donde m!n (s, s') es el menor de los números s, s'. La dlspc1'Si6n de la integral de la función alcMoria X (t) ee determina por la fórmul a obtenida cu andn

s' = 1:

(U.tú) Ejemplo 4.7 .2. Hallar la csperanu matemática y la desviBción cuadrática media de la deriva del gíroscojJio {t) bajo la i nfluencia del momento olo.torio hf (1) durante el tiempo t si l a esperanza matemática de este momento os con.-;tant~ e igual a m, mientras ¡¡ue

a

(4.7.11)

Hac iendo la suposición, corriente en la teoría aproximada do los giros.:opios. de que la dirección del vector del momento cinético del giroscopio coincide con la del eje de ~u rotor rocordando que, en virtud de unaley conocid& de l a Mecánica , la velocidad de extremo del vector del momento cinético es Igual al momento de las fuerzas que actúan sobre el giroscopio, podemos escribir

r

t

9(1)=

! \

M("t)dT,

(4.7.12)

~

donde JT es el momento cinétlco del giroscopio. Comparando esta [órmuJa con (4.7.1), vemos que la función B (t, T) en esto caso os igual a 1/H cuando O.;;; TE;; <; t y a cero cuando-.> t. En virtud de las fórmulas (4.7.2) y (4.7.5), la espe-

188

Cap. 4 Caracleri.
ranza matemática y la dispersión
1 me(1)=7T

mt Jr mdt=-¡¡-·

(4.7.13).

~

Do(l)=¡~a

1 1

JJ[(

111

('<, T')d.TdT' =

o o 1

=.17~

J

fz 1

'

t

o

~

J\

e-"' l'<-<'lp+a ¡-r-'t'IJd'td't' =

'(

dT{J e-a (T-t'l li -!-a('t-T')]dt'+

1

!

1 J o

= ~

+ J c-et(l'-T) li+a(T'-T)) di:'}= '

[i:e-cn + (t-'t)e-«<1-•l¡ d't=

J~~(i-t-" 1 -aee-ª 1 ).

(4.7.14)

Estas', fórmulas muestran que la derivn sistemática del giroscopio bajo In acción do la com ponente constante del momento crece proporcionalmente al tiempo y la desviación cuadrática media del ángulo do deriva del giroscopio, baje> el efecto de la componente aleatoria
§.4 8. Secuencias aleatorias. Procesos aleatorios mark.ovianos Los valores de la función aleatoria en la serie discreta de los fij9s 111 t2 , •• ., ~n forman una secuencia aleatoria X, = :.. X (t,) (r = 1, 2, ... ). Es evidente que el término arbitrario de la secuencia aleatoria X, se puede considerar como función alea(ória de su· número, es decir, dél argumento ,. representado por un l\Úrn~~o entero y_, de ~t~ modo, no examinar el argumento t. . S.i el número de valores del argumento t, es finito, los valores correspondientes de la función aleatoria forman una secuencia alea:.. ·t:oi'ia .f inita. Los términos de la secuencia aleatoria fía.ita se pueden consid'erar como componentes de un vector aleatorio. Por consiguiente, para las secuencias aleatorias finitas es válida por completo la te.or.ía de vectores aleatorios expuesta en el capít ulo anterior. Si el número de valores del argumento t, es infinito, los valores correspondientes de la función aleatoria forman una secuencia aleatoria infinita. La secuencia de valores d1¡l argumento {t,} puede irse a la infinidad por el eje t a un lado cualquiera (positivo o negativo) o a ambos lados. En el último caso con los valores t, del argumento '[i.1,1,ilt9s

ii

4.8. Secutncias aleatorias. Procesos aleatorins

mark1>11ia11~x

.t 89

t se confrontan todos los n6meros enteros desde - oc basta +oc. En lo sucesivo examinaremos -siempre, para que el ·examen ·tenga un carácter general, las secuencias aleator-ias infini:tas a ambos lado's. A veces en los problemas aplicativos l a secuencia aleatoria se llama función aleatoria enrejada y el argumento, representado .. por· ·números enteros, de tal función aleatoria se toma entre •corchetes para diferenciarlo del argumento conti·nuamente variable: X, .,;,; = X [r] (r = O, ± 2 ...). L a característ ica. probabilística completa de una secuencia ale!!_toria es la secuencia de leyes de distribución de.sus ténnineis toma• nt.e, considerado como función de los números de los términos mencionados: k~ = M I X~X~J =il{íXº(t,)Xº(t,)J

(r, s=O, ±1, ±2, ... ). (4.8.2) Ejemplo 1,.8.t . Los valores de la función alé11toria X ( t) t.c•u f!S(l~rauia

m11t<:nií1llca y luoción correlativa

1

mx=a+·bx, K,. (t, t ' )= De-a ll-t'I (4.8.3) del a1·gnmcuto t, = r A (r = O, ± 1, ± 2, .. .) X, co11 la ospcra11za matemática

i~ra lo~ v~lorns cqului~tanles orman la s~cucncia aleatoria

m;=a+brA

(r=O, ± 1, ± 2, ... )

(l.. 8.4)

y la furn;ión correlativa

K~.=Dgl•-•I ,

q=e - at>. .

(4.8.5)

El tipo Dlás simple de secuencia aleatoria es la de magnitudes aleatorias independientes. Para tal secuencia aleatoria la función correlativa es igual a la dispersión del término correspondiente de in secuencia, siendo iguales los valores de los argumentos (r = s), y es igual a cero si los argumentos tienen diferentes valores (r =t= s). En cuanto a l a simplicidad, el siguiente tipo de secuencias aleatorias serán tales secuencias en las que la dependencia entro

t llO

Cap. 4 Caratúr!sUea• d1 /u11tlonc• alta/orlar

los términos parece extenderse sólo a un número pequeño de términos vecin os. Tales secuencias aleatorias se llaman cadenas markovianas. Ahora vamos a dar una deJlnicl6n exacta de las cadenas markovianas. L a secuencia aleatoria {X,} se denomina cadena markoviana simple, si la ley cond icional de distribución de cada término de la secuencia X, con respecto a los términos anteriores X,_ 1, • • • . . . , X,_n, para cualquiera n > 1, depende solamente del valor que tomo el término precedente de la secuencia X , _1• As( pues, la secuencia aleatoria es una cadena markoviana simple, si la densidad condicional de probabilidad de cada uno de sus térm inos X, coo respecto n los términos anteriores X , ." .. ., Xr-n> para cualquiera n > 1, es idénticamente igual a la rlensidad condicional de probabili
/, (z, 1z,_¡, ... , :e,_,.)

= f, (z, 1z,_1)

(11 = 2, 3, ...). (4.8.6)

Ln seeuencia aleatoria {X,} se ll ama cadma marko11iana compuesta de orden l, si 11.1 ley condiciona.! de d istribución de cada término de la secuencia X, con respecto a los términos precedentes Xr-1> ... . . . , X,_n, para cualquiera n > l, depende solamente de los valo· res <¡ue tomon l de los términos preccdeutes X,_¡, ... , X,_ 1, es decir,

J, (x,

1 :t'r .. lt • • G

/,

•t

X r -h X r- l - H · · ., Xr-n} a

(x, 1Z r - 1>

• • •,

:e,_¡) (n = l

+ 1, l + 2,

... ). (4.8.7)

Ejemplo 4.8.2. Examinemos la socucncla de experimentos independienlcs en e-0nd1eiones Iguales. Sea X, el número de veces que ,,.. produce cierto acontecimiento A al realizar la r-ésima prueba y¡, , la probabilidad de que se pMduzca el atontecimiento A en cada prueba. Bs ev1dent.e quo la secuencia X., Xz, • . ., . . . , X., •. . es la secuencia de magnitudes alutorlas independientes con la esperanza matemática constante = p y la función correlativa k¡, = pq, = 'O cuando • .¡:. r (véasa el e¡'emplo 3.9.t). ·Ejemplo 4.8.3. La secuencia a eatoria normalmente repartida {X,¡ con la lunei6u correlativa k~, = Dq l r-• I representa una cadena roarkoviana si in ple. Observemo.s, para l a demostración, que la magnitud aleatoria V, = X, - qX,.1 no de¡icodó de los ro1
m:

k:,

M[V~x:1=M IM~x:¡-qM [X~-1x!1 = Dq,_.-qDq1 - 1

v,

-·=o

(4.8.8)

Gil decir, y X, no están correlacionadas p&ra cualquina $ < r. Pero como la distribución conjunta de 183 roagnitudes F,. X, , , .. , X, es oormal, entonces, de lo demostrado en el§ 3.H. se deduce que I~ maqoltu:t'v, no dependo del conjunto de magnit udes X , , ••• , X,~ para cua lesquiera '" .. ., ·~ < r. Por 1

.~

H)t

4 .8. Sectumcla.• altatorias. Proceso.• ale.atorlos markor.'ianos

consiguiente, la densidad con
+

Por lo tant.o, para haUar la densidad condicional de probabilidad bu$cada de lo· magnitud X,, se puede aplicar fo fórmul a (3 .3.12} deducida en el ejemplo 3.~.1. Entonces , teniendo en cuenta quo eu el caso dado ¡¡ = :r:,, :r: a 1, b = = qx,. 1 • obtendremo• f (x, 1 Xr -nl = g (x, - qx,.,). (4.8.11')

= "" =

:z,_,, ... ,

De aqul resul ta
x,_

La cadena markoviann simple se llama frecuentemente proceso aleatorio markoviano con tiempo discreto. Tal proceso aleiitorio se caracteriza completamente por }¡¡ dcnsidnd bid imensional de iirobabilidad, es docir, por la densidad conjunta de probabilidad de dos cualesquiera
f (:e r

J

X

) = / , (r,_L, .r,) =

r- 1

Ji

(x, _ ,)

~

¡, (r ,..¡,

x,)

(/i.S. l'.!)

S {2 (r.,_, , :r:,) dx, - oo

Luego, la densidad conjunta de probabilidad de cualquier número· de tétmioos de la secuencia se determina por la fórmula

ln+t

(Xr -n • .• .,

x,_., x,) =Is (Xr-n) I (Xr-n+• 1Xr -n) · .. I

...

(x, 1x,. 1).

(4.8.'13}

La J1oción de proceso aleatorio markoviano se puede extender también a l as funciones aleatorias de un argumento escalar continuamente variable. Precisamente la función aleatoria de argumento· escalar X (t) es la que se denomina proceso aleatorio markoviano

:siompre que sus t 1 < t 2 < ... <

val ores,

cualesquiera

qu11

sean

los valores rnnrkovia-

t,, del argumento t, forincm una cadena

ua simple.

E jl.'mplo 4.t!.4. La lo11cióu alcutoria JtOt"lliulm cnto r~¡1arthl11 clutamcntc análogo ~ d emuostra que, cualesquiera 1¡ue saan Los valores, a.rbitr:uíamentc elegidos, del argumento 1, < to < ... < In• los valores correspondientes de la función aleator io. X (11), ••• , X (tnl forman una cadooa markoviana simple.

CAPITULO 5

Funciones aleatorias estacionarias

§ 5.1. Definición y propiedades principales de las funciones aleatorias estacionarias

Generalmente se llaman estacionarios a tales. procesos y objetos cuyas características determinad as no dependen del tiempo de obset~ vación, es decir, no cambian al decalar arbi trariamen~e el tieq¡po (son invariantes con l."especto a cualesquiera d'ecalajes del tiempo). De acuerdo con lo dicho, se denomina estacionaria a una. función aleatoria X (t) si las determinadas características probabilísticas de la función a leatoria X (t ll.), cualquiera que sea ll, coinciden idénticamente COll las características correspondientes de la X (/.). Es evidente que la esperanza matemática y l a dispersión de la función aleatoria estacionaria son constantes y su función correlativa depende solamente de l a diferencia de los argmuntos l - t' . En efecto, según la definición general de la estacionaritlad, la esperanza matemática y la función correlativa de la función aleatoria est,ncio11ari a X (t) sntisfnccn las c.ondiciones

+

(t) ==: mx (t Kx (t, t') = K ,,(t mx

cualquiera que sea

+

ll.),

+ ll.,

t'

+ L\)

(5.1.1) (5.i.2)

Poniendo en (5.1.1) L\ = - l , obt.endrcnios mx (t) =m"' (O)= const.. (5.1.3)

/!,,.

Poniendo en (5.1 .2) il = - t', obtendremos K" (t, t') = Kx (t -

(f>.1.4)

t', 0).

La dispersión de la función aleatoria X (t) os igual al valor de su función correlativa cuando t' = t. Por eso, tle (5.1.4) se deduce que Dx (t) =Kx (t, t) = Kx (O, O)= Dx (O)=

cons~ .

(5.1 .5)

Designando la función de una variable t - t' en el sogundo micDlbro de l a igualdad (5.1.4) por k,, (t - t'), podemos escribir K" (t, t'} = k,. (t -

t' ) = kx ('t).

't

= t - t' .

(5.1.6)

Ahora bien, si la funció11 aleatoria X (t) es estacionaria, entonces, dondequiera que elijamos un intervalo 't de longitud dada en el eje de la variable independiente t, loa valores de la función aleato13- 0~38

194

Cap. 5 Pu11tln"',$ aleatorüi1 •datlonarla•

X (t) tienen en los extremos de este intervalo un mismo momento dn correlación k., (T). Para tocios los problemas prácticos en los que se trata sólo co n momento;; 1le los dos primeros órdenes (esparnnzas materruhicas y f1.rnciones correlativas), bastn la constancia de la es¡Jeranza matemólica y la de1)endencio de la función de conelación sólo de 1i:t diferencia de los argumentos para considerar est acionari a a una íu11ci6n alcaLoria. Por eso, l o~ funciones aleatorias cuyas esperanzas matemá lici.s son consl onte1< y las funciones correlativas dependen sólo de la tliierencia de los argumentos se llaman estacicnarias en el smtldo amplio. En aquellos casos en que se trata de otras característicos de la función alentoria, l a estacionarid ad en el amplio sentido no P.S suficiente. Es 11ecesario exigir quti todas las característiC11!! de la función aleatoria que uos interesan sea n invitriantel; con re¡¡pecto a los decalajes arbitr llrios a lo largo del eje de Ju variable inde¡ienditmle para quo se pueda con~ide1·ar estacionaria dicha nuignitud. A~í pues, en los problemas prácticos tenemos que encontrarnos con diferente •grado de estacionaridad» de l as funciones aleatorias en depe11dencia de cuáles son las caract"°rísticas probabilíst.icas que nos inleresan. Las funciones nleatorialcl pueden :!er estacfonarias ten mayor o menor grndot. La estacionaridad en el sentido amplio representa el tipo más simple de estacionarid11d. La exigencia de estacion11ridad en el seuticlo umplio impone a una función aleatoria l11s roillimas limitaciones. Otro caso extremo representa J.a estacionuridnd completa o la estaclonartdad en el se11tído estricto cu11ndo toda:i l11s cnrncterísticas probnbilísticas de fa !unción alcaLoria, sin exclus ión ninguna, son invariantes con respect o a los decalaje.s arbitrarios por el eje de In variable independ ienro. La función ni ca Lo ria X (t) se denomina estacionaria en el sentido estricto, si todas las Jeytl.'! 1le 1listribució11 de todos los órdenes ¡iosil>lcs de la funci<'>n 11hi11torin X (l L\), cunlqui era quo sea 6, coincid en idénticAme11to 1:011 lns corrci1pondientes leyes de 1listribuchín de ln Cu11ción ale~toria X (t). A continua ción, ni balilnr
+

§ 5 .J. Dtftntctón y propttdade.•

prtn~tpal11

195

Como la funci ón correlativa de cualqu ier función aleatoria es simétrica, es decir, no cambia de valor al permutar los valores de l os. argumentos, entonces l \l. función correlativa de una función al eatori a t?Stacionaria satisface la condición k,. (t' - t) = k., (t - t') o bien (5.1. 7)

Así pues, la función

correla~iva

de una {unción aleatoria estacionari·a

es función par de la dilerencia de l os argumentos.

La desigualdad (4.3.2) a que satisface la funci&n correlativa de cualquier función al eatoria toma, en caso de una función aleatoria estacionaria X (t), la forma (5.1 .8) 1k x ('t) 1<;;: kx (O)= Dx . Así pues, lu fonción correlativa de una función Aleatoria estacionaria, cualqu iera que sea i:, no puede ser, en magnitud absoluLa, muyvr que su valor correspondiente al origen do cvordeuaclas.

Ejemplo 5.1.1. En los ejemplos 4.2.3, 4.2.6 y 4.2.7 dados en eJ capítulo anterior nos encontramos con la función correlativa, dependiente sólo de la diferencia de los argumentos, de la forma ko:('t)=Dxe-<Xl'
i:=t - t'.

La í11nción aleatoria que tiene ln esperanza matcmátic-a constante y tal función correlativa es estacionaria (en el sontido amplio). Ejemplo 5 .t .2. La función aleatoria examinada en el ejemplo 1,.2.1 es estacionarla solamente en el caso cuando las dispersiono5 de lM magnitudes aleatorias lJ y Z son Iguales. En ol caso general de diferentes dispersiones d1! las magnitudes aleatorias U y Z esta función aleatoria no 05 estacionari11. Ahora bien, la oscilación armóJlica de cierta frecuencia. con runplitu1l y Ca$e all)alorias, ropresenta en el caso general una función aleatoria no estacionaria y sólo 011 el caso particul ar de ser iguales les dispersiones de los codicientes aleatorios ocl juntos al seno y ol coseno, es una función aleatoria estacionai.'ia. Ejemplo 5.1.3. La función aleatoria representada en el ejemplo i\.2.3 e• estacionaria cualquiera que sea la densidad de probahil iclad do la lri-cuc11c.la aleatoria de oscilaciones f (<~) puesto que s11 esperanza matemática &.'\ Jtlén&kamente i~ual a cero, mhmtras quo la fu11ci6n correlativa, 11tlci s6lo J e l a diferenda de los argumentos. Ejemplo 5.1.4. Si mx (t)= a+bt, K"' (t, t ' )= D• - "' 11- 1 '1, cntoocr.s l a !unci6n aleatoria X (t) es no estacionarla. No obstant11, estn no cst.ac.ionarldad no es es-0ncial, puesto que la conespond ieote función alentori~ e.entrada Xº (t) es cstacionarin.

En las aplicaciones tenemos que encontrarnos frecuentemente con la función correlativa exponencial kx (i:) = D,,e-"' (TJ, (:l. f .9) ·! :'\•

t OO

Cllp. 5 Funciones akatoria.t ettactonari
Otro t ipo bastante frecuente de func ión correlativa de un proceso aleatorio estacionario os la función de la forma kx (i:)

= D ,,e-" r•I cos

ro 0-r

o una función más general de la forrnri kx (-r) = D:re-rx l•I (cos WoT i' seo

+

(5.1.10) Wo

1 i: 1).

(5.1.11)

En fo fig. 5.1.1 se muestn1 el gráfico d e una función correltltiva exponencial (5. 1.9). En la fig. 5.1.2 se representa el gráfico de la función correlativl\ exponencial do coseno (5. 1.10). Vemos que k.i;(::>

f i:;. 5.1. 1.

fig. 5.i.2.

nmbas fuuc iones tienen en el origen do coordenadas un punto angular e l ri.uu la derivada de l a función correlativa tiene discontinuidad d o primer género. Para la aproximación du las funciones correlativas con la derivarla continua, se pued e ap licar la expresión (5. 1.11), eligiendo en ésta el coeficiente 'Y de modo que la derivad a de dicha función corre) aliva sea igui\l a cero cu an do -r = O q 1: (el lector puede por sí mismo com ~·-'(u;,.,,.-.,-Wolt!),,r-J. probar que esto ~e alcanza cuando y = aho 0 ). E n l o fig. 5. 1.3 se mue!l\:.I'u Fig. 5.1.3. el gráfico rle tal función corre!Ativa. Ob'servemos q11e la función que tiene fQrQ"la de (5.1.1.1) puede ser correlativa sólo en a quelcasocua11do 1 y 1~ a/ w0 puesto que para 1 'Y 1> a / (l)o la condición (5.1.8) no se satisface. IJA continu ación veremos que cualquier !unción correlativA de 1:1 f unci ón aleatoria estacionaria puede ser aproximada, con un grado cualquiera de precisi ón, por la combinación lineal de l as fu nciones de l a forma (5 .1.9), (5.1.10) y (5.1. 11). , Las'lf6rmulas generales dadas en el § 4.6 para las esperauza8 matemá ticas y las funciones correlativas de l as derivadas de u na funci ón aleatoria son aplicables también para las funciones ale11torias estacionari as. Valiéndonos de fas fórmulas (4.6.2) y (4.6.3), hallamos ia esperanza matemática y la fuóción correlativa do l a primera deri<'11



.~

5.1. Definlci6n 11 propttdadu prlnctpalts

197

vada Y 1 (t) = X' (t) de la función aleatoria estacionari a X (t): ') éPK,, (t, ""ii1 (t ) = O' K 111 ( t, t Ot

º'' t ' ) =

-

k" ( )

"

'T •

De aq uí se ve que la derivadn de una función alen toria estacionada ta mbién es estacionaría. De un modo anál ogo hallamos por 1as fórmu las (4.6.6) y (4.6. 7) l a esperanza matemática y la función correlativa de la derivada del orden p de l a función aleatoria· estacionaria X (t): T/' (t t') Q'lP K " (t, 1') 1nvp = O• "'uP • = 8tP 8t'P Ahora bien, todas las derivadas de una función aleatoria estacionaria son funciones aleatori as estacionarias con esperanzas matemáticas iguales a cero; en este caso, l as funciones correl ativas de las derivadas se determinan por la f6rmulu k,,p ('t) ... ( - 1)" k(~~) (•)

(p = i , 2, ... ). (5.1 .12) Fig. 5.l k Dos funciones aleatorias del mismo argumento X (t), Y (t) se llaman estaclonariamente li.gadas, s i s u función correlativo recíproca es función de la diferencia do los 11rgu men tos: (5.1.13) K,. 11 (t, t') = kx¡¡ (i;) T = t - t'.

De la propiedad (4.4.3) de una función correlativa r ecíproca se deduce que dos funciones correlativas recíprocas de dos funciones aleat orias estacionariamente ligadas X (t) y Y (t), t.oiuada~ on diferentes 61·denes, estón enlazadas por l a correlación (5.l.14 )

Gráficameute esto significa que la curvo. kv:x: ('t) es lo. reflexión especular de la curv a k"Ji (t') con respecto al eje do ordenadas (fig. 5.1A). La desigualdad 14.4.5) para lns funciones aleatorias X (t) y Y (t) est11cionori as y estacionariamente ligadas toma Ja formn

lkxv(•) 1-< Vkx (O) ky(O) -= V DxD11 •

(5.1.15)

Las fórmulas (4.2.10) y (4.4.6) que dcterminitn las funcione~ correlativas normadas toman, para las funciones aleatorias estacionarias y estacionariamente ligadas, respectivamente Ja forma

r "' (i;) =

r - {T) xy -

-

kx (T) kx (Ó) '

k.,.v (i:) Vkx

(O} k 11 (0)

(5.1.16) (5. 1.17)

198

Cap. 6 Funciones akatol'tas •stacio11arta1

Ej('Jl1p1o 5.1.S. Examinemos las funciones aleatorias X (t) = Z cos ro0t 11 sen ro0t. Y (t) = -Z sen ©ot U cos ro 0 1, dondo :t y U so11 magnitudes aleatoTias no correlaciouadus con l)Speranz.as u1áttnnút ic11s iguales a cero y dispersiones iguales a D. Es ev idente que l as funciones c.on~lativas de estas funciones aleat-0Tias se oicprosan por l a fórmnla Ir.~ (-r) = 1, (i;) = D cos w 0 -r. 11

+

+

4.:u. La funció n corcelativa rodpnl tlc las luucionos aleat11rius X (1) y Y (t), eu virtud de (3.9 .8), se determina por Ja fórmula K"y (t, 1'¡ .,., -D cos O>•I s~n <~ot' n sen (J)o! cos t>lol' = )) $01\ lllo (t - /'). Asf p>ll'S, HS f11ncioncs a lo:utorias X (1) y Y (t) son est.acionnriamente ligaol U s1m (J)ot. Y (t) = Z cos ~>ol V ~eu Wot

que se de.d uce h1 mi~mo q1w cu el cj~mplo M

+

+

+

donolo ;:, U, V son magnitudes aleatorias no 1,o)rrelacionarlas con esperauzas mntcmáticus igu:oles a cern y la~ mi~mas dispersiones iguill11s a D. B11 vlrtud 1)0 lo~ rc•sullados del ojomplo 4.2.1, amba$ funciones aleator\11.5 ~011 e.stacionat·ia~ puesto quo Kx (t , t')

= K 11 (t,

t')

= n cos

01 0

(t -

t').

Siu embargo , éslas 110 son ligadas estadonarinmente dc.hidn r1 que su función cmrclativa recipro(.n K.t!I (t, t') = M [ X (1) Y (t' )I ~ D e.ns c~t cos cM'

no

1·~

funt;ióu do In
t'.

Aplicando la fórrnnla (4.6.8), se puedo determinar las funcione~ correlativas recíprocas de las derivadas de diferentes órdenes 11,,~q

,,

-

i)ll' iJt ''I.

- -

"-·x

'"t .

A.~í puo~.

las derivatla!I do una func.ión nloatori a estacionaria son funci ones nleatorins estacionarias y e.stacionariamcnle ligadas y sus funci oJleli correlativas recíprocas se determinan vor la fórmula Ku.Pv (T)=(-j qk':N> ('t) 11

(p, q=O, 1, 2 , ... ). (5.1.18)

En pnrticul ar, l a función correlativa recíproca do una función aleato ri a estacionaria X (t) y de su primera derivada se determina por Ja fórmu la Si la función corr,elat iva k" (•) de la función aleato~i a estacionaria X (t) tiene continua la primera derivada, ent onces k~ (O) = O ya que, según (5.1.8), k. (T) tiene el roáx.imo cuando 't =O. Si la pri mera derivada do la función correlativa es d iscontinua en el punto • =O como, por ejempl o, en los casos (5.1.9) y (5.1.10), entonces, debido a la paridad de la función correlat iva (5.1.7), su derivada

§ S .:!. b'druclura de u11a /u11cló11 akatorin t6taclo11aria

199

izquierda en el punto T = O es igual en valor absoluto y cont¡;aria en signo a la derivada derecha. Como resultado, en este caso también se puede considerar que k~ (O) = O. De este modo, para cualquier fu nción a leatori a estacionaria (5.1.20) kxv 1 (O) = - k~ (O) =O. Esto quiere decir que cualquier función aleatoria estacionari a y el valor de su primera derivnda en el mismo punto no están correlacionados. Si la función aledoria estacionaria está repartida n.ormalmente, su valor, cualquiera que sea el valor del -argumento, y el de su l)rimera derivada, para el mismo valor del argumento, son ind·epend4eñ• tes. Claro e.~tá, qne de lo dicho no se pued·e deducir de ningú·n 'mód'o que la funcióu aleatoria estacionaria y su primera deri vada est án, on genernl , no correlacionadas. Como la derivada de la función correlat iva :;jempre es d ist inta del cero idántico, la magnitud aleat oria estacionaria y su primera derivada siempre están correlacionadaf! •.

*

5.2. Estructura de una función aleatoria estacionaria

Examinemos todas l as funciones aleatorias que se pueden componer de l as sinusoides de diferen tes frecuencial! con amplitudes y fases aleatorias. Tales funciones aleatorias se expresan por la fórm ula

..

X(t)=m.,+ ~ (Uvseu0>,t + Z vCOS0>,t).

(5.2.i)

\ 1-;a l

donde ro 1 , • • • , w. son l as frecuencias elegidas arbitrariamente, m x es la espera nza matemíitica const ante y Us. . . . , Un• Z 1 , • • • , Zn son las magn itudes aleatorias cuyas esperanzlll! matemáticas son iguales a coro. Vamos a limitarnos al caso en quclus magnHudes al eatorias U., ... , Un• Z 1 , • • ., Z,. no están correlacionadas y tienen por parejas dispersiones iguales D 1U.1 = D [Z. I = D.,. En este cnso tienen logar las igualdades M [U.I = M IZ.I = O, D IU.,] = D IZ. I M!U.U14 l = MIZ.Z14l=0 si µ. 7'= -v, M ( U.,Z,,I = O para cualesquiera v, µ.

= D.,.}

(5.2.2)

La función aleatoria Xº (t) = X (t) - m., determ inada por la fórmula (fi.2:1.) representa en este caso la swna. de l as funciones *) Como excepción se puede citar solamente un ca!IO absolutamont.o no intere~nte para los fines práclicos rcfnrcnte a la magnitud nleat.oria estacionaria todas las realizaciones de la cual son co~tanies. Tal función al eatoria representa una m~gnitud 11lt>:itoria corriente y de l1cc.ho no e.s unu función nlc11tol'in.

200

. Cap. 5 Functo1us aleatorias e.•tacionarlas

aleatorias no correlacionadas de la forma X,, (t) = U,, sen w.., t Z.., cos ro.., t (v = 1, 2, . .. , n). (5.2.3}

+

Por consiguiente, conforme a los resultados ohtoniclos en el § 4.5, la función correlativa do la función aleatoria X (t} es igual a l a suma de la:s funciones aleatorias correlativas X v (t}. Para calcular la función correlativa de la función aleatoria X,, (t),.sustit uyamos en (5.2.3) t por t': X V (t') = V sen ú>v t' + Zv cos (Ov t'. (5.2.4)

u

Entonces, la función correlativa de \a función aleatoria x .. (t) representará el momento de correlación de dos funciones lineales (5.2.3) y (5.2.4) de las magnitudes aleatorias no correlacionadas U v y Z,, para cuyo cálculo se puede aplicar la fórmula (3.9.8). Corno resultado obtenuremos Kx.., (l. t') = Dv sen ú>vt SC!ll ú>vt' + DvC'OSW,t cosw..,t' = =DvC-OSú>v(t-t'). (5.2.5) Esta fórmula muestra que todas las {unciones aleatorias X,, (l) :son estacionarias. Sumando las expresiones (5.2.5) correspondientes a todos los valores v de 1 hasta n, hallaremos la función correlativa de la función aleatoria X (t) que también dependerá solumente do la diferencia de los argumentos 't = t - t'. P or lo tanto, la función aleatoria X (t) determinada por la fórmula (5.2.1) es estacionaria y su función correlativa se expresa por la fórmula

"

kx(T)= ~ D..,coswv•·

(f1.2.6)

v=I

Este resultado es válido para cualquiera

ri

incluso para n

=

oo·

Así pµes, todas las funciones aleatorias que se pueden componer de .l!J.S , sinusoides no correlacionadas de diferentes frecuencias, con ·magnitudes y fases aleatori as, son iunciones aleatorias estacionarias s~eurpre que se cumplan las condiciones (5.2.2) *). El conjunto de frecuencias wi. w2, • • . , Wn representa el espectro de frecue11cias de la función aleatoria examinada. Basta ahora no hemos impuesto ningunas restricciones referentos a la frecuencia w.., en la expresión (5:2.1). Estas últimas podrfon ser completamente arbitrarias. Ahora examinemos un caso particular concern iente al conjunto infinito de frecuencias equid istantes nv n ©v=-;¡-(v=1, 2, .. . ), ~W=úlv+i-Wv=r··

(5.2.7)

*JDejamos al lector quo por si mismo se cerciore do que si las condicfones (5.2.2 no se cumplen, la función aleat-Oria X (1) deter minada por la f6r mu· la (S.2.1) no puede ser estacionaria.

.9 5.:!. Bstructura d11 urla funci(m aleatm·it:z. e3lar.ionaria

20!

donde 1' es un número vositivo arbitrario. En este· caso· la función correlativa, determinada por Ja fórmula (5.2.6), será una función periódica con período 2T y la fórmula (5.2.6) determinará su descomposición en la serie de Fourier. Los coeficientes de esta serie se determinan por l a fórmula conocida en la teoría de series de Fourier +r k.,(-c)coscuvi:_di: (v=1, 2, ... ).

D.=y)

-T

Pero sabemos que la función correlativa de una función aleatoria estacionaria es una fun¡¡ión par. Por coµsiguient!l, en la fórmul·a obtenidá la función subintegral es par y la fórmula puede ser escrita en la forma T

2 f (.).2.8) (v = 1, 2 . .. ). Dv=y J k., {-t) COSIDv't di: o De la fórmula (5.2.6) se deriva que para n = oo la dispersión de la función aleatoria X (t} se determina por la fórmula "" (5.2.0) D,, = k,_. (0) = },; D,.. V=I

De aquí se deduce que si deseamos obtener una función aleatoria estacionaria con d ispersión finita, debemos escoger tales magnitudes aleatorias U., y Z.,, que la serie (5.2.9) compuesta de las dispersiones sea convergente. 1'odo lo expuesto es aplicable u cualquier intervalo Áw entro las frecuencias vecinas en la fórmula (5.2.1) o, lo que es lo mismo, a cualquier valor ele 1' en la fórmula (5.2.7). Por eso todos los resultados o.bteaidos pueden huccrse ex'teosivos torobién a las sumas de sumandos infinitesimales. Pora pasar a este caso, ponemos que *) U., = UT (w.,,) ÁW, Z., = Z1· (cuv)Áw (v = 1, 2, ... ). (5.2.10) Entonce11 la fórmnlo (5.2.1), para n

=

oo, tornará la forma

00

X (t) = m.,, + ~ [U,. (v) sen .,,t + Zr (ID.,) CuSIDvl] Óú>. (!í.2.H) v=l

Luegr¡ ponemos D., = r S.,,(
u., /\
sI (ID.,) Áw,

donde

T

2 (" ~~:;- J k,,('t)COSCOvi:di: u

(v=1, 2 ... ) (fi.2. ·12)

*) Al ili s mirmir ó<1>. el 111íwero de sum~udos en (5.2. t} 1) 11 cualq1Jio1· intervalo dado de Ir~cuenc.ias (úl', co") crece invursamonte proporcional 11 ó.2.1) sea una mRgnitud iufinitamente pequeiia de orden l'!.co. Por eso conviene separar el multiplicador ó© de u.., y z.., on forma explicita.

202

Cnp. 5 Fu11cio11es o.leatort118 estaclo11arl a.<

Entonces l a fórmu la (5.2.6) tomará la forma

.. sI

k.~ (i-) = ~

v,..1

(úlv) cos úJ,¡i; Ó.
(5.2.13)

La fórmula (5.2.9) pa.rn Ja dispersióu de Ja función aleatoria X (t) tomará la forma ~

Dx = kx (0) =

2: s'I. (cov) ó.w. v= t

(5.2.14)

En las fónnulas (5.2.11), (5.2.13) y (5.2.14) se muestra con evidencia que si queremos obtener una función aleatoria estacionaria con dispcrsi6n finita, entonces, aumentand o el número de sumandos en la fórmula (5.2.11), debemos disminuir proporcionalmente estos si1mandos. Con otras palabras, aumentando el número de frecuencias en e)! intervalo dado, debemos di~minuir 1>roporcionalmente las dispersiones de las sinusoides separadas para que la sum a de las d ispersiones de todos las sinusoides en el int.ervalo dado de frecuenci11s quede finita. Lls magnitudes Ur (wv) y Zr (rov) en la fórmula (5.2.'11) ~e puev) no están correlacionadas y, además, los valores de cada una de ellas, al tomar el argumento diferentes valores, no están corrclacionodos:

M [ UT (c.lv) Z1· ((J)µ)] M [UT

(~v)

=

UT {úl ..))

=

O par11 iod!ll> los v11loros de }

co",

(t) •·"

M IZT( w.) ZT (úlµ)I =O para ro 11 =I=

(5.2.15) Wv-

Para hallar l as dispersiones de las funciones aleatorias Ur (wv) y ZT (wv). observemos que en virtud de l as fórmulas (5.2.10) y (5.2.6) las fórmulas (5.2.2) para las dispersiones de l as magnitudes aleatorias U" y Zv se pueden escribir en la forma D[UT(wv)Á©j = D[ZT(úlv).ówJ=sI(úlv)ó.w

(v=1, 2, .. . ). (5.2.16)

Pero en virtud de la fórmula (3.9.1)

D IUT (wv) .Óúl)

= D IUr (ro,)l

(.ó(J))ª,

D IZr (w.) .Ó(I.)] = D !Zr (w.)I (Aw) 3 •

§ 5.2. E•triu;turo.

d~

fwición akatorL11 utactonaria

u11a

203

Sustituyendo estas expresiones en (5.2.16) y efectuando las.reducciones, obtendremos ·~ ((A)v) D[UT(úlv)] = D[Zr((l)v)I= ~ (v = 1. , 2, ... ) (5.2. 17.) Para el ulterior estud io de l as propiedades d'e l os funciones aleatori as Ur (cov) y Zr ((¡)") observemos que en virtud de (5.2.15) y (5.2.17)

..

,. ~_, M (Ur ((J)v) UT ((J) )1A(l)=M (U} (wv)] /!i.(J) = 11

=D[Ur((J)v)]Aúl=si(w..,)(v = i , 2, ... ).

(5.2.18)

M [UT(ro.) Ur (w¡¡)] = Ku7 (ro., roµ) (v, µ. = 1, 2, .. . )

(5.2.19)

Pero represonta la función correlativa de la función aleatoria Ur (4>..,). Por lo tanto, la fórmu la (5.2.18) se puede escribir en la forma

..

~ K i; (ro..,, 4> 11 ) 600

µ=I

T

=si (w"}(v =

1, 2, ... ).

(f>.2.20)

La misma fórmula tiene lugar para la función correlativa de l a función aleatoria Zr (ro..,). Ahora tenemos todo lo necesario para pasa1· ¡¡ examinar el caso referente a la suma de sinusoides con amplitudes aleatorias infinitesimales de todas las frecutJocias posibles repartidas continuamente en la parto posit iva del eje numérico. Sustituyamos en la fórmul a (5.2.11) las magnitudes 11leatorias U..,= Ur (w.) Aro, Z.., = = Zr (ro .. ) /!i.(J) por las magnitudes aleatorias infinitesimales U () d(J), Z (ro) dro. Sustituyamos correspond ientemente la sumn por la integral. De este modo determina remos la íunción aleatoria estacionaria de la formo

..

X (t) = mx + ~ (U () sen rot + Z ((J)) cos wt) dw.

(5.2.2'1)

En virtud de la ú ltima fórmula (5.2. 7) la sustitución de la magnitud dro corresponde al paso a l a magnitud infinitamente grande r. Por eso la función s~ (w) determinada por la fórmula (5.2.12) se sustituirá por la función

.Ó(J) por la infinitesimal

Ssx

(úl)

= ~ :i

..f ~

kx ('t) COS (tl't d't.

(5.2.22)

Con ello, las dispersiones de lus magnitudes aleatorias infinitesimales U ((J)) dro y Z ((J)) doi, eu virtud do la fórmula (5.2.17), serán iguales a s1., (ro) dw.

Cap. S

/l'unclon~•

okatorta8

~a<:lonarliu

s;

Sustituyendo en l a fórmula (5.2.13) las dispersiones (wv) Ó (l) de las magnitudes aleatori as UT (wv) Aro, ZT ((l)v} t>.ro por l as dispersiones infinitesimales s1 ., ((í)) do> de las magnitudes aleatorias U (w) dw, Z (w) dro, obtendremos l a fórmula siguiente par a la función correlativa de la función aleatori a X (t) que se determina por la fórmula (5.2.21 ): kx (T}

=

..f

o

Stx (o>)(',()$ WT d(J).

(5.2.2;1)

111 sustitución análoga en la fórmula (5.2.14) da Ja s iguiente expresión de la dispersión de la fuDción aleatoria X (t):

...

D..,= k" (O) =

J

Stx

(ü>) de.>.

(5 .2.V.)

o

Esta fórmula se obtiene también de (!:i.2 .23) cuando T = O. Si en vez de todas las frecuencias posibles tomamos solamente t vdits las frecuencias del intervalo dado (1 , <0 2), obtendremos la función aleatoria estacionaria ~

X.,,, .,, (t) =

j (U ((J)) sonwt+Z (ro) cosrot jdw,

(5.2.2!i)

cuya dispersión se determinará por l a fórmul u

.,,

D 1Xe1, ,.,,(t)J =

Js

1"

(«>)do>.

(5.2 .2!i)

f~l

Si en la fórmula (5.2.21) se tlividc todo el intervalo de frecucncios (O, oo) en subintervalos, la función aleaLoria X (t) se expresará como la suma de funciones aleatoria!¡ no correlacionadas de la forma (5.2.25). Como era de esperar, la dispersión de la función al eatoria X (t} se expresará <:orno la su ma de dispersiones de los sumandos iguales a las integrales de la forma (5.2.26} extendidas a los subintcrvalos correspondientes de frecuencias. De la fór.mul n·(5.2.24) y d~ las observaciones anteriqres se ded uce que la función s1,, (w) caracteriza l a distribución de l a dispersión uo ln función aleatoria X (t) por las frecuencias. En virtud de la fórmula (5.2.16} l a megnitud D., = s~ (wv) Ó,(l) represeo.la l a dispersión de un armónico de la frecuencia w., que forma parte do la función alontoria ex.aminada de la forma (5.2. 11). Por eso la magnitud s 1 x () dw es la dispersión Infinitesimal de un armónico de l a frecuencia: dada .., que forma pa1·te de la función aleat oria (.5.2.21). Si separ amos ahora de l a función aleatoria X (t) el s umando correspondiente a un ínter~

205

§ 5. 2. Estructura de u114 / uMi6n aleatoria eltaclonarla

valo pequeño de frecuencias (m, Ctl + A, <»2

=- ro+ Aoo:

D (X.,, ..,+L'lro (t)J =

"'+""'

Js

1 ,.

(0>) dci>.

"'

S uponiendo que l a función s 1" (c.>) es continua en el punto cando el teorema del valor medio, obtendremos D (X.,, °*"'" (t}l = •t.w ((I)') Ac.o,

(1)

y apli-

dond e w' es ciert.o valor de la frecuencia compnmdido ent re (1) y a> + A(J). Por;cons iguiente, al pasar al límite para Am - O la magnitud (I)' tiende a (1) y obtendremos •que S¡x

D [X..,, <•+ t>w (l)J I" (ro) = t>~l ~w •

De aquí está claro que la función s 1" (ro) carncteriza la densidad con q ue las dispersi on es de armónicos separados de la función alea toria (5.2.2'l} van repartidas por el espectro de freeuoncias. En virt ud de las propiedades estudiadas de la función s1,, (eti) esta fun ci611 se llama densidad espectral de la función aleatoria estacionaria X {l). La integral de .la densidad espectral

.,

S1.- (
~

S1x

(µ) dµ.

(!).2.27)

se denomina funciún espect,.al de la función aleator ia estacionaria X (t). Es evidente qno Ja rlcnsidad espectral es la derivada de l a función espectral (5.2.28) Slx (00} = s;x ((J)) · S ustHuyen do en la [órmula (5.2.27} la e:x.presió1J (5.2.22) de l a densidad csvectrnl, cambiando el orden de integración y cumpliendo lo intogro.ci6n con resp ecto u µ, obtendremos l a :;iguiente expresión d e la función espectral de la función nltmtori o estacionarin X (t) a tr11vlis de su func ión corrl'lativ;\: S 1x(lll) = n2-

.. ~

SCll Ca>t' k,.('r)-- dT. 't

(5.2.2\J)

Comp arando la :fórmul,<\ (5.2.27) con l a (5.2.26), vemos que lt\ fun ción espectral r eprosen tu lo dispersión su mario de Jos armónico:¡ d e 1orlas l as frecuenci ns do O a Ctl que forman parte de la funci(111 olentoria X (t). La fórmula (5.2.21) ex.presa la función aleatorin est aciona ri o X (l) clel ti po examin11rlo a t rn vés de otras dos fu.uci one.~ alentorius

Cn¡i. 5 FundoneN aleatorias estacionarias

U ((J)) y Z () m1yo argumento e:; la frecuencia w. &;tudiemo.'l las pro1>iedades de estas funciones aleatorias partiendo de las pi·opiedades ya c-«t.ucliadas de las funciones aleatorias Ur (w..,) y Zr (ü>v). De (5.2.15) está claro que las funciones aleatorias U (ú>) y Z ((1)) no están correlacionadas. Además, de (5.2.15) se ve que los valores de cada una de las funciones aleatorins U (oo) y Z ((!)) para cualesquiera valores, tan próximos como se quiera pero diferentes, del argumento ro están no correlacionados. Las dispersiones de l as funciones aleatorias U(@) y Z {úl), en virtud de la fórmul a (5.2.17), son infinitas. Ahora bien, K,. (w, ú>') =M {U(w) U(,ú>)=D[U(w)] = oo . (5.2.30) Las igualdades análogas son válidas para la función correl ativa de la función aleatoria Z (ú>). Por fin, la fórmllla (5.2 .20), al pasar al espectro continuo de frecuencias, toma la forma 00

Í I
(!)') dw ' = .~!x (ro).

(5. 2.31)

li

De las igualdades (5.2.30} y (5.2.31) se vP. que la función correlativa ele la función aleatoria U ((t)), que se cxnmiua como función w' para cualquier valor fijo de CJl, representa una función delta impulsiva con el coeficiente s1x (w). Tal deducción e5 v/llída también con respecto a la función correlativa de l a funcióu aleatoria Z (ú>). Así pues, las funcion es correlativas de l as ftmciones aleatori as U (ú>) y Z (úl) se determinan por la fórmul a

K 11

(~1, úl')

=

Kz (ro, ro') =

S1x

(©) 6 (w' -

w)

(5.2.32)

A p1· imora vista pa.rece que l as funcione~ correltitivas de las funciones aleatorias U((!)) y Z (co), determ inadas por la fórmul a (5.2.32), n~ s_ati.sfacen- l a, <;ondición de simetría, obligatoria para cualquier fti.µción correlativa. Sin embargo, esto solamente parece. En efecto, com-p la, función delta es igual a cero par a cualquier w' -=/= (t), no ho,.porta absolutamente a ·qué sea igual el rnultiplícador adjunt o a la función delta cunndo © 1 =fo ©. Lo que im porta es que para ú>' = úl éste seo igual a s1" (w). Por eso la fórmula (5.2.32) se puede escribir en la form a

K.,, (6>, (J)') = K, (cu, w') =Vs1.. (6l) s1,, (w') i3 (cv' -w). (5.2.33) Para cualquier '"' =fo ú> la última expresión de esta fórmula es igual a cero, lo mismo que en la fórmula (5.2.32). Cuando '"' = ©, el multiplicador adjunt o a la función delta en lo fórmula (5.2.33) lo mismo que en la fórmula (5.2.32), es igual a (co). Vemos que las funciones a:lea.torias U ((J))_y Z (co) de la frecuencia oi disponen de una serie de propiedades par ticulares. L os valores de

s,,,

§ 5.:!. Estructura de una fu.nctém aleatoria estactonarta

207

cada uua de ellas 1111ra cualesquiera, t ap próximos cc;>mo se quiera; valores del argumento w, co' no e:>tán correlacionados y sus disper8iones son infinitas. E.sto quiere decir que las realizaciones de estas funciones alea torias se comportan desordenadamenteypuedencar.nbiar tan fuertemente como se quiera al pasar ·de un valor del argumento a otro, aunque éste sea muy próximo al primero. Estas Junciqnes aleatorias no son estacionarias , puesto que sus funciones correlativas, según muestra la fórmula (5.2.33), dependen no solamente de la diferencia de los argumentos, sino también de cada uno de los. argumentos tomados por separado. No . Ob$tante, a pesar de estás particularidades, las funciones aleatorias U (w) Y. Z (co) son, en .~1 caso general , considerablemente u;iás ·s imples que la. función a.le.atoria estacionaria X (t) que se expresa p9r m.edio de las funciQnes aleatorias U (w} y Z (úl) por la fórmQla (5.2.21). Esto ex.r.l~ca l'a gran importaucia práctica ele las descomposiciones ospcctrales de las. funciones aleatorias estacionarias ele la forma (5.2.21). Ha~ta ahora hemos supuesto que las magnitudes aleatorias U (w) dw, Z (ro) dw de la fórmula (5.2.21) tienen dispersiones infinitesimales s 1" (w) dw, es decir, que el espectro de frecuencias es continuo. Sin embargo, es fácil ver que las fórmulas (5.2 .21) y (5.2.23) abarca n también el caso anteriol'D1ente examinado del espectro discreto de frecuencias. En efecto, poniendo en (::i.2.2'1) y (5.2.23) n

"

U (co)= 2j Uvli( - <•>.),

Z (ro)=~ Zvli(<»- Wv).

(;',.2.34)

v~1

V• ·!

"

Six(w) = ~ Dvt5{úl-!úv) 1

(5.2.3.'i)

\l=i.

donde U1 . • • , U,. , Z 1 , • • • , Z,, son magnitudes aleatorias no correlacionauas, sitntdo D 1U"1 = D IZvl = D "' reduciremos la fórmul a (5.2.21) a l a forma (5.2.1) y la fórmula (5.2.23) a Ja form;·1 (5.2.B). Es fácil ver quo fa fórmula (5.2.22), crue expresa la deusi
n

= ~ ~ v=I

Pero

D.,

~

~

O

O

{.\COI< (
208

!(Véase la fórmula (2.2.24)1. Por lo tanto, n

S1x

(CJ)) =



~ Dv [6 ({J)- 00.,)

+ 6 (Ol + Wy)j.

Pero, como {J) >O, (1)v >O, entonces '" + {J)v, cualquiera que sea el v11 lor positivo de ro, no se convierte en cero y , por consigu iente, ·6 (ro {J)v) = O (v = 1, .. ., n) y obtenemos la fórmula (5.2.:15) lo que demnestrn l a afi rm ación enunciada. Así pues, l as fótm ul as (5.2.22) y (5.2.2::!) son v álidas t ambién en el cuso de un espectro d iscret o. En el caso general, cuando las funciones aloatorias U («l) y Z ({J)) representan l as sumas do las funciones aleatorias U, ((¡,)) y Z 1 ((¡,)) del tipo anteriormente examinado y de las combinaciones lineales de las fun ciones delta con coeficientes aleatorios no correl acionados, la fórmula (5.2.21) determina la función aleatoria estacionaria con u n espectro mixto , que es un espectro continuo con frecuencias aisladas, repartidas en él, a las cuales corresponden armónicos ai
+

§ 5.2. Estrtutura dt una funcl6n nl•at1tria et111cio11arla

2.09

Si en la fórinula (5.2.21) U ((1)) = U 6 {o> - Q), Z (e.o) = Z6 ((1) - Q), donde U, Z son nlagnitudes aleatorias no correlacionadas con equivalentes dispersiones iguales a D, y O es una magnitud aleatoria i ndependiente de U y Z, entonces Ja fórinula (5.2.21 ) toina la forina X (t) = m., + U sen Ot + Z cos Qt. (5.2.36) Ahora bien, la fór mula (5.2.21) abarca, como un caso particular, también funciones aleatoi:ias estacionarlas que ·representan sinusoi ~ des de frecuencia aleatoria con. amplitudes· y fases aleatorias. 'En e~ ejemplo 4.2.3 se mostró que la función correlativa de una función> • aleatoria (5.2.36) se determina por la fórmula DO

kx (i:) = D

~ 1 M cos ror dro,

(5.2.37)

donde/ (ro) es la densidad de probabilidad do la magnitud aleatoria Q. Comparando la fórmula (5.2.37) con (5.2.23), vemos que la densidad espectral do la función aleatoria (5.2.36) es igual al producto de Ja dispersión do las funciones aleatorias U y Z por la densidad de probabilidad de In frecuencia aleatoria Q: S¡x

(ro)

= Df (ú>)

(5.2.38)

Do l a fórmula (5.2.38) se ve que pera cualquier · densidad espectral asignada s 1,, (ro) se puede escoger tal densidad de probabilidad f (ro) de l a frecuencia aleatoria de oscilaciones Q que la función aleatoria (5.2.36) tenga l a densidad espectral .s1., (ro). En efecto, integrando la fórmula (5.2.38)con respecto a o> deO a oo y teniendo en cuenta que f ((1)) =O cuando ">
Js ,,(Ci>) dro= D Jf(CJ.))dw = D. 1

o

(5.2.39)

u

Al determinar de este modo D . hallaremos de 1a fórmula (T>.2.38)

f (ro):

f () =

3jx (ti>) 00

(5.2.40)

S 11,. (ro) dw

o

Así pues, entre la infinid ad de tod a.s las funciones aleatorias estacionarias posibles que tienen la densidad espectral dada s1,, ((1)) y dispersión finita, siempre existen tales funciones aleatorias todas lo.s realizaciones posibles de las cuales son s inusoides puras. Esta<> funciones aleatorias se determinan por la fórmu la (5.2.36) en la cual " -0038

2!0

Ca.p. 5 Funcione• tika.torla.s estaciona.rliu

la densidad de probabilidad de la magnitud aleatoria Q se define por la fórmula (5.2.40). Además de estas funciones aleatorias, existe una infinidad de otras funciones aleatorias estacionarias, con la densidad espectral dada s1" (ro), cuyas realizaciones no son sinusoides, sino que representan las combinaciones lineales de una infinidad de sinusoides. Tales realizaciones pueden ser funciones continuas o pueden tener también puntos de discontinuidad de primer género, como vimos en los ejemplos dados en el § 4.2 . .Las fórmulas (5.2.22) y (5.2.23) muestran que la densidad espectral es una característica muy importante de la función aleatoria estacionaria. Conociendo la densidad espectral, se puede hallar por la fórmula (5.2.23) la función correlativa y, al contrario, conociendo la función correlativa, se puede determinar por la fórmula (5.2.22) la densidad espectral. Ahora bien, para la función aleatol'ia estacionaria no importa absolutamente cuál es la característica que se asigua: la función correlativa o la densidad espectral. Generalmente en las aplicaciones es más conveniente asig11ar l a densidad espectral de una función aleatoria estac;ionaria. Ejemplo 5.2.1. Hallar la deusidad espectral de una función aleatoria estacionaria con función correlativa exponencial k,,('l')=De-«l'
Por l a fórmula (S.2.22) hallamos s1,.(ro) =

'2.:

r

t- al t l COS'td't=

(5.2.41)

r

z~ s-°'~ COSlll'td't

o

(5.2.42)

o

La inLegral en esta i6n:nula se caleub fácilmente medla11te In integral por partes. 'foniendo eo vista. abt.ener fórmulas más generales necesarias para los ejemplos q110 se dan a continuacíón, sustituyamos por la magnitud !•· Entonces oh· tendmmos

00

=

~· -

:

2

Je-"''senµT
Volviendo n Integrar por partes, obtendrnmos

..

,.~ ~ e -<« {0SfJ.'t . d; - -i - - --;;"""

"

a- o

.

2U

§ 5.2. Estructura de una fimción aleatoria ettacumarta

De aquí hallamos

«z y

¡..

.,-c.Tcos¡.-td't=«- µ2

.., JI' d - c.~ cosµ-r d -r=

l""

·-Cl~ coeµ'td'f

« « 2 +1Li! ,

(5.2.4'.4)

o

Sustituyeudo esta expresión en el primer miembro de la fórmula (S.:i..43) pejando la integral que ha quedado en la ecuación obtenida, tendremos

y des•

(S.2'.45> Sustituyendo la expresi6nJS.2.44) siendo µ ~ (¡) en ta 'f órmula (5 .2.42), hallaremos lo densidad espectr do la funci6n aleatoria que nos intereso:

(5.2.46)

Por el contrario, considerando asignada la densidad espectral, podemos determinar, por la fórmula (5.2.23), la función correlativa:

Esta integral se puede calcular por la fórmula (23) dol suplemento. Como resultado obtendremos la !órmula (5.2.41). Ejemplo 5.2.2. Hallar la densidad espectral de la función aleatoria e.~tn­ cionaria cuya función correlativa se determina por la fórmula k,, ('t) = De-a l ~lcos6)0't.

(5.2.47) lt~llamos

Sustituyendo esta exvresión en la fórmula (5.2.22), s 1.,(coi) =

2

"'

~ ~

e- c:tl"
=

"t

cosco't d't =

~ {re-et"( o

C0$

(ú>-ro,¡) "ta'f+

r

, - CtT COS

(ú>+illo) 'fcl'f}.

o

La primeru de estas integrales se determina por I~ fórmula (5.2.44) siendo = CJ> - •o. y ·la segunda , r>or la mism a f6rmula (5.2.44) siendo µ = 6) o· l'or cons1gu1l•Jlt.c,

+

!'

D[ «'+(6>«- <»o)' + "-'+ C+@o)'' « l~

s,,,,(c~)=n o bien

(5.2.48)

14•

212

Cap. 5 Funciona aleatorias estacionarlas

El problema inverso rele:rent& a la determinación de la función correlativa, t.enicudo dada la
kx ('t') =De-"' l 't'I (cos roo't+ V sen (co0 l't' 1).

(!í.2./o9)

Susti tuyendo esta exµresión en la fórmula (5.2.22), halla111os 00

s1,, ("') = -2D n

~ .-«l•I (cos ll>o'l"+yson CJlo f • 1) coSCJ>'t d•=



o "'

00

=.E...[\ . - "'"cos((l)o-w) 't di:+ jr e-""'cos(roo+(l))'td·t + :t

,J

o

o

,..

+1'

J·-"''t'scn

00

(6io-ro) • di:+v

J,-o.•sen

((1)0+0>) 't'd't'

J.

Las integrales do esta fórmula se calcuJau fácilmente por !ns fórmulas (5.Z.41i) y (5.2.45). Como resultado obtendremos

a s,,, (Cll) = nD[ o;~-/-(úlo-(1)): o

a

+~+ro)• +

+

bi~l\

V(úlo- (1))

o;z+(lllo - m}~

y((l)o+(I))

+ uz+(eoo+(l)li

J

(5.2.50)

BI prllbloma inverso refcrcute a la determinación de la !unción correlativa, ten iendo dada la densidad espectral, lo resolveremos tambien para este caso en el párrafo siguiente. Puest-0 que la densidad espectral, por su sentido, no puede ser negativa pura ningún valor de (1),, la fórmula (5.2.50) tiene sentido solamente cuando ( ;• l. ,¡;; a./lll 0 lo que antes fue mostrado ¡ior otrn via. ·, Ejeu1plo_ ·5.2 :4. 1-(allar la .función correlativa de la func.ión aleatoria estacion¡ma: X (t) cuya densidad espoctreJ es constante en el Intervalo (0, (1) 0) e Igual a cero fuera 'de Mte intervalo: si O ,¡;; m ,¡;; Olo, $1 (5.2.51) 11"' (lll) = { "O si (1) > w0 •

Por la fórmula (5.2.23) halla·mos

Así pues k.:('t) = ••

seo
(5.2.52)

Dej amos al lector 'que por sí mismo compruebe c¡ue a esta !unción corr.elatin I(\ ~rresponde ui;-a densidad espectral constante en el intervalo (O, C!J0 ), que se determina por la (órmula (5.2.51).

213

§ {J ••9. /)e.!composición espectral de una función aleatoria

§ 5.3. Descomposición espectral de una función aleatoria estacionaria en forma compleja

En el párrafo precedente obtuvimos la descomposición espectral de una funGión aleatoria estacionaria rea l en forma real (fórmul a

(5.2.21)1:

X (t) =

m.,+

..J

(U (Col) sen 0t +z (Col) coswt) dCJl.

(5.3...1)

o

Sin embargo, en los problemas prácticos es más con.Ven~e~.~ cf.e ordinario representar las oscilaciones armónicas en for~a ·c 0mplé'jfi con ayuda do lns conocidas fórw.ulas d~ Euler que .ex·prés!l;:t lii({u.n ; ciones trigonométricas a través de las ÍUl)ciones ·expo.n~D:clal~ft. Q:el argumento imaginari o. Por eso reducimos la descoi:fi.pos'ic'ión 'espéCltral (5.3.1) a la forma compleja. Sustituyendo en la ·fórmula (5.3.1) las exp1·esiones de las funciones trigonométricas por las fórmulas de Euler senColt= obtendremos

X(t)=m,. +

..

eico« _ e-\(l)f

, 2

,

J[u~~)+ z~w>Je•"'rd(I)+ o

r[- u~~) +

z ~úl) e-l"''dw. o Sustituyamos en l a segunda integral las variables (!) = -µ. Entonces obtendremos .. o X(l}=m., + Z(0>)-;W(w) eí.,'dw+ Z ( -µ)1iU(-µ) elltldµ.

+

J

J

J

o En Ja segunda integral podemos sustituir de nuevo la vnrinble de integración µ por la variable ro puesto que la designación de la variable de integración en la integral definida no es esencial:

X (t) =mx+

r

Z (w)-;iU (w) eltdw+

l

Z (-w)~IU(-Cll) ei"''d<.o.

Introduciendo la función aleatoria compleja V (w) determinada por la fórmula Z(ru)~iU () si (!)>O, (5.3.2) V((J))= Z( - <0) + 1U(-w} . O {

z

S!

W> .

21~

Cop. S Fu11cionu akal
podemos unir ambas integrales en una úni ca y escribiT la fórmula obtenida en la forma

X (t) = mx +

..

J V ((1)) e

(5.3.3)

1 1 "' tU•l.

Esta fórmula ofrece la descon1posición es pectral buscada c.l.e la función aleatoria estacionaria X (t) en forma compleja. Esta descomposición se puede aplicar con mayor senciller. que In (5.3.1) puesto que todas las operaciones del análisis so cumplen mucho más :;implomenle con u11a función exponcncinl que con las trigonométricas , y a se expresan por las fórmulas de Euler por medio do dos funciones exponenciales e1M 1 y e-fo>t • En realidad, amb11s Billas funciones representan una forma compltlja de las oscilncion~s Armónicas de una misma frecuencia m quo, por su sentido físico, siempre es positiva. Por eso, como siempre al emplear l a forma compleja de oscilaciones armónicas, 111s frecuencias negativas son una abstracción matemática y se introducen solament.e par a mayor sencillez y comodidad. Estudiemos ahora las propiedades de la función aleatoria compleja V ((J)). An te todo, de la definici ón (5.:3.2) de l a función aleatoria V (m) está claro que su esperanza matemática es idénticamente igual a cero, ,puest.o que las esperanzas matemáticas de las funciones aleatorias U (m) y Z ((1)) son iguales a cero. Hallemos la función correlat iva de lo función aleatoria V (m). Cuando t.0 >O, (1)1 >O, teniendo en.cuenta que las (unciones aleatorias U () y Z (m) no están.correlacionadas, podemos escribi r

K • (m, m')-M[Z((J))-IU(
=M[

-+



Z (ro' J-!U'(CJl') ] 2

-

z (
...

{M[Z((J))Z(w')J+M [U ((l))U ((t)')I} =

=+

[K, (m, m') + K., (w, cll'}I.

§ 5.3. D•tcomposlclón e1pectral d• rma fund6fl al•4torla

215

De aquf, tomando en consideraci6n la f6rmula (5.2.32) para las fQn· c iones correl a"tivas de las funciones aleatorias Z ((1)) y U ((1)), obten. d remos K 0 ((1), Cll')=+s1,.(w)6((1) -W') si «> >0, (l)'>º· (5'. S.4) Cuando 0> ) =

! {M [Z(-



z (-0>')"1; iU (-o>')]

=-

w)Z(- m')J+MIU( - w)U(-6>')1}=

= ! [K,(JI,

Jro' l)+Ku(lwJ, l ' J)I.

De aquí, volviendo a aplicar la fórmula (5.2.32) y teniendo en cuenta que 1 ro' 1 - 1 6> 1 = ro - w' cuando ro ') -=

Para ro>O,

! s x( l c.>1)6(ro 1

w') si oo
(5.3.5)

w <0

[ Z(li>)-W(w) Z( - m') + IOC-w')J K, (ro, ')-M 2 2 =

... ! {M (Z (<11) Z ( -

w')J -M [U (w) U (-w')l} =

= +IK.(w,

ll:w' 1)-K., (w, :lw' f)J.

De aquí, en virtud de la fórmula (5.2.32) se deriva que para w>O, <J>' <0

Ko ((1), ro') =+ /s1x (w) 6 (w- 1(l)'1 )-sir (Cll) 6 (Cll-1(I)'1 )1 = O.

(5.3.6)

El mismo resultado obtendremos también cuando w O lo que, además, está claro directamente de la propiedad de simetría de la función correlativa. lntroduciendo una 11ueva función 1

s,,((l)) =zs1x ( l(l)J),

(5.3.7)

podemos escribir Ja expresión obtenida de la función correlativa de la {unción aleatoria V ((1)) para todos los valores de (1) y (1) en l a forma 1

K. ((1), (I)') = s,, (oo) o(ro - ro'). (5.3.8) Ahora bien, la función aleatoria V ((¡)) posee completamente las mismas propiedades que las funciones aleatorias U ((1)) y Z (w) en lo fórmula (5.3.1). Los valores de la función aleatoria V (ro) para cualesquiera val ores d iferentes Je (¡) y ro' no están correl acionados. Su dis·

210

Cnp. $

Puncloru~ alcat"rftll 1'$/a clonarins

persión es infinita y la función correlativa es proporcional a la fun· ción delta. Sustituyendo en la fórmula (5.3.7) Ja expresión (5.2.22) de la densidad espectral s 1" (m) y tomando en considerar.ión que cos 1 w 1't = = cos fil't, obtendremos

..

sx((¡))

i Jl' k.,(i;)cosrotdT. =n

o Aquí Ja función $ubinLegrnl es par. P or eso la integral en los limites de O a co puede ser sustituida por la mitad de la integral en los límites de -oo a oo. Entonces tendremos

...

Sx(<Jl) = +._;t J Í k,,(i:)COS(A)td'T.

Por olro lado, podemos Ü=

..

(5.3.9)

e~cribir

't~

) k,,('T)S-Oll(l>TdT,

(5.3.10)

put!s lo que la función subintegral es aquí impar y Ja integral se toma en límites simétricos. Multiplicando la fórmula (5.3. tO) por la unidad imaginaria t, sustrayéndola de la fórmula (5.3.9) y teniondo en cuenta que cos (A)'t' - i sen wi: = e· 1wt , obtendremos

...Jr

1

s X (m) =ln

k X ('T )e-l<•'
(5.3.11)

Sustiluyamos ahora en l a fórmula (5.2.23) Ja oxprcsión de la densidad espectral S¡,.. (co) de (5.3. 7). Entonce~ tendremos k" (T) = 2

.J

s., (ro) cos W't d(A).

(5.3.12)

o

Pero la función s,. ((!)) es par:

s,. (-w)

=

s" ((¡)) ,

(5.3.13)

lo que se ve directamente de su definición (5.3. 7) o de l a fórmula (5.3.9). Por consiguiente, la integral en (5.3.12) es igual a la mitad de la integral extendida a todo el eje numérico de-oo a oo y podemos escribir esta .fórJD.ula en la forma

..

kr ('t) =

J s., -~

(ól) COS Wl

dúl.

(5.3.14)

§ 5.8. Descrm1poslclón espectral de u.na /unr.1.6 n ale11torln

Ahora observemos que debido a la paridad do la iuncióo imparidad del seno

Sx

217

(w) y la

('<)

0=

Jsx(oo)senwi:di:.

Multiplicando esta igualdad por la unidad imaginaria i, sumándola miembro a miembro (5.3.14) y tomando en consideración que cos ro• i sen oot' = e-im< , obtendremos

+

kx (<) =

""

)

Sx

(oo) e""~ d.© .

t5.3.15)

De est.e modo bemos obtenido la descomposición espectral de la función correlativa de l a función al eatoria estacionaria X (t) en forma compleja. Poniendo en (5.3.15) -r = O, obtendremos la siguiente expresión para la dispersión de l a función aleatoria X (t}: 00

Dx =" kx (O)=

J

Sx

(ro) deo.

(:>.3.16)

Así p ues , hemos obtenido la descomposición espectr al d.e Ja función al eatoria estacionaria (5.3.3), que r epresenta su descomposición en sumandos infinitesimales no correlacionados de la forma V (ro) e1"' 1 d.© que expresan las oscilaciones armónicas con amplitudes aleatorias infinitesimales en forma compleja, y las dcscomposicioues correspondientes de Ja función correlativa y de la dispers ión (5.;1.15) y (5.3.16). Las magnitudes al eatorias V(ro) ei•>t dro y V (-ro}e -1.. i dro cualquiera que sea el valor de ro, tienen una misma dispersión igual a s" (ro) doo. La fórmula (5.3.16) enuncia que la dispersión de la función a leatoria X (t) es igual a l a suma de dispersiones de los sumandos no correlacionados que forman parte de la expres ión (5.3.3.). Lo expuesto muestra que la función s,,, (oo) caracteriza la distribución de la dispersión de una función aleatoria estacionaria rcfcrcntll al espectro de frecuencias, al igual que la función s 1x (ro) introducida en el párrafo anterior. La diferencia entre ellas consiste solamente en que l a función s 1 x (ro), de acuerdo con el sentido físico, determina por completo la dispersión del armónico correspondiente a cada valor dado de la frecuencia 6.l > O, mientras que la función s" (6.>) div ide a esta dispersión en partes iguales entre las dos componentes complejas V (oo)el.,tdú> y V (-w)e - io>t dro que corresponden a l valor dado de l a frecuencia Cll. Con otras palabras, en una descomposición espectral real (5.2.21) de una función aleatoria estacionaria cada armónic1>

ca,,.

218 ~stá

5 Fúne€rin.u. clt:olnria.f; estacionaria1

representado por un sumando lU (ro) sen rot + Z () cos wtl dw,

correspondiente al valor dado de la frecuencia (J> > O, mientras que en una descomposición espectral compleja (5.3.3} cada armónico ·está representado por dos sumandos V (w) etwt dro y V (-(J>) e-loll dw y la dispersión de este armónico se divide on partes iguales entre estos sumandos. Por eso la función s1,. (w) está determinada sólo .en el campo de frecuencias positivas reales fisicamente, mientras que Ja función s,. (ro) está determinada para todas las frecuencias tanto negativas corno positivas, aunque las s últimas existen sólo matemáticamente. En la fig. 5.3. 1 se muostra la relación entre las funciones s,., (ro) y sh (w). Como la función s,. (w) tiene el mismo sentido que la s1 ,. (ro} y la diferencia entre ellas se determina solamente por la - - - - - ,:+- - - --w :::- forma matemática de registro de la des0 composición espectral de una función aleatoria estacionaría real, la función F ig. 5.3.1. s,. (ID} ge llama densidad espectral da la función aleatoria estacionaria X (t) al igual que la función s1" (ID). La.s fórmulas (5.3.H) y (5.3.15) que ligan la función correla't iva y la densidad espectral s., (w) representan una forma compleja de olas fórmulas de Wiener-1inchin (5.2.22) y (5.2.23). En aplicaciones prácticas es siempre más conveniente utilizar la forma compleja de la descomposición esp-0ctral. Por eso, en lo sucesivo, al hablar de la densidad espectral, siempre tendremos en cuenta la densidad espectral s., (ID) determinada en todo el eje numédco ro. · Además de la densidad espectral s,. (ID), para la descomposición ~pectral de uná .función aleatoria estacionaria es conveniente intro.duci-r la función espectral (o)

S,,. ((J)) = ~ s,, (µ) dµ.

_.,.

'&¡ ()bv~o

ql!&

(5.3.17)

la. densidad espectral es la derivada de 'la función

.el!P.ectr al:

s,. (<0) = s~ (w) •

(5.3.18)

.Sustiiuyendo en la fórmula (5.3.17) la expresión (5.3.11) de la densi-0,ad espectr!).l y cumpliendo la integración con.i:especto a µ obtendr&mos la siguiente expresión de la función espectral a través de la fun-

219

§ 5.9. Descompo1lclón e1pectr4l de un4 /uncl611 aleatoria

..5

ci6n correl ativa:

2~ 1

S,., (co)-S,, (O) =

l - •-lcn

kx('t)

'\'

(5.3.19)

d"t.

Ejemplo 5.3.1. Para la función correlativa exponencial (5.3.~0)

kx {'t) = De-<ó ftl

..5

la fórmula (5.3.11) ofrece la siguiente expresión do la denl!ldad espectral: s,,(6>)= ~

.-O: l 'ff-hO'fd't.

=

Para cumplír la iotegrac!ón, observemos c¡ue 1 '\' 1 - l' cunndo -r > O y 1-r 1 ~ - i- cunndo '\'
~

o

..

5 e
[

o =

~

a~l4. rel="nofollow"> +

[

J

a+l6>

o bien, reduc: it-ndo los quebrados a un común denominador, D a

(5.3.21)

a.z+ roz

'" (Cll)=n

Esto resultado concuerd a por comploto con (5.2.46). E jemplo 5.3.2. Para In función correlativa k., {'t)=D•- "'l"I cos C!lo'\'

la fónnuln (5.3. H) da Sx (c.i)=

..

::i J.,-a¡

1' C0\5

(5.3. 22)

6>o't dl'.

-oo

Divid iendo el i ntorvnlo de integración en dos partos y oxpcesando el coseno

por modio de las funciones oxpn11enditles, obtendremos o o s,..{6>)= ~ [ eo)'- OIO) Td't +

5

.. +\

- oo

o

-Q6

..

e- ol"d't + \ e-
=,°..[ 1 + .... a+ t(wow) +

1 Cl -i{wo+ c.i)

1

a-í{c. rel="nofollow">0 - c.i)

+

+ 1

a + i(c.io+6>)



220

Cap . S F11ncío1U!s ultalorl11S • staclMarlas

Rcducion.Jo los quebrados obtendremos

K u11

coinún donomi nador y poniMdo ji•

«•

=

~'+wt

Da

p• +2 (a'- o>ij) w• + .,¡

•x (w) = : l ·

+ <~~.

(S.3.23)

Ejemplo 5.3.ll. l'srn una func.ión correlativa más ¡¡eneral k.x(i:)=De"'" I • l¡cos oo0T !l<'ll (l)o 1i:1).

+ "/

(5.3.:.!4}

hallamos do un 1t1o
((l))-~[ 4:\

-

1+1v a+/ {"'i)- W)

1-fy

~ - f (<.io + <»}

+

+ t-tv

a-f((l)o - <•Jl

+

1+1y

a+t(w0 +w)

J

o bicu, suprimiendo Jas magnitucfos imaginarias,

n [

•.,(w)=-zn

a-v (w- w.,)

a'+C<11- 0l0)i

a+v(w;-(l)o) ]

+ a•+(w+(l)o)'

(5.3.25)

·

nednc!ondo los quebrados a un común rlonomin11dor, obtendremos '"

(61)

V

=n·

(a-f- ywol ~' +<« -vwo) wi ~·+Z {a"-Ql~)_w:+wJ ·

(S.3.26)

Es evidente r¡uc la fórmnl:l (S.S.23) os un caso particular do l':>l.a fórmula cuando y = O. En otro ca.so parLicular, cuando 1· = a / w0 la fórmula (5.3.26) loma la

forma

(5.S.27) Este caso particular Uono una importancia práctica especial, puesto que corrosponde a la funci6n al~11tcria dírereociable X (t) que tionc la derivada con dispersión íini~ (véaso el ojoruplo 4.6.1). Resnl vnmo~ ahora PI rroblema inverso: considerando asignada la densidad e~pectral (5.3.26) , httll amos la función correlativa. !Zustituyendo la expre.,lón (5.3.25) 011 111 fórmula (lí.3. 15), t endremos

1'%('r)-~[

'fJ a-)'(W-c.>o) a•+(o> - mo)~

2.n

tl"'Tdt0+

-~

rJ

C<+)'(Ql..L.Wg) eÍ6lt¿r,¡], a• +(6l +
-~

+

Sustituyendo las variables ro - ~ (l)0 en l a primeu integral y w = µ en la segundo, la fórmula obtenida se reduce a la forma D [

k,. ('t)=n

a009"1o't

rJ

.iµT dµ

a•+µs -iysenw0'f

-~

J

.. µefµ't dµ

a•+µ'

.,O

l J.

-~

De aquí , tomando eu consideración que (véase las fórmul as (16) y (22) del suplorn'cnto)

J~=~a •-"'''• _J..,f oo

_.,. a:t+µt

1

µe µ"dfJ = { 'º•-"l•I

as+µ'

si 't>O,

-In•-"''' si i:
obtendremos, como er11 de O!pcrar, h. fórmula (5.3.24). tn el caso particular, cuando 'V - O, obLcndrcmos para la fu11ci6n correlatl•n la fórmnltt (5.S.22).

§ .'i.3. Ducompo1lcl6t1 e1pu1NJI· de u.no. función aleatoria

221

En el § 5.1 vimos quo la derivarla de una !unción aleatoria estaclonorie diferenciable os siempre estacionaria. Por eso se puede pl11nte11r el -problema: hallar la densidod espectral de la derivada de una función aleatoria estacionaria. ;Conforme a la fórmula. (5.1.12) la función correlativa de la derivada Y¡ (t) = X' (t) de la funóión aleatoria estacionaria X (t) es k111 ('t) = -k; (t). Sustituyendo aquí l a expresión (5.3:.15) de la función correlativa de la función aleatoria X (t) obtendremos k 111 ('t) =

..J

w~s.~ (<•l) e'"'~ dw .

t'ig. 5.3.2.

Comparando esta fórmul a con (5.3.15), vemos que la densidad espectral de l a derivada Y 1 (t) se determina por la fórmula sv1 ( 6>) =

ro~s"

( w).

(5.3.28)

A.sí pues, la derivación de una función aleatoria estacionaria conduce a la multiplicación de su densidad •espectral por ro 2 • De l a fórmula (5.3.28) se ve que ·l a densidad espectral de la derivada do una función aleatoria estac.ipnaria es igual a cero ,para ro = O y la curva que la refleja toca al eje de abscisas en el origen de coordenadas (fig. 5.3.2). De aquí resul ta que, para que la integral de la función aleatoria estacionaria X (t) sea una fu nción aleatoria estacionaria con dispersión finita, es necesario que la densidad espect ral de la función aleatoria X (t) y su primera derivada se conviertan en coro cuando c.> = O. Examinando las expresiones de la densidad espectral obtenidas en los ejemplos anteriores, vemos que l a int egral de la densidad espectral , multiplicada por 6>1 , se convergerá y, por consiguiente, la dispersión de la derivada de l a función aleatori a será finita sólo para la d ensidad espectral (5.3.26) cuando· y = a.lw 0 • Es fácil comprender que toda densidad espectral continua sx (ro) quo no se convierte en cero cualquiera que sea el valor de ro y que tiende asintóticamente a cero cuando 6>-+ ± 00 1 se puede aproximar, eon cualquier grado de precisión, por una función frac.cionaria racional, es decir, por la relación de dos polinomios. En efecto, como es sabido, toda función continua, en cualquier intervalo finito de variación de la variable independiente, puede ser aproximada, con el grado de precisión deseado, por un polinomio. P uesto que por supos ición, la densidad espectral s,. (6>)-no es igual a cero para ningún valor de w y tiende asintóticamente a cero cuando ro -+ ± oo, es conveniente aproximar por el polinomio la magoitud inversa 1/s,. (w). Con ello, l a densidad espectral s" {w) será representada por un que-

Cap. 5 Funcion•s aleatorta.s estaclo1uirtas

222

hrado racional con numerador constante.~Claro está que al tomar también en el numerador un polinomio en voz de la constante, se puede todavía más fácilmente alcanzar el grado deseado de precisión de aproximación de la densidad espectral. En este caso en la expresión de Ja densidad espectral figurarán solamente las potencias pares de (!) puesto que la densidad espectral es una función par. Además, todos los coeficientes existentes en el numerador y en el denominador de la expresión de la densidad espectral serán realos. Por eso todas las raíces del numerador y del denominador serán por parejas complejas conjugadas. Ahora bien, todas las ralees del numerador y del denominador de la densidad espectral racional fraccionaria siempre se disponen de un modo si111étrico con respecto a los ejes real e imaginari<> en el plano do la variable compleja w. Al descomponer este quebrado racional en quebrados simples, siempre podemos agt'upar las fracciones correspondientes a cada pareja de las raíces conjugadas puramont(} imaginarias del denomi11ador y l as fracciones correspondientes a cada cuatro raices del denominador dispuestas simétricamente con respecto n los ejes real e imaginario. Como resultado obtendremos para cadl\ cuatro rafoes complejas dispuestas simétricamente un sumando de la forma (5.3.25). A los sumandos del primer t ipo les corresponderán en ln expresión de la función correlatíva las funciones exponencia· les, mientras que a los sumandos del segunto tipo les corresponderá n las funciónes ele la forma (5.3.22) o (5.3.24). Así pues, vemos que la función correlativa de prácticamente toda función aleatoria estacionaria so puede aproximar, con un grado de precisión cualquiera, por una combiuación lineal de las tres funciones correlativas tipo examinadas en los ejemplos anteriores.Esto es lo que determina la Importancia de l as t res (unciones conelativas tipo estudiadas. Estít claro que, al igual que en todo.'> otros problemas de aproximación, la representación aproximada de la función correlativa obtenida por esta vía no será única. Para calcular la integral (5.3.16) al determ~nar lo.s dispersiones declas funciones .aleatorias estacionarias valiéndose de las densidades . eiipe€tra'íés cooo-cldas, sé ,puede ap1ic.ar la fórmula

; ·· ~=;. n"?

rJ bo (i~}'ln-2 +bt

~~

(ioo) 2 n-a+ ... +bn - dioo)·i

+ lln- 1 d ~

1a0 (too¡n+ai(loo)n-1 + ... + an-1ioo+ 11 n I~

úl -

.

= (- 1)n+1 _::_ An a0

Dn '

(5.3.29)

donde D. es el determjnante de eJJésimo orden que se obtiene por la regla s iguiente : en la diagonal principal se ponen Los coeficientes a-¡, az, ... , ª" y los sitios vecinos a ellos se llenan por aquellos de los coeficientes a 0 , a 1, • • • , ª• que entran cu la línea ·dada de modo que sus números en cada linea se dispongan en orden decreciente;

§ 5.4. Noción de ruido blanco

223

los sitios que quedan libres se llenan de ceros a1

a0

a8

a2

D,. = a6 a4

O O O 0 ... 0 a 1 a0 O O •.• O a8 a 2 a¡ a0 ••• O

o o o o o o

(5.3.80)

ª"

A11 es el determinante que se obtiene sustituyendo en D11 los elementos de la primera columna por los coeficientes 60 , b1 , • • • , b,._1:

An =

boaoOOOO ... O b¡ 43 G1 aa 0 0 ... 0 ba a4 a~ a 2 a¡ ao . .. O bn-1 O

o o

O

en particular

11 = .!!:....~.

ªº

bo br f3 =~ ba

ª1

¡

z.

O

=

(5'. 3·. 3i)

4n

_...!!... /Joa, - b,o0 4o

OtO:

,

bo a0

ªºªz oa, o ª"

l4=~ b$

Cl3

O

b,

~

ªº ª' ªº o a3 a2 o o ª•

O O

ªª ª• 04

03

o o

ao

ªi

44

. ªº ª' ªº o o a~

Uz a4

o o

§ 5.4. l\\ocióu de ruido blunco

Examinemos Ja Io.ncióo aleatoria estacional'ia X (t) con la donsidocl espectral const an te s 0 • Su función correlativa, en virtud de la fórmula (5.3.15), es k" (T) = s0

...

J

elw< d(J).

Pero conforme a la fórmula (2.2.22) que expre.;a la función delta impulsiva en formo. de l a integral de Fourier

..

~ e'"'' dv> =

2ru'I (i:).

Por consiguiente, l a función correlaUva de una Cunci6n aleatoria estacionaria con densidad espectral constante s 0 se determinn por

Cap . 5 Funr.iottes aleatorlrls tstacfon.ati a$

hi fórmula

k" ('T) = 2n s 0 11 ('t).

(5.4.1)

La función aleatoria estacionaria con densidad espectral constante se llama mido blanco estacionario. Este nombre se explica por cierta analogía que tiene tal función aleatoria con la luz blanca: la luz mencionada representa la suma de todas las componentes espectrales que poseen una misma intensidad; el ruido blanco es l a suma de l as oscilaciones armónicas de todas l as .frecuencias que tienen una misma dispersión de amplitud. Con otras palabras, la luminosidad sumaria de la luz blanca está repartida uniformemente en componentes espectrales, es decir, en frecuencias de l as oscilaciones electromagni?ticas que la componen; la dispersión sumaria del ruido blanco está repartida uniformemente en frecuencias de las oscilaciones t1rmónicas que lo componen. El multiplicador ad junto a la función delta v =

2n s 0

(5.4.2}

se denom ina intensidad del ruido blanco estacionario. La funci6u correlativa del ruido blanco estacionario se expresa por medio de la intensidad del mismo por la f6rmula kx (i') = vB (i:).

(5.4.3)

La fórmula (5.4.2) muestra que la intensidad del ruido blanco estacionario es igual a l a densidad espectral del mismo multiplicada por 2:n: y, al contrario, la densidad espectral del ruido b lanco estacionario es igual a la intensidad del mismo dividida por 2n. Generalizando la noción de ruido blanco, llamemos m ido blanco a toda función aleatoria cuya función correlativa contiene como multiplicador la función delta. En concordancia con esta definición la función correlath·a del ruido blanco X (t) se determina por la fórmula K,.(t, t ') =G(t)o(t-t')= (t}G (t') B(t-t'>· (5 .4.4)

ve

I,.a lunción G (t) que representa el multiplicador adjunto a la función delta en la expresión de.la función correlativa del ruid o blanco se denomina .Intensidad del mismo. En el caso particular, cuando la in.tensid·ad del ruido blanco es constante, éste es estacionario. En·el casó general, siendo variable la intensidad, el ruido blanco no es e8t acionsrio. La fórmul a (5.2.32) muestra que las funciones aleatorias U (ro) y Z ((1)) SO!l ruidos blancos que tienen una misma intensidad igual a la densidad espectral s1,. (m) de l a función aleatoria estacionaria X (t). Semejantemente l a fórmula (5.3.8) mues~ra que la función aleatoria. V (w) ·representa un ruido blanco cuya intensidad es igual a la densidad espectral s,, (w) de la función a leatoria estacionaria

X (t). La fórmula (5.2.21) ofrece la expresión de la función aleatori a estacionada X (t) por medio de los ruidos blancos realés no correla~ cionados U (ro) y Z.(ro). Análogamente la fórmula (5.3.3) expresa la función aleatoria estacionaria X (t) median te el ruido blanco ·com,· piejo ;f (ü>). En el caso general, el ruido blanco V (ro), al iguar que los rmdos blancos U (w) y Z (w), es no estacionario: Por eso la fó&roula (5·. 3;3.) ex.p resa en el ({aso general Ja función aleatoria estacionaria del ·tiein• po X (t) por medio del ruido bl anco no ·estacionario de la frecuencia V (ro). Y solamente en el caso particular, cuand·o. Ja densidad :espect ral s 0 es constante, la fórmula (5.3.3) expresa el i:uido blanco.,estaéiot nario del ·tiempo X (t), que tiene la intensidad 21t8 0 , med iante.. el ruido blanco estacionario de la frecuencia V (w) ·cuya intensid!!-d :es igual a s0 • Así pues, en este Ca.50 el ruido blanco estacionario X,{t)· tiene la densidad espectral s 0 y l a intensidad 2ru0 y el ruido blanco estacionario V (w) tiene la intensidad s 0 • El ruido b l anco es el tipo más simple de una función aloatoria deb ido a que sus valores, siendo diferentes los valores del argumento, no están correlacionados. A la expresión de una función aleator ia mediante una función aleatoria más simple (ruido blanco) la llamaremos representaci6n can6nica integral de la función aleatoria. Las fórmulas (5.2.21) y (5.3.3) dan las representaciones canónicas integra· les de cualquier funcióµ aleatoria estacionaria. Las representaciones caDóni cas integrales de las funciones aleatorias son muy cócnodas para l as aplicaciones. Precisamente esto explica el gran papel que desempeñan las descomposiciones espectralet; (5.2.21) y (5.3.3) en his aplicacionCls de la teoría de íunciones aleatorias cstacionaria::s. En la naturaleza no hay ruidos blancos perfectos del tipo de la función doltn. Es to se explica por el hecho de que en la naturaleza no existen objetos ni procesos carentes por completo de inet"cia. Por eso en todo fenónieno físico el valor de la función aleatoria en ol Jlunto dado determina tambi~n en cierto grado los valores de la misma en otros puntos cercanos. No existe tal magnitud física cuyo incremento
Cop . 5 Fuucioncs al,atoria1 estacto12arla. ~.

con precj:;ión hasta cierto iutervalo y todos los v alures de la magnitud examinada, la diferenci a entre los cuales es menor que este inter valo, se con::iideran como coincidentes. Por eso, desde el punto de vista Jll'áctico, la función aleatoria puede ser considerada como un ru ido l.Jll\nco siempre que l a correlación entre sus valores se haga extensiva sol:~mente a los iutervalos de variación del argumento que son menores t¡ uc el inLervalo míni mo perceptible a l a proci::iión de medlcionos adopt ada. Con otras palabras, l a funci ón aleatoria puede considerarse como un ruido blanco si e l intervalo de cor relación n alea toria ol in tervalo de correlación t cndrt\ diferentes valore11 en dependencia de cuáles sean los va lores del coeficiente de correlación que vamos a considerar despreciablemcute pequeñ~. Supougamos que u na funci ón aleatoria cstacio11aria con función correlativa kx ('t) puede ser considerada prácticamente como ruido bl11nco. Surge la pregu nta: ¿cómo determinar la interu;idad de este millo blanco? Para rec;pondor a esta pregunta, obsen·amos que para u111·uldo bla.n c.o perfecto, en virtud de (5.4.3) , ln intensidad so deter mina por la fórmula

..,

V= )

kx ('t) d't.

(5.4.5)

- oo

Por l'!lt n misma fórmula se determino nalura h1w 11LI! ta1ubié11 la inte11$idad de \JJl ru ido blanco real con fw1cióu correla tiva kx ('t) distintR de la función doltR. En virturl de (o.3.1'1) la integral eo el miembro derecho de la fórmula (5.4.5) p uede ser expresada por medio del valor de la densida d espectral para 'l - O. Como resultado la fórmula (5.4.5) tomará la forma V

= 21' Sx (0).

(.5.4.6)

Es obvio que una función aleatoria estacionaria cuyas fi10ción correlativa y densidad espectral se de terminan por las fórm ulas kx (t) = D e-"-1TI,

(5.4.7}

prrictlcamonte puede ser considerada como ruido blanco (ruido blanco real) siempre que o. sea suficientement e grande. En efocto, cuaudo o. es suficientemente grande, el valor de la función correlativa exponencial será tan pequeño como se quien para t =!=O cualquiera. P or eso, cuando o. es lo bastante grande, el intervalo de correlación du

§ $.4 . •V oclón de ruido blan.:o

227

esta función aleatoria será tan pequeño como se quiera. Con ello, su densidad espectral será prácticament.e constante en una gama considerable de frecuencias. Es evidente que la gama de frecuencias en la cual l a densidad espectral (5.4. 7) puede considerars.i prácticamente c:onstanw puede ser hecha tan grande como se quiera eligiendo a suficientemente grAnde. En virtud de (5.4.6), 111 intensidad de este ruido blanco real es igual a 2D/ a, es decir, a la dispersión del niisrno multiplicada por 2/a.. Ahora bien, la densidad espectro.! de cualquier ruido blanco e.~taciouario real no es constante, pero puede considerarse p?ácticamente constante en cierio intervalo de frecuencias fuera de1 cual eUa tiende a cero. Ejemplo 5.4.t . En el ejemplo 4.2.7. fue mostrado que la. !upción cprreln· ~lva do l a corriente que pnsa por el circuito cornpuestó ·de. un coi1densador do capacidad C, cargado por el !lujo
donde T = RC e3 l a corn5tante d el tir.mpo del circuito y ¡1 es ln densidad media del fluj o de partículas que van n parar al condensador (la esperanza matern~tl­ ca dal número do partículas en 1~ unidad de. tiempo) . Supongamos que la densidad medi¡¡ del Oujo de partículas µ crece illnutadamente. rnientras que la magnitud de carga de cada pnrtlcula va disminuyendo do modo que el producto ~·n quede c.onMnnte, igual 11 ''· Rn e.~te cnso ltJ V

k¡ ("t) = 2T t

--

T •

Cuando T-. O es1a función tiendo a cero para cualquier T :f= O y k¡ (O)-+ oo. La intogral de esta función, en los límites infinitos, queda en em caso const1mto, Igual 11 v. Así, para pequeños valore~ de la constante de tiempo T, lH corrie11te que 1>a~a por el circuito e.s p1·óxima n.l ruido blanco con intensidnd v. En el limite p&ro T ~ O. ln c.orrianto on ol circuito repl'osentn un ruido blanco cstnc.lon111fo ptU"fecto. Así pues, el rui.do blanco pcriocto se puede representar físicarof.nto rnmo unn sucesión continua de impulso~ ínfinitesirnales no correlac.i<>nndos que ~ijfUNI uno tra11 otro con densidad medi:o infinita. Observarnos que en ul ejemplo examinado el ruido blanco perfocto 11c obtio· no sol11mnntc cunndo T - O, l!!I decir, durante la descorJa del condensador, que vn cargado por el flujo de partículu, a t.rav~ de una resistencia nuh. Pnosto que en la naturaleza no exfate la resistencia igual a cero, 6
al ruido blanco.

P11ra reflejar Ja limi tación de la gama de írecuencü1s en la cual la densidad espectral es constante, se int.roduce geuera lmente l n noción no ruido blanc.o de bo.nda. Se denomina ruidQ lit.aneo de banda a una función aleatoria estacionaria cuya donsidnd espectral es cons15•

228

Cap. 5 Funciones akatorias estacionaria•

tante en cierta gama de frecuencias y e.'! igual a cero fuera de esta gama: s0 si 1w ¡.,.;: (1)0 , (5.4.8) s,, (w) = { O si 1w1 > C•lo • .Sustituyendo esta expresión do la dcnsid11d eo<pootral en la fórmula (5.3.15), hallamos la función correl a ti va del ruido blanco de banda: kx (i:) =

o bien

s0

(Irº .

J

ei<•T d
.

~iwui: _e-i(&){)'f

S,¡

i't

,

-"'
"•o l>x (i:) = -~-sen 't

ó.l 0 i:.

(5.4.9)

Sustituyendo la expresión (5.4.8) de la densidad espectral en la fórmula (5.3.16), hallaremos la dispersión del ruido blanco de banda: D,, = kx (O) =

"'º

J

So dw

= 2sow0•

(5.4.10)

- 00

Así pues, la dispersión del ruido blanco de banda es finHa. Desde este punto de vista él os más real que el ruidQ blanco perfecto. ::>in embargo, tampoco los ruidos blancos de banda existen en la naturaleza, puesto que no es posible una variación discontinua de la densidad espectral hasta el cero con el valor dado ro 0 de la frecuencia. La fórmula (5.4.!l) muestra que los valores del ruido blanco de hánda en Jos puntos, divididos por cualesquiera intervalos múlti·ptes de st/oo 0 , no están correlacionados. Así, los tórminos de toda ;;ecuencia aleatoria formada por los valores del ruido blanco da lianda en los puntos equidistantes, divididos por el iotervalo n l <»o, no están correlacionados. Con otras palabras, la secuencia aleatoria de los valores de un. ruido blanco de banda, tomados cada intervalo n/ro·0 , .se puede considerar como ruido blanco dtscreto, es deeir, como ~iii;esió/;l d·e ip:¡.pulsos aleatorios no correlacionados. Por eso el ruido .Jl'!tfnc.o..íie ·})anda desempeña el mismo papel en la teoriá de secuencias fi1eatorias--:que ·el ruido perfecto en l¡¡ teoría de procesos aleatorios del. argumento que varía continuamente. § '5.5. Fnncioncs aleatorias estacionarias ergódtcas

Para determinar la esperanza matemática de una función alea· toria es necesario conoéer su densidad unidimensional de probabilidad. En el caso en que las craracteristicas probabilísticas de la runción (:l.leatoria no.son. conocidas, entonces, para la determinación experimental de su esp.e ranza matemática, hay que observar un número suficientemente grande de sus realizaciones para cada valor dado del argumento t. Entonces, conforme a los resultados del ejem-

.~

5.5. /:'u,.cionu aleator((>S e1taclo1tarta1 .rgódlcas

plo 3.9.2, l a media aritmética de l a función aleatoria para cada va lor de t, tomada según todas las realizaciones observadas, puede considerarse como valor de su esperanza matemática para esta t. Coa otras palabras, para la deter minación experiment.al de la esperanza mate. mática de u.na función aleatori a. se necesita obtener un número bas" tante grande de sus realizaciones y tomar el valor medio de estas realizaciones para cada valor dado del argumento t. Per.o la..esperanr za matemática de una función aleatoria estacionaria es constant e. Por eso cabe pregun tar: ¿ se podria utilizar par a la determinación experimental de la esper anza mat emática. de una funcióll alEiat9~¡a estacionaria l os valores de una reaHzación suya para dHeret\le¡¡ valores del argumento en vez de los valores de 'u n gran númer o de diferentes realizaciones para un mis mo valor del arg\llllento? Y en generul ¿se podría aprovechar la circunstancia de que las características probabilísticas de las funciones aleatorias estacionarias no cam bian, cualesquiera que sean los decalajcs en tiempo (o en general a lo largo del eje del argumento), y deter minar las características probabilísticas de la función aleatoria estacionaria por una realización suya, desplazándola por el eje del argumento mediante todos los proced imientos posibles? Para resolver esta cuestión, pongamos en claro cuáles son las condiciones en que una sola realización de la funciól'l aleatoria estacionaria , desplazada por el eje del argumento media nte todos los métodos posibles, puede su ~tituir una gran cantidad de reali zaciones que se observan al toner el argumento un solo valor fijo. Más exactameutc, h111lemos las condiciones en que la esperanza matemática de una función aleatoria estacionaria puede ser determinada como valor medio en tiempo do las ordonadas de una realiz11ci6n suya tomada arbitrariamente. Con otras palabras, determi o~­ mos cuáles son los condiciones en que para cualquier realización :i: (t) de la función aleatoria estacionaria X (t) tiene lugar la igualdad aprox imado

+Í T

mx:::::

x (t) dt.

(5.5.1)

•• E11 obvio que la integral del segundo miembro de esta fórmula tiene diforentes valores para distintas realizaciones posibles de la fu nción al1:.1atoria X (t). Por eso los valores del segundo miembro de la fórmula (5.5.1), correspondientes a distin tas realizaciones posibles de la función aleatoria X (t), son v11 lore.<> posibles de la mngni tn
Y1· =+

JX (t)dt. o

(5.5.2)

Cap. 5 Funclonts akat
La' esperanza nrnl.cmática de esta magnitud aleatoria es, e"idenle· mento, igual a m,, puesto que la cs1>eraoza matemática de la funcióu aloatoda estacionaría X (t) es constante e igual a m.,. Por eso, para que se pueda escrLbir lA igualdad aproximada (5.5.t) , es necesaria y suficiente la pequeiioz de la dispe1·sión de la magnitud aleatoria Y T· Bn virtud de la fórrnu l11 (4.7.5) para lu dis persión de la integral de la función aleátoria, In dispersión de la magnitud aleatoria Y r se expresa por la fórmula T

!

D [Y,.] = .-lf r

{

y1

Jr X (t}dt~mx 'J\. 2] = u

= ;2

T T

) ) k.d t- t') dt dt'.

(5.5.3)

u ()

Esta fórmula mut'$tra que la disper.1ión de la magnitud aloatoria Y r y, por lo tanto, el error cuadrático medio de la igualdad aproximad u (5.5. i), se puede hacer tan pequeña como se quiera eligiendo un valor de T bastante grande, siempre que el vnlor medio de la función correlativa eo el cuadrado con el lado T tienda a cero al aumentar ilimitadamente el lado de este cuadrado. La condición suficiente para esto es la existencia d.e uu tal valor -r0 qui! la función correlativa k,, (-r) pueda ser considerada prácticamente igual a cero para 1-r 1> i:0 • Con otras pnlol' ig. 5.5.1. bras, para que la dispersión de la magnjtud aleatoria Y r tienda a cero cuando T-.. oo, es suficiente que exL5ta el intervalo íinilo de correlación de la Iunción aleatoria estacionaria X (t). PAra demostrar lll afirmación expuesta, supo ug¡imo~ que para cualquier & >O existe tal i- 0 >O que

,.

(5.5.~) < e si 1 't 1 > To. Dividamos el cuaJ.rado O < t, t' < Ten tre~ zouns con ayuJ.a tlll

1 k.~

(-r)

1

los rectas t - t' = ± i: 0 • (En la zona St. Solllbre11da eu la fig. 5.5.1, la funció11 correlativa no sobrepasa su valor en la diagonal k,. (O) =D,, y en las dos zonas restantes, sciialad ns en la fig. 5.5.1 por la letra S 2 , la. función carrelativa es ruonor quo e. Por consiguiente,

=

T T

) Jk.,.(t oo

t')dtdl'< Dx ít r<.>a S 1 + e iiroa s~ .

(5.5.5)

Pero el área de la zona S 1 es menor que 1' V2·'toV2 = 2T 'to y el área sumaria de las zonas seiialndas por la letra S 2 es menor que el

§ 5.5. Funcio1us al~alorio.< <.
231.

Area del cuadrado T'. Por lo tanto, T 7

.\o Jo kx(t y

t')dtdt' <2DxT-ro+~r-'

+, ¡¡kx (t T T

t') dt dt' <

tº +e.

20

(5.5.6)

Debido á l a pequeñei arbitraria de e, el segu ndo miembro de es.ta· desigualdad se puefle hacer tnn pequeño como se quiera eligiendo uír T suficientemente grande. Ahora bien, de (5.5.3) y (5.5.6) se deriva que la dispersión de la magnitud aleatoria Y,. tiende a cero .para :¡ - oo si la función correlativa de la íunción aleatoria X (t) tiende a cero para T - oo. Las íuncioaes aleat.orjas ostacionarias para lM cuales ln t.oma de 1111 ,·alor medio )Jrobahillstico por una numerosidad de Loda!I las realizaciones posibles se puedo sust ituir, al calcular las esperanzas matemáticas, por la toma de un val or medio simple del tiempo de una sola r ealización tomada arbitrar iamente, se den omi nan ergódicas. En dependencia de cuáles son las magnitudes, ligadas con la función alealoria eu cuestión, cuyos esperan7.as matemáticas se puede c.alcular a base de w1a sola realiznción suya (cualquiera) tomando un valor medio del argumento, se puede hablar de diferente grado de crgodicid11d. J!:n pnrticular, acabamos de demostrar que la t endencia de Ja función correlativa kx (t) a cero para ,; -.. oo es ur111 condición suficiente de ergodicirlad de la función aleatoria esiacion11ria con re.-;pccto a la espernnza matemática. La desigualdad (5.5.6) muestra que la dispersión de la magn itud aleatoria Y T depende de la relación cnt.I·e la longitud de registro T d11 Ja roalización de la función aleatori a X (t) y el intervalo de cocrelarión 2 To de la misma. Así pues, para poder escribir la igualda1I aproximada (5.5.1) es neces11rio que la longitud de registro 1' lle Ja Iu11ci.ón aleato ria cstacioonria X (t) sea lo suficiouLemcute grande cu co111puración cou su intervalo de correli:lción. Hablando metafóricam1<11te, 5e pueJo dticir que la igualdad (5.5.1) es vúlida si el iutervalo de registro T de la función aleatoria X (l) es lo sufir.ienlomente gr ande ¡1arn que so manifil'.!Ste bien su c11rácter olcatorio. Ejm 1plo 5.5. J. ¿Cuál lo.ogi Lud do 1•cgf~tro de la rundóu ulontoria cstaci<>·

oaría X {L). que tiene la !unción r.orrelntivu /Je-a. l•l Jcbo Lomarsn ¡1ara 1fotnr· minar su l!Speranza matem~tica por la fórmula (5.~i.1) cl'ln 1111 err!'r c11ndrá1irn medio que no super~ a :Y'Dí lO? Según los datos, 111 d1si>ersi6u de In m1
111 comlici6n

e = 0 / 200 v hallnwos

D -cn·0 _ ...!!_ t - 200·

·

To purti~ndo d1

Cap. 5

Obtenemos -r1

¡::::

Fu11t;fotrl'$ 11lnilorias ~1tac:lonarl1Jlf

5,3/a.. !'ara que el primer SUmllJldo dd ~cgundo miembro de

In do:ii¡¡unldnd (5.5.GJ uo sup•w a D/200, es sulicie11te elegir 111 Lon¡¡iLud de registro T, partinndo do lo condición

2DTo

D

-T--= 200 . Dt• 11qui hnlliu1111s 1'/'t0 = 400 o T ¡:::: :H20/a.. Do este modo, para que el orror cuadrático medio, al dctermi nar la esperanzH matcmntlcl\ de la funcióo aleatoria j)(lt lu lót'Tnula (5.$.1). no cxccdn el 10% con rc.specto a lo drsvlación cuadrática 10edfn de la función RlMtorln. en rr.il~ ceM es suficiente rpgisl.rar la realiMción de IA funrión aleat.oria en el intel'valo T 200 veces mayor que el in~rvalo de rorrdoción 2T0•

El v11lor de In función correlativa kx (-i:0 ) de la función aleatoria es In esperanza molemática de la funestacionaria para cualquier ción aleatoria Z (t) = Xº (t) Xº (t + T 0):

•o

k:c (To)

= MXºl (t) Xº (t + 't0)] = JJIJ IZ (t)J.

(5.•5.7)

Por llSO en cie.rtas condiciones la funcióu correlativa de una función aleatoria estacionaria también puede determinarse a base de urJa

sola rcali7.ACión de esta función aleatoria tomando su valor medio roferenle al tiempo. Esto es posible si la función aleatoria Z (t) es ergódica con respecto a la esperanza matemática. La condición suficiente
+

+

Así pues, el momento inicial de segundo orden de la función aleatoria Z ,(t) representa. el momento central de cuarto orden de los valo1•es de la función aleatoria X (t) para los valores del argumento t, t + To, t 1T, t· + -c0 + 't. Ex1iresando este momento mediante la función

+

correlativa de la fw1clón aleatoria X (t) por la fórmula (3.11.34), obtendremos r, (t, t + •) = Jci, (To)+ 1c1 ('t) + k,, (T + 'fo) k,, (T - -Co)·

Aplicando la. fórmu la (4.2.12) que liga la función correlativa de una función aleatoria con la esperanza matemática de Ja misma y con el momento de segundo orden, y teniendo en cuenta que la esperanza mat.emáticn do la función aleatori a Z (t) es igual a k., ('t 0), hallamos lo función correlativa de la función aleatoria Z (t): /,·, (t) ..,. f, (1, t+-t)-k~ ('to)= k! (-c) +kx (-r -¡- To) kx('t-'to)· (5.5.8)

§ 5.5. /o'unclo1U!$ a.katoria.1 e.
233

De aquí se ve que l a condición k,, ('T)-0 para 1T 1- oo t!S sulicien· te para la ergodicidad de la función aleatoria Z (t) con respecto o la esperanza matemática y para la ergodicidad de la función aleatoria X (t) con respecto a la función correlativa. Así pues, el decrecimiento ilimitado de la función correlativa de u na función aleatoria estacionaria normalmente repartida para 1T 1- oo, es la condición suficiente 'd e su ergodicidad tanto con respecto a la esperanza matemática como con respecto a la función correlativa. AJ cu mplir est a condición, la-función cor.relativa de una función aleatoria estacionarla X{t) normalment~ repartida, cuand<> el valor de T es l o suficientemente grande, puede ser determinada aproximadamente por la fórmula · kx (i:o)

~ -} ~ :tfJ (t) z-0 (t +To) dt =

=+ J T

[z(t) - mx]lz{L + 'To)-m.,]dt.

(5.5.9}

u

Ejemplo 5.5.2. Las funcio nes aleatorias estacionarias m>rm:tltnenlc ropartidu, cou laa tres funciones correl ativas tipo examina~n.s en los párralos 1mtn1·iores, que contienAn como multiplicador una función e.xponencinl , son ergódicu• tonto con respecto a l n esperanzo. matemática como con respecto n la función correlativa , puesto que todas esta~ funciones con-elativa.s tienden 11 corocunndn 1..-1- oo . Por eilO l os o.5poranr,n~ mtlUlmútlca11 y l~s lnncioncs c:orrd11tivns de las mismM SI\ punden determinar vor lM fórmulas (:i. ~d) y (á.!Ul)puru un valor de T fo 5ufir.ientomento ¡¡rande. · Ejemplo 5.5.3. l'nra una (unción aleatoria esta.ciona.r la ~inusoidal de lrucuencia deierminada X (1) - U sen w0 1 Z cos 6loJ, M IUJ ~ M (ZJ - O, D 1U) - D (Z) = D, no se cumple la condición su.Uciente de ergodicidad, pucstn que su fu.neión corrnlativa k:o: (T) - D cos

+

M!=+

Í X (t) dt= ;

r,

s

(U sen 6lot+Z cos ro0 t) dt ..

ll

=r'Wo- [U (1-cos úloT)+Z aen <11oTJ. De nqul se ve que el i1Cg11nclo miembro de Ja fórmula (!'í.5 . 1) tiende en esLe caso a cero, es decir, a la esperania mRteinática do la funci6n alodoriR para T-+ oo . Por In ~anlo, la función el eMnr ia r.stneionaria sinuso idal es eri;ódica co n rP.spll(tl\ 11 la esperanza matemático. De un modo eernojnnte hollamos T

K~ (•o) =

·1

T

Jf X (t) X (t +•o) dt""' -u•+zz 2- - cns
p1m1 ¡¡r1t11dtJs valores de ·T. De ar¡uf ~ vo quo el sogund< rel="nofollow"> ullumb1·C1 .i~ Ju fóru1u l 11 (j .5 .9\ es aproxilnttdamento pruporcional al euadrado de lu aruplitml nl~awrla A t - Ul Z 2 rlc ln sinu soidi: y J'Or eso tiene diferP.111~5 \'alorc•s ¡1ara cl istintos

+

234

Cap. 6 Funciones akaÜJrias estaclonarlo.r

realiz~iones.

l'or <:onsiguiou tc, la fundón eleawria estll{'jonarja sinusoidal no

ergódic u con resp...<:to a la lunci6n correlativa. Paro coofirmar esta deducciún, calculomt•S además la dispersión de la inaguitud aleatoria K; (-r0) suponiendo -que In~ ma¡¡ni111dP.s aleatoria.s U y Z están repMtidas normalmente. Teniendo P.$

-0n cu~nla que su 1•spera11ia matemática es igual n la lund6n correlativa kx (-rol = =:: D cus m0 T 0 • ol1tcndremo.~ DIK:(ro)] ::::<M [ (

ai;ze

C09ú>o'to-DCOS(l)o"to)

- M l'
f)ara la.,

magnitudc~

[u•+w;v+z•

2

]=

D (U'+Z•¡+ D"

} :-OS2 6lo-ro.

aleatorias uormalmenle reparlid11.s el momento contra!

.d o cun.rto urdoo e;; igual al cuadrado tri¡,licado de la dispersión !véase la fórmula (2.5.11) ). Por eso M 1u•J = M lZ J = 3D1 y obtendremo~ D [ (To} ) "' D2 cos' •>o To·

x:

lljcmplo 5.5.4. Cnalqui<•r función aleatoria estacionnria con rr.alizacl1rne~ pu1·nment.e sinusoidales no es orgódica con respecl.o a lu función cnrrelntlva inrlu!o ~¡ su fondón corrolativa tiende a cero cuando 1't 1- oo. En efecV•, $i la luución al~ntnria estacionaria X (1) se dntermina por La fórmula X (1) - "'x U sen Ot Z cos Q1 1

+

+

·dondu U y Z son magnitudes aleatorias no correlncionadas, con ~speraoias motemáticQS iguales a cero y dispersiones iguales a D, y Q ~ cualauier magnitud aleatoria no negativa¡ mdo¡¡endiente de l11s magnitudes U, Z, enton~cs, conforme a los resu lados del ejem11lo anterior T

M:=+

Jo X

(1)

dt""' m~.

1

US+Z' x; (-ro)= r-1 JÍ XO (t) XO(t + ro)dl~ --2--cosS:ho u

r.

La primera fórmula muestra que la función aleatoria co n •·~a liwcioncs purom~nte sinuwidales es crgódica con respecto a la espcranin 1n•temálfca. La segunda fórmula muestra quo fJ .segundo miembro de la fórmufo (5,.5.9) tiende .a diferentes llmitos para distintas realizaciones cuando T ..... oo y no ~iende, para ningunl\ realización, a la función correlativa. puru ¡¡n111clt'S valores ele

Los ejemplos examinados muestran qutl ninguna función aleatoria estacionaria, lodas las posibles realizaciones de la cual son sinu-

:soldes, pucdQ ser ergódic11 con respecto a Ja función correlativa y, por

-consiguiente, su función correlativa no puede ser calculada con ay11d11 de una sola realización. En el § 5.2. vimos que , cualquiera quo sea la función correlativa kx ("t}, siempre existen funciones aleatorias -estacionarias, con reali2(1.ciones puramente sinusoirleales, que tienen osta función correlativa. Por eso a toda Iunción correlativa k:c ("t) lo corresponden siempre funciones aleatorias estac ionarias tanto org6
§ 5.5. Fu>lcionts aleaiorias eslacionariu er.gócll.caa

235

aleatoria estacionaria, no se pu.ede determi¡iar si es ella ergó.dJita con respecto a la función correlativa o no. Para ·r esolver est!l cue~'­ ti ón, siempre se necesita d isponer de una i.n.foi::macióh adiejo!ial ác~rca de las características estadísticas de -la función aleatoria estacionaria, · por. ejemplo, conocer que la función al~atoria está repartida )J:Ofllla'l~· mente. Como vimos, si se trata de funciones aleatorias estacionarias normalmente repartidas, basta ,conocer la función correlativa pi:1ra r
+

T

i X (t) dt,

(5.5.10)

' Xº (t) Xº (t + -i) dt.

(5.5.11)

m.,= lím T~«>

~

T

Ir.<("t:) = lím } T~«>

0

C:n e~t.ns fórmulas el lí mite debe entenderse en el sentido probabilístico, es decir, en el sentido de que la esperanza matemática del cuadrado de la diferencia entre la magnitud y su límite tiende a cero (el así llamado límtte en la media cuadráttca). Ponieudo en la fórmula (5.5.11) i; =O, obtendremos lo. siguiente fórmula para la dispersión de una función Clleatoría estacionaria, ergódíca con respecto a la funci óu corr
D~ = li m T-+oo

+

T

~ [Xº

(t)JZ dt.

(5.(1.12)

l1

Expougamos ahora la interpretación física de la noción de densidad espectral de una función aleatoria estacionaria. Para esto examinemos la función aleatoria estacionaria X (t) ergódica (con respecto a la fooción correlaLi n1). En Jos problemils prácticos la función aleatoria X (t} representa frecuuut~mentc la c.orl'ica.to o la tensión cxistentn en ciert.o circuito.

•¡ Vlmos c¡110 siempre bast.a ('. Ollocor la función r.orrelaLiva pora juzga1· ac!'r ca cti1 a la ~speran..a matcrnútico. De oquí se vuede deducir que para juzgar snb1·0 I¡¡ ergollicidnd de una función aleat.oria cstaciouarín con rMpeeto a Ja función c:o•Tol aliva es Mulidl'nlc conocer el mom1mto de enarto orden d& r..st.a fu11ciún afoatoria.

Cap. S l'u11clonu 1>uotoria• tttaclonnrltt.•

Con ello, la esperanza malemáUca m:.: es 111 componente consta.nte de corriente o de tensión, mientras que l a {unción aleatoria centrada Xº (t) representa las fluc tuaciones de la· corriente o ele la tensión. La magnitud !Xº (t)l1 es la potencia instantánea ele ln corriente de fluctuación, en la resistencia unitaria y la magnitud T

IV=

y J[Xº (t)l dt 2

(5.:.i.13)

u

os la potencia media de la corri ente do fluctuación on la resistencia unitaria. Pero conforme a la fórmula (5.5.12) la magnitud W para la función alentori11 estocionaría ergódica X (t) no difiere prácticamente de la dispersión de la función aleatoria X (t) para T Lo suficientemente grande, debido a lo cual se puede escribir

=+ J T

W

[Xº (t)]idt.:::: D ,.

(5.5.111)

o

o bien, ten iendo en cuenta (5.3.16) :r ... w [Xº (t)¡2dt;::: s.. (Ci>) dCi>.

=+I

J.

t5.5.1.))

E~ta fórmula muestra que la densidad espectral Sx (cu) caractori?.a en este caso la distribución de la potencía media de 111!! 11uctuuciontl>1 de la corriente en el espectro de frecuencias. Debido a este sentido físico de la densidad espectral , a ésta so le llama con frecuenci11 densidad especLra.l de pot,ericla de una función aleatoria estacionaria. La fórmula (5.5.15) muestra que las fluctuaciones de corriente pueden tener una densidad espectral constante solamente en aque l caso cuando la potencia media de estas fluctuaciones es infinita. Esto confirma la deducción hecha en el párrafo precedente de que el rui do blanco no puede existir físicamente.

§ 5,6. Densidad espectral recíproca de dos funcioues aleatorias estacion11rias y enlazadas estacionarlamentc

Hallemos la función correlativa recíproca de dos funciones aleatorias estacionarias X (t) e Y{t). Para esto representémosl as por las descomposiciones espectrales en forma compleja: X (t) = mx+

..

JV (Ci>) e

(5.IU)

J

{5.H. 2)

1 1 " dw,

00

y (t) ""mv+

W (Ci>) el•it dú>,

.~

$.6. Dtn1idad <1pec1ral dt d o1 fu11cionr~ tltaelonaria•

237

donde V(w) y W(ro) son dos ruidos bl ancos complejos cuyas lilte.nsidades son íguales a las densidades espectrales s., (ro) y s11 (m) de las. funciones aleatoria:s X(t) e Y(t) respectivamente. Para determinar la función correlati va recíproca, hallamos las correspondientes funciones aleatorias centrales. Con ello, teniendo en cuenta la deterJOinación de la fuución correlaliva recíproca de l as funciones aleatorias complojas, pasemos en la expresión (5.6.2) de ltl función aleatoria real Y (t ) a lo.s magnit udes conjugadas complejas y cambiemos l a designación del argumento y de la va.r iable de integración. Entonces obtendremos:

..

Xº (t) = ~ V (rJ)) el•H deo,

yu (t') =

_.,.,

""

} w (w') e-10>1' d-Ol'.

- oo

De aquí bailamos l. '" (t, t') = M [Xº(t) Yº(t')} =

J JM [l'

""

00

(úl) W(111' )1

ci(w1 - (~· 1 ·> dwd«i' .

P ero fo esperanza matemática bajo el s igno integral representa la función correlativa reciproca de los ruidos blancos V(co) y W((I)): M {V (úl) W ((l)')I = Kow ((1), w').

Por consiguiente, l a función correlativa recíproca de las funciones aleatorias X(t) e Y(t) se expresa por medio de In función correlativa recíproc;,1 tlo los ruiúos blancos V(w) y W(w) por !>1 fórmu la K ,.1, (t. t') ""'

J ..) K. ,c

""

- oo

(ro. co>') c1((l)t-' 1'>du>

d 111' .

(5.ü.3)

-t'O

Esta Iórmuln muestra que en el caso general las funciones aleatorias pueden estar ligadas no es tacionariamento, 1>uesto que su función correlativa recíproca depende de dos nrgumenLos por so1iarado. Paro que las funciones aleatorias X(t) e Y(t) estén ligadas esLacio11ar iaU1onte 1 es necesario que sea K rw ((¡), w') = O para w' co; es decir , que los valores de los ruidos blnocos V(
*

238

Cap . 5 Funclont• oltolorla$ 4toclonorla1

Sustituyendo esta expresión en la fórmula (5.6.3) y tomando en consideración las propiedades de lus [unciones delta , obtendremos 1(.,.11

(t, t') =

""

J

..

Sxy

(w) dUJ

"" f -~xy (oo)

..f

e 1<cu•-.,· r•>,S (ú> - <~') dw' =

el«1-1·1aw.

Do uc¡uí se ve que en el caso en quo ln fut1ción correlativa recíproca de los ruidos blancos V (F) y W ((1)) se expresa por la fórmula (5.6.4) , las funciones aleatorias estacionarias X (t) e Y (t) están ligadas est.aciooariamcnte y s11 función correl11tiva recíprocu se determina por la I6rmuln

kxv {"t) =

..J

Sx11

(01) ei••• dc11.

(f!.(i .!'i).

La fórmula (5.G.5) e:s completamente análoga a la (5.:U.5) que expresa la función correlativa de una función aleatoria estacionaria por medio de su deusidad espectral. Esto da razón para llamar a lo función Sxv (ú>} demtdad espectral recíproca de dos funciones aleatorias e~tacionarias y enlazadas estacionariamente X (t) e Y (t). fü obvio que la magnitud Sxv (ú)) dro r epresenta el momento de correlación de l os armónicos V {)el6lt dú) y W (w)el"'t dú> de una misnH1 frecuencia ú) que forman parte de las funciones aleatorias X (t) e Y (t). Los armónicos de diferen tes frecuencias en las funciones aleatorias ligadas estacionariamente siempN no está n correlacionados; s61o los armón icos de la misma frecuencia pueden sor correlacionados. Ahora bien, la densidad espectral reciproca caracteriza la distribuci6n del enlace correlati vo entre las fwiciones aleotol'ias en el espectro de frecuencias. La fórmula (5.6.5) muestra que la densidad espectral r11cíproca represent¡¡. la transformación de Fourier de la función correlativa recíproca. Por eso, aplica:ndo l a fórmul a de la transformación inYc1s3 de Fourier , obtendremos

s,.11 (ú>) = 2~

..J

kx~ (T) e-i"'T dt.

(5.0.6)

- oo

Esta fórmula expresa la densidad espectral reciproca de dos funcio · nes aleatorias estacionarias y enl azadas estacionariamente mediante su función correlativa reciproca. Ejemplo 5.6.1. Halla.r la donsídorl espcc.f.ral rccípro1:1t de las funciirnc~ aleatorias cstacionorias y enlnza
§ 5.7. SecuMclas aloatllri
Ole

deterroina. p-0r la f6rmuJa

kxu{i:)=-C~-etlTl11en l'or 111 fórmula (5 .6. 6) hallamc>s

..

s,.11(cú) -

f, J

"'º''

ll~ =a'+(l)J.

e - <>l•l- !ooT sen Wo>d>=

"" e
= _E_ [ f 4nf

_ ..J

5

e«T- Hi)Ot-fCQT

d'f-

..

J,-a.-i--i ~t - h>t J dT

o

-oo

o hlon , después de c.uwplfr la int.ognc.ióu y transfoun11clo11cs ºefome11t5los 2C l«(l)(&)o Sxy

(6J) =- ~· ~•+ 2(a2 - (l)i) (l)•+(I);¡ :

Estn fórwula muestra que la densidad espectral reciproca de la~ funcio ne~ aledtorias re11les puede ser comploju. Ejemplo 5.6.2. Hollar l a función comllati\•a reciproca de las funrionc:>

aleatori u

Y (t) =X (1) -1- X, (1),

Z (1) = X (1)

+ X 2 (t),

d n nclo X (1), X, (t) y X 2 (1) M n funciones aleatorias lllJtacionru·ias no correln1 cionadas con los funcloues correlativas De"""' 1' 1, D, c· cxifYI y Di•-"''1' , rcsp11c· tivamente. Mostrar que Ja., !u11cio11es aleatorias Y (1) y Z (!) estón ('nla zadas cstnciona.r iamente y hallar su densidl\d espectral reclpr<>cH. Seg ún l a definición d o In funr.i6n c.orreloth•R redproca K vz (t, l')= M [Yº(t) (t')l = M [ XO(t) Xº (t')J+ + M (Xf (t) XO(t')J+ M [XO(t) -~ l(t')J+M (X~ {1) Xf

zo

<• bien, p uesto que las h~c.innndtts,

en

funcione~

alnatorias X (t). X , (1) y X 2 (t) uo está 11 corrc>-

K 11 z (t, 1') .,... M IXº (t) Xº (t')f ~ k" (t -

t') .

l) e aqu l se vo que las funcione~ olentorias Y (1) y Z (1) e::;Lán enla:tadM est11cionnrlame nt.e y su funci6n corre)utlva 1·ecí proca coinciclo c.on ll\ !unción co1·rolatl va ile la función aleatoria X (t) . Por lo tanto, la d e nsidad espec.lral r~.c:fprocn dr. l,.s funC'io ncs 3Jeat.oriM Y (t) y z (t) tllD.lbién col11c hl 11 con la dt•usidail ~-~pc<'­ t ral de l a función ale.atorio X (1):

•uzC6!)-~ •x ((1)) = _Q_ .. ";' • • n · o.·,.,. § 5. 7. Secuencias aleatorias est.'\cionarias

E xaminemos la secuencia aleatoria formacla por los valores de una función aleatoria estacionaria que corresponden a la ::;ecuoncia ilimitada de los valores equidis tD.ntes del argumento con el interv~Jo t.: Xh =X (to + ht.) (h =O, ± 1, ± 2 .. . . ). (5.7 1)

Cap. S FitnciO!lf• aleatorias estacionarla.• E~ta secuencia aleatoria es estacionaria, puesto que su función correlativa depende solamente de la diferencia de los números de los términos de la secuencia:

h,.. = M lXf. Xl:+ml= = ill {Xº (t 0+ M) Xº (to + hó. + 11u~) ! = k,, (mó.).

(5.7.2)

E:.:prese111os nquí fa función e-0rrelativa de la función a leatoria X (t) por la fórmula (5.3.15}. Entonces, obtendremos km

J s.. (w)

=

e1@m!I

dcv.

-<»

Dividamos el intervalo de integración en los segmentos de 2n!Ji de longitud dispuestos simétricamente con respecto al origen de coordenadas. E11to11ces tendremos oo

(2v+l )n / "

V= - ~

(2V- l ):t/ ó

J

~

l>m =

(w} elc.>mó cfui.

Sx

+

Sustituyendo las variables w = 2 vn/ó CI)', en las integrales correspondient.eis, las reducimos t-0das a los mismos limites de integración: 11/ó

J

~

/;,,, =

Sx ( úl '

+ 2 ~n

) el Ol'mlH·2vni du>'.

'\'=- oo - n / A

Omitit,ndo la rayn 11dju11ta a la designación de la vari able de integración y teniendo en cuenta que e~"1 = 1, podemos escribir la 'fórmula obtenida en ln forma :1/ C.

km =

J[~

-n/ó

s_.(ro+

:?.~n)]e;,,,.,"dw.

v=-oo

..

P.o r -~iu, in~rotluciendo la destgnación

si(©)= ~

s,.(<ú + 2~") ,

(5. 7.3)

v= - '1IO ~btend remos

k,,.

=

ni"

J s~ (ui) eiwn~ dw.

(!í.7.4)

-11/ ó

En partic11l11r, poniendo rn =O, obtendremos la siguiente expresión para la dispersión de los términos el.e la secuencia aleatoria estacio-

.fí

:;.7. Sdcumcias aleatorias u t 11r.lonarill$

241

naria n / f:.

) ~(co) dúJ.

Dx=ko=

(5. 7.5)

- nf~

Demostremos que la función ~ (w) determinada por la I6rm11la (5.7.3) es periodica con un período de 2rr./ 6.. Para eso sustituyamos en la fórmul a (5.7 .8) cu por la magnitud (1) 2n!6.. Entonces obt.onclremos

+

+

Pongamos aquí µ = v 1 y observemos que µ, al igual .que· v; rC<'.Orr.e todos lo~ valores enteros de - oo a oo. Como resultado tendremos 2 ( Ctl + )= Sx ( lt) + ) •

~

~

~

~"

µ s=-oo

Comparando esta fórmula con (5.7.3) y teniendo en cuenLa que la suma no depende ele cómo está d(lsignado el índice de adición (éste recorre todo$ los valores enteros de -- oo a oo) , obtendremos

s~ (ro + ~'T )

;;;.

s~ (cu}.

(!J.7.U)

Jo que demue5tra prr.cisnmeute la afirmación enunciad a . La función periódica puede ser descompuesta en la serie do Fourier *). Por e~o la fun c ión~ (w) también puedo ser representada por uua serie compleja de Fourior:

..

s~(ú>)=

~ a 1,ei•"v".

P- - oo

(5.7.7)

Los coeficientes de esta serie se determinan por la fórmu la conocidn de la Teoría
a. p -- _2:t

7t/.,I>

Jl

" (c.>) e-hopa diú .

sd

-Tt/I:.

Comp•lrando esta f.órmula con la (5.7.4) ¡ara m = - p, vQmos que Jos coeficientes
núm~.ro

1G- OU38

2~'.!.

Ca p . .") ,..unclo rtf'.f ufratoria.tt

S usli tuycnclo

c:;~a

ex pres ión

tstac.t<111a rl-'~

(5.7.7), obl·c nd remos

•JO

s•X' (~>) = ~ ~ k - fi 11iwpt. ' 2n ~ v= - w

Por íiJJ, 1>oniendn aquí -p = m y te niendo en cuentn que m, al igua l que p, recorre todos los v11lores enteros de -oo a oo, obtenrlremos 00

~ k me -t0>111:i. . •~,·" (ú1) -- ~ ,, k.J

(.'í. 7.8)

Bxprcs~mos »horn la función aleatoria esl11cío11nda X (t) por In clc11composic:ión cspectrnl (5.3.3). Entonces obtundromos }¡¡ siguiente fórmula para los términos de In secuencia alontoria estacionaria que so examina: .¡..,.

X (to+ tó) = X 11 =in,.+

)

Vd(Ci>) clOl(fo + l•Al dhi.

Cumpliendo aquí la.~ mismru; transformaciones que al deducir la fórmul a (5. 7.4), obtend remos :t/ f;.

Xh

= m., +

JV

..

.i (111)

et..1•t\ tú~,

(.J. 7 .!l)

- ;1/ ó

dorido Vd(w)

=e'"''•

~ V (111 +

2;,'' ).

(!í.7.IO)

v= - oo

A;;i pues, hemos obtenido la representación espectral de una socuenci11 ulcatoria estacionaria. Con ello, debido a 111 pel'iodicidad do la función exponencial del argumento puraroent~ imaginario, el espectro do frecuencias de la secuo11cia aleatoria so puede considerar concentradó 'en el intervalo 1 Ci> 1 n/6. Las fórmul11s (5.7.4) y (5.7.8) soo a1;1álogas a las de Wiener-Jínchin (5.3.11 ) y (.'>.3.15). Mostremos ahora que la función aleatoria Vd (w) on la i:epresenlnción espectral de una secuencia aleatoria estatiouoria no es más que un ruido blanco cuya intensidad es igual a ~ ((i.)). Para esto hallemos la función correlativa do la [unaión aleatoria Vd ((1)). Con ello, es suficiente considerarla solamente en el intervalo de frecuenci11s 1 e~ 1 < n / A. Puesto que los sumandos en la s um a que figura en (5.7.10) han sido obtenidos decalando el mido blanco V (w) en intervalos múltiples del periodo 2n/ 6, todos ellos no est án correlaciona 1 < ni6. 1'01· eso la función correlativa de la suma oo (5.7 .10) es igu'11 a la s uma de las funciones correl ativas de Jos sumandos. El mulliplicallor elc.ilo en (5.7 .10)

<

§ 5.7. Suuetu:ia• aleatorias 11tadonar/as

243

dará el multip licador e• <., - "'')to en la expresión de la función co· rrelativr1 de 111 función aleatoria Vc1 (w). Por eso, teniendo en cuenta la fórmula (5.3.8) para la función correlativa del ruido blanco V (w) , obtendremos Kvd ((1),

~

w') = ei(O>- o>11-0 [

Sx ( w

+ 2;" ) J6 ((1) -6>').

"IJ.1::- 00

Tomando en consideración que .el segundo miembro. de ¡lStn Jórmul a, es igual o cero, siendo w' ;/= c.>,. podemos ~usti~.ulr en eL.:.rouliip1foa,, dor, delante de la fun ción delt a, w' por w. Entonces, teniendo en cuenta l a fórmula (5.7.3), obtendremos K •c1 (w , w') = 8'.~ (w) 8 (m-w'). (5. 7 .11) Esta fórmula demues tra que la función l\leatorin V c1 (w) en el intervalo 1 w 1< rt/d representa w1 ruido bl anco cou intensidad ~ (co). La fw 1ción ~ (w) representa la densidad espectral de una secuen cia aleatoria estaciona ria. La magn i tud~ (w) dw es igual a la dispersión de loi; armónicos V.i (w)e'O)!iA dw y V 4 (- 6>) e-l0>M dw que Iormtvl parte de la descomposición espectral (5.7.9) de la ~ecueucia aleatoria estacionaria. Ejemplo 1),7 .1. Jloll nr In deusidnd es11eetriil do u11a secuencia aleatoria e~tuci onurin con 11\ función r.orrelativa km ... Dq 1'"l, O< q < 1. Jl~¡;rcse•llornos l'toví arul'ntu 11; fórmula (5 . 7 .8) en 11\ forma w

-1

s: (!Al)=!. ( ko+

~ kme- 1.,mA+ ~

k,,,e -J0>mA) .

m-1

Jlotiicndo t•n l o primera suma - m = p y olu la l!
l"1 (c.>)-~ -in

..

(ko+ L.J "'1 i>=i

..

k

~ k p . - iO>Pl>) • ,.elwpl> + L.J

,_1

(a.1.12¡

Sustituyendo •qu i la expresión d e la función 1:orrolallva, 110! C(\rcioramos de que nmbas s umos representan en estu caso 1nogrcsionos geométricas. Sumándolas, obtendr~ino:i l a siguiente expresión d() l a secuenci• uleulnria estacionuia quo so exominn: (5.7.13)

EJr mplo ~.7.2. Jl•llar l a d ensidad uspcctl'ul de In sccuo11ci11 aleotori11 esta· riouaria fotJlloda poi· los valorc8 de l a funcí(m alcalorin estacionaria X (1) co n la función cnrrdativa Dr "' 1•1 cns ro 0;, to modos 1;11da i nlervalo ó. L" lu11ei611 corr~lativn de la secuencia . en cnc~tión s.. determina por la !órmula

Cap. 5 Fundonu aleatorias ulttclonctr/as

donde q1 = · -®+ii.>oA, q, ... ,-'14- ii.iogrcslones genu1Hricn~. hallaremos la densiilad us¡>oc tral: d

tJ.D (

•x(ro) = 4n

2+

1 6

J

q,e "' -q¡• tw~

+

'lt 1•>4

e

- q,

+

+ llM

9zt

i - q,.1<•4

+ .1<06q,-

q,

)



(5.7.14

l..c dojamos al l('(' l.llr que por sí mjsmo demuestre quo en el caso de una f1111 ri611 correlativa mns gencr11l (!Ul.24) la densid"d cspoctral ~ expr~MIÍ ¡)(lr la fórmula que se difeTf!ncin de (5.7.14) solamente por el m11ltl¡>lícador adicional 1 - iy en los sumnmlo' con q1 y por el muHiplica1\or n1lícional 1 1 y on los sum~ndos con qz.

+

Las fórmulas (5. 7 .13) y (5. 7 .14) rnuestron que ]>a ra tod as las fu nciones correl ativas tipo de las func iones aleatorias estacionarias, las densidades espectrales de las secuencias aleatorias estacionarias correspondientc8 son funciones racionales de la magnitud e1 w~. Esto da razón para introducir en las fórmula.'! (5. 7.4) y (5. 7 .S) en vez de Ct> una nueva vodable z = e!"'"· Entonces, poniendo t o~ (z) = -¡;-~ (w) =

1 Tj .s; ( 1i.\ lnz )

(5.7.1 5)

y ten iendo en cuenta que dz = iz /J,.d<», reduzcamos las fórmul11s (5.7 .4), (5.7.5) y (5.7.8) a la forma

k,,, =

+J l o~(z) ~:

o~ (z) zm-1 dz.

(5. 7.1G)

e,

Dx =

d(ll)-- :tn. 1 O"

~ L..J



,

(5. 7.17)

-m ,

(5. 7. 18)

1'mZ

17\=-oo

dor¡.de la integración se efectúa por las circuníerencia C1 de radio unitario con centro en el origen de coordenadas en el plano de la várfabl'e compleja z. Esto se ve del hecho de que para todas las w reales, la variable z es en módulo igual a la unidad y su argumento varía de - n a n al variar <» de -n/ ó a n//l. Las fórmulas (5. 7. tG), (5. 7. 17) y (5. 7 .18) se ut ilizan al llevar a cabo las investigaciones teóricas de la precisión do los sistemas automáticos discretos (de impulso); ellas no son cómodas para efectuar los c~lcul os práéticos. Con él-fin de reducir las integrales de lasfó1·mulns(5.7.'1) y (5.7.fl) 11 las integrlileg de las funciones racionales fraccionarias en los límiLes infinitos de la forma (5.3.29), conviene introducir una nueva varia-

245

§ 5.7. Secuen.ctas aleatorlaJJ estar!onarlas

ble, poniendo . :-1 •'""!>-i t>.=-+ ·i = e'·wt. +1 z

CúÓ

(5.7 .~9)

t tg-,>-. ~

De aqui se ve que para los valores reales de ro, la variable J.. es real y varía monótonamente de -oo a +oo al variar w de -n/1.1 a n/1.1. Además, ].. es función racional de z y, por lo tanto, para todas las !unciones correlativas tipo y sus combio.aoiones lineales, las densidades espectrales de las secuencias alE¡atorias estacionarias correspondientes rep-reseotan .funciones racionales -fraccionarias de i;. ·ne (5.7.19) se puede expresar la variable z en función do ]..: . !J. 1+0. (5.:7·.20) t=e"" = 'l-ii.. .. Derivando (5. 7 .19). hallamos 6 d'J.. = _ _
do donde (5.7 .21)

En virtud de las fórmulas (5.7.20) y (5.7.21), introduciendo la desig·

-s~~ (A.) = _.3._ sª (2arct..,. A.) = ¿\ X Ó o

20'd ( X

i~ ) . t+ - ti.

1

(5 • 7 ·-?2)

podeWOS ropresentar las fórmulas (5. 7 .4) y (5. 7 .5) en la forma

""r~,

,

5 -"

j

'''• =

(1+1'·)"' "" 1-li. 1-j- }.2

(A)

00

D.,= _Í

..

$.., (A.) 1.~\

'

(5.i.23)

Esta iutegral se puede calcular por la fórmula (5.3.29). La fórmul a para lá función correlativa debe ser transformada, suprimiendo l as magnitudes imaginarias en el denominador. Entonces obtendremos

_ fJ

km -

7

.

(t+i/..)2m

Sx (/\,) (l + ],,2)»•+1

d]..

-oo

o bieJ1, descomponiendo el numerador por la fórmula del binomio de Newton y teniendo en cuenta quo la función p. ) os par y que Ja integral de la función impar en los liruites simétricos con respecto 111 origen de coordenadas e.s igual a cero,

s..,

(5.7.24)

CAPITULO 1¡

RHpresentaciones canónicas de las funciones aleatorias

§ 6.L Tip11s de representaciones canónicas Para aplicar la Teoría rle fuuciones aleatorias a los problemas prácticos, Lieium gran importancia las expr~ionr.<s de funciones aleatorias arbitrarias en función de objetos aleatorios más shn.plcs. Las magnitudes aleatorias escalares corrien l.cs representan los objetos aleatorios más simples. En los §§ 3.8 y '3.!l vimos que las esperanzas matemáticas, las dispersiones y los momentos ele correlacióu de las funciones linc¡¡.le.s de una cantidad cualquiera de magnitu
+ v~=º" I Vvxv (t),

(li.1.1)

donde V" V~· ... son magniturlei; nloatorim; 110 corcclucionad <\S fjuya esperanzas matemáticas son iguales a cero. Los coeficientes ;1djuntos a las magnitudes aleatoriAs Vv dependen, evidentemente, de In variable. t, es decir, son funciones (no aleatorins) de la variable t. A tocla representación de una función aleatoria en forma de una combinación lineal de magnitudes aleatorias no correlaciona!l<1s la llamaremos descomposici6n canónica de la misma. A las funciones aleatorias V" las denominaremos coeficientes aleatorios de la descomposició11 cnnóQlCa y a las funciones xv (t), /unciones coordenadas. Expresando la función aleatoria X (t) por la descomposición canónica, se puede hallar también la rlcscomposición correspondiente para su función correlativa. Para ello pongamos en (6.1.1) t = t':

X (t') = m,,, (t') +

00

}] V,z,, (t'). v=I

(ll.1 .2)

247

Par11 cuolcsquiera valores fijos de t y t', las orngniLudes X (t} y X (t') d etermiuadas [JOr las fórmulas (6.1.1) y (6.1.2) representan las funcione.~ línea.les de unas ruisruas magnitudes alentorias no correlacio011tlas V v· Por lo tanto, el rnonionto de correl11ci6u do .)as.magnitudes a leatorias X. (t) y X (t') para cualesquiera vu lores fijos de t y t' so puede calcular por la. .fórmula (:UJ.8). Como l'esultado obtendremos para la función correlativn de la función alontoria X (t) la fórmula

..

_,

K., (t , t') = ~ D.xv (t) :i;... (t').

(6.1.3)

donde Dv son las d ispersiones de las magnitudes aleat-0rias Vv. Al doducir lo fórmula (6. 1.3), admitimos que en el caso general los coeficientes de la descomposición canónica V. y las .funciones .coordenadas Xv (t) pueclon ser complejos, puesto que en los problemas pr~c­ ticos conviene frecuentecoeo t c tepresentar las Iuo1:ioncs reales por series con términos complejos. A título de ejomplo puede servir la descomposición de la función real on la serie de Fourior con términos complejos. A toda descomposición do In función correlativa de la forma (6.1.;i) la llamaremos descomposición camínica de lt1 misma. Poniendo en la fórmula (6.1.3) t' = t, obtendremos la descomposicicí11 correspo11cliente piir
X (1.):

00

D,,(t) = Kx (t, t)= ~ D .. l;t,(t)i"·

{li.1.4)

v=\

El mielo hlauco reprcsen~a el tipo más simj)le rle una fu11ción aleatoria. Por eso se puede suponer que muchas operaciones soure una fwtción aleatoria arbitraria 8e liarán más simples, si esta función aleatoria se e.xpresa en fuuciúo del ruido Ltlnm:o. En el ejem plo !)A.1 vimos que el ruido blanco se puede rcpre..."1?nlnr en for111n ele una secuencia co ntinua de impul~os nlo11torios infinitesimales no co.rrclncionaclns carl11 11no de los cuale:; tiono Ulli\ diSJ)Crsiún infinitcsim11l. Por eso ln ex:¡.n:esión de la función aleatoria en I1111ción del ruido blanco ¡¡¡¡ la extensión de la ro¡1r~nt11~.i611 tl e su desco1nposición canónica (G.1.1) parn el cnso de sum11ndos i11fíniLe;;imalcs. Corno 1·esultado, la suma en (6.1.1) será s11stituid11por11no integnil y obttiudremos hl rcpreseutaci6n de la fun1:ión aleatoria X (t) en la forina >.2

X (l)

= m.< {t) + } V (i.) x (t, ;.) dí..

(Ci. 1.5)

J., donde V (/..)es el ruido blanco de parámetro t.. que vnrfa en el i11to1·valo t.. 1 ~ t..~ /..2 . A todn representación de una función ale11Lorio en forma de intcgrnl (0.1.5) la llarnaremos representación canónica lntegral de ln mistna. A los funciones .:r (t, A.) de la vm·iable t, corres-

Cap. /) neprescn tacion(!.~ canónit:
248

pondientes a distintos valores fijos del parámutro ). cm el intervalo A-:). las denominaremos funciones coordenadas de la representación canónfoa integral. De la represent ación canónica integral (6.1.5) de la función ale<1to, rill X (t) se deduce fácilmente la representación correspcimliente rle su función correlativa. Con ello, teniendo en cuenta que los sumandos elementales V (A.) x (t, A) d (>..) en la expresión (6.1.5) pueden ser complejos, a pesar de que la propia función aleatoria X (t) es real, vamos a pasar en la fórmula (6.1.5) a lrus magnitudes conjugadas complejas, sustituyendo en esta fórmula t por t'. Entonces obten
C'"t.

,

;.

X (t') = "'" (t')

+ 1V(/•'} :t (t' , A') d';./.

(6.1.!i)

~.

'l'rnnsponiendo en fas fórmulas (6.1.5) y (6.1.6) la esperanza matemática al primer miembro y multiplicando los valores obtenidos de la función aleatoria centrada, tendremos

Xº(t)Xº(t') ~

4 1'~

JJV(i,) V(>..')x(t, Á)x(t

1

,

/,' )dJ,d>.: .

(6.1.7)

i.t)·l

Ahora , teniendo en cuen t a la definición (4.2.13) do la fnnció.n correlativa de una función aleatoria corn-pleja, cxpcl'scmos la función correlativa del ruido blanco V(A.) po·r la fórmu la

Kv (A., A.')= :lf [V(~.) V (A.')J = G (f.) o(A. -l·.').

(6.1.8)

donde G 01.) es la intensidad del ruido blanco V(/.. ). De la fórmula (G.1.7), en vil'tud do (6.1 .8) , obtenemos ).2 )..a

K" (t, t') =

JJJ(. (!., Á

1 )

X

(l, ;..) X (t'. i:) di, dJ.'

=

>.1 >.¡ }.~Ni

=)} G(A.)o(í..->..') x(t,

7-.)x(t'. /..') df..di..',

(6.1.9)

At >.¡

<:;nmpllendo aquí la integración con tospecto a '}..', obtendremos definitivamente '-• Kx(t, t') = G(i.)x(t, Á)x(t', X:)dí... (6.1.10)

J

~.

Esta fórmula ofrece la representación canónica integral de la función correlativa de la función aleatoria .'( (t).

§ 6.2. Deuomposlc16ri ca!Wnlca tk una fu"ción ak4tortti

249

Poniendo en la fórmu la {6.1.10) t = t', obtendremos la siguientefórmula para l a dispersión de la función nleatoria X{t):

D.'C(t) = K .. (t, t)=

"•JG{>-) ix{t, }.)lid,•.

(6.1.H}

"'

La fórmula (6.1.5) muestra que la represent ación canónica Integra l de la función aleatoria la expresa en forma de una combinación lineal de magniiudes aleatorias infinitesimal es, no correlacionadas V(A.) dA con los coeficientes z (t, J.) dependientes de t; coti ello, la dlspersl6n de l a magnitud aleatoria V (}.) d'J.. es igµal a ~ {'J..) d'J... Aplicando · la fórmul a (3.9. 7) para .·Ja dispersión 'de ·una• comhio'ación lineal de las magnitudes aleatorias no correlacionadas "Y sustituyendo la suma por la lntegrlll, obtendremos preciBamente la fórmula (6.1.1'1). Las descomposiciones espectrales de funciones aleatorias estacionarias, examinadas en el capítulo precedente, son tipos particulares de las representaciones canónicas integrales del t ipo {6.1.5). § 6.2. Descomposición canónica de una fWl ción aleatoria

Sean V~ (v = 1, 2, ...) magnitudes aleatorias no correlacionadas arbitrarias con esperanzas matemáticas iguales a cero y dispersioues iguales a Dv:

M!Vvl = O, Dv = M

ilf[VvYµl=O si

ll V v l2J.

(6.2.1)

Hallemos las condiciones en las que la función a leat oria X {t) puede ser re pre.sentad a por la ilescomposición canónica (6.1.1) cuyos coeficientes deben ser d ichas magnitudes aleatorias V v· P ara esto escribamos la fórmula {6.1.i.) en l a formo x~ (t) =

..

2) V vXv (t).

(<1.2.2)

v~I

Suponiendo que esta descomposición ha sido oblcni1la, tendremos M [Xº (t) V14 ) = ~ M !VvV11I Zv (t).

(6.2.3)

\=I

En virtud de (6.2.1) todos los términos do esta suma son iguales cero, a excepción de tu\ O para el cual el fndice de adición ves igual 1\ µ. Por lo tanto, las fór mulns (6.2.3) y (6.2.1) dan 11

M¡X 0 (t)V11 J=D"z11 (t).

(6.2.4)

250

Cn¡" 11 flepresenta
(IL2.!j)

Ahora bien, para que la funci ón aleatoria X (t) pueda ser representada Jlor la del'co111posición canónica (6.1.1), es necesario que todas las funciones coordenadas :r1, (t) se expresen por la fórmula (6.2.!j), es decir, sean iguales a las relaciones entre los momentos de correlación de la función aleat-0ria xo (t) con las magnitudes aleatorias Vµ y las dispersiones de las magnitudes correspondientes Vµ. La fórmula (6.2.5) muestra <1ue para hallar la descomposición canónica
<

Jl

Vv =

Jav (t) Xº (t) dt,

(6.2.(i)

(t

donde a, (t) 1>ori ciertas funciones que deben ser elegidns de modo que las magnitudes V" estén no correlacionadas. Cambiauclo en fo iórmula (6.2.6) la designación de la variable de integración y sustituyendo la expresión obtenida en la fórmula (6.2.5), tendremos xµ .(t) =

~µ M

ti

[Xº(t) Ja

11

(t') Xº (t') dt'] =

et

=

ti

J

~,,,

aj) (t')

M [Xº (t) Xº (t')] dt'

(G.2-.7)

(t

o bien

~

x"(t)=

iJ" Jaµ(t')l(,,(t, t')dt' .

(6.2.8)

a.

. •) Teniendo en cuenta que las 1uagnitud<:s aleatorias v. pueden ser comploias, para que los cálculos ulteriores sean más cómodos, determinamos las funciones a., (t)- de modo que en (6.2.6) bafo el signo integral haya funciones conjugadas complejas ªv (1).

§

G.~.

Descomposkiiín ca11611tea de um1 funci611 aleatoria

251

Estn fórmula expresa las fw1ciones coordenadas x11 (t) por medio de l as funciones a11 (t) y la fun ción correlativa de la función a)eatoria, X (t). Parn deducir las condiciones a las que c,ieben satisfacer las funcioues ª" (t) con el fin de que las magnitudes aleatorias -Yv, determinadas por la fórmula (6.2.6), sean no correl acionndas, escribamos on virtud de (6.2.!'í) ~

Al [VvV 11J=

~

Jav (t) M [Xº (t) Vµ) dt = D Ja.v (t} 11

a

Xµ (t) dt.

(6.2.9)

a

De aqul se ve que para que las magnitudes a leatorias V v sean no correlacionadas y sus dispersiones sean iguales .a los ..n,(imeroS. C()rresp:o.11t dientes Dv, las funciones ª" (t) y xv (t} deben satisfÍlcer··l:a_s condici.ones

~

Ja.,. (t)



(t) dt =

0

Si

µ 9'= 'V,

(6.2.10)

a fl

Í ª" (l) Xv (t) dt = 1.

(G.2. H )

a

Co111 únmonte eslas condicione!! se escriben brevemente en la forma ~

) a.v (t) Xµ (t) dt = t5vµ,

(6.2.12)

a

donde 6"" es una magnitud igual a la unidad cuando los indices son iguales e igual a cero cuando los índices son diferentes (~vv = 1, Óvµ = O para µ. 9'= v). Generalmente la igualdnd (6.2.12) se llnmn cortdición de biortogonalltlad de dos sistemas ele funciones Xv (t) y av (l). Así pues, para que las mugnitudes aleatori(ls V,.. cletcrminu.das por la fórmul11 (6.2.6), senn no correlacionadas y al mismo tiernpo la foncióu aleatoria X (t) pueda ser representada por la descomposición (G.1.1) es necesario que las funciones av (t) y las funciones x.., (t) determinadas por la fórmula (G.2.8) satisfagan la condición de biortogonalidad (6.2. i2). Es evidente que las condiciones (6.2.8) y (6.2.J2) s on tamhitin suficientes para que lns magnitud~ nleatorins V v• determi nadas por la l'óm1ula (6.2.6), sean no correlacionadas, pero, desdo luego, esto no demues tra todavia, que, ¡¡l cumplir las condicione!! (6.2.8) y (6.2.12), la función aleatoria X (t) puede ser rt!prosentacl n por l a descomposición co.nónica (6.1.1 ). Mostremos ahora que se puede hallar un sistema de pares de funciones a..,. (t), x,, (t) que satisfagan las condiciones (6.2.8) y (6.2. i2). Para est o tomemos una secuencia arbitrari a de funciones independien-

tes linealmente f 1 (t), f2 (t), .. ., magnitudes aleatorias

In

(t), .. . *) y determinemos las

Jl

U,=

J/,(t)X(t)dt

(r=1, 2, ... ).

(6.2.1.3}

"

Las magnitudes aleatorias centradas correspondientes se expresarán por una fórmula aaáli:>ga

U~=

6

J/,(t) Xº (t)dt

(r= 1, 2, ... ).

(6.2.14)

"

Hallemos las dispersiones y los momentos de correlación k.. d& las maguitudes aleatorias U1, U2 ... En vírtud de la defiaicíó°' (3. 7.6) y la fórmula (6.2.14) tenemos

k,.=.~f[U~U:J=

ll ll

JJfr(t)/$(t')M[Xº(t)Xº(t')Jdtdt'

(íi.2.15)

"' o:

o bien ll ll

J Jf,(t)f,(t')l("(t, t')dtdt'

k,. =

(r. s = 1, 2, .. . )

(fi.2.16}

" "'

Introduciendo , para mayor comodidad, las funciones ll

z,(t)=

J/,(t')K,,(t, t')dt'

(s= 1, 2, . . . ).

(l>.2.17)

"'

y toma ndo en considnación que debido a la simetría de la función correlativa

n

J/, (t) K,.

~

(t, t') dt =

"

jf

r

(t) Kx (t', t) dt = Zr (t').

(6.2.18)

"

podemos escrib ir la fórmula (6.2. i6) en la forma

r

ll

"

"

ll

k,.=

f,(t) z,(t)dt=

j

Zr

(t)j,(t)dt

(r, S= 1, 2, ... )

(6.2.HJ)

A:bora podemM construir el sistema de funciones aleatorias no correlacionad'as Vv , ·procediendo del modo siguiente. La primera función aleatoria V 1 puede sor elegida arbitrariamente, por ojemplo, se *) Las funclonQs J. (t), / 2 (t), . ... In. (t), .. . se denomin:in inJ.epenJieutes lioealmente, ~i para ningún valor do n. y ninguno de los valores e¡, c 2 , •• ., en distintos de cero. la combinac!ón lineal de estas funciones c.1 1 (t) czf2 (1) + (t) es idéoticamónte igual a. cero.

+ . .. + c,;fn

+

§ 6.f!. D-ompoolcl6n c;:inónlco de

UM

253

Juncl6n ouowrto

u:.

puede lomar V1 = La segwida magnitud V2 debo ser elegida de modo que sea oo correlacionada con V 1 • Para esto es s uficiente tomar V• = c31 V, U: de terminando el coeficiente c21 de la cond ición
+

v._,.

}

~-~ +u:.

V:=ci1V1

(6.2.20)

Vv=c. 1V1+c.aV: + . . . +e,..

,._,V._,+ lit,

y determinemo$ el coeficiente c 21 do la condición de no correlativi
u~ = ''" lf! = - C21V 1 + Vz,

Vt- = -

~- ~ .-,.~1~"~' :+" ,;":

e",V' - c.iV: ... : .. ; ,.

1

(6.2.21)

r J

Ahora, s uponiendo que todos los coeficientes c. 14 est6n determinados de modo que las magnitude3 V" V% sean no correlacionadas, expresemos las diSJ>ersiones y los momentos de correlnción de las magnit udes aleatorias lJi, coo ayuda de l as fórmulns (3.\l.7) y (:$.9.8). <:-0mo resultodo obtond remo:i

u:, ...

v-1

k 11 = Di. l~v• •"' ~ jc,..,¡'Dµ+D,.(v =- 2, 3, . . ;)

-c.

(6.2.22)

i-1

k, 1 =

1D 1

(v=2, 3, .. . ),

k.,.=c_,,c.,,D, + . ·. + cv. 11- 1C11 . µ-1D14-1 -Cvv.D11

(6.2.23) (ti.2.24)

(µ = 2, ... , v-1; \'=3, 4, ... ). Como lns dispersiones y los rnomenl-0s de correlocióu J;V'J' uc las m a¡;nitude~ aleatorias O, sou conocidOI!, eotonce:i las fórmulas {6.2.22), (6.2.23) y (Cl.2.24) pueden ser consideradas como ecuacione:1 ~1 ue oleterminan los coeficiEnHc.s incógnitos y las d ispersiones D. -de la.:s 1uag11itudcs aleatorios V v· Hesolviende> sucesivamente est11i1 .ccuacioues, obtendremos IM siguientes fórmula_q do recurrencia para

c.,.

Cap. ¡¡ ll•J>rtsmloclonLi canónicas de / u nclonei ak alorias

2M

l11s magnitudes D,., e,,.:

k"' D1= k11 . C"=-v.

(v = 2, 3, ... ),

1

(v = 2, 3, . . . ),

1 ~ (G.2.2!3)

v- 1

D. = k,,,.-Y jc,.~¡zn" µ- 1

µ-.

e_,, =

F (~ c,. .c,, .D,. -k, 1

µ

1,)

1

).- 1

µ = 2. .. . , '11 - 1,\ { V= 3, <Í, • . . }

J

Por est as fórmulns se puede determioar succsi v:unente las rnagniLudcs Du c.1 , D2. c,,2, D3, c. 8 ... Como resultado scrlin bailados todos los coeficientes c,, 1, en las fórmulas (6.2.20) y las disper:;iones de las magnitudes aloatorins no correlacionadas Empicando el procedimiento expuesto, se p\1ede construir el sistema de magnitudos aleaUlrias no correlacionados pa rtiendo de cualquier sistema de magn itucles aleatorias independiente linealmente. Ya bicimos uso de este proc<'dimicnto e11 el § 3.11 , dontlc en Yez de e,, .. eran los coeficientes 'l'v 11 = -c,I" Sustituyendo en (6.2.20) la expresión (G.2.14) de l a~ magnitud es alen torias centradas U:, expresemos las magnitudes aleatorfos V .. por la fórmula (6.2.6) donde los fu nciones ª• (t) se d.itormi nnn por l as fórmulas

v•.

ai(t) = /i(t), a,. (t) =

\1- I

Z c,µa

µ• I

11

(t}+ /v (t)

(v

=2 , ~1 ,

... ).

(6.2.2(i)

Susti tuyendo estas expresiones en la fórmula (G.2.8) para µ .., 1, 2, ... y teniendo en cuenta (6.2:17), obtendremos X¡

(t) -

•t (t) D¡

'

J.

x,.(t)= 1

=

v-1

[~

c"11 D,..i:io(t) + z. (t)J

(6.2.27)

µ;=!

(v = 2, 3, . . . ).

Asi pues, el método expuesto ofrece la posibilidad de hallar tal sistema de .funciones ª• (t), que las magniturles nleatorias correspondientes V•• de.terminadas por la fórmula (6.2.6), seon no correlacionadas, y el sistema correspondiente de foociones coordenadas .i:v (t), determinadas por la fórmula ((1.2.8). Estl!S funcione:s ª• (t) y z., (t) sa tisfacen la condición de biortogonaliclad (6.2.12), puesto que esta éoodición; como hemos visto, es consecuencia \ie la no correlativiy de la fórmula (6.2·.5) que en doil de las rnagaitüdes aleatorias este caso tiene la forma (6.2.8). Le dejamos al lector que pot sí mismo lleve a cabo la comprobación dirocta del hecho do que las funciones ª• (t) y x, (t), determinadas por las fórmulas (6.2.25), (6.2.26) y (6.2.27), sat.isfacen lo condición de biortogonnlidad (G.2.12).

v.

§ 6.2. De.$COmpostcl6n can6nica d~ u)w. función aleatoria

255

Eligiendo diversas funciones iniciales f, (t) de las cuales se exige solamente la independencia lineal, obtendremos diferentes sist em·as do paros de funciones a.., (t), xv (t) que satisfacen las condiciones (6.2.8) y (ü.2.12). Ahora bien, debido a la a.r bitraríedad de las funciones iniciales f, (t) se puede por una inlinidad de procedimientos determinar las funciones a.,,, (t), xv (t) que satisfacen las condiciones (ü.2.8) y (6.2.12). Puesto que las realizaciones de la mayoría de las funciones aleatorias que se encuentran en la práctica tienen carácter 2 , • • • , P.S necesario sola mente preocuparse de que las !wiciones (6.2.28) sean linealmente lndcpcndicotes en el correspondiente intervalo de v11riaci60 de la varial.ilc~ ·t. Por l o demás, la elección de las frecuencias co,, no se limit.a en nada. Para resolver alguoos prohlcinas do la Teoría de mando automático es conveniente aiiadir u las funciones (6.2.28) aúo las Iuncionos delta con las particularidades cu los extremos del intervalo de i ntegración 6 (t - a), 6 (t - ~) y sus derivadas h asta un orden determinado. Ejemplo 6.Z. f . HnUar l a d
en

O< <

~l

K,,(t, l ' )=De-«lt-l'I,

intervalo t 1' . Una vez det.erminndns lns funcion<Js /, (t) por las fórmulas (G.2.28), h11ll11mos por la fórmula (6.2.17) las funci one.s z. ( t). Teni(1nclo on cuenta qut' ~n esto c~so a = O, fl = 1', obtcnoremo~ T

T

t

z 1 (t)=D \ c- 0:11-n

~

dt ' =D { ) , -«(l-t') dt' ll

+ ~ e-ct(t· - i¡ dt'} = t

-D ( 1-e- o:t , 1-e-«(T- r) } _ D -

)_


T

CL

¡·>

-e¿- --e

-<.:i

_ 1.· 1-1)¡ -

y unúlognmente T

z 211 (t) ~v

} ~-a1 1 - 1 '1 sen w,,t' dt' = o

-

DCL

a'Z-f-w~

[2 s~ uro,,1+ ":'..,...'' e-at _ .-cx
d

:2.'iíl

Cap. 6 R epresent.acione1 cu116ntcas de /unciones aleatorias

Zzn+I (t)

=D

T

J

e - o:l< -l'J cos ront' dt'

u

J

-e+«
(1~=1,

2, .. . ).

füisLiluyendo las l!Xprusiones obtoaiclas y las (6.2 .
'En

~to

e.aso cM

IJl,. 7'

t, sen w,. 7' = O

=

y Ja fórmula (6.2 .1 9) da

T

Jf z¡ (t) d l =

k11 =

721) (e - a.T -i+aT),

u T

k1,2n=k2n,1=

J•2n(l}dl=O, o

r k1.2n +1 ~ l
r Zzn..i (t)dt=

2D(1-.-o:r)

J

az + ro•

O

n

r

k2n+1. m+I

= J•~n+t (1) COS <~ni dt o

1'

k>n+I, 2m+t

=

J

Zzn+I (t) COS IDml dt=

2Da~ (1-- e- o:T¡ (ai

+(l);J (a2 + ~>~)

T

k 2n, 2n =

i\

Da [ •2n. (t} sen Cll,. t dt -- -~~~ '1'

~ +~

T

k: n, :m =

~

o

• 2 n (t) sen Olml di

+

2<J)Stn



a.~+ ~

] (t - e - o:r ¡_ ,

2D(l)nWm (t-- e - a.T¡ (a.• + w~) (ai+ro-;,.)

(n , m= t, 2, ... ).

Una vez determinados los momentos de corrclación k 7 . , calculamos, por las fórmulas (6.2.25), sucesivamente las magnitudes D, , '"'' Dz, "vi• D., e"., . .. Gon ello, nos convencemos de que en oste caso todo• los <;oeficie11tP.s e"'" r.on los ind ices de distinta paridad, S<>n iguales a c~ro. Por [in, con 3y\ldl\ de las ·f órmulas (6.2.26) y (6.2.27) hallamf)S la• funciones "" (t) y las funciones c
§ 6.3. F6rmula ¡¡ara el término residual

denadas :r" (t):

at(t)=i,

257

a2 (t) =senw 1 t, a 3 (t}=c31 +cosw 1t,

n-1 ª:n (t)= ~ c2n. :mªim (t)+scnwnt, m=\

n ll:n+I

(t)= ~

C2 n+ I, :m-t42m-1

(t)+cos(J)nt

(n=2, 3, . . . ),

m=l





X3

"2 (t)

(t)

(t)= ---v¡-

Za (t)=--z¡;-

1

(i) n-\

r~n (t) =

1

.o!n [ ~

Czn, :tmZ2m (t}

+ •!n (t)J,

m- 1

z2n+1(t)=

02~+!

n

[

~

C2n + t,zm- 1.t:2m-1(t)+z2n+1(t)J

(n=2, 3, . . . ).

m= I

§ 6 .3. Fórmula para e l té.r mino residual de la descomposición canónica

La precisión eou que la función aleatoria viene re11resentada por el segmento final de la descomposición canónica se puede estimar por la magnitud relativa de la esperanza matemática dol cuadrado del módulo del t~rmino residual o bien, lo que es lo mismo, de la disper!!ión de esle término. Poniendo

Rn (t) =Xº (t) -

" VvX v (t), ::i]

v- t

(6.3.1)

podemos escribir M 11R,. (t) 121= M [R,. (t) Rn (t)l = M [ 1Xº (t) 1~1-

,,

- )j {M!Xº(t) Vvl x.,(t)+M {Xº(t) Vv! ~· (t)} + v- 1

+

n

L; .tl1[V"V,,.J Xv(t)x.., (t) '\',µ= I

(6.3.2)

o bien, teniendo en cuenta (6.2.1) y (6.2.5), n

M

11 R.,. (t) l~l =

Dx (t) - ~ {Dvx,. (t) x,, (t) + D-.,xv (t) Xv (t)} + v=I

n

n

+ V=tl L1 D,,x_. (t) x..,(t) = D x(t)- v= ~ n.., jxv(l)I'· I

(
Ahora bien, l a dispersión del t érmino residual de l a descomposición r;nnónic
2iifl

Cap . 6 Rtprtsenlariones cu111inica• ele /un.done.< al.:aforia•

mula n

M

11 R,. (t) 12 1~ /)_. (t) - 2j

1

D v Xv

v= l

(t) ¡z.

(ti.3 .4)

Como u1111 característica práctica cómoda de la precisión con que Ju fllndó11 ale~torfa viene re1ireseut<,da aproxim¡1dnmcnte por el scgmont.o final de su descomposición cn11ónic11 sirve el error relativo en la dispersión do la función aleatoria 811

__ M 11 l? n ( t) 12] (t) l>x (1·) .

(6.3.5)

Si la dispersión del término residual t iende a cero cuando n--... oo pal'a todas las t eu el intervalo a~ 1 ~ ~: lírn ilfl 1R n (t)l1 J= 0

(a .t; t ~ ~),

(().:U-i)

1l-oo

entonce.<¡ se el.ice que la descomposición (o.1.1) converge en la meclia rnadrática. en el intervalo a ~ t ~ ~. Se puede demostrar que para cualquier función aleatoria con dispersión Iinita existo una iníinidarl de descomposiciones canónicas que convergen en la media cuadrática a esta función alcatorii~ en el intervalo finito asiguado de antemano. Aqui nos limitaromo.s a fo demos tracióu de esta afirmación par11 un lip<> particular ele descomposiciones canónicas cuando on calidad de coeficiel1 tes aleatorios de ln descomposición V v se elige1t las combinaciones lineales de los valores de la función aleatori ¡¡, centrada X 0 (t) en Ja serie discreta de puntos de intervalo a.~ t ~ ~ •). Eligiundo como rnagniLudes ¡¡Jeatorías V v las combillllciones lineales de Jos va lores de la función aleatoria centrada XQ(t) en una sel'ie discreta ele p1111tos t 1, t 2 , • ••• tn, dispuestos en el intervalo a~ t ~ ~. podemos tomar la primera combinaci{m indicada de un modo absolutamente arbitrario; la segunda combinación debe someterse a una únicu condición de no correlatividad con la primera, ele.; la
§ 6.8. Fórmula para el Urmi110 residual

259

les de las funciones delta correspond ientes

" a,.,116 ( l - th)· av (t} = ~

(6.3.7)

11=1

Para esto es suficiente tomar en calidad de funciones/, (t) las .combinaciones lineales arbitrarias de l as mismas funciones delta: · n

f,(t)=

2J /,1tB(t-t,.), h= I

(6.3.8)

donde /,11 son coeficientes ar bitrarios. ·E s evic;lel) te que p¡1ra cúi;1l:quier n fini ta existen sol amente n combioaciones linea~mente il).depi¡l)~ dientes de funciones delta del t ipo (6.3.8). En particular, en la fórmüla (6.3.8) se puede poner f ,,= 1, f rh = O cuando h =/= r (r = .1 , 2, •. .·,n). Sustituyendo l a. expresión (6.3.8) en las fórmulns (6.2.17}"y (6.2.19), determinemos las funciones z, (t), así como las disp·e rsiones y los momentos de correlación de las magnitudes aleatorias U , (r = = 1. 2, . . . , n). L uego, determinando por las fórmulas (6.2.25) los coeflcieotes C-vp. y las dispersiones D,, de las magnitudes ale<1torins V" (v = 1, 2, .. . , n), hallaremos con ayuda de las fórm ulas (6.2.26) los cot>ficiontes avh en lil fórrnula (6.3.7). A continuación, susliluyendo la expr esión (6.3.7) en (6.2.6) y (6.2.8) y cuin}llieudo la integraci ón 1teniendo en cuenta la fórmula (2.2.6)1, reduzcamos las fórmulas (1$.2.íl) y (6.2.8) correspondientement.e a la forma

" a,.hXº(lh) Vv '= ~ ¡, .... -t_

(v=1 , ... , n },

((i.3.9)

n

x" (l)= LJ,,

~ av1.Fíx(l , l11) (v=1, 2, . . ., n}.

(fi.3.10)

1•= 1

L11 condición de biortogon
,, 2'. ª"hXµ (th) = <5"1'

'•= 1

(v, µ = 1, . .. , n) .

(ti.3.11)

Por fiu, la descomposición canón ica (6.1 . ·t ) de la función aleatoria X (t) toma l a forma n

X (t) = m x (t)

+ V=1 L: Vvxv (t) .

((l .~ . 12)

Demostremos que esta igualdad el\ exacto en todos los puntos t 1, t 2 , • •• , t,.. Pnrn osto, e n virtud ele (G.3.íl), escriba in os n

11

n

~ l'"r,. (t1,) = ~~ 2.~ a,.hXº (th} :e,. (t1<) =

" ....... 1

v ,.. \ h - 1

=

n

"

h-=' 1

v=1

¿~ Xº (t1,) ~
(le = 1 , 2 .... , n).

( G.3.13) 17"

280

Cap. 6 Rtprtuntaclonts canónica8 de JuncloMs al
Poniendo, para abreviar, n

bM = ~ ~:¡:,. (th)

,,_,

(k, k = 1, 2, .. . , ll)

(Ci.3.14)

podemos escribir la igualdad (G.3.13) en la fo1·ma n

n

v=t

h.:t

~ Vvxv(t11) = ~j bh11Xº(t,. )

(k - 1, ... , n).

(6.3.l 5)

Tomemos ahora las igualclades (6.3.11) correspondientes al valor fijo del índice v:

+ x (t2 ) + ... + a,.,.x, (1,.) = O, t,) + avzXv- J (t~) + · · · + ª·vnXv~t (L-,,) = av1Xv (t1) + av2Xv (t:) -f- · · · -f(t,,) = 1

ª"'x1 (t1)

)

av 2 1

av 1Xv- 1 (

O,

llvnXv

1 / (6.3.16)

.ª~·~~1.(t~) -~ ~v~X~~I ~~) :-. •.. ... ~~v~X~+.I ~t~~=: ~ J llv1 %,,

(t,}

+ ª•: x,,

(t~)

+ ... + a.,, x,, (t,.) - o

M\Jltiplicando la primera de estas c.cuaciones por ª•h• \a segunda por a:h y, en gcnernl, la 1i-ésíma ecunción por aµh y sumándolas, obtendremos en virtud de (6.3.14) av1b1•1

+

av2

b112

+ ... a.11 b1m =

avh·

((1.3.17)

Asignando aquí al índice v los valores v = 1, 2, ... , n, obtendremos un sistema de ecuaciorrns algebraicits l inealc!\ que determina las mag nituclcs iucógnita.'i bhk correspondientes al valor dado del íntlice 11. ~s evidente qu e el sistema de ecuaciones (6.3.17) correspondientes o v = t, 2, ... , n, tiene la solución (6.3.18)

Est11 solución es único, puesto que debido a la independencia lineal de l as fu nciones ªv•el determinante del sistema de ecuaciones (6.3.17), compuesto de los coeficientesª"~ (v, k = 1, 2, ... , n), no es igual a cero. Asignando ai indice h en (6.3.18) todos los valores posibles h = i , 2, ... , n, hallaremos todos los coeficientes bhlt· Ahora bien, l as magni tudes bhA• determinadas por la fórmula (6.::1.14), con los mismos índices h y k son iguales a la unidad y las demás son iguales a cero. Por consiguiente, la fórmula (6.3.15) toma la forma

" V ..x. . (ti.) -Xº (th) ~

(k = 1, 2, ... , n).

(6.3 .19)

v~1

Así pues, nuestra afirmación que la fórmul a (6.3.12) repre:!Cnt11

§ 6.3. F6rmula po.ra el térml110 resid11.a l

261

exactamente la función aleatoria X (t) en los puntos t 1 , t 2 , • • • , t,, queda demostrada. La fórmu la (6.3.19} muestra que en todos Jos pun~os ~ 11 , •• , t,. la función aleatoria X (t,,) se expresa exactamente por la descomposición canónica que contiene n términos. Por lo tanto, la dispersión del término residual R,, (t) en este caso es igual a cero. cuando t = t 11 t 2 , • • • , tn. En el caso de una función correlativa continua las funciones coordenadas x., (t),. determinadas por la fórmula (u.3 .10), también son continuas, debido a lo cual tambi"én la dispe;. sión del término resi.dual R,. (t) es función continua de ·t . Por · eso~. eligiendo n lo sufi"cientemen te grande, podemos disponer l os -puntos t 1 , t 2 , . • • , tn de un. modo suficiente:o1ente denso en el inter:v·a:to a :s:;; t.«;;:~ para que l a dispersión del térmirio residual sea tan pequeña como se quiera en tod.os los puntos del intervalo a :s:;; t :s:;; ·~. Ahora b ien, al aumentar ilimitadamente el número de puntos en el iuwrvalo a :s:;; t ~ ~ de modo que la distancia máxima entre los puntos vecinos tienda a cero cuando n-+ oo, obtendremos la descomposición canónica de la función aleatoria, la dispersión de cuyo tér· mino residual tiende a cero cuando n ~ oo, j>ara todos los yalores de t en el intervalo a :s:;; t ~ ~- Como consecuencia de 111 nrbitra riedad de los coeficient.es /,11 en la fórmula (ü.3.8}, podemos obtener una infinidad de tales descomposir.iones c:mónicas r.onvergentes. Así pues, hemos demostrado quo toda función aleatoria que tiene una función correlativa continua puede ser ropresent ado en cualquier intervalo finito, valiéndono~ de una infinidad de procedimientos, por una descomposición canónica que converge n ella en la media cu¡1drática. Está cl aro que para la práctica tiene im porLancia no la co11vergencia de la descomposición canónica, sino la posibHidad do obtener un error medfo cuadrático de re presentación de la función aleatoria, por un número pequeño de pri meros términ os de l a descomposición c.anóoica, lo suficientemente pequeño. En lo que a esto atañe, conviene observar que las perturt>aciones aleatorias de entrada de los sistemas outomáticos, como regl a, no pueden ser represcnlad;ii- con precisión admisible por un número pequeño de términos de la dcscompo11ición canónica. Sin embargo, en est.e caso el sistemo que se examina deja pasar de ordinario sólo un pequeño número de primeras funciones coordenadas y, debido a su capacidad de inercia, no rloja ¡1asar la mayor parte de dichas funciones. Por eso, para .investig11r la 1>rec.isión de los sistemas automáticos, es suficiente de ordinario tomar en las descomposiciones canónicas de perturbaciones de crutrado un número relativamente pequeño de tórminos (de 20 a 30}, 11 pesar de que con ello se obtiene una precisión muy liaja de representación de las propias perturbaciones al eatorias indicadas.

262

Cap. 6 ft•prcuntaclones canónicas lk fun cl(,nts al•atorias

§ 6.4. Construceión de la dcscorn¡)()Si ci6n canónica de unu función alenloria por Ja descomposición ca11ónica dr. su función con claliva En los problemas pl'ácticos se logra a veces Jrnllar con re la ti v11 facilidad la descomposición cauónica (6. 1.3) de la función correlativa. Demostremos que n est a descomposición le correspondesiempre la descomposición canónica de la propia función aleat-oria con las mismas funciones coordenadas. Supongamos que se logró representar la función correlativa do la función aleatorio X (t) por la descompe>5ición canónica

..

K.,. (t , t') = ~ D,.xv (t) x,. (t').

(ll.4.1)

v= l

S upongnmos que esta descomposición representa la funcíón correlativa en el cuadrado a~ t, t' ~ ~· Demostremos que a la descomposición (6A.1) le corresponde la descomposición canónica de la función aleatoria X {t) en el intervalo (a, fl) con las mismas funciones coordena
X(t) = m,, (t) +

¿; V,,x,(t).

(U.4.2)

,·~ t

Para Jo doenost.ración basta h11 llar un sistema de fuucione::s av (t) que satisfaga n, junto co n l as funcionos Xv (t), las condiciones (6.2.8) y (6.2.12) en el intcrvulo (u, ~). Eotonccs las magnitudes alealori11s V v• determinadas por la fórmula (6.2.(i), ~erán no correlacionadas y sus dispersiones serán iguales a los números correspondiente.~ de Dv. Con ello. la dispersión 1lcl término residual de la descomposición (6.4.2) tenderá a cero (lar11 todos los valores de ten el intervalo (a, p), e n virLu
() =

J


(6.4.3)

a

Esta ex_preS!On se denomina comúnmente producto escalar de las [unciones

(t), por analogía con la expresión corriente del producto escal!lr de vectores en el sist-ema de coordenadas cartesianas rectangulares. Las funciones q> (t) y \j> (t) se llaman ortogonales si su producto escalar es igual a cero:

(1p, '1jl) =o. Primeramente hallem9s el sisteo;ia de funciones auxiliares g 1 (t), g1 (t), .. ., g,. (t) quo poseen la propiedad de ser·cada una de ellas ortogonal a todas las ru nciones xv (O con números menores y no ser

.9 6.4. Cot1strucción de la descomposlctt>n canónica ortogonal a la función zv (t) cou el mismo número: (g.., , x,.) = O ÜL < v}, (g..,, x") =FO (v = 1, 2, .. .).

263

(6.4.4)

Para esto tomemos una función arbitraria / 1 (t) que satisfaga la condición (6.4.5) U1 . Xt) *O, y pongamos (6.4.&) K1 (t) = f 1 (t). Luego tomemos una función arbitraria / 2 (t) independiente liuealmente de f 1 (t) y pongamos gz (t) = b21 g 1 (t) (6.. 4,. 7) 2 (t).

+/

En v irtud de (6.4.5) y (6.4.6), el coeficiente b21 se puede elegir de modo que la función g 2 (t) sea ortogonal con respecto a x 1 (t). Multi• plicando la igualdad (6.4.7) por x 1 (t) e integrando en los límites de a a ~. obtendremos (g2, X1) = b21 (g,, Xi) (/z, Xt)· (6.4.8)

+

'Igualando esta expresión a cero, hall amos b 2,: /1 21

~

-

(h , :ti) (g,,

(


% 1)

Luego hallamos la magnitud (g3 , x 2). Si esta magnitud resulta ser igual a cero, es necesario cambiar 111 elección de la función / 2(t) para satisfacer la condición (g2 , x 2 ) =fo O. P rosiguiendo de tal modo, supoog&mos que han sido halladas los funciones g 1 (t), g 2 (t), ... , Kn-t (t) que satisfacen las condiciones (6.4.4). Tomemos uua función arbitl'aria In (t) linealment e i ndependiente de / 1 (t), fz (t), .. ., f n- I (t) y supongamos que gn(t) = b,.¡g1 (t) + ... + b,.. n- lgn - 1 (t) f n (t). (6.4.10)

+

Multiplicando esta igualdad por x 1 (t), integrando en Jos límites de a a ~ y teniendo en cuenta qun las funciones Jfa (t), ... gn-i (t) son ortogonales con rospccto a x 1 (t), obtendremos (g,., X¡) = bnl (g¡, .'t't) (fn, X¡) . (6.4.11)

+

Igualando a ce1·0 esta expresióu, hallarnos bn 1 ; bn1

= -

(Ín• .1:t)

(lit•

X¡) •

(6 ,,., ' 1'>) ¿;,

Miltipliquemos ahora la i.gualdad (6.4.10) por xµ (t) (µ < n) e integremos en los límites de a a p. Entonces, tomando en consideración que l as funciones Cµ+• (t), .. ., g,._1 (t) son ortogonales con rcs1lecto a xµ (t), obtendremos (gn• Xµ)= bn (gt, Xµ)+ • •. b,.µ (g,., X 11 ) +Un • .: i:¡1 ) . (H.4.13)

+

lW/o

C11p.

(j

Reprrten laclones co11ó11icas de funrimrrs nlt 11toria.v

Igualando a cero esto expresión obtenemos l o fórmula recurrente purn los coeficientes b,, ,,: b _ (/,,,;r")+bn1(K,.rµ)+ ... + b,, , .,_ i(g,,_, ,xµ) (6.4 .14) " 1' - (Cu. x ,) 1

üt = 2,

3, .. . • l! -- 1).

Una vez delerruinad08 por las fórmu las (6.4.14) los coefícieuLos b,, 1 , b,, . ,, _, , hallamos Ja magnitud (g,., x,,). Si ésla resulta igual o cero, debemoll nlcanzar que no sea así, variando la elección de la función/,. (t). Asi pues, tll procedimiento expuest o permite hallar el sistema de funciones g, (t) que satisfocon las co:nd icioocs (!3.4.li). Determinemos ahorn l as fnncionos a,, (t) .Por la fórm ula

..

a., ( t) -= ~ c;,,,,g1• (t)

(v -= 1 , 2, ... ) .

).-.v

(C.4.15}

Co rno lns funciones Kv (t), Cv+ • (t) ... son ortogo1111 les con re~pecto n t otla:-; las funci ones x 1 (t), . . ., :tv - i (t), entonces la función ª" (l} es ortogonal con respecto a x 1 (L), x 2 (t), .. ., x,, _1 (t). Por consiguiente, cligieudo los coeficientes Cv>.· quech1 alc11nz11r que cada función av (t} sea ortogonnl también con respec to a todas las funci<>nel'! x,.+ 1 (t), x,+ 2 (t), . . . , y la intugral de su producto por x,, (t) sea igual n la unidad. Mul tiplicruido (HA.-15) por .cv (t), in tegrando en los límites de a a ~ y t eniendo eu cuenta qui! todas l as funcione:; F:.r+i • g,,+z {t) ... son ortogonales c;on respecto a .:t,, (t), obtendremos (6.4.16) lgu nlando esto magnitud a la unidad, hallamos el coefjciente e,,..,: Cvv =

1 (ll'v• :r.,,) •

(~i .4 . 17)

Multipliquemos ahora la igualdad (6.4.15) por x 11 (t) (µ > v) e integremos en los lím it~ de a a fi. En tonces, tomand o en consideración que todas las funciones g .,.+ 1 (t), g .,.+ 2 (t), .. . son ortogonales con respecto a x 14 (t), obtendremos (a,,, :r14 ) = Cvv (gv,

Xµ)

+ ... +

Cy,

1<-I

(g 14

_,x..) + + Cvµ (g1,, X14) .

(6.4.18)

Igualando a cero esta expres ión, obtenemos la siguiente !ó1·.mul a recurrente par a los coeficientes cv, 11; '"" (/lv1 Z¡¡.)+ ••• +e,., i<- 1 (C1<-h .e., ) Cvµ = - - - -- - ,(-1{µ-.-;r-µ.,..)- - -- - -

(µ= v + 1, v +2, ... ,

V =

1, 2, .. . ).

(6 .4 .19)

§ 6.4.

Co11~1r1ucl{m

dt la dtttomposlclón

ca11~11tca

P rosigu.iendo por esta vía, se pueden determinar sucesivament41 todos los coeficientes cv 11 de modo que las funciones a_,(t), determinadas por la fórmula (6.4.15), satisfagan la condfoión de biortogonalidad (6.2.12). Demostremos que estas funciones satisfacen también todas las cond iciones (6.2.8). Para esto sustituyamos en (6.2.8) la expresión (6.4.1) de la función correlativa. Entonces obtendremos~)

=+ ~ 00



(t)

D,, (aµ , Xv)

Xv

(t).

(6A.20)

1 ' v- 1

Esta igualdad se convierte en identidad puesto que las fun'cioncs Zv (t) satisfacen l a condición de biortogonalidad (6.2.1,2). Asf pues, el sistema hallado de funciones av (t), junt o con las· fun• ciones coordenadas x" (t), satisfAcu todos las condiciones nece~arias. Por lo tanto, las magnitudes aleatorias V., determinadas por la fórmula (6.2.6), no son correlacionadas en virtud de la igualdad {ü.2.9) y sus dispersiones son iguales a los números corrt'spondientcs de D~ . De aquí se deduce también que todos los números de Dv son positivos. Por eso la función correlativa puede sor representada por la descomposición canónica (6.4.1) solamente con los coeficientes positivos de D ... 'Por fin, en virtud de las fórmulas (6.3.4) y (6.4.1), la dispersión del término residual de In descomposición canónico (6.4.2) de la fw1ció11 aleatoria X (t) tiende a cero pura todos los ''a lores de t en el intervalo a·~ t ~ ~· Asi pues, hemos clemostrado por vompleto In afirmución enunciada. El proceso expuesto de detarminttción de las iu11ciones a, (t) que satisfacen, junto con las funciones dadas x,. (t), las condiciones de biortogon11lid11d (6.2.12) se puede continuar teóricamente sin límites. Prácticamente, si empre conviene limit11rlo a cierto número finito de funciones. Después de determinar por el procedimiento expuesto las funciones g, (t), g2 (t), ... , g,. (t) que satisfacen las condiciones (6.4.4}, hallnmos las funciones ª• {t) en forma

ª" (t),

"

n,. (t) = }l c".,.g~ (t) (v = 1. 2, ... , n).

(G.4 .21)

A:=-v

Una vez determioados los coeficientes

c.,. por las fórmulas

(6.4. 17)

y (6.4.19) para v ~..., 1, .. . , n, h~llaremos las Iuncione8 a1 (t), .. . . . . , a,. (t) que satisfacen, joli to con las funciones x 1 {t) , x 2 (t), . . .

. . . , x,. (t), la condición de biortogonalidad (6.2.12). Si In función correlativa de la función aleatoria X (t) se expresa con suficiente precisión por los primeros n términos de la descomposición (6.4.1), en t ooce:i las Iuncíonll.'l a, (i), ... , an (t) halladas de

•>La i ntL'gl'ación término a término de In 11erle (ll.la.t} es posible si estH serle converge uniformemente c-00 respecto a cada una do las variable11 en el int-0rvaln (a, 6). Generalmente esta condición so cumple, si la función eorl'(tlati va K,. (t, •')u limitada y contiuua.

Cap. 6 J(epresentacion.es canbnicas de f unct,,r>.es aleatorias

W ll

este modo , satisfarán aprox imadamente también, junto con las funcione. x, (t), x2 (t) , . . . , Xn (t), las condiciones (íi.2.8). A co nsecuencia tll• osto la fórmula (6.4.2) ofrccll la de~compos ici6n canónica a prosim nda de la Junción aleatoria X (t), que contiene n términos. Con ello, la dispersión del término residual será aproximadamente igual , en virtud de (6.3.4), al término residual del segmento correspondiente de la desc.ompos ición (OA . ·l ) cuando t = t'. F,jrmrlo 6.4. 1. l:iupongamos que la fu nción correlutiva ne lq lundó n al,•alol'in 1:~t.~cio11nria X (t) ~e 1~xprc.
..

2J

k,,(tJ =

/)y C0$(l)y't .

\1=71

Al

1·~¡¡r~~~ntar Cl~lR

fórmula

e11 la

foruia

n

k". (t - t' )= ~ (D,, S~ll <11"1 S(IO ro,.¡' + Dv CoS ol~t C!)S Colvl' ), 'V':SJ

<1bsurv~nH1s

guo é~t.n <>SÍ<' ÍÓU ca11ó11ic o de la función cor1·clat.ivn ""o( r11mli•odo l t f < 1', JI ' 1 < 1' (111 varinr t y t' en ostos límites, T ~ 1 - t' "arí:t 1111 los limiL"s 1 T 1 < 2T). Sogúu lo dt11nt1,1rado , u esin descom pC•sic.ión ca111í11ir.11
X (t)= illx-1- ~ (Uv :;cnro,.t .·f-Zvc.lvL). v- 1

A1111í U,, Zv sou magni Ludc•~ alMtori:is no C:< "v (t), las co n.~ de hio rtogonalidail (IS.2. l 2), limitándonos, para sim1ilir.id;id. al caso n = 2, 111 1 = .'ti '!. T, Ol2 = -:t./4T. En este cllSO tctu~mm~ c.uatro íuucinnes coordeu adas;

f"'

z 1 (t)

=

!'(In

<•»t,

;r.2 (1)

= cos ro.e,

:r. 3 (t} ~

son

S upongamos también que / 1 (t) = sen ro1 t, /: (t) = cos ro 1t, /, (t) = sen

(i)zt,

@2

t,

z 4 (t} = cos

013 1.

/ 4 (t) = cns ro 2 t

y eligimos la primera función g 1 (t ) coi ncideute con {1 (t ): T

g 1 (t) =&mro1t,

(g1o :c1) =

5sen210,1dt=T. -T

La s~guuda función g, (t), ortogoual con rcs11ect.o a la primnra función c.oorder1ada :l'.2 (t), la hll5Camos eu la forgia g2 (1) = b 21 g 1 (t) 2 (t). El c11oficiente b21 lo determinamos de la condición d~ biortogonali
+/

T

g2 (t)=cosoo.1.

(e,. x 2) =

Jcos~ ro,1 dt ='l'. 'f

267

§ 6.4. Construcción .de la d<scomposició11 ca.nónica

+

+/

Luego suponemos que sea 8• (t) = b 31g, (t) b 32 g2 (1) 3 (t) y busc·nmos los coelicientcs b 31 y b 32 de la ·c ondición de ortogo11olidad de g 3 (/} con tespei: t o a x1 (1) y x 2 (t). Como resultado hallamos g3 (t)= -

8 sen (l)2t + senw 21, a;¡-

Suponieodo que g4 (t) = b 41 g 1 (t)

+b

" (g3, x 3 )=1' ( 1-9iii') .

g (t)

42 2

+ b.,g, (t) + f, (t)

y determina·

dos Jos coeficientes b11 , V. 2 y bu de la condición de ortogonalidad de g, (t) con

ru~p<'<'to

a

.r1 (t),

g4 (t)- -

x 2 (t) y x3 (t). hallamos

4 cos (l) t+cosro t, (g , x4)=T ( .1 - Snt 16 ) . an 1 2 4

Una vez. detorDlinadi!S las funciones llv (t), ~u¡>
+

=

+

+

T(!ln~~-li 4) (3nscnti>1t-8son<1>~t).

ª• (t)

+

+

Ut~puéR de p
3n T(9n•-t6) (3nCOS(ll¡t -4w.sro,t).

az(t)

+

l lm1 \ C7. ~ul·st.o ri 3 (t) ~ r. 03 g 3 (1) r 3;g, (1) y dote.rmínado ~I COl•ficil'llle C33 de In ct1111hci611 (o., .:t.} = 1 y (I} coeficiente c34 dn la condición dt! ortogonalitlnd
aa
3n (8 scnro11-.,n&i11c12 " T ( :rZ-S4) t). 9

P or fin, pon iendo a, (t) = cug, (t) y hahiondo deti>rmilllldo el cooficieut.c ""
=

3n 1• (9nZ- ill) (4 co.s ro.1t-3n.cos (1)21).

LI' ckjnml•~ al lector que por sí mismo compruch« q110 las magnilu•lt·s ulcat.<wias r +~· U 1 = .~ xo (t}sen 10,1 di, Zi = ~ xo (1) cos oo 1t dt, ~T

-T T U2 =

J

T Xº (t) sen ro 2t di , Z2 =

J xo

(t) cos m~tdt

-T -T no ron corrclacion:1das; í:on ell(l , la~ 1nagnítudes u, y y las magnitudes U 2 y Z2 , la dispersióu D 2•

z, tienen la d isp~r~ión D1

2.68

Cap. 6

R~prcuntacionn

con6ncla• dt funcionci akatorias

§ 6.fi. Represcntnclón canónico integral de une función aleatoria

Sea V (i..) un ruido blanco arbitrario: l\1f 1V (l.))= O, } K, (i.. A.')= M [V p.) V(>.'))= G ('.) ó (l. - ?.'),

(G.5. l¡

donde G (i..) es la intensidad del ruido blanco. Hallemos las t:on diciones en que !11 función aleatoria X (t) puede ser expresada por medio de este ruido blanco V (A.) por In integral (6.1.5}. Por.a BSto hallemos fo función correlaeiva recíproca de l a función aleatoria X (t) y del ruido blanco V (A.}, suponiendo que la función aleatoria X (t) se expresa por la representación canónica integral (6.1.5). Aplicando (4. 7.4) para la función correlativa reciproca y la integral de ella, obtendremos para todos Jos valores de A. en el intervalo t.,< A.< 1,2 ¡.,

K,,.(l, ?.) -= ~ x(t, µ)G(i..)6(1.-µ.)dµ=G(i-.)x(t, t.).

(U ..).2)

).,

De aquí se deriva que l a función coordenada z (t; A.). para cadR v11lor dado del parámetro >.., debe expresarse por la (órmula x(t, ?,)=

K,,o~}.) ).) -=

c'¡i.) M[Xº(t)V(i..)l.

(6.5.3)

El segundo procedimiento posible de deducción de esta fórmula es semejante al procedimiento de ded ucción de l a fórmula (6.2.5). Escrib:imos In igualdad (6.1.!i) en la forma J.1

xu (t} =

J

V (i..) x (t, )..) dA,

(tl.!l.4)

'·'

multipliquéroosla por la función aleatoria V (µ) y tomemos 11.1 esperanza ma~mática de los miembros derecho e izquierdo de le. igualdad obtenida. Entonces, en virtud de (6.5.1.) obtendremos

,,.

M [Xº (t) V(µ)]=

JM [l! (J.) V(µ)] x (t, !.) dJ.. =

~.

A<

= JX (t,

i..) G (l.) 6 (/.-µ)di..= G (µ)X (t, µ).

(6.5.5)

~.

Es precisamente de aqui de donde obtenemos la fórmula (6.5.3). La fórmula (6.5.3) muestra que el ruido blanco V (i..) debe ser correlacionado con la función aleatoria dada X (t). El ruido bl anco V (i..) correlacionado con la función aleatoria X (t) conviene buscarlo en

§ 6.5. Representación de una f1mclon aleatoria

269

la misma forma en que buscamos las magnitud·es aleator-ias ·n.o ·correlacionadas V" at hallar la descomposición canónic:a de .la f unción aleatoria X (t) en el § 6.2. Para esto tomemos cierta función a (t; A.) depend iente del parámetro 'A y vamos a buscar el ruido blanco en l a forma ~

V (A.)=

Ja (t,

A.) Xº (t) dt.

(6.5.6)

Hallemos las .c ondiciones que"debe satisfoc~r la .función a (t, ?..) para que la función V (A.) sea un ruido bll!Dco: Para hallar, es~as concJicio-· nes, sustituyamos la expresión dei.ruido..blanco (6.5 ..6) .9n .la i4rniuJa. para las funciones coordenadas (6.5.3). Entonces obtendrem.os: i

--

x(t, A.) = G(/..) M [Xº (t) V(}.))=

= G~A.)

~

Ja (t', A.) M [Xº (t) Xº (t')l dt' = " = ~A.) Ja (t', A.) Kx (t, t') dt'. (j

G

De este modo, hemos recibido la nes coordenadas: x(L, A.) =

G~}.)

" siguiente fórmula

(6.5.7)

para las funcio·

6

Ja(t' , }.)K,,(t, t')dt'.

(G.!i.8)

Como vemos, e!!ta f6.rmula !:Se "~emeja mucho a la (6.2.8) para liis Ju.nciones coordenada!:S de la descomposición canónica; sólo que en vez del número -v en ella figura el parámetro ininterrurnpidam(mte variable A. Así pues, hemos recibido una condición que deben sa tisfacer las funciones a (t, A.) y x (t, A.). Sin embargo, l a condición (6.5.8) no es suficiente para que la función aleatoria V (J.) sea un ruido bl anco. Para obtener una condición adicional a la cual la función V (A.) será ruido blanc-0, multipliquemos la fórmul a (6.5.6) por V (A.') y tomemos la esperanza matemática de la expresión obtenida. Entonces hallaremos /1" 0 p,, A.')= M fV (J.) V (A.')J

=

~

~a (t, A.) M LXº (t) V (i.')I dt

(li.5.9)

c.

o bien, teniendo en cuenta (tl.5.3),

e

J<0 (í., í.')~) a(t, i-.)G(A.')x(t, t..')dt= et

~

=

C (A.')

Ja (t, J.,) "

X (t , J.'} dt .

(!i.5.10)

:.!70

Cqp. 6 Represmtaclone• canón.ira• de funciono alratoria•

Comparnndo esta fórmula con la segundo fórmu la (6.5.1), vemos que para que la función aleator ia V (A.) sea un ruido bl anco, es nece· sario que las funciones a (t, A.) y x (t, A.) saLisfngon la r.ondíci6n 11

.Í a (t,

i,) X (t, j..') dt =

~p., - f.').

(1) .~. '11)

a

Estn coud icióJI es el nná logo ele la dt> biortogonalidad (6.2.12). Para dislinlos valores de A. y A.' la integral del producto de las funciones z (t, A.), a (t, }.') debe ser igual a cero, es decir las funciones z (t, >..) y a (t, 1..') dehen :oer ortogonales. Hemos visto en el caso de dc.<;composición canónica que para cuolc¡uier función 11leot oria se puede siempre hallar las funciones :r.v (t) y av (t) que sotisíocen las condiciones (G.2.8) y (G.2.12), micntrns qne en el caso de representación canónica integral no existe un m6lodo ge111mü de determiuacióo de l11s funciones x (t, í.) y a (t. J..) quc solisfuccn las condiciones (6.5.8) y (6.5.11). A cooLinuoción 11 portaremos u rw serie de ejemplos cuando ~e puede hL\llar fácilmon Lo tale!< funciones x (t. /..) y a (t. J..). Las condiciones (6.5.8) y (6.5.1.1) son ll<'cesorias p¡¡ra que 111 fu11ción aleatoria V (A.). determinada por la fórmula (6.5.6), sea un ruido hlaHCO y para que In función aleatoria X (t} pueda ser exprC'siHla en función de este rui do lilanco por medio de la representación canónica integral. Es evidente que estas condiciones son suficientes para que 111 !unción aleatoria V (J..), determinada por la fórmu la (H.::í.6), sea un m ido blanco. D emostremos que las condicieneii (G.5.8) y (6.5.11) junto con la condición 1..s

I a (t,

l.) .r (t '. i..) di-.= 6 (t -t')

(6.5.12)

At

son suficientes tambián para qu.e la runcióu X (t) sea expresada por la represent11ción canónica integral (6.1.5). Para esto calculemos en el segundo miembro de la fórmula (6.5.4) la integral y demostremos que, ul"cumplir liis cond'iciones (6.5.8), (6.5.11) y (6.5.12), ésta es igual a la función aleat:oriA cen trada Xº (t). En vlrl11d de las fónnulos (6.5.6) y (6.5.1 2) tenemos As

¡.,

~

Áa

a.

JV(,.)x(t , i..)d>.=} {J a(t', 1.)Xº(t')dt'} x(t, J..)d>.= >.t

=

~

>.1

ct

A1

JXº(f') {.í a(t', í.)z(t, í.)dl.) dt'= =

,,

JXº (t') ~ (t -

"

t') dt'

=Xº (t).

(fi.5.1 3)

§ 6.5. Rtprn dt 1ma función oleotorlo

271

De este modo, hemos demostrado que las tres oondiciones (6.5.8), (6.5.11) y (6.5.12) son suficientes para que la función aleat-0ri a V (A.), determinada ¡>or In fórmula (6.5.6), sea un r uido blanco y para que la función alenloria X (t) se exprese en función de este ruido blanco por la representación canónica integral (6.1.5). Ejl'niplo 6.5.1. En el ojemplo 4.6.2 hallam.o s que l a derivada d e.la funcíó n nleatoria X (t) <'Oll la Cuncióu ~orrelati va Do-«Jl-l'f tiene la función c.orrel atjva de In forma ll•éase la fórmula (4.6.17)) K 111 (t, t') =20a6 tt-l')-0a2 8- c:tll-l't.

Ahora bien, en este caso la foncl óu correlativn contie ne el somo.ndo 2Da6 (t - t ') Ql\O es la funci911 correlativa del ruido blanco. Sin embargo, lo. propia derivada X (t) no es mid o blnnw, pu est o que en su función correlotlva hay todnvla el ! umando Det•eAfl-l'I. Puesto que este sumando tiene l a misma formn que la función correlativa úe la íunrión rucatoria X (t), es natural suponer quo ~o p11c1k· hAllar una combinac16o \al do la función aleatori" X (t) 'Y de s11 clcrh1ada X ' (t) . quo sea un ruido blanco puro. Examin1>mo., Ja suma

v (tl

~ ax

(t)

+ x' (1) .

(c.r.. 1 ~)

¡.::11 f11nt.i6n corrdativa, com11 fuución correlaL!,·11 de la su rnn de dc>s ru11eío11c• al1·:1Lorias , es lg11al a la ~11mu 11(• l •s funci<>rll's correlativas 'Y corr~lativas rt'<·íprnros do Jos sumando>'. es dt>eir,

K, {l. 1') =- Kv, (1, t')+a•Kx {I, n+aKX{/¡ (1. 1' ).;,-etKX//l {t', t). Oh:«'1·v1)wo.~

nhm·a q ue,

m1

''Ít'l1l(l do (4.G.11;), 1>111·11

K XIJ l

(t, t')~K.,¡¡, (t', /)=0.

c11alc~q11i •u·a l

(G.f>. lii)

y t' (0.5. i H)

En cfc.-ct.<•. al permutar los ar¡umenlos t y t', las expres!oues (4.6.1 4) pasan unu a la olra . puesto que con cUn el ~ig1111 de deaiguiJdad entre el ¡lrimero y ~I !;<'gu 11dn argumento o:nmbia on el opuesto. Ln S\Jma de cual qlll~l'D. de la$ cxprcsiorocs (.\..ll.14) con otr a expresión, que liena los a rg umentos t y t' pcrmutailos. es igu nl u cero, qu o <'~ l o qu i' dc11111esLra In igualducl (li .5.16). S u'ftituy<·111lo l a~ expresiones de l as funciones correlativas ~o (6.(1.11\) y tenie11Jo e n r.uent11 (C\.5. tr.). ohtendJ'emos K 0 (t, t') = 2Da~ (t - t'). (0.fi.17)

Ahnra bien, la fnnei6n aloatorin V (t) = aX + X', dctcrminKda por l a fórmu · la (1$.5.14), rapmso11La en este c.oRo un r11ido hlo nc,o con intonsidud igual a 2Dr:t.. Cun ot.ras palahTnS, In función al eatoTia examinntlJL X (t) <>SI~, ligada con el Tuido bliuico V (t). qn o tiC"ne Ja i n t1>nsi dad 2Va, ¡1or In ccunción d ifcrcucial lin~ll l de primer orgrnnclo

~~ l.a

X' -1- aX

=

V (t).

(fi.!>.18)

1l<'11:1dóo, pa111 la cnnr!ic.i1íu inicial X (le) ... O. o hte>nd rcwo• 1

X (1) - c-ctl \ V ('t') én clt.

¡,, 1.'Xprc5ió11. l11lrodu1.cam1•s el multiplir~1lor r·'" hojo d ,;igno inll'gral y extondamos el limite supcrinr dl' intcgrnci6n ha~LH cierto 11 > t. ol m ultiplir.:1r l a funri6n s111Jint~g1·a/ por IA r111wióu un íilacl cscnlomul:i i (/ - r >. Trnu.~rormomos co1a

272

ca,,. 6 R•presenttlL'/f)ne8

Igual n cero parn

T

>

fu11CIO MS

ttúatorios

t:

t

X (t} =

d1t

CfHW 11ÍC0$

~

e -a(l-'t) V (T) tT-r~

lo

h

J

,-a(l-Tl j (1 - -r) V (T) dT.

(6.5.19)

lo

Esta l'xprcsión contit>ne Ju constnnle arbitraria In. l'ara lletlll'minar esta cons tante hRll<'mos l a función correlat iva Je la función nleat.orio X (t). Aplicando In 16rmula (lo .7 .3) pata la función correl ativa d e la integral lle la función 11leetc>rlo y leuieu
= -.-a(l- T)

C (t, T)

1 (t -

T),

ol>lt1nc.lromos t1 t1

K,, (t, t'}=

JJ

2aDc- a(l-Tle- a W- T) 1 (t - T) 1 (t' -'t)

6 ('t -

T') ciTd't' -

to fo

h

... iav \ ,- au+t' - 2 <>1 (t-T) l t>rimcrmnent.e exnmínemvs d

cn~n

io r uanolo t < t'.

(l' - T) d't.

Toudr~mos

J t

Kx (1, t ') =2aD

, - aH+1· - 211d't = n 1, - aW-ll_ e-a
to

Cunnclo t

> t',

nn virtud J i: la ~im~I río podemos e.'!CrilJ ir K,. (I, t')=D ¡, - a<1-t')_e-a(l' + 1- 21,,11.

Heunil•tiu o estas fórmolns, obt omlremo~

K,. (t, t"J = D{c- alt - t'l _e - u¡.

(0.5.20)

De Rquí se ' 'C que> la función a lflat Ol"il'I X fl) rnn lu func ión t•r mctli() del ruhln h lani:o 1· (t), cuya i ntensidad C3 2Da., por la fór muln (tl.5.1 11) si !'e pnno t 0 - -oo :

J _.,. 11

X (t)

=

V (T) e-a(l - 't) t (1- T) ,JT

(1
(G.5.2il

Asl' pues, la función aleatoria estacionnría con función corrt>lntiva exponencial so exP.resa por l a representación ca nónica integral (l\.5.2i ) en llll i n t.erYalo sem ilnfimto cualquiera (-oo, 11). L as funcitmes coordenodo~ d o 4'Sta representac ión c nnónica integral so determinan p<>r l a f6Tmnla :r (t,

1..)

= t-~t-A)

1 (1 -

/,),

(6 ..5 .22)

Para h11ll11r IM func.ioncs a (t, ?.), obsen •tlmos que la fórm ul n (IU1. l 4), on In cual el ruid o blanco V (1.) vo ~xpre-oado mPdi11nto la función aleatoria X (t), puede !W'r CMrit.a en In forma

,,

V (1.)=

~

(c5'(1.- 1)+ et6(/. - t)JX (1)<11

§ 6.5. He¡¡rcst11taci61'

De aquí

:xi

ik una función. a{'1atoria

ve que a (t, >.) = b' (/• - t)

+ w~ (>. -

t).

273

(6.5.23)

En el ejemplo que sigue veremos que las funciones x (t, A) y a (t, 11), determi· nadas por h• fórmulas (6.5.22) y (6.5.23), satisfacon las tres condiciones (6.5.8), (6.5. U} y (6.5. t2). Elemplo 6.5.2. Los resultados del ejemplo anterior muestran que la fun· cl6n afeatoria no estacirinaría X (t) con la Cunel6n correlativa (ll.5.20) so expresa por la re¡>resontaci6n canónica integral (6.5.19) en el i'ntervnlo' finito (1 0 , 1,). Con ello, las funciones coordenadas x (t, X) y las funciones a (t, >.) van exprt>sadas por las mismas fórmulas (6.5.22) y (6.5.23) . Es fácil cerciorarse de quo en Mte caso las· funcione-s;,; (t, 1') y a (t, >.) satis' facen las tres ecuacione.s (6.5.8), (6.5.11) y (6 .5.12). En efecto, para. t 0 < t <;:

<>-
JK,, (t, t')a(t'·A.)dt'=

to

lt

=D ~ l•-Q'.(t'-11 - e- <><1+1·-210>¡ [<5' (X-t')+o:B (X-t') dt' = to

=-Da (e-«O.-t) _ e-a.(t+),- 21ol] +Da ¡.-a.(X-t)_e-<>
Para

10

< 1. < t <

ti

~

a (t', >.)

/(~ (t,

obtcudremos

11

t') dt' =

io t

=D

J

[e- cr
11)

=!Ja ¡c-a
+ 6 -et(t+>.-2tol] +Da [e-<>(1-i.l _

6 -a.J =2Dae-ac1-1.¡.

Al div idir las ux1>rcsiu11es o bte11idas p-0r la intensidad del 111ido bl<111co V().). igual c11 esto caso a 2Da., obtcndremo• procisnm~nte. la función :r. (t. ).) .) y a (1, /.) st1tisfar~11 In co11diritÍ11 ((i.5.8). Luego tonemos lt

t

Jx:(t, >.)(l \1,

}.')dt=

to

J

, -«(t- M J (1-X} [6' (1.'-t}-f-etó (i.'-t)dt =

tn

=

f)~' (c-a(i.'-~lt =-rxe-a(1.'- i.)

(1!-i,)]+et• - a(í.' - i.lt (>.'-í,) =

1 (í.' -1.H-e-«O.' - l"B (1.'-i.)+

+ne-a(X'-í.l t ().'- i.)=e-"!1.'-M6 (1.'-Á).

Pero 6 (X' - A) = O paro todos los valores d~ A.' •I• )., Pm eso el multiplicad•ll' .,-«<>:-;.¡ puede ser m1st.ituido en la expresión obtenida por la unidu.5.12.). ( 8 - 0938

271,

Cap. 6 Rtpre.sentactones

con{Mit:lf.<:, d.;

funr.iQnl'$ qlealrlri r "

E jem plo 6.5 .3 . Le dejamos al lector <1uo por sí mismo se convenza ele q ue sl X (t) es una func.ión aleatoria estacionaria con la función c.onclativa k,.(i:)=Dt-al•I

(cosw0't+ : seneoo l" i), 0

entonces la función aleatoria

v (t) = x·

(t) +"to.X' (t)

+ ~ix (t),

~;=a•+

w&.

(U.5 .24)

representa un tuido blanco con intensidad igual a 2Da~•. Al cxamiuar la ig11aldad (6.5.24) como ecuación diferencial con respecto a X (t) y al integrarla, 1105 cercioramos de que la !unción aleatoria X (t) se expresa a través del ruido blanco V (i..) por la fórmula t1

X (t)= ; 0

J

V (A) . - sen
<~t 1 ).

(6.5 .25)

-QO

F.stn fórmula ofrucc ltt representación cuuónka inl.Cgral de le función a l eatori a X(/) co11 las fu nciones coordenaJxs

1 "'(t, J.) = - -


.-0t<1- 1»sen ro0 (t-J.) 1 (t-1.).

(ú.5.26)

Las funciont?!l a (1, 1') s e dcterminnn en este r.a.!!O '(lOr la fórmuln

a (1, i.) = 6• (}. - t)

+ 2alí' (>. -/) + a211 (/. -

t) .

(6.5.27)

Al igual que en ol ejemplo anterior. 11 no puede convoiwerse 1le q1u. la8 [111iriunes A) y a (t, ¡.), determ inadas por las fórmula.~ (6.5.!W) y (ti.5.2i), ~atisfacen l as coudiciones (6.5 .8), (6.5 .{1) y (6.5.12).

:r (1,

~ 6.(). neprcscutaci ón canónica integral de una fun ción aleatoria estacionari a

E n los §§ 5.2 y 5.3 construimos uua clase de funciones aleatorias tist acionarias representables por las descomposiciones espectrules (5.2.21) y (5.3.3). Dado que las funciones aleatorias U (w), Z (w) y V (w) en éstas fórmulas son ruidos blancos, la descomposición espectral de .una función aleatoria estacionaria es, al m ismo tiempo, también S U· representación canónica integral. Aplicando la Teorí a de representaciones canónicas integrales de funciones aleatorias, oxpuest~· en el pár.rafo an terior, ahora podemos demostrar que cual quier función aleatoria estacionaria se expresa por la represent ación canónica integral (5.3.3). Este hecho ha quedado sin demostrar en los §.§ 5.2 y · 5'.3. Al demostrarlo, podemos afirmar q ue la clase de funciones aleatorias estacionarias, construida en los §§ 5.2 y 5.3, incluyotodas l as ftlnciones alea tori as est acionarias. Para la démostración observemos q ue las funciones (H.G.1)

.~

6.6. Reprtsentación de una funr.iún ak.atc>ria

27!!

satisfacen las ecuaciones (6.5. 11) y (6.5.12). En efecto, 00

r J

..

r ei(l.-7'')1 dt =

_1_ e-i1''t dt = -121t 2nJ

eiAt

-

-oo

Í

J

ei1't

(j ('}..-'A')

'

""

_i_e-·i1'1'dJ.. = -I- l elCl-t')).d'}..=(j(t-t') 2n 2nJ

(véase la fórmula (2.2.22) que ofrece la representación de la función delia eo forma de la integral de Fo"Qrier). . . : Para cerciora·rse de que las funciones x (t, i.) y a (t, A.), d_étetm.i~~; das por las fórmulas (6.6.1), sat.isfacen también )a ecuación.''( 6.5.8), basta demostrar que la iptegral

..

J k.,(t-t')a(t', '}..) dt'= 2~ J k,.-(t-t')ei).t'clt'

(6.6.2)

-oo

= e·i i.t solamente por el multi¡..licador independiente de t y tomar este mult.iplicado1· como función G ('}..).Efectuando en la integral (G.6.2) la sustitución d~ las variables T = t - t', obtendremos

se distingue de Ja iunción x (t, i.)

2~

..J

~

k x (t-t')eº· 1' dt' = é>.t

J kx(T.)e-º•'dT.

~'l.

-oo

De aquí se ve que las funciones x (t, A.) y a (t, /..), det.erminadns por las fórm ul as (6.6.1), satisfacen la ecuación (6.5.8) cuando G (;.) = -¿~ En virtud de lo demostrado tor ia V p.) =

..J

_.,.

l:lll

2~

k x (i:) c- il.t dT.

(G.G.3)

el pánafo anterior, la función alea-

..J

Xº (t) e-il-I dt

(G.H.4)

representa un ruido blanco cuya in t ensidad es igual a G (:A.) y la función aleatoria X (t) va expresada en funci ón de C?stc ruido hliinco por la l'Cpresentación canónica integral X (t) = mx-1-

°"

JV(>.) e

1 1 '· dÁ.

(lU>.5)

Esl.a fórmula difiere de (5.:J.3) rnl omenle por la df.•sigORción de lá trccuencia.

27G

Cap. 6 fl•p,.,1tnlactones can6ntc4S

d~

fun.clont•

al~atorlas

Comparando la fórmula (6.6.3) con la (5.3.11), nos convencemos de que la intensidad G ()..) del ruido blanco V ()..), determinado por la fórmula (6.6.4), coincide con la densidad espectral sx (i.) de la fun· ción aleatoria X (t). Por fin, en virtud de la fórmul a general (6.1.10), la función correlativa de la función aleatoria estacionaria X (t) se expresa por la representación canónica integral

..

kx (t - t') = .~ G p.) c11..1e1M ' di.=

Í

Sx

(A.) ew1-n cD,..

(6.6.6)

-oo

Esta fórmula se distingue también de la (5.3.15) solamente por l a designación de la frecuencia. Ahora bien, hemos demostrado que cualquier función aleatoria estacioonria se expresa por la representación canónica integral (6.6.5) que coincide con su descomposición espectral (5.3.3). Demostremos ahora que para ninguna función aleatoria no estacionaria la descomposición espect.r al puede ser su representación canónica int.egral. En efecto, supongamos que la función aleatoria no estacionaria X (t) se expresa por la representación canónica integral (6.6.5). Entonces su función correlativa debe expresarse por la fórmula (6.6.6.), es decir, debe depender solamente de l a diferencia de los argumentos, lo que contradice a la suposición acerca de la no estacionaridad de esta función aleatoria. Asi pues, si se logra expresar una función aleotorin no estacionaria por la descomposición espectral (6.5.5), la función V (f.) no puedo ser 11n ruido blanco en esta descomposición. Esto quiere decir que la descomposición espectral de una función aleatoria no estacionaria Ja expresa solamente a través de otra función aleatoria V (l..), que en el caso general no es más sencilla y no da .nada para la práctica. Examinemos ahora dos funciones aleatorias reales X (t) e Y (t) que son estncionarias y estacionariamente ligadas. Expresemos 111 función aleatoria X (t) por la representación canónica integral (6.6.5) y 'la· fuucióp aleatorio Y (t), por la representación canónica integral Y (t)- m11

""

+)

W (i>.) e0 •1

ª'"

(6.6.7)

En este caso el ruido blanco V <'•) se expresará por la fórmula (6.6.li)

..

y el ruido blanco W ('..), por la fórmula semejan te

W (1.) = ~ ~ yo (t) e-i).I dt. _..,

(6.6.8)

Calculeinos la fnnción correlativa recíproco de los ruidos blancos l'1(A.) y W ()..). Para eso pasem,os en (6.6.8) a l as m_agnitudes conju· gadas complejas y cambicmoo las designaciones del argumenlo y de

§ 6.6. Rtpreuntaci6n dt una función aleatoria

la variable de integración.

~2

M [V(/•) W (>..')] = bien

4~2

K...,,('>.. , "-')=

Entonces~obtendremos

JJ

M LXº (t).Yº (t')J _e•w 1·- >J>dtdt'

-w -oo

.... Jl

Pero

k:r11 (t - t'fetv:•·-M>dtdt'.

-oo - oo

La sustitución de las variables t' t' da

= t- i: en l a integral con

! Jk,. (-t) e-

K•.., (1'.1 A.')=

4 2

Z77

11

-oc

11.t d-c

l

e lt>.' - /.JI

respeéfo

dt.

-oo

..,

j

etv.·-i.i1 dt = 2n6(A.-1'.' ).

..J

Por consiguiente, introduciendo la designación s,.11 (/..) =

~~

_.,,,

kxy

(-c) e- fl.t d't,

((j.6.9)

obtendremos K ow

(!., >.') -=

S.r¡¡

(J.) 6 (A. - /..').

(6.6.10)

De este modo, hemos demostrado que l a función correlativa recíproca de l os ruidos blancos en lns representaciones espectrales de do::s cualesquiera funciones aleatorias estacionarias y estacionariamente ligada.~ contiene como multiplicador la función delta. Esto quiere decir que los valores de estos ruidos blancos, correspondientes a diferentes valores de la lrccuencia, no son correlacionados. En el § 5.G. hemos mostrado esto recurriendo a otros razonamientos.

CAPITULO 7

En t.i·opía e información conlenida en las magnitudes aleatorias

§ 7. l. Medición do JI\ indeterminación do remímeuos aleatorios. Noción de entropía

Todo fenómeno aleatorio está vinculado con cierta indeterminncióo. El resultado de observación de un fenómeno a leatorio no puedo 11er predicho con plena seguridad, es decir, es indeterminado y se hoce cleterminado solamente después de In observación. Por eso, ni ¡llanificar trabajos rolnciono.dos cou la observación de fenómenos aleatorios o al calcular sistemas destinados a funcionar con señales no conocidas de antemano, debemos tomar eo consideración la iodetermiirnción de los resultados de observación de los fenómenos aleatorios, tener c1i cuenta que los resultados de unas mismas acciones y rruehas pueden ser en ol proceso de trabajo dist.intos. Cabe preguntar ¿se podría medir In indetermi nación de fenómenos aleatorios y tenorla 011 cuanta en l\uestros cálculos? Para ro.~olver esta cuestión, prestemos atenció11 al hecho ele que en ciertos casos podemos comparar la indeterminación do los resultados de diferentes experimentos y decir con seg1:1ric!ad que la i ndeterminación de una prueba es mayor que lo de otr11. Así, por ejemplo, si, como resultado de una prueba, el acontecimiento A puerle producirse o no producirse con la probabilidad de 1/2 y, como resultado de otra prueba, el acontecimiento B puede sucecler con la probabilidad de 0,99,entonces está claro intuitivamente que la primera prueba posee mayor indeterminación que la segunda. En efecto, el resultado el.el pri mer experimento es absolutamente im.p,o..sible.,pr.odecir., Al contrario, prácticomonte podemos estar seguros de que no··aws.. equivocamos ·a! ·predecir que, como resultado del segwido experimento, el acontecimiento B se producirá. Si en la tercera prueba el acontecimiento C t iene la probabilidad de 0,9 es evidente que esta prueba posee mayor indeterminación que la segunda y menor que la primera. Esto ejemplo muestra clarameoto que la estimación cuantitativa de indeterminación de Jos resultados de observación de los fenómenos aleatorios os, en principio, posible. Para hallar ol modo de tratar la estimación cuantitativa de la indeterminación de los fenómenos alentorios, imaginémonos que participando en cunlquier trnbnjo, por ejemplo, en el mando de un proceso de producción, liemos efectuado cierto experimento. El resultado del mismo es necesario comunicár.;elo a otros participantes, pHL'a que puedan cumplir su parte del trabajo. Claro está que la comunica-

§ 7.J. Medldón de la lndrt.rminac16n

279

ción acerca del resultado d.e la prueba liquida 1ior completo la indete~minació,n quo existia 11ntes de llevar a cabo el e~pedmento. Para transmitir las comunicaciones se utilizan generalmente los medios de enlace. La transmisión de comunicaciones se efectúa por l a!I líneas de enlace con ayuda de determinadas señales. Por eso, para trausmitir una comunicación, es necesario ponerle en correspondencia uuu sucesión determinada de señales o, como se dice, cifrar la comunicación. El código binario es el más sencillo. En éste l a· tran.Smisión de comunicaciones se efectúa por señales de dos tipos. Al ligar con un tipo !le señal el cero y con el otro, la unidad, reduciremos la codificación de l a comunicación a su representación en forma de una sucesión de ceros y unidades que alternan de un a roamira det!)rm inaclA. Con ello, es necesario, naturalmente, asegurar que a distintas comunicaciones les correspond·an diferentes sucesiones do ceros y unid ades. Desde el punto de vist.a teórico, al cifrar comunicaciones, 11s necesario tratar de gastar con m11yor economía el tiempo y los medios requeridos para su trausmisi6n. Esto se puede a lcanzar eligitmdv t.lll procedimiento lle codificación co11 el cual liea mínimo el número esperable de signos (señales) con ayuda de los cunles i;e transmit.en las comunicaciones. Es obvio que para asegurar el nt'1mero mínimo esperable de signos para la transmisión do los comunicaciones acerca 1lel resulta.do de la prueba en cnostión, es necesario representar los resultados de mayor probabili!lad por las sucesiones m6~ cort1:1R de c.l\ros y nnidade8 y los de menor prohnbilülnd, ligarlos t;On sucesiones más largas. P.l posible número mínimo esperable de signos requerido pnrn l iquidar por completo In indeterminoción ele\ resullncio de la prueba, nl emplear el procedimiento más económico de codificación, conviene tomnrlo l'Or medida cuont.itativa de 111 indeterminación del experimen1.o. Con ello, l a unidod
se

• ) • Bih el! 111111

<:11 •'~¡>añnl •cH¡ri~v

nhr~viatur11

bina,.io•.

tkl término inglés •hinury cligib quo •i¡¡11iíica

Cap. 7 Entropla e lnform~l6n

280

subgrupos que contienen más de un resultado se siguen di vidiendo. Al fin y al cabo lodos los subgrupos contendrán cada uno un resultado y, con ello, a los resultados más probables les corresponderá menor cantidad de digitos binarios y a los resulLados menos probables, una cantidad mayor de los mismos. Ejempl o 7 .1 .1. Si son posibl"~ ocho rP.snl ta11 las probabilidadl-s f/2, 1/lo, f /ll, l/ IG, 1/ 64, 1/64 , 1164, 1/64, e utonces, aplic1111rlo el procediu1ie11tn expuesto de r.odi!icnci6n, <>bt.<: ndremos la tabla siguíout.e: {

1

2

3 4

Pi

1 Dig.

1

o

7 1

4

ti Oíg. 21 Di¡¡. :l ílig. 41Oi¡¡. ~

l

8 l

¡-¡¡ 1

5

B4

R

64

7

iR

8

64

l

1 1

1

1

1

1

1

1

l

1

1

1

1

1

1

()

t

1

o

1

1

1

1

1

l

1

1

1

1

1

l

1

l

1

•(

Oíg. 6

l o

#

1

1

J

1

1

o

-1

-Ahora bien, la comuniueión sobre el resultado mlis probable del uxperimont_o,.;!Júe t.ion& la 11robabilidod de i/'l., se transmítirá por un solo dlgit<> blnarlo, Q; . l11.. ~omunlc11c1_6n sobre el segundo resultado del experimento, q ue tiene In pr~babil'l aad d'e 114, se trausmitirá por dos dígitos i y O; la comunicaci6n del tere~ resultado,. que tione la probabilidad de t /8, se tro.nsmitil•:i Jl<>r tres d lgitos; l a comunicación sobro el cuarto resultado quo tiene l a probabilíd ad do 1/ 16, ise traDJmlt lrá por cuatro dígitos y 1as comuo1cacione.s acerca de cada un<> de lo~ demb reaultad()s, cuyas probabilidades son igualea a t /64, se tro.nsroiti· rán pÓT seis dlgitos. Rallemos la indeterminaci6n del nperirneoto en cuestión, la cual, según la definición o.nteriorm.ente do.da·, .es igual a la esperuza matemática del número de-dlgitos requeridos para transmitir la comu.ntcaci6n sobre el resultado de la prueba. Los val ores p0slblos del número de sjgnos que puede comprender la <:0municací6n sobre el resultado de l a prueba son 1, 2, 3 4 y 6. Las probabilid~ d es de estos valores son iguales, respectivamente, a 1/2, lJ¡, 1/ 8, t/t6 y 4. t / f\4 = - ift6. Por eso la esperanza matemática del mimero de dlgltos <jllC 11uede cnm-

§ 7.J . Medición de la tndetermtnactón

·281

prender la comunicación sobre el resultado da la prueba es igual t 1 t 1 1 H~1. +2 . +a . +4· +s. ~z bits.

2

4

8

16

16

Así pues, la lndewrminación del experimento eo c;uestión es igual a 2 bits. E jemplo 7 .1.2. Si son posibles ocho resultadC?s del e~p~i:mento y la probab ilidad de cada uno de ellos es igual a 1/8, entonces él pro~dim.lento expuesto de codificación de las comunicaciones acerca de los re5Ultados del experi!llento lo ofrece la tabla siguiente: 1



1

1Díg.

tiOíg. 2¡ Oig. 3

1 t

l

8

2

8

1 1

o

o

o

o

8

o

l

4

8

o

1

5

8

1

o

1 1

(i

8

7

-¡:¡

8

1 1

8

1 1

3

t

o

-o

-1

o --

1

o

1

1

1

1

1

o

-1

A11oi-n bien, la comunicnción sobro cualquier r()S11ltndo del oxpel'imcuto ro fran~mite en este cas de dígitos compreuuidos en la c<m1unicadó11 e~ tombié11 ig11al a tr~s. Por lo tanto, lo indeterminación del experimcuto e11 cuestión es igual a 3 bits.

Examinemos el experimento con n resultados posibles cuyas probabilidades sou todas iguales a potencias enteras de una mitad . Es fácil comprender que, al emplear el procediniien t o de codific11ción expuesto, al resultado de la prueba cuya probabilidad es 2-"' l o· corresponderá m dígitos binarios, lo que evidencian claramente los ejemplos citados. Así, pues , la esperanza mntemática del número de d ígitos comprendidos en la comunicación sobre el resultado de l experimento en cuestión es igual ¡¡ R = ~~m2-m, (7.1.1)

::¡82

·donde In adición se reali'la con respecto a todos los resultados posi· bles de la prueba. En oste caso, ostá claro que si ciertos ra~ul t11tlos del ·experiniento tienen probabilidades iguales, les corresponderán sumandos iguales. Observemos ahora quo en el ca~o en cue:;tión, en que Ja probabilidad del i-ésimo resultado de la prueba p¡ = 2-"', ,cJ número de dígitos comprendidos en la comunicación acerca de este .l·esultado del experimento e!! igual al logaritmo binario de i;u probabi· .li la fórmula (7 .1.1) se puede escribir en l a forma n

¿;,

JI= -

p; ~log p 1•

(7 .1.2)

1~1

Esta magnitud, obtenida por nosotros para el caso particular c1Jando •los rirobabilidades de todos los rcsultndos del expl•rimento se cxpre.sa11 por potencias enteras de una mitad, so toma por medida c11nnti1.at.ivu tic indet.ermi1111ción de cualquier prueba con un número iinit.o de rosultados posibles y :>e llama eri.tropí.a del experimento. En ve'l. de ·expe1·imenlo , ~e riuede hablar de un sistema con número finito de ·estndos pos ibles que tienen prob11bilida1les as ignadas de ontemnuo. La cntroill a de (~Ste sistema, determinada por la fórmula (7.1.2), es la medida de indeterminación U.el si;;temn. Claro estú que en In ueíi· nic.ión de l:i entropía (7.1.2) se t ienen en cuenta todos los resultados posibles
"

(i .U1) L; PF - 1. 1-1 ,l,11 cnt.ropía de un experimento con. un mímero finito n > 1 de rcsultndo!'\ (o de u11 sistema con un númeJ'o íinito de estados posibles} ·l>.~ si cmprn po.~itiva, puesto que lo.<; logaritmos de fraccio.n cs propias ¡¡on negativos. Si la pruebi1 tiene un solo resultado posible cuya pro· habiliuad es igual n la ttnitlnd , entonces la entropío de la prueba es :igu.al ¡i. cero. Esto es natural ya que el experimento con Uil solo resultado 'Posible careee por completo de -indeterminación. Demos:ti'emo.~ ·ci:ue· entre todos los experimentos posibles, con n resultados · p.S>s'i:~Jes, 'la .'~ayór entropía la poseen los experimentos dé resultados <e(tuip.roliábles. Para la demostracióu, deduzcamos una desigunldad .auxiliar. que· necesitaremos. más de una vez a continuación. Observe· .mos que para cualesquiera valores positivos de x

ln

x< .x-1.

(7.1.4)

efecto, el logaritmo e:;1 una función monóton11 creciente con derivnda monótona de.creci'ente. Por ·consiguiente, se representa por una -c1i r.va, cuya- 'convexidad esta dirigída hacia arriba, que se encuentra por com.vleto· bajo· cualquier tangente a olln (fig. 7 .1.1.). En particu· Jar, la curva que representa ·al logaritmo natural se halla por com-

.E1}

§ 7.J. Mediei{ln de la indetermlrtación

283.

·pleto bajo la tangente a ella en el punto x = 1 que tiene la ecua~ió11 y = x - 1. Precisamente de aqu.í se deduce l a desigua l(lad (7. 1.~). El signo de igualdad en (7.1.4) 1.je.ne lugar sol umente cunncj.o x = 1.

!Poniendo x

=

1/u, obtendremos

!I

In .!...,.;:..!..-1. "'

!/•:&•/

lt

-de donde l nu= - ln.!. :;;,. 1-.!.. "

u

Ahora bien, para cualesquiera valores positivos de u ln ¡¿ ~ ~ 1 -..!. " .

(7 · 1 · 5)

· 7.t, t. F1g.

Pasando aquí de los logaritmos naturales a los binarios, obtendremos 2 logu::;.,.( 1-

~)2 1og e.

(7.1.6)

Esto es précisament.e la desigualdad auxiliar buscada. En virtud de la definición (7.1 .2), la entropía de un experimento ~oo n resultados equiprobable!I e.5 n

n

Hp= "1

¿;

..!.n. 2 1og..!..=!logn "1 .!. = ~lo¡,¡n. ll ""'ll '

(7 .1.7)

t.~ t

i= l

Observemos ahora que las probabilidades iguales do iln, que consti· tuyen en suma la unidad , pueden ser s ustituidas en (7.1.7) por otras probabilidades cualesquiera p 1 , p 2 , • •• p,,. quo constituyen en total la unidad. Entonces la entropía de un experimento con n re~ultados equi prohables se expresará por la fórmula /f 1,= 2logn

n

"

1=1

f= l

¿j p1=~ ~p1 2 logn .

Hc~tando de esta expresión la (7.1.2) de la entropía de un oxpe1·i111onto con n resultados que tienen las probabilirlades p 1 , • • ., Pn, tlm
Hp- ll =

2.'

i--1

p1 2lognp 1•

De nr¡uí, aplicando la desigualdad (7.1.6). obtenemos ,.

ll 1, ·-H >- =tog e ~ ~ p1 i= t

n

(1-~) 1ip,

=

2

n

loge ( .'-'# ~ p¡ - ....,¡ ~ ..!.) ,.~ O. (f. i=l

1=1

Esto demuestra que la entropía de un exporirnento con rcsul tl\dos equiprobabJes no puede ser menor que la ele otro experimento r.ual-

Cap. 7

Enlrupía

e ln/1mnación

quiera con el mismo número de resultados posibles. Como el signo de igualdad en (7.1.6) tiene lugar solament.e para u= i , la entropía de un experimento con resultados equiprobables siempre eii mayor que l a cualquier prueba que tiene el mismo número de resultados posibles pero diferentes probabilidades de l os mismos. Observemos todavía que, como muestra la fórmula (7 .17). ht entropía de un experimento con resultados equiprobables será tanto mayor cuanto mayor sea el número de resultados posibles del mismo. 'fodas las propiedades examinadas de la entropía se coucuerd;;u plenamente eon nuestras ideas intuitivas acerca de la indeterminación de 105 resultados de observación de fenómenos aleatorios. § 7 .2. Entropía de una magnitud aleatoria. Entropía condicional media

Extendamos ahora la definición de entrop[a, daúa en el párrafo nnterior, a l caso de un conjunto infinito de res\\Ltados posibles de un experimento. Para esto introduzcamos la noción de entropfa de una magnitud al eatoria. Examinemos primeramente una magnitud aleatoria discontinua X cuyos posibles valores x 1 , • •• , Xn tienen las probabilidades que son iguales a p 1 , • • • , Pn• respectivamente. El experimento tiene en este caso n resultados posibles y las probabilidades de éstos son iguales a las de l os valores correspondiente:; de la magnitud aleatoria X. Tomemos la entropía de este experimento por la de la magnitud aleatoria discontinua X. De este modo, la entropia de una magnitud aleatoria discontinua representa la suma, tomada con signo contrario, de probabilidades de todos sus valores posibles multiplicados por los logaritmos de estas probabilidades: n

Ji [X)= -

¿; p1

2

i~l

log Pt·

(7 .2.1)

Para determinar la entro.pía de una magnitud aleatoria continua X, dividamos el dominio de sus valores posibles en un número finito de. tnter:valós / 1, • • • , In y tomaremos por el i-ésimo resultado del ·expei:imento el en·cuentro del valor de la magnitud aleatoria X en el i-ésimo intervalo. Las probabilidades de estos resultados del experimento serán p;

Í f(x)dx=f(x1)flx1, 1¡

.,,, '2]p¡=1,

(i=1, . . . , n),

(7.2.2)

i=t

donde x 1 es cierto valor medio de x en el i-ósimo intervalo, Ax 1 es la longitud del i-ésimo· intervalo y f (x) es la: densidad de probabilidad ·de l a magnitud aleatoria X que se supone ser continua en cada uno .de

~~

7 .2. Entropía de '""' magnllud alealorta

los intervalos / 1 , • • • , !,.. La entropía del experimento, en virtud de l a definición (7.1.2), será H

=-

n

~

1... 1

" = - ~

1-1

11 (x1) óx!f ~log lf (xi) óx¡] = f (x1) [2 log f (x1) + 2log óx¡J Ax1

o bion H

=-

n

~

n

f (x;) 'log /

(x1) óx1 -

i~l

~

f

i~t

(x1) ( 2log óx1) 6.x1•

(7 .2.3)

E n esta fórmula el paso directo al límite para óx1·- O es ·~mposible, puesto que en este caso el segundo s umando crece ilimitadamente. Para vencer este obst ácul o , observemos que en los problemas prácticos nos i nteresa generalmente no la indeterminación absoluta de cualq uier magnitud aleatoria sino solamente en cuánto su indeterminación es mayor o menor que la de otra magnitud o bien en cuánto ha dism inuido la indetern1inación de la magnitud aleatoria en cues. tión como resultado de uno u otro experimento. Y como las diferencias de las entropías no cambian al t ransferir arb itrariamente !IH origen , entonces el segundo su mando del segundo miembro de 111 fórmula (7 .2.3) se p\1ede sustituir por la magnitud constante arbitraria /f 0. E ntonces la entropía del experimento en cuestión se 1loterrn.in ará por la fórmula

"

JI= Ho- ~ f (x1) :1og f (x1) Ax;. i ;;;;s 1

En esta fórmula se puede pasar al límite a l aumentar ilimitadnmenl1> el número de intervalos en el que se divido el úominio de ''alorP.s posibles úe l a magnitud aleatoria X y a l tender a cero las longitu
obtendremos 00

11 = H 0 -

.\

_,.

f (.:i;) 2 log / (x) dx.

(7 .2.li)

Co111(mroente, para sencillez, se supoCJe que 11 0 = O y se determina la entropía de una mr1gnilud aleatoria continua X por la Iórmul11 00

l1 =

-

j

_.,.

f (x) 2 log/

(x) dx.

(7 .2.f>)

Observemos a hora 11ue l a integ~al 011 (7.::!.4) y (7.2.5) es la espcrande 111 fuu cióu i log /(X) de l n magnitud a leatoria X. Por eso ln definición (7.2.fi) de entropía ele unn magnitud aleatoria ~;i uiat.emálica

Cap. 7 Entropfti ~ l11/ormad1in

continua se puede escribir también en la forma JI ... -M ¡• log f (X)J.

(7.2.6)-

Puesto que el origen de la entropía ha sido cambiado arbitrariamente al deducir las fórmulas (7.2.~) y (7.2.5), l a entropía de una magnitud aleatoria continua puede ser tanto positiva como negativa. Análogamente al pasar de la escala termométrfoa absoluta, por ojer.npl o, a la centígrad a, obtendremos los valores de temperatura t anto. positivos como negativos. La fórmula (7.2.6) determiua tanto la entropía de una magni t ud aleatoria continua escalar como la de un vector aleatorio cuyas. coutponeutes son magnitudes aleatoria:¡ continuas. La fórmula (7.2.5) puede servir también para la determinación de la entropía de un vector aleatorio continuo, si la variable x se entiendo como vector(es decir, como un conjunto de varias variables) y la integral, como. integral múltiple extendida a todo el dominio do valores posibles del vector aleatorio X. En forma desarrollada esta fórmula se escribirá así:

"'

11 = -

)

...

J/(:r,

1 , ••• ,

x.,) 2 log / (x1• • • • , x,.) dx 1 •

••

d:c,.. (7.2.7)

Es fácil comprender que lo entropfo de una magnitud aleatoria. depende sol amente de la distribución de las probabilidades do sus: valol'es y no depende de la disposición de esta distribución con respecto al origen de coordenadas. En efecto, la integral (7.2.5) O<> cambiará si en eJla se efectí1a lo sustHución do Ju variable :r; = = y - a. Esto quiere decir que las magnitudes aleatorias X y Y = = X + a tienen la misn10. entropía para cualquier a. En particular,
..

x•

1 /f(XJ =- - -Í .-W' V2nD J

_

rero 1 -

.r -...

V "t.nU -oo Por lo tanto,

e

2D d.i=-1,

( -1- 'log2nD-.=:, •log •) 2

W

d:r:.

,8 7 .2. Entropía de una ma¡mitud alt a.loria

28T

Eitmplo 7.2.2. C.o entropía de la distribución uulforme, ~n vlrtud de (7.!!.5)b

ll [XI "" -

1 f - 1-21og- d;z=2Jog (b-a). j b- a b- a a

l::femplo 7.2.3. Para l a disuibución oxponcncial J (x) "" la ent.ro)lla se determi na por la fórmula 11 IXI=

-

Io k•-•r

kt-b (z

>

CJ)

(2Jog k- kz2Jog •) dx.

..J

;zke-•"dz=M(.Yl = f .

)'01·

con ~igu irml~,

JI [Xf ~ _ 2Jog k + tJog < = 2Jog

"f.

l\l!Ís ndelante veremos que una imporLantísima tarea práctica C!5' hl estimación de la variación de la indetermi nación de la nwgnlturl aleatoria X después de efectuar el ex peri mento como resullado dcr cunl se hace conocido el va lor de otra magnitud aleatoria Y. lntuiti v:>mente está claro que la indeterminación de la magnitud aleaturi a X disminuirá si las magn itudes X o Y son dependientes y perm11 neccrú invariable si dich as magnitudes son independient e~. A con tinuación veremos que esto es precisamente así para nuestrn definición de la med ida de indeter minación de una rnagnitud 11lea· tori;1. Para estimar la indeterminl\ción de la magnitud olcalnri n X , quo queda despu6s de observar Ja magnitud aleatoria Y , conviene iulrotlucir la noción de entropía de la magnitud aleatoria X con re~pcc­ to 11 la magnitud Y. Es evidente que para est.o es suficiente s ustituir e11 la fórmula (7.2.1) las probabilidades de los "ªlores de la magnitud X por los probabilidades condicionale.-; corrcs11ondien tes. Scun. X e Y dos magnitudes aleatorias discontinuas y p 1¡=P

( ~:;~ )

(i= 1, . . ., n; j= 1, .. ., m.), (í .2.8}

En virtud del principio de ad ición de probabilidades, las probabilidades no condicionales de los valores de la magnitud Y se det.ernii · nao por Ja fórmula

,,

q1=P(Y=y¡)= ~ p,¡, 1- 1

(7 .2 .!J~

Cap. 7 l!:ntr<>pía

üt}t,,.mar.i6n

t

y aná logamente las probabilidades no cond icionales. de los valores de la magnitud X se determinan por la fórmula m

p¡ = p (X= X¡)=

'3

n

}j

PIJ1

i"'l



i ""\

= 1.

(7 .2.10)

Las probabilidades condicionales de los valores de la magnitud .aleatoria X con respecto a Y ser án

"

P1J=P(X=x1IY=Y1)=fll., 2::P1¡ = 1, q¡

i=I

(7.2.1'1)

y las probabilidades condicionales de los valores de l a magnitud aleatoria Y con respecto a X serán (7.2.12)

Según l a definición (7 .2.1) la entropía condicional de l a magnitud aleatoria X para el valor ciado y 1 de la m agnitud Y se determinará por Ja fórmula

"

lf IX j y;f = - 2j PtJ 2 Jog P 11(j =1, .. . , m).

(7 .2.13)

!=i

La entropia condicional de Ja magnitud X dopende del valor que toml\ la magnitud Y, es decir, ella misma es u na magnitud aleatoria. Por meclida de indeterminactón de la magnitud aleatoria X. que qued11 después ele observar la magnitud aleatoria Y , se toma la esperanZ(I matemát.ica de l a entropía cond icional

"'

1-I y IXJ = M [H rx 1Yll = .}j q¡Ef \X 1y¡]. J=i

Sus~itl,ryendo

aquí la expresión (7.2.13) de l a entropía condicional

y (om~ndo en consideración (7 .2.11), obtendremos

ífy[XJ= -

z: "

i=i

m

~_; p1¡ 2log P¡¡ .

(7 .2.1~)

;,::.1

Esta magnitud se llama entropía condicional media de la magnitud aleatoria X con rospecto a Y . De un modo análogo se determina la entropía condicional media
i-

'ffl

¿; P1J 2 logQ11 . t i=I

Hx lYJ= - ~

(i .2. 1.) )

Para determinar la entropía condicional de la magni tud aleator ia continua X coa respecto a la magnitud al'oatori n coutinun }'",

.§ 1.2. Entropía lle

Ullll- IMf{rtitud

aleatoria

281!

.Qast11 sustituir en la fórmula (7.2.5) la densidad, de probabil_idad de l a magnitud aleatoria X por la densidad de probabilidad condicfona:l correspondiente / 1 (x 1 y}. Entonces obtendremos

..

H[X I YI=-

I f,(xly)

2

logf 1 (xjy)dx.

(7.2.16)

Esta magnitud clepende del valor y de la ma~ni.tud aleatoria Y.. Para determinar la· entropía condicional media de la magnlt11d a,I~­ atoriá X con respecto a Y, se debe multiplicar .l a e;(P,resión (7'.rt~) por la densidad de probabilidad f 2(y) de la m:agniiµd aleatoria. Y e integrar con respecto a y. Como resultado ·ohtendi;emos 00

lly!Xl=M'[fl!XIYIJ=

00

J J fz(y)/t(xjy)=logfdx j y)dxdy.

-oo -oo

Pero

f2

(u) f1 (x 1 y) =

f

(x, y)

es la denfii
00

~

-QO

- co

Jj

f(x , y) 2 logf 1 (x j y)d:.cdy.

(7 .2.17)

Esta fórmula p1Jede ser re11rosentada también en Ja forma

H 11 IXl = - M ¡z log f 1 (X 1Y)I.

(7 .2.18)

Si !ns magnitudes aleatorias discontinuas X e Y son indepundientes, entonces p¡¡ = P1•JJ• P11

y (7.2.1:l) dan

= p ¡, QiJ = q¡

Il u IXI =JI !XI, Ji,. [Yl

=H

y

las

IYJ .

fórmula ~

(7.2.14)

(7.2.'19)

Lo mismo en. el caso de las magnitudes continuas independientes X o Y, sus densidades condicionales de proliabilidad coinciden con las c-orrespondientcs densidades de probabilidad no cond iciouales y volvemos a obtene.r las fórmulas (7.2.19). Así pues, si las magnit11des aleatorias X e Y son independientes, todos sus entropías condicionales y las entropías condicionales medias coinciden con las correspondientes entropías no condicionales. Jfo el § 7.4 demostraremos que si las magnitudes aleato rias X e Y son de11endicntcs, la magnitud condicional med ia de cada una de cllru; con respecto n ln oti·a e:; siempre meno.r que la corrcsJlondientc entropía no conllicio· nnl.

290

Cap. 7 Entropfa e tnfomu:&IÚll

Ejemplo 7 .2.4. Las magnitudes aleatorias X e Y tienen distribución conjunta normal. Hallar la entropía de la. magnitud al eatoria X y su eotropln condicional me1lia con respecto a Y. CoJUo, según lv demostrado on el § 3.6, las uistribuciones condic.ionales y no condic ionales d ~ l as cnmponento do un vector aloal.orio DOTmalmcnt11 Tepartidn son normales, entonces, 11era calcular la entropía y In entro11ia condicio nal de la magnitud al11al-0ria X. se puede aplicar la fórmula deduoida en el ejemplo 7 .2.1. l'uosto quo conforme e> (3.G. 11) la dísp~rsión condicional de la magnitud aleatoria X 110 depend e del valor 11 de la magnitud Y, la entrooia condicional mndia do la magnit ud X Clln re:ípectn a Y coinci re partido roormalmente, hallamos //(XJ=~log

., ¡ -

--

1

2rttC•a

v2mrl>[XJ= - 9log • 1 2 CJ t C12- C1t 1 2nt Hu (XJ='log V2mlJ [X 1YJ=T 'log-. ~

Al rom¡inrnr

,

'11

fórmulas, vemos 11ue la P.ntropía condicional medio lle 111 magni t ud X r.on respecto ~ Y es menor que~" CJ1lropla no condicional si cu + O, M clccir, si lnR mpgni\.ucles X e Y sou depend iontns. S i X o Y 5'lll i ndepenrlient.us. entonces c12 = O y la entropía conJiclonal mt'
Examinemos ahora dos magnitudes aleatorias discontinuas X e Y y hallemos su entropin conjunta, es decir, la ent ropía del vector

aleatorio con las componentes X , Y. Según la definición ella e.5 H [X, Y ¡ = -

¿;n L;'" PIJ ~log PIJ·

1- 1 1-1

Pero p 11 = p 1QIJ [véase la fórmula (7.2.12)1. P or lo tanto, n m 11 IX, YI = - 2~ ~ p;j (Zlog p1 + 2JogQ;j} =

·-·;-1

n

m

1- 1

j= I

= - ~ ( }j P11) 2 tog p¡ -

n

L.

i=l

tn

~ PtJ 2 log Qu.

(7 .2.21))

;~ 1

Observemos nhora que cooforme a (7.2.10) m

~ p;¡ = P1

1-1

(i = 1, .. . , n).

Por eso el primer sumando en (7.2.20) es la entropía de In mngul tud aleatoria X. El selfUndo sumando, en virtud de (7.2.15), representa la entropía condicional media de la magnitud aleatoria Y con respecto a X . Por consiguiente, la fórmul a (7 .2.20) puede ser escrita en l a forma lI IX, YJ = R !XI+ H ,, [YJ. (7.2.21) En virtud de Ja simetría se puede tamb ién e.~crib ir II [X, YJ =ll IYI +Hy IXI.

(7 2.22)

§ 7.$. Propiedad extrema! dt la distribución

"º"'"ª¡

2Jlt.

Asi pues, la entropia del conjunto ·de dos magnitudes aleatorias es, igual a la suma de la ent ropia de una de ellas y la entropía condicional media de la otra. Si l as magnitudes aleatorias X e Y son. independientes, las"igual• dades (7.2.21) y (7.2.22), en virtud de (7.2.19), toman la forma

R [X, Yl = H [XI

+H

IYJ.

(7 .2.23)

De este modo, l a entropía del conjunto de dos magnitudes aleatorias independientes es igual a la suma de sus entropías. Aplicaud9 el método de· ,induc.c ión, mate.máti.c~, .se: pue.de e.#en~ der las fórmulas (7 .2.21) )(.(7.. 2.22~·a. ui;t núlnel'o ~rbitrario '
11 IX 1,

•• .,

Xnl = Il lX.l + J1 ,., IX2l

+ .. . -+

H,,,, . .. ,,,,._, IX,.l. (7.2.24)

Si las magnitudes aleatorias X l> ... , X,. son independientes, la fórmula (7 .2.24) tomará l u forma n

H¡X., .. .• Xnl = l;H[Xd .

(7.2. 25)

i=ot

§ 7.3. Propiedad extrema! de Ja distribución normal Demostremos ql1e entre t odas las magnitudes aleatorias que ti enen la misma dispersión, las magnitudes aleatorias normalmente repartidas son las que ¡1oseen mayor entropía. En el ejemplo 7.2.1 liemos calculado ya la entropía de distribución norma l 1

_..!!..

f ,v(xl = v2nf) -ª w .

(7.3.1 }

Puesto que (7 .3.2) In entropía de la magnitud alcatoi·ia X puedo ser represc11tada por la fórmula

H IXJ =

f / (x) 1og /,,. (:e) d.'C =

"" -

N'

1

00

=

f (1og 2nD) f f.v (x) d:c+ 2~1 (2 loge) f x f 2

2

-~

-~

N

(x} dx.

(7 .3.3)

292.

~

Cap . 7 Hntropta

!n/hrmaciini

Examinemos ahor<1 la magnitud ulcatoria arbitraria Y que tiene la esperauzu matemática igual a cero y la misma dispersión D que Ja magnitud aleatoria normalmente repartida X. La densidad de probabilidad f (y) de la magnitud Y satisface la condición

..

..

--

-oo

...

) y 2 f(y)dy=) x 2 f(x)dx=) x2 /,y(l:)dx=D. --

(7 .3.4)

l'or lo tanto, en ambas integrales del último miembro de la fórmula (7.3 . .'í), la densidad nor.mal de probabilidad IN (x) puede ser sustituida por la densidad de probabilidad f (x). Entonces obtendremos lI !XJ

,~

..

..

T(log 2nD) r f (x) dx+ +(loi;r e) J x f (x) dx = 2

2

-~

2

-~

=-

""

J[ -{ ªlog (2rr.D)- ~

..j f

2

log e] f (x) dx

o bien, teniendo en cuenta (7.3.2) /J [XI= -

(x) 9 log fN (:e) dx.

(7 .~~.!:í)

Ahora bien, la densidad de probabilidad de una magnitud aleatoria normalmente repartida en la oxpresión de su entropía, fuera del signo del l ogaritmo, puede sustituirse por l a densidad arbitraria de probabili dad a la cual corresponden la esperanza matemútica igual a cero y la misma dispersión igual a D. Rest ando de la expresión (7.:1.5) la expresión M

~ f (x)ilog / (:r.) dx

H [Y]= -

- oo

de la entropía de la magnitud aleatoria Y, obtendremos

lf!Xl - H[Yl=

..J

/{.:i:) 2 log /,..,<~;) dx .

(7 .3.<J}

Apliquemos ahora la desigualdad (7.1.6). E11 virtud de esta desigualdad podemos escribir 2 1og

f (r.} :-;:;,,

/;.;(:i:)""'

[1 -

fr; (:r) /(x)

J log 2

e

.

(7.3.7)

§ 7 .11 . ln/ormad6n qu• ·••
293

Dado que la dousidad de probabilidad f (x) no puede ser negaiiva, entonces de (7.3.7) ~e deduce que (·

J

2 loge f /(.x)~log~dx# /,y (x) J

-~

/(x)

[1- ft1f (r)(r)J dx=

-~

= ~loge[

00

..

-cio

- oo

f f(x)dx-)

/.v(x)dx J=O.

As[ pues, el segundo miembro de la f6rmulo (7.3.6) no puede ser negativo, d e donde se deriva que 11 !XI ~ H IYJ. (7.3.8) En (7.1.(i) el signo de igualdad tiene lugar solnmente en el caso cuand o u = 1 . Por lo t anto, también en (7.3.8) el signo de igualdad tendrá lugar sólo en el caso en que la densidad do probabilidad f (x) coincide indénticamente con la dens idad norm al de probabilidad IN (x). Esto el! io que demue~tra que l a distrihución norrnul lienc mnyor entropia que otra distribución cualqu ier11 correspondiente o la misma d ispersión. De un modo 1tlJsolutamente análogo se demuestra que entre todas las distri buciones que ticnon el mismo .inter valo limitado de valores posibles ele unn magnilud nleatoria continua (a, b) b

i /(x}dx=1 ,

(7 .a.U)

"

Jo distribución uoiforme en el intorvnlo (a, b} posee la mayor entropía. Con ay uda del rrusmo método Re demuestra qu e entre t odas las magnitudes alea torias cont inuas positivas con la misma esperanza matemática m

..

...

r

f(x)dx=1,

J

x/(x)dx=m , (7.3.10) o o las magni tudes r epar t idas por la ley exponencial poseen l a mayor entropía. Le proponemos al lector que por sí mismo demut>stro est,ns aserciones en calidad de ejercicio útil. ~ 7.4. lntormacl6n que se contiene en las magnitudes aleatoria.."

Para eliminar por completo l a indeterminación de una m ngni tu d alea toria, es necesario efectuar u n experimenlo y determinar el volor que ésta toma. Sin embargo, en lo práctica l a magnitud aleo to-

294

Ca¡>. 7 Entropia e. informaclon

ria X, que nos interesa, a menudo no se puede someter a una observaciór1. Bo tales caso.<; tenemos que contentarnos con la observación de o ~ras magnitudes aleatorias y por los resultados do osta observación sacar conclusiones aellrca de la magnitud X, es decir, obtener la información sobre la magnitud X. Si esto es posible, se dice que las magnitudes aleatorias que se observan contienen información sobre la magnitud X. Intuitiv romente está claro qu.e la información sobre la m11gnitud aleatoria dada X I!\ puedon contener MlamentA magnitudes aleatorias ligadus de uno u otro modo con dicha magnitud X, es decir, dependientes de X. Las magnitudes aleatorias independientes de X no pueden contener ninguna in.formación de X. Ahora bien, se puede decir que la información es una de las formas de manifestación ele la dependencia entre las magnitudes aleatorias (o entre fenómenos mús generales). Es natural que corno merlida do cantid::1d de información :so!Jre la magnitud aleatorl a X que se coot.ieoe en la magnitud aleatoria Y se toma la disminución de la indetermina¡;ión de la magnitud X ohtcnida como resultado de la observación de la magnitud Y , es decir, la diferencia entre la entropía de ln magnitud X y su entropía condicional media con respecto a la magnitud Y. Partiendo de estas consideraciones, la cantidad de información sobre la magnitud aleatoria X contenida en l a magnitud aleatoria Y se det.ermina por la fórmula I , !XI =H CXI -Hv IXJ.

{7.4.1)

La iutuición nos sugiere que la cantidad de información no puede ser negativa. Demostremos esto. Par11 ello basta mostrar que la entropía condicional .media de unn magnitud aleatoria no puede sel' mayor que su entropía no conclicional. Para simplicidml, nos limitaremos ni caso de magnitudes discontinuas X , Y. No obstante, esto se pue1le demostrar tambión. de un modo absohit.amente semejante, referente a magnitudes aleatorias r-ontinuas. Sean X e Y dos magnitudei; aleatorias discontinuas cuyos valores de probabilidad se deterrii.inan por las fórmulas (7.2.8)-(7.2.12). La entropía condicional media de In magnitud aleatoria X con respecto a Y, en virtud de. (7:,2,1:4), se determina por la fórmula JI u [X] = -

" ).i "' Pii ' lo!{ P1J·

~

i=I

(7.4.2)

J~l

Aplicando la fórmula (7.2.10), reduzcamos la expresión de la entropía no condicional de la magnitud X a la forma n

ll IXJ = -

~ p¡ ~log P1 = -

f =l

,~

m

2: l=• ~ p;¡2 log p,.

1~1

(7.4.3)

.9 7.4.

lnfor111ación qut st conlitn~

tll

las m4¡;niludti aleatorias

2.95

Restando miembro a miembro la fórmula (7.4.2) de la (7.4.3), obtendremos

11 fXl-H u IXI

n

m

i=I

1-1

="'L.J "1· p L.J

11

1

1ogfu /JI

o bien, teniendo en cuenta (7 .2.11)

" "'

H [XJ-lf11 [Xl= "' "' pfJ 2 logBL. L.J L.J Pl'IJ

i-•

i= l

(7 .4.4)

En virtud de l a desigualdad (7.1.6) ' log...E.!.L p . p¡gJ

2 loge. (i-filL) PI/

(7;4.5)

De (7.4.4.) y (7.4.5) se deduce que n

"'

1.~ 1

¡ .. ,

s rx 1-Fiu!Xl :'.?i1oge ~ Li PIJ( 1 n.

=

1

"~;¡) = m

loge ( 2j ~ p11t~t

J- 1

n

m

i...;l

;. J

Li ~ p¡q¡).

(7.4.6)

Pero n

m

~ ~

i = I j=t

n

p;1=1,

~

i- J

m

n

f~ I

l~t

m

i: p ;q¡= ~PI j,_t ~ Q1= i.

Por consiguiente, la desig11nldnd (7.4.6) es equivalente a la de.s igualdad (7.4.7) II IXI -H 11 JXI ~O. En (7.4.5) y (7 .4. 7) el sig110 de igualdad puede tener lugar solamente en el caso cuando PiJ = p 1q¡ para todos los i, j, es decir, cuundo las magnitudes X e Y son ind ependientes . Así pues, hemos d11mosLrado que Ja caotidlld de inform oci6n no puede ser negativo y puede ser igual a cero sola mente en el caso de X e Y i ndependientes. Si lns magnitudes X e Y ~on dependientes, cad a una de ellas contiene unn cantidad positi va (le información sobro l a otra. ü c (7 .2.21) y (7 .2.22) se deduce que

H IXI

+ H:x lYI =

H IYI + H uX,

de donde

H IXJ - flv fXI =H IYJ -H,, IYI. Esto quiere decir que la cao\idud de información que se con\ieoe en Y sobre la magnitud X es igual a la cantidad de información

29G

Cap. 7 f : ntropla e inform11<:llon

quo se contiene en X sobre Y: l w !XI =

fx

IYI.

(7.4.8)

De (7.2.21) y (7.4.7) se deriv a t nmbién que H IX, Y) ~ JI [XI H IYJ.

+

(7.4.9}

Puesto que según Jo demostrado, la entropía condicional media de una magnitud al eatocta no puede ser nunc a mayor que su entropía oo condicional, entonces, de (7.2.24) se deduce la desigualdad n

JI

!Xs. ... , XnJ ~ ~ H !X1J.

(7.4.10)

1~1

El signo de igualdad tiene lugar en (7.4.9) y (7.4.10) solamente co ol caso d1:1 magnitudes indepondicntes. Las fórmulas (7.4.9) y (7.4.10) muestran que la entropía de un vector aleatorio no puede :ser mayor que la 8UIDA de las entropias de sus componentes y puede ser igual a esta suma solamente en el caso do componentes independien tes. De la desigualdad (7.4.10) se desprende también que entre Lodos los vectores aleatorios cuyas componentes tienen entropías asignadas de antemano, los vectores aleatorios con las componentes independientes poseen Ja mayor ent ropía. Lu desigualdad (7 .4.10), junto con la propiedad ex.tremal de la disti·ibución normal demostrada eu el párrafo anterior, muestra que entre todos los vectores aleatorios cuyas componentes tienen dis persiones asignadas de ontemano los vectores normal mente distribuidos con las componentes independien tes poseen la mayor entropía. Ejemplo 7.4.t. Hall ar la cantidad de w!ormación ncen~a de una euutponente dcl vector aleatorio normalmente repartido, C(lnteoida en ot ra componente. En virtud dn l
.!, iiog 2

C11C22

cuc.,-cf.

o blon, toI\lando en considernci6o las rolaciones (3.6. i8) y (a.6.19) entro los coeflclehtos c 11 y las füs~rslonM y el coeficiente de C(lrrelación de las compo-

neotes del vecto'r aleatorio,

1

D D

l

=~log, r.--::;. xv v1-r' donde r es el cooficiente de coruJaci6n de las magnitudes aleatofi115 X e Y.

11,!Xl=z-'logD

x

¡/_!!k, v

Se puede demostrar todavía que por .oingu.oa transformación de la magoitud aleatoria observada Y se puede aumeo tar la cantidad de información que ésta contiene sobre la magnitud aleatoria X. Con otras palabras, ninguna fu nción de la magnitud aleatoria Y puede

{I 7,4, Información que se co11tte11e en ta$ magnit udes aleatorio•

297

contener mayor cantidad de información sobre la magnitud X que Y. Solamente en el caso de una transformación recíproca univoca, ó, usando la terminología física, transfornrnción reversible, la cantidad de información queda invariable. En el caso de una transformación irreversible, la cantidad de· información disminuye obligatoriamente. Es obvio que la cantidad de información que se contiene en una magnitud aleatoria discontinua sobre si misma es igual a su entropía: I,. [XI = JI IX]. (7.4.H) En efecto, una vez efectuada la observación de una magnitud aleatoria, no queda en ella ninguna indeterminación. For ·coiisigtiienie• . su entropía condicional media con respecto a sí misma es igual a·cero.. Esto es lo que demustra a la fórmula (7.4.H). Al comparar lo fórmula (7.4.11) con (7.4.1), se deduce que ninguna magnitud aleatoria puede contener más información sobre la magnit ud aleatoria discontinua X que la misma magnitud X. Esto. está c111ro intuitivamente sin recurrir a lns fórmulas.

Capítulo 8

Determinación de las cai.·acterís ticas estadísticas según los resultados de los eAJ>erimentos § 8.1. Dolermiuación de las probabilidades de acontecimientos, las (unciones de disb'ibución y la!! densidades de probabilidad

Como sabemos, la estabilidad singular de las frecuencias de acontecimientos y de los vlllores medios aritméticos de magnitudes aleatorias es un factor experimental impol'tantisimo que sirvo de base de la Teorla de las Probabilidades y determina la posibilidad de su empleo práctico. En el § 1.2 dimos la explicación elemental de estos factores. En los ejemplos del § 3.9 los úhimos fueron explicados -teóric<1mente con ayuda de las propiedades principales de l as esperanzas matemáticas y las dispersiones de magnitudes aleatorias. La estabilidad lle frecuencias y medias, que se observa prácticamente y se desprende de los principios fundnmontales de la Teoria do las Probabilidades, da la posibilidad de determinar por vía experimental las caracteristicas estadísticas principales (l as probabilidades de acontecimientos y las esperanzas matemáticas de magnitudes a leato·rias). En todos los casos esta posibilidad se determina por el hecho de que las dispersionos de ciertas foor.iones de los resultados aleatorios .de los experimentos t.ienden a cero al crecer ilimitadamente el número de pruebas. La frecuencia ele un acontecimiento es la relación de la magnitud aleatoria (el núroero de veces de producirse el acontecimiento) al número de pruebas, es decir, ella misma es una maguitud aleatoria. En dititintas series de n expllrimentos iguales cada \loa, la frecuencia del acontecimiento tomará distintos valores. Sin embargo, la dispersión de In frecueoci11 siempre puede ser hecha tan pequeña .c<:>'trio se quiera si se realiza en la serie n un número de experimentos lo sufici.e ntemente grande. La media aritmética de la magnitud aleatoria obtenida en una serie de experimentos os uua magnitud aleatoria, puesto que el valor de la magnitud aleatoria que se examina ·es en cada prueba aleatorio. Por consiguiente, en distintas series de n experimentos iguales la media aritmética de la magnitud aleatoria prácticamente siempre tomará d iferentes valores. No obstante, tenien-do la serie un número de pruebas n lo suficientemente grande, la dispersión de la media aritmética puede ser hecha tan pequeña como .se quiera. Debido a esto l a fluctuación de J11s medias aritméticas, en distintas series de n experimentos cada una , será tan pequeña como :Se quiera siempre que n sea lo bastante grande. Así pues, al aumentar ilimitadamente el número de pruebas, las frecuencias de aconte.eimientos y las medias aritméticas de magnitudes aleatorias tratan,

§ 8.1. Detmn lnac16n d~ las pro/Jahilldadu

en ciert o grado, 'sconocidos de la ley de distribución , en par ticu lar rle la característica que se aprecia. La ostimación de 111 característica estadística so denomina fundada, l'i, al aumentar ilimitadamente el mímero de expcrirncntos, :!U esperania matemática tiend e hacia la caraclerí11tica que se nprtr cia y su dispersión iiende a cero. Si, por 1o menos, una de estns dos condiciones no se ha cumplido, la estimación se llama no f wiclada.

En la prácticn se emplean de ordinario sólo las estimaciones fu odadas, puesto que únicamente en este caso se pueue obte ner una estimación tan precisa como se quiera (es clccir, u.tia probabilidad de grandes errores ta:u pequeña como se quiera) al ser el número de .-xperimentos lo suficientemente grande.

ªºº

Ca¡1. 8 fJelerminact 6n a~ In., Crlrt
Lr1 esLimación cuya esperanza matemática, cualquiers:i que ~ca· el número de expe·rimentos, es igual a ltJ. caracteristica estadística que se aprecia se denomina no desplazada. La estimación cuya e11peran-· za maten1ática no es igual a le. caracteri~tica estad ística que se aprecia se denomina desplazada. La determinación de las estimaciones de lus ca racterí~ticas estadísticas, sus leyes de distribución y los errores admisibles con. probabilidades correspondientes es la tarea principal do un apart ado· especial de. la Teoría de las Probabilirlades denominada Estadística Matemática . La Estadística Matemática mod erna rep resenta una vasta y bien estudiada asigna tura que dispone de numerosos y eficaces métodos de investigación y a la cual se han dedicado muclios libros especiales. Eu esta breve introducción a la Teoría de las Probabilidades 110 es posible exponer ni siquiera algunos métodos. fundamentales de Estadística Matemática. Por eso nos limitamns. aquí a. los procedimientos más elementales de la determinación de las aprecillciones de las características estadísticas principales. A los lectores que doseen conocer más profundamente los mét·odo~ de la Estadística Matemática moderna les recomendamos el exc.elente· li bro do H. lntecimiento si se realizan n experiméntos. Éiltonces· l a frecuencia det acontecimien to, considerada como magnitud aleatoriá P*, se determina por la fórmula

P·= ~. (1

(8.1.2).

Al calcular la estimación de la probabilidad de un acontecimien tor la·. magnitud aleatoria X" se su.stitu.y e por su v alor m que se ha obtenido como resul tado de los experimentos. En conclusión se obtienel a fórmula (8.1.1). •) H. Kramór. Mathe"!atical Methods of St1ulistics. Prin:ct•m lln iv Press, t946 (Versi6n rusa : H. Kramer. Métodos matcmtit.icos de Estn11ística. Editorial de Literatura Extranjera , 1948).

§ 8.1. J)dtrm l nacl6n tk úu probalilllúadts

301

En el ejemplo 3.9.1. fue mostrado que IR esperanza matemática ·de l a frecuencia l'* y su dispersión se determinan por las fórmulas .(Vúanse las fórmulas (3.9.25) y (3.9.2G)I

M ¡p•¡ = p , D ¡P• J= .!!!.L, ll

(8.1.3)

·donde p es la probabilidad buscada del acontecimiento y q = 1 - p. La primera fórmula (8.1.3) muestra que la frecuencia del acontecimiento es la cs~imación no desplazada do la probabilidad del mismo. La segunda fórmula (8.1.3) muestra que la d~perslón de frecuencia es inversamente proporcional al número de expor.imento~ n. Si la calidad de estimación (8.1.2) se caracteriza por su 4esvla-ción cuadrática media, se puede decir que el error d~ la ,~estiip ación ·de probabilidad de un acon tecimiento, según la r~rmula (8.1.1), .decrece inversamente proporcional a Ja ralz. cuadrada del nóméro de experimentos a medida que aumenta este número. Así, por ejemplo, al aumentar e l número de experimentos 100 veces, el error de estima-ción disminuye 10 veces. La función de distribución de la magnitud aleatoria X representa la probabilidad del acontecimi.onto X < x considerada como fun-ción de la variable x. Por eso en calidad de 8.'JLimación de la función -de distribución de la m11g11itu1l aleatol"ia X se puede tomar la frecuencia del acontecimiento X < x calculada pnrn 1.orlos los v11lores «le x. Como vimos en el § 1.2, al realizar 1~ experim1Jntos, lu frecuencia del acontecimiento X< x siempre so representará por unll curva -escalonad11, con ello, lns a lturas de los escalones son iguales a 1/n o múltiples de este número. Para hallar la e.~timnció n de la funció n de distribución de una magnitud aleatoria continua, est<1 curva c!'\Calonada comúnmente se alisa, es decir, se sustituyo por una curva más suave. Así p ues, por esti mación de la !unción de d istri bución de unn función aleatoria X se toma generalmente [11 función obtenida median.to la diferenciación de la curva csc11lonada de lil función -0mpirica de distribución h allada corno curva de la frecuoDcin do! aconteclmi.onto X < x en [unción de x. Lo tiiftmmc.iación puede ser llevarla a cabo con ayuda de una curva 11naHtica convonionte -0 n simple vista. En el primer cnso se obtieno una expresión 1111alitica de la estimación de la función do distribución. En el S(lgumlo caso la estimación de la función de distrihució11 se obtiene en forma de una curva suave que la representa. L a derivación de la expresión analítica de la estimación d e la funció11 de distribución de une\ m11gnitud aleatorin es el mejor procedimiento par a hallar la ostímación de la densidad de probabilidnrl do la misma. Sil\ embargo, so puede encontrar Lnmbiér.i la~ estimaciones de las densidades de probabilidad por medio de la derivación gráfica de la!I curvas que representan las estimaciones de las funcion es de distribución. Por fl11 1 se p11ede hallar la e.~timación de la den-

Cap . 8 Dctcrm.f.uaci6n dP. las co.ractl!ristccas

sidad de probabilidad de una magnit,u d aleatoria, sin determinar· previamente la función de distribución, como la densidad de la fre-· cuencia con que el valor de la magnitud aleatoria va a parar en dis-' tintos pequeños intervalos del eje numérico. Para esto el intervalo, en el cual han ido a parar todos los. valores de la magnitud <1leatoda, observados como resultado ele los. experimentos, se divide en intervalos pequeños y para cada intervalo· se determina la relación entre la frecuencia con que el valor de la .r m0gnitud aleatoria alcanza est& intervalo y su longitud. Los resulJ"ig. $.1.1. tados obten.idos SI.\ representan gráíicament.e. Para e~to en cada intervalo se construye un rectángul~ cuya altura es igual a la rel ación de la frecuencia con que el valor de la magnitud aleatoria vn a parar en este intervalo a su longitud (fig. 8.1.1). A semejante gráfico se le llama poUgono de frecuencias. Para hallar la estimación de la densidad de probabilidad, el polígon~ de CrecuenciR.S obtenido se alisa con ayuda de una curva l\nalltic& conveuicnte. Como resu ltado se obtiene la expresión analítica dela densidad de probabilidad. § 8.2. Determinación de los momentos de magnitudes aleatori as

Por estimación de l a esperanza matemática de una magnitud aleatoria conviene t omar su media aritmética obtenida como resul-· tado de experimentos. Supongamos que como resu ltado de n pruebas. independientes realizadas en iguales condiciones la ioagnitud aleato-ria X ioma los :valores Xtt • • • , Xn· Entonces. la estimación 1n: de hi 131ip~ranz_a :rna,~em:ática m., se determinará por _la fórmula

t8.2.1)' La estimación de la esperanza matemática toma un valor determinado solamente después de llevar a cabo los experimentos, puesto q~1e. las magnitudes x 1 , • • • , x,. representan los valores do la magnitud aleatoria z obtenidos como resultado de las pruebas. Designemos por medio de Xu ... , Xn los valores aleatorios de la magnitud alea.toria X en n experimentos dados. Entonces l a estimación de la esperaoza matemát ica de la magnitud .aleatorfa X, considerada antes de realizar la pr.ueba comoº magnitud· aleatoria, so expresará por la

.~

303

8.2. Determinación de fo< momentoa

fórmula

" An=¿ ~X;.

(8.2.2)

i~1

En el ejemplo 3.9.2 fue demostJ;ado que la esperanza matemática y la dispersión de l a media aritmética de una magnitud aleatoria X al efectuar 11. experimentos se determinan rror las fórmulas lvéaos& las fórmulas (3.9.27)] M

[.M~J = ~'"

D

[M~I = ·n,:· ,

La

donde Dx es l a dispersión de la magnitud a leatoria X. -p~imef~ fórmula (8.2.3) muestra que la media aritmética es una estimación no despla:r.ada de la esperanza matemática de la magnitud aleatoria. La segunda iórmula (8.2.3) muesua que siempre que la precisión de la estimación (8.2.2) se caracterice por su desviación cuadrática> media, el error de Ja estimación de la esperanza matemática decrece· ioversameute proporcional a lfñ al aumentar n. La dispersión do la magnitud alcntoria X r epresenta, segúri la definición, la esperanza matemática de la magnitud aleatoria (X - m,,)z. Por eso la media aritmética de la magnitud (X - mx)\\' es una estimación natural D:, de la d isporsión D :x:· n

D~~~~ "'1 (x¡-m.,-) 2 • 1i ,c..,

(R.2.'1)-

l= I

Esta estimación depende de la esperanza matemática m,, de la ruagnitud aleatoria X. Por eso puede ser aplicada sólo on el caso on que la esperanza matemática de la magnitud aleatoria sea c-,ouocida. En este caso la estimación (8.2.4), como estimación de la esperanza matemática de l a magn itud aleatoria Y = (X - m,,)2', es una estimación no desplazada de la dispersión de la magnitud aleat.oria X. Sin ern.bargo, la esperanza matemática de una magnitud aleatoría es, como regla , desconocida y se determina por los re~ultados de los mismos experimentos que la dispersión. En tal es casos conviene sustituir en la fórmula (8.2.4) la esperanza matemática por su estimación. Como resultado, paJ"a la estimación de la dispersi1'in de la mngnitud alentorin X se obtiene la fórmula

"' ( 1 L.J ~ • l').r~n xc-ni.,;*)2 .

(8.2.5)

ic:t

No obstante, c.%0 cst.i maci.ón resulta ser desplaiatla. Para de.mostrar esta afirmación, SU$tituyamos en la fórmula (8.2.5) los valores concretos :r.11 • • • • x~ de la magnitud aleatoria X, obte.nidos como resul-

Cap. 8 Dctcrmlnaciii" de Las caractt.rí1tlca1

tad o de experimentos, por la~ magnitudes aleat.orias correspondient es X h . • . , X,, y vamos a co nsiderar In esii maci6n de la dispersión, s in enlazarla con ¡>ruebas concretas, como magn itud aleatoria:

Z,.

=*i (X; -M~} • 2

(8.2.G)

1=1

Para determinar la esperanza inatemática do esta estimación, basta todos los sumandos de l a suma por l11s esperanzas matemáticas de los mismos (véase el § 3.8). Calculemos previamente las esperan zas matemáticas do los sumandos que forman la suma de l a fórmula (8.2.6). Conformen la definición de la dispersión de una magnitud aleatoria, teniendo en cuenta que la esper11oza m atemática de 1a diferencia X 1 - 1W: es igual a cero. tenemos M¡(X1- M.~)J=DLX1 - M~J. (8.2.7) susti~ui.J"

Pero

n

X1-M':=X1-.!."" . ,, ¿,i ;-i

n

X1 =(i -.!.)X¡-.!. ~ 1X¡, n n. ,¿J ,_,

donde el índi.:e i anexo a la sum a muestra quo la adición se realiza con respecto a todos los valores del índice j ele 1 hasta n, salvo el valor j = i. Así pues, la diferencia X 1 - M: repre~en ta un.1 función lineal de n magoitucfos aleo torias Xi> .. . 1 X,.. E~tas magnitudes son independientes puesto que según la suposición los experimentos son independientes. Por eso, para cakulAT la d is¡iersión rle Ja diferencia X, - M~ se puede aplicar la fórmula (3.!).7) para la dispersión
(t 1)'D

Las fórmulas (8.2.7) y (8.2.8) muestran que las e.\lpernnzas matemáti.c:as de todos los sumandos en la suma de la fórmula (8. 2.6) son iguales. Por lo tan to , (8.2.!J) Así pues, la esperanza matemática de la estim ación de la dispersión .D,, (8.2.6) no es igual a la dispersió n D ", aunque tiende a D,. cuando a-+ oo, como esto debe ser de acuerdo con 111 definición de l a esti-

§ 8,g, Deurmina.ción de los mnmc11tos

305

mación. El resultado obtenido muestra que la fórmula (8.2.5) dl! una estimación desplazada de l a dispersión. Esto quiere ~ecir que, aplicando la fórmula (8.2.5) para estimar la dispersión de una magnl':. tud aleatoria, obtendremos un error sistemático. La dispersión resultará ser por término medio menor que Ja rea l. Para hallar una estimación no desplazada de la dispersión de la magnitud aleatoria cuya esperanza matemática es·desconocida·, obser. vemos que, en vir tud de la fórmula (8.2. 9), la es1)eranza matemática de una magnitud aleatoria n

1

Vn = n-1 -ª-Zn = -n -

-

~ (X1-l'vf'!.)~ 1~

(S.2.10)

i= I

os igual a la dispersión D.-. de Ja magnüud aleatoria X. Por eso la estimación no desp lazada de la dispersión D., de la mngnitud aleatoria X suele determinarse por la fórmula

"

D:= "~ 1 ~

(.1:1 -m1) 2 .

(S.2.11)

i=I

Esta fórmula se aplica generalmente para determinar l as dispers iones de magnitudes aleatoria,, por los resultndos de los experimentos cuando las esperanzas matemáticas son desconocidas. Aná'logamente se hallan l as estimaciones de los momentos de correlación de magnitudes aleatorias. Como, según la definición, el momento ele correlación kxu de dos magnitudes a leatorins rea los X e Y es l a esperanza matemática de la magnitud aleatoria (X - m,:) (Y - m ), entonces la estimación natura l del momento de correlación es fa media aritméticn do esta magnitud al eatoria: n

kt11=-} ~

(x1 - m..,)(Y1 - m11) .

{8.2.12)

Esta fórmula da una estimación no desplazada del momento de co~ rrclación siempre que las esperanzas matemáticas de las magniludes aleatol'ins X e Y sean conocidas. Si las esperanzas matemáticas do las magnitud es aleatorias X e Y son desconocidas, entonces l a estimación no desplazatla de su morrwnto ele correlación kx.y se ofrece por la fórmuln 7•x11 ,.. =-. .

,. _i

"

1

"" ( 3:;-mx ") ( y ; -m*) 11 ,

~

(8.'-'. ·13)

i::a l

dond e ~. m~ son las estimaciones ele las esperanzas male:máUclls de l ns magnitudes aleatorias X, Y respectivnmonte:

"

m~=+ ~ l=1

' " 2 0-0938

j :¡ ,

308

Cap. 8

D~terminactón

lk las

caracterí.~ttcas

§ 8.3. Determinación de Jos momentos de funciones aleatorias estacionar las

Al determinar las características de funciones a leatorias estacionarias, se supone comúnmente que éstas son ergódicas y se ut iliza una sola realización suficientemente l arga de la magnit ud aleatoria, obtenida experimentalmente. Supongamos que coruo rasultado de la prueba ha sido obtenida Ja l'cali:c.ación x (t) de la función aleatoda estacionaría crgódica X (t) en el inter valo O ~ t ~ T. Entonces, en virtud de lo expuesto en el § 5.5, por estimación do la espcranzn matemática de la función aleatoria X (t) se puede tomar la magnitud

·r m~=+ ~ x(t) dt.

(8.3.'1)

Según lo dcltlostrado en el § 5.5, la esper anza matemática de esta estin1ación es igual a la esper anza matemática m.., de la función J;

1

.r;(t• t) .r(t)

r'trV\Arll~

j_J~ Fig. 8.S.i.

}"ig. 8.3.1.

aleatoria X (t} y su d ispersión tien de a cero cuando T-+ oo. Por consiguiente, la fórmula (8.3.1) da u na estimación no desp lazada deJa,.~sp~ranza matemática de la función aleatoria estacionaria X (t) . .La estiinAción. de l a f¡mción correl ativa k,. ('T) de una función !!leatoria estncionaria ergódica (con r espec to a la correlativa) se determina, e'n' virtud de los resultados del § 5.5, por la fórmula

i

'!'-~

kHi:)= T~"'

lx(t)-m!'J [x(t-1-•)-m~¡dt.

Aq~í el valor medio ba sido tomado ea el intervalo (O,

(8.3.2)

T - 't') puesto que .. l as funciones x (t) y x (t+ T) son conocidas conjuntamente solamente en este intervalo (fig. 8.3.1). La fórmula (8.3.2) da la estimación de la función correlativa para 't' >O. Cuando i: < O, l a estimaci ón de la función correlativa se determina de la condición de su paridAd

J

8.9. Dettrmil'l4Ción de los

mame~.101

307

Se puede recomendar que la fórmula (8.3.2) se aplique cuando T/5. Si T tiene grandes valores, el error de la estimación cl:e la funcióa. correlativa segúa. la fórmula (8.3..2) aumentará. Si la ·esti~a­ cióa. de l a íuncióa. correlativa, obtea.ida por la. fórmula (8.3.2), tientfe con evidoncia a cero al aumentar T {fig. 8.3.2}, se considera quir J.a suposición acerca de la ergodicidad de la función aleatoria es justa. Si la estimación de la función correlativa tiene una «co1a» di.stinta del cero (fig. 8.3.3), se considera que la suposición acerca de la ergodicidad no se justüica. En estos casos conviene determinar cuál k)rJ es la causa de no ergodicidad.. Eln el § 5.5 hemos visto qile una causa tipica de no ergodicidad de un proceso aleatorio estacionario con respecto a la función correlativa es la presencia de una componente perió~· ;g. 8.S.3. dica en la propia función alea toria. Si es ésta la causa de no ergodicidnd (más exactamente, de qno atenuación» de la función correlativa), conviene separar de la función aleatoria la componente perióclica y sólo después hallar la estimación de In función correlativa aplicando la fórmula (8.3.2). Si en la función aleatoria en cuestión hay una componente sinusoidal , entonces, en virtud de los resultados de los ejemplos 5.5.2 y 5.5.3, la fórmula (8.3.2) dará en la [unción correlativa una cosinusoide de la misma frecuencia , cuya amplitud es igual a la mitad del cuadrado de la amplilud de la componente sinusoidal de la función aleatori a. Prácticamente esta cosinusoide en la forma pura servirá de «cola» do la función correlativa (fig. 8.3.3). Por. eso la frecuencia y la amplitud de la componente sinusoidal que forma pa1·te de nna funcióa. aleatoria estacionaria se determina fácilmente por lo. «cola» que se tiene en la estimación de la función correlativa. Al mismo tiempo, la fase de la componente sinusoidal puede ser determinada sólo por selección procurando obtener que desaparezca la componente periódica en la estimación correlativa. En el caso de que en la esti· maeión de In func.ión correlativa haya una componente periódica no sinusoidal, conviene descomponer esta última en 1a serie de Fourier en los cosenos de las frecuencias correspondientes al período. Con ello, serán determinadas las amplitudes y frecuencias de las sinusoides correspondientes que forman parte de l a propia función aleatoria. Las fases de estas sinusoides se determinan seleccionándolas por turno de modo que se logre la desaparición de las cosinusoidcs correspondientes en la ~cola~ de la función correlativa. De un modo absolutamente análogo se baila l a estimación de la función correlat iva recíproca de dos funciones aleatorias estacionarias y estn.cionariamcnte ligados X (t) y Y (t). Si se supone que estas

•<

~;

2Ü"

HOS

Ca p . 8 Dett:rmi11(JciV11 tl11 las curactcrÍ$ticas

fm1ciones aleatorins son orgóclicas con respecto a la función correln.tiva recíproca, entonces la estimación de esta úllima a hase de un p11r de realizaciones x (t) e y (t) de las funciones 11leatoriM X (t) e Y (t) i1notoda.'l en el intervalo O < t < T se determina por la fórmul a

k~v (i:) = r ~ ~

T- t

J [x (t) -m~J

{y (t

+•)-mil dt.

(8.3.3)

Es ta fórmula ofrece la estimación de lu función correlativa reciproca para T > O. Cuando ;
111~ -e: 1~ ~

X (

i/1 -

~)

i~ 1

+~ n

lÍ =

;e ( if:> -

~)



i~1

Poniendo aquí, para abreviar, que X¡ =X

(i6 -

~)

(í= 'l ,. , ., n) ,

obtendremos para Ja estimación de la esperanza matemática de la

funt
(8.3.5) A.nálogamento, para las estimaciones de la función correlativa y de la función correlativa recíproca obtendremos las fórmulas 11 -Jll

k.~(m.ó)= n-ni --"" ¿; (x;- 1n:)(xi+m -m.~).

1

(8.3.6)

i;. f 1

n-m

lr~¡,(mA)= - kJ "'1 (x1-m:) (y1.¡.m- m~). n-m

(8.3.7)

§ 8.3. Dtt•rml11aci611 de los """"'"~

309

Pasemos ahora a determinax las densidades espectrales de funciones aleatorias estacionarias. Como procedimiento mós sencillo para halla.r la estimación de la densidad espectral de una funciórl alea-

toria estacionaria puede servir l a aproximación previa de estimación de Ja función correl ativa de una de las tres funciones corrolatívas tipo, examinadas en l os ejemplos de los §§ 5.2 y 5.3, o de l a combinación lineal de tales funciones, con determ.ioación sucesiva de la densidad espectral por las fórmulas (5.2.22) ó (5.3.9). Con ello, l a estimación de la densidad espectral se obtiene en forma de una !unción racional fraccionaria, lo que es muy cómodo para resol\'~r los problemas prácticos para los cuales se determina la densidad espectral. En virtud de los resultados del § 5.5, la estimaciól) de la ·.fo~nción correlativa de una función aleatoria estacionaria, ergódica con respecto u ln función correlativa K;(T) ...

T~'T

T-1'

Jo Xº{t)Xº(t -+ -r)dt,

tier.de a ln [unción correlativa k,. ('r): lim le (-r) = kx (-r),

(8.:U:!)

(8.3.9)

T-oo

en el sentido de que la esperanza matemática del cuadrado de la diferencia entre K~ (i;) y k:c (-r) tiende a cero cuando T-+ oo. Surge l a pregunta: ¿Se podría determinar la esti mación de la densidad espectral sustituyendo en l a fórmula (5.3.9) directamente la estimación de la función correl ativa calculada por la fórmu la {8.3.2)? Con ello, es necesario sustituir en la fórmula (5.3.9) el intervalo infi nito de integrnción por el finito (-T, T), puesto que, por la realización de l a función aleatorL de longitud T, es imposible determinar por la fórmu la (8.3.2) la estimación de la función cor relativa para 1.- 1 > T. Para resolver la cuestión planteada, es necesario hallar la esperanzo matemática y la dispersión de la fun ción aleatorin 1 s ;(cll)= 2n

1K~('t°)COSCJ>'td1:= ~ 5

( K;(-r)cosrotdi;. (8.3.10)

-T

Es fúcil ver que, en virtud de las fórmulas (8.3.9) y (5.3.9), la esperanza matemútica de la función aleatoria ~: () tiende hacia la de11sidad espectral s,. (CJ>) de la función aleatoria X (t) para T-+ oo. No obstante, en el caso general, la dispersión de la función aleatoria S~ (ro) 110 tiende a cero cuando T-+ oo. Por lo tanto, la función {8.a.10), obtenida como resultado de la transfor mación de Fourier de la estimación de la función correlati va, es wrn estimación no fundada de la densidad espectral y por eso priicticaroente no puede servir de estimación de dicha densidad.

3t0

Cal'. 8 Determinación de las caracterfsliciu

Para hallar la estimación fundada de la densidad espectral valién· dose directamente de la estimación de la función correlativa, sin aproximarla previamente por Ja expresión analítica, observemos que para la función aleatoria normalmente repartida X (t) la función s~ ((1)) posee la propiedad de que para cualesquiera (J)¡ y (1)2 fijas*) fon '.2'-N>

Js: (w) d(J)""' Jr s.• (úl) d(J).


"''

ti)I

(¡)l

(8.3.11)

En (8.3.11) el limite debe comprenderse en el sentido do que la esperanza matemática del cuadrado de la diferencia entre las integrales en (8.3.11) tiende a cero para 1'-+ oo. En virtud de (8.3.11) se puede considerar prácticamente que, cuando T sea suficientemente grande, será válida la igualdad aproxi mada

""Js~ ( ~ ""Js.~ (c.>) dw

(8.3.12)

Ct>i

WJ

independientemente de la realización posible de la función aleatoria X (t) utilizada para el cálculo de la función S~ ((J)). Poniendo en (8.3.12) ro 1 = CJlo - a, úl 2 = ro 0 + a , para un valol' de a Jo suficientemente pequeíío, obtendremos ~rj-"

~ s., (ro) dw ~ 2as,, (ti.>~).

(8.3.13)

Wl)-Ct

De otro lado, en virlud de (8.3.10) roo+« r S~(c.>) KHt) sen(wo+ci)T-;son (©0-a.) T du=

J

O>o-a;

dw =+)

o

r

-_ n2

JK* ( ) cos
1:

T

1:.

(8.3.14)

o

Sustituyendó l as expresiones (8.3.13) y (8.3.14) en (8.3.12), obtendremos después de .d ividir por 2a

+J 7'

IG(•) COSúlo;~ona:t d't~s.,(wo)•

(8.3.15)

u

1') Véase J. L. Doob. StochaHic Process~. Iohn Wiley, 1953, chapt. 10, § 8 (Vc1·sión rusa: J. L. Dooh. Pi:ocosos probal>ilísticos. Editorial de Lif.eratura

Extraujera, 1%6, cap. 10, § 8).

au

§ 8.8. Dtltrmlnaeión de lo• momonto1

De aqu! se ve que de estimación fundada de la deo.sidad espectral de una función aleatoria estacionaria X (t) puede servir la función 1

• ( )

Sx.

(O)

1 ""'n

\ k* ( ) cos wi: sen

~

"

T

etT

Ct'f

d

(8.3.16)

't,

donde ~ (• ) es la estimación de la función correlativa calculada por la fórmula (8.3.2). Al deducir la fórmula (8.3.15), fue a plicado el teorema de la media a la integral del segundo miem bro de la igualdad (8.3.12). Tenemos derecho a hacerlo siempre que la densidad espectral s,, (Cll) sea continua en el intervalo (w 0 - a, w 0 et). Sin embargo, e.l t.corema de la media no se puede de ningún modo aplicar a fa i ntég'ra.I del primer miembl'o de lo Igualdad (8.3.12). Esto se expficii por•el carácter especial de l a función aleatoria (ro). Todas sus realizaciones son funciones que oscilan rápidamente en una gran gama. Adeuuis, siendo T lo suficientemente grande, sus realizaciones, en un intervalo tan pequeño como se quiera (Cll., (l)z), realiuin en amplios limites una infinidad de oscilaciones caóticas. Por eso el valor de la función aleatoria .§; (w) en el punto w 0 es aleatorio, tiene una gran dispersión y debido a esto no puede ser tomado por su media en este intervalo. Por este mismo carácter de la.s r ealiiaciones de Ja función 1d eat.oria (ro) se explica el hecho de que la igualdad (8.3.11) es vólicln , mientras que la propia función aleatoria s~ (w), cualquiera que se11 el valor ro, no tiende hacia el valor correspondiente de l a d ensidad espectral s,, (w). Como resultado de la integración, las oscilaciones de l o funcióu aleatoria S;. (w) se aligan, y al ser T lo suficientemente grande , cuando el número de oscilaciones en el interv11lo (w1o 0 - a, 6> 0 a). Por eso 1a magnitud a debe ser elegido lo suficientemente pequeña para que la densidad espectral s., (co) puoda ser considoradn aprox.imadamente como función lineal en el intervalo (úlo - a, (1) 0 + a). Ahora bien, la magnitud a debe :ser escogida en lo fórmula (8.3.16) satisfaciendo dos requisitos contra-

+

s:,

s;

s;

+

s;

3\Z

Cap . 1/ O etermhuuiiin dt fot eararttrlltlca•

dictorios. Es evidente que estos requisitos los satisface el mnyor vnlor do a para el cual la rlensidad espectral s., (c.>) puede ser considerada aproximndamenle lineal en cualquier intervalo de frecuencias ele longitud 2a. Prácticamente la magnitud conveniente de a se determina por selección. De un modo semejante, para la estimación de la densidad espectru l recíprocn lle dos funciones aleatorias estacionarias y estacionariamente ligadas X (t) e Y (t) se obtiene la fórmu la

S~v (< >) = 'l~'
T

J

/.:;y

(T) e-

1"''

-T

so: ~'t

d't.

(8.::1.17)

§ 8.4. Determi nación de los momentos Je fu nciones aleatorias uo estacionar las

El cálculo de la estimación de la esperanza matemática ele u11a función aleatoria estacionaria, valiéndose de la fórmuln (8.3.1), se puedo considerar como alisado de su rcalii;aci6n obtenicla como .z:

t'

Fig. 8.4. t.

Pig. 8.4.2.

rcsullndo del experimento (fig. 8.4.1). Es natural que surja la idea de gencrnliiflr este procedimiento para las Iunciooes aleatorias no estacionarias y c!.eterminar lo esperanza matemática ue una función alillitoria: no · estacionaria alisando una de sus real iz11cioncs (fig. 8.4.2). Esto es completamente posible si la realización de uno funci6o aleatoria X (t), obtenida como resultado del experimento, iis lo suficientemente larga. En esle caso el alisado de la realiz11ción puede ser efectuado a simple vista o bien aplicando cualquier otro método de alisado de funciones. Para alisar n s imple vista, es neeesario construir la realización obtenida (o anoLarla directamente durante Ja prueba) en una escala lo suficientemente pequeña por ol eje de 111 variable independiente, para que se maniíicste lo más claramente posible la bando llenada por la realización . Trazando a Bimple vista la línea axial de esta banda, obtendremos precisamente la curva que puede ser tom11da por estimación de la esperanza tnAtemática do la íunci6n aleatoria.

§ 8.4. D.termi11acl hn de /.f)s mome1.tos

313

Para alisar con ayuda de calculadoras digitales o calculado1as manuales, se puede aplicar el método de la media móvil. Este método consiste en ·que ·por valor alisado ·de l¡¡. función en cualquier punto t se toma s.u media en cier to intervalo con centro en el punto t. Al variar t, este inter\lalo se mueve a lo largo del eje t que es lo que ex·p lica· el nombre dado a este método. Aplicando el método· de lá media móYil, obtendremos para la estimación de la esperanza mate• mática de una función aleatoria no estacionaria l a fórmula

m~= 2 ~0

l+To

Í

(8.4.t) x(s}4s. 1.=r0 Cuanto más ~randa sea el iritervalo 2T0 ·e·n ésta :fórmula :fa:nto "i:nej
Kx (t

+ T, t) =

ftf [Xº (t

+ T)

Xº (t)

(8.4.2}

En virtud de esta igualdad, la estimación del valor de la función correlativa, cualquiera que sea el valor fijo de T, puede ser obtenida alisand.o la realización de la función aleatoria

ZT (t} =[X (t+"f} -M~ (t + T}l [X (t)-M; (t}],

(8.'1.3}

que se considera como función de ,-. El alisado puede llevarse a cabo a simple vi:sta, trazando la línea ax ial de la banda cu la cual osciit1 la realización de la función aleatori a o bien aplicando cualquier otro método de alisado de funciones. Al utilizar para el alisado ol método de la media móvil, obtedremos para la estimación de la función co21-osss

Cap. 11 {)e/ermlnac(clrt de tus t:arar.terístlcas

rrelntiva la fórmula

K~(t +i:, t)= 2~

1

"t+ T1

J [x(s+-r)-m~(s+-c)] [x(s)-~(s}]ds. (8.4.4)

t - T1

La magnitud T 1 debe ser elegida lo más grande posible, pero tal que el valor de la función cor.r elativa para el valor dado de -e, considerado como función de t, pueda ser estimado aproximadamente como función lineal en cualquier intervalo de longitud 2T 1 • Conviene subrayar que la determinación de la esperanza matemática y de la función correlativa de una función aleatoria no estacionaria aplicando el método de alisado es posible solamente en el caso en que la longitud do la realización anotada supera considerablemente el intervalo de correl ación de la función aleatoria. Noobstante, en este caso la precisión de las estimaciones obtenidas de tal modo será considerablemente menor que en el caso de funciones. aleatorias estacionarias puesto que los intervalos de mediación en las fórmulas (8.4.1) y (8.4.4) 2T 0 y 2T 1 deben ser por necesidad considerablemente menores que l a longitud de realización T (cinco veces. por lo menos). Al determinar l a esperanza matemática y la función. correlativa de una función aleatoria estacionaria, como intervali> de mediación se toma prácticamente toda la longitud de realización. Por eso las esperanzas matemáticas y las funciones correlativas de funciones aleatorias no estacionarias deben determinarse, como regla,. por varias realizaciones. Pnra determinar la esperanza ma temática y la función correlativa de una función aleatoria no estacionaria por varias realizaciones de la misma, obtenidas experimentalmente, se recomienda emplear para cada realización el método de alisado expuesto anteriormenteY tomar las medias aritméticas de los resul tados referentes a distintas realizaciones. '. .. Por el método de alisado de uno o varios pares de realizacioné& d:e· dps ·funciones aleatorias se determina de un modo semejante la funció.i:i. correlativa _recíproca de l as mismas. · ·$tibray~,mqs ·~na vez más que el método.de alisado de u.na o varias r.!i.aJizl!¡:'iones· .se puede utiHzar para hallar las estimaciones de las espei:ai'i'za~· ri)°at~miiti9as · y fünciones correl ativas .de funciones aleatorias:i!iolam·~níe: en· el caso'·en que los intervalos de coi:rel aci6n det.odas 111s funciones aleatorias ·anotadas son pequeños en comparación ci;mJ a ·longitud. de ¡as fUncioiies ese ha manifestaao bastante bi~n~ y para .hallar las esperanzas matemáticas y las funciones correlativ.as reciprocas se puede emplear el ··método de alisado .de las

§ 8.4. Determinación de los momentos

315

realizaciones expuesto anteriormente. Con ello, cuanto más O!lci laciones caóticas efectúen las funciones anotadas en el intervalo de anotación tanto menor número de realizaciones será necesario. Para las funciones aleatorias con esperanzas matemáticas y dispersiones lentamente variables, las cuales se pueden considerar próximas a las estacionarias (el caso de una no estacionaridad débil), se puede limitarse a una realización lo suficientemente larga. Pero si la longitud de las realizaciones anotadas es comparable con el intervalo de correlación de la función a-léatoriá, por ejemplo., si todas las. realizaciones anotadas representan .curvas suaves, entonces es en principio imposible hallar las estimaciones conveniente.s de las esperanzas matemáticas y las funciones corr~lativas y correlativas reciprocas sirviéndose del método de alisado de ):as .realiza· ciones. En semejantes casos el único procedimiento posible de det'erminación de las estimaciones de las esperanzas matemáticas y .de las funciones correlativas y correlativas recí·procas consiste en tomar un nú mero suficientemente grande de realizaciones (del orden de 100) y, examinando los valores de las funciones aleatorias para diferentes valores del arguir\ento como n1agnitudes aleatorias, emplear las fórmulas del § 8.2 para el cálculo de las estimaciones de sus esperanzas matemáticas, dispersio.oes y momentos de correlación. Este procedimiento es, desde luego, absolutamente general y puede ser utilizado en todos los casos. Sin embargo, siempre exige un gran número de realizaciones para obtener una precisión satisfactoria de Jas estimaciones de las esperanzas matemáticas y funciones correlativas. Además, si la longitud de l as realizaciones anotadas es grande en comparación con el intervalo de correlación, este procedimiento no es racional puesto que no utiliza toda la información comprendida en los resultados de los experimentos. Por eso, si el intervalo de c.orrelación de Ja función aleatoríA es pequeño en comparación con la longitud de las realizaciones obtenidas como resultado de las pruebas, para la determinación de las esperanzas matemáticas y de las funciones correlativas se recomienda emplear el método ex.puesto u1ás arriba de alisado de una o varias realizaciones.

2t•

Suplementos

t . Algunas intcgr11lea delcrminadas Al !lcdurir ciertas fórmulas de la T eoríB r1r les Prnhnbilidades hity que arliear la fórmula

..Jr

"'

e"1-h•r> c1t = -Vñ -- tl.iií , 11

(1)

p1ir:1 cualquier vnl or real do /1 > O y para cuulquil'J' '1 complejo. En porticul nr, cuoudo '1 = O. 111 lónnul11 (1) toma la forn111

vállch

I

, - h•t•

ª' = ~ii .

(2)

- oo

..J

Para dtldunir la l
T ('1)=

el'lt-11•1•

dt.

(3)

Derivandn esta f6tmul11 cnn rc3pe<:LO al pnrámetrn •1 e intcgrandn por ¡>arteil,

obl~od N!mos

l'(r¡)'=

J t.'ll•-h•1•a1 ~ - 2!t r

-....

e 'lffk- h•rt =

o bloo l ' ('1) -=

.;J.s l (T}).

(4)

Esta fónnula pu~e ser coruildcrada como la ecuación diferencial que determina la Integral l (t¡). Para determioar '()Or completo la in~gral l (TJ) , ahora es sufi· ciente ballar su valor para un valor cualquiera de '1· Lo más sancillo es calcular el valor de esta integral para '1 = O, es decir, l a Integral (2): I (O) =

J"'

e-h•t•dt

(Sl

Sf7

Supúmmún

Puesto que esta integral no depende .de cómo está desig11e la la vai:iable de

..J

fntn¡iraclón, "" ¡¡uedr. escribir ta11Jbién

1 (O) ~

M11lti¡1l irando miembro a miembro las

J

J

""

¡2 (0) -

e-h••• a.,, fórmula~ (~) y

(6)

(11). obtendremos

00

e - l1tt: dt

, -Ah• tú-

-oo

J { J ,-,...•d.s} ,-h•t•ae = J¡J.,-c1•+••J111 ~

=

dtd.t.

-w

Dn

-oo

-oo

-w

o~l.e

E~to

~

~1~

modo, hemos reducido el problo1n u al cólcu lo d~ la integral doble. integral >. ks ~ r seto cp

r'íÍa':':º""º en cousidcración quo el jacobi:1110 dl' esta tranoformación "s igual

I =

ª'

81

í)t

Os

Tr Tr

oq¡ -;¡;¡.-

i

1

r

r

Tcoscp Tsen 'P - T sen


r

- -¡:;¡:-,

obtend remos

e-r•r dr =

-

I'° "

n e _ ,., u .. h'l ,

1¡,o;

de donde se deduce precisamente la fórmula (2). J,ft integral de la cruaclón (4), i¡¡ual a

fórmu la

V:

para 11 - O. se oxprNa por la

- ...

n 1 (IJ)=" - V11.-e4h•.

F.sto es fácil roroprobar por la sust.itucíón directa. As!, rues, la fórmula (i) r¡uoda demostrada. Ue (1) se dedu~n fácllmcnt.e h18 lórmuills

..J

_.,.,

t21'-le-h•t•dt = 0

{k = t. 2, ... ),

(k = 1. 2, ... )

(7)

(8)

318

Supü~nlO•

Pare deducir estas fórmulas, derivemos l a fórmula (8) con respeel.o al parámetro '1· Cnmo result11d<>

obtcuclr~mos

...

/'•> ('l)- ) , ••11•-1t1t1 dt

(r =1, 2, ... )

_.,.

Poniendo aquí t¡ = O,

rnu~rcmos

..,

Jt••-h' 12

/m (0) =

(r=i, 2, ... ).

dt

(9)

Asi pues, LOOns las int.cgralos que nos ioteresrui ron los \"alorcs de derivadas de Ja integral l (1)) para T) "" O. La primera derivada de la integral I (i¡) se determina por la lormula (4). Para detmninar las derivndas do órdenes superiores de la integral f (1)), derivAmos la fórmula (4). Enl.Onces obtendremos !" (l¡) = 2! .1 (11)

+~ l ' ('l)

(!O)

y en general

r-1 'l / c•>(l\)=-w- ¡cr-i1 (1\l +w11.-11 (1J).

(11)

Para demostrar esta fórmulA, es sufic-icnte utilizar el método de inducción matemática. Suponiendn que e.~ti fórmula os válida para cierto valor do r, demostremos que es válida también para r 1. Derivando la fórmul a (11), obtenem os

+

/
2 ¡1r>(T)) =~ /
2

lo que era nocesarin domoslrar. Así pu~. put.l'W que la fórmula (11) es válida para r = 2 (Ja fórmula (10)1, ésta es váfü!A pnra cunlquler r. Snponíendo "n (11) que l') = O, obtendremos r- 1 Jm (0)= 2h 2 ¡ ir- ti (0).

(12)

Pero de (4) se tleri\'a que/ ' (0) = O. Por con~iguici1tc, los valores de todas lns detlvadas de órdenes impares de la inte~ral l ('1) para TJ = O S<>n iguales a ~eru, lo que demuestra la fórmula (7). Ademas, esta fórmula está clara sin demostraei6n, puesto que la integral de una !unción imp11r eo limites simétricos siempre 'i gual 8 cero. · Poniendo en (t2) sucesivatnente r = 2, 4, 6, .. . , 2k, obte11dremos

ea

/' (0) ...

z!,

l (O), ¡IV (O)=

!,

2

¡• (0),

¡12--~, (O)= 2;;;; 3 / (O),

1<2~> (0)= 2~ f /<~A-11 (0). Multiplicando todas est11~ igualdades entre sí y efectuando las simplificaciones eorrespondionU!s, obtendremQS /<2A>(0)= 1. 3.5 ii.i.t~k-1) [ (0).

Suplermntos

319

Sustlluyendo aqu1 la expre:>ión (2) de la magnitud l (0), obtendremos precisamente la fórmula (8). !Dado que la Iunci6n subintegral en (8) es par, de (8) se deduce una fórmula m6s: (2k-1)11

(k=1. 2, • .. ).

2k-Hh~h+l

(13)

Para ln integral análngo. con potencias impares tiene lugar la fórmula

... í

J

o

,:--1•-htt• di ""':u.o (k - 1)1

(k=1. 2, ... ) .

(14)

raro deducir esta fórmula, observemos quo pllrn cnolquior o:> O ( 15)

En erecto.

I• ~t

- at• dt

l

f

""'2 J •

-~•a

o

1

,-a"/..

1

"=2-=ao -2(1·

Derivbndo la fórmula ( t !\) con respecto Rl parúmclro, obtendremos

.

"' ¡:k-1

J º

- (lt>

dt

(k -

1)1

~ ~-

Pnnleudo aquí a;= h', obt.endrcmC>S precisameuto la fónn11l:i (14). Con ayuda de la~ fórm11las (·J ) y (2) se puede calculn.r nlgunas ou-as inlegrn· le.:i determinadas que tenemos que aplicar en ostc libro. Demostremos que par¡¡ cualquier valor i·oal dG T y pora cualquier o: po•ltivo

.r. ··µr . J

Par~

dµ. o:~+ µ2

..f

=..::.. e-'11~1

( 1(;)

a;

tle1h1rir esta fórmula, observemos que parn c111üesquiera µ y a reales 1 - --

a•

.- =

+ ¡••

~

,-1a~µ•)•d-



(17)

En virlud de esta fórmul11 111 integral en (1!\) puede ~cr susLituidn ¡ior la i11te~rnl

doble:

.. ,

• -oo

t•sn· d oo) ~8 1~ndµ a~ +µ~

f

J

o

,-ccx•+µ•¡z'dt.

¡1,. int,ograd611, obtendremos

Can1loia11do el orilt-u

il',..,.t'd r J a•+; = J ,-oc:i d:

~

o

-~

J

OQ

•it11-1 11i

d¡t.

( 18 )

-~

l't•rn 1:011furme 11 lu fórmul• (1) 00

-

'("1

r -•'1'-•11• du~:oyz~. , / 1t - 4. Je

- oo

Sust.ituyeudo

tl~tn 1•s¡u-~sión

..

j

Aunwutando el dremns

cu (18}, l{'n
..

J

'~ dµ -t Vte+ -µ2 11

c;i•

o.,poo~ulc

hasta que

:!('

..

=

"'*

t

-
, 1; . V•

obtMga el cuadrad o tomplch•, nbten-

{-

V ñ ,-ª'"' r exµ ~

P!l rel="nofollow">

d•_ .

V•

Hogumns ahor" la sustiludón de lns variahles

Al variar

V;" dC!de (l hnsta oo. 111

variable t cambia llJ011ótu11nmeut.e tl o:«le -oo oo. P111· lo t nnto. l::i ecundón (20) tie110 una solo sol11ri6n posiUvo c.on respecto a (en la figura daJR se mun>"tra t en !unción du Esta solución se rlotermina por la fórmula lrn~la

t

V.l

v ;;.

De aqul hallamo s

__!!._=~ (t+ 2

Fig , S.1.

Y:

Sustliuy ~ndo las expNlSloDes (20) y (21)

para

i

= Oy t

7 J

(21)

Za;

en (19) y teniendo en cuenta que t = -oo

= oo para : = oo, tendremos

~t'fµdµ =Vi ci2+µi

"

t - aJ'f l

r 6_,.

}..,

(1 +

t ) di. V:~+2al-rt

De aqul, tomando en eonsidornción que la integral de una función impar e n 1, oh-

límites simétricos es igual e cern y aplicando ltt fórm ula (2} para I•

=

,<; uplemnlto•

321

l~ndrcm<>s

quo es l o que demuestra a la fórmula (16). De la fórmula (16). derivando con re~pocto al fórmula

.. µ•:""' 5

_ .. q. e11

~



·= { íne-«I T 1 para

par~metro

-e> O.

-lnr- c:
-r, se oMiono la (22}

En vlrtud de la fórmula conodda de Euler, la fórmula (16) puede ser c~rlia la forma

!Je nqul, teniendo en 1a1enta que en límites si016tricns La integral de una ltu1cl6r> impnr es igual a cero y la iot.egral do una funr.ión par e5 igual 8 la integral 1l11pl1cada de O a oo, obtendrAmos

..

\' cosµ'tdµ

J 11

n

a:,+µ'l . 2a.

-O:ITI

.

Suplementos

2. Tabla de lns \'alores de Ja lunulón de Laplace

u

0 ,00 0,01 0,02

0,03 0,04 0,05

0,06

0 ,07 ' 0,08

0,0!l 0,10 1

0,11 0,12

0,13 : 0,14

! a•

(u)

f,

u

0,0000 0,0040 0,0080 0,0120 0,0160

0,36 0,37 0,38 0,39 0,40

0,0199 0,0:!.39 0,0279 0,0319

0,0359 0,0398 0,0438 0,0<\78 0,0517 0 ,0557

!

(u)

\!

u

0,26<'.2 0,26i3 0, 2703

1,08 1,09

0,7&

0,273"

1,H

0,7t.i

0,3665 0,3686

1 ,13

0,3708

0 ,42 0,43

O,tG28 o, 1664

o, 1808

0,78 0,79 0,80 0,81 0,82 0,83

0,2764 0,2794 0,2823 0,2852 0, 2881 0,2910 0,2939 0,2967

1,12

0,41

0, 1554 0,1591

0,1844

0,84

0,2995

0,50

0,1879 0, 1915

0,51 0,52

0,1950 0, 1985

0,2019 0,2054

0,85 0,86 0,87 0,88 0,89 0,90 O,!H

0 ,3023 0,3051 0,3078 0,3106 0,3!33 0,3159 0.3·186

0,92 0,93

0,3212

1 ,28

0,3238 0,3264 0,3289 0 ,3315 0,3340 0, 3365 0,3389 0,3413 0,3437 0,3461 0 ,31.85 0 ,3508

i,29 1,30 1,31 1,32 1,33 t ,34 1,35 1,36 1,37 1,38 1.39 1,40 1Jt1 1,42 1,43

0,44

0, 1700

0,45 0,46

0, 173t.i

0, 47 0,48 0,49

0,1772

0,77

0,0675

0,18

0,0714

0,19 0,20

0,0753

0,53 0,54 0,55

0,0793 0,0832 0,0871

0,57 0,51\

0,0910

0,59

0,2224

0,0948 0 ,0987

0,2257

o, 96

0,2291

0,2357 0,2389

0,97 O, 98 0,99 1,00 1,01 i,02 1 ,03 1,04 1,05 1,06

0,22 ' 0,23 i 0,24

0 ,56

0,2088 0,2123 0,2157

0,2100

! 0,26 i 0,27

o, 1026 o, 1064

0,28

0,1103

0,60 0,61 0,62 0,63 0,64

0,29 0,30 0.31 0,32

0,.1141

0,65

0,2422

0,2454 0,21'86 0,2517 0,2549 0,2580 0,2611

; 0,25

¡

¡ 1 t

¡rn

O, 1179

0,66

0,1217

0,67

0,1255 0,1293

O,G8 0,69 0,70 o, 7t

0,1331

0,1368

1 CD (u)

º·

0,17

0,2{

u

0 ,72 73 0,74

0,0596

l

·•

0,1406 0,1443 0, 1480 0,1517

: o.1s o, t i;

0,0636

1 (u)

o,2324

0,94 0,95

1,07

0,3531

0,3554 0,3577

1,10

1,14 1,15 1,16 i ,17 1,18

1,19 1,20 1,2i 1,22 1,23

1,24

1,25 1,26 t,27

0 , 35\19

0,3621 o. 361.3

0,3729

0,3749 0,3770 0,3790 0,3810 0,3830 0 ,3849 0,3869 0,3888 0,3907 0,3925 0,3944 0,3962 0,3980 0,3997 0,4015 0,4032 0,4049 0,4066 0,4082 0,4099 0,4115 0,4131

0,4147 0,4162 0,4177

0,4192 0,4207 0,4222 0,!.23ts

323

Sup/eme11lo1

Continuación u

1 1,411 1 ,(15 1,116 1 ,47 1,18 1,49 1 ,50 l,5t 1,52

t,5a 1,5' 1,55 f ,56 i,57 1,58 t ,59 1 ,60 1 ,61 1,62 1,63 1,64 1,G5 t,66 f ,67 i,68 1,69 t,70 t. 71 t ,72

CD (u)

0,4251 0,4265 0,4279

0.4292 0,4306 0,4319 0,4332 0,4345 0,4357 0,4370 0,4382 0. 4891 0 ,4406 0,4418 0,4429 0,4441 0,4452 l' ,4463 0,4474 O,M181• 0,4495 0,4505 0, 45t 5 0 ,4525 0,4535 0 ,t,54S 0,4554 0,~564

0,457ll

1

u

1, 73 1,74 1,75 1 ,76 1,77 1 ,78 1,79 1,80 t ,81 1,82 1,83 1 ,84 1,85 1,86 1,87

1,88 1,89 1 ,90 1,91 1,92 1,93 1,94 1,95

1,96 1 ,97 J ,98 t,99 2.00 2,02

(u)

1 0,4582 0,4591 0,4599 0,4608 0,4616 0;4625 0,4633 0,4641 0,4649 0,4656 0, 4664 0,4671 0,4678 0,4686 0,4693 0,4699 0,4706 0,4713 0,4719 0,4726 0,4732 0,4738 0,4744 0,4750 0,4756 0,4761 0,4767 0,4772 0,4783

1u 2,04 2,06 2,08 2,10 2,12 2,14 2,16 2,18 2,2.0 2,22 2,24 2,26 2,28 2,30 2,32 2,34 2,36 2,38 2,110 2,42 2,64 2,46 2,48 2,50 2,52 2,54 2,56 2,58

(u)

1 0,4793 0,4803 0,4812 0,4821 0,4830 0,4~

0,4846 0,4854. o,~861Y

0,4868 0,4875 0,4881 0,4887 0,4893 0,l.S98 0,4004 0,4909 0,49t3 0,4918 0,4922 0,4927 0,4931 0,4934 0,4938 0 ,494.l 0 ,4945 0 ,4948 0,495·1

1u 2,60 2,62 2,64 2,66 2,68 2,7Q 2,'(2

2;14

2.~ ' 2;78 2,80 2,82 2,84 2,86 2,88 2,00 2,92 2,94 2,96 2,98 3,00 3,20 3,40 3,60 3,80 4,00 4,50 5,00

cI> (u)

1 0,4953 0,4956 0,4959 0,496t 0,49.63 Q,4965 0;4957 0,4~9

d[4~ti

Ó,4973 0,4974 0,4976 0,4977 0,4979 0 ,4980 0,4981 0,4982 0,4984 0,4985 0,4986 0,49865 0,49931 0,4996ü 0,499841 0,499928 0,499008 0.499991 0 ,49999\lni

A ouesttos lectores: tM llh edita libros soviéticos traducidos al cspaiiol, inglés, francés y árabe. Entre ellos figuran las-. mejores obras de las distintas ramos de la ciencia v l a t.écnica; manuales para los centros de enseñanz'ásupcrior y escuelas tocnológicas; 1itera~ura sobre ciencias naturales y médicas. También se Incluyen monogra!las. libros de divulgación clentllica y ciencia ficción. Diriian sus opi niones n Editorial t Mllh, 1 Uizhskf por. 2, Moscú GSP l-t10 129820, URSS.

Libros que serán publicados por la EdJtorial «Mir»

en 1973

GÚELFAND l., GLAGOLEVA E., KIR!LOV A Mt'J'ODO DE COORDENADAS

Es un libro de .lsrail Guelfand, doctor en ciencias fís'icom~t,emáticas y profes0r de Ja Uni".ersi¡Ja_d ·~~ t.'osc)l, .~~;1l~jai;i_di(¡ K1rilov, ·candidato a .doctor en c1enc.ias fis1co~'!llªtemat¡~as•· y ~e Elena Glag6leva, colabo?adora: cient1.ffoa. Es'. el·..:· · " ·· ~~ · r.~ . sorie de matemáticas:· «Biblioteéa de··l a ·escuela flsico

En esta obra se·describe el nlétodo ·iliíJas·cooidena.<1'~$;

'á,i
ii'.4eoití ·

el procedimient-0 para determinar la posicl6n de utt 'pilnto o cullrp<)

con ayuda ila cifras o de otros símbolos. De un modo ingenioso y comprensible, a fo. ver. que r igurosa· mento cíen tífico, so trata de las coordenadas de 11n punto sobro una recta, sobre un plano, en el e~pacio¡ del espacio cuadridlmeosional, d·eJ cubo cuadriaimensíonal y de otras cuestiones de interés relacionadas con la matemática moderna. En cada una de las parles del libro so dan tareas y prnguntas n resolver por el lecl<>r. Es un libro de matemáticas para los escofaros del tercer aíio do la~ escuelas especiales de matemáticas y no exige conocimientos C&lJeciales quu no estén incluidos en el pro· g rama escolar, Todo el que S(.> intere!!() en las matemáticas, leerá est.a libro con sa tisfac.ción.

1:107.Ai':OV YIJ.

PROCF.SOS AJ,EATO llJOS

En el libro de Yu. R6zanov, doct-Or en cieuci11.s íisicomalrunútiGOs, se estudian la teoria de las probabilidades y los procesos aleatorios. En el mismo ge e.s;ponen las nociones fundaml.'utales y los métodos de la teorla de las probabilidades moderna, en modelos sencillos se analizan las propiedades más caracte.rísticas de los procesos aleatorios de di$tin\os tipos, se e¡¡amlnau loll problemas teóricos de las probabilidades que son motivo de cierto in terés para diferentes fines. Durante la exposición del material se omple11Jl, generahnente. mi6todos direct.os de las probabilidadeso, lo cual contribuye al desarrollo do la intuición sobre eate particular, do mucha importancia on la resolución do los problemas teóriws de este tipo. Gracias a é~t-0, el libro do Yu. Rózanov se destaca entre otros manuales poi· la teoría do los proceSQs alea\Qrios. Además, los primeros cap1tulos del libro contienen las nociones indispensables de la lcnda de las probabílidades, por eso nn se exigo de lns lectores un couocimionto previo do otroa manuales ni una preparación matemá tica general. Es indud~ble que este libro está destinado a at¡uellos que por vez primera estudian la teoría de las probabilidades y los procesos nleatorios. Sin lugar a duda.a, será acogido co11 grau in terés por los especialistas, sobro todo, por los profesores de estns disciplinas en los centros de eneeií8Jlza técnica superior. Ante todo, este libro se recomienda a los esludiantu de lu especialidades fi sicon1etemáticas y técnicas de Jos centros de enseíionzo superior, así como a los especialistas que se interesan por la opllcación do 111 \eoria do los procesos aleat.orlos.

l. SUVOROV MATEMATICAS SUPERIORES Esto libro se debe al doctor en ciencias; físi¿omatemátlca:;. IOROFEl'SUVOROV'. Esta obra·compreniloel estudli>.ilelassl'guien'.;. tes partes do las matemáticas supe~ior~s: .g~oni'~trlª'?'ailalitica» en el plano y en el espacio, cálcúlo diferenciálc•é:.fategra1 ,icon!: coptos fundamentales del análisis matemátié;o;·'.iieriés, ' conceptós. sobre líneas planas y alabeadas, dlferenciaclón e integraciónrle funciones de varios argumuntos y ecuaciones diferenciales. Aqu! tambi6n se inelu7en problemas y ejemplos con sus rcsol11ciono~ y algunas indicaciones de tipo metódico. El libro está ilustrado con esquemas geométricos que facilitan la comprensión det material y aclaran los métodos para la solución de los problemas. Es libro de t·ext.o para los centros de enseiianza técnica superior y media. Su principal mérito es Ja forma clara y concisa en quel!e .:>xpoM ~l material. En ruso so han publicallo ciuco edic.ione"' de este libro.

En l 97lj La E dit orial «M ir » l'u blí cara: pi\tuJl~{AN V.

J,A TEOKl A l>I!: LAS P ll OUAIHU DA DES Y LA E1:$TAD1S1'1CA MATEMAT ICA l~st.o tratado ha sido escrito Jo conformidad con el nuevo c11rHo de In tuoría de las probabilidades y de la est.adistica mate-

mútica. El material de esta obra se presenta en tres partes fundamcnt.olM: les dos primeras so dedican a la teoría de las probabilidades y 111 última, a Ja estadística matemá tica. En este manual se cstudinn los tu1uas ~iguientc9: prnbabilidad de las hipót


Related Documents


More Documents from "Jose"