Atencion Y Percepcion

  • Uploaded by: Paula Acosta
  • 0
  • 0
  • 2 weeks ago
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Atencion Y Percepcion as PDF for free.

More details

  • Words: 162,197
  • Pages: 714
Loading documents preview...
Manuales / Psicología y Educación

El libro universitario

Enric Munar, Jaume Rosselló, Antonio Sánchez Cabaco (coords.)

Atención y percepción

Alianza Editorial

Reservados todos los derechos. El contenido de esta obra está protegido por la Ley, que establece penas de prisión y/o multas, además de las correspondientes indemnizaciones por daños y perjuicios, para quienes reprodujeren, plagiaren, distribuyeren o comunicaren públicamente, en todo o en parte, una obra literaria, artística o científica, o su transformación, interpretación o ejecución artística fijada en cualquier tipo de soporte o comunicada a través de cualquier medio, sin la preceptiva autorización.

Edición electrónica, 2014 www.alianzaeditorial.es

© Enric Munar, Jaume Rosselló, Antonio Sánchez Cabaco, 1999 © Alianza Editorial, S. A. Madrid, 2014 Juan Ignacio Luca de Tena, 15. 28027 Madrid ISBN: 978-84-206-8759-9 Edición en versión digital 2014

A Isabel, a Mercè, a Luzma, que seguían estando ahí al concluir esta obra, atentas como siempre a nuestros retornos, rotundamente tangibles, perceptibles de nuevo..., tan como siempre.

Nosotros (la indivisa divinidad que opera en nosotros) hemos soñado el mundo. Lo hemos soñado resistente, misterioso, visible, ubicuo en el espacio y firme en el tiempo; pero hemos consentido en su arquitectura tenues y eternos intersticios de sinrazón para saber que es falso. Jorge Luis BORGES

Si el Mundo es un error, es un error de todo el mundo. Fernando PESSOA (en voz de su heterónimo Alberto CAEIRO)

Cuántas palabras, cuántas nomenclaturas para un mismo desconcierto. Julio CORTÁZAR

Índice

Relación de autores......................................................................................................

17

Prólogo, Helio Carpintero ..........................................................................................

19

Presentación, Enric Munar, Jaume Rosselló y Antonio Sánchez Cabaco ..........

25

Primera parte

Atención 1. Panorama histórico-conceptual del estudio de la atención, Pilar Tejero Gimeno .................................................................................................................. 1. ¿Qué es la atención? .......................................................................................... 1.1. Funciones de la atención en el procesamiento humano de información ... 1.2. Determinantes de la orientación atencional............................................... 1.3. Orientación abierta o encubierta................................................................ 1.4. Beneficios de la selección atencional de información............................... 1.5. Automatización y control atencional......................................................... 1.6. Preparación atencional y mantenimiento del nivel de alerta ..................... 1.7. Anatomía del sistema atencional ............................................................... 2. Modelos teóricos sobre la atención ................................................................... 2.1. Introducción............................................................................................... 2.2. El estudio de la atención desde el paradigma cognitivo............................ Bibliografía comentada ..........................................................................................

2. El estudio experimental de la atención, Juan Botella Ausina...................... 1. Introducción.......................................................................................................

33 34 34 37 39 41 43 45 47 48 48 48 61 63 63

9

Atención y percepción 2. El papel de la consigna experimental ................................................................ 3. Las variables dependientes ................................................................................ 3.1. Medidas de rendimiento ............................................................................ 3.2. Medidas conductuales ............................................................................... 3.3. Medidas psicofisiológicas ......................................................................... 4. Tareas y paradigmas experimentales................................................................. 4.1. Algunas tareas sencillas de tiempo de reacción ...................................... 4.2. Búsqueda visual....................................................................................... 4.3. Paradigmas de pre-aviso con SOA corto ................................................. 4.4. Las tareas de escucha selectiva................................................................ 4.5. Compatibilidad de los distractores .......................................................... 4.6. La tarea de Stroop y sus variantes ........................................................... 4.7. Paradigma de inatención.......................................................................... 4.8. Paradigma de la señal de stop.................................................................. 4.9. La presentación rápida de series visuales (PRSV) .................................. 4.10. Las tareas de priming............................................................................... 4.11. Paradigmas de doble tarea ....................................................................... Bibliografía comentada ..........................................................................................

3. Selección para la percepción, selección para la acción, Jaume Rosselló Mir ......................................................................................................................... 1. Introducción....................................................................................................... 1.1. Algunas cuestiones fundamentales............................................................ 1.2. Selección para la percepción versus selección para la acción ................... 2. Selección para la percepcion ............................................................................. 2.1. El medio de la atención: ¿mapas espaciales o representaciones de objetos?............................................................................................................. 2.2. La atención espacial .................................................................................. 2.3. La atención al objeto ................................................................................. 3. Selección para la acción .................................................................................... 3.1. La representación de la acción.................................................................. 3.2. Concepto y funcionalidad de la selección para la acción .......................... 3.3. La acción como determinante del medio atencional.................................. 3.4. Selección espacial para la acción: la propuesta de van der Heijden (1992, 1995)............................................................................................... 3.5. Selección del objeto para la acción: una variante de la teoría premotora (Craighero et al, 1998)............................................................................... 4. La función atencional: selección para la percepción y selección para la acción .................................................................................................................... 4.1. Visual Attention Model (Schneider, 1995): un paradigma de compromiso teórico.................................................................................................... 5. La naturaleza de la atención: monarquía, oligarquía o anarquía ..................... 6. La diversidad atencional: cuando los árboles no dejan ver si hay un bosque ... Bibliografía comentada ..........................................................................................

4. Alteraciones atencionales, Mateu Servera Barceló ....................................... 1. Introducción....................................................................................................... 2. El trastorno por déficit de atención en la infancia .............................................

10

67 69 69 71 71 73 74 76 78 81 82 84 86 87 87 89 92 96

99 100 101 104 105 105 108 117 125 125 127 129 130 135 139 140 143 145 147 151 151 153

Índice 2.1. La definición del trastorno por déficit de atención en la infancia ............. 2.2. Factores implicados en la instauración del déficit atencional ................... 2.3. La evaluación y el tratamiento del trastorno por déficit de atención......... 3. Los trastornos atencionales en psicopatología .................................................. 3.1. Modelos atencionales y psicopatología clásica de la atención .................. 3.2. Psicopatología cognitiva de la atención .................................................... 3.3. Las alteraciones atencionales en la esquizofrenia y otros trastornos mentales ..................................................................................................... 4. Conclusiones...................................................................................................... Bibliografía comentada ..........................................................................................

153 156 159 163 164 166 169 171 174

Segunda parte

Percepción 5. Algunas notas introductorias al estudio de la percepción, José E. García-Albea ................................................................................................... 1. Cuestiones preliminares..................................................................................... 2. La percepción, entre la sensación y la cognición .............................................. 2.1. El estímulo de la percepción...................................................................... 2.2. Los órganos de la percepción .................................................................... 2.3. Percepción y cognición.............................................................................. 3. Observaciones finales ........................................................................................ Bibliografía comentada ..........................................................................................

6. Psicofísica: concepto, método y aplicaciones, Antonio Sánchez Cabaco . 1. Introducción....................................................................................................... 2. Medida y límites de la detección y de la discriminación psicofísica ................ 2.1. Umbrales sensoriales ................................................................................. 2.2. Umbrales de respuesta ............................................................................... 3. Cuantificación de la magnitud perceptiva ......................................................... 3.1. Psicofísica clásica: la ley de Fechner ........................................................ 3.2. Psicofísica moderna: la ley de Stevens...................................................... 4. La teoría psicofísica y el estudio de la percepción ............................................ 4.1. Aplicaciones psicofísicas del tiempo de reacción (TR) ............................ 4.2. Perspectivas recientes en Psicofísica......................................................... Bibliografía comentada ..........................................................................................

7. Procesamiento básico de la visión, Florentino Blanco y David Travieso . 1. 2. 3. 4.

Introducción....................................................................................................... Nuestra experiencia del mundo a través de la visión ........................................ La luz como fenómeno físico ............................................................................ El soporte biológico de la visión ....................................................................... 4.1. Descripción general del ojo humano ......................................................... 4.2. La retina..................................................................................................... 4.3. El procesamiento de la información visual en el cerebro.......................... 4.4. El córtex visual .......................................................................................... 5. Consideración final............................................................................................ Bibliografía comentada ..........................................................................................

179 179 183 184 186 192 197 199 201 201 203 203 212 223 223 226 230 230 231 232 235 235 236 241 246 248 251 256 260 262 264

11

Atención y percepción 8. Percepción del contraste: procesamiento de bajo nivel, José Antonio Aznar Casanova ....................................................................................................... 1. Introducción..................................................................................................... 2. La luz. .............................................................................................................. 3. El contraste ...................................................................................................... 4. Ondas sinusoidales .......................................................................................... 5. Estímulos de enrejado...................................................................................... 6. Análisis frecuencial de imágenes .................................................................... 7. Síntesis frecuencial de imágenes ..................................................................... 8. Filtrado de imágenes........................................................................................ 9. La función de sensibilidad al contraste ........................................................... 10. Paradigmas de investigación en psicofísica visual .......................................... 11. Modelos basados en canales psicofísicos ........................................................ 12. Pruebas sobre la existencia de canales psicofísicos ........................................ 13. Características de los canales psicofísicos ...................................................... 14. La relación de incertidumbre de la transformada de Fourier........................... 15. Filtros Gabor.................................................................................................... Bibliografía comentada ..........................................................................................

9. Percepción del color, Julio Lillo Jover ............................................................ 1. ¿Qué es el color? ............................................................................................... 1.1. Color y diferencias individuales ................................................................ 1.2. Color y desequilibrios energéticos. ........................................................... 2. Color y mecanismos perceptivos....................................................................... 2.1. Dimensiones del color ............................................................................... 2.2. Conos y codificación cromática ................................................................ 2.3. Mecanismos oponentes y codificación cromática ..................................... 2.4. Discriminación y categorización de colores.............................................. 2.5. Lenguaje y categorías lingüísticas............................................................. 3. Producción de colores........................................................................................ 3.1. Mezcla sustractiva ..................................................................................... 3.2. Mezcla aditiva ........................................................................................... 4. Medición del color............................................................................................. 4.1. Espacios de color CIE ............................................................................... 4.2. Atlas de colores ......................................................................................... 5. Alteraciones en la percepcion del color............................................................. 5.1. Tipos de alteraciones ................................................................................. 5.2. Incidencia y evaluación de las alteraciones en la percepción del color..... Bibliografía comentada ..........................................................................................

10. Organización perceptual y reconocimiento visual del objeto, Antonio Crespo León ......................................................................................................... 1. Introducción....................................................................................................... 2. Organización perceptual .................................................................................... 2.1. Sistemas lineales versus sistemas no-lineales en el estudio de la organización perceptual ....................................................................................... 2.2. La articulación figura-fondo...................................................................... 2.3. El agrupamiento perceptual .......................................................................

12

267 268 269 270 272 275 278 281 283 286 289 290 290 293 294 295 299 301 302 302 302 306 306 307 310 314 315 318 318 320 321 321 329 331 331 334 336

339 340 341 342 343 347

Índice 2.4. Desde la pregnancia hasta los modelos de bondad del patrón................... 2.5. Algunas reflexiones interesantes ............................................................... 3. Reconocimiento visual del objeto ..................................................................... 3.1. Reconocimiento por comparación de plantillas ........................................ 3.2. Reconocimiento por detección de características o rasgos........................ 3.3. Reconocimiento por ejes de coordenadas.................................................. 3.4. Reconocimiento por componentes (RBC)................................................. 3.5. Reconocimiento por alineamiento ............................................................. 3.6. Reconocimiento por procesamiento distribuido en paralelo (PDP) .......... Bibliografía comentada ..........................................................................................

11. Percepción de la profundidad, de la distancia y del tamaño, Enric Munar .......................................................................................................................... 1. Introducción....................................................................................................... 2. Percepción de la profundidad y de la distancia ................................................. 2.1. Indicios binoculares................................................................................... 2.2. Indicios monoculares................................................................................. 2.3. Integración de claves ................................................................................. 3. Percepción y constancia del tamaño.................................................................. 3.1. Percepción del tamaño............................................................................... 3.2. Constancia del tamaño............................................................................... 3.3. Ilusiones visuales de tamaño y distancia ................................................... Bibliografía comentada ..........................................................................................

12. Percepción del movimiento, Enric Munar y Jaume Rosselló ...................... 1. Introducción....................................................................................................... 2. Percepción del movimiento real ........................................................................ 3. Ilusiones de movimiento o movimiento aparente.............................................. 3.1. Movimiento estroboscópico ...................................................................... 3.2. Movimiento inducido ................................................................................ 3.3. Movimiento autocinético........................................................................... 3.4. Postefectos de movimiento........................................................................ 4. Perspectivas sobre la percepción visual del movimiento .................................. 4.1. Perspectiva ecológica o de la percepción directa ...................................... 4.2. Perspectiva computacional ........................................................................ 4.3. Bases neurales de la percepción visual del movimiento ........................... 5. Percepción auditiva del movimiento ................................................................. 5.1. Psicofísica de la percepción auditiva del movimiento .............................. 5.2. Bases neurales de la percepción auditiva del movimiento ........................ Bibliografía comentada ..........................................................................................

13. El sonido y la arquitectura del sistema auditivo humano, Luis E. LópezBascuas ................................................................................................................. 1. El sonido ............................................................................................................ 1.1. Movimiento ondulatorio ............................................................................ 1.2. Movimiento armónico simple.................................................................... 1.3. Caracterización de la forma de onda generada por el MAS ......................

349 354 357 360 361 363 368 370 372 377

379 379 381 383 390 397 399 400 402 404 407 411 412 413 416 416 419 420 421 422 423 425 427 437 437 441 444

447 448 448 449 452

13

Atención y percepción 1.4. Sonidos complejos..................................................................................... 2. Arquitectura psicofísica del sistema auditivo humano ...................................... 2.1. Filtros lineales ........................................................................................... 2.2. Enmascaramiento ...................................................................................... 2.3. Bandas críticas........................................................................................... 2.4. La función de transferencia de modulación de las bandas críticas............ 3. Mecanismos biológicos de implementación...................................................... 3.1. Oído externo y oído medio ........................................................................ 3.2. Oído interno............................................................................................... 3.3. Nervio auditivo .......................................................................................... Bibliografía comentada ..........................................................................................

455 459 459 462 466 469 477 477 479 481 486

14. Percepción de la tonalidad y de la sonoridad, Luis E. López-Bascuas ......

489 490 492 496 510 510 514 516

1. Percepción de la tonalidad................................................................................. 1.1. La codificación de la tonalidad en sonidos simples .................................. 1.2. La codificación de la tonalidad en sonidos complejos .............................. 2. Percepción de la sonoridad ................................................................................ 2.1. La codificación de la sonoridad en sonidos simples ................................. 2.2. La codificación de la sonoridad en sonidos complejos ............................. Bibliografía comentada ..........................................................................................

15. Percepción del habla, Luis E. López-Bascuas ................................................ 1. Representaciones espectográficas de la señal del habla .................................... 2. Correlatos acústicos de las categorías fonológicas............................................ 2.1. Vocales ...................................................................................................... 2.2. Consonantes............................................................................................... 3. Modelos de la percepción del habla .................................................................. 3.1. Un modelo acústico auditivo para la percepción de vocales ..................... 3.2. Un modelo acústico auditivo para la percepción de consonantes oclusivas ........................................................................................................... Bibliografía comentada ..........................................................................................

16. Percepción táctil y háptica, Soledad Ballesteros Jiménez ............................ 1. Introducción....................................................................................................... 2. Bases fisiológicas y sensoriales del tacto .......................................................... 2.1. Características de la piel y de los receptores cutáneos .............................. 2.2. Las vías nerviosas del tacto y la corteza somatosensorial ......................... 2.3. Psicofísica del tacto ................................................................................... 2.4. Umbrales sensoriales para el tacto ............................................................ 3. Psicología del tacto: tacto activo y pasivo......................................................... 4. Percepción háptica de la forma.......................................................................... 4.1. Percepción de formas realzadas................................................................. 4.2. Percepción de la simetría como propiedad de la forma............................. 5. Percepción y representación mental de objetos................................................. 5.1. La mano inteligente y los movimientos exploratorios .............................. 6. Memoria háptica ................................................................................................ 7. Aplicaciones de las capacidades cutáneas y del tacto activo............................. Bibliografía comentada ..........................................................................................

14

519 519 523 524 528 540 540 545 546 549 549 551 551 555 558 559 560 561 562 565 568 569 571 573 575

Índice 17. Percepción del tiempo y de la causalidad, Santiago Estaún Ferrer............ 1. Introducción....................................................................................................... 2. La percepción del tiempo .................................................................................. 2.1. Elementos integrantes del tiempo.............................................................. 2.2. Técnicas metodológicas utilizadas en el estudio de la percepción del tiempo ........................................................................................................ 2.3. El presente psicológico o la percepción del tiempo .................................. 2.4. De la percepción del tiempo al condicionamiento al tiempo o la regulación temporal de nuestra conducta ............................................................ 2.5. La orientación en el tiempo y la gestión del mismo .................................. 3. La percepción de la causalidad.......................................................................... 3.1. La causalidad mecánica: efectos de lanzamiento y de arrastre ................. 3.2. La causalidad cualitativa ........................................................................... 3.3. La aportación computacional al estudio de la percepción de la causalidad ........................................................................................................... Bibliografía comentada ..........................................................................................

18. Los sentidos químicos, Jordi Pich i Solé ........................................................ 1. Clasificación de las sensaciones químicas ........................................................ 2. Percepción olfativa ............................................................................................ 2.1. El estímulo odorífero ................................................................................. 2.2. El sistema olfativo ..................................................................................... 2.3. La sensibilidad a los olores........................................................................ 2.4. Cognición olfativa ..................................................................................... 2.5. Olfato, emociones y juicios hedónicos ...................................................... 2.6. El olor corporal.......................................................................................... 3. Percepción del gusto.......................................................................................... 3.1. Las cualidades primarias del gusto............................................................ 3.2. El sistema gustativo ................................................................................... 3.3. La sensibilidad gustativa ........................................................................... 4. Percepción del sabor.......................................................................................... 4.1. Identificación de sabores ........................................................................... 4.2. Determinación de la intensidad percibida ................................................. 4.3. Efecto de los sentidos sobre las valoraciones hedónicas........................... 4.4. Preferencias y aversiones: bases biológicas y culturales........................... Bibliografía comentada ..........................................................................................

19. Alteraciones perceptivas, David Travieso y Florentino Blanco.................. 1. Estructura psicológica de la percepción ............................................................ 1.1. Una aproximación funcional a los sistemas perceptivos ........................... 1.2. Percepción normal y percepción alterada.................................................. 2. Alteraciones fundamentales del sistema visual ................................................. 2.1. Alteraciones periféricas ............................................................................. 2.2. Alteraciones centrales................................................................................ 3. Alteraciones fundamentales del sistema auditivo y de la percepción del habla 3.1. Alteraciones de la conducción................................................................... 3.2. Alteraciones sensorio-neurales .................................................................. 4. Alteraciones fundamentales del tacto ................................................................

577 577 579 580 581 584 589 589 591 593 594 595 595 597 598 599 599 600 602 606 609 610 612 612 613 618 622 622 623 625 626 627 629 629 630 633 634 635 638 642 643 644 648

15

Atención y percepción 4.1. Alteraciones periféricas y centrales de la somestesia y la propiocepción . 4.2. Alteraciones periféricas y centrales de la exterocepción........................... 5. Alteraciones fundamentales de los sistemas químicos ...................................... 5.1. Alteraciones de la función olfativa............................................................ 5.2. Alteraciones de la función gustativa.......................................................... 6. Alteraciones perceptivas en psicopatología....................................................... 6.1. Dimensiones objetiva y subjetiva del acto perceptivo .............................. 6.2. Tipología general de las alteraciones perceptivas psicopatológicas.......... 6.3. Alteraciones perceptivas en algunos síndromes psicopatológicos ............ Bibliografía comentada ..........................................................................................

649 650 650 651 651 652 652 653 654 656

Referencias bibliográficas ..........................................................................................

659

Índice analítico .............................................................................................................

703

16

Relación de autores

Pilar Tejero Gimeno Universitat de València Juan Botella Ausina Universidad Autónoma de Madrid María Isabel Barriopedro Universidad Europea de Madrid – CEES Jaume Rosselló Mir Universitat de les Illes Balears Mateu Servera Barceló Universitat de les Illes Balears José E. García-Albea Ristol Universitat Rovira i Virgili de Tarragona Antonio Sánchez Cabaco Universidad Pontificia de Salamanca Florentino Blanco Trejo Universidad Autónoma de Madrid

17

Atención y percepción

David Travieso García Universidad Autónoma de Madrid José A. Aznar Casanova Universitat de Barcelona Julio Lillo Jover Universidad Complutense de Madrid Antonio Crespo León Universidad Nacional de Educación a Distancia (UNED) Enric Munar i Roca Universitat de les Illes Balears Luis E. López Bascuas Universidad Complutense de Madrid Soledad Ballesteros Jiménez Universidad Nacional de Educación a Distancia (UNED) Santiago Estaún Ferrer Universitat Autònoma de Barcelona Jordi Pich i Solé Universitat de les Illes Balears

18

Prólogo

Hay libros que representan, antes que nada, un nivel. Sobre todo cuando, como ocurre en este caso, son obras colectivas que reúnen a un nutrido grupo de especialistas para dar una visión cabal de un campo complejo e importante. En efecto, permiten ver, sobre todo, la cantidad y la calidad de la información poseída, el alcance de las reflexiones que con aquella se generan y la altura a que sus autores colocan el listón para cuanto ha de seguir. Éste es uno de esos libros. Centrado sobre uno de los temas cardinales de la Psicología —de todas las psicologías, empezando por la del lenguaje común—, sobre el que han girado tanto la teoría como sus aplicaciones, pone en manos del lector que se acerca a su estudio un importante cuerpo de conocimientos desde donde hoy es preciso empezar. El parcelamiento del tema que aquí se ha hecho es hoy un procedimiento usual. Y ha sido posible porque hay ya en nuestro país unos grupos activos, dentro de los que se mueven intensamente los autores de estos capítulos. Diseminados por muchos departamentos universitarios, en la mayor parte de los casos, están implicados en proyectos de investigación que envuelven, en una u otra perspectiva, el problema de la percepción. Sus coordinadores los profesores Enric Munar y Jaume Rosselló de la Universitat de les Illes Balears y Antonio Sánchez-Cabaco de la Universidad Pontificia de Salamanca, han logrado una cooperación entre colegas que ha sorteado los usuales peligros en este tipo de obras: han conseguido evitar los excesos de superposiciones, de un lado, así como las rupturas de una continuidad conceptual, resultantes de la fragmentación temática. De

19

Atención y percepción

esta manera, han llevado a cabo una obra valiosa y representativa, a la que de modo insistente y generoso han querido que pudieran preceder estas breves líneas, que tal vez sólo se justifican por la atención sostenida que vengo prestando desde hace años al desarrollo y crecimiento de la Psicología en nuestro país. Valgan pues como testimonio de la significación de este estudio en el marco de una ya relevante tradición de investigación sobre este tema, que podría ir encabezada por algunas páginas clásicas de Mariano Yela sobre percepción de la causalidad física en la línea de los trabajos de su maestro Albert Michotte. El tema es tan central, tan nuclear para cualquier comprensión de lo humano, que la multiplicidad de puntos de vista llega a ser inevitable si se quiere dar cabida a saberes tan diversos como la neurofisiología, la robótica, la psicología del desarrollo y la de los procesos básicos, la antropología o la filosofía, que son algunos de los saberes cuya palabra es relevante en su tratamiento. La percepción es el complejo proceso que abre el sujeto a un mundo y le proporciona representaciones que le informan acerca de éste, sea cual sea el sentido y valor que luego quiera darse a los dos polos, objetivo y subjetivo, de esa relación. Todas las cuestiones ulteriores que han originado la cultura, la filosofía, la ciencia, las artes, que impulsan los afectos y demandan algún tipo de acción o respuesta, surgen en el seno de la red de interacciones entre sujeto y mundo que la percepción establece, incluidas por supuesto, la relación con el propio cuerpo —propiocepción— y, por supuesto incluidas, las relaciones interpersonales de un yo con un tú, o con los otros —la percepción de personas, la percepción social. Sobre este vasto campo han girado innumerables polémicas filosóficas y científicas: entre el idealismo y el realismo —si hay o no un mundo exterior—; entre nativistas y empiristas —si aprendemos a percibir o lo hacemos según nuestro equipamiento orgánico heredado—; si es una función pasiva, o activa, o interactiva, o constructiva…; si sólo percibimos, o al percibir también inferimos y pensamos; si percibe el hombre, y percibe el animal —y qué animales lo harían— y hasta qué punto de la escala filogenética no hay percepción y desde dónde ya la habría...; y cómo es la del niño, y cómo evoluciona; y qué pasos pueden mediar entre la percepción y la interpretación, o entre la «materia» (hyle) y la «significación» (o logos) de nuestros conocimientos sensibles; y también si sabemos de las percepciones inmediata y descriptivamente, o sólo podemos analizarlas de modo hipotético, mediante puros modelos conceptuales... Al considerar a fondo el problema de la percepción reaparecen en toda su crudeza las posiciones básicas que han dado pie a la construcción de filosofías incompatibles, cosmovisiones conflictivas, ideas antitéticas sobre el hombre y su mundo. La percepción, como algunos otros grandes problemas psicológicos, son —parecen ser— supraparadigmáticos. Quiero decir que en ella parece haber un núcleo al que los conflictos teóricos dejan relativamente inafectado,

20

Prólogo

algo que podríamos llamar teoría psicológica de sentido común sobre la percepción. Se admite generalmente la idea de que los modelos en una ciencia, sobre todo aquellos dominantes, que imponen orden y permiten la explicación y la predicción, esto es, la superación del caos en un ámbito de fenómenos, están sometidos a la caducidad y provisionalidad de las construcciones paradigmáticas. El horizonte fenoménico es esencialmente abierto y nunca está íntegramente dado. A medida que aparecen nuevos hechos, que requieren su integración en el modelo, cambian las explicaciones, se sustituyen las terminologías, unos conceptos dejan el sitio a otros, y, con el tiempo, los modos mediante los cuales «salvamos los fenómenos o las apariencias» —la expresión platónica que repitió para la moderna física Pierre Duhem a comienzos de este siglo— resultan entre sí inconmensurables. Pero todo ese ir y venir de conceptos complejos y delicados no afecta a un plano más básico de interpretaciones psicológicas, que vienen en gran medida sostenidas por la lengua y por creencias irreflexionadas acerca del hombre y los modos de su existencia. Es lo que nos sucede con la percepción. Ya su etimología, percepción, perception, formas derivadas del percipere latino (per-captare, captar o aprehender algo de modo suficiente o completo) muestra que es éste un término que contiene en germen el núcleo de una más compleja explicación. El hablante posee, lingüísticamente, la idea de una función aprehensora de cosas, objetos, realidades. En alemán la expresión es otra, pero en ella se acentúa un poco más, si cabe, esa función cognitiva: Wahrnehmung, captación de lo verdadero, de lo que hay y está dado en el acto perceptivo. En español, no se olvide, llamamos también «percibir» a la recepción de un dinero o de unos bienes, recibidos por un «perceptor»: hasta tal punto está implicada la significación de apropiación en ese concepto. Ya en el mundo antiguo, los estoicos, para referirse a las funciones perceptivas, las simbolizaron con la imagen de la mano que aprehende algo y se cierra sobre lo capturado; dando un salto, en el siglo XIX, sir William Hamilton se refirió a la percepción —tanto interna como externa— como facultad «presentativa», o «receptiva» o «adquisitiva» (Lectures on Metaphysics, l.xxi), y acentuó lo adquisitivo que en ella parece haber; con ello refrendó la tesis de que algo real, antes no poseído y que era exterior al sujeto, entraba en relación con éste. Y aunque esa captación pudo mostrarse en ocasiones como alucinatoria —Taine preferiría pensar en la percepción como «una alucinación verdadera»—, ello no hizo sino evidenciar que incluso en esta última su objeto es vivido por el sujeto percipiente como «otro que yo», como realidad que se me impone, y, por tanto, que lo esencial radica aquí en esa estructura de objetualidad que abre un sujeto a un objeto, y pone a éste ante aquél. La idea de «posesión» nos aclara y patentiza la estructura intencional que reconociera Brentano como esencial de todo lo psíquico, que, según él pensaba, o es percepción o se basa en percepciones (Psychologie vom empirischen Standpunkt). El acto psíquico, el

21

Atención y percepción

fenómeno psíquico, es esencialmente un todo estructural: «donde no se puede hablar de sujeto, no se puede hablar de objeto». Y hablar de objetos implica hacerlo desde un determinado sujeto, situado siempre en una precisa perspectiva. Quiere esto decir que, por debajo de las explicaciones ofrecidas por las escuelas teóricas, nuestras lenguas ya nos ofrecen una inicial y rudimentaria interpretación del proceso, en el cual se integran, cuando menos, un sujeto, un cierto objeto y una incorporación de éste a aquél. Cosa distinta será ya saber el modo y manera de realizar aquella apropiación; sobre ese punto, las distintas psicologías discurrirán luego. Pero disponemos, por tanto, de una primera y tosca teoría, que hace posible sentirse seguros sobre ese extremo del funcionamiento mental, sin que la sucesión de hipotéticas explicaciones ponga en crisis nuestra existencia cotidiana. Y no es ese término sólo: al percibir «observamos» (vamos siguiendo —servare— lo que está delante -ob), y «atendemos» (nos distendemos o tendemos —tendere— hacia —ad— algo), «advertimos» (nos orientamos —vertere— hacia —ad— algo)… En suma, todas esas expresiones nos indican que nos hallamos en una interacción, en una tensión con algo otro dado como objeto, distinto de nosotros mismos, hacia lo que nos orientamos y polarizamos en un proceso temporal que dura y se distiende en el tiempo, integrando, no obstante, una unidad de acto de experiencia. Vale esto para advertir que toda psicología, incluida la de la percepción, ha de comenzar por delimitar el campo de fenómenos que pretende explicar; pero, usualmente, lo halla ya prefigurado en los términos de la lengua, en los decires usuales, en la experiencia común. Por eso, ésta requiere un preciso análisis descriptivo sobre el que luego habrá la ciencia de aplicar sus métodos de trabajo. Nuestro siglo se enriqueció con la contribución de la fenomenología, que permitió precisar las dimensiones del acto de experienciar. Husserl se refirió a la percepción como «conciencia de la presencia de un objeto individual en persona» (leibhaftigen). Y notó que esa presencia era correlativa de una actitud «natural», desde la cual toma el hombre la realidad, la cual «encuentro —es lo que quiere decir ya la palabra— como estando ahí delante y la tomo tal como se me da, también como estando ahí» (Ideen zu einer reinen Phänomenologie...). La percepción es un proceso que sólo se describe correctamente cuando se hace intervenir una amplia serie de niveles distintos de procesamiento de los variados materiales que en el mismo entran. Nuestro encuentro con la realidad en persona viene sostenido sobre una capa de contenidos sensoriales mediados por procesos psicofísicos, pero también sobre una serie de creencias tácitas del sujeto, sobre lo que cree acerca de la objetividad, de la realidad, de la naturaleza en cuanto tal, que proyecta de modo no consciente a partir del nivel histórico y cultural en que su mentalidad se halla fundada (Comte, Ortega). La fenomenología enseñó a poner entre paréntesis la

22

Prólogo

creencia acerca de lo real, para así atender a la pura condición fenoménica del proceso, pero se necesita también de la historia para advertir los condicionamientos que nuestra cultura y nuestra sociedad introducen silenciosamente en nuestro modo de ver el mundo (Vigostki, Mead). Kant terminó con la idea de un pasivo percibir en beneficio de una activa construcción del conocimiento. Desde entonces, la Psicología ha convertido el estudio de la percepción en el análisis de los mecanismos capaces de explicar aquella construcción de los perceptos que aparecen en nuestra experiencia consciente. La atención, atraída inicialmente hacia aquellos aspectos sensoriales de base con que la evolución ha dotado a nuestra especie, ha tendido a promover un claro predominio de las explicaciones de nivel psicofisiológico, dejando un tanto en sombra aquellas otras más complejas, de significación estrictamente psicológica y social, que intervienen en la percepción de «nuestro mundo», de esos peculiarísimos objetos que son «los otros», y del yo-mismo que percibe todo cuanto le rodea (el yo-conocedor de William James). Esta percepción «mundana», ecológica (Brunswik), quedó por largo tiempo en las manos de los psicólogos aplicados, atentos siempre al valor de lo mental en relación con los innumerables mundos a los que se halla abierto —la publicidad, el arte, la interacción social, la conducta vial, la gastronomía, el enmascaramiento bélico, y tantos y tantos aspectos en que se difracta y diversifica la percepción del hombre que vive en un mundo concreto, histórico y social. La percepción, o mejor, la acción percipiente, como concibió Luria, es un proceso gradual en que se van produciendo reconstrucciones de la información que, inicialmente parcelada, se va acumulando en la experiencia y se aproxima, creciente pero asintóticamente, a la realidad concreta de los objetos vividos. Toda una serie de procesos, simultáneos y sucesivos, parecen ir interactuando para hacer posible la vivencia, aparentemente simple, de una pura presencia. Juan Ramón Jimenez escribió: «¡No le toques ya más, / que así es la rosa!». Detrás de la total simplicidad de la presencia de la rosa hay muchos y muy complejos procesos, que interesan y preocupan al psicólogo; procesos que, por otro lado, han de combinarse entre sí de modo que hagan posible aquella apariencia y su inicial presencialidad. La Psicología de nuestro tiempo tiene ante sí la tarea de reconciliar lo que, hace unos años, C. P. Snow dió en llamar las «dos culturas», la del rigor científico y la del sentido humanista. No puede dar la espalda al análisis lento y pormenorizado de los mecanismos hipotéticos que pueden dar cuenta de la forma de nuestra experiencia, pero tampoco puede saltarse los matices, las peculiaridades que ésta presenta a los ojos cultivados, sensibles, del hombre moldeado por una cultura que entra ya en el siglo XXI. Este libro pone en manos de sus lectores y estudiosos un detallado examen de los primeros pasos hacia el conocimiento de la percepción. Espero

23

Atención y percepción

y deseo que sientan también la necesidad de ir dando pasos nuevos cada día, a fin de lograr la comprensión cabal sobre el modo como el hombre se abre a la realidad concreta y cotidiana, con la que tiene que hacer su propia existencia. Madrid, mayo de 1999 Helio CARPINTERO Universidad Complutense

24

Presentación

El manual de atención y percepción que presentamos ha sido especialmente concebido para los alumnos de Psicología que, en el marco de los nuevos planes de estudio, cursan las materias de Atención y Percepción. Nuestro propósito es ofrecerles un material que, aunando el enfoque didáctico y el discurso ameno, la estructuración funcional y el rigor científico, constituya un eficaz punto de apoyo para el estudio de los conocimientos que se imparten en dichas disciplinas. Desde su gestación, este proyecto pretendía encajar plenamente en el proceso de reforma de los planes de estudio. Con el tiempo, y dadas las adaptaciones a las que, paulatinamente, dichos planes se han visto abocados, hemos ido matizando nuestros objetivos, procurando que su evolución fuera esencialmente pareja y culminara en la convergencia operativa deseada. Pasar del viejo cajón de sastre de las sólitas Psicologías Generales a la segregación de los procesos psicológicos básicos en diversas asignaturas, con docencia independiente y con una importante carga de créditos teóricos y prácticos, hacía necesario contar con materiales didácticos actualizados y cuidadosamente adaptados, que respondieran tanto a las nuevas necesidades docentes como a las cada vez más perentorias demandas del alumnado. Poco a poco, van apareciendo en el mercado algunas obras que se adaptan a los requisitos, docentes y discentes, impuestos por unas asignaturas de tan reciente creación, dirigidas tanto a su vertiente teórica como a las prácticas correspondientes. Por nuestra parte, hemos querido contribuir a ese proceso de renovación editorial poniendo al alcance de profesores y alumnos un manual de atención y percepción que conjugue debi-

25

Atención y percepción

damente los objetivos de escrupulosidad conceptual y actualización de conocimientos con una aproximación asequible y dotada de cierta interactividad, condiciones que consideramos preceptivas en una obra dirigida a los estudiantes de un primer ciclo universitario. En función de esas premisas fue diseñada esta obra, procurando no descuidar ningún factor, desde el contenido genérico a la presentación formal, desde el diseño y organización de cada capítulo hasta el lenguaje utilizado, desde la secuencia temática hasta el necesario gradiente de dificultad, desde las propuestas interactivas hasta la abundante utilización de ejemplos ilustrativos en los aspectos que podían resultar más complejos; todo ello en aras a facilitar al alumno una buena guía para introducirse en el estudio del mecanismo atencional y los procesos perceptivos, esmerándonos especialmente en que, a la vez, fuera un texto útil y motivante, eficaz y fácilmente comprensible para el alumno recién iniciado en los estudios de Psicología. Todo ello sin descuidar, por supuesto, la exposición de las perspectivas teóricas más novedosas y la introducción a los paradigmas experimentales más relevantes y vigentes en la psicología de la atención y de la percepción contemporáneas, cuestiones eludidas tan a menudo en un manual de estas características. La presentación conjunta de las materias de Atención y Percepción responde, por un lado, al hecho de que ambas forman parte de la misma asignatura en muchas de nuestras universidades, aunque, bien es verdad, se dan algunas excepciones. En el primer caso, Atención y Percepción suelen dar lugar a una asignatura de carácter anual. En cambio, cuando son asignaturas independientes, suelen ser cuatrimestrales. El manual ha sido diseñado para que pueda ser utilizado en ambos casos, procurando que la necesaria complementariedad en la exposición de los dos procesos no fuera en detrimento de su autonomía. Por otro lado, la asociación de estos procesos obedece a razones de cariz científico-histórico, dado que el vínculo entre atención y percepción posee una larga tradición en psicología —recordemos el legado del insigne William James— y, de hecho, hoy por hoy, la investigación y la modelización teórica que, en torno a ambos, se llevan a cabo desde diferentes ámbitos disciplinarios (psicofísica, neurociencia cognitiva, formulaciones computacionales, etc.), sólo puede concebirse segregable desde una perspectiva sumamente arbitraria. Así pues, ambas materias se hallan intrínsecamente relacionadas a nivel conceptual y experimental, ya desde los inicios de la psicología científica —de hecho, se podría decir que esa relación es primordial y consubstancial—, y saber articularlas de forma adecuada es un reto que no debemos evitar aludiendo a razones más coyunturales que estrictamente científicas. Pese a la progresiva (y necesaria) parcelación de los campos del saber, a la fragmentación de la labor investigadora del psicólogo y a la ingente proliferación de micromodelos presuntamente explicativos; pese a la hiperespecialización hoy tan en boga; pese a que, además, esa segregación extrema se refleja fielmente en el diseño de los nue-

26

Presentación

vos planes de estudio —lo que, a nuestro juicio, supone un alto riesgo para la integridad intelectual del estudiante si, a la vez, no se acompaña de la oferta de visiones más comprensivas—, los que trabajan en estos temas sin descuidar la perspectiva holística y sintética (como sería deseable y necesario), reconocen, implícita o explícitamente, la peculiar, y algunas veces indisoluble, relación entre el sistema atencional y el perceptivo. Para afrontar el reto de la exigencia didáctica propuesta ha sido necesaria una importante y esmerada labor de coordinación, que consiguiera dotar al manual de una coherencia global partiendo de la uniformización de los criterios que debían seguir los autores en la elaboración de cada uno de los capítulos. La uniformidad de dichos criterios afectaba a las cuestiones estrictamente formales, al estilo de exposición y a todos los demás parámetros que consideramos relevantes para que el resultado final fuera el pretendido. Respecto a la estructura de los capítulos, cada uno de ellos se ajusta a una secuencia formal que contempla los siguientes apartados: — Resumen. Se ofrece al lector una perspectiva general del tema propio de cada capítulo, de los principales conceptos, modelos o controversias que en él se desarrollan y de las conclusiones de mayor interés, así como de la utilidad que puede deparar su lectura a la formación del alumno. — Desarrollo. Este apartado constituye el grueso de cada capítulo, organizándose en subapartados con el fin de presentar una articulación temática fácilmente asequible. El contenido se relaciona, en la medida de lo posible, con el de los capítulos precedentes y consecuentes. El texto viene acompañado de numerosas figuras, gráficos y tablas, que ilustran la lectura y, en definitiva, hacen que el continente procure una mejor comprensión del contenido. — Bibliografía comentada. Se destacan las obras más relevantes sobre la materia específica que se ha desarrollado, siempre y cuando cumplan los requisitos que posibiliten una eventual profundización en la temática que no resulte demasiado ardua para el estudiante. En la medida de lo posible, y por mor del público al que va dirigido, se ha dado prioridad a las referencias en castellano, acudiendo a las escritas en otros idiomas —básicamente en inglés— cuando el carácter elemental de la obra así lo aconsejaba. — Preguntas y ejercicios de revisión. Esta sección responde a la conveniencia de ofrecer un componente de interactividad en un texto de estas características. Permite al alumno poner en práctica los conocimientos adquiridos, razonar sobre y a partir de ellos, y, eventualmente, relacionarlos con los estudiados en otros capítulos. Además, procura al alumno un medio de autoevaluación, una forma de obtener un feed-back de los contenidos asimilados correctamente y de los aspectos que requieren mayor dedicación.

27

Atención y percepción

La obra consta de diecinueve capítulos, cuatro dedicados fundamentalmente al mecanismo atencional y quince al estudio de la percepción, todos articulados por una ilación de complementariedad que da al manual la unidad y la cohesión tan necesarias en un trabajo de estas características. La disposición de los capítulos sobre ambos procesos puede considerarse equivalente en el sentido en que su concatenación depende de criterios conceptuales similares. De este modo, se aborda, en primer lugar, el panorama histórico-conceptual del estudio de la atención (Capítulo 1) y de la percepción (Capítulo 5). A continuación, se exponen sendos capítulos sobre los paradigmas experimentales más utilizados en la investigación empírica (capítulos 2 y 6). Posteriormente, se presentan los capítulos que conforman el núcleo de los temas más vigentes en el estudio de ambas materias. Por lo que se refiere a la atención, se exponen, en el Capítulo 3, dos grandes perspectivas funcionales que responden a una distinción no exenta de arbitrariedad. Se trata de las llamadas selección para la percepción y selección para la acción. En este sentido, y debido a motivos que trascienden los objetivos de este prefacio —que, para muchos, pueden resultar obvios—, la investigación sobre percepción nos brinda un campo de estudio más extenso. De esta forma, los capítulos que van desde el 7 al 11, ambos inclusive, versan sobre el estudio del sistema visual (principios básicos, contraste, color, organización visual, reconocimiento de patrones, profundidad y tamaño). El Capítulo 12 trata sobre la percepción del movimiento y, aunque la información que nos ofrece gira primordialmente en torno al sistema visual, incorpora un novedoso apartado que hace referencia a la percepción auditiva del movimiento. Los capítulos 13, 14 y 15 se dedican íntegramente al análisis de la estructura y del funcionamiento del sistema auditivo. El estudio de la percepción táctil y háptica ocupa el Capítulo 16, el de la percepción del tiempo el 17, y el de los sentidos químicos el Capítulo 18. Por último, con el objetivo de dar a la obra un cierto carácter pragmático, que permita al alumno entrever la aplicabilidad de lo aprendido, se incluyen en cada uno de los dos grandes bloques (Atención y Percepción) sendos capítulos dedicados a las alteraciones fundamentales de dichos procesos y a las inherentes a algunos de los grandes cuadros de la psicopatología y de la neurología clínica (capítulos 4 y 19). Durante los últimos años, el estudio del mecanismo atencional ha culminado en importantes transformaciones conceptuales y ha dado lugar a perspectivas inéditas y a la eclosión de nuevas aproximaciones a su estudio. En los tres primeros capítulos, a la vez que se definen los términos y modelos tradicionales en el estudio de la atención, se exponen los conceptos más novedosos y algunos de los enfoques teóricos recientes de mayor interés, siempre reflejando las numerosas controversias y dilemas aún por resolver y abundando en las disquisiciones que permitirán al lector aproximarse a una concepción panorámica y genuinamente actual del mecanismo atencional. En este contexto, quizás quepa destacar la fecunda relación que vincula

28

Presentación

el estudio científico-básico de la atención y su vertiente aplicada, vínculo especialmente fructífero en psicología clínica y psicología de la educación. En el Capítulo 4 se profundiza en esta conexión biunívoca entre lo teórico y lo aplicado, un enfoque que, a nuestro parecer, complementará de forma valiosa la visión que sobre el tema atencional se haya ido formando el estudiante a través de la lectura de los capítulos anteriores. Por otra parte, se ha buscado brindar una exposición lo más exhaustiva y equilibrada posible de las diversas temáticas perceptivas. En algunos de los manuales existentes en el mercado editorial se aborda tan sólo el estudio de la percepción visual, sesgo que hemos procurado evitar en la obra que presentamos, en la cual, amén de exponer los conocimientos fundamentales sobre percepción visual, creemos que se logra una exposición acertada de los conocimientos esenciales sobre percepción auditiva, táctil, olfativa y gustativa, incorporando, además, un original capítulo sobre percepción temporal. Es cierto que, en el manual, los conocimientos sobre el estudio de la percepción visual son los que ocupan una mayor extensión, hecho que responde fundamentalmente al productivo desarrollo teórico-experimental en este campo —lo que, a su vez, deriva de una mayor y más consolidada tradición investigadora—, razón por la cual, en ningún caso, resultaba admisible obviar alguno de los tópicos relacionados con esta modalidad perceptiva. Por otro lado, se dedican tres capítulos completos a la percepción auditiva, hecho poco habitual en un manual sobre percepción: el sonido y la arquitectura del sistema auditivo humano, la percepción de la tonalidad y de la sonoridad, y la percepción del habla. En un tercer bloque se describen los conocimientos sobre otras modalidades: percepción táctil y háptica, olfato y gusto, y percepción del tiempo y de la causalidad. Como norma, los capítulos sobre el estudio perceptivo siguen una pauta de exposición similar respecto a la estructura interna de cada uno de ellos. De esta forma, en la mayoría de ellos se exponen, en primera instancia, las bases psicofísicas del sistema perceptivo concreto y, a continuación, su aplicación fisiológica. En conjunto, cabe enfatizar que, en cada capítulo, se sacan a colación aplicaciones prácticas que ilustran los contenidos más teoréticos. Es otra característica que dota a la obra, a nuestro entender, de ciertas posibilidades de uso en la impartición de otros estudios universitarios con un carácter más aplicado (Publicidad, Marketing o Bellas Artes). Asimismo, puede ser útil para una potencial profundización de conocimientos en titulaciones donde se trabaja a partir del conocimiento generado por la investigación en procesos psicológicos básicos (Pedagogía, Magisterio, Psicopedagogía, etc.). En definitiva, hemos procurado ofrecer al alumno una obra compacta y cohesionada, útil y funcional, conceptualmente comprehensiva, denotativamente sencilla, connotativamente rica y provista de los recursos didácticos que se hallaban a nuestro alcance; todo ello para conseguir un producto fi-

29

Atención y percepción

nal que constituya una guía valiosa y esencial para el alumno novel. El tiempo —ese juez implacable— dirá si, después de todo, hemos conseguido algo de lo que pretendíamos.

Enric MUNAR Jaume ROSSELLÓ Antonio Sánchez CABACO

30

Primera parte

Atención

1. Panorama históricoconceptual del estudio de la atención Pilar Tejero Gimeno

Este capítulo pretende introducir al lector en el estudio de la atención, desde la óptica de la psicología cognitiva contemporánea. Para ello, se ha estructurado en dos apartados principales. El primero de ellos, desarrollado bajo el título «¿Qué es la atención?», comienza explicando cuáles son las funciones que desempeña este mecanismo cognitivo en el procesamiento humano de información, a la par que adelanta someramente las cuestiones que serán tratadas en los subapartados siguientes: los factores que determinan hacia dónde se orienta nuestra atención en un momento concreto, la posibilidad de orientar encubiertamente la atención, las ventajas que supone la función selectiva de la atención para el procesamiento humano de información, la necesidad del control atencional en ciertas situaciones y condiciones, la acción preparatoria de la atención sobre estructuras de procesamiento y su implicación en la ejecución de tareas prolongadas y, por último, la delimitación de las redes cerebrales cuya actividad sustenta el funcionamiento atencional. El segundo apartado ha sido titulado «Modelos teóricos sobre la atención» y en él se resumen y comentan las principales ideas que se han defendido sobre las funciones de la atención y sobre los mecanismos mediante los que las desempeña, desde los años cincuenta de nuestro siglo hasta la actualidad.

33

Atención

1.

¿Qué es la atención?

1.1

Funciones de la atención en el procesamiento humano de información

Es posible que el lector haya sido amonestado en alguna ocasión por uno de sus profesores por no estar atendiendo a sus explicaciones. Tal vez su conducta se produjo inintencionadamente, cuando algo distinto al discurso del docente atrajo su atención. Quizá se sintió impelido a girar su cabeza hacia la ventana de la clase cuando un coche deportivo se detuvo bruscamente a la altura del semáforo. En cualquier caso, es casi seguro que el profesor recuperó su atención fácilmente, con sólo mencionar su nombre, sin que para ello tuviera que variar las características de la voz que estaba utilizando en su disertación. Este ejemplo puede servir para introducir algunos de los diferentes significados denotados por la palabra atención y sus derivados. Así, el profesor reclama a sus alumnos que atiendan exclusivamente a lo que está explicando y, consiguientemente, que ignoren cualquier otro evento que pueda suceder en el entorno de la clase; efectivamente, atender implica seleccionar una parte de la mucha y variada información externa que está disponible en un momento dado en cualquier situación. En el ejemplo utilizado, las palabras del profesor contienen información, como también la contienen los ruidos que se producen dentro y fuera de la clase, los gráficos dibujados en la pizarra, el movimiento del brazo de un compañero que desea resolver una duda... Al dirigir nuestra atención sobre las explicaciones del profesor, favorecemos la identificación correcta de sus palabras y la comprehensión de lo que pretende decirnos. En términos generales, se puede decir que mediante la atención logramos centrarnos en el análisis de una parte de la información que nos llega a través de nuestros órganos sensoriales, lo que facilita que las operaciones mentales necesarias para identificar y reconocer esa información se produzcan eficientemente. Ello puede conseguirse en realidad mediante dos tipos de mecanismos: por una parte, al atender al discurso del profesor, la información que éste nos proporciona se convierte de alguna forma en la información prioritaria respecto al resto, lo cual facilita que la analicemos con mayor detalle; pero también puede ser que la información a la que no atendemos resulte de alguna manera bloqueada o inhibida y, por ello, que el análisis de esta información no alcance el nivel que sí consigue el de la información atendida. A menudo, la información seleccionada lo es porque se adecua a la que se desea recibir en ese momento, porque se ajusta a nuestros objetivos, motivaciones, intereses o expectativas actuales (factores internos al propio sujeto); así, el alumno motivado para seguir la explicación del profesor orienta fácilmente su atención hacia ella, a pesar de que sus compañeros más próximos estén conversando animadamente sobre otros asuntos. Sin embar-

34

1. Panorama histórico-conceptual del estudio de la atención

go, en ocasiones, nuestra atención es atraída por eventos externos, prácticamente sin que medie intencionalidad por nuestra parte al menos, inicialmente, como puede ocurrir si aparece repentinamente la imagen de un vehículo en nuestra periferia visual o si alguien pronuncia nuestro nombre; entonces, la información seleccionada lo es principalmente porque tiene unas características concretas en los ejemplos mencionados, porque aparece de forma abrupta y porque tiene un significado personal especial, respectivamente. En el primero de los apartados que vienen después de esta introducción se retomará y extenderá esta cuestión. Tal vez su profesor no se conformó con reorientar su atención desde lo que ocurría en el exterior de la clase hacia las explicaciones, sino que, además, le planteó alguna insidiosa pregunta sobre el tema que estaban estudiando. Pues bien, la atención también estuvo implicada en la actividad mental y verbal que le permitió responderla, pues para hacerlo tuvo que seleccionar la información relevante disponible en su memoria y elaborarla mediante las operaciones o los procesos necesarios para llegar a dar la respuesta correcta. Con este ejemplo se pretende incidir, en primer lugar, en que la atención también interviene en la selección de información interna al propio sistema de procesamiento humano —información en forma de conceptos y sus interrelaciones, de imágenes, de planes de acción… En segundo lugar, con él se desea enfatizar que la atención también puede ejercer la importante función de controlar la actividad cognitiva y conductual que nos permite alcanzar un objetivo; en el ejemplo, el de responder correctamente a una pregunta compleja. Más adelante se explica que una gran parte de los procesos implicados en las actividades cotidianas no requieren este tipo de control, pues pueden desarrollarse automáticamente, sin la supervisión de la atención. En cambio, hay procesos que sólo pueden desarrollarse con el control atencional. La selección de información es una de las principales manifestaciones de la atención, pero también hay otra fundamental: la reducción del tiempo necesario para responder ante un evento esperado (LaBerge, 1995). Para ejemplificar esta afirmación podemos seguir utilizando la situación anterior: si la respuesta que dio a la pregunta de su profesor no sólo fue correcta, sino también sorprendentemente rápida si se considera lo distintos que eran sus pensamientos respecto a los contenidos de la clase sólo unos segundos antes, puede que influyera en ello que la mención de su nombre por parte del profesor le hizo esperar de éste una pregunta inmediata. En general, cuando tenemos la expectativa de que va a ocurrir algo ante lo que hemos de dar una respuesta inmediata, responderemos con más rapidez que cuando no lo esperamos. Esta ventaja temporal se atribuye a la acción preparatoria de la atención sobre los procesos que llevan a la selección y realización de nuestras respuestas. Por tanto, atender también significa estar preparados anticipadamente para responder con rapidez a un evento y mantenerse en estado de alerta de forma prolongada hasta que éste se produce.

35

Atención

Es posible que el lector esté empezando a elaborar la idea de que los fenómenos relacionados con la atención son demasiado diversos. Precisamente por ello, hay quienes se declaran escépticos sobre la posibilidad de encontrar una definición única que los incluya a todos y dudan de que tales fenómenos puedan explicarse desde los mismos principios; opiniones recientes en este sentido aparecidas en manuales de psicología de la atención las expresan, por ejemplo Elizabeth Styles (1997, p. 240), o Harold Pashler y James C. Johnston (1998, p. 156). Sin embargo, en contra de esta postura se puede argumentar que existe evidencia de que la atención funciona como un mecanismo unitario, si bien su estructura parece modular (Tudela, 1992). Es decir, hay razones fundadas para mantener que el funcionamiento atencional implica la actuación coordinada de varios módulos o subsistemas, pues cada uno de ellos desempeña distintas funciones, pero existe una estrecha relación entre todos ellos. Una gran parte de esta evidencia procede de investigaciones neurofisiológicas y neuropsicológicas recientes en las que se utilizan técnicas propias de la psicología cognitiva experimental. Estas investigaciones revelan la existencia de un complejo sistema neural cuya actividad se manifiesta fundamentalmente cuando la tarea que realiza el individuo requiere de alguna manera su atención, el cual parece estar integrado por varias redes interrelacionadas de áreas cerebrales (Posner y Petersen, 1990; Posner, 1995). En un apartado posterior de este capítulo se especifica cuáles son las funciones atencionales específicas que aparecen relacionadas con cada una de estas redes. En definitiva, la atención es un complejo mecanismo cognitivo, cuyo funcionamiento puede influir sobre la actividad de los sistemas mediante los que obtenemos información del mundo exterior (sistemas sensoriales), sobre los sistemas que realizan operaciones sobre la información procedente del exterior o de la memoria (sistemas cognitivos) y sobre los sistemas mediante los que ejecutamos conductas (sistemas motores). Con ello, la atención desempeña funciones fundamentales para el desarrollo organizado de la actividad consciente, tales como la orientación de esta actividad hacia estímulos concretos, la detección de eventos sensoriales y de contenidos de nuestra memoria o el mantenimiento del estado de alerta durante el tiempo que se prolongue la tarea que estamos realizando (Posner, 1995). Por todo lo cual, la atención puede definirse como el mecanismo cognitivo mediante el que ejercemos el control voluntario sobre nuestra actividad perceptiva, cognitiva y conductual, entendiendo por ello que activa/inhibe y organiza las diferentes operaciones mentales requeridas para llegar a obtener el objetivo que pretendemos y cuya intervención es necesaria cuando y en la medida en que estas operaciones no pueden desarrollarse automáticamente.

36

1. Panorama histórico-conceptual del estudio de la atención

1.2

Determinantes de la orientación atencional

Como ya se avanzó en el apartado anterior, en ocasiones, nuestra atención se orienta hacia una estimulación concreta y no hacia otras guiada fundamentalmente por lo que deseamos obtener en la situación en la que nos encontramos, mientras que en otros momentos la orientación atencional está determinada principalmente por las características de los estímulos de la situación. En la realidad, lo más frecuente es que ambos tipos de factores actúen conjuntamente (Yantis, 1998). Por ejemplo, si tenemos interés en conocer cuál es el importe de una factura que acabamos de recibir, probablemente dirigiremos nuestra atención en primer lugar hacia el lugar de la factura en donde sabemos que habitualmente aparece ese importe, destacado respecto a la información circundante por su letra negrita y por su mayor tamaño. En este caso, nuestra atención se orienta hacia una estimulación concreta guiada por nuestra expectativa de dónde aparecerá la información que deseamos obtener y de cuáles serán sus características, pero también influye en su orientación el hecho de que tales características hagan destacar a esa estimulación respecto al resto. Los investigadores han diseñado tareas en las que se intenta minimizar la influencia de nuestros objetivos y expectativas sobre la orientación atencional, con la finalidad de especificar con detalle cuáles son las características estimulares que tienen la capacidad de atraer automáticamente nuestra atención. Seguidamente se comentan algunos trabajos realizados al respecto con tareas visuales. 1.2.1 Características visuales que atraen la atención La detección de un estímulo visual con unas características concretas (estímulo-objetivo) dentro de una serie de estímulos que no las tienen (estímulos distractores) se enlentece si entre estos últimos se incluye alguno que es radicalmente distinto a todos los demás en cuanto a características tales como el color, el brillo o la orientación (distractor destacado). Por ejemplo, si se pide a un sujeto que indique si está o no presente la letra A (estímuloobjetivo) en una matriz de letras B (estímulos distractores), tardará más en dar su respuesta si todas las letras son negras incluida la A, si es que ésta está presente excepto alguna o algunas B de color amarillo. En una situación como la descrita, la demora en la respuesta se atribuye a la atracción que el color ejerce sobre la atención, que obliga a reorientarla desde el estímulo distractor coloreado hacia el estímulo que es realmente el objetivo de la tarea, por lo cual, el tiempo total transcurrido para encontrar la A es mayor que cuando no se incluyen distractores destacados. Así pues, cuando un estímulo presenta alguna característica física que lo destaca visualmente entre el resto de estímulos presentes, nuestra atención

37

Atención

tiende a orientarse hacia ese estímulo, a pesar de que nuestra intención sea la de orientarla hacia otros estímulos definidos por características que contrastan menos con las del resto (Egeth y Yantis, 1997). Por ello, pese a que nuestra intención cuando revisamos una factura sea la de conocer cuál es el importe a pagar, puede que nuestra atención se oriente inicialmente hacia estímulos irrelevantes con características destacadas, tales como un pequeño dibujo coloreado incluido en la factura con fines publicitarios. De hecho, ésta es una estrategia muy utilizada en la publicidad visual para atraer la atención de los posibles usuarios del producto o servicio publicitado. Por otra parte, nuestra atención también tiende a orientarse hacia los estímulos visuales que aparecen de forma abrupta. Así, aunque se esté bastante concentrado en la lectura de este capítulo, si se produjera repentinamente un destello de luz dentro de nuestra periferia visual, es muy probable que éste capturara nuestra atención y por tanto que la lectura resultara interrumpida. Yantis y Jonides (1984) utilizaron un ingenioso procedimiento para estudiar la influencia de esta característica estimular sobre la orientación atencional. Presentaron a un grupo de sujetos series con distinto número de letras, con la peculiaridad de que éstas eran el resultado de la iluminación de algunos de los segmentos que conforman el número 8 en la pantalla de un reloj digital o de una calculadora (véase la Figura 1.1). En cada ensayo había una que aparecía en una posición en la que inmediatamente antes no había ningún estímulo; es decir, surgía de forma abrupta. Las restantes letras aparecían mediante el desvanecimiento de algunos de los segmentos luminosos de figuras 8 completas, que acababan de ser presentadas durante un segundo, por lo que en estos casos no había inicio abrupto, sino más bien una transformación de estímulos preexistentes. Tanto la letra de inicio abrupto como las resultantes de la transformación tardaban en aparecer el mismo tiempo. La tarea de los sujetos consistió en indicar si entre las letras presentadas en cada ensayo se incluía o no una letra concreta, previamente especificada (letra-objetivo). La proporción de ensayos en los que efectivamente aparecía la letra-objetivo fue de un 50 por ciento. Para evitar que los sujetos creyeran que el inicio abrupto de la letra estaba estrechamente relacionado con la tarea de encontrar la letra-objetivo y, por tanto, para evitar que dirigieran deliberadamente su atención hacia la letra de inicio abrupto, ésta sólo era la letra-objetivo en unos pocos ensayos (en concreto, en una proporción de ensayos igual a 1/número de letras presentadas). A pesar de ello, los sujetos encontraban antes la letra-objetivo cuando ésta era la que aparecía de forma abrupta o, a la inversa, los sujetos detectaban más lentamente la letra-objetivo cuando ésta aparecía como resultado de la transformación de un estímulo preexistente. Además, cuando la letra-objetivo era la que se iniciaba de forma abrupta, el tiempo necesario para dar la respuesta no variaba aunque se incrementara el número de letras presentadas, mientras que ello sí sucedía si la letra-objetivo era una de las que aparecía como resultado del desvaneci-

38

1. Panorama histórico-conceptual del estudio de la atención

Figura 1.1 1984).

Ejemplo de estímulos utilizados por Yantis y Jonides (adaptado de Yantis y Jonides,

miento de partes de un 8. Estos resultados sugieren que la aparición abrupta de la letra atraía automáticamente la atención del sujeto: la respuesta era más rápida si esa letra era precisamente la letra-objetivo, pero era más lenta en el caso de que no lo fuera, pues en este último caso había que redirigir la atención desde la letra de inicio abrupto hacia las otras letras y examinar éstas para determinar si entre ellas se incluía la letra-objetivo. Al parecer, no es necesario que haya un cambio considerable de luminancia para que nuestra atención se dirija automáticamente hacia donde aparece abruptamente un estímulo, como de hecho sucedía en el experimento de Yantis y Jonides que se acaba de describir. En efecto, en este experimento, la aparición del estímulo de inicio abrupto suponía un incremento importante de la cantidad de luz que llegaba a los ojos procedente del área en la que surgía ese estímulo, puesto que antes de ello no había allí ningún estímulo, mientras que la magnitud de la variación de luminancia en el caso de las letras que surgían como resultado de la transformación de figuras 8 era bastante inferior. A pesar de ello, Yantis y otros consideran que ése no es el factor esencial para que nuestra atención se oriente automáticamente hacia un estímulo de inicio abrupto, sino que el estímulo constituya un objeto perceptivo nuevo en el campo visual, pues también los objetos de inicio abrupto cuya luminancia es idéntica a la del fondo sobre el que aparecen logran captar la atención (por ejemplo, véase Yantis y Hillstrom, 1994). 1.3

Orientación abierta o encubierta

La orientación de la atención suele coincidir abiertamente con la de los receptores sensoriales. Volviendo al ejemplo con el que se abría este capítulo, así ocurrió si su cabeza giró en dirección al lugar donde apareció el

39

Atención

vehículo que atrajo su atención. Con ese movimiento, sus ojos y sus oídos, en donde se ubican respectivamente los receptores visuales y auditivos, se orientaron de forma óptima para percibir lo que ocurría en el exterior, hacia la misma estimulación a la que se estaba dirigiendo su atención. Sin embargo, aunque lo habitual es que nuestra mirada se dirija hacia aquello sobre lo que ponemos nuestra atención, sabemos que a veces no se da esa coincidencia. Así, puede que en un momento concreto quizá en muchas ocasiones un alumno esté mirando el gráfico que está explicando su profesor, pero que su atención visual se oriente en realidad hacia lo que está haciendo su compañero de mesa, encubiertamente. En esta situación, la información visual seleccionada atencionalmente será la correspondiente a las acciones del compañero y no la contenida en el gráfico. Los investigadores han comprobado en el laboratorio que, efectivamente, la orientación de la atención visual puede ser distinta a la de los receptores visuales. Para ello se han utilizado cuidadosos procedimientos, mediante los que se controla la dirección de la mirada del sujeto mientras éste realiza una tarea en la que se requiere que su atención cambie de orientación desde una posición del campo visual hasta otra próxima; por ejemplo, puede pedirse al sujeto que intente mantener su mirada continuamente en una posición fija del campo visual y al mismo tiempo que indique lo más rápidamente posible cuándo detecta la aparición de cierto estímulo previamente determinado, el cual puede surgir en distintas posiciones ubicadas en torno al punto de fijación. En estas investigaciones se restringen los movimientos de la cabeza y de los ojos de los sujetos y se registran mediante las técnicas apropiadas los que puedan producirse, con el objetivo de determinar cuál es la posición de la escena visual a la que el sujeto estaba dirigiendo la mirada en cada momento. Así se ha comprobado, por ejemplo, que aunque no se produzca ningún movimiento ocular hacia la posición donde aparece el estímulo, los sujetos tienden a detectar éste más rápidamente cuando inmediatamente antes de que aparezca se les ha indicado cuál era la posición de la escena visual en la que probablemente aparecería, en comparación con los casos en los que no se da esa información y también con aquellos en los que el estímulo aparece en una posición distinta a la indicada; es decir, cuando la información no es válida (Posner, 1980). Haciendo caso de lo que se nos indica sobre el lugar en el que es probable que aparezca el estímulo, tendemos a orientar nuestra atención hacia esa posición, encubiertamente, puesto que también se nos pide que no dejemos de mirar a una posición prefijada. Gracias a ello, somos capaces de detectar el estímulo con mayor rapidez cuando aparece justo en la posición en la que hemos focalizado nuestra atención y, por la misma razón, somos más lentos en detectarlo cuando, contrariamente a lo que se nos ha informado, aparece en una posición diferente y relativamente alejada de la que constituye en ese momento el foco de nuestra atención.

40

1. Panorama histórico-conceptual del estudio de la atención

En definitiva, la orientación de la atención visual está relacionada con la orientación de los receptores visuales, pero no depende en exclusiva de la de éstos. Es más, la orientación que adoptan en un momento concreto nuestros receptores visuales depende en parte de cuál es la orientación de nuestra atención. Por ejemplo, cuando leemos una línea de texto, nuestra atención tiende a orientarse hacia posiciones más avanzadas que aquellas en las que estamos fijando nuestra mirada, gracias a lo cual los movimientos que han de realizar nuestros ojos para fijar la mirada sobre palabras posteriores a las que ya hemos leído —denominados movimientos sacádicos— pueden planificarse y ejecutarse con mayor precisión. La atención ejerce en este caso una acción preparatoria sobre los movimientos oculares, de manera que la amplitud de cada uno de esos movimientos se ajustará a lo requerido para que la lectura pueda progresar eficientemente (Stelmach, Campsall y Herdman, 1997). 1.4

Beneficios de la selección atencional de información

Ya sea abierta o encubierta, y esté dirigida principalmente por nuestros objetivos o por las características estimulares, lo cierto es que la orientación de la atención hacia una estimulación concreta consigue favorecer el procesamiento de la información proporcionada por esa estimulación, en comparación con el que se realiza sobre la información obtenida a partir de la estimulación no atendida. Gracias a ello, podemos responder más rápidamente y con mayor precisión a la información estimular que está siendo seleccionada atencionalmente que al resto de la información que recibimos en un momento concreto, lo que resulta beneficioso en la realización de muchas tareas cotidianas. Así, cuando nuestra atención se orienta hacia una estimulación concreta, controlamos la selección de la información necesaria para identificar correctamente un estímulo de entre los muchos que pueden estar presentes, o para categorizarlo según su color, su tamaño u otra característica, con lo cual se evita que la información que proviene de otros estímulos pueda interferir con la que corresponde al estímulo-objetivo. De hecho, se ha comprobado que si se perjudica la concentración selectiva de la atención sobre un objeto, se propicia la percepción de conjunciones de características que son en realidad ilusorias, entendiendo por tales las combinaciones de características que no corresponden realmente a las de los objetos. Por ejemplo, eso es lo que ocurre si nos parece haber visto una T verde cuando en realidad se ha expuesto brevemente una T azul, una O verde y una X roja. Este tipo de ilusiones se produjeron en un experimento realizado por Treisman y Schmidt (1982), en el que se instruyó a los sujetos para que indicaran cuáles eran los dos dígitos que aparecían al principio y al final de una fila de tres letras; los dígitos eran siempre negros,

41

Atención

mientras que las letras siempre eran de color. Aunque ésta era la tarea prioritaria, también se pidió a los sujetos que indicaran en cada ensayo las letras que hubieran podido ver y su color respectivo. En el caso de las letras, las conjunciones ilusorias fueron numerosas, porque las instrucciones inducían a los sujetos a prestar su atención fundamentalmente a los dígitos y, por tanto, no se atendía selectivamente a las combinaciones de características que presentaban aquéllas. Aunque en los apartados previos se haya aludido exclusivamente a la selección de información estimular externa —y prácticamente sólo a la visual—, no debe olvidarse que la atención también puede orientarse hacia información interna al propio sistema de procesamiento humano con lo que cumple una importante función en el control de la actividad cognitiva y conductual. Esta cuestión está recibiendo un interés creciente en los últimos años por parte de los investigadores. Al igual que la selección de información externa favorece la rapidez y la precisión de la realización de tareas perceptivas, la selección de información interna sobre la acción (mental o motora) que pretendemos realizar en un momento concreto también propicia una realización rápida y precisa de esa acción (LaBerge, 1995). Por ejemplo, la resolución eficiente de un problema matemático complejo requiere una selección atencional ordenada de los subobjetivos que permitirán alcanzar la solución final y de las operaciones concretas que llevarán a cada uno de los subobjetivos. La selección de información sobre una acción es particularmente necesaria cuando deben coordinarse distintas acciones, como en el caso de la resolución de un problema difícil, o cuando tenemos que hilvanar varias ideas para responder a la pregunta que nos acaba de plantear el profesor, o si pretendemos guardar la mayor cantidad posible de objetos dentro de una gran caja; en tales casos, es fundamental el desarrollo ordenado de la secuencia de acciones que llevarán finalmente a alcanzar el objetivo deseado, por lo que, si no se dispone en la memoria de un plan de acción específico para la situación, habrá que seleccionar atencionalmente la información sobre la acción concreta que es apropiada en cada momento. Asimismo, este tipo de selección es importante cuando existen otras posibles acciones disponibles en la situación, pues en tales casos debe evitarse que éstas interfieran en la realización de la acción pretendida; por ejemplo, ¿alguna vez se ha encontrado el lector intentando meter la ropa sucia en la nevera en lugar de en la lavadora? Si dudó de su higiene mental en esos momentos, a buen seguro que fue demasiado lejos, pues éste es simplemente un ejemplo de lo que se denomina acto fallido: una acción que se ejecuta justo cuando se pretendía llevar a cabo otra diferente. Una posible explicación para ello es que su conducta en esa situación estuvo fundamentalmente determinada por sus esquemas mentales sobre cuáles eran y cómo tenía que realizar las acciones que le conducirían a lograr su objetivo (en el ejemplo, estas acciones consistirían en acercarse a la cesta de la ropa, abrir-

42

1. Panorama histórico-conceptual del estudio de la atención

la, sacar la ropa, abrir la puerta de la lavadora, meter la ropa dentro de ella…), hasta el punto de que no prestó la atención necesaria para realizar una de esas acciones sobre la puerta de la lavadora y no sobre la de la nevera. Por tanto, nuestra conducta puede resultar desorganizada e ineficaz si no prestamos atención al desarrollo de las acciones que la necesitan, incluso aunque sólo la requieran en alguna o algunas de las fases que llevan al logro de nuestros objetivos. Pero con ello nos introducimos ya en la cuestión tratada en el siguiente apartado: la función de control de la actividad mental y conductual que ejerce la atención. 1.5

Automatización y control atencional

En la introducción de este capítulo se especificaba que muchos de los procesos implicados en nuestra actividad cotidiana pueden desarrollarse sin necesidad de control atencional. Por ejemplo, si se domina la escritura mecanizada, no es necesario prestar atención a muchas de las operaciones implicadas en la acción de escribir mediante el teclado de un ordenador. Podemos escribir a la vez que centramos nuestra atención sobre la argumentación que se expone en el texto que estamos copiando, o sobre cuáles son las frases más adecuadas para expresar la idea que «nos ronda por la cabeza». Aunque así lo hagamos, los movimientos de los dedos se producen de forma ágil, en el orden correcto, de manera que la escritura se produce a una buena velocidad y con bastante precisión. No es necesario atender a todos y cada uno de esos movimientos; de hecho, si se hace, la escritura puede ser menos eficiente. Tampoco hace falta poner demasiada atención sobre el proceso necesario para enmendar un error en la escritura de alguna palabra: en cuanto lo advertimos, lo enmendamos rápidamente, borrando las letras necesarias y escribiendo las adecuadas. En definitiva, estos procesos pueden producirse de forma automática, sin control atencional, ante la mera presencia de la estimulación (si se está copiando un texto, los estímulos son las imágenes visuales de las palabras que lo componen; si se está escribiendo sin texto, lo son las representaciones mentales de las palabras que integran la idea en la que estamos pensando). En cambio, hay procesos que sólo pueden desarrollarse bajo el control de la atención. Ya se ha puesto dos ejemplos de ello en el párrafo anterior: los procesos mentales necesarios para comprender una argumentación y los que se requieren para expresar ideas mediante el lenguaje. Estos procesos no pueden ocurrir sin prestarles atención y, por ello, difícilmente podemos simultanearlos con los requeridos por otras actividades que también la exigen; así, será prácticamente imposible comprender el texto estrictamente al mismo tiempo que pensamos en cómo expresar nuestra idea. Sin embargo, será relativamente fácil realizar cualquiera de ellos de forma concurrente con alguna actividad que pueda desarrollarse en gran medida automática-

43

Atención

mente, como puede ser la escritura mecanizada. En general, el control atencional suele ser necesario cuando la tarea es compleja o novedosa, mientras que no lo es cuando se trata de una tarea bien aprendida o rutinaria. En términos cognitivos, la atención ha de controlar los procesos necesarios para alcanzar un objetivo cuando no se dispone en la memoria del plan de acción específico requerido para alcanzarlo —por ejemplo, porque la situación presenta elementos desconocidos para el individuo o porque todavía no se ha practicado lo suficiente las acciones apropiadas para afrontarla—, así como cuando la propia situación favorece la realización de acciones que nos desvían de su consecución —por ejemplo, como ocurre en una tarea tipo Stroop, según se explica al final de este apartado (Shallice y Burgess, 1993). En realidad, la investigación indica que esta distinción es más bien gradual y no tanto una dicotomía estricta (Tudela, 1992), de tal forma que hay procesos que están totalmente automatizados y otros que se producen exclusivamente bajo el control atencional, pero también los hay que son sólo parcialmente automáticos, en mayor o en menor medida. Asimismo, hay procesos que ocurren siempre de forma automática porque así lo permiten las características propias del sistema de procesamiento humano (por ejemplo, los que subyacen a la acción de andar a lo largo de un camino), mientras que en otros casos es la práctica consistente y reiterada de una tarea o de una combinación de tareas la que puede llevar de forma gradual a la automatización de los procesos implicados en tales tareas; por tanto, un proceso que inicialmente sólo podía desarrollarse bajo el control atencional puede acabar produciéndose automáticamente con la práctica. Un ejemplo frecuentemente utilizado es el de la conducción: los procesos que se desarrollan durante algunas tareas implicadas en la conducción de un vehículo pueden automatizarse según se va adquiriendo experiencia; por ejemplo, la utilización adecuada de la caja de cambios apenas requiere la atención del conductor experto. Otro ejemplo común es la lectura: el niño progresa en la lectura comprehensiva a medida que puede centrar su atención más sobre el significado de lo que lee que en la identificación de cada una de los símbolos, gracias a que esta identificación se va liberando con la práctica de la necesidad de control atencional. También hay ejemplos provocados experimentalmente, como el que lograron obtener Spelke, Hirst y Neisser (1976) con dos voluntariosos estudiantes, que consintieron en practicar la lectura de historias a la vez que escribían palabras al dictado, durante un total de 85 horas, distribuidas a lo largo de 17 semanas. Aunque al principio la lectura era muy lenta y la escritura también resultaba perjudicada, la ejecución en ambas tareas fue mejorando con la práctica, hasta el punto de que al final del experimento ambos sujetos no sólo eran capaces de leer las historias a una velocidad normal y a la vez escribir lo que se les dictaba, sino que también demostraban haber comprendido lo que habían leído y hasta podían escribir la cate-

44

1. Panorama histórico-conceptual del estudio de la atención

goría a la que pertenecían las palabras que se les dictaban, en lugar de las propias palabras. Paradójicamente, la automatización de un proceso puede, en ocasiones acarrear algunas desventajas. Entre los datos que pueden ejemplificar esta afirmación están los obtenidos en tareas de tipo Stroop, denominadas así porque pretenden provocar un efecto similar al que comprobó J. R. Stroop en los años treinta. Este efecto se manifiesta cuando se pide a un sujeto que diga lo más rápidamente posible el nombre del color de la tinta con la que están impresas una serie de palabras y hay una contradicción entre el nombre del color (dimensión-objetivo en la tarea) y el significado léxico de la palabra (dimensión irrelevante en la tarea); por ejemplo, cuando se ha de decir «azul» porque ése es el color de la tinta, pero la palabra escrita es «rojo». En estos casos, las respuestas de los sujetos se demoran y a veces son erróneas —siguiendo con el ejemplo anterior, el sujeto puede decir «rojo»—, lo cual no se produce si no existe la contradicción. El efecto se atribuye a la interferencia entre el procesamiento de la información a la que se debe atender el color de la tinta y el de otra información también contenida en la estimulación —el significado de la palabra. Esta última información es irrelevante para realizar la tarea de nombrar el color de la tinta, pero su procesamiento ocurre de forma automática, por lo que, cuando se trata de una información conflictiva con aquella a la que se debe atender, la ejecución de la tarea resulta perjudicada. Así pues, a pesar de que la intención del sujeto sea la de ignorar la información irrelevante, difícilmente puede evitar ser consciente del significado de las palabras impresas; a no ser que sea analfabeto o las palabras estén escritas en un idioma que desconoce, pues en tales casos no se producirá un procesamiento automático del significado. En general, cuanto más práctica se tenga en el procesamiento de una dimensión del estímulo, más probable es que tal procesamiento interfiera con el de otras de sus dimensiones (MacLeod, 1991). 1.6

Preparación atencional y mantenimiento del nivel de alerta

Nuestra atención puede cambiar su orientación rápidamente, pasando de estar centrada en una información a estarlo en otra en un tiempo muy breve (de milisegundos). Pero también es cierto que, frecuentemente, la orientación de la atención se mantiene invariable durante un cierto tiempo. Así ocurre cuando creemos probable que suceda cierto evento que nos interesa: por ejemplo, si advertimos una señal de tráfico triangular en la que se representan las siluetas de unos niños corriendo, nos esforzaremos por mantener nuestra atención en la calzada durante todo el tiempo en que circulemos por ese tramo. Con ello, nos preparamos para reaccionar con rapidez en el caso de que algún pequeño la invada repentinamente. De hecho, cuando se recibe alguna información avisando de la próxima aparición de un

45

Atención

evento en cierto lugar, el tiempo necesario para reaccionar ante éste tiende a ser menor que cuando no se dispone de esa clave previa, pues esa información nos induce a orientar la atención hacia el lugar en el que se producirá el evento antes de que éste se produzca. Así se comprobó en un experimento que ya ha sido referido en un apartado anterior, realizado por Posner y cols. (véase Posner, 1980): cuando se indicaba a los sujetos el lugar en el que era probable que apareciera el estímulo-objetivo, inmediatamente antes de que lo hiciera, los sujetos lo detectaban más pronto (como media, unos 30 milisegundos antes que cuando no se proporcionaba ninguna información previa sobre el lugar en el que podía aparecer el estímulo); en contrapartida, si la información proporcionada no era válida, porque indicaba un lugar distinto a aquel en el que realmente iba a aparecer el estímulo, se observaba un coste en la velocidad de detección cuya cuantía era incluso mayor que la del beneficio que conllevaba la información válida (en concreto, en estos casos se detectaba, como media, unos 50 milisegundos más tarde que si no se daba ninguna información previa). En situaciones como las que se acaban de describir, se considera que la mayor rapidez a la hora de detectar el evento es posible gracias a la acción de la atención sobre las estructuras específicamente encargadas del procesamiento de la información requerida para responder al evento que esperamos que ocurra. Dado que la probabilidad de cometer respuestas erróneas puede ser algo más elevada en estos casos, se considera que la atención actúa fundamentalmente sobre los procesos de selección y realización de respuestas (Posner, 1978). Así pues, al focalizar nuestra atención sobre el lugar en el que es probable que suceda el evento, se logra la preparación anticipada del procesamiento necesario para responder ante el mismo. En términos neurofisiológicos, esta preparación se operativizaría como un incremento en la actividad de las áreas cerebrales que sustentan el procesamiento de esa información (LaBerge, 1995). Algunas actividades pueden exigir mantener la atención a la espera de un posible evento durante un tiempo bastante largo, incluso hasta varias horas, pues ese evento suele ocurrir sólo ocasionalmente y su aparición es prácticamente impredecible para el individuo. A este tipo de tareas se les conoce como de vigilancia. Un ejemplo característico es la que tiene que desempeñar el operador de un radar militar. El rendimiento del individuo en este tipo de tareas depende de su capacidad de mantener la atención de forma prolongada sobre el entorno en el que puede aparecer el evento-objetivo; a esta función atencional se le suele denominar atención sostenida. En general, la probabilidad de detectar correctamente el evento-objetivo en este tipo de tareas varía a lo largo del tiempo transcurrido desde que se inició la tarea, de tal forma que es típico observar una función decreciente: es decir, cuanto mayor es el tiempo transcurrido, menos detecciones correctas se producen (Mackworth, 1948). Sin embargo, este fenómeno puede ser más o menos acusado, dependiendo de características personales del indivi-

46

1. Panorama histórico-conceptual del estudio de la atención

duo y de las de la tarea de vigilancia concreta que tenga que realizar (Koelega, 1996). 1.7

Anatomía del sistema atencional

Nuestros conocimientos sobre las estructuras anatómicas del sistema nervioso que posibilitan la atención derivan de estudios bastante recientes y son todavía incompletos, debido a la gran dificultad que supone obtener datos de la actividad de esas estructuras mientras se está realizando una tarea atencional. En la actualidad se utilizan básicamente dos tipos de técnicas: en el caso de las personas se obtienen imágenes de las áreas nerviosas que se activan durante la tarea mediante resonancia magnética funcional o con tomografía por emisión de positrones; en animales se pueden realizar también registros de la actividad de neuronas aisladas mediante microelectrodos. Los datos derivados de estos estudios indican que existen áreas del sistema nervioso central que están implicadas específicamente en distintas funciones atencionales (Posner y Petersen, 1990; Posner, 1995). Así, el lóbulo parietal posterior (en la corteza cerebral), el colículo superior (en el troncoencéfalo) y el núcleo pulvinar (en el tálamo) forman parte de una red posterior de áreas cerebrales que sustenta nuestra capacidad de orientar la atención desde una posición a otra del campo visual. Cada una de estas áreas podría ser la base de una operación distinta de las que intervienen en la orientación: el desenganche de la atención respecto a la posición inicial estaría relacionado con el lóbulo parietal posterior; el desplazamiento de la atención desde la posición inicial hasta la nueva posición focalizada lo estaría con el colículo superior, y la focalización atencional sobre la nueva posición lo estaría con el núcleo pulvinar. Por otra parte, las zonas anteriores y de alrededor del giro cingular (en el lóbulo frontal medio de la corteza cerebral) forman la red anterior, que se relaciona con la detección de estímulos y con el control atencional de nuestras acciones. Asimismo, existen datos que apuntan a la existencia de una tercera red: la llamada red de vigilancia en la que interviene especialmente, entre otras regiones del hemisferio derecho, un área del lóbulo frontal derecho, que propicia el mantenimiento del estado de alerta posiblemente gracias a la implicación de vías noradrenérgicas que se originan a nivel del locus coeruleus, en el tronco encefálico. Así pues, la base neural de la alerta responde a una asimetría interhemisférica, siendo mayor la implicación del hemisferio derecho. Todavía son más recientes los esfuerzos para determinar cuál es el circuito de la actividad de esas redes. Dicho de forma muy simple, estas investigaciones pretenden concretar en qué momento interviene cada una de las estructuras anatómicas integradas en cada red cuando se lleva a cabo una tarea que requiere atención. En ellas se conjugan los resultados de la aplicación de técnicas anatómicas como las mencionadas en el comienzo de

47

Atención

este apartado con los derivados del registro de potenciales evocados mediante un gran número de electrodos colocados en la superficie craneal (Posner y Tudela, 1997).

2.

Modelos teóricos sobre la atención

2.1

Introducción

Nuestros conocimientos actuales sobre la atención son el fruto de numerosas, complejas y a menudo sorprendentemente ingeniosas investigaciones. Las pioneras se remontan a los mismos inicios de la psicología científica, fechados convencionalmente a finales del siglo XIX. De hecho, los fenómenos atencionales acapararon una gran parte del interés de aquellos primeros psicólogos, entre los que es obligado reconocer, como mínimo, a Wilhem Wundt, Oswald Külpe, Edward B. Titchener, William James, W. Pillsbury... (Rosselló, 1997). En cambio, lo que había sido un área central de la investigación psicológica dejó drásticamente de serlo entre los años veinte y cincuenta de nuestro siglo, debido al predominio de un enfoque distinto sobre lo que debía ser objeto de estudio de la psicología y sobre cuáles debían ser sus métodos: el del conductismo. Según este enfoque, no sólo la atención, sino también cualquier otro concepto que estuviera esencialmente definido por su naturaleza mental, sobraba en una psicología científica (Watson, 1913). En realidad, este duro bloqueo hacia la investigación de fenómenos atencionales empezó a suavizarse hacia finales de los años cuarenta (Lovie, 1983). Pero, como se explica en el siguiente apartado, por aquel entonces ya se estaba gestando lo que pronto iba a llegar a ser el nuevo paradigma dominante en la psicología científica, el de la psicología cognitiva, en el que los procesos y mecanismos mentales se asumieron como conceptos con un valor explicativo fundamental. Con ello empezaba la era moderna de la psicología de la atención, a cuyo desarrollo se dedican los siguientes apartados. 2.2

El estudio de la atención desde el paradigma cognitivo

Fueron varios los factores que propiciaron el nacimiento y la consolidación de una psicología cognitiva cuyo enfoque predominante ha sido el conocido como del procesamiento de información (véase Vega, 1984, Cap. 1; Ruiz Vargas, 1994, pp. 29-34); entre ellos, la teoría matemática de la comunicación, formulada a finales de los años cuarenta por C. E. Shannon y W. Weaver. Su impacto indujo a una serie de psicólogos a utilizar esta teoría para describir y explicar cuestiones de índole psicológica. La teoría de la infor-

48

1. Panorama histórico-conceptual del estudio de la atención

mación planteaba un modelo del proceso de la comunicación que incluía un emisor, un receptor y un canal a lo largo del cual se transmitía información entre ambos; aquellos psicólogos empezaron a utilizar la metáfora de considerar al ser humano como un canal de capacidad limitada que transmite información. El desarrollo de la tecnología informática favoreció que esa primera metáfora fuera pronto sustituida por la del ordenador: el ser humano transmite y procesa; es decir, modifica mediante diversas operaciones o procesos cognitivos información en forma de representaciones mentales, de manera funcionalmente análoga a como lo hace un ordenador (véase Crespo, 1997, p. 36 y Cap. 7). Desde entonces, los psicólogos han propuesto numerosos modelos de procesamiento humano de información, entendiendo por ello descripciones teóricas de cuáles son las fases a través de las que se produce ese procesamiento (Massaro y Cowan, 1993). En lo que concierne a la investigación atencional, el primer modelo que utilizó este enfoque fue elaborado por Donald E. Broadbent (1958), a quien no sólo ha de considerarse pionero, sino también un influyente inspirador de la investigación cognitiva posterior. Como se explica más adelante, Broadbent propuso que el sistema humano de procesamiento de información incluye una fase de filtrado que reduce de alguna forma la cantidad de información que será procesada ulteriormente; con ello incorporaba en su modelo la función selectiva de la atención. Los modelos que se han defendido después del de Broadbent son muchos y muy variados, pero su revisión puede simplificarse si se agrupan según las ideas básicas que comparten. Así, es posible distinguir un primer tipo de modelos, a los que se suele aplicar etiquetas como de filtro, estructurales o de canal único, entre los que se incluyen el propio de Broadbent y otros posteriores que coinciden en analizar la atención fundamentalmente como selección de información; las principales contribuciones al respecto están recogidas en el subapartado 2.2.1. En la década de los setenta proliferan las investigaciones sobre la distribución de la atención entre distintas tareas y, con ello, modelos que inciden principalmente sobre la intensidad de la atención que se presta en una tarea concreta; de entre estos modelos, los de más impacto son los que comparan la atención con una especie de recurso o recursos que pueden ser necesarios para que se complete el procesamiento de la información, los cuales son comentados en el subapartado 2.2.2. Hacia finales de los años setenta, algunos teóricos discuten la idea de capacidad limitada de procesamiento que subyace tanto a las teorías del filtro como a las de recursos, discusión que derivará en una conceptualización de la atención como una serie de mecanismos de selección que operan para garantizar la coordinación y el control de nuestras acciones; esta perspectiva se presenta brevemente en el subapartado 2.2.3. Por último, en el subapartado 2.2.4. se intentan describir las aproximaciones teóricas más destacables formuladas en los últimos años.

49

Atención

2.2.1 Modelos de filtro La mayoría de las primeras investigaciones sobre atención realizadas desde el enfoque del procesamiento de la información se desarrollaron con el objetivo de determinar las limitaciones del procesamiento humano cuando la información recibida es múltiple y diversa. Imagínese el lector lo que le puede ocurrir a un controlador aéreo en una situación cotidiana de su trabajo si recibe más de un mensaje verbal al mismo tiempo desde distintos aviones, o si a la vez que le llega algún mensaje surge también alguna señal visual en su pantalla que le informa de algún evento relevante. Este es un ejemplo sencillo del tipo de problemas que demandaron la intervención de los psicólogos en los años cincuenta, los cuales sirvieron de acicate para abrir una línea de investigación sobre los mecanismos de la atención humana que, a medida que se ha ido desarrollando, ha ampliado considerablemente la complejidad de sus análisis. La técnica más utilizada en esos primeros trabajos de investigación fue la escucha dicótica. Ésta consiste en la presentación simultánea mediante auriculares de sendos mensajes, generalmente uno distinto por cada uno de los oídos. Pronto se comprobó que es muy difícil dividir la atención entre dos mensajes recibidos dicóticamente, a veces prácticamente imposible. En cambio, la ejecución de los sujetos en tareas de seguimiento —repetición en voz alta de uno de los mensajes, según se va recibiendo—, indicaba que es relativamente fácil atender selectivamente a uno de ellos, especialmente cuando se trata de un mensaje semántica y gramaticalmente correcto —en comparación con el caso de que sean listas de palabras o, más difícil todavía, listas de sílabas sin sentido— y también cuando se maximizan las diferencias de naturaleza física entre los dos mensajes, tales como el timbre de la voz que emite cada uno de ellos o la velocidad con la que se presentan los estímulos. Pero lo más interesante de la cuestión de la selección atencional resultó ser precisamente su reverso: la investigación de lo que sucede con la estimulación a la que no se ha prestado atención. Los primeros resultados obtenidos indicaban que los sujetos no eran capaces de recordar prácticamente nada del mensaje al que no habían atendido— el irrelevante para la tarea de seguimiento. Sin embargo, si se introducían ciertos estímulos en el mensaje irrelevante se producían errores o fallos en el seguimiento del otro mensaje, lo que sugería que se producía algún procesamiento de la información irrelevante. Los estímulos que se revelaron como capaces de conseguir atraer la atención hacia el canal que no estaba siendo atendido parecían ser exclusivamente de naturaleza física, como un cambio notable en el timbre de la voz (por ejemplo, cuando la voz emisora del mensaje irrelevante pasaba de ser la de un hombre a ser una voz de mujer o al contrario) o la aparición de un sonido inesperado en medio del mensaje verbal. En cambio, las consecuencias de un cambio de idioma en el mensaje irrelevante eran práctica-

50

1. Panorama histórico-conceptual del estudio de la atención

mente nulas, como también lo eran si se producían cambios semánticos en el mismo (por ejemplo, pasar de dar lectura a un fragmento de una historia a otro fragmento de una historia distinta). El modelo propuesto por Broadbent en Perception and Communication (1958) pretendía dar cuenta de todos esos resultados. Según este modelo, nuestras dificultades para atender simultáneamente a dos mensajes dicóticos se debe a que el sistema perceptual— una de las estructuras que participan en el procesamiento de la información— tiene una capacidad de procesamiento limitada: sólo puede procesar hasta una cierta cantidad de información en una unidad de tiempo. Por ello, la capacidad del sistema perceptual suele ser insuficiente respecto a la cantidad de información sensorial disponible en un momento concreto. De ahí la necesidad de un mecanismo de filtrado que opere justo antes de que esa información acceda al sistema perceptual, para evitar que llegue a éste una cantidad de información excesiva en relación con su capacidad. Por tanto, el modelo de Broadbent plantea que la información que obtenemos a través de los sistemas sensoriales puede procesarse inicialmente en paralelo, pero a partir de la fase en la que opera el sistema perceptual el procesamiento tiene que ser serial. Quizá la siguiente analogía facilite la comprensión de estos dos conceptos: a través de una autopista es posible circular en paralelo, pues la existencia de varios carriles en cada uno de sus sentidos permite que puedan desplazarse varios vehículos a un mismo tiempo; pero si varios vehículos procedentes de una autopista confluyen en el acceso a una estrecha carretera local, con un único carril en cada sentido, se verán forzados a entrar y a circular por ella de uno en uno en distintos momentos, es decir, serialmente. Según Broadbent, el sistema humano es capaz de procesar varias unidades de información al mismo tiempo —en paralelo— en las fases más tempranas, pero a partir de la fase en la que opera el sistema perceptual ya sólo se puede procesar una unidad de información en cada unidad de tiempo —serialmente. Así pues, las limitaciones estructurales del sistema perceptual serían las que imposibilitan que seamos conscientes de una gran parte de la información sensorial que recibimos en un momento concreto. Para Broadbent, toda la información que llega a nuestros órganos sensoriales se analiza a un nivel físico, entendiendo por tal el análisis de características que no dependen del significado simbólico del lenguaje humano, tales como el timbre de la voz —o, por ejemplo, el color en el caso de la visión—; pero sólo la información seleccionada podrá ser procesada en el sistema perceptual, en el que se analiza además el significado de esa información, por lo cual sólo podemos identificar una parte de la información que llega continuamente a nuestros órganos sensoriales. Así pues, para Broadbent, la selección atencional ocurre antes de que se produzca el análisis semántico de la información, en fases tempranas del procesamiento de la misma.

51

Atención

Las ideas de Broadbent respecto a la capacidad limitada del sistema de procesamiento humano y sobre la existencia de un mecanismo de filtrado de la información fundamentan teóricamente las investigaciones atencionales realizadas en la década de los sesenta. Pero algunos de estos trabajos empiezan a proporcionar evidencia de que el nivel de procesamiento alcanzado por la información no seleccionada puede llegar a ser también semántico. Así, Neville Moray (1959) comprobó que la introducción del nombre del sujeto en el mensaje irrelevante en una tarea de escucha dicótica provocaba fallos en el seguimiento del otro mensaje —¿recuerda el ejemplo con el que se abría este capítulo?—. Este y otros resultados llevaron a Deutsch y Deutsch (1963) a plantear que toda la información recibida a través de nuestros órganos sensoriales en un momento concreto se procesa semánticamente, aunque sólo una parte de esa información, aquella que el sistema evalúa como la más relevante para la tarea actual, es almacenada en nuestra memoria y/o evoca una respuesta; es decir, que la selección de información se produce en fases ya bastante avanzadas del procesamiento y no en fases tempranas como proponía Broadbent. Por su parte, Anne Treisman publicó en la misma década resultados que también indicaban que el mensaje irrelevante en escucha dicótica puede atravesar el filtro, sobre todo cuando está semánticamente relacionado con el mensaje al que se debe atender (Treisman, 1960); así como que la selección de uno de los dos mensajes dicóticos puede basarse en diferencias de naturaleza semántica y no sólo en diferencias de índole física, si bien la eficacia de estas últimas es inferior a la que tienen las primeras (Treisman, 1964). Por ello, en lugar de optar por un modelo de selección tardía, como hicieron Deutsch y Deutsch, Treisman defendió la conveniencia de adaptar el modelo propuesto por Broadbent a los nuevos hallazgos. La principal modificación consistió en flexibilizar el filtro: para Treisman, la información no atendida también puede llegar a ser procesada semánticamente, aunque la probabilidad de que ello suceda suele ser baja, porque el filtro atenúa el impacto de esta información. Sólo en ciertos casos la atenuación no es óbice para que identifiquemos la información no atendida. Por ejemplo, así ocurre cuando se trata del nombre propio del individuo, pues la relevancia personal de esta información es tal que aunque no se esté atendiendo al canal por el que se pronuncia y por tanto se atenúe su impacto, éste todavía será suficiente como para que se nos haga consciente. La misma explicación se aplicaría cuando por el canal irrelevante se presenta una información cuyo significado es coherente con la información que esperamos recibir en ese momento por el canal atendido; por ejemplo, si repentinamente se empieza a emitir una historia distinta a la que se estaba escuchando hasta el momento a través del canal atendido, a la vez que la que se estaba atendiendo continúa emitiéndose a través del canal no atendido, la atención de los sujetos tiende a desviarse por unos momentos hacia el canal irrelevante, pues así lo indica el hecho de que repitan las primeras palabras

52

1. Panorama histórico-conceptual del estudio de la atención

dichas a través de este canal de la historia hasta entonces atendida, en lugar de las primeras palabras de la nueva historia emitida por el canal relevante (Treisman, 1960). Las investigaciones sobre la atención selectiva y el procesamiento perceptual de la información fueron acumulándose durante la década de los sesenta con el objetivo de dilucidar la cuestión de dónde opera el filtro atencional, si en fases más bien tempranas o más bien tardías del procesamiento de información; o en otros términos, en qué punto se produce el cambio de un procesamiento de información en paralelo —por tanto, sin necesidad de atención— a un procesamiento serial —bajo el control atencional. Hubo incluso quienes propusieron modelos parcialmente alternativos a los que ya habían sido formulados por Broadbent y por Treisman, por un lado, y por Deutsch y Deutsch, por otro. Entre éstos, no debe dejar de citarse al de Johnston y Heinz (1978), pues algunas investigaciones recientes (por ejemplo, véase Lavie, 1995) apoyan sus ideas acerca de esta cuestión: según estos autores, la fase en la que se produce la selección es variable y depende de cuáles sean las demandas específicas que plantea la tarea y de cuáles sean las circunstancias en las que ésta se realiza —por tanto, se trata de una especie de mecanismo de filtro móvil, característica que permite una mayor flexibilidad de la función selectiva—; dentro de los márgenes impuestos por esos condicionantes, la selección siempre ocurrirá lo antes posible en el procesamiento de la información. Aunque parte de toda la polémica sobre la fase en que se produce la selección puede resolverse teniendo en cuenta diferencias y problemas metodológicos (véase Ortells y Fuentes, 1992), lo cierto es que el debate empezó a perder fuerza a la par que empezó a consolidarse la idea de que las limitaciones a la hora de procesar distintas informaciones podían explicarse también desde otro punto de vista: desde la consideración de cómo se distribuye la capacidad de procesamiento del sistema. Esta nueva óptica es la que caracteriza a los denominados modelos de recursos, que se comentan en el siguiente apartado. 2.2.2 Modelos de recursos Si se pide a los sujetos que intenten atender a todo lo que se les presenta dicóticamente, avisándoles de que después se les pedirá que identifiquen las palabras que hayan escuchado entre otras que no se les van a presentar, los resultados suelen ser considerablemente más pobres que si sólo tienen que atender a uno de los dos canales auditivos. Según los modelos de filtro, las dificultades para prestar atención simultáneamente a dos informaciones distintas se deben a que, a partir de cierta fase, el procesamiento de información humano es necesariamente serial. En principio, esta explicación es plausible para lo que ocurre en una tarea de escucha dicótica, pero, ¿lo es

53

Atención

también para cualquier otra situación en la que se tienen que utilizar distintas informaciones a un mismo tiempo? ¿Qué sucede, por ejemplo, cuando queremos dividir nuestra atención entre la escucha de una noticia urgente que emiten por la radio y la búsqueda visual de unas llaves en el cajón en el que las guardamos habitualmente? ¿Sería lo mismo si, en lugar de tener que encontrar un objeto cotidiano en su entorno habitual, tuviéramos que buscar algún objeto pequeño no identificado que ha caído dentro de una caja en la que hay diversos objetos que no hemos visto anteriormente? Quizá el sistema de procesamiento humano pueda operar serialmente o en paralelo, dependiendo de la cantidad de esfuerzo (mental) que haya que invertir para procesar las distintas informaciones que nos llegan. Esta es una de las ideas básicas de los denominados modelos de recursos atencionales. Estos modelos ponen el énfasis en la cuestión de la intensidad con la que se atiende a una información o a una acción, más que en la cuestión de la selección de información (Tudela, 1992). En este sentido, la atención se considera como una especie de suministro o energía mental, más bien escaso, que puede ser necesario para que se desarrolle el procesamiento de la información y que se puede invertir sobre éste en mayor o en menor medida, distribuyéndolo de forma variable sobre distintas operaciones mentales según las demandas de la tarea o tareas del momento. A la hora de especificar en qué consistiría ese «suministro» hubo más de una postura (véase Neumann, 1996), pero sin duda alguna la que alcanzó mayor prestigio fue la que adoptó Daniel Kahneman (1973), cuyas ideas sobre la capacidad atencional todavía dejan sentir su influencia en la investigación actual (Botella, 1997). Kahneman considera que atender es invertir un esfuerzo mental, ya sea sobre una actividad que ha sido seleccionada voluntariamente o sobre un evento que ha sido capaz de atraer involuntariamente nuestra atención. Por esfuerzo mental debe entenderse una capacidad general inespecífica del sistema de procesamiento humano, que puede requerirse para procesar información —pero no siempre, pues hay procesos que no la necesitan— y que está disponible sólo de forma limitada, de manera que será o no suficiente para realizar una tarea o una combinación de tareas dependiendo de las demandas concretas que esas tareas planteen al sistema. Según Kahneman, esta capacidad es de naturaleza energética, una forma de arousal relacionada con la actividad mental del sujeto, y por ello se puede evaluar tomando datos fisiológicos, tales como las variaciones del diámetro de la pupila ocular o los cambios en la actividad electrodérmica. Kahneman defiende que la cantidad de esfuerzo atencional que podemos invertir en un momento concreto tiene siempre un límite. Por ello, si la tarea demanda más esfuerzo del que está actualmente disponible no la podremos realizar con éxito. Igualmente ocurrirá si intentamos realizar una tarea pero no se le asigna la cantidad de esfuerzo que demanda porque hay otra u otras tareas que lo están consumiendo. En cambio, si la demanda conjunta

54

1. Panorama histórico-conceptual del estudio de la atención

de esfuerzo de dos o más tareas no excede la capacidad disponible, podremos realizarlas simultáneamente, en paralelo, sin que resulte perjudicado el rendimiento en ninguna de ellas. Por tanto, el sistema procesa la información serialmente o en paralelo en función de la cantidad total de esfuerzo que le supone el procesamiento. En general, desde la perspectiva de los modelos de recursos se considera que si el rendimiento en una tarea mejora o empeora según aumenta o disminuye el esfuerzo que se invierte, es porque el procesamiento necesario para realizar esta tarea requiere ese esfuerzo atencional —en la terminología de Norman y Bobrow (1975), se trata de un procesamiento limitado por los recursos, entendiendo por recursos una capacidad básicamente similar a la que Kahneman denominó esfuerzo (Tudela, 1992). Sin embargo, en algunas situaciones puede que no se observen cambios en el rendimiento, a pesar de que varíe el esfuerzo invertido en la tarea; se trata de situaciones en las que no se dispone de la información externa o interna necesaria para realizar la tarea o en las que ésta es insuficiente, por lo cual el rendimiento parece invariable sea cual sea el esfuerzo invertido —Norman y Bobrow etiquetaron al procesamiento implicado en estas situaciones con la expresión procesamiento limitado por los datos. Según Kahneman, la asignación de esfuerzo a una tarea o la distribución del mismo entre varias a un tiempo no es aleatoria, sino que existe una política de distribución. Ésta depende no sólo de la evaluación que hace el sujeto sobre cuánto esfuerzo demanda una actividad concreta, sino también de ciertas disposiciones estables (por ejemplo, un estímulo novedoso que surge repentinamente suele provocar que una gran parte del esfuerzo atencional se dirija al procesamiento del mismo, en lugar de dirigirse a la tarea que se estaba realizando), de intenciones momentáneas (por ejemplo, el esfuerzo puede asignarse fundamentalmente a procesar una información que estábamos esperando), así como del nivel de activación general del organismo (si éste es demasiado bajo, el esfuerzo puede ser insuficiente y consiguientemente el rendimiento en la tarea será pobre, pero si la activación es excesiva, el esfuerzo tiende a asignarse de forma desigual entre diversas actividades y con menos precisión en cada una de ellas, por lo que la ejecución puede perder eficacia, especialmente si la tarea requiere el desarrollo coordinado de diversas actividades de procesamiento; esto explicaría las dificultades de concentración en el estudio que pueden surgir cuando se está excesivamente nervioso por los posibles resultados del examen que nos van a realizar próximamente). Quizá el desarrollo empírico de mayor valor derivado de esta perspectiva sobre la atención haya sido el trabajo realizado por diversos investigadores para establecer las denominadas funciones POC (Performance Operating Characteristic) correspondientes a tareas dobles o duales —una combinación de dos tareas, que deben realizarse simultáneamente—, por ejemplo, tocar el piano a la vez que se repite en voz alta un texto que se recibe audi-

55

Atención

Ajuste en el seguimiento (unidades arbitrarias)

tivamente. Las funciones POC fueron definidas inicialmente por dos autores que ya han sido citados en este apartado, Norman y Bobrow (1975), para analizar teóricamente las situaciones en las que dos procesos demandan simultáneamente esfuerzo atencional; es decir, para estudiar lo que Kahneman había llamado la política de distribución del esfuerzo. Cuando se aplica al análisis de la ejecución en una tarea doble, una función POC es la función matemática que expresa el rendimiento de los sujetos en cada una de las tareas, cuando éstas se realizan simultáneamente en repetidas ocasiones, pero bajo distintas condiciones. Las diferencias entre una ocasión y otra pueden consistir, por ejemplo, en que las instrucciones dadas para realizar las tareas prioricen en distinta medida el rendimiento en cada una de las tareas; o también en que la dificultad de una de ellas sea variable de ocasión a ocasión. A modo de ejemplo, en la Figura 1.2 se muestra una gráfica hipotética correspondiente a una función POC. Supongamos que esta gráfica se ha derivado a partir de los resultados obtenidos cuando se ha pedido a una serie de sujetos que siguieran con la vista continuamente la trayectoria de un punto luminoso que se movía en la pantalla de un ordenador y, al mismo tiempo, que apretaran la barra espaciadora del teclado cada vez que detectaran la aparición de otro punto luminoso en el centro de la pantalla. Estos resultados —insistimos en que son hipotéticos— corresponden a cinco sesiones distintas, en cada una de las cuales se proporcionaron instrucciones diferentes: en a) se pidió que se intentara realizar ambas tareas invirtiendo el mismo esfuerzo en cada una de ellas; en b) se indicó que se intentara mejorar la puntuación obtenida en la sesión a para la tarea de seguimiento visual, de manera que esta puntuación alcanzara un valor superior en un 25 por ciento a la que se había obtenido en la sesión a, pero intentando al mismo tiempo que no aumentara el tiempo medio que les había costado detectar el punto luminoso en el centro de la pantalla en

Figura 1.2

56

Una función POC (datos hipotéticos; léase el texto para interpretar esta gráfica).

1. Panorama histórico-conceptual del estudio de la atención

esa sesión; en c) se proporcionaron las mismas instrucciones que en la sesión b, salvo que se les pedía que mejoraran la puntuación en la tarea de seguimiento visual hasta alcanzar un valor superior en un 50 por ciento a la obtenida en la sesión a; en d) la demanda de mejora ya no se refería a la tarea de seguimiento, sino a la de detección, pues se pedía que se intentara reducir el tiempo medio que se había obtenido en la sesión a, de forma que se obtuviera un valor inferior en un 25 por ciento, intentando al mismo tiempo que no empeorara la puntuación obtenida en la sesión a para la tarea de seguimiento visual; por último, en e) se proporcionaron las instrucciones dadas en la sesión d, aunque pidiendo una reducción del tiempo de detección del 50 por ciento respecto al obtenido en la sesión a. Para interpretar adecuadamente la gráfica, téngase en cuenta que los puntos resaltados corresponden, de izquierda a derecha, a los resultados obtenidos en las sesiones c, b, a, d y e, en este orden. Así pues, esta gráfica indica que cuando los sujetos se esfuerzan para mejorar su rendimiento en la tarea de seguimiento visual respecto al alcanzado en la sesión a (sesiones c y b), realmente lo consiguen, si bien ello conlleva que los obtenidos en la tarea de detección visual empeoren en comparación con los obtenidos en la sesión a, pese a que las instrucciones expliciten que se mantenga el nivel obtenido en esta otra tarea. Análogamente, cuando los resultados en la tarea de detección mejoran (sesiones d y e), empeoran los obtenidos en la tarea de seguimiento. Los datos que se fueron acumulando sobre el rendimiento en tareas dobles indicaban que el éxito en la combinación de dos tareas no sólo depende de la dificultad de las mismas, sino también de las diferencias estructurales entre ambas, de manera que cuanto más diferentes sean entre sí, menos interferencia se revelará en su ejecución simultánea (Wickens, 1980). Por ejemplo, la interferencia tiende a ser mayor si las dos tareas obligan a responder utilizando respuestas manuales —a menudo, en los experimentos consiste en apretar el botón o la tecla indicado en cada caso— que si la respuesta en una de las tareas es manual y en la otra se ha de emitir verbalmente. Este tipo de datos restaban apoyo a la caracterización de Kahneman del esfuerzo atencional como una capacidad general inespecífica e indujeron a sugerir a otros investigadores que sería más adecuada una explicación en términos de diversas capacidades o recursos específicos, entendiendo por tales una serie de componentes del sistema de procesamiento que estarían especializados en distintas actividades y por tanto podían ser requeridos en algunas tareas pero no en otras; por ejemplo, podrían existir recursos que sólo serían necesarios cuando la tarea requiriera una respuesta manual y otros distintos que sólo lo serían cuando la respuesta tuviera que darse verbalmente. Cada uno de esos componentes tendría sus propias características definitorias, es decir, una capacidad concreta y una política de distribución determinada. D. A. Allport, por un lado y A. Sanders, por otro, fueron precursores de esta nueva perspectiva, con la que también formula-

57

Atención

ron sus modelos autores como C. D. Wickens (1984), o D. Navon y D. Gopher (1979), entre otros. Sin embargo, la alternativa de describir la atención como una serie de diversos recursos específicos para distintas tareas tampoco ha satisfecho a demasiados investigadores, ni siquiera a algunos de los que la defendieron inicialmente (por ejemplo, véase Allport, 1980; Navon, 1984). El problema principal reside en que esta postura puede abocar en la necesidad de postular tantos recursos atencionales como fenómenos de interferencia se describan. Lo cual, por añadidura, lleva a anular el valor del concepto de atención para explicar el procesamiento humano (Tudela, 1992). 2.2.3 Críticas a la concepción de capacidad limitada. La selección para la acción. Durante los últimos años, algunos teóricos han criticado la idea de que la selección atencional es una pura necesidad para el sistema de procesamiento humano porque su capacidad para procesar información es limitada, se entienda esa limitación como estructural (como en las teorías del filtro) o como escasez de un recurso o de múltiples recursos. Entre ellos destacan D. Allan Allport (1987), Odmar Neumann (1996) y A. H. C. van Der Heijden (1992). Para estos autores, el planteamiento correcto es más bien el inverso: las limitaciones de nuestra capacidad para procesar información son consecuencia de la selección atencional (véase Apartado 3 del Capítulo 3). Este planteamiento se empezó a fraguar algunos años antes con las críticas de Ulric Neisser (1976) y D. Allan Allport (1980) a los modelos atencionales que se habían formulado hasta entonces. El análisis de Neisser fue tan radical que le llevó a concluir que la atención es un concepto superfluo para la comprensión de la cognición humana, pues para este autor la percepción es en sí misma un proceso de selección de información, guiada por nuestros esquemas; por tanto, según Neisser, no hay necesidad de atribuir ese proceso de selección a ningún mecanismo atencional. Aunque esta postura se aleja en gran medida del sentir mayoritario entre los investigadores de la atención, hay que reconocerle que su defensa de que la eficacia de la selección puede incrementarse con la experiencia, como cualquier otra habilidad humana, ha favorecido el desarrollo de investigaciones sobre los efectos de la práctica en el rendimiento en tareas atencionales. Esta defensa está estrechamente relacionada con su concepción de que nuestra capacidad de procesamiento no está estrictamente limitada ni por las características estructurales ni funcionales del sistema de procesamiento humano, sino que depende fundamentalmente de que desarrollemos las habilidades específicas necesarias en cada tarea. Allport defendió un punto de vista similar al subrayar que las dificultades que se producen al intentar realizar simultáneamente varias tareas pueden explicarse a partir de factores específicos a

58

1. Panorama histórico-conceptual del estudio de la atención

las propias tareas. A modo de ejemplo: según Allport, para realizar correctamente el seguimiento de las palabras del canal relevante en una tarea de escucha dicótica hay que evitar que las palabras del irrelevante controlen nuestras respuestas vocales, lo cual tendría el efecto de que la información irrelevante tampoco podría controlar otras respuestas voluntarias; ello explicaría nuestras dificultades para recordar la información presentada por el canal irrelevante. Para Neumann (1996), las ideas de estos dos autores son el punto de partida para un replanteamiento de la cuestión de la función selectiva de la atención. Según este autor, la selección debe producirse para controlar nuestra conducta, porque cada uno de los sistemas que nos permiten ejecutar respuestas ante esa información sólo pueden realizar una acción en cada momento (por ejemplo, sólo podemos pronunciar un sonido, de la misma forma que sólo podemos mirar hacia un lugar o mover uno de nuestros dedos en una dirección concreta) y porque una acción sólo se puede realizar de un modo concreto en un momento determinado. Si no existiera selección para controlar la acción, la conducta se desorganizaría. Desde este punto de vista, por tanto, es una estrategia de la que disponen los organismos para afrontar los problemas que pueden producirse en la coordinación y el control de acciones y por tanto es más un logro que un déficit de nuestro sistema de procesamiento (Neumann, 1996). 2.2.4 Modelos recientes La investigación sobre la atención es actualmente un área de gran actividad en la psicología cognitiva. Gran parte de esta investigación responde al interés de estudiar la implicación de la atención selectiva en el procesamiento perceptivo. Por diversas razones (véase Rosselló, 1997), este estudio se ha volcado rotundamente sobre el procesamiento visual, de manera que las investigaciones sobre la atención auditiva son comparativamente escasas. Por ello, las tareas más frecuentemente utilizadas en los experimentos de atención selectiva implican la identificación visual de objetos y de sus atributos. Como se explica en un capítulo posterior de este mismo libro, entre las aportaciones teóricas más relevantes a este respecto se incluyen teorías que enfatizan que lo que se selecciona es una región espacial del campo visual y otras que proponen que la selección se basa en los objetos o grupos perceptivos presentes en el mismo. Recientemente se han propuesto también algunos modelos que pretenden integrar estas dos perspectivas, por ejemplo el modelo VAM (Visual Attention Model) de Werner y Schneider (1995) o la teoría CODE de la atención visual, de G. D. Logan (1996). Por otra parte, crece el interés por analizar la intervención de la atención en los procesos que se desarrollan en la planificación y realización de acciones, tanto externas (motoras) como internas (es decir, en los procesos de

59

Atención

memoria, de pensamiento, etc.). Este interés está estrechamente relacionado con los esfuerzos recientes de algunos psicólogos cognitivos para explicar cómo se produce el control de nuestras acciones, que han culminado en la distinción de dos mecanismos de control: uno voluntario, que se correspondería con la atención, y uno involuntario, automático y no atencional (Ruiz Vargas, 1993). La investigación actual sobre la atención no sólo se beneficia de los esfuerzos realizados desde el enfoque de la psicología experimental cognitiva, sino también de los procedentes de la neuropsicología cognitiva, la neurofisiología y el enfoque conexionista. Por lo que respecta al conexionismo, se trata de un nuevo enfoque surgido dentro de la psicología cognitiva, también conocido como enfoque de las redes neurales artificiales o del procesamiento distribuido en paralelo —o a menudo, simplemente mediante las siglas de esta última expresión, PDP—, en honor a la obra publicada por David E. Rumelhart, James L. McClelland y el denominado Grupo de Investigación PDP (1986). Al igual que los modelos formulados desde el enfoque clásico del procesamiento de la información en el que, de forma general, se puede encuadrar a todos los modelos atencionales que se han descrito hasta aquí en este capítulo, los modelos conexionistas también pretenden describir y explicar los procesos cognitivos; pero, como se explica seguidamente, los conexionistas lo hacen desde un nivel de análisis distinto al utilizado tradicionalmente por los psicólogos del enfoque del procesamiento de la información: en lugar de utilizar símbolos para describir las representaciones mentales, como lo hace el enfoque clásico del procesamiento de la información, lo hace en términos de las unidades de procesamiento que constituirían esos símbolos; por ello, ambos enfoques son en realidad necesarios para profundizar en la comprensión del sistema humano de procesamiento de información (véase Ruiz Vargas, 1994, pp. 43-57). Así como los modelos formulados desde el enfoque clásico se han servido de los conocimientos sobre el funcionamiento de los ordenadores para plantear hipótesis sobre el funcionamiento de la mente humana, los modelos conexionistas han tomado como referencia las redes neuronales de nuestro propio cerebro. Los sistemas conexionistas son redes formadas por un gran número de unidades elementales de procesamiento, también denominadas nodos, conectadas unas con otras. Las unidades de la red son de naturaleza elemental, en el sentido de que el procesamiento de la información realizado en la red no depende de la actividad de ninguna de las unidades por separado, sino de la que resulta del funcionamiento conjunto de la red. Por ello se dice que en los sistemas conexionistas el procesamiento de la información se produce de forma distribuida entre las unidades que lo integran. En un sistema conexionista, la entrada de información puede provocar la activación de las unidades de entrada de la red. A su vez, la activación de estas unidades puede provocar la activación de las unidades con las que están conectadas, y la de éstas puede hacer que se activen otras... De

60

1. Panorama histórico-conceptual del estudio de la atención

esta forma, la activación se propaga a través de la red, hasta que se alcanza un estado estable. Para que una unidad se active debe llegar hasta ella una activación total superior a un cierto valor umbral, que puede ser distinto para diferentes unidades. Por tanto, cada unidad realiza un cómputo particular sobre la señal que llega hasta ella, por lo cual el procesamiento ocurre en paralelo. Por lo que respecta a las conexiones, éstas pueden ser excitatorias o inhibitorias, y también pueden ser más o menos fuertes. Por ello, cada conexión entre dos unidades tiene asignado un valor que indica la fuerza de la conexión y cuyo signo indica el carácter excitatorio (signo positivo) o inhibitorio (signo negativo) de la misma, por lo cual ese valor modula la activación que se propaga a través de esa conexión. Phaf, van Der Heijden y Hudson (1990) han aplicado este enfoque para modelar cómo puede ocurrir en nuestros cerebros la integración de tres características simples de los estímulos visuales: su posición, su color y su forma, en tareas de atención selectiva. Se sabe que estas características son codificadas por separado en nuestro cerebro, pero se desconoce cómo se produce su integración para que podamos realizar tareas en las que tenemos que seleccionar estímulos que presenten justo una combinación concreta de esas características (por ejemplo, un cuadrado rojo). El modelo propuesto por estos investigadores, al que denominan SLAM (SeLective Attention Model), ha sido utilizado con éxito para simular en ordenador el procesamiento que realiza una persona en tareas de este tipo. Otro modelo conexionista que también ha sido evaluado positivamente al ser implementado en ordenador es el propuesto por Glyn W. Humphreys y Hermann J. Müller (1993), conocido como SERR (SEarch via Recursive Rejection), que pretende simular el procesamiento que se produce en tareas de búsqueda visual.

Bibliografía comentada LaBerge, D. (1995): Attentional processing. The brain’s art of mindfulness. Cambridge, Massachusetts/Londres, Harvard University Press. David LaBerge es profesor de Psicología y Ciencias Cognitivas en la Universidad de California (EE.UU.). En este libro explica sus ideas acerca de las funciones de la atención, sus mecanismos y las estructuras nerviosas que los sustentan, basadas en los hallazgos obtenidos en investigaciones realizadas en el ámbito de la psicología cognitiva, la neurobiología y la ingeniería artificial. Rosselló i Mir, J. (1997): Psicología de la atención. Madrid, Pirámide. El libro del profesor Jaume Rosselló i Mir, de la Universitat de les Illes Balears, constituye una obra idónea para introducirse en el estudio psicológico de la atención, fundamentalmente porque en él se clarifican los conceptos imprescindibles para profundizar en ese estudio, se comentan las principales teorías que se han propuesto sobre la atención a lo largo de la historia de la psicología científica y se reflexiona sobre algunas cuestiones básicas para entender la situación actual de la psicología de la atención.

61

Atención Tudela Garmendia, P. (1992): Atención. En J. L. Fernández Trespalacios y P. Tudela (Eds.), Atención y Percepción (pp. 119-162), Madrid, Alhambra. El profesor Pío Tudela Garmendia es catedrático de Psicología Básica en la Universidad de Granada. Su capítulo ofrece, en primer lugar, una descripción detallada de los principales hitos históricos en el estudio psicológico experimental de la atención y, después, una explicación de sus ideas acerca de la naturaleza y el papel de la atención en el procesamiento humano de información, acorde con prestigiosos estudiosos de esta área, que incluye la descripción de las investigaciones más relevantes que apoyan su concepción.

Preguntas de revisión 1. Razona, apoyándote en una situación cotidiana, cómo pueden interrelacionarse las distintas funciones de la atención a la hora de procesar información. 2. ¿Crees que es posible que la orientación de la atención auditiva no coincida con la de los receptores auditivos? Justifica tu respuesta. 3. ¿Cuáles son los principales beneficios que puede proporcionar la selección atencional de información cuando realizamos una tarea cognitiva compleja? 4. ¿Podrías caracterizar a las situaciones y/o tareas en las que es prácticamente imprescindible que la atención controle el procesamiento de la información? 5. Según Broadbent, ¿podemos ser conscientes de la información a la que no atendemos en un momento concreto? ¿Por qué? 6. Indica algunos ejemplos de situaciones en las que la ejecución en una tarea de identificación de palabras no varíe pese a los cambios en el esfuerzo invertido para realizar la tarea, debido a una limitación de los datos (externos o internos).

62

2.

El estudio experimental de la atención Juan Botella Ausina

El estudio de la atención, como el de cualquier otro tópico de la psicología, descansa en la observación y registro de un conjunto de variables dependientes con las cuales se operativizan las manifestaciones de sus efectos. Para ello se diseñan situaciones particulares, llamadas paradigmas experimentales, con las que se intentan aislar todos los factores intervinientes menos uno, con objeto de estudiar sus efectos. El presente capítulo se articula en torno a cuatro partes. En la primera se presenta el tema y se propone un marco de análisis. La segunda es una breve discusión sobre el peculiar papel que la consigna experimental tiene en el estudio de la atención. En tercer lugar, se exponen las variables dependientes más frecuentemente empleadas para operativizar las manifestaciones de la atención, clasificadas en tres grupos: medidas de rendimiento, conductuales y fisiológicas. En la última parte se describe una selección de los paradigmas experimentales más interesantes para el estudio de la atención.

1.

Introducción

Ante los estímulos que se nos presentan realizamos ciertos procesos cognitivos que, frecuentemente, se completan con la ejecución de una respuesta externa. Algunos de estos procesos psicológicos son invariantes; ante el mismo estímulo se producen siempre y de la misma forma. Pero la mayoría de ellos se ven alterados por las intenciones del sujeto, sus metas, sus sesgos perso-

63

Atención

nales y situacionales, y otros factores. La asunción de metas y objetivos produce una adaptación sinérgica de muchos procesos cognitivos. Entre este conjunto de adaptaciones se incluyen las que colectivamente constituyen lo que se entiende por prestar atención (atender = tender hacia). Algunas de las adaptaciones que constituyen la atención son específicas, en el sentido de que se refieren a cambios en procesos concretos, como por ejemplo modificaciones en los umbrales de detección o identificación, generación de expectativas, adopción de criterios o de estrategias de procesamiento peculiares, acciones de filtrado y/o selección, etc. Por el contrario, hay otras adaptaciones más inespecíficas, especialmente los cambios en la activación general; al evaluar las demandas de la tarea el sistema regula la activación, elevándola o reduciéndola según las necesidades evaluadas. Es el aspecto intensivo de la atención (Kahneman, 1973). Si bien hemos dicho que este conjunto de adaptaciones orientadas a optimizar el rendimiento en la consecución de una meta constituyen las vías por las que se manifiesta la atención, algunos considerarían que son en sí mismas la atención. El carácter metodológico de este capítulo desaconseja abordar aquí esta cuestión, así que nos limitaremos a exponer los procedimientos para estudiar cómo actúa la atención. De lo dicho hasta aquí se deduce que un elemento esencial en el estudio experimental de la atención es conseguir que los sujetos se propongan objetivos mediante el uso de tareas experimentales. En el laboratorio proponemos tareas y utilizamos las instrucciones y consignas experimentales para transmitir estados psicológicos que simulen las condiciones de tendencia, motivación o dirección hacia que se producen en la vida cotidiana. Dedicaremos el segundo apartado de este capítulo a la problemática relacionada con las consignas experimentales. Podemos utilizar como indicadores de la atención cualesquiera que reflejen las adaptaciones orientadas a la meta. En muchos casos desconocemos la naturaleza de esas adaptaciones, pero inferimos con confianza su existencia al observar cambios en las respuestas finales. Precisamente, utilizamos los registros de las conductas finales para inferir la naturaleza de los cambios producidos en los procesos. Obviamente, los indicadores pueden ser muchos y muy variados, dado que las vías por las que la atención puede ejercer su influencia son múltiples. Dedicaremos el tercer apartado a exponer una clasificación y justificación de los mismos. Para abordar el estudio de la atención se emplean una variedad de tareas y disposiciones experimentales. Cada una de ellas recibirá en este capítulo el socorrido nombre de paradigma experimental. En el cuarto apartado expondremos una descripción de los paradigmas y técnicas experimentales que nos han parecido más útiles, junto con una explicación de la lógica que subyace en ellos; en lo posible, trataremos de citar algún trabajo experimental publicado en castellano en el que se utilice cada uno de los paradigmas.

64

2. El estudio experimental de la atención

Muchas veces se clasifican los estudios de la atención según el aspecto que abordan, siendo un sistema muy frecuente el que distingue entre atención selectiva, dividida y sostenida. Nosotros no hemos clasificado los paradigmas experimentales con este criterio porque creemos que puede añadir cierta confusión. No obstante, vamos a exponer brevemente esta clasificación, por la utilidad descriptiva que tendrá a lo largo del capítulo. Se dice que se estudia la atención selectiva cuando se investiga la capacidad para actuar flexiblemente, dedicando la actividad psicológica a lo relevante y no a lo irrelevante, según los intereses particulares del momento. Se estudia, por ejemplo, si al pedir al sujeto que responda: a) al mensaje que aparece por el auricular derecho, b) a las letras que aparecen en la posición central de la pantalla, o c) al color de las palabras que se presenten, éstos son capaces de restringir su actividad psicológica a lo relevante según esas tareas e instrucciones o, más bien, se ven obligados a realizar procesos que son irrelevantes para la tarea pero que son irrefrenables. En los tres ejemplos anteriores se trataría de comprobar si el sujeto dedica parte de su actividad cognitiva: a) al mensaje del oído izquierdo, b) a las letras que aparecen en posiciones distintas a la central, o c) al significado de las palabras además de a su color. En resumen, se estudia uno de los aspectos de la capacidad de los sujetos humanos para ajustarse a la tarea, consistente en realizar un procesamiento selectivo al servicio de sus intereses. Decimos que estudiamos la atención dividida cuando investigamos la capacidad para adaptar los procesos cognitivos de forma que se permita o facilite la ejecución de dos o más tareas simultáneamente. Se busca, por tanto, una caracterización de la compatibilidad entre tareas: qué tipo de tareas pueden realizarse simultáneamente y con qué nivel de rendimiento. El estudio de los niveles de deterioro en el rendimiento permiten la formulación y contraste de los modelos y teorías de la concurrencia entre procesos. Por tanto, el aspecto que se estudia aquí de la capacidad de los seres humanos para ajustarse a la tarea es el de la viabilidad en la concurrencia de los procesos cognitivos. Decimos que estudiamos la atención sostenida cuando investigamos la capacidad para mantener en el tiempo una cierta disposición atencional. Es decir, se trata de responder a la pregunta de si las adaptaciones por las que actúa la atención se pueden mantener mucho tiempo y, en caso negativo, qué cambios en esas adaptaciones se producen como consecuencia del cansancio, la monotonía y otros factores ligados al transcurso del tiempo. Dicho en los términos empleados hasta aquí, se estudia la capacidad para mantener en el tiempo las adaptaciones realizadas para enfrentarse a una tarea. Como ya hemos adelantado, es difícil clasificar mecánicamente un estudio como de atención selectiva, dividida o sostenida conociendo solo el paradigma experimental. En realidad, la naturaleza del estudio viene determinada más por los objetivos de la tarea que por la disposición física de la

65

Atención

situación experimental. Por ejemplo, en una situación en la que se presentan dos mensajes auditivos, cada uno por uno de los auriculares, estaremos estudiando la atención selectiva si la consigna es prestar atención y detectar los nombres de animales que aparezcan en uno de los mensajes, mientras que estaremos estudiando la atención dividida si la consigna es que lo hagan con los dos; pero estaremos estudiando también la atención sostenida si la tarea es de larga duración. Es verdad que las características de la mayoría de los paradigmas los hacen más apropiados (y de hecho se utilizan más) para estudiar una u otra, pero lo cierto es que en una misma situación se puede estar estudiando una u otra dependiendo de la consigna experimental o de la longitud de la tarea. Veamos un ejemplo. Uno de los aspectos más estudiados de la atención es el de cómo se producen los procesos selectivos, determinando el grado y tipo de procesamiento que recibe el material irrelevante. En algunos experimentos de escucha dicótica (véase el apartado 4.4) se obtuvo que los sujetos no recordaban posteriormente el material presentado por el oído al que no debían atender (Treisman y Geffen, 1967). Ante la crítica de que podía tratarse de un problema de recuerdo, no de atención, el experimento se repitió pidiendo a los sujetos que detectasen también ciertos estímulos que podían aparecer por el canal no atendido (Treisman y Riley, 1969). Pero, ¿se puede decir que este mensaje es realmente no atendido cuando al sujeto se le está pidiendo que realice cierta tarea con él? Al pedirle que detecte ciertos estímulos del canal irrelevante, indirectamente se le está diciendo que atienda a todos (Ortells y Fuentes, 1992). Para estudiar procesos de selección se estaba transmitiendo en las instrucciones una consigna implícita de división de la atención. En este capítulo vamos a centrarnos sobre todo en la atención selectiva y, en menor medida, en la atención dividida. A la atención sostenida apenas vamos a dedicarle unas pocas líneas. Las tareas con las que se estudia no tienen ninguna peculiaridad específica en cuanto a su estructura, más bien se caracterizan por su duración. Durante la Segunda Guerra Mundial surgió el interés por los cambios que se producen en la atención con el simple paso del tiempo. Sin duda, el llamado decremento de vigilancia, que no es otra cosa que la reducción en el rendimiento, es el efecto más importante. Los estudiosos de la atención sostenida han tratado de dar explicación a este efecto empleando diversas tareas. Lógicamente, éstas suelen dilatarse mucho en el tiempo y se diseñan de forma que sean muy monótonas, para así intensificar los fenómenos. Manipulando las condiciones y estudiando los cambios concomitantes en las curvas de rendimiento se ha intentado dar explicación al decremento de vigilancia (véanse, por ejemplo, los trabajos de Blanco, 1998, y de Blanco, Atkinson y Álvarez, 1992).

66

2. El estudio experimental de la atención

2.

El papel de la consigna experimental

Uno de los aspectos del comportamiento humano más difíciles de trasladar al laboratorio de forma realista es la motivación hacia la tarea, aspecto que sin embargo no se puede obviar en el estudio de la atención, porque de él se deriva la adopción de metas. Aparte de la función obvia de informar al sujeto de los detalles de la tarea, con las consignas que se administran se intenta generar una motivación y conseguir que el sujeto actúe durante las sesiones experimentales como lo haría en una tarea similar de su vida cotidiana. Mediante las consignas se intenta que asuma esa intención que genera las adaptaciones por las que interviene la atención. Es esencial que este aspecto quede bien emulado en la situación experimental. En el estudio de la atención dividida, por ejemplo, se emplean las instrucciones para conseguir que los sujetos presten atención a dos o más porciones del medio, o fuentes de estimulación, con frecuencia transmitiendo explícitamente la distribución deseada: «dedique el 80 por ciento de su atención a lo que aparece a la izquierda del punto de fijación y el 20 por ciento a lo que aparece a la derecha». En otras ocasiones se informa de las probabilidades de aparición del estímulo relevante en cada una de las posiciones definidas, como en la tarea de Posner (que describiremos en el apartado 4.3), asumiendo que la atención actuará basándose en esas probabilidades. Otras veces se omite esta información, esperando que el sujeto deduzca, mediante su práctica con la tarea, las adaptaciones apropiadas para optimizar el rendimiento. Es evidente que la particular formulación con la se transmiten las instrucciones puede tener importancia, dado que se pueden transmitir expectativas no deseadas o no intencionadas, por lo que hay que ser especialmente cuidadoso al redactarlas y comunicarlas (efecto experimentador). Si este aspecto es importante en el estudio de la atención, lo es especialmente en el de la atención selectiva, porque si en las instrucciones no solo se informa de qué estímulos o fuentes de estimulación son las relevantes para la tarea, sino que también se informa explícitamente de cuáles son irrelevantes, se está creando una saliencia en éstos que puede marcar el proceder del sujeto. No se puede transmitir de manera directa y con garantía la no relevancia. Si, por ejemplo, decimos al sujeto que nos vaya diciendo qué palabras aparecen en rojo y que ignore las demás, especialmente las azules, casi estamos garantizando un procesamiento selectivo de las palabras azules. La simple mención de un estímulo o clase de estímulos, aunque sea para decir al sujeto que los ignore, ya confiere a éstos un valor especial. La no relevancia será asumida por el sujeto con la práctica y la constatación empírica de la irrelevancia de los estímulos. Pero para comprender cómo se produce la selección tenemos también que caracterizar lo que les ocurre (el procesamiento que reciben) a los estímulos a los que no hay que atender, los que son irrelevantes para la tarea.

67

Atención

El procesamiento que reciben los estímulos a los que atendemos se puede estudiar analizando las respuestas que se dan a ellos. Ahora bien, si no queremos caer en la contradicción de pedir a los sujetos que emitan respuestas explícitas a los estímulos que queremos que sean ignorados, ¿cómo podemos constatar si éstos son procesados o no? Hay al menos dos alternativas. En la alternativa más utilizada en lugar de recoger respuestas directas ante ellos se emplean medidas indirectas del procesamiento del material irrelevante, basadas en la interferencia y/o facilitación que producen sobre el procesamiento de los estímulos relevantes. Esos estímulos irrelevantes pueden presentarse simultáneamente a los estímulos relevantes, como por ejemplo en el paradigma de compatibilidad de los flancos, o pueden presentarse antes, como en los paradigmas de priming. La otra alternativa consiste en demandar a posteriori una respuesta explícita a un estímulo que el sujeto debía ignorar. En esta alternativa se asume que solo se puede administrar un ensayo a cada sujeto, dado que en el siguiente ensayo el sujeto estaría prevenido y actuaría de forma más acorde a lo que ocurrió en el ensayo anterior que a las consignas experimentales. Algunos investigadores han utilizado un paradigma de este tipo, que han llamado paradigma de inatención. Como ejemplo de lo sensible a las metas que es el procesamiento de información, vamos a describir el llamado balance velocidad/precisión (speed-accuracy trade-off): al realizar una tarea muy rápidamente se cometen más errores; realizándola más despacio se dan respuestas más seguras, con menos errores. En una tarea en la que se le dice al sujeto que ha de ser rápido porque se va a medir el tiempo de reacción (TR), pero también hay que ser preciso porque los errores son un deterioro del rendimiento, cada sujeto puede adoptar un punto diferente en el equilibrio entre ambos parámetros. Si en la consigna se presiona sobre el tiempo, los sujetos suelen ser rápidos a costa de cometer más errores. Si se presiona sobre la precisión ocurre lo contrario. Es claro que si el objetivo transmitido pone el acento en uno u otro, la manera de actuar será distinta. Pequeños matices en la administración de las instrucciones pueden transmitir una expectativa distinta. Esta es la razón por la que en la sección de resultados de muchos informes experimentales se indica que la correlación entre los promedios grupales del tiempo y de los errores es positiva. Si fuera negativa, una diferencia en el tiempo medio entre dos condiciones podría explicarse como un desplazamiento en el punto adoptado en este balance. Una correlación negativa no permitiría descartar una explicación de este tipo para un aparente efecto de la variable independiente manipulada (véase Figura 2.1).

68

2. El estudio experimental de la atención

Figura 2.1 En un experimento con tres condiciones se obtiene que el TR medio disminuye al pasar de la condición A a la B y de ésta a la C (figura izquierda). Además de la explicación que pretendiese darle el autor, esta disminución podría explicarse por cambios en el balance velocidad/precisión, dado que al pasar de A a B y de B a C también se incrementan los errores (Figura derecha). No se puede descartar la interpretación de que en realidad la variable independiente estudiada no tiene ningún efecto, y que los efectos aparentes se deben a que en A se ha adoptado un punto con mayor acento en la precisión y en C un punto con mayor acento en la velocidad.

3.

Las variables dependientes

La manera de constatar cómo actúa la atención debe basarse en registros que muestren las adaptaciones que se producen en los procesos psicológicos, ya sea en procesos particulares o en la actividad general del organismo. Sin embargo, es necesario explicitar un problema endémico en el estudio de la atención. Dado que todos los indicadores que podemos utilizar son indirectos, en el sentido de que no reflejan una entidad llamada atención, como tal, sino una de las vías posibles por las que ésta puede actuar, las inferencias negativas siempre son inciertas. Es decir, que si en una condición experimental observamos actividad en un indicador, podemos inferir que la atención está actuando por esa vía, pero si no la observamos no podemos inferir que no esté actuando, dado que puede estar haciéndolo de alguna otra forma. Aquí vamos a clasificar los indicadores más habitualmente utilizados en tres tipos: medidas de rendimiento, conductuales y psicofisiológicas (véase Tabla 2.1). En la introducción hemos expuesto la distinción entre adaptaciones específicas e inespecíficas. Mientras que las medidas de rendimiento y conductuales no son capaces de revelar adaptaciones específicas, algunas de las psicofisiológicas sí lo van a permitir. 3.1

Medidas de rendimiento

Los indicadores más apropiados de las adaptaciones orientadas a mejorar el rendimiento son, sin duda, los que miden éste. Las medidas de rendimiento son, de hecho, las variables dependientes tradicionalmente más utilizadas

69

Atención

en el estudio de la atención. Se pueden clasificar en cuanto a si miden velocidad o precisión. Habitualmente las tareas que utilizamos se organizan en forma de eventos discretos, que llamamos ensayos. En cada ensayo se puede medir la latencia, o tiempo empleado en dar la respuesta, y/o la precisión, clasificando la respuesta en acierto o error (a veces éstos también se subdividen, distinguiendo entre varios tipos de error). Se asume que los efectos positivos de la atención se manifiestan en reducciones en la latencia (aumenta la velocidad de procesamiento) y/o en incrementos en la precisión. La medida básica de la velocidad es el tiempo transcurrido desde la presentación de la última información necesaria para decidir la respuesta y el comienzo de ésta. Lo más habitual es hacer predicciones relativas al tiempo medio empleado, es decir, se administran varios ensayos de la misma condición experimental y se toma su promedio como estimación del rendimiento. Las medidas de precisión tienen como elemento esencial la frecuencia de aciertos. En algunas tareas los sujetos solo tienen que dar una respuesta cuando se cumple una cierta condición (normalmente la aparición de un cierto estímulo crítico); son las tareas de detección. En las tareas de detección no se puede medir el rendimiento simplemente con la frecuencia de detecciones correctas, porque este índice podría encubrir factores relacionados con tendencias de respuesta. De hecho, de hacerlo así un sujeto que diera la respuesta de detección en todos los ensayos, sin siquiera fijarse o procesar la información, tendría un 100 por ciento de detecciones correctas, pero a la vez habría dado también respuesta positiva en todos los ensayos en los que no aparece el estímulo crítico (falsas alarmas). Otro sujeto que tuviera un 100 por ciento de detecciones correctas pero ninguna falsa alarma daría en este indicador el mismo nivel de rendimiento. Es conveniente, por tanto, utilizar medidas del rendimiento que combinen los aciertos y las falsas alarmas. La Teoría de la Detección de Señales aportó un marco teórico idóneo para el análisis del rendimiento en este tipo de situaciones, al proponer indicadores separados de la sensibilidad, o capacidad para discriminar el estímulo crítico del fondo de ruido, y del criterio de respuesta, o grado de liberalismo al decidirse por dar respuestas de detección (Reales y Ballesteros, 1997; véase una descripción más detallada en el Capítulo 6). En otras tareas los sujetos tienen necesariamente que dar alguna respuesta en cada ensayo (tareas de elección forzosa) y, por tanto, la frecuencia de aciertos es un buen índice del rendimiento en la precisión. Son las tareas de identificación o discriminación. En estas tareas el análisis del tipo de errores es también a veces muy revelador de los procesos que el sujeto está realizando. Las medidas de rendimiento descritas hasta aquí son las que podríamos llamar on-line o inmediatas, dado que se realizan en cuanto están disponibles. Pero hay otras, que podríamos llamar off-line o demoradas. Es fre-

70

2. El estudio experimental de la atención

cuente, por ejemplo, que una vez finalizada la tarea, o incluso tras dejar transcurrir un período de tiempo, se administren pruebas de recuerdo o de reconocimiento. Se asume que la precisión de la memoria es función de la atención prestada durante la presentación de los estímulos, por lo que estas medidas se toman también, aunque indirectamente, como indicadores de la atención. 3.2

Medidas conductuales

Son las basadas en comportamientos observables que se supone que revelan esa direccionalidad que hemos asociado a la atención. Entre ellas destacan los movimientos de la cabeza y las reorientaciones de los receptores, especialmente los movimientos oculares. Aunque es fácil confundir los movimientos oculares con los desplazamientos de la atención, dado que en la vida cotidiana suelen ir juntos, es obvio que no son lo mismo (Botella, 1998a). Sin embargo, son un buen indicador, dado que para facilitar el procesamiento de un estímulo y optimizar el rendimiento solemos fijar directamente los ojos en él, de forma que sea en la fóvea, la parte más eficiente de la retina, donde se proyecte su imagen. También se pueden registrar mediante técnicas de observación otras conductas de exploración, como por ejemplo desplazamientos del cuerpo o de las manos. Estos últimos se han empleado sobre todo con niños, dado que con ellos es más difícil emplear las tareas habituales de laboratorio. Con animales se emplean también conductas del tipo de enderezar las orejas, o levantar la cola, que se interpretan como indicadores conductuales de la alerta. 3.3

Medidas psicofisiológicas

Algunas de estas medidas pueden revelar el tipo de adaptaciones que subyacen a un cambio en el rendimiento. Ya hemos visto que una de las dimensiones que varían en la atención es el aspecto intensivo, al que nos hemos referido como adaptación inespecífica. La medida principal de este aspecto se basa en una medida psicofisiológica: el tamaño de la pupila. Ésta refleja bastante bien el esfuerzo mental, aunque tiene el inconveniente de que su excesiva latencia impide vincular con fiabilidad sus cambios a microprocesos, lo que limita su utilidad a un análisis molar de las tareas. Otra medida del aspecto intensivo es la tasa cardíaca. De entre los indicadores que permiten inferir adaptaciones específicas destacan los potenciales evocados, que pueden registrarse mediante electroencefalografía. A su vez, de entre los componentes de los potenciales evocados los más utilizados son el P300, el N400 y el potencial de disparidad.

71

Atención

El P300 parece estar asociado al proceso de evaluación del estímulo. Por tanto, un componente P300 significativamente mayor en una condición experimental se interpreta en el sentido de que se está dedicando un mayor trabajo cognitivo a la evaluación del estímulo y la toma de decisiones en esa condición experimental. El N400 parece estar asociado al análisis de material verbal; en concreto al procesamiento e identificación de palabras. Cuando en una condición se obtiene un componente N400 significativamente mayor se puede inferir que se están procesando en mayor profundidad las palabras presentadas. Así, por ejemplo, en su estudio sobre el procesamiento de estímulos durante el sueño, Brualla, de la Hera y Valdizán (1998) obtuvieron, ante palabras presentadas por auriculares, un N400 significativo en la fase II de sueño, y significativamente mayor que en las fases III y IV. Esto implica que incluso estando dormidos se pueden identificar las palabras que llegan a nuestros oídos. El potencial de disparidad (Mismatch Negativity) indica que se ha detectado un estímulo diferente, un cambio en una secuencia de estímulos auditivos. Se puede, por tanto, inferir que el procesamiento y análisis de los estímulos ha alcanzado el nivel en que esos estímulos se diferencian (véase Näätänen, 1998). Por otro lado, las modernas técnicas de neuroimagen (TAC, PET) permiten registrar el flujo sanguíneo cerebral durante la realización de diferentes tareas o en distintas condiciones experimentales. Si el flujo sanguíneo difiere significativamente entre las condiciones experimentales, podemos inferir que los procesos que se están realizando son distintos, especificando además las zonas del cerebro que muestran una mayor actividad. La respuesta psicogalvánica es un cambio en la conductancia de la piel debido a la sudoración. Se mide dejando pasar una imperceptible corriente eléctrica entre los electrodos colocados sobre la piel. Sabemos que estas respuestas son sensibles al carácter afectivo/emocional de los estímulos y las situaciones (de hecho, es la base del llamado detector de mentiras). Por tanto, para determinar si las palabras que se presentan son filtradas o son procesadas hasta un punto en que es extraído su significado, se han comparado las respuestas psicogalvánicas ante palabras con carga afectivo/emocional recogidas en diversas condiciones experimentales. A veces los indicadores psicofisiológicos pueden parecer muy alejados de lo que intuitivamente consideramos que es la atención, pero lo cierto es que cuando se dispone de hipótesis específicas sobre la manera en que la atención va a actuar, cualquier indicador que revele esa peculiar manera diferencial puede servirnos de manera eficaz. Pongamos un ejemplo. En el paradigma de compatibilidad de los flancos, que se describe más adelante, se obtiene que las respuestas ante el estímulo crítico son más lentas cuando éste está flanqueado por estímulos que tienen una respuesta asociada diferente a la del estímulo crítico, que cuando su respuesta asociada es la mis-

72

2. El estudio experimental de la atención

Tabla 2.1

Variables dependientes más utilizadas en el estudio experimental de la atención

RENDIMIENTO

— Velocidad de la respuesta. — Precisión de la respuesta. — Precisión del recuerdo.

CONDUCTUALES

— Movimientos oculares. — Conductas de exploración. — Indicadores conductuales de la alerta.

PSICOFISIOLÓGICAS

— — — — —

Tamaño de la pupila. Tasa cardíaca. Potenciales evocados. Flujo sanguíneo cerebral. Respuesta psicogalvánica.

ma. Así, si decimos al sujeto que responda con rapidez con la tecla R1 (con la mano izquierda) si la letra central es X o Y y con la tecla R2 (con la mano derecha) si es O ó C, entonces las respuestas son más lentas ante la presentación OXO (condición de flancos incompatibles) que ante la presentación YXY (condición de flancos compatibles). Es el llamado efecto de compatibilidad de los flancos. El psicólogo Charles W. Eriksen formuló la hipótesis de que este efecto se debe a que los flancos no son completamente filtrados y activan el sistema eferente de su respuesta asociada. La necesidad de inhibir la activación asociada a la respuesta incorrecta sería la responsable del alargamiento del TR en la condición de flancos incompatibles. Si esta hipótesis explicativa es correcta, entonces debería observarse una activación muscular mayor del brazo de la respuesta incorrecta en la condición de flancos incompatibles que en la condición de flancos compatibles incluso aunque el sujeto dé la respuesta correcta, predicción que se ha refrendado en varias ocasiones utilizando como indicador la activación electromiográfica (Coles et al., 1985). Por tanto, incluso la activación electromiográfica puede servir en algunos casos para indicar la actividad diferencial que se produce en ciertos procesos al comparar condiciones experimentales.

4.

Tareas y paradigmas experimentales

Para poder estudiar los efectos de la atención es necesario crear condiciones experimentales en las que se igualen todos los factores, aparte de la atención, que pudieran influir en los resultados. Vamos a ver cómo en el di-

73

Atención

seño de las tareas y los paradigmas hay un notable esfuerzo para conseguir que los estímulos de las distintas condiciones experimentales sean equipotenciales (igual tamaño, intensidad, duración, etc.). En caso contrario, una diferencia de rendimiento podría deberse a esos factores, en lugar de a la variable independiente manipulada. 4.1

Algunas tareas sencillas de tiempo de reacción

Es muy frecuente que en el estudio de la atención se utilicen tareas sencillas de tiempos de reacción, como las utilizadas hace cien años por Donders para desarrollar su método aditivo. Hemos puesto en cursiva la palabra sencillas porque sólo lo son en apariencia y, de hecho, siguen siendo un reto para los investigadores del campo. En el estudio de la atención es muy frecuente emplear estas tareas como parte de otros paradigmas experimentales, con objeto de analizar los cambios que se producen en su realización y deducir de esos cambios las vías por las que actúa. Vamos a describir las más utilizadas, ilustrándolas con ejemplos de su uso en el estudio de la atención (véase la Tabla 2.2): a)

b)

c)

74

Tiempo de reacción simple. Es la tarea a de Donders. Se le proporciona al sujeto un único dispositivo de respuesta, siendo su tarea ejecutar la respuesta lo más rápidamente posible tras aparecer un determinado estímulo, siempre el mismo. Hay en la tarea, por tanto, un único estímulo y una única respuesta. Para evitar las anticipaciones, que pueden ser frecuentes en esta tarea, se pueden incluir ensayos trampa (sin estímulo), o dejar entre el comienzo del ensayo y la aparición del estímulo un intervalo variable que impida predecir con certeza el momento en que aparecerá el estímulo. Hay muchos ejemplos de su uso en el estudio de la atención; así, la técnica de la tarea secundaria necesita que se emplee como tarea secundaria una muy sencilla, que suele ser una de tiempo de reacción simple (Posner y Boies, 1971). Tiempo de reacción de elección. Es la tarea c de Donders. En este caso se definen al menos dos estímulos (o clases de estímulos) y dos respuestas. El sujeto debe reaccionar lo más rápido que pueda con la respuesta definida para el estímulo presentado. Por ejemplo, es frecuente que el balance entre velocidad y precisión, que ya hemos descrito, se estudie con una tarea de tiempo de reacción de elección. Tiempo de reacción disyuntivo. Es la tarea b de Donders. En este caso se definen dos estímulos y una sola respuesta, asociada a uno de ellos. La tarea consiste en reaccionar con rapidez con la respuesta apropiada si se presenta el estímulo apropiado, y no dar res-

2. El estudio experimental de la atención

Tabla 2.2

Esquemas y ejemplos de algunas tareas sencillas de tiempo de reacción Tiempo de reacción simple

Tiempo de reacción de elección

Estímulos y respuestas

E1 ••••• R1

E1 ••••• >R1 E2 ••••• >R2

E1 ••••• >R1 E2 ••••• > —

E1/E2 ••••• >R1 (E1 = E2) E1/E2 ••••• >R2 (E1 ≠ E2)

Ejemplos de tarea:

1) Aprieta R1 en cuanto se encienda esta luz.

1) Aprieta R1 si aparece una A y R2 si aparece una B.

1) Aprieta R1 si se presenta un estímulo rojo; no aprietes si aparece de otro color.

1) Aprieta R1 si los estímulos son idénticos y R2 si no lo son.

2) Aprieta R1 en cuanto se presente este sonido.

2) Aprieta R1 si aparece un nombre de animal y R2 si aparece un nombre de mueble.

2) Aprieta R1 si se presenta una vocal; si se presenta una consonante, no respondas.

2) Aprieta R1 si los estímulos son del mismo color y R2 si no lo son.

d)

Tarea Tiempo de igual/diferente reacción disyuntivo (tarea go/no-go)

puesta alguna si se presenta el otro. Su nombre moderno es el de tarea go/no-go. Por ejemplo, la tarea go/no-go se ha empleado para poner a prueba una hipótesis explicativa del efecto de compatibilidad de los flancos en la que se postula una competición multinivel, y no sólo en los sistemas eferentes (Botella, 1995). También se ha empleado para estudiar uno de los postulados del modelo del zoom, según el cual la atención tiene tres zonas (foco, margen y exterior) siendo el efecto de compatibilidad de los flancos una función de la distancia entre los flancos y el foco (Eriksen, Pan y Botella, 1993). Tarea igual/diferente. Se presentan dos estímulos y el sujeto dispone de dos dispositivos de respuesta, uno para indicar que los estímulos son iguales y el otro para indicar que son diferentes. La igualdad se puede definir de muchas maneras: estricta identidad,

75

Atención

igualdad de forma, de color, de nombre, pertenencia a la misma categoría semántica, etc. En la tarea igual/diferente se ha obtenido un resultado muy consolidado, el de que las respuestas igual son más rápidas que las respuestas diferente, hasta tal punto que se conoce como Efecto de los Iguales Rápidos (Same/Fast Effect). Algunos de los mecanismos de la atención se han estudiado empleando esta tarea, como por ejemplo la competición de respuestas (Fournier, Eriksen y Bowd, 1998), el modelo del zoom para la atención visual (Pan y Eriksen, 1994) o el desplazamiento de la atención por el campo visual (García-Ogueta, 1991). Con las tres primeras tareas Donders desarrolló su método aditivo para estimar el tiempo requerido para realizar ciertos procesos. Así, en la tarea de tiempo de reacción de elección hace falta percibir el estímulo, identificarlo, seleccionar la respuesta asociada y ejecutarla. En la de tiempo de reacción disyuntivo hace falta todo lo anterior menos la selección de la respuesta, mientras que en la de tiempo de reacción simple tampoco hay que identificar el estímulo. Donders razonó que restando los tiempos medios entre estas tareas podía ir deduciendo el tiempo necesario para realizar los procesos que estaban presentes en unas tareas y ausentes en otras (Botella, León y San Martín, 1993, pp. 357-359). 4.2

Búsqueda visual

En su forma básica se presenta al sujeto un conjunto de estímulos (en número que varía de unos ensayos a otros) y se le pide que determine con rapidez si está presente o no un elemento pre-determinado, llamado objetivo (target). Las manipulaciones más interesantes se refieren a la característica o características que definen al objetivo y que lo diferencian de los distractores, el tipo de distractores y su grado de homogeneidad. En la Figura 2.2 se presentan algunos ejemplos. La pregunta que se trata de responder es en qué condiciones la información o rasgos que distinguen al objetivo de los otros elementos se pueden extraer en paralelo y servir como base para una selección en paralelo para su procesamiento posterior (búsqueda eficiente). Si la selección se puede realizar en paralelo, entonces el tiempo de reacción debe ser independiente del número de elementos presentados (el TR debe ser una función plana del tamaño de la matriz). Por el contrario, si el sistema solo puede chequear de forma serial si los elementos cumplen las características que definen al objetivo, es decir, de uno en uno, entonces el tiempo de reacción será mayor cuanto mayor sea el número de elementos de la matriz (función lineal creciente). Las formas de las funciones son las de la Figura 2.3 (Botella, León y San Martín, 1993, pp. 351-354).

76

2. El estudio experimental de la atención

Figura 2.2 Ejemplos de disposiciones de estímulos para tres tareas de búsqueda visual. En la fila superior aparecen ejemplos de ensayos positivos (objetivo presente) y en la inferior de ensayos negativos (objetivo ausente). En cada columna aparecen ejemplos con tamaños distintos de la matriz. Se supone que las letras que aparecen aquí más oscuras son en realidad rojas y las otras de otro(s) color(es).

Treisman y Gelade (1980) propusieron que el sistema puede realizar una búsqueda paralela cuando el objetivo se define con una única característica simple, como en las dos tareas de la derecha de la Figura 2.2; por el contrario, propusieron que tenía que ser serial al definirlo mediante una conjunción de características, como en el ejemplo de la izquierda. La extensa investigación realizada posteriormente con este paradigma demuestra que los criterios que permiten realizar una búsqueda en paralelo no son ni obvios ni simples. Con frecuencia se han obtenido funciones que no se ajustan a ninguno de esos modelos. Por ejemplo, Ponte, Rechea y Sampedro (1995) y Sampedro, Rechea y Ponte (1998) han estudiado, respectivamente, los efectos de la homogeneidad y distribución de los distractores, y el papel de las claves de profundidad, en las funciones de búsqueda. En cualquier caso, la importancia de este paradigma experimental radica en que con las funciones completas que relacionan el TR con el número de

Figura 2.3 Forma de las funciones que relacionan el tiempo de reacción para detectar el objetivo con el número de elementos presentados, según los modelos serial y paralelo simples.

77

Atención

elementos presentados se pueden inferir los modos de procesamiento que median la detección del objetivo en diferentes condiciones de búsqueda. Mientras en la forma básica del paradigma de búsqueda se utiliza un solo objetivo y siempre el mismo a lo largo de la tarea, en los años setenta y ochenta se estudió extensamente una variante que consiste en modificar de unos ensayos a otros el número y tipo de objetivos. Se presenta primero en una pantalla una letra o más, que son los objetivos que hay que detectar en ese ensayo y que en este contexto reciben el nombre de conjunto de memoria. A continuación se presenta una pantalla con un conjunto de letras, sobre las que el sujeto tiene que decidir con rapidez si está o no presente alguno de los ítems del conjunto de memoria. Este paradigma permite estudiar, además de lo anterior, los efectos producidos por el tamaño del conjunto de memoria y por las variaciones en éste y en la identidad de sus elementos (véase, por ejemplo, Algarabel, 1985; Orgaz y Prieto, 1991). 4.3

Paradigmas de preaviso con SOA corto

Fueron ideados para estudiar la atención tratando a la vez de evitar la potencial contaminación que producirían los movimientos oculares. Una vez que la atención está bien focalizada en el punto de fijación aparece una marca, llamada pista, que aporta alguna información relativa a la posición donde aparecerá el estímulo imperativo, o señal, que aparece poco después. La clave de estos paradigmas está en el uso de un intervalo corto entre la pista y la señal (el intervalo suele llamarse SOA, o Stimulus Onset Asynchrony) para que los resultados no se vean contaminados por los movimientos oculares. Como es sabido, en la zona central de la retina (la fóvea) se alcanza la máxima agudeza visual. Si se manipula el tiempo entre el aviso y el estímulo y en unas condiciones experimentales se da el tiempo suficiente para realizar movimientos oculares y en otras no, las diferencias en el rendimiento se podrían ver alteradas por este factor, dado que el procesamiento en las distintas condiciones se basaría en señales de diferente calidad. Para evitar esto se han utilizado paradigmas en los que el intervalo pista-señal, o SOA, es menor al necesario para un movimiento sacádico de los ojos (menores de 180-200 milisegundos). Lo que se espera es que durante el SOA el sistema comience a realizar algunas de las operaciones encaminadas a dar la respuesta, con lo que se ahorra tiempo con respecto a una condición sin pista o con SOA igual a cero. Por ejemplo, si la pista indica dónde va a aparecer la señal y el sujeto comienza en cuanto aparece la pista una supuesta maniobra de desplazamiento de la atención, entonces se reducirá el tiempo de reacción a la señal. Obviamente, las operaciones que se pueden realizar durante el SOA no pueden necesitar la información contenida en la señal. Si para procesar un estímulo antes tiene la atención que orientarse hacia él, entonces el intervalo

78

2. El estudio experimental de la atención

puede utilizarse para comenzar (o incluso completar) la reorientación; pero si la tarea es de tiempo de reacción de elección, la identificación del estímulo no podrá comenzar hasta que éste aparezca. Botella, Villar y Ponsoda (1988) emplearon un paradigma de este tipo para estudiar la distribución de la atención en el espacio.

SOA

Figura 2.4

a)

Esquema de una tarea de preaviso.

Las funciones TR-SOA. Una vez bien establecido el efecto facilitador que tiene el preaviso, se abordó la tarea de estudiar los parámetros temporales del efecto. Para ello la variable independiente manipulada ha sido el SOA. El esquema de una tarea de preseñalización típica aparece en la Figura 2.4. En la segunda pantalla aparece una pista que indica dónde aparecerá la letra objetivo. La tarea del sujeto consiste en decidir con rapidez si en la pantalla hay una X o una O (tiempo de reacción de elección). Al manipular el SOA se obtiene la función TR-SOA, que suele adoptar la forma de la Figura 2.5 (Eriksen, 1990). Cuanto mayor es el SOA menor es el TR, es decir, mayor porción del proceso de reorientación de la atención se puede realizar antes de que aparezca el objetivo. Sin embargo, llegado un punto ya no se reduce más el TR, lo cual nos indica cual es el intervalo necesario para completar todo el proceso de reorientación. El máximo SOA empleado suele ser inferior a 200 ms., de forma que se puedan producir desplazamientos de la atención, pero no de los ojos.

79

Atención

Figura 2.5

Función TR-SOA típica.

b) La tarea de Posner. Ideada por Michael Posner, consiste en la presentación de una pista y una señal (o estímulo imperativo), utilizando un SOA corto y fijo. La pista es una indicación probabilística que aparece en la posición del punto de fijación, y mediante su orientación informa al sujeto de las probabilidades de aparición del estímulo en cada una de las dos posiciones posibles. Es habitual que la probabilidad de que la señal aparezca en la posición señalada por la pista (o validez de la pista) sea de 0,75-0,80. Con esta probabilidad la señal aparecerá en el lugar indicado y con la probabilidad complementaria (0,25-0,20) aparecerá en el otro (ensayos con pista válida e inválida, respectivamente). En algunos ensayos se presenta una cruz neutral en lugar de la pista, que indica que la señal aparecerá con probabilidad 0,5 en cada posición (véase Figura 2.6).

Figura 2.6

80

Esquemas de ensayos válidos, neutrales e inválidos en la tarea de Posner.

2. El estudio experimental de la atención

Si el sujeto comienza la supuesta maniobra de desplazamiento de la atención en cuanto aparece la pista y siempre en la dirección indicada por ésta, entonces en los ensayos en los que ésta sea válida se reducirá el tiempo de reacción. En los ensayos sin pista o con pista neutral no se podrá comenzar el desplazamiento hasta que aparezca la señal. En cambio, en los ensayos en los que la señal aparece en el lado contrario (ensayos con pista inválida), al aparecer ésta ya se habrá comenzado un desplazamiento, pero en la dirección contraria. Esto explicaría, respectivamente, los costes y beneficios que se suelen obtener (véase Figura 2.7) al presentar una pista inválida o una válida, en comparación con la condición de pista neutral (véase Botella, León y San Martín, 1993, pp 354-357). Podemos encontrar ejemplos de uso de esta tarea en Ávila (1994) y en Ponsoda, Walker, Findlay y van’t Land (1998).

Figura 2.7

4.4

Resultados típicos con la tarea de Posner.

Las tareas de escucha selectiva

Uno de los primeros procedimientos empleados por la psicología moderna para estudiar la atención selectiva con tareas relativamente parecidas a lo que hacemos en la vida cotidiana fue el uso de tareas de escucha selectiva. En ellas se presentan a los sujetos mensajes por medio de auriculares. En la escucha dicótica se presenta un mensaje diferente a cada oído, mientras que en la escucha biaural se presentan ambos mensajes por los dos oídos. La tarea consiste en prestar atención a uno de los mensajes e ignorar el otro. Las tareas de escucha selectiva tienen una gran ventaja sobre las tareas visuales, ventaja que probablemente explica por qué en la época del renacimiento cognitivo se empezó trabajando preferentemente con esta modalidad sensorial. Esta ventaja consiste en que al emplear auriculares para presentar los estímulos no importa que se produzcan movimientos de los órganos sensoriales. Mientras que en la modalidad visual no podemos estar

81

Atención

seguros de que los sujetos no muevan los ojos, a no ser que utilicemos un SOA corto o empleemos un registrador de movimientos oculares, en la auditiva el uso de auriculares hace que los movimientos de la cabeza sean irrelevantes. En algunos experimentos de escucha selectiva se utilizaba como variable dependiente el recuerdo posterior de los mensajes. Esto concitaba dudas acerca de lo que los sujetos estaban haciendo realmente durante la escucha. Para asegurarse de que los sujetos realmente ejercían su máximo esfuerzo para prestar atención al mensaje indicado y solo a éste, se introdujo la técnica de sombreado, en la que se pide a los sujetos que vayan repitiendo el mensaje a medida que se presenta. Se llama técnica de sombreado o de seguimiento (por shadowing) porque los sujetos deben seguir el mensaje muy de cerca, como si fuera su propia sombra. Es algo parecido a lo que se hace en la traducción simultánea, pero haciendo una mera repetición. Las manipulaciones más importantes en estas tareas se refieren a las características que distinguen al mensaje relevante del mensaje(s) irrelevante(s). En concreto, se han diferenciado por la posición espacial (escucha dicótica), por el tono (voz masculina frente a femenina), el idioma, el contenido de los mensajes, etc. El objetivo principal en esta tarea es determinar en qué condiciones el rendimiento es similar en presencia del mensaje irrelevante que en su ausencia. A partir del estudio de esas condiciones se han ido formulando hipótesis relativas a cómo la atención segrega lo relevante de lo irrelevante (debate sobre el lugar de la selección; véase el Capítulo 1). Como ejemplo de su uso podemos citar el trabajo de Fuentes y Tudela (1982), quienes estudiaron la selección atencional con un paradigma de escucha dicótica con sombreado, siendo el recuerdo posterior la variable con la que se operativizaba la atención prestada al canal irrelevante. 4.5

Compatibilidad de los distractores

Dado que, como hemos visto, en ningún caso se puede utilizar un procedimiento o unas instrucciones que den valor de saliencia a los distractores, una vía alternativa ha consistido en manipular las características de los distractores, con objeto de inferir el grado y tipo de procesamiento que reciben los distractores a partir de su influencia sobre el procesamiento del objetivo. Es algo parecido a lo que ocurre en el efecto Stroop (véase el apartado 4.6), pero en lugar de referirse a dos dimensiones de un mismo estímulo se refiere a estímulos distintos. Ejemplo de ello es el paradigma de los flancos o tarea de Eriksen. En esta tarea se presenta un punto de fijación que es sustituido por un estímulo (frecuentemente una letra) que actúa como estímulo imperativo, es decir, como el estímulo al que hay que responder. La tarea puede ser, por ejemplo, de tiempo de reacción de elección (véase el

82

2. El estudio experimental de la atención

apartado 4.1); por ejemplo, apretar una tecla si se trata de una X o una Y y otra tecla si se trata de una O o una C. Esa letra central aparece acompañada de otras letras a sus lados, llamadas flancos. La manipulación fundamental es la relación entre el estímulo imperativo y los flancos. Cuando tienen asociada la misma respuesta, como por ejemplo en las presentaciones YXY o COC, se dice que son flancos compatibles. Cuando tienen asociada la respuesta contraria, como en OXO o YCY, se dice que son flancos incompatibles. Por último, a veces se presenta flanqueada por letras no definidas en la tarea, como en ICI o ZYZ, en cuyo caso se dice que son flancos neutrales, aunque se ha propuesto un diferente análisis y un distinto nombre para ellos (Botella y Barriopedro, 1997). En la Figura 2,8 aparecen esquemas de las condiciones, aunque con frecuencia se han diseñado ingeniosas variantes del procedimiento original (véase, por ejemplo, Alvarado, Santalla y Santisteban, 1998).

flancos compatibles

Figura 2.8

flancos neutrales

flancos incompatibles

Esquemas de las condiciones en una tarea de compatibilidad de los flancos.

El resultado básico es que se tarda más en dar la respuesta si los flancos son incompatibles que si son compatibles, mientras que en la condición de flancos no definidos en la tarea (neutrales) se suele encontrar un TR intermedio. En la Figura 2.9 presentamos, como ejemplo, los resultados de Botella (1995) en una tarea de este tipo. Este resultado revela una limitación en nuestra capacidad selectiva. La información espacial relativa a dónde aparecerá el objetivo no parece suficiente para filtrar e ignorar los otros estímulos. Esto se infiere por las influencias que la identidad de los estímulos que se debían ignorar tienen sobre las respuestas al estímulo crítico. Si el sistema realizase un filtrado perfecto basado en la localización espacial, el TR sería independiente de la identidad de los flancos. La principal ventaja de este procedimiento es que se consigue tener un indicador del procesamiento de los estímulos irrelevantes sin necesidad de que los sujetos respondan directamente a ellos.

83

Atención

Figura 2.9

4.6

Resultados típicos con la tarea de compatibilidad de los flancos.

La tarea de Stroop y sus variantes

Stroop presentaba palabras escritas en diferentes colores. Los sujetos tenían que nombrar con rapidez los colores en los que estaban escritas las palabras; las palabras podían, a su vez, ser nombres de colores. La manipulación esencial se refería a la congruencia entre el significado de la palabra y el color de la tinta en que estaba escrita. El resultado esencial (conocido como efecto Stroop) era que se tardaba más en nombrar los colores (y se cometían más errores) cuando la palabra denotaba un color distinto de la tinta en que estaba escrita (por ejemplo la palabra AZUL escrita en rojo), que cuando la palabra no era un nombre de color (por ejemplo, la palabra MESA escrita en azul). Este resultado demostraba claramente que aunque lo único relevante para la tarea era el color de las palabras, los sujetos no eran capaces de bloquear la identificación de las mismas, y el nombre de color interfería con el color de la tinta. Se trataba de una clara limitación en el procesamiento selectivo de las características de los estímulos. Si la capacidad de selección de la atención fuera perfecta, entonces el sistema cognitivo conseguiría que la dimensión irrelevante no influyese en el rendimiento. A la vista de esta limitación se han diseñado otras variantes, pero siempre con la idea básica de definir como relevante una característica de los estímulos y estudiar la capacidad para segregar y filtrar la información relativa a las otras características (las irrelevantes para la tarea). Veamos algunos ejemplos: a)

84

La tarea global/local. Se presentan letras grandes formadas por letras pequeñas. Al preguntar por la identidad de las letras pequeñas (la letra grande es irrelevante para la tarea), el tiempo de reacción se

2. El estudio experimental de la atención

ve alterado según que la letra grande sea o no congruente con las letras pequeñas (véase Figura 2.10a, el trabajo de Merino y Luna, 1995, en el que se estudia este fenómeno, y el de Luna y Merino, 1989, en el que utilizan una versión de esta tarea basada en formas geométricas). b) El efecto Simon. El sujeto debe responder con una de las dos teclas disponibles, según sea la identidad del estímulo (tarea de tiempo de reacción de elección). El estímulo puede aparecer a la izquierda o a la derecha del punto fijación, pero este aspecto es irrelevante para la tarea. Sin embargo, se ha observado que si la respuesta correcta es apretar la tecla de la izquierda, entonces las respuestas son más rápidas si el estímulo ha aparecido a la izquierda. Lo contrario ocurre cuando la respuesta correcta es la de la derecha (véase figura 2.10b). Los sujetos no son capaces de filtrar completamente la información relativa a la posición del estímulo. c) El efecto Stroop espacial. Se pregunta por la posición (arriba/abajo) en la que aparece el estímulo, que puede ser una flecha que señala hacia arriba o hacia abajo. Aunque la dirección de la flecha es irrelevante para la tarea, las respuestas son más rápidas cuando hay congruencia entre la dirección de la flecha y la posición donde aparece (véase Figura 2.10c); también se puede diseñar con la dimensión izquierda/derecha (Valle-Inclán, Rumbo, Redondo y Lamas, 1995). El efecto Stroop original, definido como la incapacidad para evitar la identificación de las palabras siendo esa identidad irrelevante, se ha empleado en otros campos de la psicología. Por ejemplo, el llamado efecto

Figura 2.10 En el panel (a) se muestran estímulos típicamente empleados en la tarea global/local. En el superior la letra grande y las pequeñas son congruentes, mientras que en el inferior son incongruentes. En el (b) se ilustra el efecto Simon; el tiempo de reacción será menor si la respuesta asociada al estímulo A es R1 que si es R2. En el (c) se ilustra el efecto Stroop espacial. En el estímulo superior el tiempo de reacción es más corto que en el inferior.

85

Atención

Stroop emocional consiste en utilizar para la tarea palabras que podrían tener una carga emocional para los sujetos. Se asume que el tamaño del efecto de interferencia refleja esa emocionalidad (Martínez y Marín, 1997). 4.7

Paradigma de inatención

Como ya hemos adelantado, en este paradigma se intenta conseguir que el sujeto focalice todo lo posible su atención en un estímulo para después hacer alguna demanda relativa a otro estímulo que creía irrelevante. Se asume que esto sólo se puede hacer una vez por cada sujeto (Mack y Rock, 1998; Rock y otros, 1992). En concreto, se presentan en dos o tres ensayos dos líneas que forman una cruz. El sujeto debe decidir si son iguales o no y cuál de ellas es más larga (véase Figura 2.11a). Se utilizan diferencias de longitud que hagan difícil la tarea y exijan una completa focalización de la atención. En el tercer o cuarto ensayo (el ensayo de inatención) se presenta a la vez que la cruz un estímulo inesperado que suele ser una pequeña forma geométrica, fácilmente detectable en condiciones normales (véase Figura 2.11b).

Figura 2.11 Estímulos empleados en el paradigma de inatención, en los ensayos no críticos (a) y críticos o de inatención (b).

En el ensayo de inatención también se pregunta por la longitud de las líneas, pero inmediatamente a continuación se les pregunta si han detectado la presencia de algún estímulo diferente a las líneas. Aproximadamente el 25 por ciento no informan de la presencia del estímulo, son lo sujetos ciegos por inatención. A los sujetos que sí han detectado la presencia del estímulo se les puede preguntar después por sus características (forma, color, etc.); muchos sujetos dicen que apareció algo, aunque no saben describir sus características. De esta forma se intenta establecer qué información es procesada y hasta qué punto. Sólo hay un ensayo de inatención por sujeto porque, tras preguntarle sobre la presencia del segundo estímulo, en los ensayos subsiguientes ya no se podría asumir que el sujeto está haciendo lo que queremos: concentrarse todo lo posible en la tarea de comparación de líneas.

86

2. El estudio experimental de la atención

Es frecuente que después se realice algún otro ensayo en el que se vuelve a presentar el estímulo irrelevante, asumiendo que para el sujeto será, implícitamente, un ensayo de atención dividida, dado que ya está alertado de la relevancia del segundo estímulo. A veces se presenta a continuación un nuevo ensayo en el que se le advierte al sujeto que se le preguntará por ambos estímulos. En estos ensayos el rendimiento con el segundo estímulo suele ser perfecto, lo que demuestra que el segundo estímulo es fácilmente identificable y que los resultados del ensayo de inatención no se deben a factores sensoriales, sino a factores atencionales. Con este procedimiento básico se pueden manipular diversas variables independientes para estudiar las posibles variaciones en el efecto, como la posición del segundo estímulo, su forma y color, etc. 4.8

Paradigma de la señal de stop

Se presenta un estímulo imperativo al que el sujeto debe responder con rapidez (por ejemplo, en una tarea de tiempo de reacción de elección). En una pequeña porción de los ensayos se presenta, después de ese primer estímulo, pero antes de la respuesta, otro estímulo cuya presencia indica al sujeto que debe suprimir la respuesta al primero. La manipulación principal es el intervalo entre los dos estímulos. Obviamente, la probabilidad de abortar el proceso e inhibir la respuesta es menor cuanto mayor es el intervalo entre ambos estímulos. Se establece una especie de carrera entre el procesamiento del estímulo imperativo (recordemos que es una tarea de velocidad) y el procesamiento de la orden de abortar la respuesta. El objetivo original de este paradigma era la determinación de cuándo se alcanza un punto, en la cadena de procesos que conducen a la respuesta, en el que el procesamiento adquiere un carácter balístico, es decir, cuando ya no se puede impedir que se ejecute la respuesta. Es evidente que la capacidad para abortar la cadena de procesos es una de las manifestaciones de la atención. Por eso recientemente se ha empleado para estudiar las desviaciones atencionales de los niños diagnosticados con síndrome de déficit atencional, observando que sus supuestos déficit inhibitorios generales se reflejan también en una mayor dificultad para inhibir las respuestas en esta tarea. Esta tarea permite, por tanto, detectar defectos en la flexibilidad atencional. 4.9

La presentación rápida de series visuales (PRSV)

Consiste en la presentación, en la misma posición de la pantalla, de una secuencia de estímulos a una tasa muy alta, típicamente entre 50 y 120 ms. por ítem (es decir, entre 8 y 20 ítems por segundo). Produce una impresión

87

Atención

similar a la de un contador de vídeo. El sujeto tiene la impresión de que los estímulos se reconocen brevemente al aparecer, pero de alguna forma se desvanecen de inmediato. En realidad, la PRSV no puede considerarse como un paradigma experimental, sino más bien como una técnica que se emplea en varios paradigmas experimentales y que permite presentar múltiples estímulos evitando los movimientos oculares y controlando el tiempo de observación de cada uno. Por un lado, se ha utilizado para estudiar la formación de conjunciones ilusorias en el tiempo, es decir, la formación de perceptos inexistentes mediante rasgos realmente presentados, pero pertenecientes a estímulos distintos (Botella, 1998b). Así, si presentamos los estímulos con un SOA de 80 ms. y preguntamos a los sujetos qué palabra aparece en mayúsculas en el ensayo de la Figura 2.12 la mayor parte de los sujetos acertarán. Pero los errores no serán aleatorios. El más frecuente consistirá en dar como respuesta la palabra de la posición +1 (manta), la segunda en frecuencia será la –1 (libro) y, por último, habrá respuestas esporádicas con las palabras de las posiciones 2. Los sujetos combinarían una característica realmente presente (estar en mayúsculas) con una identidad de palabra también presente, aunque estas características perteneciesen de hecho a estímulos distintos. La técnica de PRSV se ha empleado también para estudiar la reorientación de la atención. Sperling y sus colaboradores (Sperling y Reeves, 1980; Reeves y Sperling, 1986) pedían a sus sujetos que mantuviesen los ojos fijos en la cruz central, que no desaparecía en todo el ensayo, mientras aparecía una serie de estímulos visuales a cada lado de la cruz. Se trataba de detectar la letra T en la serie de la izquierda y entonces identificar el primer

Figura 2.12 Esquema de un ensayo de una tarea de identificación empleando la técnica de PRSV. Se trata de identificar la única palabra que aparece en mayúsculas. Asignando el cero a la posición de la palabra objetivo, cada uno de los otros estímulos ocupa la posición que se indica (con números negativos los presentados antes y con números positivos los presentados después).

88

2. El estudio experimental de la atención

dígito que pudieran de la serie de la derecha. Se infiere que cuanto posterior sea la posición en la que se presentó en la serie el dígito informado, mayor habrá sido el tiempo empleado para desplazar la atención de la posición de una serie a la de la otra. Manipulando la distancia entre las posiciones se pueden deducir las características espaciales de la atención (Barriopedro y Botella, 1998). Recientemente se ha empleado esta técnica para estudiar el fenómeno conocido como parpadeo atencional (attentional blink). Se presenta una serie de letras en negro sobre un fondo gris, e incluyendo en la serie una letra en blanco. En algunos ensayos aparece en alguna posición posterior a la letra blanca la letra X. En la condición experimental se le pide al sujeto que identifique la letra blanca y además diga si aparece o no la X. En la condición de control solo tiene que detectar la X. Mientras en la condición de control el rendimiento en la tarea de detectar la X es prácticamente perfecto, en la condición experimental se observa una disminución en el rendimiento, sin duda debida al procesamiento de la letra blanca. Esa reducción es función también de la posición temporal en que se presenta la X. Cuando aparece en la posición +1 o en las posiciones +7 y siguientes, no se reduce el rendimiento, mientras que la reducción es máxima cuando aparece en las posiciones +2 a +5. Este paradigma muestra que los procesos asociados a un estímulo pueden impedir (ser incompatibles con) los asociados a otro, de forma que aunque éste último sea perfectamente identificable a nivel sensorial, el sujeto sea de hecho atencionalmente ciego hacia ellos durante el breve período temporal en el que el sistema cognitivo está dedicado al primer estímulo. Este fenómeno está muy relacionado con el período refractario psicológico, que describiremos en el apartado 4.11. En ambos casos se estudian las limitaciones del sistema en cuanto a la concurrencia de procesos, por el procedimiento de presentar los dos estímulos de forma desincronizada y observar la interferencia del primero sobre el procesamiento del segundo. 4.10

Las tareas de priming

Ya hemos visto que algunos paradigmas experimentales se basan en la estrategia de inferir el procesamiento que recibe un estímulo (el distractor o distractores) a partir de su influencia sobre el procesamiento de otro estímulo (estímulo imperativo). En algunos paradigmas, como el de compatibilidad de los flancos, el estímulo imperativo y los irrelevantes se presentan a la vez. Pero si los estímulos irrelevantes para la respuesta actual se presentan antes que el estímulo imperativo, a veces como parte del ensayo anterior, entonces estamos ante los paradigmas que explotan los fenómenos de priming. La influencia de esos estímulos irrelevantes puede consistir en

89

Atención

facilitar el procesamiento, mejorando el rendimiento (priming positivo) o en interferirlo, reduciendo el rendimiento (priming negativo). Originalmente, estos paradigmas se diseñaron para estudiar el procesamiento preatencional o no consciente que recibían los estímulos. Para ello se presentaba un primer estímulo con un tiempo de exposición muy breve y enmascarado, de forma que los sujetos no fueran capaces de detectar su presencia, o al menos de identificarlo. Lógicamente, se puede inferir que cualquier característica de este estímulo que influyera en el procesamiento del siguiente tenía que haber sido extraída en esas difíciles condiciones (Perea, Gotor y Nacher, 1997). Actualmente estos fenómenos han suscitado interés por sí mismos, y con frecuencia se estudian en paradigmas experimentales únicos. Veamos un ejemplo. En una tarea de priming muy utilizada en la actualidad se presentan en cada ensayo dos estímulos solapados de distintos colores, por ejemplo uno rojo y otro azul (véase Figura 2.13a). La demanda de la tarea es identificar, nombrándolo o presionando una tecla, el estímulo que cumple la condición de aparecer, por ejemplo, en rojo. Los efectos de priming exigen un análisis basado en pares de ensayos, dado que la manipulación principal es la relación entre los estímulos de dos ensayos consecutivos, el primero llamado ensayo prime y el segundo ensayo probe. Cuando en el ensayo probe el estímulo en rojo es el mismo que en el ensayo prime el tiempo de respuesta es menor que cuando es uno no presentado en el ensayo prime, y éste a su vez es menor que si se trata del estímulo en azul del ensayo prime. Es decir, supongamos que en el ensayo probe el estímulo en rojo es la letra F. Si en el ensayo prime la letra atendida (letra roja) fue la misma, entonces la respuesta se ve facilitada, mientras que si esa letra fue la ignorada (letra azul), la respuesta se ve interferida (véase Figura 2.13b). La reducción en el tiempo de respuesta de los ensayos de repetición atendida es lo que tradicionalmente se ha llamado priming, mientras que el incremento en los ensayos de repetición ignorada, un fenómeno de más reciente descubrimiento y estudio, es lo que suele llamarse priming negativo. Los fenómenos de priming demuestran que la actuación de la atención en el ensayo prime deja algún vestigio aun vigente durante la ejecución del ensayo probe, sobre el que ejerce cierta influencia. Del estudio de esos vestigios se intenta deducir cómo actúa la atención. En concreto, desde la formulación del modelo del filtro de Broadbent (1958) se asumió que la selección atencional se produce mediante un mecanismo de realce, es decir, el sistema intensifica de alguna forma el procesamiento de lo relevante. Sin embargo, el priming negativo se ha constituido en el principal argumento para avalar otra forma (no excluyente con la anterior) por la que la atención da lugar a un procesamiento selectivo. Esta vía consistiría en mecanismos de inhibición activa de las representaciones internas de lo irrelevante. Los efectos de esta inhibición se alargarían en el tiempo, de forma que durante el ensayo probe aun ejercerían cierto efecto. Se han obtenido efectos de pri-

90

2. El estudio experimental de la atención

Figura 2.13 (a) Modo de presentación. (b) Condiciones experimentales. Se supone que cada par de letras se presenta de forma solapada, siendo la tarea del sujeto nombrar con rapidez la roja (aquí en oscuro) e ignorar la azul (aquí en claro). El ensayo probe es el mismo en las tres condiciones experimentales; lo que distingue a cada condición es lo que se presentó en el ensayo prime.

ming negativo en una variedad de tareas, entre las que se incluyen tareas de identificación de letras, de igual/diferente, de categorización semántica, de decisión léxica, etc. Como ejemplos de uso, Recarte y García (1989) y Sánchez y Tudela (1989) han empleado en sus trabajos paradigmas de priming, mientras que Ortells y otros (1998) han explorado los parámetros temporales del fenómeno de priming negativo semántico utilizando una variante del paradigma descrito más arriba. Una variedad de los efectos de inhibición se refiere no tanto a las características de los estímulos como a su posición espacial. Nos referimos al fenómeno conocido como inhibición de retorno. Para producir este fenómeno se utiliza una variante de la tarea de Posner en la que se manipula el SOA. Si se utiliza un SOA corto (en torno a 100 milisegundos) la pista facilita la detección, pero si se emplea un SOA muy largo (en torno a los 300 milisegundos) entonces se produce interferencia en lugar de facilitación. Este fenómeno se interpreta en el sentido de que en la condición de SOA largo al sistema le da tiempo a sintonizar la atención con la posición señalada y constatar que allí no hay estímulo alguno. Entonces probablemente se vuelve a desplazar hacia el centro. Cuando finalmente aparece el estímulo en la posición que se señaló, parece que durante cierto tiempo hay una dificultad

91

Atención

especial para volver a dirigirse hacia ella. Parece como si hubiera una inhibición que en ese momento está aun presente y que comienza tras la constatación de que el estímulo no está presente allí. Su papel adaptativo podría ser el de no malgastar tiempo en la inspección de posiciones que se han explorado recientemente. Se trataría de una especie de sesgo hacia la novedad (véase, por ejemplo, el trabajo de Lupiañez, Tipper y Tudela, 1998). Tanto los fenómenos de priming como la inhibición de retorno muestran un aspecto del procesamiento selectivo cuya existencia se sospechaba hace mucho tiempo, aunque sólo recientemente se ha encontrado la manera de estudiarlo. Es probable que en el futuro próximo asistamos al nacimiento de nuevos paradigmas experimentales orientados a estudiar los fenómenos de inhibición selectiva. 4.11

Paradigmas de doble tarea

Se utiliza en general el término doble tarea para referirse a aquellas situaciones en las que se pide a los sujetos que realicen dos tareas simultáneamente. Al manipular las condiciones y las características de ambas tareas se puede ir probando su compatibilidad y el consumo que hacen de cualquier tipo de recursos de procesamiento limitados del sistema cognitivo. Así, por ejemplo, se ha podido constatar que dos tareas basadas en estimulación de la misma modalidad sensorial se interfieren entre sí más que dos tareas basadas en modalidades distintas. El estudio de la atención dividida se fundamenta en este tipo de procedimientos. En su forma básica se pide al sujeto, sencillamente, que trate de hacer ambas tareas simultáneamente, con objeto de que adopte espontáneamente la estrategia cognitiva que deduzca más apropiada. A la vista de los resultados se puede determinar si la atención se puede distribuir, hasta qué punto, y qué efectos tiene esto sobre el rendimiento. Así, por ejemplo, Recarte y otros (1998) han empleado técnicas de este tipo para inferir el gasto cognitivo de la tarea de conducir un automóvil por diferentes tipos de vías. En otras ocasiones se les transmite explícitamente la distribución que se desea (e.g., «trata de asignar dos tercios de tu atención a esto y un tercio a aquello»), mientras que en la variante conocida como técnica de la tarea secundaria, que describimos a continuación, se pide al sujeto que realice una de las tareas con máximo rendimiento. a)

92

Técnica de la tarea secundaria. La peculiaridad que caracteriza a esta variante estriba en las prioridades que se transmiten al sujeto, normalmente a través de las instrucciones experimentales. Supongamos que pretendemos comparar el consumo que hacen k tareas de unos ciertos recursos de procesamiento, limitados e inespecíficos. Podemos diseñar un conjunto de k situaciones en las que en cada

2. El estudio experimental de la atención

una se combina una de esas k tareas con una misma tarea, que actúa como tarea secundaria. Esta tarea frecuentemente es de tiempo de reacción simple o de detección. Es importante conseguir que los sujetos sigan la consigna de aplicar a la tarea primaria (cada una de las k tareas que queremos comparar) todos los recursos necesarios para realizarlas en su asíntota de rendimiento, dedicando los recursos residuales a la tarea secundaria. De esta forma, el rendimiento en la tarea secundaria permite deducir el consumo de cada tarea primaria. El rendimiento en la tarea secundaria será peor cuanto más exigente sea la tarea primaria. La clave de este paradigma reside en que permite la comparación. Las k tareas pueden ser de naturaleza diferente y puede no tener sentido compararlas directamente. Por ejemplo, ¿qué tiempo de reacción medio reflejaría un rendimiento similar al de una tarea de precisión en la que se consigue un 80 por ciento de aciertos? Con este paradigma se resuelve este problema, dado que lo que se compara es el rendimiento en la tarea secundaria, que es siempre la misma. b) Técnica de la prueba del gasto. Una variante de la anterior es la técnica de la prueba del gasto, en la que se intenta sincronizar la presentación del estímulo de la tarea secundaria con procesos específicos relacionados con la tarea primaria. Uno de los trabajos más conocidos en los que se emplea esta técnica es el de Posner y Boies (1971). Presentaban primero una cruz, que actuaba como punto de fijación ocular. Tras 500 milisegundos se presentaba una letra debajo de esta cruz. Tras otros 1000 milisegundos se presentaba una segunda letra a la derecha de la primera (véase Figura 2.14).

Figura 2.14

Secuencia de pantallas en la tarea de Posner y Boies (1971).

93

Atención

Los sujetos debían apretar con rapidez una tecla si las letras eran la misma y otra tecla si eran diferentes (tarea igual/diferente; véase el apartado 4.1). Las dos teclas de respuesta de esta tarea se accionaban con la mano derecha. En algunos ensayos aparecía repentinamente un sonido, al que los sujetos debían responder con rapidez apretando una tecla con la mano izquierda (tarea de tiempo de reacción simple; véase, de nuevo, el apartado 4.1). La clave del experimento estaba en la manipulación de los momentos en los que aparecía el sonido. Se eligieron ocho momentos distintos, definidos por la tarea igual/diferente (véase Figura 2.15).

Figura 2.15 Esquema temporal de la tarea empleada por Posner y Boies (1971). En la parte superior de la flecha de tiempo se muestran los momentos en los que aparecen los elementos de la tarea de comparación de letras. En la parte inferior se muestran las ocho posiciones temporales en las que podía aparecer el estímulo de la tarea secundaria (el sonido), asignando el origen (cero) al momento de aparición del punto de fijación.

c)

La lógica que subyace se basa en la inferencia de que cuanto mayores son los tiempos de reacción a los sonidos, menos capacidad de procesamiento hay disponible para ocuparse de esta tarea y, por tanto, más capacidad se está empleando en la operación específica que se está realizando en la tarea de comparación de letras. Manipulando ciertas variables se pueden estudiar los fenómenos de interferencia debidos a la concurrencia de procesos (véase, por ejemplo, el trabajo de Botella, 1985). Respuestas rápidas ante estímulos casi simultáneos. Hace mucho tiempo que los psicólogos experimentales se dieron cuenta de que cuando el sujeto debe dar respuestas rápidas a dos estímulos presentados en rápida sucesión y el segundo estímulo se presenta antes de que se haya respondido al primero, entonces se demora la respuesta al segundo (véase Figura 2.16). Lógicamente, esa demora es mayor o menor en función del intervalo entre los estímulos (véanse, en la Figura 2.17, los resultados obtenidos con este paradigma por Botella, 1985).

Esta demora (el fenómeno empírico) recibió el nombre de período refractario psicológico, un nombre que no es meramente descriptivo, sino

94

2. El estudio experimental de la atención

Figura 2.16 Esquema del procedimiento para observar el período refractario psicológico. En el panel (A) el Intervalo Entre Estímulos (IEE) es mayor que el tiempo de reacción al primer estímulo (TR1). En el panel (B) es menor, por lo que el tiempo de reacción al segundo estímulo (TR2) se incrementa.

que implica una interpretación del mismo. En concreto, el nombre parece sugerir que los sistemas implicados en el procesamiento de esos estímulos tienen la característica de que hay un tiempo mínimo indispensable entre dos posibles acciones. Sea cual sea la interpretación que se le dé, lo cierto es que es un fenómeno que concitó un enorme interés en los años cincuenta y sesenta, interés que ha renacido en los últimos diez años. Además de la del intervalo, las manipulaciones más importantes son la naturaleza de las dos tareas implicadas y los estímulos empleados. Lo que habitualmente se busca con este paradigma es establecer las condiciones en las que se produce esa demora y aquellas en las que no aparece, así como a qué variables es sensible

Intervalo entre estímulos (IEE)

Intervalo entre estímulos (IEE)

Figura 2.17 Resultados de dos sujetos obtenidos por Botella (1985) en un experimento sobre el período refractario psicológico. El efecto se manifiesta en la reducción en el tiempo de reacción al segundo estímulo (TR2) a medida que se incrementa el intervalo entre estímulos (IEE).

95

Atención

su tamaño. Con ello se trata de caracterizar los mecanismos psicológicos responsables de la demora. Por ejemplo, la primera teoría explicativa fue la del canal único (Welford, 1952). Según ésta, hay un mecanismo que sólo puede procesar los estímulos en serie. Si cuando llega un estímulo (en este caso el segundo) el sistema está todavía ocupado con el primero, entonces deberá esperar para ingresar en él y ser procesado. Esta teoría ha permitido derivar predicciones relativamente precisas que se han podido contrastar con manipulaciones experimentales concretas (véase, por ejemplo, el capítulo IX de Kahneman, 1997).

Bibliografía comentada Botella, J. (1998): Atención, en Monserrat, J. La percepción visual, Madrid, Biblioteca Nueva. Una breve introducción a los conceptos más básicos de la atención. Botella, J. y Ponsoda, V. (1998): La atención: Un enfoque pluridisciplinar, Valencia, Promolibro. Recopilación de trabajos de investigación, mayoritariamente experimentales, en torno a la atención. En este libro, compuesto por 31 capítulos independientes, se pueden encontrar ejemplos del uso de buena parte de los paradigmas experimentales que hemos presentado en este capítulo. García-Sevilla, J. (1997): Psicología de la atención, Madrid, Síntesis. Se trata de un manual básico sobre atención. Tiene un lenguaje sencillo y asequible para cualquier estudiante de psicología. Abarca de forma prácticamente completa el campo de la atención. Kahneman, D. (1997): Atención y Esfuerzo, Madrid, Biblioteca Nueva. Es la traducción al castellano de una de las obras más influyentes en el campo de la atención. En este libro expone Kahneman su teoría sobre la atención humana. Para ello se revisa la evidencia experimental relevante. Algunos capítulos (especialmente el IX) son muy ilustrativos de cómo se puede sacar todo el partido a algunos de los paradigmas experimentales descritos en este capítulo. Rosselló, J. (1997): Psicología de la atención, Madrid, Pirámide. Una introducción conceptual que culmina en una reflexión sobre el concepto de atención y sus implicaciones. Tudela, P. (1992): Atención, en J. L. Fernández Trespalacios, y P. Tudela (eds.): Atención y Percepción, en J. Mayor y J. L. Pinillos (dirs): Tratado de Psicología General, vol. 3, Madrid, Alhambra. Pío Tudela, probablemente el autor español más importante en el campo de la atención, expone su autorizado punto de vista. Imprescindible para abordar una reflexión en profundidad del concepto de atención.

96

2. El estudio experimental de la atención

Preguntas de revisión 1. Para estudiar los efectos del ruido sobre el rendimiento en una tarea de atención selectiva diseñamos un experimento con dos condiciones: una sin ruido y otra con ruido ambiental. La tarea es de tiempo de reacción de elección. Encontramos los resultados que se indican más abajo. Concluimos que, dado que en la condición con ruido ambiental el rendimiento es peor, el ruido consume parte de nuestros recursos atencionales. ¿Se podrían explicar, alternativamente, estos resultados por un cambio en el balance velocidad/precisión? Condición

TR medio

Aciertos

Sin ruido Con ruido

485 ms 498 ms

96% 88%

2. En un famoso experimento publicado en los años sesenta se presentaban palabras por los auriculares, de forma dicótica, siendo la tarea de los sujetos repetir las palabras del oído izquierdo a medida que se presentaban y presionar una tecla siempre que oyeran por el derecho un click. Diga de qué tipo de paradigma se trata (I), qué técnica se empleaba para asegurarse de una mayor concentración en el mensaje del oído izquierdo (II) y qué tipo de tarea es la que se realiza sobre el mensaje del oído derecho (III): I

II

III

Escucha selectiva Doble tarea Stroop auditivo

Sombreado Identificación Priming

Identificación Igual/diferente Detección

3. En las tareas de búsqueda visual, un modo serial de procesamiento implica que el sistema procesa todos los elementos presentados, uno a uno, hasta que encuentra el objetivo y emite la respuesta positiva. ¿Qué predicción cuantitativa podemos hacer desde este modo de procesamiento para los ensayos negativos (objetivo ausente)? 4. Según lo hemos expuesto, en el paradigma utilizado para estudiar el Período Refractario Psicológico (PRP) se espera que el TR medio al segundo estímulo se vaya reduciendo a medida que se alarga el Intervalo Entre Estímulos (IEE). En caso de ser correcto el modelo de canal único, descrito al final del apartado (c) de la sección 4.11, ¿cómo debería cambiar el TR medio al primer estímulo al ir alargando el IEE?

97

Atención

5. Siguiendo con el paradigma del PRP y el modelo descrito, ¿cómo se podría expresar matemáticamente el incremento en el TR al segundo estímulo en función del IEE? 6. Supongamos que presentamos a los sujetos dos mensajes por medio de auriculares, de forma dicótica, diciéndoles que al acabar el ensayo se les harán preguntas relativas al mensaje del oído derecho. Después de hacerlo así en varias ocasiones, en un ensayo les preguntamos sin previo aviso si han oído por el mensaje de la izquierda el nombre de alguna capital europea, con objeto de constatar el grado de procesamiento de este mensaje. ¿A qué paradigma de los descritos se corresponde la lógica que subyace en este experimento? 7. Queremos diseñar un experimento para estudiar si se puede procesar selectivamente la posición de un estímulo en el campo visual sin necesidad de identificarlo. Ponga un ejemplo de una tarea que podría utilizarse y de los estímulos que se emplearían. 8. En un famoso experimento con el paradigma de Stroop publicado en los años setenta se observó que, dentro de la condición de incompatibilidad entre los colores y las palabras, cuando el nombre del color en que estaba escrita una palabra era la palabra presentada en el ensayo anterior, el rendimiento era peor que si eran palabras nuevas. ¿Qué fenómeno básico de la atención selectiva descrito en este capítulo está estrechamente relacionado con este resultado?

98

3. Selección para la percepción, selección para la acción * Jaume Rosselló Mir

La atención, desde un punto de vista funcional, puede concebirse a partir del binomio selección para la percepción/selección para la acción. Desde este punto de partida, en este capítulo se profundiza en las aproximaciones teóricas más recientes que abordan el estudio del mecanismo atencional, dando prioridad a una de las dos funciones o procurando adoptar una postura integradora. Tras ofrecer al lector una introducción que reflexiona sobre las principales cuestiones que ocupan a los estudiosos de la psicología de la atención contemporánea, se exponen las perspectivas más relevantes que conciernen a la selección para la percepción, partiendo de la polémica que enfrenta a quienes defienden que nuestro mecanismo atencional selecciona primordialmente localizaciones espaciales (atención espacial) con los autores que reconocen la posibilidad de una selección basada en los objetos perceptuales, independientemente de su ubicación en el espacio (atención al objeto). Existe un tercer sector de la comunidad científica que * Dado que, de entrada, el lector novel puede no tener el suficiente bagaje para seguir con facilidad el discurso de lo expuesto en este capítulo, recomendamos encarecidamente una lectura previa del Capítulo 1 de este manual, donde se exponen de forma clara y sintética las bases histórico-conceptuales que, a buen seguro, harán posible que el estudiante siga con mayor facilidad la exposición de este capítulo, en el cual, desde la más rigurosa actualidad, se pueden encontrar las más apasionantes (y apasionadas) controversias que, hoy por hoy, mantienen en vilo a los investigadores contemporáneos del mecanismo atencional.

99

Atención

considera que la función de la atención se halla estrechamente vinculada a la programación de la acción, es decir, que enfatiza el componente de selección para la acción. Aunque, entre los autores que adoptan esta perspectiva, la mayoría arguye que es la selección de los parámetros espaciales la que guía nuestra acción, los hay que discrepan, manifestando su convicción que programamos las acciones en función de la representación de los objetos. En el tercer apartado, el lector podrá encontrar diversos argumentos que apoyan una u otra alternativa, y conocerá algunos de los modelos formulados por autores de reconocido prestigio, pudiendo apreciar los a menudo sutiles matices que distinguen sus aproximaciones teóricas y conceptuales. En el apartado 4 se pretende introducir al lector a las tendencias conciliadoras que han surgido en este último lustro, que postulan un mecanismo atencional caracterizado por un estrecho ligamen funcional entre la selección para la percepción y la selección para la acción. La ingente cantidad de datos experimentales generados por la investigación atencional ha dado paso a un caos conceptual derivado de la extrema dificultad de su integración teórica. Uno de los debates suscitados por esta circunstancia concierne a la genuina naturaleza de la atención: ¿poseemos un solo mecanismo atencional (o unos pocos) que controlan nuestra percepción y nuestra acción desde instancias o sistemas externos a los sistemas perceptuales y motrices, o, en cambio, hay tantas atenciones como circuitos se establecen entre lo perceptual y lo motor? Esta controversia se aborda a partir de las teorías de la atención que proponemos llamar monárquicas (un mecanismo atencional común), oligárquicas (diversos mecanismos) y (no hay un mecanismo atencional en sentido estricto: la atención es sólo un fenómeno múltiple y diverso que emerge de la activación de cada circuito sensorio-motor). Esperamos que la diversidad de controversias expuestas y la falta de consenso entre los expertos que resulta patente tras la lectura de este capítulo no confunda al lector, sino que le ayude a formarse una idea aproximada de la realidad en torno a la explicación de la atención, algo que todos creemos saber qué es pero que, ciertamente, resulta aún una auténtica desconocida.

1.

Introducción

Una vez iniciados en los aspectos históricos y conceptuales, y vistos también los principales paradigmas experimentales que utilizan los investigadores que trabajan en el ámbito atencional, ha llegado el momento de intentar ofrecer al lector un panorama de los numerosos enfoques que pretenden explicar esa profusa variedad de fenómenos que hemos convenido en llamar atención. Hemos procurado organizar el capítulo de forma estructurada y sistemática, aún a sabiendas de que, dada la extrema heterogeneidad y el elevado índice de controversia que determinan, hoy por hoy, la investiga-

100

3. Selección para la percepción, selección para la acción

ción en este campo, la aparente claridad de ideas que se deriva de esa sistematización es tan sólo quimérica, y, en consecuencia, su valor y legitimidad didácticas pasan siempre por asumir cierta laxitud en los criterios de celo y rigor conceptual o, en todo caso, por abogar por un posicionamiento no exento de arbitrariedad. Así pues, la aproximación que aquí se ofrece no es imparcial, implica tomar partido, a veces discrepando en cierta medida de las opciones defendidas en los capítulos que, en este mismo manual, abordan el tema de la atención. No creemos que esto resulte contraproducente. Más bien al contrario: pensamos que puede ofrecer al lector una visión más complementaria que estrictamente antagónica, que puede derivar en una valiosa fuente de reflexión y de debate. En definitiva, esta hetereogeneidad no constituye sino un reflejo más o menos fidedigno de la diversidad de modelos y perspectivas que conviven, aún sin concierto, en el estudio contemporáneo de la fenomenología atencional. 1.1

Algunas cuestiones fundamentales

La atención no es ni una ni simple. De hecho, los numerosos avances metodológicos aplicados a la investigación de sus mecanismos (véase capítulo 2), han revelado una naturaleza altamente compleja —y diversa— que aún estamos lejos de comprender. La multiplicidad de lo que a la atención se refiere ha culminado en una confusión conceptual, abonada a menudo por las aproximaciones que parten de diferentes niveles explicativos (neurobiológico, cognitivo, formal, etc.) y por la eclosión de un sinnúmero de micromodelos surgidos a partir de evidencias altamente específicas —lo cual no supondría ningún inconveniente si esas teorías parciales fuesen tomadas como lo que son y no pretendieran, como sucede a menudo, trascender su ámbito explicativo. En efecto, gran parte de esa confusión se debe a que todavía demasiados autores pretenden que sus modelos sean extrapolables a la totalidad de las variedades atencionales, aspirando a ofrecer una fundamentación teórica global, que pueda dar cuenta de todos los datos experimentales generados, y convertirse así en una Teoría de la Atención integral y holista. ¿Cómo puede ser posible una teoría de esas características si decimos que la naturaleza atencional es múltiple y compleja, si cada vez parece más probable que la atención no sea más que un término útil —un constructo— para referirnos a una serie de mecanismos esencial y funcionalmente distintos? En todo caso, esas pretensiones convergentes e integradoras son del todo prematuras. Hoy en día, nadie sabe todavía lo que es la atención (o al menos no hay consenso respecto a ello). Cabe que, antes de nada, tengamos respuesta firme para una serie de cuestiones fundamentales que son objeto de profundas controversias. Por lo que se refiere a la atención visual, en la

101

Atención

que nos basaremos en este capítulo, algunas de esas preguntas todavía sin respuesta giran en torno a los siguientes puntos: 1. El momento en el que se da la selección atencional en la secuencia de procesamiento. ¿Seleccionamos los estímulos antes de procesarlos completamente (p.e. simplemente a partir de su posición espacial o de su color) o, por el contrario, lo hacemos sólo después analizar su significado? ¿Puede ser que el lugar de la selección no sea fijo y dependa de la situación, es decir, que unas veces seleccionemos los estímulos antes de categorizarlos, pero en otras seamos capaces de extraer toda su información antes de seleccionarlos? Tradicionalmente se han llamado modelos de selección temprana los que postulan que seleccionamos antes de procesar semánticamente los estímulos. En el otro extremo, se hallan los llamados modelos de selección tardía. Naturalmente, han surgido modelos intermedios o sintéticos (véase el apartado 2.2.1 del Capítulo 1). Los hallazgos de estos últimos años en diversas disciplinas científicas que incluyen la psicología experimental, la neuropsicología y la neurofisiología, apoyan la formulación propuesta en estos modelos, según la cual la selección atencional puede tener lugar en diferentes etapas del procesamiento. Los datos procedentes de estudios con potenciales evocados apuntan a que se puede dar selección en prácticamente cada estadio, desde la misma retina a las áreas más especializadas. Al parecer, la intensidad de la selección aumenta a medida que se avanza en el procesamiento, de modo que es relativamente débil a nivel retiniano pero incrementa su potencia progresivamente, concentrándose en las representaciones relevantes. Estos resultados tienden a dejar de lado el viejo debate selección temprana/selección tardía, asumiendo que la atención puede actuar en diferentes momentos y que, incluso, los mecanismos atencionales pueden variar en cada caso. De esta forma, la selección atencional puede operar a través de una modulación de la actividad de las neuronas sensoriales, puede implicar la facilitación y/o inhibición selectiva de las respuestas neurales a nivel de corteza parietal y temporal, puede actuar sobre la entrada de información en un sistema de memoria a corto plazo de capacidad limitada y, como sugiere Allport (1993), puede controlar la información necesaria para el sistema ejecutivo que dirige la acción. 2. La forma en la que se produce la selección. ¿Cómo se lleva a cabo la selección? ¿Se trata de una activación de ciertas representaciones, de una inhibición de otras o de una combinación de mecanismos activadores e inhibitorios? Aunque la mayoría de los modelos atencionales presuponen que el mecanismo atencional actúa poniendo de relieve la información seleccionada —lo que implica, a nivel neurofisiológico, una sobreexcitación de las neuronas que codifican esa información—, cada vez hay más datos experimentales que concuerdan con la hipótesis de que también hay ciertos mecanismos de inhibición de la información no seleccionada —la tasa de descarga de las neuronas que codifican la información ignorada disminuye.

102

3. Selección para la percepción, selección para la acción

Entre las evidencias que provienen de la psicología experimental destacan tal vez los obtenidos a partir del paradigma experimental de priming negativo (Tipper, 1985; Tipper et al., 1988; Tipper, Howard y Meegan, en prensa), paradigma descrito exhaustivamente por Juan Botella y María Isabel Barriopedro en el Capítulo 2 de este manual (véase apartado 4.10 de dicho capítulo). De forma harto sumaria, los resultados obtenidos podrían resumirse diciendo que, si en un ensayo determinado de un experimento de laboratorio, la información a seleccionar es precisamente la que se debía ignorar en un ensayo inmediatamente anterior, esa selección se ve afectada de forma que parece como si la información sufriera los efectos de una inhibición recibida en el ensayo previo. 3. El ámbito representacional —el llamado medio— en el que se basa la selección. ¿Seleccionamos los estímulos en base a su localización espacial o en base a su percepción como un único objeto? ¿Es adecuado el símil de que la atención es como un foco que ilumina (selecciona) una región discreta de nuestro espacio visual? La cuestión de si la atención se basa en el espacio o se basa en el objeto es una importante fuente de polémica y ha dado lugar a modelos explicativos que parten de alternativas diversas. Hay evidencias suficientes para pensar que, en ciertas circunstancias, el mecanismo atencional puede actuar sobre las representaciones de objetos, aunque, en otros casos, parece que tiene prioridad la selección en base a la ubicación espacial. Trataremos ampliamente este tema a lo largo de todo el capítulo (véase, p.e., el apartado 2.1.). 4. La multiplicidad de mecanismos de selección. ¿Existen uno, dos o varios mecanismos de selección responsables de los llamados fenómenos atencionales? Cada vez son más las evidencias que rompen con la visión tradicional de un único mecanismo atencional. Algunos modelos, que aquí llamaremos anárquicos, postulan que no existe ningún genuino sistema atencional: la atención sería entonces sólo un fenómeno inherente a (o emergente de) la activación de los circuitos cerebrales responsables de la programación de la acción. Para una exposición más detallada véanse los apartados 2.2.2 y 5. 5. La función primordial de la atención. ¿Cuál es la razón fundamental de que estemos dotados de lo que podemos llamar aptitudes o habilidades atencionales? ¿Sirve la atención para percibir adecuadamente el mundo, para proteger de una posible sobresaturación a un sistema de procesamiento de capacidad limitada o para seleccionar la información que debe guiar nuestra acción? La respuesta a esta pregunta es crucial y determina en gran parte nuestro posicionamiento en el dilema selección para la percepciónselección para la acción, binomio en el que se basa precisamente la estructuración de este capítulo. De todos modos, veremos que existen modelos comprensivos, que parten de la asunción de que las funciones de la atención son múltiples y abarcan los dos términos de la presunta dicotomía. Como suele ocurrir, de las posturas antitéticas acaba surgiendo la síntesis

103

Atención

conciliadora: la mayoría de los dilemas acaban siendo trilemas (véanse apartados 4, 5 y 6). En los últimos veinte años, han surgido numerosos modelos atencionales que ofrecen distintas respuestas a las cuestiones anteriores, algunos de los cuales pueden considerarse complementarios, mientras otros resultan claramente irreconciliables. Afortunadamente, la neurociencia cognitiva ha contribuido a descartar algunas de esas alternativas y a ofrecer respuestas de cierta solidez (p.e., la naturaleza modular de nuestro sistema atencional). Según Schneider (1998), además de los avances en dicha disciplina, han resultado cruciales el enfoque funcionalista —en el cual se origina la quinta de las cuestiones planteadas— y los estudios neoconexionistas que diseñan modelos de redes atencionales artificiales como el SAIM (Selective Attention for Identification Model) (Humphreys y Heinke, 1998) (véase el apartado 2.2.4. del Capítulo 1). 1.2

Selección para la percepción versus selección para la acción

A pesar de que no tienen por qué ser mutuamente excluyentes, y a que, de hecho, existen posturas comprensivas, la mayor parte de los modelos atencionales contemporáneos consideran bien la selección para la percepción, bien la selección para la acción, como la función primordial del mecanismo atencional. Normalmente, la concepción de que atendemos para percibir de forma adecuada el mundo que nos rodea va ligada a la presunción de que nuestro sistema de procesamiento tiene una capacidad limitada, por lo que es necesario seleccionar la información para evitar un colapso central. En esta línea podemos situar las formulaciones de Posner (1980), Treisman y Gelade (1980), Treisman (1988), LaBerge y Brown (1989), etc. En el otro polo, nos encontramos con los que piensan que atendemos para optimizar nuestra acción. Defendiendo esta opción, que se remonta a la poco conocida formulación de Ribot (1906; véase Rosselló et al., 1998), nos encontramos con los modelos de Allport (1987, 1989), Neumann (1987, 1990), van der Heijden (1992), etc. En la posición sintética, según la cual ambas son funciones fundamentales del mecanismo atencional, podemos ubicar algunos modelos recientes (Schneider, 1995; Duncan, 1996; Logan, 1996; Deubel, Schneider y Paprotta, 1998; etc.). De todos modos, pretendan o no una visión comprensiva, la mayoría de los modelos oscilan entre los extremos referidos a la hora de postular cuál es la función principal (primordial) de nuestro mecanismo atencional. Esta es la razón fundamental de que hayamos optado por estructurar el núcleo de este capítulo según el criterio funcional en el que se basa dicha dicotomía.

104

3. Selección para la percepción, selección para la acción

2.

Selección para la percepción

Como norma, los modelos atencionales se han interesado en el análisis de la selección para la percepción, aunque la mayoría explicite en otros términos la que consideran la función primordial de la atención. De este modo, afirman que la atención facilita la detección (Posner, 1980), que optimiza el procesamiento de los estímulos situados en una localización espacial determinada (Eriksen y Yeh, 1985; LaBerge y Brown, 1989), que permite la integración de las características de los estímulos (Treisman y Gelade, 1980; Treisman, 1988), que es básica para el reconocimiento de objetos (Duncan y Humphreys, 1989; Baylis y Driver, 1993; Schneider, 1995), que procura una actualización de nuestra representación interna del mundo (Neumann, 1996), etc. De todos modos, esta pléyade de perspectivas puede segregarse en dos grandes grupos que pueden diferenciarse por un matiz importante, a saber: el status que otorgan a la selección espacial. Por un lado, tenemos a quien piensa que la atención actúa primordialmente a partir de la información espacial (Johnston y Dark, 1986; Treisman, 1988; Tsal y Lavie, 1993; van der Heijden, 1993; LaBerge, 1995; Logan 1996, Bundesen, 1998, etc.). La postura opuesta se basa en la consideración de la información espacial simplemente como una clave informativa más al servicio de la selección de estímulos percibidos como un todo (Duncan y Humphreys, 1989; Desimone y Duncan, 1995; Duncan, 1996; Fox, 1998; etc.). Entre ambos extremos hay una multitud de teorías a menudo difíciles de ubicar que, aunque reconozcan que la información espacial constituye una información subordinada a la selección de objetos definidos de forma preatencional, parecen seguir concediendo un papel especial a dicha información (p.e. Posner y Petersen, 1990; Schneider, 1995; Lavie y Driver, 1996; Deubel, Schneider y Paprotta, 1998; etc.). Esta controversia ha dado lugar a uno de los debates más notorios de los últimos años: se trata del dilema, que comentábamos en el punto 3 del apartado 1.1, entre la atención basada en el espacio y la basada en el objeto. 2.1

El medio de la atención: ¿mapas espaciales o representaciones de objetos?

¿Sobre qué tipo de representación interna —sobre qué medio, dirían Tipper y Weaver (en prensa)— actúa el mecanismo de selección atencional? Según una de las opciones más extendidas, el mecanismo atencional selecciona ubicaciones espaciales. Desde este punto de vista, a menudo se ha concebido la atención como una especie de foco que se desplaza por una mapa espacial interno, favoreciendo el procesamiento de los estímulos contenidos en dicho foco. Sin embargo, pronto hubo quien empezó a cuestionar este supuesto y a sugerir la posibilidad de que la atención pudiera dirigirse tam-

105

Atención

bién a objetos perceptuales. Según esta postura alternativa, la selección atencional podría actuar sobre la representación del objeto resultante de la organización perceptual. Fue Duncan (1984) quien planteó explícitamente la distinción entre teorías basadas en el espacio y basadas en el objeto, ofreciendo algunas de las primeras evidencias experimentales en favor de estas últimas. Desde el punto de vista funcionalista, la atención al objeto está dotada de coherencia evolutiva: dado que parece lógico pensar que los sistemas de percepción y acción hayan evolucionado juntos, y que el papel crucial del mecanismo atencional no puede ser sino el de que la acción se dirija sobre el objeto apropiado en el momento adecuado —y no simplemente a determinadas ubicaciones espaciales—, resulta verosímil pensar que, al menos en ciertas circunstancias, los mecanismos selectivos actuen sobre la representación interna de los objetos. Además, esta hipótesis resulta compatible con la influyente teoría de la visión de Marr (1982), según la cual el procesamiento visual temprano divide la escena en objetos separados y/o grupos perceptuales —es decir, la organización perceptual es preatencional. Los resultados de numerosas investigaciones apuntan a que, dependiendo de las circunstancias, el mecanismo atencional puede actuar sobre el mapa espacial o sobre la representación del objeto (véase apartado 2.3.2.). Esta afirmación concuerda con la evidencia de una codificación por separado —en paralelo— de la identidad de un estímulo (el qué) y de su ubicación (el dónde). Los estudios neurofisiológicos (Ungerleider y Mishkin, 1982; Posner y Raichle, 1994; Ungerleider y Haxby, 1994) confirman que en la corteza de asociación existen dos vías paralelas de análisis de la información visual: una vía ventral que se proyecta desde las áreas visuales primarias hacia el lóbulo temporal inferior y es responsable del análisis del qué —en esta vía parecen existir además áreas especializadas en el procesamiento de los distintos atributos: forma, color, textura, orientación, etc.—, y una vía dorsal que llega hasta el lobulo parietal posterior y analiza el dónde, la ubicación espacial del estímulo (véase Figura 3.1). Según Styles y Allport (1986), cuando la ejecución de una tarea implica el procesamiento de ambas características (el qué y el dónde) —como es el caso de las tareas de discriminación—, se da en primer lugar la codificación de la identidad del estímulo objetivo (target) y sólo posteriormente se codifica su localización espacial. Si este hecho significara que, en este tipo de tareas, se utiliza la información de identidad para llevar a cabo la selección atencional, las implicaciones para el clásico debate selección temprana–selección tardía (visto en el punto 1 del apartado 1.1) serían verdaderamente importantes, dado que la selección de la identidad de un objeto implicaría que —al menos en las tareas de discriminación— el mecanismo atencional actúa una vez concluido el procesamiento semántico del estímulo (lo cual encaja claramente con un modelo de selección tardía). Sin embargo, algunos autores piensan que el simple hecho de que se dé previamente un procesamento categorial (o semántico) no implica que la

106

3. Selección para la percepción, selección para la acción

Figura 3.1 La vía ventral (del qué) y la dorsal (del dónde). La vía ventral forma parte del llamado sistema parvocelular y la dorsal del magnocelular. Como puede observarse, ambas se originan en V1 para dirigirse, la ventral, a la corteza temporal inferior, y la dorsal, al lóbulo parietal posterior.

selección atencional se realice en base a claves semánticas. Según van der Heijden (1981, 1992, 1993, 1995, 1996), pese al procesamiento preliminar del significado de un estímulo, la selección se realiza en base a características físicas tales como la localización espacial. El modelo de van der Heijden, llamado del filtraje postcategorial, ofrece una explicación de por qué, pese a la disponibilidad de la información de identidad, las características físicas suelen ser más eficaces como claves de selección. En definitiva, para van der Heijden, aunque la atención basada en el objeto es posible, no se da a partir de la selección de las propiedades categoriales del estímulo, sino, fundamentalmente, en base a la selección de su ubicación espacial. Sea como fuere, existe actualmente la creencia generalizada de que la selección atencional no es de ninguna manera una operación unitaria (p.e., Allport, 1989, 1993; Humphreys y Riddoch, 1994) y que, en ciertas circunstancias, es posible una atención dirigida esencialmente a los objetos perceptuales, independientemente de que las claves espaciales de la ubicación de dichos objetos puedan jugar o no un papel especial en esa selección (Umiltà et al., 1995; LaBerge, 1995; Egeth y Yantis, 1997; Styles, 1997; Deubel et al., 1998; Driver y Baylis, 1998; Fox, 1998; etc.). Así pues, parece haber un relativo consenso respecto a que la selección atencional puede actuar tanto sobre nuestro mapa espacial interno como sobre la representación de objetos o de grupos perceptuales, y que éstos son generados preatencionalmente, en una etapa relativamente temprana del procesamiento visual (Kanwisher y Driver, 1992). Recientemente, han aparecido diversos modelos atencionales que, desde un enfoque comprensivo, pretenden inte-

107

Atención

grar la atención basada en el espacio y la basada en el objeto. Cabe destacar, por su grado de elaboración formal, la propuesta de Logan (1996). En honor a la verdad, cabe decir que no participan de ese relativo consenso los autores que, en la línea del modelo de la Teoría de la Integración de las Características propuesta por Treisman (Treisman y Gelade, 1980; Treisman, 1988; 1990), piensan que los diferentes atributos de los objetos (forma, color, textura, etc.) requieren de la información espacial para conjuntarse en un todo: dicho de otra forma, la conjunción de los distintos atributos necesaria para percibir un objeto de forma integrada se da, normalmente, gracias a la acción del mecanismo atencional sobre un mapa maestro de localizaciones —la atención pegaría, sobre ese mapa espacial, los distintos atributos, dando lugar al percepto. Según estos modelos, el medio de la atención lo constituye, normalmente, una representación espacial de alto nivel, y, dado que la atención es necesaria para pegar los distintos atributos, la representación del objeto debe ser postatencional —dándose, por tanto, en un estadio relativamente tardío del procesamiento visual. Para Robertson (1998), ese mapa espacial de alto nivel sobre el que actúa la atención se situa en la vía dorsal —del dónde—, y se conecta con la vía ventral —del qué, que codifica los distintos atributos— para dar lugar a la integración de características necesaria para la percepción consciente de un objeto. Aunque resulta obvio que existe aún cierta controversia, en virtud de los datos experimentales obtenidos en investigaciones recientes parece más solida la postura según la cual el mecanismo atencional que actúa, en ciertas circunstancias, sobre un medio espacial, también puede, en otras condiciones, actuar sobre una representación del objeto que se da en una etapa temprana del procesamiento. En torno a este hecho, que ha supuesto un notable descrédito para el modelo del foco atencional y los que de él se han derivado (Driver y Baylis, 1998) (véase apartado 2.2.3.3.), queda todavía una importante cuestión a resolver: cuáles son los factores que hacen que nuestro mecanismo atencional actúe de una forma en unos casos, y de otra, en otros. 2.2

La atención espacial

2.2.1 La representación del espacio Introspectivamente, el espacio —como la atención— es unitario. Es una especie de escenario interno tridimensional donde ubicamos los objetos percibidos. Desde este punto de vista fenoménico, podría parecer que, en nuestro cerebro, el espacio se codifica en una región específica, probablemente supramodal —en la cual debería converger la información espacial proporcionada por todas las modalidades sensoriales—, a partir de la cual tendría-

108

3. Selección para la percepción, selección para la acción

mos información suficiente para realizar óptimamente cualquier actividad espacial (caminar, resolver un puzzle, coger un objeto, mover los ojos hacia un estímulo, etc.). De hecho, algunos autores han obtenido resultados que, en mayor o menor medida, apoyan la hipótesis de la existencia de un área plurifuncional de codificación espacial sobre la que actuaría la atención (Bisiach y Vallar, 1988; Farah et al., 1989; Ward, 1994; Spence y Driver, 1996), a menudo ubicándola a nivel del lóbulo parietal. Sin embargo, diversos trabajos recientes apuntan a que la base neural de dicho Espacio Común podría ser mucho más compleja, formando una red más bien difusa que incluiría zonas corticales más primitivas (p.e., el hipocampo) e incluso estructuras subcorticales como los ganglios basales y el colículo superior (Driver y Spence, 1998). Estos autores reconocen las grandes diferencias intersensoriales en la codificación del espacio, aunque postulan la existencia de vínculos entre la representación del espacio visual, auditivo, háptico y propioceptivo. Dichos vínculos o conexiones intermodales darían lugar a una sinergia espacial preatencional. La atención actuaría sobre ese espacio sinérgico. Para Robertson (1998), aunque es cierto que parece haber múltiples representaciones del espacio en el cerebro humano cada una de las cuales parece asociada a distintos propósitos, es el mapa que se da a nivel del lóbulo parietal el que se corresponde con el espacio que vemos, al cual atendemos y a partir del cual actuamos. Según este autor, esa representación del espacio a nivel del lóbulo parietal es fruto de una complejidad computacional que requiere de las funciones espaciales de la vía dorsal y da lugar, en un estadio del procesamiento visual relativamente tardío, a un mapa espacial razonablemente isomórfico respecto al espacio tridimensional del mundo real. Desde una óptica alternativa, numerosos autores piensan que hay demasiados argumentos que contradicen la existencia de una representación espacial de las características descritas (Rizzolatti, Riggio y Sheliga, 1994; Rizzolatti y Craighero, 1998; Humphreys y Heinke, 1998). El primer argumento es anatómico. Una representación así debería basarse en un sistema neural que fuera centro de convergencia de numerosos inputs provenientes principalmente de la corteza occipital —y de muchas otras zonas, si dicha área fuera, además, supramodal— y que, a la vez, proyectara toda una serie de vías a los centros que controlan las múltiples acciones que requieren de un conocimiento espacial. Sin embargo, el lóbulo parietal —que, como hemos visto, es uno de los principales candidatos a ser parte importante de la sede de dicho sistema— es funcionalmente heterogéneo: se halla formado por un elevado número de áreas independientes, ninguna de las cuales parece cumplir con esos requisitos de interconexión. Por poner un ejemplo, el área parietal que conecta con los centros responsables de los movimientos oculares no es la misma que conecta con el área que controla el movimiento de los brazos a la hora de coger un objeto. Una segunda razón se basa en la evidencia de que las diferentes acciones necesitan de formas distintas de

109

Atención

codificar el espacio. En el caso del ejemplo anterior, la información espacial necesaria para realizar un movimiento ocular se codifica a través de la tasa de descarga neuronal, mientras que, en el caso del movimiento de los brazos, la codificación espacial se basa en cuáles son las neuronas que están activas, reservándose la tasa específica de descarga de dichas neuronas como una forma de codificar información adicional (p.e. las propiedades del objeto que vamos a coger). Trabajos recientes (Humphreys y Heinke, 1998) sugieren que, incluso para una tarea dada de atención visual, la codificación del espacio intraobjeto (es decir, de las relaciones espaciales entre diferentes partes que se consideran como pertenecientes a un mismo objeto) es distinta de la del espacio interobjeto (de las relaciones espaciales de esas mismas partes cuando son consideradas como pertenecientes a objetos distintos). En conclusión, parece que hay múltiples formas de codificar el espacio, lo que claramente contradice la existencia de un sistema espacial común, supramodal o plurifuncional. 2.2.2 De los modelos monárquicos a la teoría de la atención modular sensoriomotora La evolución de los conocimientos sobre la representación del espacio descrita en el apartado anterior ha dado lugar a un proceso similar en los modelos teóricos de la atención espacial. De este modo, las teorías clásicas —según las cuales, la representación mental del espacio se daba en una especie de mapa cartesiano localizado en una zona específica de nuestra corteza cerebral— concebían también la atención como un mecanismo unitario, ubicado en una zona cortical bien delimitada e independiente del sistema sensoriomotor —aquí, llamaremos a estos modelos teorías monárquicas de la atención. El mecanismo atencional actuaba de alguna forma sobre los circuitos sensoriomotores, aumentando su eficiencia. La mayoría de estos modelos monárquicos aludían a la metáfora del foco atencional, que se dirigía a una parte de ese mapa espacial cartesiano, facilitando el procesamiento de los estímulos procesados en las áreas iluminadas. Otras formulaciones, en lugar de hablar de un foco atencional, hablaban del ojo de la mente (Jonides, 1980) —término introducido por von Helmholtz—, una figura retórica sin duda menos prosaica, pero igualmente insostenible. Años más tarde, con el auge de las técnicas de neuroimagen (SPECT, TEP, IRMf, etc.), se han podido visualizar las áreas del cerebro que se hallan activas al llevar a cabo diversas tareas. De esta forma, se ha podido constatar que dichas áreas cambian según la tarea atencional que se lleva a cabo. Estos resultados han supuesto, irremisiblemente, una reformulación de las teorías clásicas, impulsando la aparición de modelos que postulan varios sistemas de control atencional, teorías que, siguiendo con el símil propuesto, podríamos llamar oligárquicas. Tanto los modelos monárquicos como

110

3. Selección para la percepción, selección para la acción

los oligárquicos topan a menudo con el llamado problema del homúnculo, es decir, explican el control atencional a partir de la existencia de uno o diversos sistemas atencionales que, como si se tratara de pequeños entes instalados en nuestro cerebro, controlan la información sensoriomotora. Si recurrimos a este tipo de explicación, la cuestión de cómo seleccionamos la información no se resuelve, sino que simplemente se transforma en la de cómo selecciona la información nuestro sistema atencional (nuestro homúnculo). Así pues, el valor explicativo, tanto de las teorías monárquicas como de las oligárquicas, es más bien precario. Existe una postura alternativa que pretende ofrecer una solución a este problema. Podríamos llamarla teoría anárquica. Según este modelo, la atención espacial no depende de uno o varios sistemas de control independientes de los circuitos sensoriomotores, sino que es el resultado de la activación diferencial de dichos circuitos. De este modo, la atención sería sólo el correlato subjetivo emergente del cambio en la activación de los sistemas responsables de la percepción y de la acción. Entre estos modelos anárquicos, que postulan una atención espacial modular sensoriomotora, destaca la llamada Teoría Premotora formulada por Rizzolatti y Camarda (1987), en función de una serie de datos neurofisiológicos, y por Rizzolatti et al. (1987), en base a determinados hallazgos provenientes de la psicología experimental. Esta teoría establece un estrecho vínculo entre atención espacial y selección para la acción. En primer lugar, postula que la activación de las neuronas que codifican una determinada ubicación espacial va ligada a la activación de las que programan una acción determinada. Ambos tipos de neuronas formarían los circuitos frontoparietales que hemos dicho que Rizzolatti llama mapas pragmáticos. De la activación de cualquiera de estos circuitos emergería el fenómeno que vivimos subjetivamente como la atención espacial (Rizzolatti y Craighero, 1998). Dado que esta teoría concibe la atención espacial como el resultado de la programación de un movimiento en el espacio, la expondremos con mayor detalle en el apartado 3.5, donde trataremos la selección para la acción. 2.2.3 El desplazamiento de la atención visual en el espacio Como apunta Tejero en el apartado 1.3. del Capítulo 1, hace tiempo que se sabe que el desplazamiento de la atención puede disociarse de los movimientos oculares. Uno de los paradigmas experimentales más elegantes para el estudio del movimiento atencional en el espacio es el paradigma de costes y beneficios, descrito en el Capítulo 2 bajo el nombre de tarea de Posner (véase apartado 4.3. de dicho capítulo). Efectivamente, Posner (1978, 1980) utilizando esta estrategia, demostró que la atención visual era independiente de la mirada, dado que el intervalo temporal entre la aparición de la pista y la aparición del estímulo (señal) que el sujeto debía detec-

111

Atención

tar era tan breve que no daba tiempo a realizar ningún tipo de movimiento ocular —pese a lo cual el sujeto lo detectaba, lo que demostraba que la atención se había desplazado hasta el lugar de aparición del estímulo. 2.2.3.1 Orientación refleja y voluntaria de la atención espacial La tarea descrita en el apartado anterior tiene dos variantes. En ciertos casos —como en el descrito por Botella en el Capítulo 2— la pista es un indicio que aparece en el punto de fijación de la mirada (normalmente, el centro de la pantalla) y que, excepto cuando es neutral, indica la dirección en la que, supuestamente, va a aparecer el estímulo a detectar. En estas circunstancias, al aparecer la pista, el sujeto dirige voluntariamente su atención hacia el lugar que indica (derecha o izquierda), lo que implica que, previamente, ha debido procesar centralmente el significado de esa pista. Sin embargo, en otros casos se han utilizado lo que se llaman pistas periféricas, que suelen ser señales visuales que aparecen repentina y brevemente a la derecha o a la izquierda del punto de fijación —que sigue siendo el centro de la pantalla—, cerca del lugar donde, presumiblemente, aparecerá el estímulo. Cuando se utilizan pistas periféricas, la información sobre la dirección la obtenemos sencillamente a partir del lugar de la pantalla en que aparecen dichas pistas. De esta forma, no es necesario procesar centralmente el significado de la pista, sino que la atención se ve automáticamente atraída por su abrupta aparición a la derecha o a la izquierda del punto de fijación. Se trata de un desplazamiento reflejo de la atención espacial: se da sin intención previa y no puede evitarse. Así pues, la orientación de la atención espacial puede responder a nuestras intenciones o puede venir simplemente controlada por los estímulos. Cuando contemplamos un paisaje, podemos dirigir voluntariamente nuestra atención a los árboles, las montañas, las nubes, un rebaño de ovejas que pasta en un prado lejano, etc. Sin embargo, si cruza la escena un pájaro en pleno vuelo, nuestra atención se verá capturada automáticamente, y se dirigirá, aunque sea durante un breve instante, hacia él. Normalmente, nuestro mecanismo atencional se dirige de forma automática a los estímulos novedosos que, como el pájaro del ejemplo, aparecen súbitamente en nuestro campo visual (véase apartado 1.2.1. del Capítulo 1). Una cuestión crucial y, a la vez, harto polémica, la constituye el hecho de si el control voluntario o reflejo del desplazamiento de nuestra atención espacial depende o no de mecanismos esencialmente distintos. Según Posner y Petersen (1990), en ambos casos el responsable último es la llamada red posterior, aunque, en el caso del desplazamiento intencional, dicha red se encuentra sometida al control de la red anterior. Esto implica la existencia, entre ambas redes, de estrechas conexiones neurales. En cambio, Müller y Rabbit (1989) piensan que existen dos mecanismos distintos e inde-

112

3. Selección para la percepción, selección para la acción

pendientes, uno para el desplazamiento reflejo y otro para el voluntario. Para la teoría premotora (Rizzolatti et al., 1987) no habría diferencia cualitativa en el mecanismo subyacente a los dos tipos de desplazamiento: ambos corresponderían a una activación de los circuitos frontoparietales responsables de la preparación de un movimiento ocular hacia el estímulo (la señal). Dicha preparación no tiene que culminar necesariamente en un movimiento: el movimiento ocular puede no darse, pero la atención espacial se habrá desplazado al lugar donde aquel se había programado, bien en virtud de una intención generada, por ejemplo, a partir del procesamiento de la información que nos da una pista central, bien gracias a la captura automática inducida por una pista periférica (Rizzollatti y Craighero, 1998). 2.2.3.2 El fenómeno de la Inhibición de Retorno (IR) El estudio de la atención espacial utilizando pistas periféricas puso pronto de manifiesto que se daba una facilitación atencional cuando, previamente a la aparición de un estímulo en un lugar determinado, se ofrecía una pista periférica válida —es decir, un indicio que aparecía en el lugar donde luego se presentaría efectivamente el estímulo (la señal). Se demostró que dicha facilitación era especialmente relevante cuando la pista se presentaba entre 100 y 300 ms antes que el estímulo en cuestión. Sin embargo, cuando el intervalo entre la aparición de la pista periférica y la del estímulo (el llamado SOA, del inglés Stimulus Onset Asynchrony) era superior a 300 ms, se observó un fenómeno sorprendente: los sujetos tardaban más en detectar los estímulos que cuando no se ofrecía pista alguna. A raíz de esta evidencia, se empezó a sospechar que, cuando el SOA alcanzaba valores de ese orden, el efecto de facilitación atencional se invertía, dándose un efecto inhibitorio. A este fenómeno se le llamó Inhibición de Retorno (IR) y su existencia ha sido confirmada por múltiples trabajos desde que Posner y Cohen (1984) lo describieran. La IR dificulta la selección atencional de una localización espacial que acaba de ser atendida, es decir, evita que la atención se fije en un lugar del cual acaba de desengancharse. Este fenómeno responde al principio funcional según el cual, normalmente, no resultará demasiado adaptativo que nuestro mecanismo atencional explore una ubicación recién examinada, evitando, de este modo, la inspección reiterada de una misma localización espacial. Efectivamente, en circunstancias naturales, es poco probable que en un lugar donde acabamos de centrar nuestra atención aparezca, en un plazo tan breve, nueva información que merezca ser atendida. Según Posner y Cohen (1984), este fenómeno se debe a un mecanismo que inhibe temporalmente las localizaciones recién seleccionadas. Algunos autores han puesto en duda la robustez de la IR, y su origen atencional, basándose en la imposibilidad de obtener este efecto cuando, en lugar de detectar un estímulo, la tarea consiste en discriminar, en función

113

Atención

de su tamaño, forma, color, etc (p.e., apretar una tecla x si el estímulo es de color rojo y una y si es de color amarillo) (Terry, Valdes y Neill, 1994). Según estos autores, el efecto sería debido a un sesgo de respuesta más que a una inhibición atencional (Klein y Taylor, 1994; Schmidt, 1996). Sin embargo, experimentos recientes (Lupiañez et al., 1997; Lupiañez, Tipper y Tudela, 1998) han puesto de manifiesto que la IR también se da en experimentos de discriminación, aunque más tarde (SOA del orden de 700 ms). Este retraso parece deberse más a los procesos de discriminación que a la selección de respuesta, lo que se confirma a partir de la evidencia de que cuanto más costosa es la discriminación más tarde se da el fenómeno. Según estos autores, a mayor dificultad de la tarea, más tiempo permanece fijada la atención —de forma exógena— en la posición donde ha sido previamente capturada (fenómeno al que llaman inercia atencional) y, en consecuencia, el efecto de IR deviene más tardío. Basándose en algunos trabajos recientes, ciertos autores sugieren una interpretación teórica de la IR distinta a la tradicional, según la cual el efecto se debería más a dificultades de categorización del estímulo que a un genuino fenómeno de inhibición atencional (Milliken et al., 1998). En la línea de lo que comentábamos en el apartado 2.1., también se han encontrado evidencias de un efecto de IR ligado al objeto —y no sólo a la ubicación espacial. Comentaremos de forma sumaria estos trabajos en el apartado 2.3.4. 2.2.3.3 ¿Cómo se desplaza el foco atencional en el espacio? Por lo que respecta al movimiento de la atención visual en el espacio, algunos trabajos obtienen evidencias que indican que, a mayor distancia, más tiempo tarda el foco atencional en desplazarse desde el punto de fijación hasta el lugar de aparición del estímulo (LaBerge, 1983; Egly y Homa, 1991). Sin embargo, la mayoría de los resultados obtenidos van en sentido contrario: Sagi y Julesz (1985), Kwak, Dagenbach y Egeth (1991), Sperling y Weichselgartner (1995), etc., no han encontrado un efecto consistente de la distancia sobre el tiempo necesario para llevar a cabo un cambio atencional. Igualmente controvertida, y muy ligada a la anterior, es la cuestión de cómo se desplaza ese supuesto foco atencional. La principal de las incógnitas generadas en torno a este problema podría formularse como sigue: cuando el foco atencional se mueve entre dos puntos, ¿recorre todos los puntos intermedios iluminando lo que encuentra en su trayecto o, por el contrario, salta de un lugar a otro sin recorrer esa zona media? A lo largo de los años ochenta, fueron muchas las investigaciones que intentaron dar con una respuesta definitiva a esta cuestión, aunque los resultados obtenidos fueron altamente contradictorios (véase, p.ej., Eriksen y Murphy,

114

3. Selección para la percepción, selección para la acción

1987). Al parecer la discrepancia se debía, en muchos casos, a importantes errores metodológicos (van der Heijden, 1992; Barriopedro, 1994). Si consideramos los trabajos que no presentan inconvenientes de esa índole, normalmente, aquellos que defienden un efecto de la distancia postulan, a la vez, un desplazamiento analógico del foco atencional (Egly y Homa, 1991). Sin embargo, los resultados de la mayoría de investigaciones recientes parecen ser compatibles con un desplazamiento no analógico o discreto — quantal, dicen Egeth y Yantis (1997)—, es decir la atención se desplazaría a saltos entre dos ubicaciones espaciales, sin pasar por las posiciones intermedias. En este sentido apuntan, por ejemplo, los trabajos de Sperling y Weichselgartner (1995) o los de LaBerge et al. (1997). Algunos autores (Barriopedro, 1994) adoptan una solución de compromiso, apuntando la posibilidad de que los cambios atencionales puedan darse de las dos formas, según las circunstancias y los requerimientos de la tarea. Así pues, la cuestión resulta aún algo confusa. Tampoco hay consenso en cuanto a las teorías explicativas que pretenden ofrecer un modelo integral del cambio de la atención visual en el espacio. Dado que la estricta analogía del foco de luz pronto se demostró demasiado ingenua, entró en liza la variante del modelo de zoom o de lente de potencia variable (Eriksen y Yeh, 1985; Eriksen y St. James, 1986), según el cual el tamaño del foco atencional varía dependiendo de las características de la tarea, siendo su potencia uniforme en toda el área focal e inversamente proporcional a la extensión de dicha área. Algo más tarde, se sugirió además que el movimiento del zoom no era analógico, sino que podía concebirse como una ventana facilitadora que se cerraba en un lugar del espacio para abrirse en otro, por lo que el tiempo de cambio de dicha ventana atencional no dependía de la distancia a recorrer (Murphy y Eriksen, 1987). Según Pan y Eriksen (1993), el foco del zoom, que en su experimento parecía tomar forma elíptica, puede adoptar diferentes configuraciones, según sean la colocación de los estímulos relevantes y las demandas de la tarea. Cuando la tarea es especialmente dificultosa, el tamaño del foco resulta muy pequeño, dado que se requiere una máxima concentración de recursos atencionales. A este respecto, Lavie (1995) sostiene que el foco será más reducido cuanto mayor sea la carga perceptual de la actividad que lleva a cabo. Como una importante alternativa a los modelos de zoom surgieron los llamados modelos de gradiente (Downing y Pinker, 1985; LaBerge y Brown, 1989; Henderson, 1991; Andersen y Kramer, 1993; etc), cuya peculiaridad esencial radica en sostener que la concentración de recursos atencionales no es homogénea, sino que presenta un máximo en el punto central de la focalización atencional y decae hacia la periferia. Uno de los grupos de trabajo más representativos de este enfoque es el que dirige LaBerge en la Universidad de California. Según estos autores, en el cambio de la atención en el espacio intervienen dos procesos atenciona-

115

Atención

les distintos: un mecanismo selectivo que concentra el procesamiento en una área específica, y uno preparatorio que consiste en una distribución de actividad atencional a través de todo el campo visual, una actividad más prolongada y espacialmente más difusa que la que se deriva del primer mecanismo (LaBerge et al., 1997). Según esta formulación, el tiempo necesario para llevar a cabo un cambio atencional depende de la cantidad de actividad atencional preparatoria que, previamente, exista en la posición que debe ser atendida. Cuanto mayor sea dicha preparación en una ubicación determinada, menor será el tiempo necesario para que se origine en dicho lugar el pico fugaz de atención selectiva. El estado preparatorio se ve influido por el hecho de que, en las localizaciones recientemente atendidas mediante el mecanismo selectivo, persiste una cierta actividad atencional residual (véase Figura 3.2).

Señal

Estímulo 1

Estímulo 2

Figura 3.2 Modelo de gradiente de LaBerge (1995, 1997). Se muestran los cambios en la distribución de actividad atencional preparatoria (líneas gruesas) y de la atención selectiva (líneas discontinuas) en el paradigma experimental utilizado por este autor. Al principio, la atención se encuentra altamente focalizada en la señal de alerta (*) (tanto la selectiva como la preparatoria), señal que informa al sujeto de la inminente aparición del estímulo 1. Al aparecer dicho estímulo, el sujeto debe identificar la letra central (en este caso O). La breve duración de la presentación obliga al sujeto a aumentar al máximo su atención selectiva, focalizándola en el centro de la distribución. Sin embargo, la atención preparatoria disminuye tras la presentación del estímulo. Cuando el estímulo 2 aparece a la izquierda, la atención selectiva debe aumentar rápidamente, dado que se trata de discriminar la letra central (en este caso R). Obsérvese como el aumento necesario a partir de la atención preparatoria es mucho mayor que en el caso del estímulo 1, por lo que el tiempo requerido para el cambio atencional será mayor para el estímulo 2. Tras el estímulo 2, la atención selectiva decae rápidamente. La línea delgada muestra la actividad atencional residual, que, como se puede apreciar en la gráfica que corresponde al estímulo 2, se suma a la actividad preparatoria (línea gruesa) (Figura adaptada de LaBerge et al., 1997).

2.2.3.4 Atención multifocal: ¿es posible una genuina división de la atención visual? La posibilidad de que el foco atencional se pueda dividir, iluminando simultáneamente dos o más zonas no contiguas del espacio visual, ha sido objeto de controversia prácticamente desde la formulación de los primeros modelos de atención selectiva visoespacial. Según Posner, Snyder y Davidson (1980), el fenómeno se debía no a una auténtica división atencional,

116

3. Selección para la percepción, selección para la acción

sino a un rápido desplazamiento del foco entre las distintas ubicaciones. De hecho, si exceptuamos la de LaBerge y Brown (1989), las teorías de la atención espacial revisadas en el apartado anterior asumían explícita o implícitamente la indivisibilidad del área que recibía una facilitación atencional. Pese a la prudencia necesaria aún en este tema, podemos afirmar que lo anterior puede, hoy en día, ponerse seriamente en duda. De hecho, Castiello y Umiltà (1992) han obtenido resultados compatibles con la posibilidad de dividir nuestra atención si los estímulos seleccionados se encuentran en hemicampos visuales opuestos. Algunas evidencias neurofisiológicas, obtenidas a partir de estudios con sujetos con el cerebro dividido —individuos cuyo cuerpo calloso, la principal estructura que conecta los hemisferios cerebrales, ha sido seccionado—, sugieren que cada hemisferio controla su propio mecanismo atencional en la exploración del hemicampo visual que le corresponde —es decir, el contralateral. Luck et al. (1989) llegan a la conclusión de que es posible la atención visual dividida en tareas de búsqueda visual, aunque, cuando la atención se dirige en base a claves exógenas, la zona atencional no puede ser sino unitaria. Sin embargo, los resultados obtenidos por Kramer y Hahn (1995) demuestran que, incluso a partir de una orientación exógena de la atención, es posible fijar sincrónicamente nuestra atención en ubicaciones espaciales no contiguas, siempre y cuando entre dichas ubicaciones no irrumpan estímulos distractores nuevos, en cuyo caso se produce una interrupción de la atención multifocal. Hahn y Kramer (1998) aportan nuevos resultados compatibles con este enfoque, descartando, además, la posibilidad de que lo que pensamos que es una división atencional genuina no sea sino un cambio atencional extremadamente rápido, y contribuyendo a zanjar, de este modo, una vieja polémica surgida veinte años atrás. 2.3

La atención al objeto

Como hemos visto en el apartado 2.1., independientemente del papel —primordial o no— que se otorgue a la selección en base a claves espaciales, la mayoría de autores contemporáneos coinciden en señalar que no sólo es posible una selección a partir de otros atributos (forma, color, significado, etc.), sino que el mecanismo atencional puede incluso actuar sobre representaciones de objetos considerados como un todo. Este último tipo de selección es lo que se suele llamar atención al objeto. 2.3.1 La representación del objeto Si la atención puede actuar sobre la representación de un objeto, parece lógico pensar que dicha representación sea preatencional. Neisser (1967) ya

117

Atención

sugirió que la escena visual era primeramente segmentada en grupos de acuerdo con los principios de la Gestalt, dando lugar a la representación de objetos: sólo después de esta fragmentación se podía dar la selección atencional de dichos objetos para optimizar ulteriores elaboraciones de la información. Actualmente, numerosos trabajos se basan en el presupuesto de que la fenomenología de los efectos gestálticos no refleja sino la actuación sobre los objetos del mecanismo atencional (Baylis y Driver, 1992; Baylis y Driver, 1995; Driver y Baylis, 1995, 1996, 1998): una vez que descubramos que la mancha gris que aparece en el mar en la Figura 3.3 es la silueta de un rostro, cada vez que dirijamos nuestra atención a un punto de dicha mancha percibiremos el perfil del rostro en el mar porque nuestra atención se extiende forzosamente a la representación del objeto generada, a la cual pertenece el punto atendido. Ante esta evidencia, la cuestión que surge es: ¿cuál es la base neural de esa representación del objeto preatencional? Como hemos visto en el apartado 2.1., Ungerleider y Mishkin (1982) postularon, a partir de la investigación en macacos, que la identificación del objeto se daba en la llamada vía ventral o vía del qué (véase Figura 3.1). Algunas investigaciones con técnicas de neuroimagen han confirmado la existencia de una vía similar en el cerebro humano (Ungerleider y Haxby, 1994), que se proyecta desde las áreas visuales primarias hacia el lóbulo temporal inferior. Podríamos decir que, grosso modo, la mayoría de los resultados experimentales son compatibles con la propuesta de esa vía ventral como la relacionada con la identificación del objeto. Sin embargo, algunos autores introducen ciertos matices. Según Milner y Goodale (1995), esa vía ventral elabora la información de la corteza estriada para dar lugar a representaciones perceptuales y cognitivas de las características visuales de los objetos y de su significado —la vía dorsal elaboraría esa misma información para guiar las acciones motoras en el espacio. Para Jeannerod (1994), su función es básicamente el procesamiento semántico del estímulo, favoreciendo la discriminación entre distintos estímulos. Según algunos trabajos recientes, sería en la vía ventral donde tendría lugar lo que hemos llamado selección para la percepción, mientras la selección para la acción se vincularía al procesamiento espacial llevado a cabo en la vía dorsal (Schneider, 1995; Deubel et al., 1998). Parece que ambas vías deben interactuar de algún modo de cara al control de nuestro comportamiento cotidiano (Goodale, 1996), aunque la forma exacta en que lo hacen no está del todo clara. Aunque, como vemos, existe un relativo consenso en cuanto a la división del sistema visual en las dos vías propuestas por Ungerleider y Mishkin, y en atribuir a la ventral la representación del qué (forma, color, textura, etc.), no podemos obviar la evidencia de que hay autores que disienten abiertamente de esa visión ortodoxa. Especialmente iconoclasta es Semir Zeki, que piensa que las vías visuales no son dos, sino múltiples —al menos cuatro— y que todas ellas se hallan profundamente interrelacionadas

118

3. Selección para la percepción, selección para la acción

(Zeki, 1995). En otro sentido, resulta heterodoxa la postura de Robertson (1998), que afirma que la información espacial sería necesaria para construir (representar) un objeto a partir de sus distintos atributos y para que esa representación accediera a la conciencia. Según esta postura, en la tradición de los modelos de Treisman, la representación del objeto sólo se daría después de que el mecanismo atencional actuara sobre la representación espacial de la vía dorsal. En el mismo sentido, Mack et al. (1992) afirman que no se puede dar ninguna agrupación gestáltica o segregación de la escena en objetos a nivel preatencional. 2.3.2 Primeras evidencias de una selección basada en el objeto En el año 1981, en pleno auge de los modelos atencionales de foco, Kahneman y Henik consideraron la posibilidad de que la atención pudiera ser dirigida no sólo a ciertas localizaciones espaciales, sino también a objetos perceptuales. Según estos autores, las representaciones de objetos resultantes de la organización perceptual podían servir de medio sobre el cual actuase la selección visual. Sin embargo, dado que todos los objetos ocupan un lugar en el espacio, no resultó nada fácil diseñar paradigmas experimentales para contrastar de forma adecuada si era efectivamente posible que la atención se pudiera basar en una representación del objeto espacialmente invariante. Las estrategias finalmente utilizadas fueron básicamente de dos tipos: 1. 2.

Contrastar si la atención podía ser dirigida a una de dos figuras que se solapaban en el espacio. Contrastar si se podía dirigir a un objeto en movimiento —para el cual cambian continuamente las coordenadas espaciales.

Después de numerosos trabajos utilizando estos paradigmas experimentales, los resultados han demostrado que ambas circunstancias son posibles: se puede atender selectivamente a uno de diversos objetos que ocupan la misma ubicación espacial (Rock y Guttman, 1981; Duncan, 1984) y también es posible seleccionar ciertos estímulos objetivo (target) que se mueven aleatoria y rápidamente junto a una serie de distractores —lo que demuestra que se da una auténtica atención basada en el objeto, dado que no es posible distinguir los objetivos de los distractores en función de su ubicación espacial (Pylyshyn y Storm, 1988; Yantis, 1992). Dado que en los experimentos anteriores se utilizaron fundamentalmente tareas en la cuales se debía discriminar entre estímulos objetivo y distractores, Vecera y Farah (1994) concluyen que los resultados obtenidos indican que, en las tareas de discriminación, la atención necesita seleccionar representaciones del objeto, mientras en tareas más simples, como las de

119

Atención

detección, la selección atencional se puede basar en un nivel de representación únicamente espacial. 2.3.3 Facilitación atencional intraobjeto. Recientemente, ha surgido un nuevo paradigma experimental que nos permite investigar la atención al objeto, aunque los trabajos de Duncan (1984) pueden considerarse un importante antecedente. Este autor encontró evidencias de que cuando debemos emitir juicios sobre dos objetos diferentes tardamos más y somos más imprecisos que cuando los juicios requeridos se refieren al mismo objeto, independientemente de la posición espacial de los atributos a juzgar. Cambiar la atención de un objeto al otro es costoso y requiere tiempo, lo que, según Duncan, es un indicio de que la atención se basa, de forma primordial, en el objeto (Duncan y Humphreys, 1989). Relacionado sin duda con la estrategia experimental de Duncan, el paradigma experimental mencionado consiste fundamentalmente en contrastar si, cuando dirigimos la atención a una parte de un objeto perceptual, las demás partes de dicho objeto reciben una facilitación atencional superior a la recibida por localizaciones equidistantes que no pertenecen a dicho objeto (véase Figura 3.3).

Figura 3.3 Hipotéticamente, dada una tarea de discriminación que implicara los puntos A y c, el TR sería menor que si implicara los puntos A y b, dado que A y c pertenecen al mismo objeto perceptual (siempre y cuando se haya dado la gestalt de percibir esa aparente mancha gris en el mar como el perfil del rostro de un hombre).

Según los resultados obtenidos (Baylis y Driver, 1993; Yantis y Moore, 1995; Egeth y Yantis, 1997), se da esa superior facilitación atencional intraobjeto en tareas de discriminación, aunque no en tareas de detección, lo cual encaja con los resultados de Vecera y Farah (1994). Además, dicha fa-

120

3. Selección para la percepción, selección para la acción

cilitación sigue dándose si una parte del objeto se halla parcialmente ocluida, lo que constituye una evidencia más a favor de la vieja tesis de Marr (1982), según la cual la organización perceptual es preatencional (Yantis y Moore, 1995). En un trabajo reciente, Fox (1998) demuestra que los distractores producen más competición de respuesta y priming negativo cuando aparecen en el mismo objeto perceptual que cuando aparecen fuera de él, aunque la distancia espacial respecto al estímulo objetivo (target) sea la misma. Así pues, parece que no sólo se da facilitación intraobjeto, sino que también los mecanismos inhibitorios de la atención visual pueden ser dirigidos a grupos perceptuales y objetos, produciendo lo que podríamos llamar una inhibición atencional intraobjeto. 2.3.4 La Inhibición de Retorno basada en el objeto (IRO) En el apartado 2.2.3.2, tratábamos el fenómeno de la inhibición de retorno (IR). En los primeros experimentos en torno a la IR, se daba por supuesto que la inhibición se asociaba a las ubicaciones de los estímulos, lo que se interpretaba como una evidencia de que el mecanismo atencional actuaba sobre un medio primordialmente espacial. Sin embargo, Tipper, Driver y Weaver (1991) diseñaron un experimento en el que los estímulos atendidos no permanecían estáticos, sino que se iban desplazando a través de una pantalla (véase Figura 3.4).

Figura 3.4 Paradigma experimental utilizado por Tipper, Driver y Weaver (1991). En primer lugar (A), los cuadrados periféricos rotan alrededor del central. En el momento en que los tres cuadrados se encuentran alineados en la horizontal, el movimiento se detiene brevemente y aparece una pista en uno de los cuadrados periféricos durante 100 ms (B). Los cuadrados siguen rotando y, al cabo de 200 ms, aparece una pista en el cuadrado central (C). Finalmente, cuando los cuadrados se encuentran alineados a 90° o 180° respecto a la alineación horizontal (en este caso 90°) aparece el estímulo-objetivo (target) en uno de los dos periféricos (D). Aunque ambos cuadrados periféricos se encuentran a la misma distancia espacial de donde se ha presentado la primera pista (B), el tiempo de reacción para detectar el estímulo es mayor si la señal aparece en el cuadrado donde ha aparecido, lo que resulta una clara evidencia de un fenómeno de Inhibición de Retorno ligada al objeto (IRO) (Adaptado de Weaver, Lupiañez y Watson,1998).

121

Atención

Los resultados obtenidos demostraban que se daba una inhibición de retorno ligada a los objetos previamente atendidos —la inhibición se movía con los objetos—, lo que es compatible con la hipótesis de que la atención se basa en el objeto y no en su ubicación espacial. Desde este punto de vista, la IRO, más que desfavorecer la revisión reiterada de una misma localización, tendría la función de prevenir que un objeto recién examinado vuelva a serlo en un breve lapso de tiempo. Otros trabajos han obtenido resultados que garantizan la robustez del fenómeno de la IRO (Abrams y Dobkin, 1994; Ro y Rafal, en prensa). De todos modos, el hecho de que se dé IRO parece que no es incompatible con el fenómeno de la IR ligada al espacio. En un experimento posterior, Tipper et al. (1994) han encontrado evidencias de ambos tipos de inhibición de retorno, al igual que Weaver, Lupiañez y Watson (1998) que, además, han demostrado que, con la práctica, la magnitud del fenómeno disminuye (tanto en el caso de la IR espacial como en el de la IRO). Afinando aún más, Gibson y Egeth (1994) han demostrado que la inhibición de retorno también puede ir ligada a localizaciones intraobjeto, lo que apunta a que el fenómeno de la inhibición de retorno puede darse respecto a distintos marcos de referencia, incluso dentro del marco constituido por el propio objeto. Esta evidencia resulta perfectamente lógica si consideramos que, por una parte, la inhibición de retorno parece ser un fenómeno ligado a la atención, y que, por otra, parece claro que el mecanismo atencional puede seleccionar localizaciones espaciales, objetos en una escena o, incluso, localizaciones intra-objeto (Tipper y Weaver, en prensa). Quién esté interesado en una revisión más exhaustiva sobre el tema de la IR, pronto podrá consultar el trabajo de Lupiañez, Tudela y Rueda (en prensa). 2.3.5 Evidencias neuropsicológicas de la atención al objeto La llamada heminegligencia es una disfunción atencional que se da en pacientes con lesiones de la corteza parieto-temporal, fundamentalmente del hemisferio derecho. Estos sujetos padecen un curioso síndrome caracterizado por ignorancia, descuido o extinción atencional (inatención) de la parte contralateral de su cuerpo —por ejemplo, se afeitan sólo la mitad derecha de la cara. Una de las manifestaciones de este síndrome es la inatención hacia la parte contralateral de su campo visual, inatención que a menudo se ha creído basada en el espacio —es decir, los sujetos sufrirían de una disfunción atencional ligada al hemiespacio izquierdo de su campo visual (véase Figura 3.5). Sin embargo, se ha demostrado que puede haber ciertos tipos de heminegligencia espacial basada en el objeto, de modo que los sujetos ignoran una parte del objeto (p.e., la izquierda), independientemente de que el obje-

122

3. Selección para la percepción, selección para la acción

Figura 3.5 Dibujos de una bicicleta, una guitarra, un árbol y un rostro, realizados por un sujeto de 23 años que sufría una heminegligencia a raíz de un traumatismo craneal que le afectó la zona frontoparietal derecha.

to aparezca o no en el campo visual derecho o en el izquierdo (Driver y Halligan, 1991). En la Figura 3.6 podemos observar los estímulos utilizados para investigar este tipo de heminegligencia intraobjeto. Al serles presentados dibujos similares a los de la Figura 3.6, los pacientes no suelen darse cuenta de la ligera diferencia entre la parte izquierda de las figuras, incluso cuando se encuentran inclinadas de forma que la parte de la figura en la que se encuentra esa diferencia se encuentra en el hemicampo derecho. Así pues, en este caso la heminegligencia se da respecto al espacio intraobjeto: se ignora la mitad izquierda de la figura sea cual sea su posición en la escena visual. Nuevas pruebas en favor de este argumento las han ofrecido sendos trabajos de Behrmann y Tipper (1994) y Tipper y Behrmann (1996). En estos estudios se han utilizado objetos en una parte de los cuales aparecían estímulos objetivo. Como cabía prever, cuando la parte izquierda del objeto se hallaba en el hemicampo izquierdo, la detección de los objetivos era más bien pobre. Lo sorprendente era que los resultados apenas variaban cuando el objeto rotaba y esa parte izquierda pasaba al hemicampo derecho. Así pues, parece firmemente demostrado que la heminegligencia puede basarse en el espacio intraobjeto —dado que aunque la parte rotara y pasara al campo visual derecho, seguía siendo la parte izquierda del objeto. Todas estas evidencias sugieren que, al igual que la IR (véase apartado anterior), la heminegligencia puede basarse en distintos marcos de referencia —p.e., tanto en el espacio de la escena como en la representación espacial basada en el objeto. Humphreys et al. (1994) van aún más allá. Trabajando con sujetos que padecían lesiones parietales posteriores que dan lugar al llamado Síndrome de Balint, han demostrado que, en estos pacientes, ciertos estímulos (normalmente formas cerradas: p.e., un cuadrado) pueden producir que otros (p.e., formas abiertas) sean inatendidos, independientemente de su ubica-

123

Atención

Figura 3.6 Algunos pacientes con heminegligencia izquierda no aprecian la ligera diferencia entre estas figuras, ni siquiera cuando ambas se hallan inclinadas, condición en la cual la diferencia se encuentra en la mitad derecha del campo visual (aunque sigue estando en la mitad izquierda de la figura). Este resultado resulta compatible con la existencia de una heminegligencia intraobjeto (adaptada de Driver y Baylis, 1998).

ción espacial. Estos autores argumentan que la extinción observada demuestra que la inatención puede basarse en ciertas propiedades de los objetos, especialmente, como ocurre en estos pacientes, cuando la orientación de la atención en el espacio se halla alterada. 2.3.6 ¿Se basa la atención al objeto, al fin y al cabo, en un medio espacial? Parece fuera de toda duda que la atención visual puede basarse en el objeto. Pese a algún que otro autor disconforme (p.e., Treisman, 1988; Mack et al, 1992; Robertson, 1998), hay cierto consenso en pensar que la segregación de la escena en distintos objetos se da en una etapa preatencional. Sin embargo, todavía existe una cuestión que es objeto de polémica, una cuestión que se refiere a si la selección del objeto se basa en última instancia en un marco de referencia espacial o lo hace, en cambio, en disposiciones espacialmente invariantes. Para la mayoría de autores, aunque se dé una selección del objeto, dicha selección tan sólo puede ocurrir en referencia a un medio espacial (Kramer et al., 1997; Driver y Baylis, 1998). Lavie y Driver (1996) afirman que la atención basada en el objeto sólo puede tener lugar en regiones espacialmente atendidas, es decir, la selección basada en el objeto se daría en una región espacial previamente seleccionada. Así pues, serían las disposiciones espaciales agrupadas (formando objetos) las susceptibles de ser seleccionadas por nuestro mecanismo atencional y no los objetos en sí, como disposiciones independientes de sus atributos espaciales (véase el apartado 3.4.4., para una postura similar en el modelo de van

124

3. Selección para la percepción, selección para la acción

der Heijden). En contra de esta visión hay quien cree firmemente que, al menos en ciertas circunstancias, la atención al objeto puede ser absolutamente no espacial (Vecera y Farah, 1994; Humphreys et al., 1994; Vecera, 1997), es decir que, en última instancia, la selección del objeto puede tener al propio objeto como marco de referencia, operando sobre representaciones espacialmente invariantes. Según Fox (1998), la solución a este dilema debería ser uno de los objetivos prioritarios de la futura investigación en torno a la atención basada en el objeto.

3

Selección para la acción

En el apartado 2.2.3. del Capítulo 1, Pilar Tejero nos refiere el origen de los modelos de selección para la acción a partir de la concepción de algunos autores según los cuales la capacidad limitada de nuestro sistema de procesamiento es una auténtica falacia, por lo que la función de la atención no puede ser seleccionar la información de entrada para evitar una sobresaturación del sistema: para estos autores, la función genuina de nuestro mecanismo atencional es seleccionar, en base a las características de los estímulos sobre los cuales pretendemos actuar, la acción que puede ser más adecuada en un momento determinado, evitando la puesta en marcha simultánea de diferentes programas motores y el consiguiente caos comportamental. 3.1

La representación de la acción

Veíamos en el apartado 2.3.1. que, aunque la clásica división entre vía ventral del qué y la vía dorsal del dónde formulada por Ungerleider y Mishkin (1982) era relativamente vigente, se habían dado algunas observaciones que precisaban o matizaban esa formulación. Hoy se sabe, por ejemplo, que tanto la vía ventral como la dorsal se prolongan hasta la corteza prefrontal: la primera hasta la convexidad prefrontal inferior (o corteza prefrontal ventrolateral), y la segunda hasta la corteza prefrontal dorsolateral (Jeannerod, 1997) (véase Figura 3.8). La función de estas proyecciones frontales parece relacionarse, en el caso de la vía ventral, con la retención temporal del objeto y sus atributos, mientras en el caso de la vía dorsal tiene que ver con la memoria a corto plazo de su ubicación espacial. Gran parte de las discrepancias que han ido surgiendo en estos últimos años respecto a la formulación original de Ungerleider y Mishkin se refieren a la función de la vía dorsal. Las evidencias de la psicología experimental y las procedentes de las neurociencias apuntan a que la vía del dónde no se limita a ser un sistema para la percepción espacial, para la representación de los estímulos en el espacio. Goodale y Milner (1992), en virtud de

125

Atención

los resultados obtenidos en sus investigaciones, defienden que la función primordial de la vía dorsal es la de codificar la información espacial necesaria para guiar la acción, por lo que proponen que la vía dorsal, más que vía del dónde, se denomine vía del cómo. Jeannerod (1994) postula una alternativa afín, argumentado que en la vía dorsal se procesa la información de forma pragmática, elaborándola para la acción. Esa elaboración consiste en extraer los parámetros relevantes para la acción y en generar las correspondientes órdenes motoras, función que puede verse influida por el procesamiento semántico de la vía ventral (Jeannerod et al., 1995). Milner y Goodale (1995) y Goodale (1996) precisan algo más: las transformaciones de la información visual sobre orientación, tamaño, forma y relaciones espaciales que se llevan a cabo en la vía dorsal —a diferencia de la elaboración que, paralelamente, sufre esa misma información en la vía ventral— van dirigidas al control de diferentes acciones dirigidas a un objetivo determinado. Para ello, la vía dorsal utiliza información momento a momento acerca de la disposición espacial de los objetos respecto a un marco de referencia egocéntrico. Sin embargo, según estos autores, un comportamiento adecuado requiere también de la intervención de la vía ventral, que permite la formación de representaciones que incluyen las características permanentes de los objetos y las relaciones espaciales entre ellos. Así pues, la ejecución de una acción dirigida a una escena visual precisa de la integración del procesamiento de ambas vías (Deubel, Schneider y Paprotta, 1998). De hecho, son numerosos los autores que piensan que es necesaria una integración así (p.e., Duncan, 1996; Robertson, 1998). La incógnita gira en torno a cómo se lleva a cabo dicha integración. Diversas propuestas sugieren que, al menos en parte, podría llevarse a cabo a través de conexiones con estructuras subcorticales (p.e., el núcleo pulvinar talámico) (Webster y Ungerleider, 1998). Por otro lado, Ungerledier (1995), estudiando con técnicas de neuroimagen el cerebro del macaco, concluye que las vías ventral y dorsal confluyen en una región del lóbulo frontal (véase Figura 3.7).

Figura 3.7 Integración de la información de la vía ventral y de la vía dorsal en el cerebro del macaco (Ungerleider, 1995).

126

3. Selección para la percepción, selección para la acción

Algunos estudios neurofisiológicos han identificado grupos de neuronas en la corteza prefrontal que podrían intervenir en esa conjunción en aras a programar y dirigir la acción (Rao, Rainer y Miller, 1997) (véase Figura 3.8).

Figura 3.8 Reformulación de la vía del dónde en vía del cómo (Goodale y Milner, 1992), proyección de las vías ventral y dorsal en el lóbulo frontal (Corbetta, 1998), y posible lugar de integración de la información de ambas vías para la programación y el control de la acción (Rao, Rainer y Miller, 1997).

Desde una perspectiva algo distinta, los partidarios de la teoría premotora clásica (Rizzolatti y Craighero, 1998), defienden que la programación de la acción va exclusivamente ligada a la representación espacial de la vía dorsal, la cual conecta con los lóbulos frontales formando unos circuitos fronto-parietales responsables del estrecho vínculo entre codificación espacial y acción, circuitos que son diferentes para cada actividad y que han recibido el nombre de mapas pragmáticos (Rizzolatti et al., 1994). Diversas investigaciones han confirmado que las neuronas parietales codifican el espacio con un objetivo esencialmente motor y, por tanto, de forma distinta según la acción específica a la que van ligadas. Es evidente que en el hombre —que, como los demás primates superiores, basa su conocimiento espacial fundamentalmente en el sentido de la visión— será de particular importancia el mapa pragmático oculomotor. 3.2

Concepto y funcionalidad de la selección para la acción

El estudio en profundidad del cerebro humano nos ha hecho comprender que la cantidad de información que puede procesar es enorme: muchos autores piensan que su capacidad es virtualmente ilimitada. Sabemos también

127

Atención

que gran parte del procesamiento se lleva a cabo en paralelo, en módulos o subsistemas especializados que responden selectivamente a determinados tipos de información, y que existe una profusa interconexión entre los distintos módulos, que parecen intercambiar innumerables informaciones. De este modo, nuestro cerebro no es más que una intrincada red neuronal que lleva a cabo múltiples operaciones de forma simultánea. Paradójicamente, nuestra ejecución es muy limitada: a duras penas conseguimos hacer dos cosas a la vez de forma eficaz. Desde cierto punto de vista, dado el alto flujo de información que elabora sincrónicamente nuestro sistema nervioso, puede resultar hasta sorprendente que nuestro comportamiento sea más o menos coherente, más o menos unitario y relativamente ordenado hacia la consecución de determinados objetivos. Consideremos un acto tan simple como, cuando vamos al supermercado, coger un paquete de nuestras galletas preferidas. Tomar una caja determinada de entre todas las colocadas en el surtido estante de las galletas requiere de un elevado control selectivo: se debe seleccionar la información espacial relevante para alcanzar el paquete elegido y traducirla en información motora, probablemente en coordenadas espaciales centradas en el propio brazo. Por otro lado, la información espacial de las cajas que contienen galletas menos apetecibles —o que engordan más, o que son muy caras— debe ser excluida de esta programación motora. Por último, no debemos pasar por alto que hay que tener en cuenta otros atributos del paquete preferido (su tamaño, su grosor, su peso, su forma, etc.), atributos que ayudan a programar de forma más adecuada la acción de cogerlo (véase apartado 3.5). La complejidad intrínseca a una acción aparentemente tan sencilla requiere de algún mecanismo que ponga orden en todo este mare mágnum de información para que nuestra acción no resulte completamente caótica. Resulta incontrovertible que, considerado un efector específico, sólo podemos llevar a cabo una acción en un momento determinado. Esta acción debe ser guiada por la información relevante de manera que la ejecución resulte lo más adaptativa posible. Así pues, sólo una pequeña parte de la información disponible debe controlar ese efector, lo que, sin duda, requiere de algún dispositivo que ayude a elegir esa información relevante de entre toda la existente en la organización distribuida en paralelo de las innumerables redes neuronales que coactúan en nuestro cerebro. Según los partidarios de esta perspectiva, este dispositivo no es otro que el mecanismo atencional (Allport, 1987, 1989; Neumann, 1987, 1990; van der Heijden, 1992, 1995): la función fundamental de la atención sería precisamente organizar nuestra acción, la selección para la acción, en palabras de Allport. No hay que olvidar que esa selección para la acción no sólo debe ir dirigida a las propiedades relevantes de los estímulos sobre los cuales pretendemos actuar, sino que también debe seleccionar la información semántica pertinente de nuestra memoria a largo plazo: esta selección semántica, sobre la cual aún se sabe muy poco, se hace patente tan sólo considerando cómo cambia nuestra

128

3. Selección para la percepción, selección para la acción

programación de la acción al ir a coger objetos como un erizo de mar, una burbuja de jabón, una pelota de tenis, un pastel de nata, una patata caliente, un huevo, un higo chumbo o una bola de petanca. Es evidente que la información semántica sobre las propiedades de esos distintos objetos determinará que nuestra acción a la hora de cogerlos no sea la misma en cada caso, aún cuando tuvieran aproximadamente el mismo tamaño, la misma forma y se hallaran situados en la misma ubicación espacial. Como podemos apreciar fácilmente, los autores que defienden la perspectiva de la selección para la acción rompen abiertamente con la concepción clásica de que, si contamos con un mecanismo atencional, es debido a la necesidad de proteger de una eventual sobresaturación nuestro sistema de procesamiento de capacidad limitada. Esta concepción resulta errónea simplemente porque no es cierta esa supuesta limitación, al menos por lo que respecta al sistema visual (Neumann, van der Heijden y Allport, 1986). Aparte de las numerosas evidencias experimentales, los datos obtenidos en los estudios neuroanatómicos y neurofisiológicos de la visión así lo demuestran: mientras existen cerca de un millón de células ganglionares en nuestra retina, la información captada por estas células, cuando llega a nivel cortical, puede ser procesada por cien mil millones de neuronas, es decir, poseemos aproximadamente cien mil neuronas para elaborar la imagen captada por cada célula ganglionar, lo que hace difícilmente concebible el hecho de que nuestro cerebro pueda tener problemas de capacidad a la hora de procesar lo que ven nuestros ojos, y que, debido a ello, sea necesario un filtro (la atención) que deje pasar sólo una parte de esa información. Todos estos argumentos dan solidez al enfoque de la selección para la acción. Desde esta perspectiva, también sería la atención la encargada de controlar la secuencialidad de los diferentes componentes de una acción y la de las diversas acciones consecutivas que pueden ser necesarias para alcanzar un determinado objetivo. Cuando se altera de algún modo dicho control, cometemos los llamados actos fallidos (véase apartado 1.4 del Capítulo 1) o vemos paralizada nuestra acción —como cuando nos dirigimos resueltamente a nuestra habitación pero, al llegar, nos quedamos literalmente pasmados ante la imposibilidad de recordar para qué demonios hemos ido hasta allí. 3.3

La acción como determinante del medio atencional.

Hemos visto que, una vez admitida la posibilidad de que la atención se base en el objeto, una de las polémicas vigentes gira en torno a qué es lo que determina que en ciertas circunstancias el marco de referencia —el medio— sobre el que actúa la atención sea, por ejemplo, la representación espacial, mientras, en otras, lo sea la representación del objeto. Tipper, Weaver y Houghton (1994) proponen que el factor determinante es precisamente la

129

Atención

acción. En otras palabras, serán los objetivos específicos de la acción los que determinarán el marco de referencia, la representación interna, sobre los que actúa la atención. De este modo, el mecanismo atencional puede actuar sobre distintos sistemas neurales según la situación: por ejemplo, en ciertos casos convendrá seleccionar una ubicación espacial actuando sobre los circuitos frontoparietales pragmáticos —de representación del espacio para la acción—, mientras, en otras, puede hacerlo sobre las regiones temporales especializadas en el procesamiento del color. Según estos autores, en situaciones extremadamente familiares el procesamiento estimular se da en paralelo y más de un objeto o atributo podrían iniciar la acción de manera simultánea. Es entonces cuando actúa un mecanismo inhibitorio de la atención selectiva impidiendo que se lleven a cabo todas las acciones potenciales excepto la que conduce al objetivo de la acción. Por ejemplo, cuando el objetivo de nuestra conducta es alcanzar un objeto específico con la mano (recuérdese el ejemplo de la caja de galletas), se da una inhibición de los movimientos alternativos asociados a los objetos irrelevantes (Tipper, Lortie y Baylis, 1992). En este caso puede afirmarse que el medio sobre el que los objetos son codificados, y sobre el que los mecanismos de inhibición selectiva actúan, es un marco de referencia centrado en la propia mano (y no en la retina o en el ambiente). Desde este punto de vista, la competición y la selección atencional tendrían lugar en las representaciones basadas en la acción. Los mecanismos inhibitorios ligados a la atención, cuya base neural parece hallarse en la corteza prefrontal (Diamond, 1990), resultan pues de especial importancia en acciones automáticas o sobreaprendidas, evitando el caos comportamental (Tipper et al., 1998; Tipper, Howard y Meegan, en prensa). 3.4

Selección espacial para la acción: la propuesta de van der Heijden (1992, 1995)

3.4.1 La revolucionaria hipótesis del filtraje postcategorial Uno de los modelos más representativos del enfoque de la selección para la acción es el propuesto por van der Heijden (1990, 1992, 1995, 1996, 1997). Este autor parte de la llamada hipótesis del filtraje postcategorial (van der Heijden, 1984), según la cual, aunque todos los estímulos visuales son totalmente procesados —lo que implica un sistema de capacidad ilimitada—, la selección atencional se puede dar a partir de atributos físicos simples, es decir, se trata de una selección temprana. Más concretamente, para van der Heijden, la clave de selección más eficaz es la ubicación espacial del estímulo elegido. La novedad y la relevancia del modelo radican en que, por una parte, se desacoplan por vez primera las cuestiones del lugar de selec-

130

3. Selección para la percepción, selección para la acción

ción y la capacidad —hasta entonces, los modelos que postulaban una selección temprana la habían justificado en función de las limitaciones de nuestro procesador, mientras los que defendían un procesamiento integral de todos los estímulos habían apostado por una selección atencional tardía, que actuaba sobre las características semánticas de los estímulos—; por otro lado, la propuesta de van der Heijden también rompe con la tradición en el sentido de que siempre se había creído que si un determinado aspecto del estímulo no constituía una buena clave de selección era porque no había sido procesada antes de la actuación del mecanismo selectivo (Neumann, 1996): en cambio, en el modelo propuesto, aunque los estímulos son procesados totalmente, resulta más eficiente que la selección se lleve a cabo en función de las claves espaciales que si se basa en el significado de los estímulos. Implícita a ese nuevo enfoque hay aún otra cuestión difícil de entender desde la óptica tradicional: si es cierto que, al menos virtualmente, no hay limitaciones estructurales y funcionales en nuestro procesador, ¿cuál puede ser la razón que justifique la existencia de un mecanismo selectivo? La respuesta la encontrará van der Heijden en los modelos de Allport (1987, 1989) y Neumann (1987) de selección para la acción. 3.4.2 Dos mecanismos de selección central: intención y atención. En las versiones más recientes del modelo de van der Heijden (1992, 1995, 1996), se propone la existencia de dos mecanismos de selección central: la intención o selección de la acción y la atención o selección para la acción: 1.

2.

Van der Heijden llama intención al mecanismo que selecciona, en términos propios de Allport (1987), a qué categoría o forma de acción, entre todo el repertorio posible, se da prioridad en un momento dado. En palabras de Neumann (1987) determina qué habilidad reclutará qué efectores, de manera que se evite el caos comportamental. La atención, en cambio, determina sobre qué objeto dirigiremos nuestra acción en un momento determinado (Allport, 1987). Neumann (1987) diría que el concepto de atención de van der Heijden determina de qué región espacial se van a considerar los parámetros necesarios para llevar a cabo de forma adecuada la acción seleccionada. De esta forma se evita la confusión que podría darse al intentar dirigir una acción seleccionada a distintas regiones del espacio a la vez.

De este modo, intención y atención son dos mecanismos complementarios e indisolubles para el control y guía de nuestras acciones (van der Heijden, 1995).

131

Atención

3.4.3 ¿Por qué la selección espacial es la mejor estrategia en un sistema de capacidad ilimitada? Ya hemos dicho que la selección atencional visual es una selección temprana y que opera sobre un medio espacial, es decir, que la atención parece actuar seleccionando ubicaciones en la representación del espacio visual. Van der Heijden defiende que esa selección primordialmente espacial es la más eficaz y reporta numerosas ventajas para la función atencional del sistema visual. Para un sistema modular divergente como el visual —divergente en el sentido de que, como hemos visto en el apartado 3.2., para la información recogida por cada célula ganglionar de la retina disponemos de un número ingente de neuronas que van a intervenir en su elaboración—, la selección temprana a partir de la posición parece ser, efectivamente, la estrategia atencional más adecuada: un mecanismo que seleccione un objeto en función de su posición antes de que los distintos atributos (color, forma, textura, orientación, movimiento, etc.) se dispersen hacia las zonas especializadas donde van a ser elaborados —por ejemplo, a nivel de corteza estriada (V1)— provocará que dicha facilitación atencional vaya ligada a esos atributos en las áreas corticales donde serán procesados, incluso aunque dichas áreas no posean una información retinotópica precisa sobre la localización espacial, es decir, aunque no constituyan mapas de representaciones topográficas. De este modo, la selección atencional acompañará a todas las propiedades de la región seleccionada —y sólo a ellas. Será esta circunstancia la que nos dará la impresión fenoménica de consistencia, de que seleccionamos los objetos como un todo. 3.4.4 La implementación neural del modelo La información visual recogida por la retina entra en el sistema de procesamiento por un putativo módulo de entrada. En este módulo la información se representa en un mapa retinotópico, es decir, que conserva las relaciones espaciales captadas por las células ganglionares retinianas. Luego, esa información se envía, a través del canal parvocelular (vía ventral o del qué), a un mapa donde serán procesados los colores, a uno donde lo serán las formas y a un dominio de identidades, y a través del canal magnocelular (vía dorsal o del dónde), se remite a un mapa de posiciones ubicado en la corteza parietal posterior (van der Heijden, 1992, 1995). Es en el llamado dominio de identidades donde se hace explícita (consciente) la información de qué es lo que vemos. Si la atención actúa mediante una selección temprana de las regiones del espacio visual, y dado que la organización espacial se representa en el mapa de posiciones parietal, la selección atencional debe darse a partir de unas retroconexiones que, desde ese mapa de posiciones, se dirijan al mó-

132

3. Selección para la percepción, selección para la acción

dulo de entrada. De este modo, en la medida en que esas retroconexiones se originan en el mapa espacial de la vía dorsal, puede decirse que la selección es primordialmente espacial, mientras, en tanto que estas conexiones revierten en el módulo de entrada, cabe afirmar que la selección es temprana (véase Figura 3.9).

Figura 3.9 Esquema del modelo de procesamiento visual de capacidad ilimitada de van der Heijden (1992, 1995). La información visual entra a través del módulo IN (input) y es enviada, en canales paralelos, a un mapa de localizaciones (P), a uno de colores (C) y a uno de formas (F). Desde estos dos últimos, la información activa representaciones de identidad (ID): es entonces cuando se hace explícito (consciente) qué es un objeto y cuáles son sus atributos. Finalmente, pueden observarse las vías de reentrada desde el mapa de posiciones al módulo de inputs. La selección atencional se llevaría a cabo a través de estas vías, por lo que sería esencialmente una selección espacial (dado que se origina en el mapa de localizaciones) y, a la vez, una selección temprana (dado que se efectúa en el módulo de entrada) (Adaptado de van der Heijden, 1995).

A modo de inciso, valga decir que las evidencias neuropsicológicas y neurofisiológicas no apoyan especialmente el esquema propuesto por van der Heijden. La activación selectiva de las posiciones representadas en el sistema visual sería propiamente la atención. Así pues, el mecanismo atencional es intrínseco al sistema visual y no un sistema externo que selecciona determinadas posiciones del mapa pertinente. En este sentido, el modelo de van der Heijden contradice a los modelos monárquicos y a la mayoría de modelos oligárquicos que proponen la existencia de un sistema atencional (o varios) ajeno/s a los sistemas sensoriomotores (amodal) sobre los que ejerce/n su control selectivo (p.ej. Norman y Shallice, 1986; Posner y Petersen,

133

Atención

1990; Tudela, 1992; Shallice y Burgess, 1993; LaBerge, 1995; Schneider, 1995; Deubel, Schneider y Paprotta, 1998). Además de su concepción de la atención como un mecanismo supramodal (o amodal), los modelos monárquicos y oligárquicos suelen tener en común un problema: la trampa del homúnculo (véase apartado 2.2.2). Naturalmente, van der Heijden reconoce que la selección atencional puede dirigirse a un atributo distinto a la localización espacial —podemos seleccionar un determinado objeto a partir de su color, su forma, su tamaño, etc.— y que, en ciertas circunstancias, la selección atencional actúa sobre el objeto como un todo (atención al objeto) (van der Heijden, 1996). ¿Cómo reconcilia este autor dicha evidencia con su aserción de que la atención es primordialmente espacial? Según van der Heijden, aunque seleccionemos un estímulo en virtud de un atributo distinto al de su localización espacial, dicho atributo (p.e., el color) funciona básicamente como un indicador de la posición del estímulo. De este modo, concibe el espacio como un intermediario inevitable en la selección atencional. Además, la eficiencia de una determinada característica como clave de selección dependerá precisamente de su eficacia a la hora de especificar la ubicación del estímulo en el espacio. Esta perspectiva es igualmente válida, según van der Heijden (1996), para el caso de la atención al objeto: para él, un objeto debe concebirse como una región espacial sobre la cual el mecanismo atencional puede actuar de forma diferencial. Cada objeto puede ser seleccionado a partir de la posición exacta que ocupa, de modo que la atención al objeto es simplemente un caso particular de selección visoespacial. Debemos advertir que, a nuestro parecer, esta última aserción difícilmente puede dar cuenta de fenómenos como la IRO o la extinción ligada al Síndrome de Balint (véanse apartados 2.3.4. y 2.3.5). 3.4.5 La selección para la acción según van der Heijden Una mínima elaboración del modelo descrito en el apartado anterior permite extender su ámbito explicativo y hacerlo compatible con el punto de vista de que la percepción visual ha evolucionado como una forma de control de la acción (van der Heijden, 1992, 1995). Como sabemos, la localización espacial es un componente crítico para llevar a cabo interacciones motoras funcionalmente adaptativas —recordemos la reconceptualización de la vía del dónde como vía del cómo (Goodale y Milner, 1992), o los circuitos pragmáticos frontoparietales (Rizzolatti y Criaghero, 1998). Para van der Heijden (1995), como para muchos otros autores (p.e. Goodale, 1996), es necesario que exista un sistema de conexiones entre el sistema magnocelular y el parvocelular, dado que el primero es un canal esencialmente motor que necesita la información de la vía ventral (color, forma detallada, etc.) para saber a qué estímulo se debe dirigir la acción. Esta in-

134

3. Selección para la percepción, selección para la acción

teracción es también necesaria en el caso de que no se llegue a dar una acción observable, es decir, en el caso de que sólo haya intención, lo que convierte la aproximación de van der Heijden en una especie de teoría motora de la atención selectiva también para la atención voluntaria encubierta —que ofrece, en este sentido, algunos paralelismos insoslayables con la teoría premotora. Así pues, cuando hay intención de actuar se seleccionan las representaciones icónicas y semánticas relevantes para la tarea, aunque finalmente la acción no se lleve a término (Jeannerod, 1994). Del mismo modo, las características de los objetos (icónicas y semánticas) deben poder activar los sistemas pragmáticos de acción. De esta forma, la acción se encuentra estrechamente vinculada a la selección atencional, hasta el punto, dice van der Heijden, que las manidas metáforas del foco o de la lente de zoom resultan ya poco adecuadas: la función atencional se ilustra mejor a partir de actos como coger o caminar. En este sentido, el autor disiente también abiertamente de aproximaciones como la de la teoría de la integración de las características (Treisman, 1988; 1990): la función de la atención no es primordialmente la integración de las representaciones distribuidas de los distintos rasgos de los objetos para posibilitar la percepción visual consciente, sino que constituye un vehículo (un medio) que posibilita la selección de toda la información que se agrupa en una determinada localización espacial en aras a controlar y guiar la acción. De esta forma, la atención podría definirse como el mecanismo selectivo que determina sobre qué objeto vamos a actuar, un mecanismo complementario a la intención, que selecciona la acción a la que se va a dar prioridad temporal. 3.5

Selección del objeto para la acción: una variante de la teoría premotora (Craighero et al., 1998)

La propuesta de van der Heijden constituye un modelo paradigmático de la selección para la acción basada en la representación espacial, aunque, por supuesto, existen muchas otras aproximaciones que podrían situarse en esa misma línea. Entre ellas destaca, tal vez por su concepto anárquico de la atención, la llamada teoría premotora (Rizzolatti y Camarda, 1987; Rizzolatti et al., 1987; Rizzolatti et al., 1994; Rizzolatti y Craighero, 1998), según la cual la atención espacial no es más que la experiencia fenoménica, el resultado emergente de la activación de los circuitos frontoparietales que controlan nuestran acción en el espacio: la atención sería, también para estos autores, intrínseca a los mismos circuitos responsables de las transformaciones sensoriomotoras —y no ligada a un sistema autónomo de control amodal—, aunque su particularidad radica en afirmar que hay tantas atenciones espaciales como circuitos codifican información espacial de cara a la acción. El resultado es un modelo modular y anárquico de la atención,

135

Atención

que ha resultado sumamente controvertido, pero que tiene el mérito indiscutible de eludir el problema del homúnculo. 3.5.1 La nueva teoría premotora: más allá de la selección espacial para la acción Algunas elaboraciones recientes de la teoría premotora (Craighero et al., 1998), trascienden la selección para la acción ligada al espacio para contemplar también una selección para la acción basada en el objeto. Esta nueva perspectiva se basa en el concepto de priming visomotor, según el cual las características de un objeto que pretendemos coger (distintas a su localización espacial) pueden facilitar la puesta en marcha de los programas motores adecuados para la acción de cogerlos. Esta evidencia se demuestra a partir de la presentación de dibujos bidimensionales que representan objetos que invocan acciones congruentes con las que deben realizar los sujetos experimentales en base a las instrucciones dadas; el resultado es claro: la presentación de dichos dibujos (estímulos prime) disminuye el tiempo de reacción para las acciones a realizar. Esto ocurre, según Craighero et al. (1998), porque las características físicas de los dibujos reclutan información almacenada sobre la naturaleza del objeto, es decir, como comentábamos en el apartado 3.2., inducen una selección semántica en la memoria a largo plazo. Estas evidencias son congruentes con la teoría premotora, pero, de algún modo, amplían su ámbito de aplicación, postulando que la atención no sólo emerge de la activación de los mapas pragmáticos que llevan a cabo una preprogramación del movimiento a partir de la localización espacial del estímulo sobre el que se va a actuar, sino que puede ser también el resultado emergente de un programa motor preparado específicamente para coger un objeto en base a su tamaño, a su forma o a cualquier otro atributo no necesariamente espacial. Así pues, con esta reformulación, la teoría premotora pasa de referirse exclusivamente a la atención espacial a explicar también la atención basada en el objeto, con lo que deviene una propuesta genérica de atención selectiva visual. Hay otros trabajos que apoyan esa elaboración de la teoría premotora. Por ejemplo, Humphrey y Riddoch (1994) concluyen, tras considerar diversos hallazgos neurofisiológicos, que la activación de respuestas motoras no sólo se da a partir de la selección de representaciones espaciales, tal como sugieren Rizzolatti et al. (1994), sino que también los atributos como el color, el movimiento, la forma, etc., tienden a elicitar programas motores dirigidos a los objetos que poseen dichas características. Por otro lado, Klatzky et al. (1993) apuntan que la simple visión de un objeto facilita las acciones congruentes con las propiedades de dicho objeto vía evocación de las fuertes asociaciones objeto-acción derivadas de nuestra experiencia.

136

3. Selección para la percepción, selección para la acción

3.5.2 La evidencia neuropsicológica Desde que Critchley la describiera en 1927, se conoce la existencia de una patología conocida como apraxia magnética o conducta de utilización, que consiste en un comportamiento compulsivo (incontrolable) que, en ciertos pacientes con lesiones del lóbulo frontal, suscita automáticamente la acción motora ligada a un objeto: la simple visión del objeto en cuestión provoca, de forma maquinal e involuntaria, la respuesta motora relacionada con él (Lhermite, 1983). Se trata de pacientes que, por ejemplo, al ver un teléfono lo descuelgan, al ver un peine se peinan, al ver un cigarro se lo fuman, al ver un interruptor lo accionan de forma automática —lo que, dicho sea de paso, puede dar lugar a situaciones verdaderamente embarazosas o, incluso, implicar ciertos riesgos. Lhermite atribuye este curioso fenómeno a un déficit del control del lóbulo frontal sobre la información que le llega desde el lóbulo parietal. En la misma línea, Shallice (1988) piensa que, en estos sujetos, se produce una captura automática de los sistemas motores por parte del objeto percibido y una deshibición frontal de la respuesta (o las respuestas) asociadas a dichos objetos. En terminología de Jeannerod (1994), las tendencias (affordances) intrínsecas a la representación del objeto se verían liberadas, deviniendo acciones reales. Según Tipper, Howard y Meegan (en prensa), las acciones compulsivamente suscitadas por la visión de un objeto se deben a un déficit en el control inhibitorio que, en condiciones normales, ejerce el mecanismo atencional sobre la mayoría de esas acciones. Por otra parte, parece que los circuitos que se activan cuando utilizamos un objeto o dirigimos una acción hacia él, se activan también con la mera visión del objeto e, incluso, en caso de que veamos a alguien utilizándolo (Craighero et al., 1998). En definitiva, parece que deben existir vías directas de conexión entre las zonas encargadas de la percepción visual y las que controlan la acción. De momento, las evidencias neuroanatómicas apuntan a interacciones entre ciertas áreas del lóbulo parietal posterior y la corteza frontal (Jeannerod et al., 1995), aunque no hay que descartar un posible papel de la vía ventral y de sus proyecciones frontales (véase apartado 3.1. y Figura 3.8). 3.5.3 La hipótesis de la competencia integrada (Duncan, 1996) Según la hipótesis de la competencia integrada, los objetos compiten por ser representados en múltiples sistemas cerebrales, sensoriales y motores, corticales y subcorticales. Sin embargo, una vez un objeto alcanza una representación, los distintos sistemas cerebrales lo procesan de forma conjunta. La atención, según este modelo, es un estado que surge con relativa lentitud —en décimas de segundo— a partir de la operación conjunta de los diversos sistemas de nuestro cerebro sobre el objeto seleccionado, propi-

137

Atención

ciando que sus diversos atributos se hallen disponibles, como un todo indiviso, para el control de la acción. La competencia integrada de Duncan se basa en tres grandes principios: 1.

2.

3.

Entre los numerosos sistemas que elaboran el input visual, la mayoría se rigen por el principio de la competencia; es decir, cuando en ellos se representa un objeto determinado, esta circunstancia va en detrimento de la representación de objetos alternativos: las representaciones de distintos objetos son mutuamente inhibitorias. Cuando un objeto logra ser representado en un sistema determinado, esta prioridad tiende a ser transmitida a los demás, de forma que los distintos sistemas tienden a converger en el procesamiento del mismo objeto. Esta integración funcional de los diversos sistemas se da gracias a una activación recíproca entre las distintas unidades, módulos o neuronas que responden al mismo objeto en función del atributo seleccionado. Tal vez quepa insistir aquí en que, aunque un objeto sea seleccionado en función de un único atributo (p.e. su color), también los demás atributos del objeto tendrán prioridad de acceso a sus respectivos sistemas de representación, de forma que será el objeto como un todo integrado el que controlará la acción. El estado subjetivo que emerge de esa activación integrada para el control de la acción es propiamente lo que llamamos atención. La competencia puede ser regulada a partir de una preactivación de las unidades que responden a un atributo determinado. Si en un estante de libros buscamos uno de color pistacho, las neuronas implicadas en la codificación de ese color recibirán una facilitación preactivadora en el sistema cerebral implicado en el procesamiento cromático. Los estímulos de color pistacho gozarán de una importante ventaja a la hora de acceder a la representación en dicho sistema y, por ende, de ser representados en los sistemas que codifican la forma, la ubicación, la textura, el movimiento, etc.

Dado que la selección de un objeto determinado puede darse a partir de cualquiera de sus atributos, cabe convenir que la atención puede originarse en cualquiera de los distintos sistemas cerebrales implicados en el procesamiento visual. Además, como se requiere un cierto tiempo para que la activación de las unidades de ese sistema inicial se transmita a las unidades que deben procesar los demás atributos del objeto en cada uno de los sistemas, resulta lógico que el estado atencional (la atención) emerja lentamente y se mantenga el tiempo suficiente para que la suma de representaciones que da lugar a la percepción del objeto integrado pueda asumir el control de la acción. Como, a estas alturas, debe resultar obvio para el lector, el modelo atencional de Duncan encaja en las teorías que hemos llamado anárquicas: cada objeto atendido activa un patrón de unidades distinto e intrínseco a los

138

3. Selección para la percepción, selección para la acción

propios sistemas sensoriomotores: no hay lugar para el control atencional ejercido desde un sistema o un grupo de sistemas autónomos y amodales.

4.

La función atencional: selección para la percepción y selección para la acción

En el primer apartado del Capítulo 1 de este manual, se ofrece una amplia revisión de las diversas funciones atencionales, ilustrada con amenos ejemplos que, a buen seguro, nos habrán resultado familiares. Dada la diversidad de dominios en los que puede actuar el llamado mecanismo atencional, aquí hemos intentado ofrecer una visión funcional sintética, asumiendo de antemano que su posible utilidad conceptual o didáctica pueda ir en detrimento de su rigor o de su fidelidad científica. A partir de este presupuesto, hemos hablado de dos grandes ámbitos funcionales —la selección para la percepción y la selección para la acción—, falaz disyuntiva que, eso sí, nos ha facilitado una vía de aproximación que esperamos que haya ayudado al lector a estructurar las múltiples aproximaciones y modelos que compiten por describir y/o explicar una naturaleza tan sibilina como la atencional. Es cierto que, hoy en día, resulta algo arbitrario distinguir entre las diversas teorías atencionales según propongan que la selectividad atencional tiene como objetivo prioritario optimizar nuestra percepción —entendiendo aquí percepción en su sentido amplio, es decir, contemplando la necesidad de la selección dirigida a la información cognitiva, indiscutiblemente necesaria para el conocimiento perceptivo—, o que, por el contrario, su genuino sentido radica en la organización y el control de la acción. De hecho, la mayoría de los modelos atencionales contemporáneos reconocen en mayor o menor medida la necesidad de contemplar ambos tipos de selección. Hay ejemplos que hablan por sí solos: la llamada teoría de integración de las características (Treisman y Gelade, 1980), considerada desde siempre como el prototipo de un modelo de selección para la percepción basada en un medio espacial, ha evolucionado para adaptarse a la nueva coyuntura y, en sus versiones más recientes, incluye las debidas cabriolas conceptuales para, en primer lugar, dar cabida a una adecuada explicación de la atención basada en el objeto, y, algo más tarde, ingeniárselas para dar razón de la selección para la acción (aunque no sin cierto pudor) (Treisman, 1988, 1993, 1995; Treisman y Sato, 1990; Hommel, 1998). Así pues, aunque es cierto que hace unos veinte años la mayoría de las formulaciones atencionales estaban sesgadas en el sentido de que se centraban principalmente en analizar la selección que tenía lugar en el procesamiento de la vía visual ventral en detrimento del análisis de la selección para la acción —se decía, a la sazón, que la atención facilitaba la detección, permitía el reconocimiento de objetos, o integraba los atributos

139

Atención

de un estímulo para dar lugar a un percepto unitario—, hoy en día el contexto paradigmático ha cambiado lo suficiente para que podamos afirmar que selección para la percepción y selección para la acción son sólo dos aspectos complementarios e indisolubles de la función atencional. De hecho, parece que una sin la otra no tienen sentido: la selección para la percepción sin selección para la acción sería, además de evolutivamente inconcebible, un mecanismo propio de un ente pasivo y anodino, y, al revés, la selección para la acción sin selección para la percepción conduciría irremisiblemente a la acción gratuita, indiscriminada y caótica, a un azar comportamental puro, tan absurdo como disfuncional. 4.1

Visual Attention Model (Schneider, 1995): un paradigma de compromiso teórico

El enfoque comprensivo que caracteriza a la mayoría de los modelos atencionales recientes se pone de manifiesto de forma especialmente clara en la propuesta de Schneider (1995), el cual formula una solución de compromiso que vamos a exponer, aunque sea sólo para ilustrar el vínculo sinérgico entre selección para la percepción y selección para la acción que contemplan la mayoría de las aproximaciones contemporáneas al estudio del mecanismo atencional. La formulación de este autor, que abreviaremos con el acrónimo VAM, es uno de esos modelos que hemos llamado monárquicos, los cuales conciben la atención como un mecanismo unitario ajeno a los sistemas sensoriomotores. Este mecanismo, esencialmente extrínseco al sistema visual, actúa tanto sobre la vía ventral (selección para la percepción) como sobre la dorsal (selección para la acción basada en el espacio). De este modo, por una parte, el mecanismo atencional del VAM accede al procesamiento visual de alto nivel, el cual, según Schneider, se da de forma serial y tiene una capacidad limitada —el procesamiento visual de bajo nivel característico, por ejemplo, de la corteza estriada (V1) se da en paralelo y, por tanto, carece de limitaciones de capacidad. Sin embargo, por otro lado, el proceso selectivo que culminará en la selección de un objeto de alto nivel se da en los primeros estadios del procesamiento de la información visual, a partir de una selección de las agrupaciones perceptuales a nivel de V1. Así pues, la atención actúa primordialmente seleccionando un objeto visual de bajo nivel e induce una prioridad de procesamiento en la vía ventral. Simultáneamente, es posible que, basándose en su representación espacial, se programen acciones hacia el objeto en cuestión (mirarlo, cogerlo, señalarlo, etc.): este proceso tiene lugar en la vía dorsal. Una vez programada la acción, sólo es necesaria la intervención de determinadas áreas frontales para que se active el control de los efectores y la acción potencial se convierta en acción real.

140

3. Selección para la percepción, selección para la acción

Con la propuesta del VAM, Schneider pretende formular una teoría atencional neurocognitiva que resulte unificadora, y que ofrezca una visión comprensiva de la atención, salvando su diversidad intrínseca (véanse apartados 5 y 6). Para él, las dos grandes funciones de la atención selectiva son: 1. 2.

La selección para el reconocimiento de objetos. La selección para la acción basada en el espacio.

Schneider nos ofrece una explicación conjunta de esas dos funciones, las cuales, a menudo, han sido abordadas por aproximaciones sesgadas, que enfatizan un tipo u otro de selección, dando lugar a dos grandes categorías de modelos (de selección para la percepción y de selección para la acción). Gracias a esas dos funciones del mecanismo atencional, se da una reestructuración de los procesos de segregación de la escena visual y de los que subyacen a la organización perceptual local controlada por los estímulos —que ocurren en las primeras etapas de elaboración de la información (en V1)—, transformando los llamados visual chunks (agrupaciones visuales) de forma que cada uno de ellos resulta globalmente segregado—se distingue de la información sobre las demás agrupaciones— y da lugar a lo que Schneider denomina object token (modelo o prototipo de objeto). La segregación global, necesaria para el reconocimiento de objetos y para la programación de acciones basada en la información espacial, no se da en los niveles superiores de procesamiento del sistema visual (en las vías ventral y dorsal) a menos que actúe el mecanismo atencional. Para ilustrar esta cuestión, algo intrincada, pongamos un ejemplo: supongamos que queremos coger un rotulador rojo de un cajón de nuestro escritorio en el que los hay de múltiples colores. Obviamente, en primer lugar dirigiremos nuestra atención al interior del cajón en busca del color rojo, lo que implica que una señal atencional activará las unidades que codifican el rojo en la representación del color de alto nivel (p.e., en V4). Esta señal se retrotransmitirá al mapa retinotópico de V1, activando la agrupación visual (visual chunk) que comparte el atributo seleccionado (color rojo). Entonces, V1 actúa como un distribuidor de la señal atencional, transmitiéndola a todos los módulos de alto nivel de las vía del qué y del dónde. De este modo, toda la información del sistema visual acoplada a esa señal atencional es segmentada globalmente, es decir, se distingue de la información restante, y conforma un modelo de objeto (object token). Si, efectivamente, el modelo contiene información acerca de un único objeto, el proceso de reconocimiento funciona correctamente y el sistema motor puede recibir los parámetros espaciales necesarios para programar la acción (p.e., coger el rotulador). Sin embargo, si el modelo contiene información de más de un objeto (supongamos que en el cajón hay también un encendedor, un sacapuntas, una grapadora, un lápiz, etc., de color rojo), se requiere que actúe el

141

Atención

control atencional basado en la localización espacial, mediante el cual se va a seleccionar, en V1, la información de una región determinada, propiciando la segmentación global de dicha información y su correspondiente (e implícita) agrupación a ese nivel. Este control atencional basado en la localización espacial revisará de forma serial las diferentes regiones de V1 hasta que el rotulador rojo sea detectado y reconocido (en la vía ventral), lo que permitirá, eventualmente, la programación de la acción de cogerlo (en la vía dorsal). En síntesis, el mecanismo atencional del VAM puede actuar de dos formas: 1.

2.

La forma prioritaria es el control atencional basado en el qué, que se corresponde, en el ejemplo del rotulador, con la selección en función de su color. Sin embargo, si ese proceso falla—normalmente, porque el modelo de objeto generado incluye realmente múltiples objetos (rotulador, sacapuntas, encendedor, grapadora, lápiz… todos de color rojo)—, se recurre a la alternativa del control atencional basado en el dónde.

Mediante los dos procesos se consiguen objetivos similares —el reconocimiento del objeto y la acción basada en el espacio—, dado que, en ambos, la información se transmite a los sistemas visuales ventral y dorsal. Como es fácil deducir, para Schneider, el proceso de reconocimiento de un objeto resulta sumamente costoso y, evidentemente, no puede ser aplicado en paralelo a todos los objetos de un campo visual complejo. Por lo tanto, sólo uno o unos pocos objetos podrán ser reconocidos, en un momento dado, a partir de la selección atencional (imaginemos, para el ejemplo anterior, un cajón repleto de objetos distintos de color rojo): esto implica que, para este autor, como para Treisman (1988), el reconocimiento del objeto es postatencional (véanse apartados 2.1. y 2.3.1.). Ya hemos visto que esta postura ha resultado sumamente polémica y, de hecho, muchos autores no la comparten. Para van der Heijden (1992), por ejemplo, la atención no interviene en el reconocimiento del objeto, dado que la capacidad del sistema visual es ilimitada: pueden ser procesados múltiples objetos en paralelo (simultáneamente), lo que implica que no es necesario seleccionar los objetos que se van a procesar. Algunos trabajos recientes (p.ej., Deubel, Schneider y Paprotta, 1998) ofrecen datos experimentales que son compatibles con diversas propuestas del VAM. Por ejemplo, parece que el rendimiento en el reconocimiento perceptivo de un objeto depende, en gran medida, de hacia dónde se dirige un movimiento que se lleva a cabo de forma simultánea a dicha tarea de reconocimiento: la discriminación perceptiva es mejor si la tarea perceptual y el movimiento se dirigen hacia el mismo objeto, una evidencia que refleja el estrecho vínculo entre la selección atencional de la información de la vía ventral y la de la información de la dorsal. Irwin y Gordon (1998) han obte-

142

3. Selección para la percepción, selección para la acción

nido resultados que van en el mismo sentido a partir del estudio de los movimientos sacádicos de los ojos.

5.

La naturaleza de la atención: monarquía, oligarquía o anarquía.

Si desde que, en 1949, Moruzzi y Magoun descubrieron la Formación Reticular Mesencefálica parece relativamente claro que, por lo que se refiere a los aspectos intensivos de la atención, existe un sistema unitario de control supramodal, la cuestión resulta mucho más confusa cuando consideramos sus aspectos selectivos. De hecho, y pese a las ya clásicas pretensiones de los modelos monárquicos, no se han encontrado evidencias claras —o, al menos, dignas de consenso— respecto a la existencia de un centro neural que pueda ejercer un control rector sobre la función selectiva de la atención. Tanto las evidencias experimentales como las que proceden de los estudios neurofisiológicos, de los neuropsicológicos y de los basados en la utilización de las modernas técnicas de neuroimagen, apuntan cada vez de forma más inequívoca a la consideración de la atención como un mecanismo múltiple con funciones diversas. Estos resultados no han podido ser ignorados por los investigadores que trabajan en este ámbito, ni siquiera por aquellos que con más entusiasmo han defendido largamente la existencia de un sistema atencional unitario y amodal. Por poner un ejemplo, modelos como el de Norman y Shallice (1986), uno de los que con más fervor apostaba por la existencia de un Sistema Atencional Supervisor, han sido finalmente reformulados y, si bien aún siguen buscando —probablemente en vano— un dispositivo homunculoide que gobierne el comportamiento atencional, no han tenido más remedio que admitir que un control de ese estilo sólo puede ser ejercido por mecanismos diversos, si bien coordinados de forma algo misteriosa (véase p.ej., Shallice y Burgess, 1993). Así pues, entre los defensores más acérrimos de la existencia de un único sistema de control atencional amodal, la mayoría han terminado por claudicar ante la rotundidad de los resultados experimentales y admitir que ese control debe ser ejercido, en todo caso, por un sistema oligárquico, en el cual diversos mecanismos, coordinados o no, darían cuenta de las múltiples variedades atencionales (atención selectiva —espacial y basada en el objeto—, atención dividida, atención sostenida, cambio atencional, control atencional ejecutivo, etc.). Además, la tendencia general es la de ceñirse al estudio de la atención en una modalidad sensorial determinada —principalmente, la visual—, renunciando también a la búsqueda de un putativo sistema atencional supramodal, común a los diversos sistemas sensoriales. La propia Treisman (1988), otrora monárquica convencida, propone un modelo oligárquico, según el cual la atención, al menos en su modalidad visual, no sería más que una etiqueta genérica para referirse a una variedad de meca-

143

Atención

nismos selectivos que pueden actuar en múltiples puntos de la red de procesamiento de la información. El estudio de la atención desde la perspectiva de las diferencias intra e interindividuales no hace sino dar solidez empírica a esa renuncia mayoritaria —aunque todavía no unánime— a un modelo monárquico de la atención, dado que, por ejemplo, la correlación entre las diferentes habilidades atencionales que posee un individuo a menudo resulta bastante pobre: un sujeto puede destacar en determinadas tareas atencionales pero, por ejemplo, puntuar por debajo de la media en otras. Por otra parte, una determinada variable (edad, sexo, personalidad, estilos cognitivos, ritmicidad circadiana, motivación, etc.) puede afectar significativamente a determinados tipos de atención, pero no a otros (véase Rosselló y Munar, 1994), lo que ha llevado a pensar que suponer una capacidad o habilidad atencional general no es más que una idea quimérica y que, en realidad, parece haber casi tantas subcapacidades (o subhabilidades) específicas como tareas atencionales se plantean. La multiplicidad de mecanismos atencionales se revela en la multiplicidad de funciones de lo que, por simple parsimonia, llamamos atención. Esa pluralidad esencial explica la falta de consenso en cuestiones tan fundamentales como el lugar de selección, el medio sobre el cual actúa dicho mecanismo, su naturaleza excitatoria o inhibitoria, etc. Así pues, la falta de acuerdo en la comunidad científica parece debida, en último término, a que la atención es múltiple y diversa, y que, por tanto, los numerosos paradigmas experimentales utilizados en su estudio pueden afectar a mecanismos atencionales genuinamente distintos, lo que inevitablemente debe repercutir en los resultados obtenidos. A nuestro juicio, un factor que agrava esa discrepancia radica en que, con frecuencia, los distintos modelos atencionales son formulados desde diversos niveles explicativos (experimental, formal, neurológico, computacional, etc.): dado el caos reinante en la conceptualización teórica de la atención, parece poco recomendable intentar formular modelos atencionales pretendidamente globales partiendo de diferentes niveles de abstracción: hoy por hoy, nos resultaría sorprendente—y hasta suspicaz— que, por ejemplo, el modelo formal de Bundesen (1998) fuera totalmente compatible con el que Desimone y Duncan (1995) postulan a partir de sus estudios neurofisiológicos. En su conocido trabajo de revisión, Johnston y Dark (1986) dividieron los modelos teóricos en causales y de efecto, aludiendo al viejo dilema de si la atención es una fuerza o más bien un resultado (véanse Tudela, 1992, o Rosselló, 1997). Entre los primeros cabría situar a aquellos que aquí hemos llamado monárquicos y oligárquicos, modelos que, respectivamente, postulan la existencia de uno solo o de varios mecanismos atencionales articulados, independientes de los sistemas sensoriomotores, y cuya función básica sería el control del procesamiento y de la acción. La autora del Capítulo 1 (como un servidor no hace mucho tiempo) aboga claramente por esta

144

3. Selección para la percepción, selección para la acción

opción. En cambio, los modelos de efecto postulan que la atención no es más que un resultado, un fenómeno subjetivo que emerge del funcionamiento de ciertos circuitos neurales. Grosso modo, esta perspectiva coincide con lo que en este capítulo hemos llamado modelos anárquicos, según los cuales, genuinamente, no existen los llamados sistemas o mecanismos atencionales. Lo que llamamos atención sería sólo la vivencia subjetiva que experimentamos cuando determinados circuitos sensoriomotores incrementan su actividad basal. Así, el hecho de que los resultados experimentales (y las supuestas funciones atencionales) sean tan heterogéneos, no sería sino un reflejo de que la atención es únicamente fenomenología atencional, tan diversa porque puede emerger de todos y cada uno de los circuitos sensoriomotores de nuestro cerebro: para los modelos anárquicos esto resulta más plausible que pensar que tenemos una multitud de circuitos (o módulos) atencionales causantes de la vasta diversidad atencional observada (como proponen los modelos oligárquicos). Desde este punto de vista —defendido, por ejemplo, por los partidarios de la teoría premotora y por gran parte de los autores que han abordado el estudio de la selección para la acción— , la cuestión de la verdadera naturaleza de la atención es, en último término, intrascendente y baladí, dado que se trata de un fenómeno, en el sentido filosófico del término, es decir de algo que se manifiesta a la consciencia pero que no tiene por qué corresponderse (y, de hecho, no se corresponde) con algo real. De este modo, lo que llamamos atención sería el mero correlato subjetivo del aumento de la tasa de descarga neuronal en ciertos sistemas neurales: no habría ningún centro rector, ningún sistema de control atencional, no habría nada en nuestro cerebro cuya función primordial fuera la de activar las zonas cerebrales que procesan una información u otra según atendiéramos, precisamente, a una u otra información. Así pues, la anarquía sería intrínseca a nuestro comportamiento atencional: cada circuito neural tendría su propia atención y, en principio, ninguno tendría ascendencia sobre el resto.

6.

La diversidad atencional: cuando los árboles no dejan ver si hay un bosque

En cierto sentido, el escepticismo que se deriva de la óptica que hemos llamado anarquista puede resultar desalentador, tanto para el investigador que trabaja en atención como para el alumno que se inicia en su estudio. Sea cual sea la verdad (suponiendo que exista una verdad atencional), lo cierto es que esa perspectiva ha sido, a nuestro juicio, sumamente provechosa. Ha ayudado a concebir la atención como un mecanismo múltiple y diverso, ha aguzado el ingenio de los investigadores para eludir el problema del homúnculo, ha obligado a afinar la metodología de estudio, ha contribuido a relativizar ciertas aserciones —algunas de las cuales se han demostrado fi-

145

Atención

nalmente falsas—, ha intensificado y diversificado el esfuerzo investigador y ha reintroducido la tan necesaria duda metódica en la modelización teórica atencional. Obviamente, también ha tenido otros efectos que, al menos en principio, podrían parecer indeseables. Aparte del desaliento mencionado, puede haber inducido en ciertos investigadores un agnosticismo demasiado radical para resultar recomendable, puede haber contribuido a la excesiva segmentación del ámbito de estudio y a la proliferación de micromodelos que dificultan una aproximación sintética al tema, y, sin duda, puede haber ayudado a fomentar el caos conceptual reinante en la psicología de la atención contemporánea. Sin embargo, tal vez ese caos resultaba necesario simplemente porque nos ha ayudado a tener claras las preguntas —lo que resulta preceptivo antes de pretender postular respuestas taxativas—; tal vez, hoy por hoy, la segmentación analítica sea la mejor estrategia investigadora y los micromodelos las únicas aproximaciones téoricas posibles; quizás haya que renunciar, al menos de momento, a contar con una teoría global que dé cuenta de la selección atencional; tal vez, y esto ya es más arriesgado, se han revelado tantas anomalías en la investigación atencional que, en términos kuhnianos, la psicología de la atención se halle inmersa en una etapa de crisis paradigmática. Sabemos ahora —ya lo hemos dicho— que la atención no es ni única ni homogénea. Y no lo es ni por naturaleza ni en cuanto a su función. A nuestro juicio, aún no está claro si responde a un modelo oligárquico o si es un fenómeno subjetivo que emerge de un sistema anárquico. En todo caso —y pese a que hace ya más de un siglo que William James afirmara aquello de Everyone knows what attention is— lo que está claro es que, desde el punto de vista científico, nadie sabe lo que es la atención —o, al menos, nadie es capaz de inducir un razonable consenso al respecto. Cabe decir que, probablemente, todavía es demasiado pronto para saberlo. Por esa razón, constituye un esfuerzo ocioso e insensato intentar ofrecer una definición unitaria que explique la atención. Resulta incluso verosímil que una definición de ese estilo vaya en contra de la propia índole no unitaria del mecanismo atencional. Puede que la atención sea muchas cosas a la vez o puede que se trate sólo de un epifenómeno (es decir, que no sea). Sin embargo, pensamos que, por ahora, cabe mantener el término para designar el vasto ámbito disciplinar relacionado con la selección para la percepción y la selección para la acción, aunque sólo sea por razones prácticas, por cuestiones didácticas o porque no disponemos de una alternativa mejor. Sólo la investigación puede ofrecer respuestas a las preguntas que ahora hemos recuperado. Hoy por hoy, debemos conformarnos con estudiar lo mejor que podamos lo que Tudela (1992) ha llamado problemática atencional, a sabiendas de que puede que no haya más que eso. Hace algún tiempo yo mismo defendía convencido una definición de atención que comulgaba con lo que hoy he llamado modelos oligárquicos, afirmando que su naturaleza era múltiple pero central, orientada hacia el control de los sistemas sensoriales y los

146

3. Selección para la percepción, selección para la acción

efectores —y, por tanto, extrínseca a ellos— (véase Rosselló, 1994, 1997). Hoy tengo serias dudas sobre todo ello. De lo único que estoy seguro es de que el concepto de atención ha perdido para siempre su univocidad y de que, como afirma Allport (1993), no puede haber una teoría simple de la atención, como no la puede haber de la inteligencia o del pensamiento. Si, por lo que fuera, me viese obligado a formular una definición, podría decir, por ejemplo, que se trata de un fenómeno de origen diverso que se corresponde con una serie de mecanismos selectivos que, en función de determinados factores top-down y bottom-up, optimizan el procesamiento de la información necesaria para que nuestra acción sea lo más adaptativa posible. Se trata, evidentemente, de una definición operativa para salir del paso, que no pretende decir nada acerca de la naturaleza atencional y que se mantiene abierta a lo que la investigación futura nos ofrezca. Aún así, si pudiera, escribiría esa definición en voz baja. Puede que, con el tiempo, la investigación altamente segmentada de la problemática atencional, y los micromodelos que de dicha investigación se derivan —que, sin duda, dificultan una posible integración conceptual de los mecanismos de selección atencional— deba ser complementada por una perspectiva sistemática que propicie una conceptualización sintética y comprensiva. O puede que los resultados experimentales demuestren que cualquier tentativa explicativa de esa índole no tiene ningún sentido. Sabremos entonces si esas múltiples variedades atencionales que monopolizan ahora nuestros esfuerzos analíticos eran sólo los árboles que no nos dejaban ver el bosque o si, en realidad, tan sólo había árboles, tan sólo muchos árboles...

Bibliografía comentada García Sevilla, J. (1997): Psicología de la atención, Madrid, Síntesis. Se trata del manual monográfico más completo que, sobre el tema de la atención, se ha publicado hasta la fecha en lengua castellana. Contempla una introducción a los principales aspectos conceptuales, una panorámica de la metodología experimental utilizada en el estudio de la atención, una revisión de algunos de los modelos teóricos más relevantes y una aproximación explicativa a los mecanismos de atención selectiva, dividida y sostenida. Asimismo, aborda sucintamente aspectos como el desarrollo evolutivo de la atención, las diferencias individuales y las disfunciones atencionales más relevantes, incluyendo una aproximación sumaria a las técnicas de evaluación e intervención. Rosselló, J. (1997): Psicología de la atención. Una introducción al estudio del mecanismo atencional, Madrid, Pirámide. Constituye una aproximación conceptual a los temas más relevantes que, desde el ámbito de la psicología básica, se abordan en el estudio de la psicología de la atención. Aúna la brevedad, la claridad de exposición y el rigor científico. Resulta especialmente indicado para una primera aproximación al tema en el marco de los nuevos planes de estudio. Se ofrecen al lector una serie de reflexiones teóricas que resultan insoslayables

147

Atención para quien pretenda iniciarse en el tema desde una perspectiva actual, articulada en un discurso crítico y abierto que no descuida los referentes históricos más importantes. Styles, E.A. (1997): The psychology of attention. Hove: Psychology Press. Sin duda, se trata del manual en lengua inglesa más recomendable para el estudiante. Desde una óptica actual y novedosa, aproxima al lector a los principales tópicos atencionales utilizando un lenguaje muy claro y un discurso ameno. Partiendo de los trabajos llevados a cabo en los años cincuenta, se exponen las aproximaciones contemporáneas, abordando, de forma harto comprensiva, los principales dilemas y controversias suscitados por los resultados experimentales obtenidos en la última década, y abogando por un concepto de la atención como un fenómeno emergente múltiple y diverso, respecto al cual no cabe una explicación unitaria, concepción muy próxima a la óptica anárquica de ciertos modelos de selección para la acción: la atención es sólo un estado subjetivo, el correlato vivencial de una actividad neural primordialmente tan diversa como diversas son las llamadas tareas atencionales. Se trata, probablemente, del libro más didáctico y bien estructurado que se ha escrito sobre el tema, ideal para quien pretenda profundizar algo más en el estudio básico del mecanismo atencional desde una perspectiva necesariamente iconoclasta, impuesta por las incontrovertibles evidencias experimentales obtenidas en los últimos años. Tudela, P. (1992): Atención. En J. L. Fernández Trespalacios y P. Tudela (Eds.): Percepción y atención (pp. 119-162). En J. Mayor y J. L. Pinillos (Dirs.): Tratado de psicología general. Vol. 3. Madrid, Alhambra. Pese a ser relativamente reciente se ha convertido ya en un clásico de obligada referencia para los que trabajamos en atención en el estado español. Cuando apareció llenó el profundo vacío que, sobre la cuestión atencional, imperaba entonces en nuestra literatura especializada. El autor, de reconocido prestigio internacional, nos ofrece primero una aproximación histórico-conceptual al tema, para exponer luego algunos de los modelos más relevantes que se han formulado desde el paradigma del procesamiento de la información. En la segunda parte del capítulo abunda en la dicotomía automatización-control atencional y trata una serie de cuestiones conceptuales ligadas al estudio del mecanismo atencional desde una perspectiva crítica que, a menudo, deja entrever su opción personal, que aboga por un concepto explicativo (no descriptivo) de la atención, entendiéndola como un mecanismo de control ajeno a los sistemas sensoriomotores, muy en la línea de la concepción que, desde la neurociencia cognitiva, defienden Posner y cols. — aproximación que encaja con lo que, en este capítulo, hemos llamado modelos oligárquicos. Recomendable para el estudiante que quiera ir algo más allá en la perspectiva que pretende una explicación unitaria de la atención. Botella, J. (1998): La atención. En J. Monserrat (Ed.): La percepción visual (pp. 499-532), Madrid, Biblioteca Nueva. Se trata de un capítulo sobre el tema de aparición muy reciente, que constituye una buena introducción a las principales cuestiones que aborda, hoy en día, la investigación atencional. Se describen, de forma sucinta pero rigurosa, algunos de los experimentos clave que han propiciado nuevas aproximaciones teóricas en el estudio de la atención selectiva. Su lectura procura un conocimiento sintético de las nociones básicas que subyacen a algunos de los modelos más en boga en la literatura especializada, teorías que, desde distintos puntos de vista, pretenden ofrecer una explicación —parcial o

148

3. Selección para la percepción, selección para la acción más holística— a ciertos resultados experimentales de elevado poder heurístico. También aborda, de forma sumaria, los temas de la atención dividida, la atención sostenida, la automatización y la psicopatología de la atención. Finaliza con una reflexión sobre la naturaleza y el concepto de atención con la que, esencialmente, estamos de acuerdo, como resulta patente si se compara con la ofrecida en los últimos apartados de este capítulo. Egeth, H. E. y Yantis, S. (1997): Visual Attention: Control, Representation, and Time Course. Annual Review of Psychology, 48, 269-297. Constituye un trabajo que revisa algunas de las polémicas más recientes surgidas de la profusa investigación atencional. Se exponen los determinantes que controlan el mecanismo atencional, tanto los derivados del comportamiento intencional (top-down), como los que se refieren a las variables estimulares (bottom-up). La exposición continúa con el análisis del dilema atención espacial-atención al objeto, ofreciendo datos experimentales relevantes para el estudio de la base representacional —el medio— sobre la que actúa el mecanismo atencional. Finalmente, se aborda el tema del curso temporal de la atención, describiendo las variables que influyen en la rapidez con que la orientamos hacia un estímulo específico, analizando los factores que determinan el tiempo que permanece fijada en dicho estímulo, y discutiendo la naturaleza del desplazamiento o cambio atencional y los parámetros temporales que lo caracterizan.

149

Atención

Preguntas de revisión 1. Considerando las incógnitas planteadas en el punto 1.1. en torno al mecanismo atencional, y después de leer con detenimiento este capítulo, ¿cuáles serían, a tu juicio, las respuestas más verosímiles a las cinco cuestiones planteadas? Justifica tu respuesta, aduciendo argumentos teóricos y/o evidencias experimentales que avalen tu opinión. 2. Según tu parecer, ¿cuáles son los resultados experimentales que ofrecen una base más sólida al argumento de que la selección atencional no siempre se basa en el espacio, sino que puede actuar genuinamente sobre la representación del objeto? Pon diversos ejemplos de la vida cotidiana en que resulte patente que focalizamos nuestra atención 1) en los objetos considerados como un todo, 2) en algunos de sus atributos (color, forma, orientación, etc.) y 3) en su ubicación espacial. 3. Imagina un supuesto debate entre un partidario de los modelos monárquicos y un defensor de la óptica que hemos llamado anárquica. Transcribe una hipotética discusión entre ellos en la que, cada cual, saque a colazón razones teóricas, fenoménicas, datos experimentales, etc., que apoyen su postura. Si piensas que alguno de los razonamientos expuestos por una de las dos partes resulta difícil de rebatir, haz que el curso de la discusión así lo refleje. 4. Después de la lectura de los apartados sobre representación del espacio, del objeto y de la acción (2.2.1., 2.3.1. y 3.1.), ¿qué conclusiones sacarías respecto al vínculo entre percepción y acción?, ¿piensas que dicho vínculo puede ser producto de la evolución filogenética? Razona tus respuestas y pon algunos ejemplos en los que ese vínculo te resulte indispensable para comportarte de forma adaptativa. 5. ¿Piensas que seleccionamos nuestras entradas sensoriales sólo para optimizar nuestra acción? ¿Qué otra función/funciones no ligada/s a la acción podría tener la selección atencional en la visión si es verdad que nuestro sistema visual tiene una capacidad virtualmente ilimitada? 6. Compara la teoría de la integración de las características (Treisman, 1988) con la propuesta de van der Heijden (1992), destacando las posibles coincidencias y las discrepancias más evidentes. Si quieres, puedes tomar partido (siempre y cuando justifiques tus preferencias). 7. Con un poco de imaginación, ponte en el lugar de Schneider (1995) e intenta, desde el marco teórico del VAM, hilvanar una crítica más o menos plausible en contra de la teoría premotora clásica, la que concibe la programación de la acción estrechamente ligada al procesamiento espacial llevado a cabo en la vía dorsal. 8. Compara la concepción de la atención ofrecida en este capítulo con la que se nos ofrece en el primer capítulo de este manual. Destaca las principales diferencias y aboga por una de las dos opciones, argumentando debidamente tu elección.

150

4.

Alteraciones atencionales Mateu Servera Barceló

En el presente capítulo se realiza una revisión de las alteraciones atencionales en la infancia y en la psicopatología de los adultos. En el primer caso se aborda el trastorno por déficit de atención en la infancia. Se hace una descripción clínica del trastorno, se abordan los factores implicados en su instauración y finalmente se exponen técnicas de evaluación y algunos aspectos relacionados con su tratamiento. En la segunda parte se aborda de un modo crítico la relación entre la psicopatología clásica de la atención y los modelos experimentales. A continuación se expone una visión más actual de las disfunciones atencionales a partir de la psicopatología cognitiva y, finalmente, se analizan las alteraciones atencionales en algunos trastornos mentales, especialmente la esquizofrenia.

1.

Introducción

El abordaje de los trastornos atencionales es siempre una labor difícil, cualquiera que sea el objetivo que se persigue. Las razones de esta dificultad son varias, pero en gran parte guardan relación con los problemas inherentes a la definición y conceptualización de la atención. Como señalan Belloch e Ibáñez (1991) el término psicopatología no siempre implica morbidez, pero ello es especialmente cierto en el caso de las alteraciones atencionales. Éstas se pueden categorizar y conceptualizar en función de múltiples criterios, propiedades y aspectos en relación, por

151

Atención

ejemplo, a temas como la conciencia, el procesamiento de la información, la activación, etc. Tal y como reflexionan Baños y Belloch (1995), la atención se entiende de muy diversas maneras: un mecanismo, una volición, un estado de la mente, un proceso, etc. Los psicopatólogos, además, en muchas ocasiones no han tenido en cuenta esta problemática. Ruiz-Vargas y Botella (1987, p. 107) señalan refiriéndose a la alteraciones atencionales de la esquizofrenia (pero es generalizable a otros trastornos) lo siguiente: «durante varias décadas, han hablado de atención sin disponer de un criterio único para referirse a este constructo y, además, con frecuencia, parecen haber ignorado la evolución de los modelos de atención desarrollados por la psicología experimental». Estos mismos autores destacan, en contra de una posición muy extendida en psicología, que la atención «no es un proceso cognitivo» (p. 95), sino la actividad mediadora que participa en todos los procesos cognitivos. A estas reflexiones, nosotros añadiríamos un cierto divorcio entre la psicología experimental y la psicología clínica, quizás más evidente en el área infantil. Educadores y clínicos diagnostican con mucha frecuencia problemas atencionales en los niños de modo global. Entran en la misma categoría conductas de distracción, de no escuchar, de abandonar la tarea, de falta de concentración, de falta de discriminación, de levantarse de la silla, etc. Y, en la misma línea, como señalan López Soler y García Sevilla (1997), los procesos atencionales y las conductas de atención no siempre son sinónimos: es posible simular gran atención visual y auditiva hacia el profesor y tener el pensamiento a años luz de la clase. Tampoco es del todo adecuado definir la atención en función de la ejecución sobre determinadas tareas, puesto que fácilmente intervienen experiencias previas de aprendizaje y otros procesos psicológicos (memoria, percepción, razonamiento...). En el caso de la psicopatología de la atención en adultos se ha mantenido una mayor conexión entre la psicología experimental y la clínica, si bien, como señalan Ruiz-Vargas y Botella (1987), con una gran asincronía, puesto que los modelos experimentales siempre han ido muy por delante de las investigaciones clínicas. De todos modos, hoy en día, como señalan López Soler y García Sevilla (1997), cada vez existe mayor relación entre la investigación básica y la clínica. En estos momentos ya difícilmente se trata la atención como un problema global. Hay tres propiedades fundamentales de esta actividad cognitiva que se están evaluando y analizando por separado desde el punto de vista clínico y educativo: la selectividad o capacidad de focalización sobre la estimulación relevante, la distribución ante tareas que obligan a atender a dos o más estímulos a la vez y el mantenimiento o nivel de vigilancia en tareas de larga duración. Por otra parte, la investigación en psicopatología avanza cada vez más hacia la relación de la atención con la activación cortical y a la búsqueda de conexiones entre déficit atencionales y déficit cerebrales (Baños y Belloch, 1995). Los modelos explicativos también parecen dirigirse hacia la neuropsicología cognitiva, de manera que se esperan cam-

152

4. Alteraciones atencionales

bios en la conceptualización de la atención y, por supuesto, en el análisis de sus disfunciones. A continuación expondremos estas y otras cuestiones en una revisión de las alteraciones atencionales que hemos dividido en dos partes: la primera dedicada por completo al trastorno por déficit atencional en la infancia en la infancia y la segunda, algo más genérica, a la psicopatología de la edad adulta.

2.

El trastorno por déficit de atención en la infancia

Los problemas de falta de atención en el ámbito escolar son de los más frecuentes, incluso en población normal. Manga, Fournier y Navarredonda (1995) señalan que en los estudios epidemiológicos con población normal los maestros describen como inatentos casi a la mitad de los niños y algo más de una cuarta parte de las niñas. Si pasamos al ámbito clínico los problemas atencionales, al menos los relacionados con el trastorno hiperactivo, presentan una prevalencia entre el 3-5 por ciento (APA, 1994), e incluso algunos autores señalan que la mitad de los niños que son remitidos para evaluación y/o tratamiento clínico presentan algún tipo de disfunción atencional (Morris y Collier, 1987). Por tanto, las repercusiones educativas y sociales de este tipo de problemas justifican sobradamente los esfuerzos actuales para su definición, explicación, evaluación y tratamiento. 2.1

La definición del trastorno por déficit de atención en la infancia

El trastorno por déficit atencional (TDA), como entidad clínica independiente, aparece a principios de los años ochenta (Asociación Americana de Psiquiatría, APA, 1980), pero desde siempre se ha hallado muy vinculado a la hiperactividad y las dificultades de aprendizaje. La hiperactividad se ha venido definiendo, como indica Barkley (1990), en función de una triple sintomatología interrelacionada: sobreactividad motora, problemas atencionales e impulsividad, sin que hasta ahora la naturaleza multicomponente de esta sintomatología haya sido del todo aclarada. Hasta los años setenta se consideraba que la sobreactividad/impulsividad motora era el síntoma principal, al cual se asociaban las disfunciones atencionales. Sin embargo, los trabajos experimentales del equipo de Virginia Douglas en la Universidad McGill de Canadá (Douglas, 1983; 1984) cambiaron radicalmente esta idea: ni la sobreactividad, ni los trastornos de conducta, ni siquiera las medidas de distraibilidad (atención selectiva) eran los criterios que mejor diferenciaban a los niños hiperactivos de sus compañeros o de otros que padecían otras alteraciones. Estos criterios se basaban en medidas de atención sostenida y autocontrol.

153

Atención

De este modo surgió, de manera explícita, el trastorno por déficit de atención en la infancia, cuya relación con el concepto más amplio de hiperactividad ha sido y continúa siendo muy polémico. La cuestión clave está en determinar si se trata de un único síndrome, cuyas manifestaciones básicas centradas en conductas de falta de atención, impulsividad y sobreactividad están interrelacionadas, o si es posible diferenciar dos trastornos específicos: el trastorno por déficit atencional con y sin hiperactividad. En 1987, la APA recogió más estudios favorables a un único síndrome, pero en menos de diez años una serie de trabajos clínicos de tipo factorial dieron apoyo a la doble distinción. Desde 1994, y hasta el momento, la APA sigue manteniendo una única entidad clínica (trastorno por déficit de atención con hiperactividad) pero con tres subtipos: con predominio atencional, con predominio de hiperactividad/impulsividad y combinado. Actualmente, importantes expertos sobre el tema, como Russell Barkley (1990; 1997) o Eric Taylor (1994) creen que la investigación nos llevará a recuperar la distinción entre trastorno por déficit de atención con hiperactividad (TDA+H) y trastorno por déficit atencional sin hiperactividad o puro (TDA-H). ¿Cuál es la diferencia entre un TDA+H y un TDA-H? Esta diferencia puede establecerse, desde el punto de vista clínico, sobre una base comportamental y sobre el tipo de déficit atencional. En el primer caso, los niños con TDA+H presentan una sobreactividad motora o, si se prefiere, simplemente una actividad motora desadaptativa. Realmente les cuesta controlar su conducta motora especialmente en situaciones que exigen esfuerzo cognitivo y atención. Pero, además, en su mayoría también presentan conductas disruptivas e incluso antisociales, claramente implicados en sus problemas académicos y de adaptación familiar y escolar (Berry, Shaywit y Shawitz, 1985; Carlson et al., 1987). En cuanto al déficit atencional, los clínicos han tenido que acercase a la investigación básica. Al menos dos tipos de atención, la selectiva y la sostenida, cada vez parecen tener más implicaciones en el proceso de evaluación y tratamiento. En general, y aún siendo un tema en estudio, los niños con un TDA+H demuestran que la mayor parte de sus problemas atencionales se centran en la atención sostenida, mientras los niños con un TDA tienen más problemas en la selectiva. En palabras de Russell Barkley: Los niños con TDA-H pueden tener más problemas con la atención focalizada o velocidad del procesamiento de la información (análisis de los inputs y recuperación de la información almacenada). Por su parte, los niños con TDA+H pueden tener más dificultades con la atención sostenida y el control de la impulsividad, y con los parámetros motivacionales implicados en la tarea (Barkley,1990, p. 90).

Hasta ahora los datos, especialmente los referentes a los niños con TDA+H tienden a confirman esta hipótesis. Por tanto, a pesar de que muchos padres y educadores describen como distraíbles y con poca capacidad de concen-

154

4. Alteraciones atencionales

tración a muchos niños hiperactivos, cuando se ha analizado su rendimiento sobre tareas de laboratorio centradas en la atención selectiva y la discriminación visual se ha observado que, en muchos casos, no llegan a diferenciarse significativamente de los niños normales (Douglas y Peters, 1979; Taylor, 1986; 1994). Incluso añadir estimulación irrelevante a las tareas no sólo no provoca grandes cambios de rendimiento, sino que, excepcionalmente, puede mejorarlo. En cambio, y de modo mucho más consistente, estos niños presentan niveles de rendimiento significativamente inferiores en tareas de rendimiento continuo y de vigilancia, propias de la función de atención sostenida (Barkley, 1990; 1997; Moreno, 1995; Taylor, 1986; 1994). En cuanto a los niños con TDA puro constituyen un grupo mucho menos estudiado. Como señala Barkley (1990), su presencia ha enmascarado tanto los estudios con niños hiperactivos como los estudios con niños con dificultades de aprendizaje. En el primer caso es evidente que muchas de las contradicciones en las conclusiones experimentales sobre la hiperactividad podrían provenir de la presencia más o menos mayor de TDA en las muestras investigadas. Barkley, Grodzinsky y DuPaul (1992) encuentran evidencias claras en favor de características propias de estos niños: menos del 20 por ciento presentarían problemas conductales más o menos graves, prácticamente no tiene problemas de sobreactividad motora, ni se diferencian significativamente de los niños normales en tareas de atención sostenida, o de funcionamiento del lóbulo frontal en general. En cambio, sí se caracterizan por problemas de rendimiento cognitivo: tanto en tareas académicas como de laboratorio, especialmente cuando se requiere un esfuerzo de concentración y focalización atencional. En el segundo caso, es decir, a la hora de analizar la relación entre el déficit atencional y las dificultades de aprendizaje, también existen bastantes problemas. Como afirman López Soler y García Sevilla (1997), entre el 4050 por ciento de las dificultades de aprendizaje se asocian a problemas atencionales, hasta el punto que algunos autores consideran el TDA, y también el TDA+H, como una dificultad de aprendizaje más. Desde un punto de vista genérico, los niños hiperactivos coinciden con muestras de niños con dificultades de aprendizaje específicas en que, en general, sus puntuaciones sobre el cociente intelectual y otras medidas cognitivas globales entran en los intervalos de normalidad. En cambio sus medidas en pruebas de rendimiento académicas (normalizadas y basadas en el currículum) suelen estar 1,5 desviaciones estándar por debajo de la media. Y, finalmente, las conductas de falta de atención son muy frecuentes. Sin embargo, no parece del todo adecuado equiparar hiperactividad y dificultad de aprendizaje sin realizar algunas matizaciones. En el TDA+H no tiene por qué estar presente una afectación específica del área perceptiva, el lenguaje o la psicomotricidad (las más típicas en las dificultades de aprendizaje) (López Soler y García Sevilla, 1997). Además,

155

Atención

las pruebas atencionales que mejor les caracterizan son las de ejecución continua y vigilancia (atención sostenida), mientras en el caso de las dificultades de aprendizaje destacan más las medidas de distraibilidad y de focalización atencional (atención selectiva). Evidentemente, en este último aspecto sí es posible una cierta equiparación entre dificultad de aprendizaje y TDA puro, sin embargo hay que tener presente que en este caso normalmente no puede determinarse un déficit cognitivo específico responsable de sus problemas académicos. En general compartimos la idea, aunque entendemos que discutible, que la función atencional no es estrictamente un proceso cognitivo, sino la actividad básica que permite la puesta en marcha de todo el procesador central de información (Ruiz-Vargas y Botella, 1987). Por tanto, su disfunción tiene un carácter inespecífico y global sobre la ejecución y el rendimiento. Para finalizar, y a modo de resumen, podemos decir que el diagnóstico de trastorno por déficit de atención hace referencia a un niño con una capacidad cognitiva general dentro de la normalidad, pero que tiene problemas para detectar los estímulos relevantes, comete errores por descuido, se distrae fácilmente, parece no escuchar, tiene dificultades para seguir instrucciones y también (aunque tal vez en menor grado comparado con el TDA+H) tiene problemas para mantener la atención cierto tiempo. No tiene por qué presentar conductas problema importantes ni en casa ni en la escuela, pero desde un punto de vista estricto, para su diagnóstico la APA exige actualmente que las disfunciones atencionales sean perceptibles en ambos ambientes (o más) y que supongan un deterioro clínicamente significativo de la actividad social, académica o laboral (APA, 1995). 2.2

Factores implicados en la instauración del déficit atencional

La investigación sobre las causas del TDA es un trabajo complicado debido a su naturaleza multicomponente y a los problemas metodológicos en la conceptualización del trastorno. La mayoría de estudios, por ejemplo, utiliza muestras clínicas de niños hiperactivos, sin especificar la presencia o no de niños con TDA puro. Por tanto, las conclusiones que aquí resumiremos sobre factores motivacionales, genéticos, neurológicos, ambientales y psicológicos son más bien genéricas del campo de la hiperactividad, si bien con muchas referencias a la disfunción atencional. La motivación y la falta de atención en muchos casos mantienen una relación muy directa: ¿quién puede permanecer largo tiempo sobre una tarea extremadamente aburrida, fácil, difícil o poco recompensada? Sin embargo, esta relación entre baja motivación y conductas de inatención no es extrapolable de modo lineal al déficit atencional. Los niños con TDA sorprenden (e incluso irritan) a sus padres y educadores cuando son incapaces de trabajar cinco minutos sobre sus deberes y luego se enganchan largo tiempo

156

4. Alteraciones atencionales

a los programas de TV o a los vídeojuegos. Sin embargo, Pelham (1981) y sobre todo Kirby y Grimley (1986) han señalado adecuadamente que el nivel de exigencia de atención sostenida de las tareas escolares y estas actividades no son comparables. Los programas o juegos motivantes para los niños con TDA presentan mínimos requerimientos de esfuerzo cognitivo e incluso son el lado opuesto de lo que implica una tarea de atención sostenida. El niño está más tiempo del habitual con ellos porque presentan cambios rápidos de estimulación, porque puede hacer múltiples desconexiones cognitivas (soñar despierto) y volver a engancharse sin interferencia en la comprensión o el disfrute, y porque el reforzamiento es frecuente. Por tanto, como ya señaló Douglas (1984), los problemas de atención sostenida y la baja motivación hacia las tareas cognitivas son dos déficit concurrentes en el TDA, pero deben ser considerados al mismo nivel. Por lo que respecta a los factores genéticos, de modo muy resumido podemos decir que hasta ahora los trabajos han sido de tipo correlacional, con todas los problemas y controversias que ello conlleva. Goodman y Stevenson (1989) en un amplio estudio con más de 100 pares de gemelos monozigóticos y dizigóticos encontraron grandes niveles de concordancia clínica en comportamientos hiperactivos atribuibles principalmente a factores genéticos. Por tanto, y a pesar de que se reconoce la dificultad de aislar la influencia ambiental, los niños con familiares directos relacionados con problemas atencionales o con la hiperactividad tienen más probabilidades de padecerlos (Barkley, 1990); Moreno, 1995; Stevenson et al., 1993). La investigación sobre los factores neurológicos ha sido intensa desde que los trabajos de Strauss y Lehtinen (1947) ayudaran a desarrollar el término de disfunción cerebral mínima, y se han visto complementadas recientemente con las hipótesis bioquímicas. Vamos a resumir los aspectos más relevantes sobre este tema: — El término disfunción cerebral mínima, a pesar de que aún se mantiene en ciertos ámbitos, resulta demasiado laxo y falto de evidencia experimental (Barkley, 1990). Tradicionalmente, se ha considerado que sólo un 5 por ciento de niños con diagnóstico de hiperactividad presenta algún tipo de alteración neurológica detectable claramente. Más recientemente Wicks-Nelson e Israel (1997) prefieren no dar cifras y hablan de una minoría considerable, pero minoría, al fin y al cabo. — Definitivamente las hipótesis de una sobreactivación cortical parecen haberse desechado: la hiperactividad se relaciona con una infraactivación cortical general (Manga, Fournier y Navarredonda, 1995; Taylor, 1994). — Los estudios sobre el funcionamiento cerebral se están centrado en el lóbulo frontal, implicado en muchas funciones cognitivas superiores. Las conductas hiperactivas e inatencionales se han relacionado con un decremento del flujo sanguíneo en las regiones prefrontales orbita-

157

Atención

les y el núcleo estriado, observándose además una reducción de la actividad eléctrica en estas zonas y especialmente en su conexión límbica (Barkley, 1990; Lou et al., 1989; Zametkin y Rapoport, 1987). — Las hipótesis bioquímicas se centraron inicialmente en la dopamina, neurotransmisor hallado en menor cantidad de lo habitual en el líquido cefalorraquídeo y en los análisis de metabolitos en el plasma sanguíneo de algunos niños hiperactivos (Zametkin y Rapoport, 1987) y actualmente se centran en alteraciones de la noradrenalina y la serotonina (Taylor, 1994). De todos modos, aún no estamos en disposición de establecer relaciones causales (Taylor, 1994; Wicks-Nelson e Israel, 1997). — Finalmente, la investigación neuropsicológica centrada en la relación entre determinadas estructuras cerebrales y algunos principios de aprendizaje ha ofrecido resultados muy interesantes. A modo de resumen, como señala Barkley (1990), los datos apoyan umbrales de activación por estimulación más elevados en los niños hiperactivos (las conductas hiperactivas e inatencionales funcionarían como un mecanismo compensatorio). También indican umbrales más altos para los efectos del reforzamiento dentro del sistema cortical, de modo que, además de necesitar más cantidad de reforzadores que los niños normales, también llegan más deprisa a la saciación. Por último, se han observado en los niños hiperactivos un decremento en la actividad del sistema de inhibición conductual: así, los estímulos aversivos, o su amenaza, tienen un efecto mucho menor sobre su conducta. Los factores ambientales y psicológicos pueden tratarse de manera conjunta, puesto que su interacción es muy elevada. En términos generales, la hiperactividad y los problemas atencionales se relacionan con niños que viven en ambientes culturalmente pobres y en familias de bajo nivel socioeconómico. Sin embargo, más que las condiciones sociales, son sus efectos psicológicos los que podrían determinar la hiperactividad (Moreno, 1995). El modelo explicativo del déficit atencional de Virginia Douglas (1983; 1984) se basa en la presencia inicial de determinadas predisposiciones básicas: poco interés por el esfuerzo cognitivo, búsqueda de gratificación inmediata, impulsividad y falta de autocontrol. Su origen es una interacción entre factores constitucionales y ambientales. Entre estos últimos las pautas educativas inconsistentes, en exceso directivas y desordenadas se consideran fundamentales. La entrada en el medio escolar del niño con estas deficiencias provocará falta de desarrollo de los procesos cognitivos, problemas de motivación intrínseca y déficit metacognitivos y, finalmente, acabará consolidándose un patrón de fracaso escolar y social. Para concluir este apartado debemos hacer referencia a otros factores que gozan de cierta popularidad. Nos referimos a la presencia de determinadas substancias en la alimentación y el ambiente. En este sentido la revi-

158

4. Alteraciones atencionales

sión de Barkley (1990; véase la conclusión en pp. 99-100) señala que los aditivos (conservantes y colorantes), el azúcar, los hidratos de carbono y los salicatos naturales (almendras, fresas, tomates...), que en algún momento se han eliminado de la dieta de los niños hiperactivos, no han demostrado ser causa directa del trastorno. Igualmente, podría decirse del efecto del plomo, aunque con una salvedad. Niveles elevados de plomo son claramente perjudiciales para la salud y, especialmente, para el funcionamiento cognitivo, pero en baja proporción —a pesar de algunos resultados que manifiestan ciertas correlaciones positivas— tampoco se ha podido establecer una causalidad directa (Barkley, 1990; Moreno, 1995). 2.3

La evaluación y el tratamiento del trastorno por déficit de atención

Cuando los mecanismos atencionales no son capaces de producir una adaptación a las exigencias del ambiente o a las nuestras propias definimos la presencia de un problema atencional (López Soler y García Sevilla, 1997). En la evaluación de este problema y en su posterior diagnóstico hay que tener presente, en primer lugar, la naturaleza evolutiva de los procesos atencionales. Es decir, la edad del niño y su nivel madurativo condiciona el desarrollo de su capacidad atencional (como ocurre en la mayoría de los demás procesos básicos), aunque es difícil delimitar los criterios de normalidad: ¿cuánto tiempo puede un niño de cuatro años permanecer prestando atención a las indicaciones de un adulto? Depende de diversos factores: a quién presta atención, a qué, dónde, con quién, en qué momento del día, etcétera. En general, la valoración de los aspectos evolutivos se hace desde el punto de vista de la experiencia clínica, y de algunos principios de la psicología evolutiva. La comparación desde baremos psicométricos es más difícil, por los condicionantes que antes comentábamos, y, por otra parte, por su relativa inexistencia, si bien últimamente se trabaja más intensamente en ello (Barkley 1997; López Soler y García Sevilla, 1997). Otro aspecto clave para diagnosticar un trastorno de atención deriva de la diferenciación entre conductas de falta de atención y déficit atencional (López Soler y García Sevilla, 1997). No es fácil distinguir las conductas de falta de atención de las que son producto de causas no directamente relacionadas con el funcionamiento de los procesos. La distinción, desde el punto de vista clínico, no ha sido tratada en profundidad hasta hace poco tiempo, cuando las investigaciones en psicología de la atención han demostrado que es posible presentar déficit específicos en atención selectiva, sostenida o dividida (Rosselló y Munar, 1994), lo que puede condicionar el proceso de evaluación y tratamiento del problema. En general, se trata de aceptar la idea de que no toda conducta de falta de atención supone un déficit atencional. La falta de atención puede deber-

159

Atención

se (López Soler y García Sevilla, 1997; Taylor, 1986) a la presencia o interacción de factores de tipo fisiológico (ya sean trastornos orgánicos y/o sensoriales, o estados transitorios de estrés, fatiga o sueño), de tipo ambiental (presencia de estímulos perturbadores, como televisión, ruido, exceso de frío, calor o presencia de estímulos interfirientes) o de tipo psicológico (falta de motivación extrínseca y/o intrínseca, falta de autocontrol, falta de habilidades de aprendizaje, características de personalidad, etc.). El niño con conductas de falta de atención atribuibles a estos factores, al contrario del niño con TDA, debe presentar unos niveles de normalidad de funcionamiento atencional en pruebas estándar, y en todo caso el ligero retraso que pueda acumular es más fácilmente recuperable al modificar los factores causales. Por contra, el niño con un TDA necesita una ayuda específica en el desarrollo del proceso atencional afectado y en la estrategia atencional, antes de pasar a actuar sobre las dificultades de aprendizaje que normalmente presenta. Los métodos de evaluación de la disfunción atencional en la infancia pueden clasificarse en tres grandes apartados: 1. 2. 3.

entrevistas, escalas y cuestionarios (normalmente elaborados para recoger la valoración de los adultos); registros de observación directa (en ambiente natural o en laboratorio); tareas atencionales para los niños (normalmente pruebas de tipo psicométrico).

En este último caso, aunque son múltiples los parámetros a escoger, desde el punto de vista más clínico, Taylor (1994) y Barkley (1990) priorizan la evaluación de la disfunción sobre los tres principales tipos de atención: selectiva, sostenida y dividida, y en todo caso también destacan la necesidad de la medida de la exploración atencional (capacidad de análisis del campo estimular) y la intensidad atencional. Las escalas y cuestionarios son los instrumentos de evaluación más utilizados en hiperactividad infantil, y normalmente incluyen escalas atencionales. Las escalas de Conners y sus diferentes revisiones (véase, por ejemplo, Glow, 1981; Goyette, Conners, y Ulrich, 1978) y las de Achenbach y Edelbrock (1983; Edelbrock y Achenbach, 1984) tal vez sean las más conocidas, si bien existen muchas más (Barkley, 1990; Mash y Terdal, 1988; Silva, 1995). En general, muchas presentan problemas similares a las entrevistas, de tipo psicométrico y con baremaciones inexistenes o limitadas. Uno de los mejores instrumentos es el Cuestionario de Conducta Infantil de Achenbach y Edelbrock (1983; Edelbrock y Achenbach, 1984). Entre sus múltiples escalas destaca el Perfil Atencional Infantil que ha sido adaptado en nuestro país (Escalas de Comportamiento Infantil, ECI, Manga, Fournier y Navarredonda, 1995) para medir cuatro escalas: desin-

160

4. Alteraciones atencionales

terés por el estudio, déficit de atención, dificultades de aprendizaje e hiperactividad. En la mayoría de ocasiones, las entrevistas psiquiátricas y los cuestionarios son el método más habitual de diagnóstico de un TDA, pero ello no es del todo correcto, como señalan Barkley (1990) y Taylor (1986). Los registros de observación directa pueden ser necesarios en muchos casos. Entre los procedimientos estandarizados de observación destaca el Código de Observación de Conducta en el Aula de Abikoff y Gittelman (1985) (adaptado en nuestro país por Ávila de Encío y Polaino Lorente, 1991) y el Sistema de Codificación de Conductas Hiperactivas de Barkley (véase Barkley, 1990, pp. 337-338). En general, la observación se lleva a cabo mientras el niño resuelve algún tipo de tarea escolar, y se codifican, por ejemplo, categorías atencionales como estar fuera de la tarea, jugar con objetos o consigo mismo, apartar la mirada y otras que incluyen el registro de conductas motoras, estar fuera del asiento, conductas de exploración, etc. El principal problema de estos registros son las limitaciones psicométricas y una cierta artificiosidad en su medida. Sin embargo, como señala Barkley (1990), aplicados en el marco de un análisis funcional del comportamiento, es decir, llevados a cabo dentro del aula e incluyendo también la observación y el análisis de los estímulos antecedentes y consecuentes de las conductas de desatención, además de otras variables ambientales y personales que puedan incidir, es posible que nos ayuden a determinar si se trata de un problema de conductas de falta de atención o de un déficit atencional puro. Finalmente, a ello también pueden contribuir decisivamente las tareas de laboratorio que se aplican directamente al niño para evaluar su capacidad atencional. Actualmente estas tareas se aplican a partir de un ordenador para obtener medidas lo más precisas posibles de las distintas propiedades de la atención, sin interferencia de otros procesos cognitivos. En las pruebas clásicas de lápiz y papel suele darse este problema. Por ejemplo, las tareas de aprendizaje de asociación de pares miden persistencia atencional pero en muchos casos enmascarada por el nivel de estrategias de memorización que posea el niño. El Toulosse-Pièron, tal vez la prueba atencional más clásica, podría considerarse de atención selectiva, pero también se hallan presentes aspectos claves de atención sostenida, rapidez de ejecución e incluso aptitudes perceptivas. Algo similar pasa en las tareas de percepción de las diferencias, discriminación visual, integración visual y rapidez perceptiva (véase una revisión en López Soler y García Sevilla, 1997). La Tarea de Ejecución Continua (TEC) fue una las primeras en este sentido (Rosvold et al., 1956), y mide fundamentalmente la capacidad de atención sostenida o la vigilancia (nivel y decremento). Existen múltiples variedades de este test, pero una de sus formas estándar consiste en que el niño trabaje durante 17 minutos ante una pantalla que va proporcionando un número aleatorio del 0 a 9 cada 500 milisegundos. Cada vez que aparece un determinado número debe emitir una respuesta, teniendo presente que la

161

Atención

frecuencia media de aparición del estímulo objetivo suele ser del 20 por ciento. A pesar de su amplia utilización y diversas versiones, la comunidad científica se queja (Barkley, 1990; López Soler y García Sevilla, 1997; Taylor, 1994) de que no disponemos ni de una unificación de las medidas a utilizar (latencia de respuesta, errores de omisión, de comisión, índices combinados...) ni de baremos que nos permitan comparar el rendimiento del niño a diferentes edades. Las tareas de escucha dicótica se utilizan como una medida de atención selectiva. En ellas, el niño escucha a través de unos auriculares voces distintas (por ejemplo, una masculina y otra femenina) que le transmiten una información similar (tres dígitos), pero sólo debe repetir la información de una voz. Igualmente, existen pruebas informáticas que permiten la evaluación de la atención selectiva. Normalmente, se basan en la aparición de un campo estimular simple (para no interferir con procesos mnésicos o perceptivos) sobre el cual, el sujeto, debe detectar la presencia de un estímulo objetivo (target). Existen muchas otras medidas, y diversas variaciones de las aquí descritas, que pueden contribuir, con el tiempo, a mejorar el diagnóstico de déficit atencional en la infancia. El objetivo de la mejora en la batería de evaluación de este déficit, como en cualquier otro, es doble: por una parte desarrollar teorías científicas que expliquen mejor su funcionamiento y, por otra, incidir de modo más eficaz en su tratamiento. No es el lugar adecuado para extendernos en el tratamiento del TDA, pero sí conviene apuntar algunos aspectos relevantes. En primer lugar, debemos tener presente que se trata de un problema grave, que puede ser determinante en una experiencia global de fracaso social, académico y laboral de la persona; en segundo lugar, hay que saber que normalmente exige un tratamiento multicomponente complejo, pero que, aplicado correctamente, puede, si no eliminar por completo, sí atenuar considerablemente los efectos del déficit. El tratamiento del TDA está muy relacionado con el tratamiento de la hiperactividad en general. Las posibilidades de intervención se pueden resumir en: prescripción de psicofármacos, entrenamiento en estrategias atencionales y en discriminación visual, técnicas cognitivo-conductuales y estrategias de aprendizaje; y, por último, técnicas conductuales o de manejo de contingencias. La intervención farmacológica normalmente se utiliza cuando estamos ante un déficit atencional grave acompañado por las manifestaciones propias del trastorno por hiperactividad, esto es, impulsividad, sobreactividad motora y otras conductas problema. Normalmente, se utilizan estimulantes, entre los cuales el metilfenidato es el más habitual (aunque también se utilizan la dextroanfetamina y la pemolina). El efecto más habitual es una mejora de la capacidad atencional y la reducción de la impulsividad motora, lo cual facilita la posterior intervención psicológica. La administración de estas sustancias no tiene una incidencia decisiva en la mejora de las dificultades de aprendizaje; tampoco garantiza la supresión

162

4. Alteraciones atencionales

del déficit (al cesar el tratamiento, reaparecen los problemas) y, además, los psicofármacos citados tienen efectos secundarios que deben ser controlados —entre ellos, el principal es un retraso en el crecimiento del niño— (véase Barkley, 1990; y Moreno, 1996, para una revisión). Siempre que sea posible, la intervención con metilfenidato debe acompañarse de algún tipo de intervención psicológica. El entrenamiento en estrategias atencionales y metaatencionales se pone en marcha cuando el proceso de evaluación ha detectado claramente la presencia de un déficit de atención en uno o más de sus aspectos básicos (selectividad, mantenimiento, oscilación, etc.). Es aconsejable que el entrenamiento se diseñe en función del tipo de problema atencional que presente el niño, descartando el uso de baterías de tareas genéricas que pueden resultar tediosas y poco motivantes. Por otra parte, como ya hemos comentado, es fundamental discernir si la conducta de falta de atención refleja realmente un déficit en este sentido o depende de otras variables externas o internas, puesto que, en este último caso, tiene poco sentido un entrenamiento atencional específico. Las técnicas cognitivo-conductuales (el entrenamiento en autoinstrucciones, en solución de problemas o en autocontrol) acompañadas de instrucción estratégica han demostrado poseer una utilidad de amplio espectro sobre aspectos básicos del aprendizaje y del desarrollo de los procesos de solución de problema del niño (Bornas y Servera, 1996; Moreno, 1996a; 1996b): fomentan la reflexividad, el autocontrol y aumentan las posibilidades de enfrentarse con éxito a las tareas escolares. Principalmente estarían indicadas en aquellos niños con conductas de falta de atención, impulsividad cognitiva y bajo nivel de rendimiento académico. Este tipo de intervención es de amplio espectro, y tras la mejora de aspectos atencionales o comportamentales específicos pretende un desarrollo global de la capacidad de resolución de problemas del niño. Las técnicas operantes basadas en el manejo de contingencias (como, por ejemplo, la economía de fichas/coste de respuesta u otros procedimientos de reforzamiento positivo o negativo, o de castigo) pueden jugar un papel determinante en el caso de que se den conductas disruptivas o problemas motivacionales. Al igual que ocurre con la intervención psicofarmacológica, la idea es que sirvan de base a un tipo de intervención cognitivo-social más profunda que permita corregir los problemas escolares, familiares y de adaptación que suele presentar el niño con TDA.

3.

Los trastornos atencionales en psicopatología

Las alteraciones atencionales han estado presentes en las diferentes concepciones y nosologías psicopatológicas, aunque, de nuevo, hay que hacer hincapié en la polémica que las ha acompañado. Como señalan Baños y Belloch (1995), recogiendo la opinión de Cromwell (1978), para la mayoría de

163

Atención

autores han tenido un papel secundario, como un síntoma tolerable entre la pléyade de las manifestaciones patognomónicas de diversos trastornos mentales, manifestaciones que suelen ser consideradas como primordiales y mucho más invalidantes. Sin embargo, también es cierto que, por otra parte, muchos manuales de psicopatología dedican capítulos especiales a los trastornos atencionales (véase, por ejemplo, Belloch, Sandín, Ramos, 1985; Higueras, Jiménez y López, 1979; Schafferter, 1977; Vallejo et al.., 1985). Como veremos más adelante, en el caso específico de la esquizofrenia, algunos autores no sólo han considerado las alteraciones atencionales como síntomas primarios, sino incluso les han otorgado un papel causal. 3.1

Modelos atencionales y psicopatología clásica de la atención

No es el momento de adentrarnos en profundidad en los modelos atencionales experimentales, puesto que ello ya se aborda en otros capítulos de esta misma obra (véanse los capítulos 1 y 3). Sin embargo, necesitamos hacer mención de algunos aspectos clave de estos modelos para entender su influencia en la concepción psicopatológica de la disfunción atencional. Como es sabido, de forma tradicional los modelos atencionales se engloban en dos categorías: estructurales y de capacidad. Los modelos estructurales enfatizan el aspecto selectivo de la atención (Baños y Belloch, 1995; Rosselló, 1997). A menudo, se postula la existencia de ciertos impedimentos que no permiten un procesamiento simultáneo de la información, siendo la atención la encargada de regular la entrada serial de los inputs. La teoría del filtro rígido de Broadbent (1958) inició este tipo de modelos basándose en los experimentos con tareas de escucha dicótica y de amplitud dividida (véase Capítulo 2). Según esta teoría, los estímulos deben ser procesados por un sistema de capacidad limitada (a través del llamado cuello de botella), de manera que, necesariamente, debe haber una selección que impida la sobresaturación de dicho sistema. Este filtraje se basa en las características físicas del estímulo, es decir, se da de abajo/arriba, si bien el sujeto puede, anticipadamente, preprogramar ciertas prioridades en función de, por ejemplo, su motivación. La teoría del filtro ha guiado la mayoría de trabajos con pacientes psicóticos, intentando dar con diferencias entre ellos y los sujetos normales en cuanto a las propiedades de este sistema de filtraje. Como señalan RuizVargas y Botella (1987), desde finales de los años treinta tenemos datos acerca de los problemas de atención selectiva que padecen los pacientes esquizofrénicos. De todos modos, la teoría del filtro ha demostrado tener bastantes limitaciones, que posteriormente han provocado resultados confusos en los estudios psicopatológicos. Las aportaciones de Treisman (1960) y Deutsch y Deutsch (1963) obligaron a una reformulación del modelo del filtro rígido (Broadbent, 1971), en la cual, por ejemplo, aparte del sistema

164

4. Alteraciones atencionales

de filtraje, básicamente físico, se acepta otro sistema de selección de respuesta, fundamentalmente semántico, que relativiza la función de todo/nada del canal de capacidad (véase el Capítulo 1, para una visión más exhaustiva de las limitaciones de estos modelos estructurales). Los llamados modelos de capacidad tienden a obviar el problema de la selectividad por la sencilla razón de que ésta es inherente a un sistema que, por definición, manifiesta limitaciones de capacidad. Desde este punto de vista, se concibe el funcionamiento de la actividad cognitiva como un procesador central inespecífico y limitado, cuyo buen funcionamiento consiste en una buena administración de los recursos cognitivos en función de las demandas internas (fatiga, motivación, expectativas, etc.) y externas de las tareas. Los paradigmas utilizados para la investigación atencional pasan, pues, de las tareas de selectividad a las de atención dividida (paradigma de doble tarea) y a las tareas de vigilancia. El modelo de recursos generales o inespecíficos de Kahneman (1973) abrirá las puertas a otros muchos centrados ahora en valorar la ejecución atencional en función de la similitud de las tareas, su grado de dificultad y la práctica previa del sujeto. Posteriormente, dos conceptos claves adquirirán gran relevancia: la noción de preparación, es decir, la influencia que tiene la información previa sobre el rendimiento atencional del sujeto, y la distinción entre procesamiento controlado y automático (Shiffrin y Schneider, 1977) (véase Capítulo 1). La psicopatología clásica de la atención se ha basado principalmente en el modelo original de Broadbent (1958), con las limitaciones que ello supone dado el extraordinario avance de las teorías atencionales desde entonces (véase el Capítulo 3, para una panorámica del estado de la cuestión en nuestros días). Aunque existen ciertas discrepancias entre los autores y entre los datos experimentales, desde este punto de vista los problemas atencionales se centran en cuatro grandes áreas: la selectividad atencional, la capacidad, la estabilidad y las oscilaciones. En este sentido, atención y concentración mantendrían estrechos lazos. En la concentración intervendrían diversas propiedades de la atención, como la focalización, la vigilancia y la estabilidad, pero también aspectos perceptivos, es decir, la interpretación clara y consciente de los estímulos. En este sentido, como señalan Baños y Belloch (1985), las clasificaciones de trastornos de la atención/concentración de Scharfetter (1977) e Higueras, Jiménez y López (1979) constituyen un buen ejemplo de esta postura, al igual que la de Serrallonga (1985). A manera de síntesis, y aunque aparezcan con distinta denominación, los trastornos clásicos de la atención pueden agruparse en las siguientes categorías: — Falta de atención, elevación del umbral de atención, trastorno de concentración, hipoprosexia. Existe una capacidad disminuida para enfocar, concentrarse y orientarse hacia un objeto (en su grado máximo se denomina aprosexia). También hace referencia a la presencia de umbrales estimulares demasiado elevados para conseguir la orien-

165

Atención

tación del sujeto. Es propia de la esquizofrenia, estados depresivos, de agitación y de las demencias. — Inestabilidad atencional, distraibilidad, oscilaciones, hiperprosexia. La atención se dirige superficialmente a los estímulos de cada momento, cambiando rápidamente, mostrándose una incapacidad para mantenerla sobre los estímulos relevantes de la situación. Es propia de los trastornos maníacos o de la acción de determinadas sustancias psicotrópicas, y también puede darse en la esquizofrenia. — Fatigabilidad, incapacidad para mantener la atención. Aparece una fatiga prematura centrada en un aumento del tiempo de reacción y en el número de errores sobre tareas repetitivas que exigen una atención sostenida durante un cierto tiempo. Observable en la esquizofrenia y en muchos otros trastornos mentales. — Estrechamiento de la atención. La concentración se focaliza sobre unos pocos estímulos y en muchos casos también se internaliza. En la esquizofrenia el sujeto se fija en sus alucinaciones o en sus delirios de modo constante, siendo incapaz de atender a otros estímulos del ambiente. Baños y Belloch (1995) realizan una valoración crítica de este tipo de conceptualización de los problemas atencionales en función de los propios contenidos y los supuestos teóricos. Desde el punto de vista teórico se resalta la confusión entre los términos atención, concentración e incluso conciencia. Muchas veces, desde el punto de vista psicopatológico, a los problemas más descriptivos de la atención se les añade una interpretación cualitativa centrada en el tipo de significación que concede el sujeto a lo atendido. Los cuadros en donde se produce alteración de la conciencia incluyen alteraciones de la vigilancia y la concentración, pero esto no justifica esta equiparación, puesto que también aparecen alteraciones de la memoria, el aprendizaje, el habla, etc. La mayoría de procesos cognitivos son concurrentes, lo que no implica que sean idénticos. Por otra parte, la atención, desde este punto de vista, se reduce a la propiedad de concentración. El grado de focalización es la clave: se atienden pocas cosas, no se atiende a nada, cambia demasiado su dirección, no se activa con la estimulación adecuada, etc. Pero, realmente, el estudio de la actividad atencional, como hemos resaltado previamente, va mucho más allá. 3.2

Psicopatología cognitiva de la atención

Como señalan Baños y Belloch (1995, p. 171) «hoy por hoy no contamos con una teoría que sea capaz de integrar todos los aspectos de la atención» (véanse apartados 5 y 6 del Capítulo 3). Por tanto, a pesar de que muchos autores consideran que la disfunción atencional nunca será específica ni irá

166

4. Alteraciones atencionales

claramente en relación al esfuerzo o capacidad de procesamiento que requiera cada tarea (Ruiz-Vargas y Botella, 1987), desde el punto de vista de la psicología cognitiva resulta más clarificador (o didáctico, al menos) analizar la psicopatología atencional en función de las distintas propiedades de esta actividad o proceso. Reed (1988) ofreció una propuesta de clasificación que más recientemente también han seguido Baños y Belloch (1995). Esta clasificación analiza las alteraciones atencionales en función de las siguientes propiedades: concentración, selección, activación, vigilancia y expectativa (preparación atencional). Una característica común de los distintos fenómenos que ocurren en cada propiedad es que no necesariamente implican morbidez. Pueden estar asociados a muchos trastornos mentales (esquizofrenia, paranoia, depresión, estados de ansiedad), pero también los pueden experimentar personas normales. Las alteraciones de la atención como concentración se refieren a una alteración en la fijación. El foco atencional es disfuncional o actúa de modo inadaptativo sobre los objetivos estimulares en los que debería centrarse. Es típico de muchas alteraciones psicóticas, especialmente de la esquizofrenia. Otros fenómenos relacionados con esta propiedad de la atención son la ausencia mental y la laguna mental. En la ausencia mental el sujeto está totalmente focalizado en algún pensamiento o preocupación que provoca una desatención respecto al resto de estímulos, excepto aquellos muy mecánicos o habituales. En este caso se produce una elevación del umbral de activación atencional para todos aquellos estímulos distractores que no sean el pensamiento o la tarea que absorbe todos los recursos. En cambio, en la laguna mental se presenta la experiencia de no recordar nada de lo realizado en un intervalo de tiempo dado, pese a que se estaba realizando una actividad determinada. La paradoja se explica porque la ejecución de dicha actividad dependía en gran parte de procesos automáticos (no atencionales), y al no ocurrir nada que demandase mayores niveles de esfuerzo o flexibilidad no ha sido necesario recurrir al procesamiento controlado (atencional). La atención selectiva podría concebirse como la capacidad para separar lo relevante de lo irrelevante. El funcionamiento correcto de esta habilidad permite, por ejemplo, atender a lo que nos cuenta un amigo en una fiesta durante cierto tiempo, pero también atender instantáneamente a la conversación que mantiene un grupo si se pronuncia en ella nuestro nombre. Desde el punto de vista psicopatológico, la incapacidad de filtraje y la distraibilidad están presentes en muchos trastornos, sin embargo, en la esquizofrenia resultan especialmente relevantes. Como veremos en el siguiente apartado, al tratar específicamente las alteraciones atencionales de este trastorno, la explicación inicial basada en el filtro bloqueado o la sobreinclusión, según los postulados del primer modelo de Broadbent, parece hoy en día superada. La atención como activación (arousal) expresa los fenómenos atencionales asociados a situaciones de estrés. En condiciones normales, cuando un

167

Atención

sujeto experimenta un estado de estrés tiende a reducir mucho el foco atencional sobre el estresor, desatendiendo a los estímulos periféricos. A medida que cambia la activación también cambia la capacidad atencional (disponibilidad de recursos cognitivos) en una relación similar a la postulada por la ley de Yerkes-Dodson (en forma de U invertida): cuando se llega a un punto intermedio de activación se produce una inflexión de la capacidad atencional, que disminuye gradualmente —si el nivel de activación sigue aumentando—, dando lugar a un déficit en el rendimiento. Por tanto, un nivel adecuado (medio) de activación ante una situación amenazante o preocupante garantiza el buen funcionamiento de la actividad atencional, y consecuentemente un procesamiento adecuado de la información que suele relacionarse con respuestas apropiadas. Cabe decir que el nivel óptimo de activación cambia con la dificultad de la conducta a realizar en cada situación. Más específicamente, el grado óptimo de activación es inversamente proporcional a esa dificultad: la ejecución correcta ante tareas difíciles requiere de un nivel menor de activación que la ejecución ante tareas fáciles. Los sujetos que padecen un estrés patológico (demasiado prolongado, con un exceso de activación, inapropiado en función de la situación...) pueden llegar a reducir demasiado la focalización atencional, y esa excesiva selectividad con la que acaban funcionando provoca un tipo de conducta claramente desadaptativo, dado que el foco atencional deviene tan estrecho que obvia información relevante para afrontar la situación con éxito (Rosselló, 1997). La atención como vigilancia se define hoy en día como la habilidad para detectar y/o identificar un estímulo objetivo (target) de aparición infrecuente e imprevista en tareas o situaciones de larga duración y relativamente repetitivas. El nivel general de vigilancia de todas las personas está afectado, entre otros factores, por el nivel de activación tónica (los ritmos circadianos determinan momentos de mayor o menor activación que repercuten en el rendimiento atencional), la personalidad (los introvertidos tiene niveles más altos de activación que los extrovertidos), los incentivos, la probabilidad de aparición de la señal, etc. Lo cierto es que, como hemos visto en el caso de la hiperactividad infantil, también en pacientes adultos con trastornos psicopatológicos se han detectado niveles inadecuados de vigilancia, especialmente bajos —como en el caso de la esquizofrenia—, aunque también se da la hipervigilancia, especialmente en casos de ansiedad generalizada o en personas especialmente vulnerables a trastornos por ansiedad (con un tipo de personalidad neurótica, según la teoría de Eysenck). Finalmente, la atención como expectativa o anticipación (preparación atencional) se refiere al hecho de que las personas nos beneficiamos claramente de la información previa a la hora de mejorar nuestra disposición atencional (attentional set), y, consecuentemente, aumentar nuestro rendimiento (véase el Capítulo 1 para una revisión conceptual del concepto de preparación atencional). Los estudios de Shakow (1962) con pacientes esquizofrénicos pusieron al descubierto que éstos, en contra de lo esperable,

168

4. Alteraciones atencionales

no se benefician de la información previa. Es como si mantuvieran una disposición fragmentada que les impidiese atender a la información relevante que previamente se les suministra, y por tanto su respuesta no es lo rápida y efectiva que cabría esperar. Este dato puede resultar fundamental, como veremos a continuación, en la explicación del déficit atencional de los esquizofrénicos. 3.3.

Los alteraciones atencionales en la esquizofrenia y otros trastornos mentales

Está claro que, tanto en una como en otra concepción psicopatológica las alteraciones atencionales están presentes en múltiples trastornos, sin embargo es en la esquizofrenia donde adquieren el papel más relevante. Como señala Ruiz-Vargas (1981; 1985; Ruiz-Vargas y Botella, 1987) muchos investigadores han considerado que el principal déficit del esquizofrénico es de naturaleza atencional. En general, la mayoría de trabajos de investigación hasta la década de los ochenta (véase la revisión de Ruiz-Vargas y Botella, 1987) concluye que la alteración de las funciones selectivas e inhibitorias de la atención son un déficit primario de la esquizofrenia. Sin embargo, ni todos los datos son coincidentes ni la explicación de los resultados (en general apoyada en la teoría del filtro bloqueador de Broadbent) es siempre satisfactoria. Una gran parte de los estudios de la atención en la esquizofrenia se centra en los efectos de la distracción. En general estos pacientes tienen problemas serios para organizar selectivamente la información entrante y, en efecto, se ven más afectados por los estímulos distractores. De todos modos, hay que tener presente algunas matizaciones: la desorganización de los esquizofrénicos es mucho más significativa cuando deben procesar simultáneamente material en más de una modalidad sensorial y, por otra parte, su rendimiento es más bajo en la modalidad visual que en la auditiva. En general estos datos, y otros basados en tareas memorísticas, señalan que los problemas de procesamiento de la información en este trastorno son proporcionales al aumento de la carga cognitiva que requieren las tareas. En las tareas de vigilancia o de atención sostenida también se han hallado de modo sistemático más problemas de rendimiento en los pacientes esquizofrénicos (Kietzman, Spring y Zubin, 1983). En este sentido las distintas versiones del test de ejecución continua han sido claves en la investigación. Por ejemplo, en estudios con pacientes esquizofrénicos adultos crónicos llevados a cabo por McGuie y Champan (por ejemplo, McGuie, 1969) se detectan muchos más errores de comisión, de omisión y latencias de respuesta más largas, especialmente si se dan dos condiciones: la presencia de estímulos distractores en el momento de realizar el test y los antecedentes de historia familiar esquizofrénica. Este último hecho, algo sor-

169

Atención

prendente, ha provocado que los resultados sobre este tipo de tareas sean considerados por algunos autores como un marcador de vulnerabilidad a la esquizofrenia (Nuechterlein y Dawson, 1984; Ruiz-Vargas y Botella, 1987). En general los estudios con pacientes en fase de remisión y poblaciones de riesgo apoyan los problemas en atención sostenida y selectiva, normalmente siempre que la tarea requiera una carga cognitiva relativamente elevada. De todos modos, como señalan Ruiz-Vargas y Botella (1987) y Baños y Belloch (1995), la explicación habitual de los resultados, atribuidos normalmente a un problema de filtraje de la información, no parece la más adecuada. El análisis pormenorizado de los estudios de los años sesenta y setenta lleva a la conclusión de que la habilidad para filtrar información sobre la base física de los estímulos es algo más lenta en los esquizofrénicos, pero no está tan alterada como se suponía. El problema puede ser más bien del filtro de selección de respuesta (selección para la acción, véanse capítulos 1 y 3), a nivel semántico y no físico. Prueba de ello es, como comentábamos antes, que los esquizofrénicos no se benefician de la información anticipatoria en pruebas de rendimiento o, por ejemplo, que en tareas de memoria serial presentan efecto de recencia (recordar los últimos ítems de la serie), que dependen de la memoria de trabajo, pero no efecto de primacía (recordar los primeros ítems de la serie) que dependen de procesos de orden superior (como el llamado control atencional supervisor). Gjerde (1983) se hizo eco de estos hechos en su teoría de la capacidad atencional, asegurando que la «atención es un recurso no específico pero limitado para el procesamiento cognitivo» (citado en Ruiz-Vargas y Botella, 1987, p. 123). Según este autor el déficit atencional de la esquizofrenia puede deberse a tres factores: un fallo a la hora de poner en marcha los recursos atencionales, una disminución (o falta total) de procesamiento de la información y una deficitaria política de distribución de los recursos cognitivos. En definitiva las tres posibilidades guardan relación directa con un problema en la activación (y desactivación) de los mecanismos del procesamiento controlado. Finalmente, y de modo mucho más breve, analizaremos la presencia de las disfunciones atencionales en los estados depresivos y de ansiedad. En el caso de la depresión, y siguiendo la revisión de Baños y Belloch (1995), se han presentado datos de peor rendimiento en tareas de vigilancia (más bien en depresivos con sintomatología psicótica), tareas de enmascaramiento (especialmente en la representación del estímulo, donde requieren más tiempo, pero no en su registro) y tareas de escucha dicótica (donde, al igual que los esquizofrénicos, parecen no utilizar correctamente la información anticipatoria). De todos modos, aún no son lo suficientemente abundantes los resultados en estudios de esta índole. Por su parte, la presencia de las alteraciones atencionales en casos de ansiedad también es relevante. Tal y como comentábamos anteriormente, en general se centran en las relaciones entre atención y activación. El excesivo

170

4. Alteraciones atencionales

estrechamiento del foco atencional en la ansiedad provoca un procesamiento distorsionado de la información que influye en el mantenimiento de las respuestas desadaptativas de miedo y malestar. Además, como ya demostraron los trabajos dentro de la teoría de la personalidad de Eysenck (Eysenck, 1992), los individuos con tendencia al neuroticismo/ansiedad difieren de los individuos con tendencia al control emocional en aspectos atencionales: los primeros tienden a una hiperselectividad atencional, que funciona de modo automático como un sesgo preatencional, propiciando la focalización en los estímulos amenazantes. En general, si bien los trastornos tratados son los más estudiados, también pueden encontrarse alteraciones atencionales en selectividad, vigilancia y oscilación en las fases maníacas de los trastornos bipolares, en los trastornos obsesivos y, especialmente, en la enfermedad de Alzheimer y las demencias seniles en general (Gelder, Gath y Mayou, 1991; Parasuramen, Greenwood y Alexandrer, 1995; Serrallonga, 1985).

4.

Conclusiones

En el presente capítulo hemos abordado las alteraciones atencionales a partir de dos áreas de aplicación clínica. En el caso de la infancia nos hemos centrado específicamente en el trastorno por déficit de atención, mientras que, en el caso de los adultos, hemos sintetizado los aspectos claves de la psicopatología atencional. En ambos casos, existe una problemática coincidente que podríamos resumir así: — El acercamiento clínico a las alteraciones atencionales presenta problemas derivados de la propia conceptualización de la atención. Se intentan definir y evaluar conductas atencionales y procesos atencionales, sin tener muy claro qué es la atención (véase apartado 6 del Capítulo 3). Fijar la mirada sobre un estímulo no garantiza el correcto funcionamiento de los procesos atencionales y, de hecho, ni siquiera está claro que puedan considerarse procesos; más bien se trata de una actividad inespecífica, carente de información, que es la base de todo el funcionamiento cognitivo y que presenta diversas propiedades. Por dicha razón, en la literatura atencional reciente se tiende a hablar más de mecanismo o sistema atencional que de procesos de atención (Tudela, 1992; García Sevilla, 1997; Rosselló, 1997). — Las disfunciones atencionales pueden ser conductas inatentivas relacionadas con otras variables internas y externas que afectan al sujeto, y también pueden ser déficit atencionales puros. La distinción ha preocupado poco a los clínicos, lo que se justifica por las dificultades que conlleva, aunque parece decisiva para la mejora de los procedimientos de intervención.

171

Atención

— La atención presenta múltiples propiedades, pero tres son especialmente relevantes desde el punto de vista clínico: la selectividad, el mantenimiento y la distribución. Tal vez la investigación se ha realizado de modo aislado y sin considerar que en los tres casos existen aspectos multicomponentes e interrelacionados. — La evaluación de la atención resulta muy conflictiva. Los clínicos infantiles han optado por medidas globales a través de entrevistas, cuestionarios y registros de observación, mientras en el caso de los adultos se han utilizado con mayor frecuencia pruebas de laboratorio (test de rendimiento continuo, tareas de escucha dicótica, etc.) (véase Capítulo 2). Tanto en un caso, como en otro, siempre ha habido problemas metodológicos por no tener claro qué propiedades atencionales se evaluaban, hasta qué punto aparecían contaminadas por el aprendizaje u otros procesos cognitivos y por no disponer de información psicométrica precisa. Por lo que respecta al trastorno por déficit atencional en la infancia hemos destacado, en principio, su dependencia del trastorno hiperactivo en general. A pesar de que todavía es una cuestión polémica, en general se acepta la distinción entre un trastorno por déficit atencional puro (TDA) y otro con hiperactividad (TDA+H). En los dos casos está claro que existen características comportamentales diferenciadas con disfunciones atencionales de amplio espectro. Sin embargo algunos autores (como Barkley, 1990; 1997) apuntan datos que sugieren que tendemos hacia una distinción más específica: en el TDA los problemas son básicamente de selectividad atencional y procesamiento de los inputs, mientras en el TDA+H son básicamente de mantenimiento de la atención. La investigación cara al futuro se centrará en conseguir instrumentos de evaluación fiables y válidos que permitan analizar esta diferencia y, de un modo más general, posibiliten el desarrollo de procedimientos de intervención más relacionados con los resultados del proceso de diagnóstico. Por lo que respecta a la psicopatología atencional en adultos, hemos destacado que siempre ha mantenido unos lazos más estrechos con los modelos experimentales. Sin embargo, la investigación psicopatológica de los trastornos atencionales también se ha visto envuelta en polémica. En primer lugar porque se ha basado en exceso en un modelo experimental ya caduco, criticado y reformulado por el mismo autor—la teoría del filtro de Broadbent (1958). En segundo lugar por haber ignorado, al menos en gran parte, los problemas de definición de la atención. Finalmente, porque los datos de los estudios clínicos (especialmente en la esquizofrenia, el trastorno más investigado) no siempre han sido coincidentes. En este sentido, es verdad que los esquizofrénicos tienen problemas de distraibilidad, de selección, de mantenimiento y de distribución de la atención, pero ello no encaja en una explicación basada en un filtraje físico de los estímulos, en un me-

172

4. Alteraciones atencionales

canismo del todo/nada, ni en un procesamiento de abajo/arriba, donde son precisamente los estímulos ambientales quienes condicionan las deficiencias atencionales. Hoy en día, como señalan Ruiz-Vargas y Botella (1987), el problema de filtraje se centra en aspectos semánticos (la información anticipatoria que se les proporciona en tareas atencionales no es utilizada de modo adaptativo). El tipo de procesamiento no depende tanto de un todo/nada como de una deficiente política de distribución de recursos: en muchos trastornos psicóticos no se utiliza adecuadamente el modo de procesamiento (automático versus controlado). Y, por último, las alteraciones atencionales aumentan en función de la carga cognitiva de las tareas y, por tanto, no siempre son fácilmente detectables. Por otra parte, las clasificaciones clásicas de los trastornos atencionales se han visto muy influidas por la psicopatología cognitiva. Así, el estudio de las alteraciones (y los fenómenos) atencionales abarca, hoy en día, las siguientes áreas: activación, concentración, selección, distribución (división atencional), cambio atencional, atención sostenida y vigilancia, expectativas (preparación), y control atencional. En la esquizofrenia se dan gran parte de estas alteraciones, especialmente problemas de concentración (focalización atencional), de selección de la estimulación relevante, de vigilancia, de expectativas/preparatoriedad y de control atencional. En la depresión y la ansiedad la investigación no es tan amplia. En la depresión con sintomatología psicótica se dan problemas en atención sostenida y selectiva, especialmente también en condiciones de preparatoriedad. En la ansiedad la influencia de la activación parece decisiva, las respuestas inadaptativas de estrés provocan un estrechamiento del foco atencional, un déficit en la capacidad para dividir la atención, un enlentecimiento del cambio atencional y una hiperselectividad de los estímulos amenazantes. En los trastornos psicóticos en general, y especialmente en las demencias seniles se observan amplias disfunciones atencionales en la línea de lo comentado respecto a la esquizofrenia. En definitiva, la investigación de las alteraciones atencionales, a pesar de que siempre ha ocupado un lugar más o menos relevante en la psicología clínica y en la psiquiatría, está todavía lejos de ofrecer un sistema conceptual y explicativo unificado. Tal vez los clínicos se han apoyado en exceso en la vieja afirmación de William James de que «todo el mundo sabe lo que es la atención» (citado en Ruiz-Vargas y Botella, 1987, p. 94) cuando la realidad ha demostrado ser muy diferente. Es hora, pues, de que el psicólogo clínico y el experimental empiecen a plantearse la posibilidad de trabajar conjuntamente.

173

Atención

Bibliografía comentada Baños, R.M., y Belloch, A. (1995): Psicopatología de la atención. En A. Belloch, B. Sandín y F. Ramos (Eds.), Manual de psicopatología (vol. 1, pp. 165-185), Madrid, McGraw-Hill. Una excelente revisión sobre el tema, con la incorporación de los avances en psicopatología cognitiva. Barkley, R.A. (1997): ADHD and the Nature of Self-Control, Nueva York, Guilford. El último manual, hasta la fecha, de uno de los mayores expertos mundiales en el trastorno por déficit atencional e hiperactividad en la infancia. En él expone su teoría neuropsicológica, vinculando la naturaleza del trastorno a disfunciones cerebrales que afectan al autocontrol y las conductas gobernadas por reglas. López Soler, C., y Garcia Sevilla, J. (1997): Problemas de atención en el niño, Madrid, Pirámide. Una obra de divulgación y para el alumno que se inicia en el tema. Amena y concisa realiza una revisión desde el punto de vista conceptual, de evaluación y tratamiento. Ruiz-Vargas, J. M., y Botella, J. (1987): Atención. En J. M. Ruiz-Vargas (Ed.): Esquizofrenia: un enfoque cognitivo (pp. 93-164), Madrid, Alianza. Un capítulo perteneciente a un manual clásico sobre la esquizofrenia que realiza una revisión extensa de la investigación en psicopatología de la atención y de su relación con los modelos experimentales. Taylor, E. A. (1991): El niño hiperactivo, Barcelona, Martínez Roca. Una traducción muy importante en su momento por la escasez de textos en castellano sobre la hiperactividad, con un capítulo dedicado a las alteraciones atencionales desde un punto de vista crítico, tanto en su conceptualización como en su evaluación. Wicks-Nelson, R., e Israel, A. C. (1997): Psicopatología del niño y del adolescente (3a.ed.), Madrid, Prentice-Hall. Un excelente manual sobre psicopatología infantil, en el que destaca el capítulo dedicado al trastorno por déficit atencional e hiperactividad. Una revisión reciente con conclusiones sobre las últimas líneas de investigación.

174

4. Alteraciones atencionales

Preguntas de revisión 1. Razona, desde el punto de vista clínico, las ventajas y desventajas de considerar que la atención no es un proceso cognitivo. 2. ¿Qué diferencia hay entre un déficit atencional y una conducta de falta de atención? 3. ¿Cuáles son las diferencias que se han hipotetizado desde el punto de vista del funcionamiento atencional entre el TDA-H y el TDA+H? 4. ¿Cuáles son los factores más implicados en la instauración de una alteración atencional? 5. El proceso de evaluación en el déficit atencional: fuentes de información, pruebas a utilizar, metodología a seguir y objetivos prioritarios. 6. ¿Cómo ha sido el tipo de relación entre los modelos experimentales atencionales y la psicopatología? 7. ¿Qué diferencias hay entre la psicopatología más clásica de la atención y la psicopatología cognitiva actual? 8. ¿En qué consisten las principales disfunciones atencionales de la esquizofrenia?

175

Segunda parte

Percepción

5. Algunas notas introductorias al estudio de la percepción José E. García-Albea

En este capítulo empezaremos por abordar algunas cuestiones claves en torno a la psicología de la percepción, de cara a determinar su ámbito de estudio y fijar el nivel explicativo que le es propio. Esto nos llevará a proponer una definición aproximativa de la percepción, tan sólo con el fin de introducir algunos conceptos básicos y establecer algunas distinciones relevantes. En la parte central del capítulo nos ocuparemos de los elementos constituyentes del hecho perceptivo, en un intento de profundizar en la naturaleza misma de la percepción. Se partirá del estímulo de la percepción, para continuar con una descripción sintética de los sistemas sensoriales, considerados como órganos de la percepción, y terminar examinando su dimensión cognitiva, que es, en definitiva, la que más importa en psicología. Para ello adoptaremos de forma decidida el enfoque predominante hoy día en el estudio de la percepción —el enfoque del procesamiento de la información—, enfoque que va a guiar de modo preferente el resto de los capítulos de este volumen.

1.

Cuestiones preliminares

El término percepción nos remite al de percibir, verbo transitivo que, como tal, requiere un objeto directo. En el uso ordinario, dichos términos tienen variadas acepciones que van desde la de recibir, tomar o hacerse cargo de

179

Percepción

algo material (se percibe dinero, el sueldo, un regalo, etc.) hasta la de captar, aprehender o tener conciencia de algo en un sentido íntimo y subjetivo (se percibe un paisaje, la gravedad de una situación, una sensación de angustia, etc.). En todos los casos está claro que, al percibir, un sujeto se sitúa en un estado en el que, de forma más o menos activa, entra en posesión de un objeto, más o menos concretado físicamente. En todos los casos se establece una determinada relación entre el sujeto perceptor y el objeto percibido, aun cuando, según las distintas acepciones, pueda haber variaciones tanto en lo que respecta al tipo de relación como al tipo de objeto. Pues bien, para concretar en qué sentido le interesa el tema de la percepción a la psicología habrá que identificar cuál es la acepción que mejor le corresponde en términos, justamente, de los dos aspectos señalados antes, el tipo de relación y el tipo de objeto. Se trata, por lo tanto, de ofrecer una respuesta mínima, enraizada en la tradición psicológica, a dos cuestiones básicas: ¿en qué consiste percibir? y ¿qué se percibe? La respuesta máxima la dará, en cada momento, el desarrollo que vaya alcanzando la disciplina científica que denominamos psicología de la percepción. La percepción le interesa a la psicología por ser, ante todo, una función mental, con múltiples manifestaciones en las capacidades y logros del individuo que tienen que ver con la detección, discriminación, comparación, reconocimiento e identificación de estímulos. Como en toda función mental, el tipo de relación entre sujeto y objeto que se establece en la percepción es bastante peculiar, más allá de lo que supondría la mera relación física de contacto por la que se entra en posesión de algo material; es lo que podríamos llamar una relación intencional, en el sentido preciso por el que se caracteriza todo acto o estado mental que tiene una referencia externa a él mismo. La intencionalidad, quizá la propiedad más básica (y, por tanto, general) que caracteriza lo mental, es también el fundamento de la distinción misma entre sujeto y objeto, como términos de una relación de alteridad que empieza por establecerse desde la propia percepción. Entre las funciones mentales que componen el mapa del psiquismo humano, la percepción ha estado ligada tradicionalmente a las funciones cognitivas más que a las conativas u orécticas (relacionadas con las pulsiones, deseos y afectos), y, dentro de las funciones cognitivas, a aquellas en las que intervienen de forma directa los sentidos corporales. Como función cognitiva que es, la percepción se caracteriza por ser una relación intencional de carácter predicativo, en la que se sustentan las llamadas creencias perceptivas y que, como es propio de todo estado cognitivo, son susceptibles de ser evaluadas en términos de verdad o falsedad. Por otra parte, y a diferencia del resto de las funciones cognitivas, la relación perceptiva presenta la característica distintiva de tener su origen en la interacción física que se da entre el medio y el organismo a través de los sentidos.

180

5. Algunas notas introductorias al estudio de la percepción

Si queremos, pues, reservar un apartado de la ciencia psicológica al estudio de la percepción, no podemos dejar de enfatizar este último aspecto distintivo de la misma, el de ser un conocimiento mediatizado por los sentidos. Lo cual tiene varias implicaciones importantes. En primer lugar, que no se reconoce otra forma de percepción que no sea la percepción sensorial; hablar de percepción extrasensorial o cosas similares sería, según esto, un auténtico contrasentido. En segundo lugar, que la percepción ocupa una posición realmente especial frente al resto de las funciones cognitivas, en la medida en que se basa directamente en la interacción física con una u otra forma de energía; en este sentido, la percepción viene a ser el punto de encuentro entre lo físico y lo mental, con las consecuencias que ello tiene a su vez para el proyecto de naturalización de la psicología. En tercer lugar, y gracias a lo anterior, la percepción puede ser considerada como el origen y la base de todo nuestro conocimiento del mundo (incluido el de uno mismo), del que se alimentan las demás funciones cognitivas y del que llegan a depender, en buena parte, las emociones, sentimientos y afectos que promueven la conducta. Nos encontramos así con que la relación de posesión (o aprehensión) que se establece en la percepción, siendo típicamente intencional, está basada en una relación física por la que una determinada forma de energía suscita la respuesta fisiológica de un determinado receptor sensorial. Esta especie de dualidad en el tipo de relación se manifiesta igualmente a la hora de caracterizar el tipo de objeto sobre el que versa la percepción. En este caso se podría utilizar, en una primera aproximación, la distinción tradicional entre objeto material y objeto formal, para referirnos, con el primero, a todo aquello que haya intervenido en la estimulación (física) de los sentidos, mientras que, con el segundo, nos referiríamos a aquellos aspectos que son significativos para el sujeto y constituyen el término de una relación intencional de conocimiento. El objeto material vendría a delimitar la extensión de lo percibido (qué se percibe) y el objeto formal se correspondería con la dimensión intensional de lo mismo (como qué se percibe aquello que se percibe). Esta distinción, que suele quedar difuminada en el lenguaje ordinario, es crucial de cara a apreciar ya desde el principio la carga psicológica que encierra el tema de la percepción y los problemas que plantea. Siempre que percibimos (vemos, oímos, olemos, etc.), percibimos algo, y siempre lo hacemos bajo algún tipo de consideración (categoría, concepto, descripción, etc.), por muy elemental y primitiva que ésta sea; al ver un árbol, puedo verlo como tal o cual árbol (un roble o un ciprés), o simplemente como un árbol, o como un bulto en el fondo del paisaje, o incluso, de forma equivocada, como una casa o como un nubarrón. La extensión está determinada por cómo es el mundo y cómo interactúa físicamente con el organismo, proporcionando el sustrato material de la percepción; la intensionalidad, en cambio, está determinada por cómo se produce en concreto la percepción, mediante qué procesos y estructuras de conocimiento,

181

Percepción

y por cómo interactúa con las otras funciones mentales y queda, en último término, provista de significación *. A la hora de proponer una definición tentativa de la percepción, que sirva para delimitar su ámbito de estudio, bastaría, pues, con indicar que nos referimos a la actividad cognitiva del organismo provocada por la presencia física del objeto y que se efectúa a través de los sentidos. Así definida, la percepción constituye un fenómeno (o conjunto de fenómenos) genuinamente psicológico y su explicación requerirá que nos situemos en el nivel de explicación funcional que es propio de la ciencia psicológica, aquél que trata de determinar las leyes intencionales que gobiernan el ejercicio de nuestras capacidades básicas para resolver problemas adaptativos. En principio, dicho nivel de explicación funcional se centra en el análisis de los logros del sistema, en las puras relaciones de causa-efecto, haciendo abstracción de la materialidad del mismo y de sus elementos constituyentes. Ello no obsta, sin embargo, para que, especialmente en el caso de la percepción, la explicación psicológica se deba construir a partir de los descubrimientos y el tipo de explicaciones que proporcionan las ciencias más básicas, en concreto aquellas a las que compete la caracterización neutral de los estímulos (la física y la química principalmente) o el estudio de los sistemas sensoriales en cuanto tales (las disciplinas biomédicas y neurofisiológicas principalmente). Estas otras ciencias, aparte de contribuir a una comprensión más global y completa de los fenómenos perceptivos, sirven precisamente, por la constatación de sus propias limitaciones explicativas, para justificar la necesidad de la explicación psicológica y acotar por abajo su campo de estudio. Se podría decir, en este sentido, que la psicología de la percepción empieza donde termina la neurofisiología sensorial, una vez que ésta ha subsumido las consecuencias de la acción física de la energía estimular sobre el organismo. En el apartado siguiente abundaremos en estos aspectos al examinar con más calma las implicaciones de la definición tentativa de la percepción que ya hemos adelantado.

* Intensionalidad e intencionalidad son dos términos que, a pesar de su indudable parentesco, no deben confundirse. Mientras que este segundo (con c) designa esa propiedad básica de lo mental por la que todo estado, proceso o representación mental está dotado de contenido o referencia, aquel primero (con s) indica el sentido, criterio o modo de presentación (como diría Fodor, 1998) en virtud del cual se establece dicha referencia. Según esto, la intensionalidad sirve para establecer el contexto opaco que caracteriza las expresiones que contienen verbos mentales (p.ej., creer, desear, temer, etc., incluidos los verbos perceptivos en el sentido descrito), y que es opaco porque no garantiza la equivalencia de las expresiones correferentes. Por ejemplo, Edipo deseaba a Iocasta no es lo mismo que Edipo deseaba a su madre, aun cuando Iocasta y su madre se refieran a la misma persona (son términos que coinciden extencionalmente pero difieren intensionalmente).

182

5. Algunas notas introductorias al estudio de la percepción

2.

La percepción, entre la sensación y la cognición

En psicología, como en toda ciencia natural, la explicación de los fenómenos viene precedida por una toma de distancia ante los mismos, siendo ésta mucho más necesaria cuanto más familiares y cotidianos resultan aquéllos. Es así, poniendo en cuestión lo que se da por hecho, o preguntándose por lo que a primera vista parece obvio, como suele avanzar el conocimiento científico. Los fenómenos ordinarios, como el de la caída de la célebre manzana de Newton, no entran en la órbita de la curiosidad científica hasta que uno deja de atribuirles carácter necesario y se plantea, entre otras cosas, si no podrían haber sucedido de otra manera. Y si esto ocurre con los fenómenos relativos al mundo externo, qué no se podrá decir de los fenómenos mucho más cercanos que competen a la experiencia interna, especialmente de aquellos que se producen habitualmente sin esfuerzo y no requieren un adiestramiento particular. La percepción es quizá el mejor ejemplo de ello. Transcurre normalmente de forma tan fácil, rápida y efectiva, sin plantear problema alguno al individuo, que cuesta advertir cuál es la razón de su estudio, qué deba explicar la psicología que no quede ya explicado, en todo caso, por las ciencias más básicas. Si tenemos un árbol delante, hay luz y no nos falla la vista, lo normal es que veamos el árbol. ¿Qué misterio hay en ello?, ¿qué es lo que hay que explicar una vez conocidos los principios que regulan la distribución de la luz y el funcionamiento de nuestro aparato visual? Podríamos hacer preguntas análogas para cualquier otro logro perceptivo, en ése mismo o en cualquiera de los otros órganos sensoriales. El punto clave para entender cuál es el tipo de problemas con que se enfrenta la psicología de la percepción es el de tomarse en serio lo que ya explican las ciencias más básicas para cuestionarse justamente lo que éstas acaban dando por supuesto. Siguiendo con el ejemplo anterior, tras la descripción precisa que quepa hacer del estímulo que impresiona nuestro receptor sensorial y de los impulsos nerviosos que llegan al cerebro, todavía cabría preguntarse: ¿en qué consiste precisamente ver un árbol, reconocer una melodía o descubrir el olor del azahar? En último término, se trata de saber cómo se las arregla el organismo para obtener información (conocimiento) acerca del mundo (objetos, propiedades, eventos, etc.) a partir del patrón de energía que incide sobre (y al que reaccionan) los sentidos corporales. Lo verdaderamente admirable y sorprendente del fenómeno de la percepción no es tanto, con ser mucho, que nuestros receptores sensoriales respondan de forma tan especializada a los distintos tipos de energía del medio o la orquestación de impulsos nerviosos a que da lugar dicha estimulación en el acto de percibir; lo admirable y sorprendente es que un organismo como el nuestro y, en buena medida, el de otras muchas especies sea capaz de convertir esa interacción energética en una transacción informativa, en conocimiento y experiencia, en la aprehensión —de una forma vicaria, intencional— de los objetos, propiedades, eventos, etc., del mundo que

183

Percepción

nos rodea. Aprehensión intencional que nos permitirá después referirnos a esos mismos aspectos de la realidad aun cuando ya no estén físicamente presentes. La mejor manera de valorar el problema fundamental con que se enfrenta la psicología de la percepción es mediante la constatación de que la percepción es también, en sí misma, un problema para el organismo, aun cuando, como señalábamos antes, éste lo resuelva normalmente con extrema facilidad y sin hacerse problema de ello. La psicología de la percepción tiene así como labor principal desentrañar los términos del problema (o problemas) que afronta el organismo al percibir y dar cuenta de cómo y con qué grado de efectividad lo(s) resuelve. 2.1

El estímulo de la percepción

Una forma clásica (al menos desde los empiristas ingleses del s. XVIII) de describir el problema de la percepción es a través de la distinción entre las dos facetas o modalidades que cabe considerar en el estímulo perceptivo, denominadas estimulación proximal y estimulación distal. El estímulo o estimulación proximal consiste en el patrón concreto de energía que actúa directamente sobre un receptor sensorial (o conjunto de receptores); produce, pues, un efecto físico/químico inmediato en el receptor, al que corresponde éste con una reacción físico/química determinada. El estímulo o estimulación distal es aquel aspecto de la realidad circundante (objeto, propiedad, evento o situación) que, de alguna manera, participa en la génesis del estímulo proximal y que, sin necesidad de actuar directamente sobre el receptor, se acaba convirtiendo en el referente del acto perceptivo. Cuando veo el árbol, éste es el estímulo distal, mientras que la luz reflejada por su superficie, tal como incide en los fotorreceptores de la retina, es el estímulo proximal. La situación con la que se enfrenta el sujeto al percibir es la de que, por una parte, necesita el estímulo proximal como condición sine qua non de su acto perceptivo y, por otra, que aquello que termina percibiendo no es precisamente ese estímulo proximal, sino el estímulo distal. Como ha señalado James Gibson repetidamente, vemos gracias a la luz (y a la integridad de nuestros fotorreceptores), vemos en todo caso por medio de la luz, pero lo que finalmente vemos no es la luz en sí misma, ni tan siquiera el efecto que ésta produce en nuestra retina; vemos objetos, lugares, eventos y, en general, las propiedades invariantes que subyacen al flujo cambiante del patrón óptico (Gibson, 1966, 1979). De acuerdo con la distinción entre estimulación proximal y distal, la tarea que tiene por delante el sujeto es justamente la de dar con el estímulo distal a partir del estímulo proximal. En principio, dicha tarea podría resultar relativamente simple, siempre y cuando se diera una correspondencia biunívoca completa (es decir, una correlación perfecta) entre los dos tipos

184

5. Algunas notas introductorias al estudio de la percepción

de estimulación; en definitiva, siempre que el estímulo proximal, punto de partida inexcusable de la percepción, determinara necesaria y exhaustivamente cuál es el estímulo distal al que está ligado (y fuera, por tanto, no sólo condición necesaria sino también suficiente para la detección de éste). Lo que ocurre es que esto no es así en la gran mayoría de los casos. El estímulo proximal es típicamente indeterminado con respecto al estímulo distal, lo cual se manifiesta en la falta de correspondencia que se da entre ambos siempre que un mismo estímulo proximal pueda estar ligado a más de un estímulo distal o viceversa, cuando el mismo estímulo distal quede ligado a dos o más estímulos proximales diferentes. Tomando como ejemplo la percepción visual del tamaño de los objetos, la primera situación queda ilustrada en la Figura 5.1a, donde dos objetos de diferente tamaño provocan la misma estimulación proximal (en cuanto al tamaño de la proyección retiniana), mientras que la situación contraria se ilustra en la Figura 5.1b, donde a un mismo objeto, situado a diferentes distancias, le corresponden estímulos proximales diferentes. Lo curioso de todo, en ambos casos, es que, a pesar de esta indeterminación, nuestra percepción de las propiedades distales tiende a ser bastante consistente y, en la mayoría de las ocasiones, ajustada a la realidad. En los ejemplos anteriores, el sujeto tiende a ver de diferente tamaño los dos objetos aun cuando den lugar al mismo estímulo proximal (1a) y, por otro lado, tiende a mantener constante el tamaño del objeto situado a diferentes distancias (1b), dentro de un rango de distancias determinado (véase el Capítulo 11 de este volumen para un desarrollo más específico de estos puntos). La consecuencia natural que se sigue de esa indeterminación es la de que el estímulo proximal, siendo necesario, no es suficiente para la aprehensión consistente del estímulo distal *. Es preciso recurrir a algún tipo de meca* En relación con ello, y aunque sea de pasada, conviene hacer un par de observaciones. En primer lugar, que el carácter consistente que atribuimos a la percepción no lo tomamos como un requisito a priori que se imponga sobre la misma de forma necesaria, sino como un dato empírico de la fenomenología perceptiva más elemental y, por lo tanto, como algo asumido de forma contingente (podría no haber sido consistente y haber quedado sometida a todas las fluctuaciones de la estimulación proximal, pero resulta que no es así). Y en segundo lugar, que la consistencia con que se manifiesta la percepción no debe confundirse con su carácter verídico. La consistencia se refiere más bien a la sistematicidad con que se atribuyen las propiedades distales y se siguen determinadas pautas perceptivas que, en principio, podrían estar implicadas tanto en la percepción verídica como en la errónea (constancias e ilusiones perceptivas); por su parte, el carácter verídico de la percepción hace referencia al grado de ajuste con la realidad y al valor epistémico (de verdad o falsedad) que, por tanto, cabe atribuir a los juicios perceptivos. También aquí, el que nuestra percepción resulte ser muchas veces verídica debe ser entendido de modo contingente, como se encarga de mostrarlo la incidencia, relativamente frecuente, de las ilusiones perceptivas. Para un mayor desarrollo de estos puntos, véase el Capítulo 6 de García-Albea (1993).

185

Percepción

a

b Figura 5.1 Se ilustra la falta de correspondencia entre el estímulo proximal y el estímulo distal. En a, dos estímulos distales de diferente tamaño dan lugar a una proyección retinianas (estímulo proximal) del mismo tamaño. En b, un mismo estímulo distal da lugar a dos proyecciones retinianas (estímulos proximales) de diferente tamaño.

nismo adicional al de la propia sensación que permita trascender la estimulación proximal. Tradicionalmente, dicho mecanismo se ha venido a concebir como un mecanismo de inferencias inconscientes (Helmholtz, 1866), bien de carácter probabilístico (Brunswick, 1956) o bien basado en principios de formación y comprobación de hipótesis (Bruner, 1973). En cualquier caso, baste de momento con indicar que se trata de un mecanismo cognitivo dedicado a resolver un problema complejo de cálculo que tiene claras repercusiones adaptativas: el problema de cómo obtener información fiable del medio a partir de una estimulación (proximal) generalmente insuficiente e inestable; o como gustaba de glosar al propio Gibson (1966), el problema de cómo pasar del caos de sensaciones al cosmos percibido. 2.2

Los órganos de la percepción

Además de la presencia física del objeto, la percepción requiere la intervención directa de los sentidos. En realidad, estas dos características, incluidas en la definición tentativa que proponíamos de la percepción, van estrechamente ligadas. La presencia física del objeto es efectiva para la percepción en la medida que el sujeto dispone del equipamiento indispensable para ac-

186

5. Algunas notas introductorias al estudio de la percepción

ceder a dicho objeto. Desde la perspectiva del objeto, podríamos decir que éste se hace accesible a través de la estimulación proximal. Ahora bien, ésta no se produce en el vacío, sino que, como ya hemos indicado, va seguida de una respuesta sensorial. Ambos términos son correlativos. A continuación, haremos un breve repaso de los sistemas encargados de la respuesta sensorial, con el fin de apreciar una vez más, ahora desde la perspectiva del sujeto/organismo que percibe, cuál es la naturaleza de los logros perceptivos. A partir de la estimulación proximal, el relato de lo que ocurre al percibir un objeto, en términos estrictamente neurofisiológicos, es suficientemente bien conocido en la mayoría de los casos. De forma muy resumida, y volviendo al ejemplo de la visión, lo que ocurre es que la energía luminosa del patrón óptico que llega a la retina produce unos determinados efectos químicos en las células de la misma —los fotorreceptores (conos y bastones)—, efectos que van a extenderse, de una forma peculiar, a las neuronas conectadas a dichos receptores y que formarán el nervio óptico. Por él se transmite la estimulación en forma de impulsos eléctricos que se propagan de unas neuronas a otras mediante los procesos bioquímicos que se generan en las terminaciones sinápticas. De esta forma, los impulsos nerviosos alcanzan la corteza cerebral, en zonas donde se establecen distintos tipos de conexiones entre unas neuronas y otras, cuya activación selectiva va a determinar el tipo y la magnitud de la experiencia consciente que suele acompañar a la aprehensión intencional del objeto. En términos más o menos parecidos, este relato se podría aplicar a cualquiera de las otras modalidades perceptivas, dejando para la disciplina de la neurofisiología sensorial la tarea de completar los detalles de dicho relato y sus variantes. Aquí procederemos simplemente a destacar los rasgos generales que son comunes a todos los sistemas sensoriales, para pasar después a considerar la clasificación de los mismos, según los rasgos específicos que son propios de cada sistema sensorial. Cuando se habla de los sentidos corporales, o de los órganos de los sentidos, se suele pensar solamente en lo que es el receptor periférico donde llega la estimulación, sin tener en cuenta que éste no es sino uno de los elementos integrantes de lo que constituye un auténtico sistema organizado, responsable, todo él, de la experiencia perceptiva. De ahí que prefiramos hablar de sistemas sensoriales y los consideremos en su integridad como los genuinos órganos de la percepción. En todo sistema sensorial se pueden distinguir tres componentes principales: los receptores sensoriales propiamente dichos, las vías aferentes de transmisión nerviosa y las áreas de proyección cortical. En cuanto a su morfología, los primeros pueden ser o bien estructuras celulares diferenciadas (respecto al sistema nervioso), o bien terminaciones nerviosas libres; el segundo componente viene dado por el conjunto de neuronas que dirigen sus ramificaciones desde los receptores hasta la corteza cerebral, con varias

187

Percepción

estaciones intermedias de una mayor interconectividad; el tercer componente está constituido por las agrupaciones neuronales de la corteza cerebral, conectadas de forma más o menos directa con las vías aferentes correspondientes a cada modalidad sensorial, y conectadas también entre sí en las denominadas áreas de asociación. Los tres componentes anteriores también se distinguen, y de modo principal, por sus funciones. Es importante entender bien lo más esencial de cada una de ellas, desde el punto de vista neurofisiológico que ahora mantenemos, para acabar entendiendo su relevancia psicológica de cara a la percepción. Veamos a continuación cuáles son estas funciones principales, representadas en la Figura 5.2.

Energía estimular

Transducción

Transducción

RECEPTORES RECEPTORES SENSORIALES SENSORIALES

Figura 5.2

Transmisión

Transmisión

VÍAS VÍAS AFERENTES AFERENTES

Integración Integración ee Interacción Interacción

Respuesta sensorial

AREAS ÁREAS CORTICALES CORTICALES

Componentes principales de todo sistema sensorial (nivel de implementación física).

La función clave de los receptores sensoriales es la transducción sensorial o conversión de la energía física del estímulo en señales eléctricas del sistema nervioso. Dicha función no es sino la consecuencia de la posición de interfaz que ocupan los receptores e implica al menos dos cosas: por un lado, que el receptor responde de forma selectiva a determinadas propiedades de la estimulación (es sensible a un tipo o patrón específico de energía); y por otro lado, que su propia respuesta contribuye a generar el tipo de señales que caracterizan al impulso nervioso. Como es sabido, las neuronas tienen la propiedad distintiva de responder a los agentes externos mediante cambios en el potencial eléctrico de su membrana (por el mecanismo conocido como bomba de sodio-potasio) que inducen, a su vez, cambios en el potencial de reposo del cuerpo neuronal. Así se genera el llamado potencial de acción que se va a transmitir a lo largo del axón de la neurona en forma de descargas eléctricas de una determinada intensidad y frecuencia. La transducción es, por lo tanto, un proceso físico/fisiológico por el que se transforma un tipo de energía en otro, se transforma la energía estimular en aquella con la que trabaja el sistema nervioso. La función obvia de las vías aferentes no puede ser otra que la transmisión del impulso nervioso de unas neuronas a otras mediante las sucesivas sinapsis. Una vez que la estimulación de origen ha sido codificada en términos de las señales eléctricas que viajan a lo largo de cada neurona, éstas provocan la segregación de determinadas sustancias químicas (los neurotransmisores) por parte de las vesículas situadas en el extremo del axón.

188

5. Algunas notas introductorias al estudio de la percepción

Dichas sustancias van a actuar de forma selectiva sobre la membrana de la neurona vecina, produciendo efectos en ésta que pueden ser excitatorios o inhibitorios, según el sentido de los cambios que se den en su potencial de reposo. El entramado global de conexiones que se produce a lo largo de las vías aferentes (y en la propia corteza cerebral) servirá, en último término, para codificar aspectos tanto cuantitativos como cualitativos de la estimulación que puedan quedar reflejados en las correspondientes variaciones de la experiencia perceptiva. En el trayecto que va de los receptores sensoriales a la corteza cerebral se suelen distinguir segmentos donde predominan las prolongaciones neuronales (sustancia blanca) y zonas donde hay una mayor concentración de cuerpos neuronales (sustancia gris) y, por lo mismo, de conexiones interneurales; estas últimas tienden a ocurrir a la salida de los receptores, en determinados núcleos talámicos y, por supuesto, al llegar a la corteza cerebral. Conviene además advertir que la disposición topográfica de las vías aferentes tiende a seguir, al menos parcialmente, un sentido contralateral, dirigiéndose hacia el hemisferio cerebral del lado contrario a aquel en que se situaban los receptores sensoriales. Las áreas de proyección cortical desempeñan un papel determinante de cara al completamiento de la actividad sensorial y, consiguientemente, respecto a sus efectos en la experiencia perceptiva. Desde un punto de vista estrictamente neurofisiológico, la función de estas áreas abarca dos aspectos principales: la integración de los impulsos nerviosos procedentes de un mismo conjunto de receptores y la interacción de unas áreas con otras, posibilitando así la comunicación entre modalidades sensoriales diferentes y la formación de agrupaciones neuronales de rango superior; de estas últimas dependerán los fenómenos referidos como de percepción multimodal o supramodal y otros logros perceptivos considerados de alto nivel. De acuerdo con ello, se suele diferenciar entre áreas de proyección primaria, áreas de proyección secundaria y áreas de asociación, según el nexo más o menos directo que tengan con la fuente específica de estimulación y, por lo mismo, con el sistema de receptores implicado en cada caso. Respecto a ello, y teniendo en cuenta cómo llega codificado el estímulo a la corteza cerebral, se suele diferenciar también entre la información epicrítica, más precisa, que llega a las áreas primarias y la protopática, más difusa, que corresponde a las secundarias y a las de asociación. A la hora de determinar cuántos y cuáles son los sistemas sensoriales, es preciso señalar que se trata, ante todo, de una cuestión empírica, abierta a distintas soluciones posibles. Para identificar un sistema sensorial como tal, y como distinto de otros, habrá que recurrir a la evidencia tanto neurofisiológica como psicofísica y conductual que nos permita comprobar al menos estas tres cosas: a) que se da un tipo específico de energía al que responde un tipo particular de receptores; b) que dichos receptores se integran en una estructura neural determinada; y c) que la interacción física de esa energía estimular con el supuesto sistema sensorial tiene consecuencias perceptivas.

189

Percepción

Según el origen de la estimulación y el tipo de receptores implicados, los sistemas sensoriales se suelen distribuir en tres clases principales: interoceptivos, propioceptivos y exteroceptivos. En los dos primeros la estimulación procede del propio cuerpo, diferenciándose entre sí por el tipo de órganos donde se ubican los receptores, mientras que en los últimos la estimulación es de origen externo y los receptores se encuentran dispuestos de forma más periférica. Conviene observar que en todos ellos sigue siendo pertinente la distinción técnica entre estimulación proximal y distal, aun cuando la separación física de esta última respecto al receptor (y, en general, respecto al sujeto que percibe) pueda variar de unos sistemas a otros. Los sistemas interoceptivos tienen situados sus receptores internamente, en órganos ligados a las funciones vitales más prominentes (vísceras, glándulas, etc.); proporcionan información de carácter más bien difuso sobre el estado general de dichos órganos, que tiene que ver sobre todo con el dolor y el placer. Constituyen auténticos sistemas de alerta ante los cambios internos del organismo y tienen una incidencia obvia muy importante en el desarrollo y control de los estados emocionales. Con respecto a los sistemas propioceptivos, se ha de distinguir entre el sistema cinestésico y el sistema vestibular. El primero vuelve a ser un sistema generalizado que extiende sus receptores por los distintos tipos de articulaciones (músculos, tendones, etc.), proporcionando información sobre la estructura, localización y movimiento de las distintas partes del cuerpo; tiene por ello un papel destacado en los procesos de monitorización perceptiva requeridos para la coordinación sensomotora. Por su parte, el sistema vestibular se asienta en un conjunto de receptores específicos alojados ya en un órgano particular y bien diferenciado: los canales semicirculares que se encuentran en los vestíbulos del oído interno. Forman una estructura próxima y comparable a la cóclea (órgano de los receptores auditivos), aun cuando nada tengan que ver con la audición y dispongan de sus propias vías aferentes (el nervio vestibular). Su función es la de aportar información sobre los movimientos rotatorios de la cabeza, cumpliendo un papel decisivo en la monitorización de dichos movimientos y en el ajuste entre éstos y los movimientos oculares (con repercusión directa en algunos aspectos de la visión); en relación con ello, el sistema vestibular está especialmente implicado en los estados de desequilibrio (sensación de mareo) que puedan resultar de la intensidad de esos movimientos. Por último, los sistemas exteroceptivos se corresponden, en líneas generales, con los cinco sentidos clásicos y son los que nos ponen en contacto informativo con el mundo exterior *. Dado que en este volumen se dedica

* Obsérvese que también nuestro cuerpo puede ser objeto perceptivo (como parte del mundo exterior) a través de estos sentidos, si bien de una manera muy distinta a como

190

5. Algunas notas introductorias al estudio de la percepción

al menos un capítulo a cada uno de ellos, nos conformaremos aquí con reseñarlos brevemente. El sistema háptico (tradicionalmente, el sentido del tacto) está constituido por distintos tipos de receptores distribuidos por toda la piel y situados en la capa dérmica (por debajo de la epidermis). La distribución es desigual, dándose mayor densidad de receptores en unas partes del cuerpo (p.ej., las yemas de los dedos) que en otras (p.ej., la espalda); ello tiene su correlato en el número de fibras nerviosas que proceden de unas u otras y en el tamaño de las áreas corticales de proyección correspondientes, agrupadas en lo que se conoce como el córtex somatoestésico. Dentro del sistema háptico, cabe distinguir lo que parecen ser cuatro subsistemas diferentes, atendiendo principalmente al tipo de receptores, a las formas de codificación neural y a las cualidades perceptivas básicas con las que están relacionados: presión, frío, calor y dolor. El sistema gustativo y el sistema olfativo vienen a considerarse como los sentidos químicos por excelencia, debido básicamente a la naturaleza del estímulo proximal —sustancias disueltas en agua o suspendidas en el aire, respectivamente— ante el que reaccionan los receptores correspondientes. El sistema gustativo consta de un amplio conjunto de receptores que conforman los botones gustativos (en torno a diez mil), situados en la lengua y algunas zonas colindantes de la cavidad bucal. De ellos parten las fibras nerviosas que, a través del bulbo raquídeo, se dirigirán al córtex pasando por el tálamo. El sistema olfativo contiene como órgano receptor el epitelio olfativo, alojado en el fondo de la cavidad nasal y compuesto por numerosas células ciliares que conectan con las fibras nerviosas que van a parar al bulbo olfativo, estructura bien diferenciada del paleocórtex que conecta, a su vez, con determinados núcleos subcorticales (entre ellos, los talámicos) y, de forma bastante difusa, con algunas zonas corticales (en la parte inferior de los lóbulos frontal y occipital). Finalmente, hay que referirse a los dos sentidos de mayor incidencia en el desarrollo cognitivo humano y que, no en vano, han ocupado el núcleo central de los tratados sobre percepción (como así se refleja también en este volumen): el sistema auditivo y el sistema visual. En el sistema auditivo, el estímulo proximal está constituido por ondas de presión acústica que, tras ser moduladas por distintas estructuras intermedias, terminan alterando mecánicamente el estado de las células ciliares alojadas en el interior de la cóclea. Éstas son las responsables de la transducción sensorial y, por lo mismo, de los impulsos que transmitirán las fibras del nervio auditivo hasta las

lo era respecto a los sistemas anteriores. La diferencia principal estriba en que, en los sistemas exteroceptivos, los receptores son estimulados por energía externa al organismo, mientras que en los intero y propioceptivos, se trata de energía producida internamente.

191

Percepción

áreas de proyección correspondientes, situadas en los lóbulos temporales de ambos hemisferios cerebrales. Por lo que respecta al sistema visual, ya hemos aludido con anterioridad al papel de los fotorreceptores de la retina en la transducción sensorial de la energía luminosa. Cada retina está formada por unos cien millones de bastones y unos seis millones de conos, bien diferenciados en cuanto a su morfología, tipos de pigmentos de que constan, distribución, propiedades funcionales y conectividad neuronal. De cada retina arranca el nervio óptico que, tras un cruzamiento parcial de hemisferio cerebral, y tras el relevo talámico correspondiente, se proyecta en el área de proyección visual, situada en lóbulo occipital, en torno a la fisura que separa los dos hemisferios cerebrales. 2.3

Percepción y cognición

Tomarse en serio el relato neurofisiológico de la actividad sensorial de cara a explicar la percepción implica, como mínimo, dos cosas: una, que la actividad sensorial es condición necesaria de la percepción y mantiene con ella, por tanto, una determinada relación causal; y dos, que dicha relación causal no se limita al hecho de que la actividad sensorial constituya la implementación física de la actividad perceptiva, sino que además implica una cierta forma de conexión informativa por la que, en principio, se podría trazar el parentesco entre el output perceptivo y el input sensorial. El primer punto ya ha sido sobradamente tratado en los apartados anteriores, desde que acotamos el ámbito de la percepción, restringiéndolo a la percepción sensorial, hasta llegar a considerar los sistemas sensoriales como auténticos órganos de la percepción. Quizá sólo convenga añadir que la actividad sensorial es causa de la percepción en el mismo sentido en que decimos que el cerebro es el órgano de la mente o que un determinado mecanismo cerebral está implicado en una determinada función psicológica. De acuerdo con ello, y como hemos expuesto en otras ocasiones (GarcíaAlbea, 1986, 1993), parece justificado reservar el término sensación para designar la actividad sensorial y entender la distinción entre sensación y percepción en términos de distintos niveles de agregación (o abstracción) a los que corresponden distintos niveles de explicación. En este sentido, la sensación constituiría la implementación física de la percepción, sin que ello suponga la reducción de ésta a aquélla o la eliminación explicativa de ésta por aquélla. Ahora bien, ello no supone, por ir al otro extremo, que debamos limitarnos a considerarlas como dos compartimentos estancos. Lo que se plantea en el segundo punto antes enunciado es, precisamente, la posibilidad de establecer un nexo causal entre sensación y percepción que vaya más allá de la mera implementación física y se adentre en el territorio de la explicación funcional de los logros perceptivos. En último término, se trata de enfren-

192

5. Algunas notas introductorias al estudio de la percepción

tarse con la cuestión capital de cómo es posible que un sistema físico, en interacción física con su medio, acabe obteniendo información (conocimiento, experiencia, etc.) acerca del mismo. En principio, se podría responder de forma expeditiva a esta cuestión, ateniéndose a la separación entre los dos niveles de explicación y manteniendo una especie de paralelismo psicofísico que, como mucho, sólo estuviera dispuesto a admitir una solución emergentista de compromiso: la sensación es condición necesaria para la percepción, pero sin que haya conexión informativa entre los resultados de una y otra. Esta sería la postura mantenida por Gibson (1979) con su teoría de la extracción directa de la información. Frente a esta opción, queda la posibilidad de responder de forma algo menos elusiva a la cuestión planteada, en un intento de aproximación naturalista a la percepción y sus logros, tal y como exponemos a continuación. Desde el punto de vista neurofisiológico, la respuesta de los sistemas sensoriales se expresa en la codificación neural del estímulo proximal, gracias al mecanismo de transducción y a las modulaciones que puedan afectar a la transmisión del impulso nervioso, en virtud del tipo y número de conexiones (excitatorias o inhibitorias) que jalonen su recorrido hasta las áreas de proyección correspondientes. Para que dicha codificación neural tenga efectos perceptivos —y, por tanto, psicológicos— es preciso postular un nuevo tipo de codificación con dos características principales: a) que los eventos neurales acaben constituyendo símbolos o representaciones de primer orden con respecto a las propiedades relevantes de la estimulación; y b) que dichas representaciones primarias sean utilizadas como la gran base de datos sobre la que actúen los procesos perceptivos propiamente dichos. En realidad se trata de una forma de codificación que es ya típicamente simbólica, aun cuando está directamente ligada (referida a) las propiedades físicas concretas de la estimulación proximal que ponen en marcha la actividad neural. En este sentido, y con el fin de pasar de la codificación puramente física de la actividad neural a una codificación que tenga valor simbólico y sea, por ello, susceptible del tipo de operaciones formales que caracterizan el procesamiento de la información, es importante introducir aquí el concepto de transducción funcional (Pylyshyn, 1984; García-Albea, 1991). La idea es que de todas las particularidades que pueden presentar las transacciones físicas entre el medio y el organismo a través de los sentidos, no todas son necesariamente relevantes de cara al resultado perceptivo; la transducción funcional no sería otra cosa que el dispositivo (o la función, valga aquí la redundancia) que nos permite delimitar el subconjunto de las transacciones físicas perceptivamente (psicológicamente) relevantes. Como recalca suficientemente Pylyshyn (1984), la transducción funcional sigue siendo, en sí misma, una operación física y no simbólica, como proyección de la transducción sensorial que tiene lugar en los receptores. Ahora bien, a diferencia de ésta —que, según describíamos más arriba, es un puro proceso neu-

193

Percepción

rofisiológico que transforma una forma de energía física en otra—, lo que vendría a hacer la transducción funcional es transformar una serie de eventos físicos (implicados en la propia transducción sensorial) en elementos simbólicos, dotándolos así de contenido informativo. La transducción funcional es una operación física y no simbólica que, sin embargo, produce símbolos. Constituiría una función primitiva de la arquitectura mental, ligada directamente al estímulo y que, de entrada, operaría de forma independiente del sistema cognitivo. En definitiva, lo que le proporciona la transducción funcional al sistema perceptivo son los datos directamente obtenidos de la estimulación. En la medida en que estos datos van a ser objeto de un tratamiento informativo por los mecanismos cognitivos de la percepción, podemos considerarlos ya como una auténtica representación del estímulo; representación que, al estar ligada a las propiedades proximales de éste, denominaremos representación proximal y tomaremos como el input propiamente dicho del sistema perceptivo. Justamente la función de este último será la de pasar de esta representación proximal a la representación distal, la cual nos va a remitir ya al objeto (propiedades, eventos, etc.) finalmente percibido(s). La percepción es así una actividad cognitiva en cuanto que transforma un tipo de representación en otra a través de una o más operaciones intermedias de procesamiento de información. De este modo es como se aborda la tarea de hacer corresponder la estimulación proximal con la distal (véase el apartado 5.2.1) y se convierte esta última en el referente del acto perceptivo; no por la extracción directa que defendía Gibson (1979) en su enfoque ecológico de la percepción, sino por procesos mediados por representaciones, como propone la tradición cognitiva, consolidada en el enfoque del procesamiento de la información (Fodor y Pylyshyn, 1981; Marr, 1980, 1982; García-Albea, 1991). Obsérvese que se postulan dichos procesos en la medida en que la representación distal no coincide con la proximal, y ello es aplicable a propiedades tan elementales de los objetos como el tamaño, la forma, el color o el movimiento (e incluso su propio carácter de objeto) y, en general, a cualquier rasgo percibido que no venga dado directa y explícitamente en dicha representación proximal. Esto es lo que propone David Marr, por ejemplo, en las primeras fases del procesamiento visual, donde se parte de una representación primitiva como la matriz de niveles de gris (en la que se especifica sólo aquello —el patrón de luminancias— a lo que responden directamente los receptores sensoriales) y se van introduciendo operaciones (o cálculos) que permiten derivar los bordes, contornos, orientaciones y demás características que configuran la forma y el volumen percibidos de un objeto. Por lo demás, y en relación con la teoría de Gibson, esta manera de entender la percepción permite constreñir de modo suficiente la noción de extracción directa y evitar así la trivialización del problema perceptivo en que, como bien señalan Fodor y Pylyshyn (1981), incurría el propio Gibson. Lo que se captaría directamente del medio sería

194

5. Algunas notas introductorias al estudio de la percepción

todo aquello que es objeto de la transducción funcional y estuviera, por tanto, incluido en la representación proximal del estímulo. El resto, es decir, lo que finalmente percibimos y está de alguna forma incluido en la representación distal, no sería ya el resultado de una captación directa sino de procesos de inferencia (de cómputo interno, categorización, etc.). Es, en este sentido, en el que la percepción se manifiesta como una actividad cognitiva genuina, con todos los requisitos para ser considerada como una auténtica actividad computacional (Marr, 1982). Por otra parte, lo específico de la percepción, frente al resto de la cognición (o cognición de orden superior), es que a) su punto de partida son los datos sensoriales y b) sus operaciones están inicialmente guiadas por estos datos, de cara a hacer explícita y determinada la información que, sólo potencialmente y de un modo generalmente indeterminado, contienen sobre las propiedades relevantes del medio. Esas operaciones guiadas por los datos, propias de los llamados procesos de-abajo-arriba (bottom-up), tienden a ser automáticas, rápidas y eficaces, y restringidas por el tipo específico de información que utilizan para tratar los datos y hacer inferencias; es fácil suponer que tienden también a ser básicamente inconscientes y relativamente susceptibles de ser efectuadas en paralelo. Contrastan, por ello, con las operaciones guiadas cognitivamente o procesos de-arriba-abajo (topdown), que tienden a mostrar las características opuestas y disponen, en principio, de toda la información procedente del sistema cognitivo general. Las operaciones de este último tipo también contribuirán, sin duda, al resultado perceptivo final, integrándolo en dicho sistema general de conocimiento —como se integra la información nueva con la información dada— y haciéndolo servir para el procesamiento cognitivo ulterior. La distinción entre estos dos tipos de procesos es crucial para entender las etapas que atraviesa la actividad perceptiva. Ello no quiere decir que dichas etapas estén perfectamente delimitadas y se ordenen de forma estrictamente secuencial. Ya asumimos que, al final, la percepción es el resultado de la interacción de ambos tipos de procesos. Ahora bien, es igualmente importante establecer cuáles son los límites y las restricciones que operan sobre dicha interacción; o expresado en otros términos, hasta dónde llega la influencia de los procesos top down en la percepción y, complementariamente, cuál es el grado de impenetrabilidad cognitiva de la misma (Pylyshyn, 1984). Dejando claro que estamos ante una cuestión enteramente empírica, objeto preferente de una buena parte de la investigación actual, se trata, en último término, de encontrar la forma en que el organismo compagina estas dos facetas de su actividad perceptiva: el que, por una parte, ésta se mantenga ligada al estímulo y constituya una adquisición efectiva de información sobre el medio; y el que, por otra parte, establezca contacto con lo que ya se conoce y se vea beneficiada por la experiencia anterior. Así pues, se podría decir que las relaciones entre percepción y cognición están sometidas a una especie de tensión dialéctica. Con todo el énfasis que

195

Percepción

se quiera poner en considerar la percepción en continuidad con la cognición (como hacían, por ejemplo, Bruner y los psicólogos del New Look en los años cincuenta), debemos igualmente insistir en lo que es la marca distintiva de la percepción frente al resto de la cognición, su dependencia del dato sensorial. El célebre ensayo de Jerry Fodor titulado La modularidad de la mente (1983) propone precisamente, entre sus objetivos principales, desarrollar los criterios y el tipo de pruebas que permitan establecer esa demarcación, en términos de la distinción entre los sistemas de entrada, de carácter modular, y los sistemas centrales, de carácter holístico e interactivo. Ambos tipos de sistemas intervienen en la percepción, pero en distintos momentos y con respecto a distintos logros cognitivos. Los primeros se encargarían fundamentalmente de los procesos básicos del análisis perceptivo, serían específicos de dominio y estarían informativamente encapsulados, además de caracterizarse por su rapidez, eficiencia, obligatoriedad, etc. El output de los mismos equivaldría a lo que hemos denominado representación distal, que, trascendiendo las particularidades concretas de la representación proximal de la que se deriva, tendría todavía un carácter relativamente superficial, alejado de los niveles cognitivos superiores del reconocimiento, la identificación o la interpretación. Asimismo, este output del análisis perceptivo vendría a ser el input de los sistemas centrales, cuyos procesos, sensibles a todo tipo de información, estarían encargados ya de la fijación de las creencias perceptivas. Es así como la intervención del sistema cognitivo general afectaría principalmente a las fases posteriores de la actividad perceptiva, en las que ésta alcanza las cotas máximas de la cognición, entendida como relación predicativa (epistémica, intensional, etc.) con el mundo. En la formación de creencias perceptivas es donde las representaciones distales interactúan con los outputs de otros módulos perceptivos y con la información almacenada en memoria, proyectándose así la percepción hacia los niveles superiores del reconocimiento, la identificación y la interpretación. Finalmente, y conforme los resultados del análisis perceptivo entran en el dominio de los sistemas centrales, van también adquiriendo la cualidad de ser conscientes. Y ello en un doble sentido: en el sentido funcional de que dichos resultados se tornan disponibles en la memoria de trabajo para ser utilizados en procesos ulteriores de razonamiento, planificación, lenguaje, etc.; y en el sentido fenomenológico de la experiencia vivida, con todas las cualidades subjetivas e irrepetibles que acompañan a cada acto perceptivo (Bock, 1995, para abundar más en las implicaciones de esta distinción entre conciencia funcional o de acceso y la conciencia fenomenológica). A modo de compendio y resumen de lo expuesto en este apartado, en la Figura 5.3 quedan ilustrados los distintos componentes de la actividad perceptiva, ordenados de acuerdo con la perspectiva del procesamiento de la información.

196

5. Algunas notas introductorias al estudio de la percepción Creencias perceptivas

SISTEMA COGNITIVO GENERAL

Experiencia fenoménica

Representación distal

ANÁLISIS PERCEPTIVO

Representación proximal

TRANSDUCCIÓN FUNCIONAL

Estímulo próximal

Estímulo distal

Figura 5.3

3.

Componentes principales del procesamiento perceptivo.

Observaciones finales

La idea que nos debe quedar de esta manera de entender la percepción se podría sintetizar en los siguientes puntos: 1.

La percepción es, ante todo, una actividad del sujeto. A pesar de las apariencias y de la concepción ordinaria predominante, el sujeto que percibe no es un mero recipiente pasivo de la estimulación del medio. La percepción es una actividad que se manifiesta incluso ex-

197

Percepción

2.

3.

4.

5.

198

ternamente, a través de movimientos de orientación y exploración, en prácticamente todas las modalidades perceptivas. Aparte de sus manifestaciones externas, la percepción es ante todo una actividad interna de carácter típicamente computacional, en la medida en que opera formalmente sobre representaciones y va más allá de la mera actividad sensorial. Tomando como punto de partida el dato sensorial, lo transforma y trasciende, por el uso de información adicional, para llegar a una representación estable y consistente del mundo real. La actividad perceptiva está constituida por toda una serie de procesos que son, en su mayoría, de carácter inconsciente, aun cuando los resultados finales alcancen normalmente el umbral de la conciencia. El hecho de admitir procesos y representaciones inconscientes en la actividad perceptiva supone un desafío al prejuicio tan extendido en el mentalismo clásico de identificar lo mental con lo consciente, con el consiguiente sobrepeso otorgado a la introspección. Más que la dimensión consciente-inconsciente de la actividad perceptiva, lo que interesa desde un punto de vista funcional son las restricciones externas (procedentes del estímulo) e internas (propias del sistema) a las que está sujeta dicha actividad. A ello responden otro tipo de distinciones que han resultado más útiles para el estudio de la percepción y su despliegue temporal, así como para entender sus relaciones con otras funciones cognitivas. Es el caso de la distinción aquí utilizada entre procesos guiados por los datos y procesos guiados cognitivamente y el de otras más o menos relacionadas. El programa actual de investigación en psicología de la percepción está principalmente orientado a determinar la naturaleza de nuestras capacidades perceptivas básicas, como parte integrante que son de la arquitectura mental. Interesan tanto los rasgos comunes a las distintas modalidades perceptivas como los rasgos específicos de cada una de ellas, en dominios informativos bien delimitados. De igual modo, interesa tanto la percepción estable del adulto normal, como los estadios del desarrollo perceptivo en bebés y las alteraciones patológicas provocadas por lesiones en el sustrato neurofisiológico. Interesan, por último, las conexiones que se puedan establecer tanto con el nivel de la implementación neural como con ámbitos más aplicados relacionados, por ejemplo, con la ergonomía o con la inteligencia artificial.

5. Algunas notas introductorias al estudio de la percepción

Bibliografía comentada Para un mayor desarrollo de las principales nociones expuestas en el capítulo se pueden consultar los capítulos 5 y 6 del libro Mente y conducta (García-Albea, 1993). El libro de Gardner (1985) La nueva ciencia de la mente, y especialmente el Capítulo 9, es una buena introducción al enfoque del procesamiento de la información y sus implicaciones en el estudio de la percepción. Para revisar sus antecedentes históricos puede ser útil consultar el Manual de percepción de Carterette y Friedman (1974). El libro de Dretske (1981), Knowledge and the flow of information, así como su capítulo en el libro Visual Cognition (1995) son importantes para profundizar en la dimensión informativa de la percepción. Del mismo modo que lo es el libro de Pylyshyn (1984) Computación y conocimiento, especialmente el Capítulo 6, para el tema de la transducción sensorial y su papel en la arquitectura funcional de la mente; e igualmente el libro de Fodor (1983) La modularidad de la mente para entender las relaciones entre percepción y cognición. Aunque se circuscriba al ámbito de la percepción visual, quizá el libro más emblemático sobre las implicaciones del enfoque del procesamiento de la información (o enfoque computacional) sea el titulado La visión de David Marr (1982). Sobre el enfoque ecológico de Gibson (1979), la orientación del New Look, representada por Bruner (1974), o las aportaciones de los modelos conexionistas (Rumelhart y MacClelland, 1986) lo mejor es consultar sus obras originales referidas en la bibliografía. Por último, si se quiere ampliar la información sobre el sustrato sensorial de la percepción, puede ser útil, en principio, cualquier manual de psicofisiología o, en todo caso, los capítulos correspondientes de los manuales de percepción más recomendables, como el de Godstein (1984) o el de Lillo (1993).

199

Percepción

Preguntas de revisión 1. Uno de los objetivos de este capítulo ha sido el de establecer toda una serie de distinciones que ayuden a entender cuáles son los problemas principales con que se enfrenta la psicología de la percepción. Sería, pues, conveniente que el lector empezara por comprobar que le han quedado claras distinciones como las siguientes: — dimensiones extensional e intensional del objeto percibido — estimulación proximal y estimulación distal — receptor sensorial y sistema sensorial — transducción sensorial y transducción funcional — sensación y percepción — percepción y cognición — procesos guiados por los datos y procesos guiados cognitivamente — sistemas modulares y sistemas centrales 2. ¿Cómo se podrían caracterizar las situaciones perceptivas referidas en las siguientes expresiones? — «Juan está viendo la Estrella Polar» — «Juan está viendo que ésa es la Estrella Polar» 3. Las alucinaciones se suelen definir como casos de percepción sin objeto, y las ilusiones como casos de percepción errónea. De acuerdo con ello, ¿qué relación (o contraste) se podría establecer entre unas y otras?, ¿en qué sentido se debería ocupar de unas y otras la psicología de la percepción? 4. Partiendo de la distinción entre estimulación proximal y estimulación distal, ¿en qué consistiría la ambigüedad de una figura ambigua? 5. ¿Qué semejanzas y diferencias se podrían establecer entre las siguientes situaciones perceptivas?: — Oír una melodía por primera vez — Reconocer la melodía al oírla otra vez — Identificar la melodía 6. ¿En qué sentido cabe entender las expresiones siguientes aplicadas a la percepción en general?: — «Nada es verdad ni es mentira, sino que todo es del color del cristal con que se mira» — «Se ve lo que se quiere ver y se oye lo que se quiere oír»

200

6.

Psicofísica: concepto, método y aplicaciones Antonio Sánchez Cabaco

El objetivo de este capítulo es abordar los tópicos más relevantes de la teoría psicofísica. En primer lugar, se pretende responder a la pregunta de cómo medimos las sensaciones y las respuestas metodológicas dadas por esta disciplina. En segundo lugar, se aborda la intervención de los procesos mentales en los juicios perceptivos y la importancia de separar el concepto de sensibilidad y el criterio de respuesta (motivaciones, intereses, etcétera), y esto no sólo por un interés teórico sino por las importantes consecuencias aplicadas que ha supuesto en el campo de la decisión en general, más allá de la psicología de la percepción. A continuación se aborda la relación entre el mundo físico y el percibido a través de las dos grandes leyes psicofísicas formuladas. En un apartado final se establecen unas consideraciones generales de los desarrollos recientes que esta disciplina está generando, así como la utilización de la variable TR en los juicios psicofísicos.

1.

Introducción

Aunque aparecen distintas definiciones del concepto de psicofísica (conjunto de métodos para medir la respuesta conductual al estímulo perceptivo; disciplina que busca establecer relaciones matemáticas entre la percepción y la estimulación, ciencia que se ocupa de estudiar la relación existente entre la estimulación externa y la sensación interna, etc.), en todas subyace que el

201

Percepción

área de estudio se encuentra estableciendo un puente entre lo físico y lo psicológico. Esto implica que debe existir una correspondencia entre las dimensiones físicas de los estímulos y las dimensiones percibidas, es decir, que si se producen variaciones en los atributos físicos de los estímulos se verán reflejados en las sensaciones que de los mismos tienen los sujetos. La palabra psicofísica une dos mundos o realidades distintas: por otra parte, el físico constituido por estímulos que tienen una serie de características o propiedades y un mundo psíquico o mental donde se traducen los atributos del mundo físico en sensaciones específicas a esas características propias de los estímulos. Ya en 1860 Fechner la había definido como la ciencia exacta de las relaciones entre el cuerpo y la mente, aludiendo precisamente a este puente entre el mundo físico y el psicológico o mental. De hecho, esta parcela del conocimiento ha tenido una significación especial en el proceso de convertir a la psicología en una verdadera disciplina científica al permitir cuantificar la conducta, además de posibilitar el acceso a la interpretación de los procesos mentales internos a través del estudio de las sensaciones. Sin embargo, como señala Blanco (1996), la relación entre lo físico y lo percibido no se rige por una correspondencia sencilla y lineal. Existen multitud de ejemplos (ilusiones perceptivas, percepción sin objeto, figuras reversibles, etc.) que demuestran esta falta de correspondencia absoluta y que la relación entre las características físicas y las dimensiones percibidas de los estímulos es variable (dependiendo de influencias del contexto) y compleja (en función de la propia disponibilidad del perceptor). A pesar de esta dificultad notable, los psicofísicos han intentado establecer correspondencias y funciones o leyes psicofísicas para equiparar las magnitudes de las sensaciones a las magnitudes de los estímulos que las provocan. La metodología utilizada para alcanzar este objetivo consiste en presentar un estímulo, el cual provocará en el perceptor unas sensaciones sobre las que el sujeto tendrá que informar posteriormente. Aunque el objetivo y el método son claros, sin embargo existen dos problemas que han generado y siguen planteando numerosos interrogantes en psicofísica: los sesgos de respuesta y la variabilidad. El problema de los sesgos de respuesta ha supuesto, de hecho, la transición de la psicofísica clásica a la nueva psicofísica, ya que supone admitir que la respuesta del sujeto no depende exclusivamente de las características físicas de los estímulos sino que, además de esta influencia, en la decisión final juegan un papel importante otra serie de variables internas (motivaciones, expectativas, expresiones, etc.). Este cambio introducido por la TDS (Teoría de Detección de Señales) hace más complicado el objeto de la psicofísica tal y como describíamos al principio, es decir, establecer las relaciones entre lo físico y lo percibido. El segundo problema, el de la variabilidad, no es menos importante. En el trabajo de investigación pueden producirse cambios en el funcionamien-

202

6. Psicofísica: concepto, método y aplicaciones

to del sistema sensorial (variabilidad interna) o en las características físicas de la estimulación que recogen los receptores sensoriales (variabilidad externa). En ambos casos se adultera el proceso y, aunque se han propuesto algunas soluciones (mejora de los instrumentos, utilización de una serie de estadísticos, uso de un número elevado de ensayos, etc.), sigue siendo un tema de controversia en la investigación psicofísica.

2.

Medida y límites de la detección y de la discriminación psicofísica

2.1

Umbrales sensoriales

2.1.1 Concepto de umbral absoluto y umbral diferencial La teoría del umbral sensorial surgió para explicar qué nivel de estimulación se necesita para producir una sensación o una toma de conciencia. Esta teoría afirma que para activar un receptor sensorial se necesita una determinada intensidad, ya que sin ella no se consigue provocar sensación en el sujeto. A esa cantidad mínima de energía capaz de provocar la estimulación de un órgano sensorial es lo que se conoce como umbral absoluto (UA). Por encima del valor UA pueden producirse incrementos y disminuciones en el nivel de energía física que no siempre son detectables por el sujeto, ya que, como afirmábamos al inicio de este capítulo, no existe una relación lineal entre el continuo físico y el psicológico. Cuando estas diferencias en la estimulación, positivas o negativas, son captadas por el observador nos referimos precisamente al otro concepto de umbral señalado por esta teoría: el umbral diferencial (UD). La idea base que subyace en la teoría clásica del umbral (para el UA) es que se produce una transición de un estado de no detección a otro en el que se puede detectar el nuevo estímulo. El cambio de un estado a otro está determinado por la intensidad de la estimulación, aunque este cambio más que brusco tiende a ser gradual, ya que en cualquier experimento no se mantienen constantes todos los factores que afectan a la detección y a la discriminación (variaciones en la atención, sensibilidad de los receptores, etc.). Para la determinación de los umbrales sensoriales, Fechner desarrolló tres métodos que se han denominado en la literatura como los métodos psicofísicos clásicos o indirectos. El hecho de que tanto los valores de los UA como los de los UD pueden variar en los distintos ensayos, hace que se tome habitualmente aquel valor que es detectado en el 50 por ciento de las presentaciones. Por lo tanto, el término umbral es un concepto estadístico. A continuación, vamos a exponer estos métodos y ejemplificar el cálculo de ambos tipos de umbrales.

203

Percepción

2.1.2 Métodos psicofísicos clásicos o indirectos Los tres métodos psicofísicos clásicos o indirectos son el de los límites, el de los estímulos constantes y el de ajuste o error promedio. Todos se caracterizan por solicitar de los observadores un juicio sobre la detección (sí o no para el UA) o discriminación (mayor, menor o igual para el UD).

A. Método de los límites Como su nombre indica se basa en los límites de la sensación. Utilizando series ascendentes y descendentes se determina el punto a partir del cual el estímulo deja de percibirse (para las series descendentes) o cuando comienza a ser percibida por el sujeto (en series ascendentes). El procedimiento consiste en presentar una serie de ensayos, la mitad en orden ascendente y la otra mitad en orden descendente, interrumpiendo las series cuando hay un cambio en el sentido de respuesta, es decir, sí para los ascendentes y no para los descendentes. El valor del umbral absoluto es la media de los valores de cruce o media de los puntos de transición (PT) de todas las series. A continuación, en la Figura 6.1 se presenta un ejemplo explicativo del proceso. La primera columna refleja la intensidad (I) y el resto el tipo de serie: ascendente (A) o descendente (D). I

A

D

A

D

A

D

A

D

90

S

S

S

S

80

S

S

S

S

70

S

S

S

S

60

S

S

S

S

50 S

S

N

40 N

N

S

S

S

S N

S

N

S

N

30 N

N

N

N

N

20 N

N

N

10 N PT

Figura 6.1

N 45

45

N

N 35

55

N 45

35

45

45

Método de los límites (UA)

En la primera serie, A (ascendente), se le aplicó al sujeto la intensidad de valor hipotético 10 y contestó que no la detectó (N); a continuación la de

204

6. Psicofísica: concepto, método y aplicaciones

20 con la misma respuesta, y así hasta que con la intensidad de 50 el sujeto dijo sí (S). Se interrumpe la serie y se procede de igual forma pero desde el valor más alto, es decir, de 90 con la serie descendente. De esta forma, se completan los ocho ensayos y se calculan los respectivos puntos de transición o valores de cruces. Para la primera serie el PT es igual al valor del S (50) más el valor del N (40) dividido entre dos, en este caso, resultando un valor de 45 en esta escala hipotética. A continuación se calcula el resto de puntos de transición y el valor medio de los mismos. que será el valor del UA, mediante la aplicación del algoritmo: UA = PT/n UA = (45 + 45 + 35 + 55 + 45 + 35 + 45 + 45)/8 = 43,75 En este ejemplo el UA tiene un valor de 43,75, es decir, ésta sería la intensidad mínima de estimulación para que fuese captada por el observador, o lo que es lo mismo para provocar sensación. Para obtener el UD se presentan un par de estímulos, el variable (EV) y el estándar (ES). El EV se presenta en series ascendentes y descendentes y aquí la tarea del sujeto es lógicamente discriminar entre ambos estímulos. Las series ascendentes se interrumpen cuando el sujeto contesta que el EV es mayor que el ES y en las descendentes cuando la respuesta es que el EV es menor que el ES. A continuación, se determina el umbral alto (Ua) y el umbral bajo (Ub) de cada serie que se corresponde al punto de transición del valor correspondiente como mayor para el EV con el inmediatamente inferior (Ua), y el punto de transición del valor menor del EV con el inmediatamente superior (Ub). Por último, se calculan las medias aritméticas de los valores de umbral alto y bajo y se aplica el algoritmo siguiente: UD = ([Ua/n]-[Ub/n]) /2 Como en el caso de UA vamos a ejemplificar el cálculo del UD a través de este método. En la Figura 6.2 aparecen los resultados hipotéticos de un sujeto experimental. Ua/n = 52,5

Ub/n = 36,25

En la primera serie se comparó el EV (valor 10) con el ES (valor 50) y el sujeto dijo que el EV era de menor intensidad, por eso se señala en el protocolo de respuestas Me. La misma situación se reproduce con los valores siguientes del EV (20 y 30); a continuación señala que tienen la misma intensidad (valores 40 y 50) y en la comparación con el de 60 dice que el EV es mayor, razón por la que se interrumpe la serie y se anota Ma. Se procede de igual forma con las series restantes, teniendo en cuenta si son as-

205

Percepción I

A

D

A

D

A

D

A

D

90

Ma

Ma

Ma

Ma

80

Ma

Ma

Ma

Ma

70

Ma

Ma

Ma

Ma

60 Ma

IG

Ma

IG

Ma

50 IG

IG

Ma

IG

Ma

40 IG

Me

IG

IG

IG

30 Me

Me

IG

20 Me

Me

Me

10 Me

Me

Me

Me

Me

Ma

Ma

IG

IG

Me

IG

Me

Me

Me

Ua

55

65

45

55

45

65

45

45

Ub

35

45

35

25

35

55

25

35

Figura 6.2

Método de los límites (UD)

cendentes o descendentes, y por último se calculan los Ua y Ub de cada serie junto a las puntuaciones medias. Aplicada la fórmula UD = (52,5-36,25)/2, el valor resultante del UD es de 8,12, es decir, a partir de aumentos o disminuciones de 8,12 de intensidad, por encima del UA, este sujeto discriminaría el estímulo como de mayor o menor intensidad. Es el cambio mínimo, en la intensidad del estímulo, captado por el sujeto, debido a que variaciones de inferior cuantía no serían detectadas. Hay que tener en cuenta que existe una zona donde el sujeto no diferencia claramente entre el EV y el ES. Es la zona denominada intervalo de incertidumbre (II) y se calcula restando de la media del umbral superior la media del umbral inferior: II = [Ua/n]-[Ub/n], en nuestro caso (II = 52,5-36,25) resulta un valor de 16,25 unidades. Con el ES de valor 50, a partir de intensidades superiores a 66,25, el sujeto respondería el 50 por ciento de las veces que el EV es mayor, y por debajo de 33,75 que el EV es menor. Además, hay que tener en cuenta el PIS (punto de igualdad subjetivo), punto en el que el sujeto percibe el ES y el EV como iguales. Se obtiene aplicando la fórmula: PIS = ([Ua/n] + [Ub/n])/2 Para el ejemplo propuesto el resultado del PIS es 47,37 ([52,5 + 36,25]/2).

206

6. Psicofísica: concepto, método y aplicaciones

En último lugar se calcula el error constante (EC), que es el error cometido por el sujeto en la estimación de la comparación con respecto a los valores reales. Su cálculo se determina mediante la fórmula siguiente: EC = PIS-ES Dado que el valor obtenido es negativo (44,37-50 = -5,63), ello significa que el sujeto ha subestimado el valor del EV en relación con el ES. Si el resultado hubiese sido al contrario, es decir, positivo, indicaría que se ha producido una sobreestimación del valor EV en relación con el ES. La diferencia podría ser nula, es decir 0, si el PIS coincide con el valor de ES, lo cual implicaría que habría realizado una estimación perfecta.

B. Método de los estímulos constantes A diferencia del anterior se presentan los estímulos al azar, en un orden aleatorio y se considera umbral a aquella intensidad que es detectada en la mitad de sus presentaciones. Para calcular el UA se halla la frecuencia acumulada de respuestas positivas (S) y aquel valor que coincida con el 50 por ciento de detección corresponde al UA. Como en el método de los límites, vamos a desarrollar un ejemplo hipotético para realizar el cálculo. Se presentan en ocho series los nueve estímulos con las distintas intensidades de forma aleatoria. Los resultados obtenidos aparecen en la Figura 6.3. INTENS

1

2

3

4

5

6

7

8 f

%

90 S

S

S

S

S

S

S

S

8

100

80 S

S

S

S

S

S

S

S

8

100

70 S

S

S

S

S

S

S

N

7

87,5

60 S

S

S

S

S

S

N

N

6

75

50 S

S

S

S

S

N

N

N

5

62,5

40 S

S

S

S

N

N

N

N

4

50

30 S

S

S

N

N

N

N

N

3

37,5

20 S

S

N

N

N

N

N

N

2

25

10 S

N

N

N

N

N

N

N

1

12,5

Figura 6.3

Método de los estímulos constantes (UA)

En este caso el valor del UA sería el correspondiente a la intensidad de valor 40 ya que ha sido detectado en la mitad de sus presentaciones o el 50 por ciento de las veces. Se determina a través de algún método de interpo-

207

Percepción

lación gráfico o numérico, ya que no siempre suele coincidir exactamente una frecuencia del 50 por ciento. El lector interesado en desarrollar alguna de las alternativas de interpolación numérica puede consultar la obra de Amón (1980). En la Figura 6.4 se observa la aplicación del método de interpolación gráfica, que, como hemos apuntado en este caso, al coincidir una frecuencia con el 50 por ciento de detección, determina el valor del umbral absoluto.

Figura 6.4

Interpolación gráfica para calcular el UA

Para calcular el UD se procede a comparar los EV con el ES que normalmente tiene el valor medio de la serie (50 en nuestro caso). Los EV se presentan de forma aleatoria y el juicio que tiene que emitir el sujeto es si son menor, mayor o igual que el ES. Una vez realizados los ensayos se procede al cálculo del Ua y Ub. Vamos a determinar su cálculo en el siguiente ejemplo, en el que se muestran los resultados hipotéticos obtenidos (Figura 6.5). Se han establecido tres puntos en la Figura 6.5: el valor de intensidad considerado mayor que el modelo (EV > ES) en el 75 por ciento de los ensayos (Ua), el valor de intensidad considerado mayor que el modelo en el 25 por ciento de los ensayos (Ub), y el valor de intensidad considerado igual que el modelo en la mitad de las presentaciones (PIS).

208

6. Psicofísica: concepto, método y aplicaciones

Figura 6.5

UD por el método de los estímulos constantes

Con el método de interpolación gráfica, el valor de Ua es de 62 unidades de intensidad y el Ub de 25 unidades. El intervalo de incertidumbre (II) es de 37 unidades y por consiguiente el UD (II/2 = 37/2) resultante es 18,5. Dado que el valor del ES es de 50, el error constante cometido por este sujeto es de —8, lo que indica que el sujeto ha subestimado el valor del EV. Cuando el método de interpolación gráfica no sea adecuado para calcular los valores del umbral, por ejemplo con datos no regulares, se deben utilizar procedimientos más sofisticados de interpolación numérica (d’Amato, 1970).

C. Método de ajuste o error promedio Este método se caracteriza porque, a diferencia de los anteriores, el sujeto o el experimentador toman parte activa en el experimento, realizando ajustes de forma continua en la intensidad de la estimulación, es decir, aumentando o disminuyendo la misma. En realidad, la lógica de este método es similar a la de los límites, aunque bastante más simplificada dado que en lugar de llevar a cabo las series ascendentes o descendentes completas se parte de un punto medio, fijado a priori (lo determina el investigador), lo que signi-

209

Percepción

fica un ahorro considerable de tiempo. En función de las respuestas del sujeto, a partir de la presentación de un estímulo, se seguirá una serie ascendente cuando no lo detecte o descendente en el caso de que la respuesta sea afirmativa. De la misma manera que en el método de los límites se calculan los PT de cada serie y se obtiene la media aritmética de los mismos cuyo valor será el UA. En realidad debería ser una intensidad continua pero para hacer más intuitiva la explicación seguimos con la ejemplificación utilizada en los dos métodos anteriores. Para obtener el UD teóricamente se debería proceder de la misma forma, es decir, marcando una línea de partida y presentando el par EV-ES a partir de ese punto. En función de las respuestas del sujeto se procederá con una línea ascendente o descendente y por último se calcularán los valores correspondientes a los umbrales altos y bajos. Lillo (1993) señala que este método tiene como peculiaridades el que la estimulación es de carácter continuo, las variaciones en la intensidad se realizan de forma ordenada (ascendente o descendente), el control lo puede ejercer el experimentador o el sujeto, la duración es breve y, por último, el umbral es resultado de una decisión de tipo estadístico. Para otros autores (Ballesteros, 1994) como lo que se está midiendo es el error cometido por el sujeto al estimar la igualdad del EV y el ES, la única medida que se obtiene es el PIS, ya que no se podría hacer una estimación de los umbrales. Jáñez (1992) señala además una variación de este método que se denomina método de seguimiento del umbral, utilizado por von Bekesy en pruebas auditivas, siendo lo esencial del procedimiento el elevar la intensidad del estímulo hasta que comienza a ser percibido y posteriormente disminuirla hasta que deja de ser detectado. Hemos obviado deliberadamente otras cuestiones (propiedades matemáticas del umbral, función psicométrica clásica y normalizada) debido al carácter introductorio de este capítulo. El alumno puede encontrar una exposición amplia y rigurosa de estos conceptos en el Capítulo 2 del libro de Blanco (1996). Además puede profundizar en la discusión sobre las dos teorías de los umbrales sensoriales: la primera, expuesta por Fechner, que defiende que los aumentos físicos del estímulo tienen su correlato desde el plano psicológico o percibido, y la segunda (teoría del cuanto neural de Bekesy), que no asume esta correspondencia de tipo lineal sino que afirma que los cambios son percibidos de modo discreto. Centrándonos en la primera, la teoría clásica del umbral sensorial intentaba dar respuesta al hecho de que los estímulos no provocan siempre sensación y, en cambio, a partir de una determinada intensidad comenzamos a ser conscientes de esa estimulación. Para obtener estos valores de umbral (absoluto o diferencial) se han expuesto los tres métodos psicofísicos desarrollados con este fin. Sin embargo, en los ejemplos propuestos si se comparan los resultados de las figuras 6.1 y 6.3 se puede observar que los valores del UA obtenidos para un mismo sujeto a través de dos métodos diferentes (límites y estímulos constantes) son distintos, ya que en el primer

210

6. Psicofísica: concepto, método y aplicaciones

caso el valor del UA es de 43,75 y en el segundo de 40. Lo mismo ocurre con los UD (figuras 6.2 y 6.4) ya que hemos obtenido un valor de 8,12 por el método de los límites y de 18,5 por el de los estímulos constantes. Además no hemos desarrollado el ejemplo con el tercero de los métodos psicofísicos indirectos, el de ajuste o error promedio, pero seguramente que los resultados hubiesen sido también diferentes a los obtenidos por los otros dos. Llegados a este punto y puesto que si los resultados no son constantes, ya que en función del método utilizado los resultados son distintos, podemos preguntarnos: ¿existe un umbral absoluto?, o ¿tiene sentido la medición de umbrales? La respuesta a estos interrogantes va a ser el objetivo del apartado siguiente donde analizamos críticamente los dos supuestos básicos de la teoría clásica: que existe una magnitud o punto de partida a partir del cual comienza a detectarse un estímulo y que dicha magnitud es constante. 2.1.3 Valoración crítica de la teoría del umbral En lugar de realizar una comparación directa de los resultados obtenidos en el apartado anterior, vamos a transformar las puntuaciones a medidas de sensibilidad y agudeza. La sensibilidad es el inverso del UA, así cuanto mayor es el UA de un sujeto menor es su sensibilidad. En el ejemplo propuesto tendríamos que en el método de los límites: S = 1/UA = 1/43,75 = 0,022, mientras que en el de los estímulos constantes: S = 1/UA = 1/40 = 0,025, La agudeza es el inverso del UD, así cuanto mayor es el umbral diferencial de un sujeto menor es su agudeza. En el caso anterior tendríamos que el método de los límites: A = 1/UD = 1/8,12 = 0,123, mientras que según los resultados obtenidos por el método de los estímulos constantes: A = 1/UD = 1/18,5 = 0,05. Esta transformación de puntuaciones directas en medidas de sensibilidad y agudeza nos permite comprobar que a pesar de la diferencia en términos absolutos, no lo es tanto en cuanto a sensibilidad pero sí en lo que se refie-

211

Percepción

re a agudeza relativa. Esta primera cuestión sobre la fiabilidad de los métodos parece que no es uno de los temas centrales sobre los que se centra la validez de la teoría, ya que, incluso por la propia naturaleza de los métodos, en función de lo que queremos priorizar en el binomio rapidez-precisión, podemos elegir uno de los tres métodos propuestos Hay otras objeciones que pueden ser más difíciles de refutar y que, como veremos en el apartado siguiente, han supuesto una transición y un desarrollo de la teoría psicofísica de una magnitud difícil de predecir; nos referimos a la TDS. Estas cuestiones problemáticas, siguiendo a Jáñez (1992), se pueden plasmar en cuatro: a) la suposición del valor constante e invariable del umbral sensorial es, según bastantes trabajos experimentales, modificable debido a factores del observador o de la tarea; b) la función psicométrica se debería ajustar a una distribución normal, es decir, la probabilidad de percibir un estímulo estaría en función de la intensidad, y los resultados muestran funciones psicométricas rectilíneas; c) el problema de la continuidad-discontinuidad sensorial; y d) los valores obtenidos por los distintos métodos no son coincidentes, aspecto ya comentado. Centrándonos en la primera de las cuestiones polémicas, si utilizamos el método de los límites para medir los umbrales de escucha de un tono en dos sujetos distintos y seleccionamos dos intensidades las respuestas de ambos sujetos (decir sí cuando perciban el tono) pueden ser muy distintas, presentando por lo tanto umbrales absolutos diferentes según este método. Sin embargo el juicio psicofísico de estos sujetos puede estar mediatizado por el criterio de respuesta utilizado: un sujeto quiere aparecer supersensible (criterio liberal, sí a cualquier cosa, criterio de respuesta bajo), mientras que el otro quiere estar totalmente seguro (criterio conservador, sí pocas veces, criterio de respuesta alto). Ante la pregunta de cuál de los dos sujetos es más sensible a los tonos, siguiendo el método psicofísico clásico hubiésemos concluido que el primero, sin embargo la realidad es que cada uno tiene un criterio de respuesta distinto, pudiendo ser ambos igual de sensibles. Para evitar que en un experimento afecten factores distintos a la sensibilidad en lugar de medir umbrales absolutos (sensoriales) desde los supuestos de la TDS se miden umbrales de respuesta. En el apartado siguiente vamos a profundizar en el cambio de planteamiento de esta teoría y la forma tan diferente de abordar el problema. 2.2

Umbrales de respuesta

2.2.1 Nuevas perspectivas en la medición de umbrales Como hemos analizado en el apartado anterior, la teoría clásica del umbral sensorial presentaba serios inconvenientes para explicar los nuevos datos experimentales surgidos de la investigación (influencia del tipo de método,

212

6. Psicofísica: concepto, método y aplicaciones

factores del observador o de la tarea, distribución no gausiana de valores, etc.). Además, como señala Jáñez (1992), incluso en el periodo de vigencia de la teoría clásica estuvo presente la polémica sobre la discontinuidadcontinuidad sensorial. A partir de evidencias tales como la manipulación de la actitud del sujeto por medio de instrucciones y su influencia en los valores de umbral, se fue imponiendo la idea de introducir cambios en las tareas de detección. Así, si se incluyen ensayos en blanco (ensayos en que no se presenta el estímulo) y la tarea del sujeto es responder Sí ó No, es decir, sí detecto el estímulo o no lo detecto, podemos obtener una matriz de confusión que relaciona las presentaciones estimulares con las respuestas del sujeto. La matriz resultante (2 x 2) ofrece cuatro posibilidades, según aparece en la Figura 6.6: si se presentó el estímulo o señal (en adelante S) el sujeto puede decir Sí, en cuyo caso acierta (A), o puede decir No, lo que significa un fallo (F). En cambio si no se presentó el estímulo (en adelante R, por ruido sensorial) el sujeto podrá contestar No, lo que significa que es un rechazo correcto (RC) o puede indicar que Sí, cometiendo una falsa alarma (FA).

ruido

falsa alarma

rechazo correcto

acierto

fallo

ESTÍMULO

no

señal

RESPUESTAS sí

Figura 6.6

Matriz de confusión

Las posibilidades de análisis e interpretación de la matriz de confusión es mayor en este marco conceptual que en el esquema de la teoría clásica. Así podemos apreciar intuitivamente que hay elementos de la matriz de confusión que pueden relacionarse (A y FA; F y RC). Lo que es verdaderamente importante en este nuevo enfoque es que la tarea de detección implica dos procesos, uno basado en lo sensorial y otro basado en la decisión. El esquema completo se refleja en la Figura 6.7.

213

Percepción ESTÍMULO

PROCESO 1

PROCESO 2

RESPUESTA

señal o ruido

SENSORIAL

DECISIÓN

sí o no

observación

Figura 6.7

Procesos implicados en la detección de un estímulo

Fechner asumía que la respuesta del sujeto reflejaba directamente, de forma pura, el valor de O (observación); sin embargo, a partir de lo anteriormente expuesto, la investigación ha evidenciado que el sujeto en función de sus expectativas, sus actitudes, etc., puede contaminar su decisión. A pesar de ello no todas las teorías que admiten el esquema anterior están de acuerdo en el funcionamiento de estos procesos y el modo en que se relacionan los mismos con las tasas obtenidas en la matriz de confusión. Por tanto, frente a la postura de Fechner las teorías modernas del umbral admiten la existencia de una fase de decisión previa a la respuesta en un juicio psicofísico. En lo que difieren es en la localización del umbral y en el número de umbrales sensoriales. La teoría del umbral alto (Blackwell, 1963) mantiene que si se traspasa el umbral se producirá sensación, dándose ausencia de la misma en caso contrario. Se llama teoría del umbral alto porque supone que el umbral está localizado muy a la derecha de la distribución del ruido. Frente a este planteamiento, y ante los problemas planteados por alguna de sus predicciones, surgieron las teorías del umbral bajo (Luce, 1963) que asumen que el umbral se localiza más a la izquierda de la distribución del ruido. Este umbral es traspasado un número de veces significativamente mayor a lo planteado por las teorías anteriores y responde más a la realidad de la evidencia práctica. En realidad la teoría propuesta por Blackwell (1963) puede considerarse como una posibilidad que puede contemplarse en la teoría expuesta por D. Luce. Una tercera vía es la teoría del doble umbral que postula dos tipos de umbral, uno alto y otro bajo, lo que implica tres estados en la actividad mental: si la intensidad es alta daría como resultado la sensación; si es baja no produciría la sensación, y cabría un tercer estado de incertidumbre cuando el estímulo presenta valores de intensidad intermedia. Aunque estas modificaciones de la teoría clásica han supuesto, en algunos casos, ventajas explicativas y predictivas, continúa estando presente la polémica de fondo en torno al concepto de umbral. Vamos a analizar un nuevo desarrollo que

214

6. Psicofísica: concepto, método y aplicaciones

prescinde del concepto de umbral: la Teoría de Detección de Señales (TDS). En realidad esta teoría es una reconceptualización a los problemas planteados por la teoría del umbral alto. Sin embargo, y a pesar de los múltiples problemas expuestos, el concepto de umbral sigue siendo útil en la investigación psicofísica pero como variable dependiente, ya que el uso que ha hecho la psicofísica clásica como variable interviniente plantea innumerables objeciones. 2.2.2 Teoría de Detección de Señales: supuestos y parámetros fundamentales La Teoría de Detección de Señales (TDS) tiene su fundamentación básica inicial en el campo de la ingeniería y en la investigación matemática desarrollada en el contexto de la detección de señales electromagnéticas. La fusión o el interés de aplicación en el terreno psicológico se explica por las controversias en torno al concepto de umbral y la búsqueda de alternativas al mismo. Las primeras aplicaciones en nuestro campo se deben a Tanner y Swets que llevaron a cabo investigaciones psicofísicas de percepción visual en la Universidad de Michigan. A esta aportación pionera habría que añadir los intentos anteriores de Thurstone con su ley del juicio comparativo donde parecía posible una psicofísica sin umbrales sensoriales. La TDS diferencia dos procesos o componentes en la detección de un estímulo por parte del sujeto: a) el componente o proceso sensorial que consiste en múltiples valores de sensación con una determinada probabilidad de producirse tanto para la S como para el R; b) el componente o proceso de decisión que depende de los mecanismos internos del sujeto (motivaciones, expectativas, etc.). El esquema básico en un juicio psicofísico desde esta conceptualización se representa en la Figura 6.8. El primer proceso (sensorial) incluiría la acogida de la estimulación por los receptores periféricos con la correspondiente transducción en impulso nervioso y su conducción aferente a las áreas de recepción cortical específica. A pesar de que la actividad neural es compleja y que el mismo estímulo (S o R) no produce siempre el mismo efecto sensorial (hay gran variabilidad debido a los múltiples factores intervinientes tanto internos como externos) se asume que las dos condiciones de estímulo (S o R) tienen sus correspondientes distribuciones de probabilidad. A diferencia de la teoría clásica que asumía dos estados, la TDS es una teoría multiestado, ya que el resultado del proceso sensorial no es únicamente dual (consciente-no consciente) sino que plantea numerosos estados posibles. El segundo proceso que complementa el juicio psicofísico es el de decisión, que está determinado por dos tipos de variables: a) la memoria que en términos de la TDS sería la probabilidad de S o de R; b) otras variables cognitivas que se representarían por las motivaciones, actitudes y otras in-

215

Percepción

Proceso sensorial

Estímulo

Observación

Decisión Memoria

Motivación Comparación



Figura 6.8

NO

Modelo explicativo de la TDS (adaptado de Blanco, 1996).

formaciones de que disponga el sujeto en la situación concreta, aparte de las consecuencias que puedan derivarse de la misma. De lo expuesto se deduce que la TDS es útil siempre que la actuación del sujeto no sea totalmente correcta, es decir, que haya una zona de confusión entre las distribuciones de S y de R ya que en caso contrario (que el sujeto no cometa errores) no nos da ninguna información relevante de la actuación del observador. Existen varios paradigmas experimentales para la TDS; siguiendo a Ballesteros y Reales (1995a) se pueden agrupar en cinco: a)

Diseños de un intervalo. Son los más sencillos y es el modelo que vamos a desarrollar. Se presenta en cada ensayo un estímulo que puede pertenecer a la distribución de la Señal (S + R) o del Ruido (R), siendo la tarea del observador determinar cuál de ellos se ha presentado. b) Análisis no paramétrico. Es un tipo de diseño igual al primero pero a diferencia del anterior no se asume la distribución gausiana de la señal y del ruido. Los supuestos de partida son distintos ya que este tipo de análisis se realiza en la teoría del umbral alto y en la teoría del doble umbral alto. Siempre que sea posible es preferible el diseño anterior.

216

6. Psicofísica: concepto, método y aplicaciones

c)

Experimentos de valoración. En estos experimentos el sujeto además de indicar si el estímulo presentado pertenece a la señal o al ruido debe expresar la confianza que le merece su respuesta a través de una escala de distintos niveles (muy seguro que se ha presentado S, poco seguro que se ha presentado S, etc.). d) Diseños de elección forzada. Todos los diseños anteriores son de un intervalo. En este tipo de diseños se presentan dos clases de estímulos en cada ensayo, pudiendo variar el número de alternativas de respuesta. La tarea del observador es informar del orden en que se han presentado los estímulos. Hay dos variantes: — Diseños 2ACF: en este tipo las dos alternativas de respuesta están siempre presentes en cada ensayo del experimento, ya sea temporal o secuencialmente. El sujeto tiene que informar sobre el orden en que aparecen los dos estímulos. — Diseños mACF: son variaciones del anterior. En estos experimentos las dos clases de estímulos se presentan en un orden aleatorio, pero el número de posibles respuestas es superior a dos, es decir, m. e) Diseños igual/diferente. En estos experimentos se presentan al observador un par de estímulos en cada ensayo y se le pide simplemente que indique si son iguales o diferentes entre sí. También dentro de este tipo de diseños hay dos modalidades: los diseños igual/diferente fijos y los diseños igual/diferente volantes. La diferencia entre ambos es que en el primero sólo se presentan dos estímulos que se repiten a lo largo de todo el bloque de ensayos, mientras que en el segundo existen más de dos estímulos. Dadas las posibilidades de este modelo vamos a centrarnos en el primero ya que ha sido el que ha generado mayor investigación y es el más representativo de la TDS. En el diseño SI/NO presentamos 2 tipos de estímulos: la señal (S + R o S) y el ruido (R). El experimentador determina la frecuencia de presentación de cada estímulo, es lo que se denomina probabilidades a priori. Si se presentó en la mitad de ensayos la señal, y en la otra mitad de ensayos el ruido, la probabilidad a priori sería de 0,50 en cada caso, luego la razón de probabilidades a priori se expresaría por el cociente de ambas: RPP = P(S)/ P(R) = 0,50/0,50 = 1 Las probabilidades condicionadas resultan de la distribución de probabilidad de los valores de sensación asociados a la S y al R. Recuerde que de la matriz de confusión obtenemos cuatro posibilidades: aciertos, pérdidas, falsas alarmas y rechazos correctos. Los dos valores más importantes son los aciertos y las falsas alarmas, ya que estas dos posibilidades son inde-

217

Percepción

pendientes una de otra; de hecho, la matriz de confusión sólo tiene dos grados de libertad y por ello se trabajará en adelante con estos dos valores (la tasa de fallos y de rechazos correctos podemos conocerlas a partir de los datos de aciertos y falsas alarmas). Por tanto las probabilidades condicionadas para aciertos y falsas alarmas resultaría de: P (Sí/S); P (Sí/R). En el caso de que, realizada la aplicación experimental, se hubiesen obtenido 21 aciertos y cinco falsas alarmas con 50 ensayos (25 pertenecientes a la señal y 25 al ruido), la probabilidad condicionada de aciertos sería de 0,84 y la de falsas alarmas de 0,2. En este supuesto el 80 por ciento de las veces que se presentó la señal el sujeto realmente la detecta (P: aciertos auténticos), ya que P se obtiene de aplicar el algoritmo: P = (PAC - PFA) /(1 - PFA) La medida de sensibilidad en la TDS es el índice d´y se define como la distancia entre las distribuciones de la señal y el ruido. Este índice se presenta en puntuaciones z y es la diferencia en unidades típicas entre aciertos y falsas alarmas [d´ = z (aciertos) - z (falsas alarmas)]. Cuanto mayor sea la distancia entre ambas distribuciones indica mayor capacidad de discriminar entre ambos estímulos, es decir, mejor sensibilidad. La carencia de sensibilidad, por contra, se manifestará en una menor distancia entre ambas distribuciones, menos diferencia entre tasa de aciertos y falsas alarmas. En el ejemplo señalado obtendríamos una d´ = 1,8 cuya representación gráfica aparece en la Figura 6.9.

Figura 6.9

Representación gráfica del índice d´

La separación de casi dos unidades típicas entre las distribuciones de la señal y el ruido se explica por la alta tasa de aciertos y la baja proporción de falsas alarmas obtenidas, lo que indica que el sujeto discriminó entre ambos estímulos. En cambio si la tasa de aciertos hubiese sido de 0,61 y la de falsas alarmas de 0,46 la d´ resultante tendría un valor de 0,4, lo que significaría que la distribución de la señal estaría más próxima a la del ruido,

218

6. Psicofísica: concepto, método y aplicaciones

indicando que la sensibilidad del sujeto es inferior para discriminar entre ambos estímulos. Obtenida la sensibilidad, la TDS nos permite determinar el sesgo de respuesta a través del criterio utilizado por el sujeto (índice c). Esta teoría supone que el criterio óptimo es el punto de corte de las distribuciones de la señal y el ruido (PMC), de tal forma que el sujeto decide que el estímulo presentado es la señal cuando la observación se sitúe a la derecha del punto de corte establecido por el criterio (c). En cambio responderá que la sensación suscitada corresponderá al ruido cuando no se produzca la situación anteriormente expuesta. El criterio o medida del sesgo de respuesta se obtiene aplicando el algoritmo: c = –0,5 [ z (aciertos) + z (falsas alarmas)]. Para el ejemplo propuesto el resultado es de –0,1 lo que significa que se coloca a la izquierda del punto donde se cortan ambas distribuciones (punto medio de confusión o PMC). Observe que este índice es distinto del de la sensibilidad ya que d´ depende de la capacidad de discriminación, mientras que c depende de variables motivacionales o personales del observador. Por esta razón, como se puede observar en la Figura 6.10, para el índice d´ la localización del punto de máxima altura de la distribución del ruido corresponde a z = 0 y a partir del resultado obtenido se situará la distribución de la señal. En cambio, la localización del criterio parte como punto inicial del PMC y en función del resultado concreto se situará a la derecha (si el valor es positivo) o a la izquierda (si es negativo). En el primer caso correspondería a un criterio conservador, la tendencia sería a decir no (ruido), mientras que en el segundo se caracterizaría por un alto número de respuestas sí (se ha presentado la señal) lo que indica un criterio de respuesta bajo o liberal. Existen otros índices complementarios que nos informan del sesgo de respuesta como son el criterio de localización relativa (c´) y la razón de probabilidades (ß). El primero evalúa la magnitud de la distancia entre el

Figura 6.10

Representación gráfica de los índices c y ß

219

Percepción

criterio y el PMC teniendo en cuenta el valor de sensibilidad (d´). El segundo, la razón de probabilidades ß se basa en la comparación de las alturas poseídas por las distribuciones de la señal y el ruido allí donde son cortadas por el criterio de respuesta (para determinar su cálculo véase Cabaco y Arana, 1997). Como puede apreciarse en la Figura 6.10 y dado que este último índice se obtiene del cociente entre la altura de la señal (YS) y la altura del ruido (YR) siempre que YS
Figura 6.11

220

Representación gráfica de la curva ROC

6. Psicofísica: concepto, método y aplicaciones

La curva ROC o COR también se conoce como curva de iso-sensibilidad; dado que todos los puntos de la curva muestran una sensibilidad o discriminación constante, lo que varía a lo largo de la misma es el criterio: conservador (baja tasa de aciertos) o liberal (mayor tasa de aciertos). La localización de ambos a lo largo del continuo se ubicaría hacia el eje de ordenadas en el primer caso y separándose hacia el extremo de la diagonal en el segundo. Por lo tanto distintas curvas muestran grados de sensibilidad diferentes, siendo, como hemos señalado, mejor la discriminación aquella que se separe más de la diagonal, ya que implica una d´ mayor. Señalemos para finalizar que, a pesar de la revolución que supuso en su momento esta teoría y las grandes aplicaciones que está generando, quedan cuestiones abiertas a la conjetura. La primera es que los índices se basan en asumir los supuestos de normalidad y homocedasticidad, lo cual en algunas situaciones es una suposición arriesgada. En segundo lugar, se supone que el comportamiento del sujeto es estacionario, es decir, la respuesta a un ensayo es independiente a la respuesta emitida en ensayos anteriores. Sin embargo, la evidencia experimental demuestra que, en algunas situaciones, se produciría dependencias secuenciales, por ejemplo el decremento de la vigilancia en función del número de ensayos. En cualquier caso, si como señala Jáñez (1992) una buena teoría es la que es capaz de reactivar la investigación y estimular el desarrollo en algunas parcelas del conocimiento, sin duda la TDS lo ha conseguido, como veremos en el apartado siguiente. 2.2.3 Aplicaciones de la TDS La TDS, en la medida que diferencia los dos componentes que conforman el juicio perceptivo, permite evaluar separadamente ambos conceptos y ha suscitado interés en otros campos aplicados más allá del ámbito de la percepción. Con la restricción señalada en el apartado anterior (que la actuación del observador no sea perfecta), los nuevos ámbitos en los que se ha utilizado abarcan todo el campo de los procesos psicológicos básicos, la psicología industrial, la psicología clínica, etc., es decir, en todas aquellas tareas o conductas donde el sujeto tenga que poner en marcha mecanismos de detección o decisión. Vamos a describir brevemente algunos de estos nuevos ámbitos para ofrecer una panorámica de la utilidad de esta teoría. En el campo clínico un trabajo representativo de la utilidad de la TDS es el llevado a cabo por Clark y Yang (1974) sobre la percepción del dolor. Se plantearon si los efectos de la acupuntura se debían a un cambio en la sensibilidad al dolor o a un aumento en la tolerancia, es decir, un criterio de respuesta más conservador. El procedimiento experimental consistía en insertar agujas en uno de los brazos de cada sujeto para provocar analgesia funcional, y posteriormente se les sometía a estimulaciones dolorosas en ambos brazos. Los resultados mostraron que la respuesta al dolor en el brazo some-

221

Percepción

tido a la acupuntura fue inferior que en el otro, sin embargo no había diferencias en la sensibilidad o discriminabilidad de los estímulos. Esto implica que lo que se produjo fue un cambio en el criterio de respuesta, estableciendo un criterio más estricto, en uno de los dos brazos. Otra aplicación más reciente, en este mismo ámbito, es la de Rietveld y Prins (1998) sobre la percepción de síntomas físicos en sujetos asmáticos crónicos. Plantean, en primer lugar, las diferencias entre síntomas subjetivos y objetivos relativos a la enfermedad y describen el proceso perceptivo de estos síntomas. A continuación aplican la TDS para diferenciar ambos tipos de síntomas, analizando las diferencias entre conciencia correcta de un síntoma y de una sensación normal frente a las formas de conciencia falsa de los síntomas y de las sensaciones fisiológicas normales. Otros trabajos que están utilizando este paradigma son el de Kemperman et al. (1997) con pacientes que presentaban un desorden bordeline de personalidad para determinar diferencias en el dolor percibido frente a sujetos normales, o el de Losier, McGrath y Klein (1996) en muestras de niños con ADHD (déficit de atención con hiperactividad). Estos autores encuentran que estos sujetos tienen criterios de respuesta semejante a los normales, siendo en cambio significativamente inferior su sensibilidad, dimensiones confusas en trabajos anteriores basados exclusivamente en evaluar la sensibilidad mediante procedimientos psicofísicos indirectos. Son varios los estudios en el ámbito de los procesos psicológicos básicos, especialmente en el estudio de la memoria. Arnau y Pelegrina (1988) utilizan medidas derivadas de la TDS junto al tiempo de reacción (TR) en tareas de discriminación y reconocimiento de palabras. Stephaneck (1987) aplica el paradigma de la TDS para determinar qué condición (memorizar unos pocos items con varios atributos frente a varios items con un único atributo) provoca peores resultados en la memoria. Sobre esta temática es importante tener en cuenta los problemas o limitaciones en la aplicación de esta teoría al campo de la memoria, una excelente revisión puede verse en Lecocg (1981a, 1981b). Otras aplicaciones han usado la TDS para abordar la diferenciación entre recuerdo y reconocimiento (Gardiner y Gregg, 1997); para evidenciar la existencia de la memoria a corto plazo de carácter olfativo (White y Treisman, 1997); para determinar las diferencias en ejecución mnésica y criterio de respuesta en pacientes afectados de Alzheimer (Bartok et al., 1997) o depresivos (Brelion, Smith y Wildlocher, 1997); o para abordar el análisis de algunas funciones cognitivas en animales (Marston, 1996). Por último, dos recientes obras: la primera, de Swets (1998), describe aplicaciones potenciales y reales de la TDS a problemas de diagnóstico individuales y sociales de gran importancia. Las discriminaciones que posibilitan esta teoría serían aplicables, según el autor, para mejorar los diagnósticos de sida, cáncer o próstata, y además plantea la utilidad en otras áreas tecnológicas (fatiga mental en vuelos, decisiones en condiciones de peligro, etc.).

222

6. Psicofísica: concepto, método y aplicaciones

La segunda, también coordinada por este autor (Swets, 1996) titulada Teoría de Detección de Señales y Análisis ROC en psicología y diagnóstico: colección de artículos, se centra en el análisis de la detección y reconocimiento, áreas que subyacen en la mayoría de los comportamientos complejos. Estructurada en tres apartados revisa, en primer lugar, la teoría de la TDS, los datos aportados por la investigación y los medios utilizados. En la segunda parte se centra en la exactitud y la eficacia de los diagnósticos, para abordar, en el tercer bloque, distintos ámbitos diagnósticos. Incluye además un apéndice con programas de computadora para adaptar curvas ROCs.

3. Cuantificación de la magnitud perceptiva La cuantificación de la magnitud perceptiva se ha intentado establecer empíricamente a través de las leyes psicofísicas. Estas leyes determinan la relación entre los continuos físicos y los psicológicos o percibidos, y la búsqueda de una ecuación matemática que describa esta relación ha sido, en buena parte, la propia historia de la psicofísica. En líneas generales, dos han sido las soluciones propuestas a este interrogante: la ley de Fechner que propone una relación logarítmica, y la ley de Stevens que postula una relación de tipo potencial o exponencial. Dado que constituyen los dos grandes momentos históricos del desarrollo de esta disciplina, vamos a abordar detenidamente los planteamientos de ambas propuestas. 3.1

Psicofísica clásica: la ley de Fechner

3.1.1 Antecedentes y formulación El intento de Fechner de expresar empíricamente la relación funcional entre el mundo físico y el mundo psicológico le llevó a establecer la primera ley de la psicofísica. Para conseguir este objetivo necesitaba medir de alguna forma el correlato psicológico de la estimulación provocada por el estímulo, de forma análoga a las medidas disponibles para el mundo físico. La metodología utilizada fue el diseño de los procedimientos psicofísicos clásicos o indirectos, desarrollados en el apartado anterior. A través de estos métodos (límites, ajuste, etc.) medía, de forma indirecta, la magnitud de la sensación. Sin embargo para formular su ley Fechner se basó en los trabajos de otro autor, Ernst Heinrich Weber, quien había descubierto que percibimos cambios relativos al captar la intensidad de los estímulos. La fracción establecida por este autor, que lleva su nombre, afirmaba que el valor absoluto de

223

Percepción

una DAP (diferencia apenas perceptible) aumenta en relación a la magnitud del estímulo, aunque el valor relativo de la DAP permanece constante. La formulación matemática es: K = DAP/IE, ( K = UD/ IE ) Donde K es la constante (el aumento en la proporción constante de la magnitud del estímulo) y para que se produzca un cambio de sensación, el valor de esta constante tiene que ser igual a la fracción del valor de la DAP o UD por la magnitud física del estímulo. Por tanto, sustituyendo en la fórmula anterior tenemos que DAP = K * IE. Si dos observadores han obtenido como resultado una DAP de 6 y 60 unidades, aunque el valor del estímulo sea distinto (p. ej. 100 y 1000), tendríamos un valor K o fracción de Weber constante: — Sujeto 1: K = DAP/IE = 6/100 = 0,06 — Sujeto 2: K = DAP/IE = 60/1000 = 0,06 Sin embargo, además de que esta fracción es diferente para cada modalidad sensorial, sólo se cumple cuando el estímulo tiene valores medios, ya que cuando éste adquiere valores extremos (umbral terminal —intensidad de la estimulación que comienza a ser nociva para el sujeto— o umbral absoluto —mínima intensidad capaz de provocar conciencia de sensación—) la función de Weber no se cumple. Con estos precedentes y a partir de estos trabajos, Fechner formuló la ley que lleva su nombre, donde se establece una relación matemática entre la dimensión psicológica (magnitud percibida) y la dimensión física (intensidad del estímulo). El algoritmo es el siguiente: P = K × log.I donde P (magnitud percibida) es igual a una constante (K) multiplicada por el logaritmo de la intensidad física del estímulo (log. I). Si queremos saber si al duplicar la intensidad de un sonido éste parece el doble de sonoro, planteamos hipotéticamente que K = 1 y la intensidad del estímulo es 100 (valor de I). Aplicando la ley anterior tenemos que P = 2, dado que el logaritmo de 100 es 2 (recuerde que el logaritmo de un número es la potencia a la que ha de elevarse 10 para ser igual a dicho número). Al duplicar la intensidad (I = 200) obtenemos que P = 2,3. Por lo tanto, en este caso, el duplicar físicamente la intensidad de un estímulo no se corresponde con una duplicación en la magnitud de la sonoridad percibida del mismo. Según esta ley, la intensidad percibida aumenta en progresión aritmética (3,5,7) mientras que la intensidad del estímulo debe aumentar en progresión geométrica (3,6,12).

224

6. Psicofísica: concepto, método y aplicaciones

3.1.2 Desarrollos y límites Hay que reconocer a Fechner el haber logrado establecer una función psicofísica, es decir, asignar valores o cuantificar tanto los estímulos como las correspondientes sensaciones. A través de los métodos psicofísicos indirectos, por él desarrollados, determinó las dos únicas propiedades que se puede cuantificar de las sensaciones: la presencia o ausencia de la misma (UA) y las diferencias en intensidad (UD). A partir de los umbrales, Fechner desarrolló la primera ley psicofísica expuesta en el apartado anterior. La influencia de la misma ha sido enorme, durante bastante tiempo, tanto en el terreno de la psicofísica como en otros campos aplicados al diseño de instrumentos y aparataje con componentes visuales y auditivos. El propio Fechner (1860) estaba tan convencido de la solidez de su construcción psicofísica que veía muy difícil plantarle críticas o alternativas. Sin embargo, Fechner basó la formulación de su función psicofísica (Blanco, 1996) en dos leyes anteriores (Weber y Ekman), un supuesto (la sensación correspondiente al UA es 0), y un principio matemático (lo que es válido para pequeñas magnitudes también lo es para magnitudes infinitesimales). En primer lugar la ley de Weber, que afirmaba que la diferencia apenas perceptible (DAP) es una fracción constante de la intensidad del estímulo, según distintos trabajos experimentales no es correcta ya que esta ley sólo se cumple con intensidades estimulares intermedias, no manteniéndose cuando la intensidad del estímulo es muy baja (próxima al UA) o muy alta (próxima al umbral terminal). En segundo lugar, el resto de supuestos asumidos sólo son válidos en según qué condiciones y de acuerdo a determinadas combinaciones (para una explicación más completa véase Blanco, 1996). Por tanto, parece que si la ley estaba basada en premisas incorrectas no puede ser válida. Sin embargo la formulación de Fechner se asentó en la psicofísica académica y en el campo aplicado, a pesar de otras formulaciones alternativas (Plateau, Delboeuf y Herring), hasta que a partir de la tercera década de este siglo se cuestionan dos de los elementos centrales de la psicofísica clásica: a) fiabilidad e independencia de los juicios psicofísicos, y b) métodos piscofísicos directos vs. indirectos. El primero se centra en señalar que las respuestas de los sujetos no están determinadas únicamente por las características físicas del estímulo sino que el perceptor añadía o contaminaba su decisión con determinados sesgos o tendencias de respuestas. El segundo, cuestiona el abordaje metodológico indirecto de la medida de las sensaciones y plantea nuevas alternativas de medida directa. Fruto de esta nueva línea y del trabajo del autor más destacado, Stevens, surge la nueva ley general de la psicofísica o ley potencial.

225

Percepción

3.2

Psicofísica moderna: la ley de Stevens

3.2.1 Ley potencial: metodología y conceptualización Con el giro producido en la investigación y debido también al planteamiento de la nueva psicofísica, el problema o la cuestión central es de qué forma podemos obtener medidas directas de las sensaciones, ya que a diferencia del enfoque indirecto de Fechner, el trabajo de Stevens se desarrolla midiendo directamente las sensaciones, es decir, asignándoles un valor numérico a las mismas. Para llevar a cabo esta tarea Stevens utilizó básicamente tres métodos que de forma breve exponemos a continuación: a)

Estimación de magnitudes y razones. Este método requiere que los observadores asignen números directamente en proporción a sus magnitudes subjetivas. Si el estímulo modelo tiene un valor de 1 y el siguiente que se presenta le parece el doble le asignaría un 2; en el caso que le parezca la mitad le asignaría como valor 0,5. Para estimar razones, la presentación de los estímulos base y de comparación es conjunta, siendo la tarea del sujeto informar de la razón existente entre las intensidades de ambos estímulos. b) Producción de magnitudes y de razones. La lógica de este método es la inversa del anterior, es decir, a partir de un valor numérico el sujeto tiene que ajustar las magnitudes de los estímulos a estos valores de sensación. Para realizar un experimento con producción de razones, se presenta el estímulo base y el sujeto tiene que manipular el de comparación hasta que se produzca una razón de sensación establecida previamente. c) Ajuste entre modalidades. Esta teoría es así denominada porque el sujeto tiene que emparejar la magnitud percibida de un estímulo de una modalidad sensorial con la de otro estímulo de modalidad sensorial diferente, por ejemplo equiparar la sonoridad de un tono con la longitud de unas líneas. La técnica de ajuste entre modalidades permitía salvar las críticas realizadas a los métodos de estimación, ya que se argumentaba que estos experimentos nos informaban más de la forma en que las personas utilizan los números que de las características sensoriales de los estímulos que se les pedía juzgar. A partir de la utilización de esta nueva forma de abordar la medida de la sensación, Stevens comprobó que los resultados empíricos no se ajustaban a la ley logarítmica expuesta por Fechner, sino que seguían una ley o función potencial. Plateau (1872) propuso que la magnitud perceptiva era proporcional a una potencia del estímulo físico, es decir, que el aumento del continuo psicológico respecto al físico se producía en base a una función potencial, no logarítmica. Sin embargo, este planteamiento, predecesor de

226

6. Psicofísica: concepto, método y aplicaciones

Magnitudes percibidas

M. percibidas (escala logarítmica)

la ley de la potencia de Stevens, cayó en un cierto olvido hasta que el programa de investigación de este autor, de casi cuatro décadas, planteó una alternativa para sustituir la ley de Fechner. Stevens (1957) estableció además una distinción entre los continuos perceptivos protéticos (se refieren al “cuanto” de la sensación) frente a los metatéticos (se refieren a “qué clase”), y señaló que el supuesto de Fechner de la igualdad de la DAP puede cumplirse en los continuos o dimensiones metatéticas pero nunca en los protéticos. Si observamos la Figura 6.12 podemos observar que, con los tres tipos de estímulos utilizados, los resultados son bastante diferentes. La estimación de la magnitud que realizan los observadores para determinar la percepción visual de la velocidad, el brillo de una luz, o las sensaciones gustativas, producen resultados opuestos. Para el primer estímulo (velocidad), la curva muestra expansión de respuesta, es decir, la duplicación de la intensidad física produce un aumento superior en el plano psicológico. En el tercer estímulo el resultado es inverso, la curva muestra comprensión de respuesta, es decir, que al duplicar físicamente la intensidad de la luz ésta no se percibe como el doble de brillante. Por último, en el segundo estímulo (gusto) la curva adopta una forma casi lineal, lo que implica que los aumentos físicos son recogidos de forma casi lineal desde el punto de vista psicológico o perceptivo. Además, si representamos los datos de la figura anterior en coordenadas logarítmicas la función potencial se expresa en una línea recta cuyo exponente determina la pendiente de la misma.

Magnitudes físicas

Figura 6.12

M. físicas (escala logarítmica)

Relación entre magnitudes físicas y percibidas (adaptada de Munar, 1997).

Por lo tanto, a partir de un conjunto amplio de trabajos, Stevens llegó a la conclusión de que la magnitud percibida es proporcional a la magnitud física de los estímulos elevada a una potencia, siendo el algoritmo: P = K × In

227

Percepción

el que expresa esta relación, donde P es la sensación o magnitud percibida, I es la intensidad del estímulo, K una constante dependiente de las unidades de medida y n el exponente que depende de la modalidad sensorial específica. En el caso anteriormente planteado el exponente 1 que se producía con el gusto refleja de forma casi perfecta el postulado de la ley: a proporciones iguales de aumento de la intensidad le corresponden proporciones iguales de aumento de sensación. Con los otros estímulos la situación se invierte, ya que en el primer caso la percepción visual de la velocidad produce expansión de respuesta porque el exponente es 1,7, en cambio el brillo de un foco luminoso produce comprensión de respuesta porque el exponente es de 0,4. A partir de la utilización de las técnicas descritas, Stevens (1960) consiguió determinar en continuos protéticos los exponentes representativos de funciones potenciales que relacionan la intensidad del estímulo con la magnitud psicológica. Así los exponentes varían desde el 3,5 para la descarga eléctrica en los dedos, hasta el de 0,55 para el olor del café, pasando por el 1,1 para la presión en la palma de la mano o la duración de un estímulo sonoro. La ley potencial propuesta por Stevens se conoce también como la ley general de la psicofísica, ya que incluye a las leyes anteriores de Weber y Fechner. Según lo postulado por Fechner la relación entre lo físico y lo percibido se basa en que mientras las intensidades físicas aumentan en progresión geométrica lo percibido lo hace en progresión aritmética. Esta situación se cumple cuando el exponente es inferior a 1, por lo tanto la ley propuesta por Stevens incluye las predicciones particulares de las leyes anteriores. 3.2.2 Evidencia experimental y aplicaciones Aunque los resultados obtenidos con los métodos de estimación y producción eran básicamente coincidentes, Stevens (1967) desarrolló la técnica conocida como ajuste o emparejamiento entre modalidades para obviar las críticas por la utilización de números. Esta técnica, comentada en el apartado anterior, se basa en ajustar la intensidad percibida de un estímulo de una modalidad con la de un estímulo de otra distinta. El objetivo era establecer una función de sensación equiparable a las obtenidas para cada una de las modalidades implicadas en el emparejamiento, cuyo exponente sería resultado de la razón de los exponentes correspondientes a las demás modalidades sensoriales utilizadas. Los datos aportados por el propio autor y los reflejados por otros investigadores señalan que la mayor parte de las pruebas procedentes de las funciones de sensación equiparable (vibración y sonoridad, fuerza de agarre y distintos estímulos criterio —calor, frío, luz, descarga eléctrica—, brillo y

228

6. Psicofísica: concepto, método y aplicaciones

otros continuos, etc.) se ajustan a las predicciones establecidas en la ley potencial. Además, frente a las explicaciones alternativas de los resultados propuestos por otros autores (Warren, 1973) de que la función potencial refleja lo que los sujetos han aprendido asociando un aspecto conocido del estímulo con las impresiones sensoriales, es difícil aceptarlos desde el número tan amplio de dimensiones abarcadas y la ausencia de familiaridad o aprendizaje que tienen los observadores en algunos de los continuos sensoriales estudiados. Por último señala que el hecho de que se haya evidenciado la reciprocidad entre el atributo de un estímulo y su contrario da mayor consistencia a la teoría. Así, se ha comprobado el fenómeno con la longitud de líneas (función potencial de 1,0 para las largas y de –0,97 para las cortas), con el tamaño de cuadrados (funciones potenciales de 0,62 y –0,72 para el tamaño grande y pequeño respectivamente). Los resultados muestran que si la magnitud percibida de un estímulo es una función potencial de la intensidad del estímulo, el atributo contrario o inverso también será una función potencial de la intensidad con un exponente igual pero de signo distinto (Stevens y Guirao, 1963). En lo que se refiere a las aplicaciones de la ley potencial de Stevens, éstas han permitido una amplia variación en las escalas psicológicas para los distintos estímulos físicos. Los fenómenos de comprensión y expansión de respuesta quizás tengan un carácter adaptativo para el organismo, ya que de esta forma se defiende o se pone en estado de alerta ante los estímulos más nocivos (dolorosos), y evita también la sobrecarga del sistema de procesamiento de aquellos estímulos frecuentes (visuales o auditivos) a los que estamos expuestos de forma continua y que varían en un rango significativamente muy amplio. Las implicaciones prácticas de la ley se reflejan, por ejemplo, en la adopción por parte de la Organización de Medidas Internacionales de las funciones obtenidas en algunos continuos físicos, para emplearlos en cálculos de ingeniería y diseño de aparataje. De lo dicho hasta aquí parecería deducirse que la ley potencial es la alternativa definitiva en lo que se ha dado en denominar la nueva psicofísica. Sin embargo esta impresión no es del todo cierta, ya que se han planteado algunas cuestiones que quedan pendientes de resolver. Un primer grupo de críticas podrían agruparse bajo el epígrafe de dependencias (metodológicas e individuales). Así, aparecen discrepancias entre las predicciones de la teoría y los resultados experimentales de algunas investigaciones cuando se han producido variaciones metodológicas (los distintos métodos —estimación o producción—, secuencia del estímulo modelo con los de comparación, intervalo de valores del estímulo, contexto de presentación, etc.) y de carácter individual (variables cognitivas, experiencia o familiaridad y sesgo de respuestas). Tampoco las pruebas neurofisiológicas parecen ser la respuesta definitiva al dilema de fondo, es decir, el espaldarazo o reconocimiento de la fun-

229

Percepción

ción logarítmica o la potencial. La ambigüedad neurofisiológica a nivel periférico no permite establecer con claridad ninguna de las funciones aludidas, es decir, la proporción del impulso de la descarga neural en función de la intensidad del estímulo. Incluso, aunque se pudiera determinar la frecuencia de descarga neural y la función correspondiente (logarítmica o exponencial) para cada modalidad sensorial, quedaría pendiente por resolver la influencia de los procesos cognitivos superiores en la construcción del juicio psicofísico. Y este problema vuelve a plantear la vieja discusión entre la teoría del umbral sensorial frente a la medición de umbrales de respuesta. La circularidad de los debates dentro de la psicofísica son patentes, por lo que cabría preguntarse si existen visos de superar esta encrucijada. A ello dedicaremos las reflexiones finales en el próximo apartado.

4.

La teoría psicofísica y el estudio de la percepción

4.1

Aplicaciones psicofísicas del tiempo de reacción (TR)

Hasta este punto de la exposición hemos abordado el problema de la detección y de la discriminación en situaciones de una cierta incertidumbre, donde los sujetos podían cometer errores en sus juicios psicofísicos. En este apartado vamos a ocuparnos de la utilidad del tiempo de reacción (TR) cuando lo que nos interesa es medir el tiempo de detección de unas determinadas características del estímulo o de discriminar señales que no se solapan con distribuciones del ruido, es decir, que, aplicando los parámetros clásicos de la TDS por ejemplo nos diera índices de sensibilidad extremos (d’ = 6). En este caso, ante tres señales que el sujeto discrimina perfectamente quizás puede resultar de interés comparar las características diferenciales de las discriminaciones. De esta forma podemos comprobar los TR diferenciales entre S1 y S2 , S2 y S3 , y S3 y S1 , para determinar tanto los intervalos de detección como de discriminación. Así, en este tipo de situaciones los métodos anteriormente expuestos resultarían totalmente ineficaces, siendo más adecuado la utilización de técnicas basadas en el TR. Los tres paradigmas básicos en el TR presentan utilidades en alguno de los campos aplicados de la psicofísica, desde el más sencillo (TR simple, una respuesta a un solo estímulo) hasta los más sofisticados: el TR disyuntivo (varias respuestas a distintas señales posibles) y el TR selectivo (ante varios estímulos sólo hay que responder a uno previamente especificado). El TR como técnica de análisis de los procesos mentales implicados en la adquisición de información, procesamiento y elaboración de la respuesta ha tenido dos grandes tendencias históricas. La primera centrada en cuantificar la duración de los procesos mentales implicados en una tarea (método sustractivo de Donders) y la segunda interesada en describir la naturaleza de estos procesos internos (método de los factores aditivos de Sternberg).

230

6. Psicofísica: concepto, método y aplicaciones

La otra perspectiva que ofrece el TR en psicología, en general, y en aplicaciones psicofísicas, en particular, ha sido el considerarlo como variable dependiente. La literatura es bastante extensa sobre la influencia de distintos factores en el resultado final del TR (intensidad del estímulo, tiempo de espera, similitud de los estímulos presentados, criterio de decisión, etc.). Incluso con algunos de estos factores se ha conseguido establecer funciones o leyes (Pierón y Hick-Hyman). De especial relevancia resulta, tanto para la psicofísica como para cualquier otra aplicación psicológica, el ajuste rapidez-precisión ya que ambas variables presentan un alto grado de covarianza, es decir, el TR es inferior pero a costa de cometer un mayor número de errores. Además de tener en cuenta este aspecto para utilizar las medidas de corrección adecuadas, el TR es una fuente de información complementaria para determinar el procesamiento de las características de un estímulo por parte del sujeto, y para poder valorar su ejecución. Una aplicación concreta de este concepto a la velocidad de separación de dimensiones separable vs. integrables puede verse en Lillo (1993). Por último, como señala Blanco (1996), el TR presenta una ventaja frente a otras medidas de precisión expuestas en apartados anteriores (aciertos, d´, etc.). El rango de variación del TR es mucho mayor que el de las medidas de precisión aludidas, por lo tanto es más sensible y nos permite realizar discriminaciones más finas entre distintas condiciones experimentales o entre las actuaciones de los sujetos en dos momentos diferentes. 4.2

Perspectivas recientes en Psicofísica

En la actualidad, el estado de la teoría psicofísica dista de haber conseguido una integración, y transcurrido más de un siglo desde la fundación de esta disciplina la pregunta sobre la relación entre lo físico y lo percibido sigue estando abierta. Sin embargo, la investigación y las controversias teóricas han significado un claro avance sobre la cuestión, principalmente en cuanto a la toma de conciencia de la complejidad del proceso y de los innumerables factores que pueden determinar la relatividad experimental de algunas conclusiones o postulados. Además, las diferencias teóricas y metodológicas plantean un horizonte que se aleja de una posible integración. Así mientras algunos autores han centrado sus esfuerzos y prestan especial atención a la relación entre los estímulos más que a la magnitud de la sensación, como base de juicio (Krantz, 1972), otros focalizan sus recursos en intentar hacer compatibles los distintos procedimientos experimentales, así como en integrar los resultados obtenidos con los mismos (Ward, 1972). Y frente a los que siguen defendiendo la tradición clásica de la psicofísica, es decir, encontrar leyes psicofísicas generales (Norwich, 1993), otros como Lockhead (1992) opinan

231

Percepción

que ya ha llegado la hora del cambio y proponen la psicofísica de objetos, en clara contraposición a la psicofísica de atributos, que ha sido dominante a lo largo de la propia historia de la psicofísica. Pero tampoco los seguidores de la línea psicofísica al estilo de Fechner y Stevens tienen un planteamiento común al expresado anteriormente en la obra de Norwich. No es compartida, por ejemplo, la idea de este autor de encontrar una única ley psicofísica general que además sea válida para todos los atributos sensoriales, sino que opinan que sólo es posible encontrar leyes específicas para atributos sensoriales concretos. Sin pretensiones de agotar todas las posiciones al respecto, un planteamiento de especial interés y que se aparta de las concepciones anteriores es la teoría de integración de información (Anderson, 1991). Lo que propone básicamente esta línea es ampliar el ámbito de la investigación psicofísica desde la óptica de la percepción como un proceso de integración de información de distintas sensaciones. Los elementos fundamentales de la teoría son las etapas en la integración de información (valoración psicofísica, integración psicológica y respuesta psicomotora), y las reglas algebraicas cognitivas que el sujeto pone en marcha (adición, sustracción, etc.). Confiemos, como apuntan Dember y Warn (1990), que de esta situación tan dispar pueda plantearse un enfoque más comprensivo que dé lugar a leyes psicológicas de carácter general.

Bibliografía comentada Jáñez, L. (1992): Psicofísica. En J. L. Fernández Trespalacios y P. Tudela (coords.). Tratado de Psicología General (vol 3). Atención y Percepción (pp 1-44). Madrid, Alhambra. Es una referencia clásica de la literatura en castellano sobre la temática dada la sistematización y rigurosidad con la que se exponen los elementos centrales de la teoría psicofísica. En tres apartados se revisan minuciosamente la teoría del umbral sensorial, la TDS y las leyes psicofísicas, valorando críticamente las cuestiones fundamentales que subyacen en los desarrollos psicofísicos propuestos. Lillo, J. (1993): Psicología de la percepción, Madrid, Debate. A lo largo de dos capítulos (pp 79-174) se exponen de forma clara y bastante extensa las dos cuestiones centrales de la psicofísica. En el primero (Cap. 3) se analizan los límites de la percepción, es decir, lo relativo a los umbrales, mientras que el capítulo siguiente se centra en las dimensiones y continuos (leyes de Fechner y Stevens). Aunque existen capítulos dedicados a la psicofísica en muchos manuales sobre la psicología de la percepción, el discurso y las continuas ejemplificaciones lo hacen especialmente idóneo para introducirse en los tópicos más relevantes de esta disciplina. Blanco, M. J. (1996): Psicofísica. Madrid, Universitas. Es, sin duda, la obra más completa y actual de las publicadas en castellano sobre esta temática. A lo largo de trece capítulos aborda de forma completa tanto los aspectos relacionados con

232

6. Psicofísica: concepto, método y aplicaciones la psicofísica indirecta (detección y discriminación) como los relativos a la psicofísica directa. Añade además sendos capítulos sobre tópicos no habituales en las obras dedicadas a la psicofísica: uno sobre el estudio de los tiempos de reacción y otro sobre identificación de estímulos unidimensionales. Las ejemplificaciones y aplicaciones a distintas áreas facilitan la comprensión y utilidad de la disciplina y su proyección en áreas tanto psicológicas como de otras ciencias (oftalmología, ergonomía, acústica, etc.). Se incluyen apéndices enormemente útiles tanto para tener una visión histórica del desarrollo de la disciplina como para realizar innumerables ejercicios de prácticas sobre cada uno de los capítulos, además de información sobre programas de ordenador disponibles para el cálculo de los índices fundamentales. Green, D. y Swets, J. (1988): Signal detection theory and psychophysics, Nueva York, Wiley (original 1966). Aunque la obra no aborda temas centrales de la psicofísica, es una referencia obligada para la profundización en la teoría de detección de señales. Además de los aspectos centrales de esta teoría —supuestos, modelo paramétrico, predicciones, etc.— aborda otros enfoques teóricos y metodológicos relacionados (teorías del doble umbral o paradigmas experimentales alternativos). Stevens, S. (1975): Psychophysics: introduction to its perceptual, neural and social prospects, Nueva York, Wiley & Sons. Esta obra póstuma del creador de los métodos psicofísicos directos hace un repaso exhaustivo al análisis y descripción de estas técnicas junto a las funciones psicofísicas derivadas de las mismas. El lector puede encontrar una amplia expansión de la ley potencial: formulación, evidencia experimental, validez de la función e interpretación del exponente en distintos continuos protéticos. Anderson, N. (coord.) (1991): Information integration theory (vol. 1: cognition), Hillsdale, N. J.: Lawrence Erlbaum. Dentro de las nuevas tendencias en la psicofísica una de las propuestas que ha adquirido especial relevancia es la denominada psicofísica de la integración desarrollada por este autor desde los años sesenta. La percepción como un proceso de integración de información y la función propuesta por Anderson son aplicables en campos muy diversos de la psicofísica y de la psicología. Esta obra recoge ejemplos de estas aplicaciones y puede servir para reflexionar sobre otras posiciones y alternativas a la línea psicofísica más tradicional.

233

Percepción

Preguntas de revisión 1. El estudio del tiempo de reacción (TR) se adscribe a los métodos psicofísicos directos o indirectos. Justifique su respuesta. 2. ¿Qué significa curva de isosensibilidad? 3. ¿Qué proporción de aciertos y falsas alarmas produce una curva ROC plana, es decir, superpuesta a la diagonal? ¿Qué significa desde el plano de la sensibilidad (d´)? 4. ¿En qué se diferencian conceptualmente los tres métodos psicofísicos indirectos desarrollados por Fechner? 5. ¿Cuál es la relación entre sensibilidad y umbral? 6. Relacione la polémica de la continuidad-discontinuidad sensorial con los problemas de la medición de umbrales sensoriales. 7. ¿Por qué la ley de Weber no se cumple en los extremos del continuo sensorial? 8. Señale las diferencias entre continuos protéticos y metatéticos.

234

7.

Procesamiento básico de la visión Florentino Blanco David Travieso

El capítulo presenta una estructura bastante habitual en la descripción de los mecanismos básicos implicados en la visión. Se muestran, en primer lugar, algunos argumentos útiles para entender la lógica adaptativa del sistema visual, lo que, en buena medida, exige exponer algunos conceptos básicos de física y óptica. A continuación se describen los elementos anatómicos esenciales del ojo humano y se trazan las principales vías de proyección cerebral de la información visual. El capítulo se cierra con una reflexión abierta sobre la naturaleza compleja de nuestras concepciones sobre la percepción y la necesidad de plantearse fórmulas de investigación que nos permitan transcender los límites de las tradicionales explicaciones mecanicistas.

1.

Introducción

Parece claro que el sistema visual tiene una prevalencia clara en nuestra sintonización con el espacio en el que vivimos, en relación a otras modalidades sensoriales. Nuestra experiencia visual nos instala directamente en el mundo. La visión introduce el mundo en el escenario de la conciencia para que podamos salir confiados a instalarnos en él. La aparente fidelidad de nuestras experiencias visuales al mundo en el que vivimos nos hace olvidar a menudo la enorme complejidad de los procesos por los cuales semejante sensación se hace posible. De hecho, el primer problema que el alumno

235

Percepción

debe superar para introducirse en el estudio de la visión radica seguramente en la posibilidad de advertir dicha complejidad, es decir, dejar de pensar que ver no es un problema. El objetivo más importante de este capítulo es justamente tratar de problematizar de la manera más sencilla posible las ideas que espontáneamente manejamos sobre la naturaleza de la visión. No se trata, desde luego, de llegar a concluir que la visión resulte, en algún sentido, problemática. Por el contrario, todo parece indicar que la sensación de vivir instalados en el mundo que nos proporciona la visión resulta extremadamente útil. En ese supuesto radica, por ejemplo, la posibilidad misma de compartir el espacio en el que vivimos y los objetos que lo pueblan, nuestros propios cuerpos entre ellos, e, incluso, si se quiere, la posibilidad de referirnos mediante signos de muy diversa naturaleza a todas esas cosas. El diseño biológico de nuestra especie y, si en algún sentido es posible diferenciar ambas dimensiones, las múltiples formas de organización cultural que hemos ido construyendo a través de la historia serían seguramente incomprensibles sin contar con la visión y el tipo de experiencia del mundo que nos provoca. Por esa razón, es decir, por la vinculación indisoluble entre lo que, un tanto apresuradamente, hemos denominado nuestro diseño biológico y nuestra capacidad para generar formas culturales, resulta un tanto inútil tratar de explicar la visión apelando de manera exclusiva a lo que tenemos dentro de la carcasa. Aunque sólo sea porque el diseño de una semilla de trigo resulta incomprensible si no sabemos algo sobre las propiedades de la tierra en la que debe germinar.

2.

Nuestra experiencia del mundo a través de la visión

La capacidad de los seres humanos para distanciarse (voluntaria o involuntariamente) y observar, por así decirlo, desde otro plano de experiencia sus experiencias inmediatas, radicalmente ligada a su naturaleza social, es, en este sentido, el primer problema, el primer escollo que nos encontramos en nuestra tentativa de problematizar la visión. Empecemos con un ejemplo sencillo, y habitual, cuando se discute sobre la naturaleza de la visión. Se trata de la célebre ilusión vertical-horizontal (véase la Figura 7.1). Como seguramente el lector ya sabe la clave de esta ilusión estriba en el hecho de que aunque los segmentos vertical y horizontal tienen la misma longitud, el primero se percibe como más largo. Lo fascinante, en cualquier caso, es que el fenómeno persiste a pesar de que sabemos que se trata de una ilusión. Nuestra conciencia no puede penetrar por más que se empeñe en el dominio de la percepción. Esta impermeabilidad de la experiencia perceptiva ha sido aducida por algunos autores como una prueba irrefutable a favor de una concepción modularista de la mente humana —la teoría de la modularidad— (Fodor, 1983; García-Albea, 1986). Sin llegar necesariamente a

236

7. Procesamiento básico de la visión

a

b Figura 7.1 Las ilusiones visuales representan un auténtico reto para las ciencias de la visión. En la parte superior de la figura se presenta la conocida como ilusión vertical-horizontal, cuyo segmento vertical se percibe más largo que el horizontal. En la parte inferior, se incluye una modificación de la ilusión vertical-horizontal cuyos efectos quedan compensados por la introducción de los elementos de la ilusión Muller-Lyer.

ese extremo, sí parece razonable pensar que la evolución ha jugado a cerrar a la conciencia ciertas zonas de la maquinaria mental para, por así decirlo, evitar interferencias o ruidos innecesarios en su funcionamiento. Sea como fuere, nada nos debe llevar a pensar que el encapsulamiento informativo, la especificidad energética y el automatismo facilitan la explicación de la percepción visual. Si intentamos analizar nuestra experiencia del espacio en la que podemos constatar, con cierta facilidad, una serie de hechos básicos que nos ayudan a intuir la complejidad de los fenómenos perceptivos y, por tanto, las dificultades que nos encontramos para explicarlos científicamente: — En primer lugar, y dependiendo de la fuente de la que procede la luz, la iluminación de una zona concreta del espacio puede ser puntual (por ejemplo, linterna, cerilla, sol, etc.) o difusa (por ejemplo, luz diurna en un día nublado). En segundo lugar, y como consecuencia del contacto con los objetos, la luz puede reflejarse (espejos y super-

237

Percepción

ficies pulimentadas, en general), ser absorbida (superficies negras) o puede transmitirse a través de aquéllos (cristal). — En función de estos fenómenos, cada punto de un espacio determinado tendrá su propio patrón de iluminación (distribución óptica ambiental), de manera que una descripción estrictamente óptica de los patrones de iluminación es ya, en condiciones normales, una tarea bastante compleja. El espacio óptico no es, objetivamente, una realidad simple y homogénea. — Pero, además, la información óptica no es estable. El espacio iluminado es percibido por un ojo que se mueve permanentemente (más adelante hablaremos de los movimientos sacádicos), el propio sujeto perceptor se mueve (o se puede mover) y los objetos que pueblan dicho espacio también lo hacen a menudo. Todo lo cual complica aún más la explicación de la experiencia visual. — A pesar de la enorme complejidad óptica del medio, normalmente percibimos un espacio relativamente estable y homogéneo. Tenemos la sensación de que lo que vemos está tal-y-como-lo-vemos-en-elmundo. Percibimos ciertas regularidades ópticas que tienen un carácter universal y resultan universalmente adaptativas. Un buen ejemplo de este tipo de fenómenos lo constituyen los denominados gradientes texturales (aumentos o disminuciones regulares de la frecuencia espacial de los elementos que constituyen un patrón óptico). Los gradientes de textura nos proporcionan, por ejemplo, indicios objetivos para movernos o tomar decisiones sobre las propiedades espaciales de nuestro entorno. Fenómenos de la misma naturaleza son las denominadas claves pictóricas para la percepción de la profundidad (perspectiva lineal, sombras, transparencias y solapamientos parciales, etcétera) (véase la Figura 7.2) (para una mejor comprensión de estas claves, véase el Capítulo 11). Otro tanto ocurre con las ilusiones visuales o con los fenómenos gestálticos (véase el Capítulo 10). Y, tal vez, lo más importante, sabemos implícitamente que semejantes regularidades las compartimos con el resto de los individuos de nuestra especie, independientemente de la cultura a la que pertenezcan o del momento histórico en el que habiten. Estamos, pues, ante un auténtico problema, si no misterio, para la ciencia actual: ¿cómo es posible que una realidad objetivamente compleja e inestable se convierta, subjetivamente, en un mundo estable, homogéneo y predecible en el que vivir? Existen, básicamente, dos respuestas alternativas a esta pregunta. La primera respuesta posible pasa, en cierto, modo por obviar la pregunta: todo lo que necesitamos para explicar cómo percibimos en condiciones normales es describir adecuadamente las propiedades objetivas del campo óptico; no necesitamos asumir que el cerebro humano transforme nada, o, mejor, basta con asumir que existe una sintonización adecuada

238

7. Procesamiento básico de la visión

Figura 7.2 Efectos de profundidad debidos a variaciones en la textura de las superficies. Adaptada de Monserrat (1998).

entre el sistema visual y la energía que percibimos como luz, de manera que el funcionamiento del sistema visual se puede tomar como una constante. Procederíamos, así, a explicar las regularidades que se producen en el funcionamiento del sistema visual a partir exclusivamente de las variaciones formales (susceptibles de ser descritas matemáticamente) que se producen en el flujo óptico. La teoría ecológica de la percepción, propuesta por Gibson ha asumido y defendido este punto de vista (Gibson, 1979). Los partidarios de este enfoque asumen que las imágenes perceptivas del mundo que nos rodea están sobredeterminadas por la información óptica objetiva presente en nuestro campo visual. A menudo, se ha acusado al enfoque gibsoniano de trabajar sobre un prejuicio realista ingenuo y de actuar metodológicamente con supuestos semejantes a los del conductismo. Según esta interpretación, los gibsonianos estarían postulando un sujeto que se limita a responder ciegamente a las propiedades objetivas del flujo óptico, de la misma manera, fija y automática, en que una rata responde a la aparición del estímulo discriminativo en la caja de Skinner. Desde nuestro punto de vista (véase también Costall, 1991 y 1995), la acusación no es del todo justa. Gibson está hablando de lo que sucede en cierto nivel (percepción) de acoplamiento entre el organismo y el medio. Su noción de affordance no apela, de hecho, como habitualmente se suele aducir, a las meras propiedades objetivas de la información contenida en el objeto (el término affordance es un neologismo derivado por el propio Gibson del verbo to afford, un verbo que, con un cierto margen de libertad, puede ser traducido al castella-

239

Percepción

no como ofrecer o permitir; así, en el contexto de la teoría gibsoniana de la percepción, la affordance de un objeto es lo que un objeto nos ofrece o lo que nos permite hacer con él). La affordance de un objeto reside justo entre lo que el objeto oferta al perceptor y lo que el perceptor puede percibir en (o hacer con) el objeto. La clave, en nuestra opinión, para sopesar adecuadamente las ideas de Gibson está en entender que Gibson intenta construir una teoría de la percepción que no se cierre sobre sí misma, y que aspire a encontrar los vínculos necesarios con el plano de la acción, o, incluso, que pueda ser explicada como una forma de acción. Esta forma de ver el asunto permite, por ejemplo, devolver el tacto activo al ámbito legítimo al que parece pertenecer, al de la percepción-acción, ámbito por cierto en el que ya había sido colocado por Luria a través de la hipótesis de los sistemas funcionales (Luria, 1974). En el extremo opuesto al planteamiento gibsoniano se sitúan quienes opinan que la información sobre el espacio disponible para el perceptor es siempre fragmentaria, inestable y confusa. De esta manera, serían los procesos de transformación, simplificación y formalización a los que el cerebro somete dicha información los responsables de nuestras sensaciones subjetivas de estabilidad y predictibilidad. La mayor parte de los especialistas en percepción visual que trabajan bajo el enfoque computacional estarían asumiendo de manera más o menos abierta este tipo de actitud. Para ellos el mundo está perceptivamente infradeterminado, no contiene objetivamente todo lo necesario para actuar directamente sobre él. El cerebro tendría siempre que acabar el trabajo. La línea de indagación iniciada ya hace algunos años por D. Marr (1982), y que será retomada en diversos capítulos de este libro, representa adecuadamente esta sensibilidad teórica. Sea como fuere, lo que parece claro es que hasta el momento no disponemos de una concepción integrada del sistema visual que nos permita planificar estrategias de investigación de carácter acumulativo. Nuestras aproximaciones al problema de la percepción visual están muy influidas por nuestras concepciones generales del fenómeno humano. Cabe preguntarse, por lo demás, si puede ser de otra manera. En todo caso, la percepción es seguramente el gran caballo de batalla de la psicología en la actualidad, y, en cierto modo, lo ha sido siempre. No hay posiblemente ninguna manera de hablar sensatamente sobre la arquitectura cognoscitiva, y psicológica, en general, del sujeto sin disponer en la base de una teoría de la percepción. Los fenómenos que antes hemos expuesto para tratar de ilustrar la complejidad de la percepción visual nos permiten intuir también que para comprender su funcionamiento es necesario tener algunas nociones muy básicas sobre física de la luz y sobre óptica. Después intentaremos describir la estructura anatómica del sistema visual y sus mecanismos básicos.

240

7. Procesamiento básico de la visión

3.

La luz como fenómeno físico

Como es bien sabido, existen en la actualidad dos formas distintas de entender la naturaleza de la luz. En efecto, la luz puede ser entendida bien como un flujo de corpúsculos o bien como patrones de ondas electromagnéticas. Cada una de estas formas de entender la luz permite dar cuenta de ciertos fenómenos físicos. En todo caso, y para los propósitos de este capítulo, entenderemos la luz como patrones de ondas electromagnéticas. Otros tipos muy conocidos de ondas electromagnéticas son, por ejemplo, las ondas de radio, los rayos infrarrojos o ultravioletas o los rayos X. La percepción visual se basa en el principio según el cual las ondas electromagnéticas son detectables por otras cargas oscilantes con la misma frecuencia ondulatoria. La retina (estructura situada sobre el fondo del ojo en la que, como veremos, se disponen los fotorreceptores) ha sido configurada a través de la evolución para detectar el espectro de ondas electromagnéticas asociadas a la luz. Es importante, en este sentido, recordar que a) el espectro de ondas electromagnéticas que nos permite ver es una parte mínima del espectro general de ondas electromagnéticas, b) no existen diferencias cualitativas entre otras ondas del espectro y las que nos permiten ver, y c) por lo tanto la percepción visual es, en principio, un fenómeno de naturaleza psicológica que surge como consecuencia de la sintonización de ciertas estructuras del organismo y ciertas energías del medio. Respecto a lo que ahora nos interesa, podemos decir que existen dos tipos de ondas: periódicas y no periódicas (Figura 7.3). Consideramos que una onda es periódica si la misma forma (oscilación, en un lenguaje un poco más técnico) se repite regularmente, cada cierto tiempo. Las ondas que nos producen la sensación de luz visible son un tipo particular de ondas periódicas que reciben el nombre de ondas sinusoidales. Las ondas sinusoidales (y las periódicas, en general) pueden ser descritas y cuantificadas a partir de varias propiedades, de las que nos interesan ahora, sobre todo, las siguientes: — Longitud: distancia entre dos punto idénticos y sucesivos de la onda. — Frecuencia: número de oscilaciones (de patrones de forma idéntica, de picos o valles) por segundo. — Fase: posición de una onda en relación a otra onda o un punto prefijado. Aunque en el capítulo posterior de este volumen se hará referencia a la frecuencia ondulatoria y a la fase, en este capítulo describiremos las ondas a partir de su longitud. Así, podemos decir que las ondas del espectro visible (las ondas que podemos ver) son una parte relativamente pequeña del total del espectro electromagnético. En concreto, las ondas que vemos se encuentran entre los 380 y los 700 nanómetros (nm; 1 nm= 10 elevado a 9

241

Percepción Amplitud de la perturbación

Longitud de onda

etc.

a

b Figura 7.3 Tipos y características cuantitativas de las ondas. La Figura a muestra una onda periódica sinusoidal, contrastada (Figura b) con una onda no periódica y no sinusoidal. Adaptadas de Monserrat (1998).

metros) (Figura 7.4). La mayor parte de la radiación emitida por el sol, es decir, de las ondas emitidas por el sol, es visible. No es extraño, por lo tanto, que la mayor parte de los organismos conocidos hayan desarrollado receptores sensibles a la misma. Aunque para muchos fines es conveniente concebir la luz como patrones ondulatorios, determinados fenómenos naturales y artificiales son más fáciles de explicar si partimos de la idea más intuitiva de que la luz se mueve por el espacio siguiendo trayectorias rectilíneas. La óptica geométrica es la disciplina que se encarga de estudiar la luz a partir de esta idea. La sombra es uno de los fenómenos ópticos naturales más conocidos. La sombra se produce como consecuencia de la interposición de un objeto en la trayectoria de la luz emitida por una determinada fuente. Los eclipses solares y lunares son fáciles de explicar a partir de las propiedades de las

242

7. Procesamiento básico de la visión

Figura 7.4 Espectro electromagnético general y espectro de la luz visible. Se señalan sus efectos perceptivos o manifestaciones más generales. Adaptada de Monserrat (1998).

sombras. En el primer caso, la luna se interpone entre el sol y la tierra y proyecta su sombra sobre esta última. En el segundo caso, la tierra se interpone entre el sol y la luna y proyecta su sombra sobre la luna. Los fenómenos de cámara oscura son también relativamente frecuentes en nuestro medio, pero son más fáciles de entender si uno los provoca deliberadamente. El principio es muy sencillo: si practicamos un agujero muy pequeño en una caja cerrada y opaca, y disponemos un objeto frente a él, la imagen invertida del mismo se proyectará sobre la cara interior y opuesta de la caja. Como es lógico, para verificar el fenómeno deberemos practicar otro agujero en la cara superior de la caja. El ojo humano o las cámaras fotográficas convencionales son versiones sofisticadas de esta cámara oscura. Aunque la analogía es evidente, cabe señalar que la pupila, esto es, el círculo más pequeño y oscuro que vemos en el centro del ojo, equivale al pequeño agujero practicado en la cara anterior de la caja. La retina, estructura en la que se encuentran las células sensibles a la luz o fotorreceptores, y situada, como veremos, en el fondo del ojo equivale, por tanto, a la cara opuesta e interior de la caja. En ambos casos, la imagen se proyecta invertida, dado el ángulo de incidencia sobre el agujero de la luz reflejada por el objeto (véase la Figura 7.5). La reflexión de la luz es también otro fenómeno muy frecuente en nuestra experiencia cotidiana explicable en términos de óptica geométrica. Como podemos comprobar fácilmente, los rayos se reflejan cuando hay un cambio muy brusco en el medio físico que impide que la luz atraviese el cuerpo sobre el que incide. La ley básica que guía la reflexión de la luz

243

Percepción

Objeto Figura 7.5

Pared anterior

Pared posterior

Esquema básico de una cámara oscura.

nos dice que el ángulo de incidencia de un rayo es igual al ángulo de reflexión. Una enorme variedad de fenómenos naturales y artificiales pueden ser explicados en virtud de las propiedades de la reflexión de la luz y de las ondas electromagnéticas, en general. Los espejismos, el efecto de espejo de determinadas superficies (la superficie del agua, por ejemplo), o los sistemas de detección de obstáculos desarrollados por los murciélagos son fenómenos naturales basados en la reflexión. El funcionamiento del radar y del sonar se basa también en la reflexión: a saber, si conocemos la velocidad de transmisión de una onda en un medio determinado (aire o agua, en cada caso) y la proyectamos sobre un objeto capaz de reflejarla situado en dicho medio, podemos medir el tiempo que la onda tarda en regresar al punto de emisión y estimar así la distancia hasta el objeto. Los murciélagos, y algunos ciegos muy experimentados, parecen capaces de estimar la presencia de un obstáculo utilizando el eco de las ondas sónicas de alta frecuencia (por encima de los 10.000 Hz). El Sonic Aid (ayuda sónica) es un dispositivo artificial de ayuda a la deambulación que algunos ciegos utilizan para detectar obstáculos en su entorno. Su principio de funcionamiento es básicamente el mismo en el que se basan el radar o los sistemas naturales de detección de obstáculos que utilizan los murciélagos o los ciegos experimentados, salvo que, en este caso, al usuario se le proporciona una señal auditiva explícita que le permite inferir la distancia a la que se encuentra el objeto y su posición en el espacio (véase Blanco y Rubio, 1993). Los espejos son dispositivos artificiales que se benefician de las excelentes propiedades de reflexión de los metales. La plata y el aluminio son los metales que mejor reflejan el espectro de la luz visible. Por eso los espejos se hacen con una capa de plata o de aluminio a la que se antepone un cristal para evitar su oxidación. Para que el espejo refleje toda la luz que in-

244

7. Procesamiento básico de la visión

cide sobre él necesita que la capa metálica presente un grosor mínimo. La reducción de la capa metálica hace que parte de la luz incidente se transmita a través de la misma, lo que resulta extremadamente útil para la construcción de gafas de sol o de los espejos unidireccionales habituales en las películas policíacas y en muchos laboratorios de psicología. Los espejos son superficies en las que la reflexión de la luz se produce en condiciones ideales, pero todos los objetos que vemos, de ello depende, reflejan la luz que sobre ellos incide. Se habla en estos casos de reflexión difusa. En condiciones normales la luz que no es reflejada por un objeto, o bien es absorbida o bien se transmite a través del mismo. Los cambios en la velocidad de transmisión de la luz entre dos medios son los responsables de lo que habitualmente denominamos refracción. A menos que el rayo de luz incida sobre el nuevo medio siguiendo una trayectoria perpendicular, su dirección variará. Si la luz pasa de un medio rápido (el aire) a un medio lento (el agua) la nueva dirección del rayo se aproximará a la normal (una línea ideal que incide verticalmente sobre la superficie). Si, por el contrario, la luz pasa de un medio más lento a uno más rápido, la nueva dirección se alejará de la normal. La refracción es la responsable de las distorsiones que por experiencia sabemos que se producen cuando vemos (e intentamos alcanzar) objetos sumergidos en el agua. Las lentes son dispositivos naturales o artificiales que utilizan su capacidad de refracción para modificar los patrones de luz que sobre ellos inciden. Las lentes artificiales se construyen habitualmente con materiales que apenas reflejan la luz (vidrio o plástico) y tienen infinidad de aplicaciones muy conocidas. Existen dos tipo básicos de lentes, cóncavas y convexas, cuyos efectos ópticos son distintos. Las lentes cóncavas hacen que los rayos de luz que inciden sobre ellas tiendan a separarse, mientras que las convexas provocan, por el contrario, un efecto de convergencia (Figura 7.6). La

Punto focal

Rayos de luz paralelos

Rayos de luz paralelos

Figura 7.6

Punto focal

Efectos de convergencia de lentes convexas finas y gruesas.

245

Percepción

mayor parte de los animales superiores incorporan lentes en sus ojos para mejorar su enfoque y, por lo tanto, su precisión óptica. La reflexión de la luz en los objetos que nos rodean, la estructura óptica del ojo humano, basada, por un lado, en el fenómeno de cámara oscura y, por otro, en la capacidad de refracción de la luz, constituyen las bases sobre las cuales opera el diseño biológico del sistema visual.

4.

El soporte biológico de la visión

Aunque no sabemos mucho sobre la verdadera naturaleza de la luz, sobre lo que en términos filosóficos podríamos denominar ontología de la luz, parece claro que los organismos que pueblan la corteza terrestre han sabido seleccionar a través del tiempo estructuras orgánicas sintonizadas con este tipo de energía. Como ya hemos indicado, algunos investigadores han insistido, tal vez no desatinadamente, en el hecho de que una descripción adecuada de los patrones ópticos objetivos a los que se exponen los organismos puede explicarnos adecuadamente su funcionamiento visual. Sin embargo, todo parece indicar que la propia descripción óptica puede estar regulada por las restricciones que impone el punto de vista de quien describe, esto es, su organización biológica particular. En todo caso, la existencia de ilusiones o aberraciones visuales naturales pone en duda la fiabilidad explicativa de una descripción óptica objetiva. En estos casos la descripción óptica objetiva y la experiencia visual del perceptor no coinciden, como sugeríamos al principio de este capítulo. Todo parece indicar, en definitiva, que la percepción visual representa un caso claro de acoplamiento y sintonización entre un tipo de energía muy frecuente en nuestro medio y ciertas estructuras desarrolladas justamente para procesar este tipo de energía. Efectivamente, con el fin de obtener ciertas ventajas adaptativas para la detección de objetos a distancia (por ejemplo alimentos, depredadores, congéneres con los que procrear, etc.), determinados organismos han desarrollado evolutivamente células sensibles a la luz. Pero, ¿qué ventajas adaptativas puede acarrear la sintonización perceptiva con este tipo de energía? En primer lugar, debemos recordar que la radiación electromagnética se produce por la oscilación de material cargado eléctricamente. Dado que toda la materia es, en último término, un patrón de cargas eléctricas oscilantes, este tipo de energía es muy abundante en nuestro entorno. En segundo lugar, la radiación electromagnética se desplaza muy rápidamente en el espacio (300.000 km por segundo, aproximadamente), de manera que un organismo sensible a este tipo de energía puede obtener información sobre objetos distantes de manera casi inmediata y con una mínima pérdida de información. Además, y como hemos señalado anteriormente, la radiación electromagnética tiende a viajar en línea recta, de manera que conserva de manera muy fiable la información estructural y geométrica de los objetos que la

246

7. Procesamiento básico de la visión

emiten o reflejan. Parece, pues, razonable que los organismos hayan desarrollado cierta sensibilidad a la radiación electromagnética. Sin embargo, hemos dicho ya que la luz constituye una franja mínima del espectro general de radiación electromagnética. La pregunta es obvia: ¿por qué la luz? Una razón evidente tiene que ver con el hecho de que la luz es muy abundante. Los rayos ultravioletas, por ejemplo, son filtrados o absorbidos mayoritariamente por las moléculas de oxígeno y nitrógeno de la atmósfera que nos rodea, de manera que raramente alcanzan a los objetos que nos rodean. Por otro lado, la luz interactúa muy adecuadamente con la superficie de los objetos. Su dinámica de absorción, reflexión y refracción nos permite obtener información muy útil sobre los mismos. Otras longitudes de onda más largas, por ejemplo las microondas, tienden a atravesar los objetos en lugar de ser reflejadas, de manera que no serían demasiado útiles en este sentido. Parece, pues, razonable que muchos organismos hayan desarrollado células sensibles a la luz. Estas células contienen pigmentos fotosensibles que modifican su estructura bioquímica cuando la luz incide sobre ellos. En los organismos más primitivos, los fotorreceptores se conectan a componentes motores de su sistema nervioso de una manera directa, sin estaciones de relevo. En los mamíferos superiores, y muy especialmente en el hombre, los fotorreceptores son tan sólo la primera estación de un largo, fascinante y misterioso viaje neurológico, que nos ha llevado más allá de los límites (microscopios, telescopios) del mundo perceptivo para el que parecían diseñados. El engarce cultural de la visión hace que sus funciones nunca puedan ser agotadas en la mera descripción óptico-biológica. Sin embargo, no hay función imaginable del sistema visual que no esté restringida por nuestro diseño biológico. Retomando el hilo de nuestra exposición, comprobamos que existen organismos que distribuyen sus células fotorreceptoras por toda su superficie, muy especialmente aquellos que no pueden autodesplazarse. Los organismos que sí lo pueden hacer suelen disponer de células fotosensibles ubicadas en una parte de su estructura orgánica favorable a su dirección de desplazamiento más habitual y adaptativa. Ciertos organismos disponen, además, de oquedades en su estructura orgánica que permiten mantener a salvo las células fotosensibles frente a estímulos ambientales nocivos. La disposición de los ojos en los depredadores (los felinos o el ser humano) y en sus víctimas habituales (el conejo y en los herbívoros, en general) permite intuir con facilidad por qué resulta adaptativo seleccionar la ubicación de los receptores en la superficie del organismo (Figura 7.7). Los depredadores necesitan calcular con mucha precisión la posición de una víctima (su alimento) que, generalmente, se puede mover. Bien para calcular el salto o bien para desplegar una estrategia de acoso. Si los ojos se disponen en la parte frontal del cráneo y, además, hay muy poca distancia entre ellos,

247

Percepción

Figura 7.7 Campos ópticos de un conejo y un ser humano (explicado en el texto). Adaptada de Sekuler y Blake (1994).

el campo visual será relativamente restringido, pero la zona del campo que los dos ojos pueden percibir al mismo tiempo será mayor. Aumentará, por tanto, la capacidad para estimar distancias en condiciones normales (véase el Capítulo 11) y, con ello, las posibilidades de alcanzar la presa con un consumo mínimo de energía. A la víctima, por el contrario, más que la precisión le interesa adaptativamente detectar objetos en movimiento en un entorno los más extenso posible. La disposición de los ojos en los parietales del cráneo reduce la visión binocular, pero aumenta la extensión del campo visual, y, por tanto, la posibilidad de detectar depredadores potenciales. En definitiva, y salvo excepciones, podemos decir que la lógica del funcionamiento del sistema visual se corresponde con una lógica adaptativa distribuida en el hábitat relevante para el organismo, de manera que éste genera restricciones en la definición biológica de la función visual y sus relaciones con otras funciones biológicas, o sociales, en el caso, con claridad, del hombre y tal vez de algunos monos antropoides. Por ejemplo, el contacto ocular no cierra su funcionalidad sobre el mero situar perceptivamente algo en el mundo, sino que define vínculos afectivos (después, además, comunicativos) que pueden optimizar las posibilidades de desarrollo de los individuos inmaduros. 4.1

Descripción general del ojo humano

El ojo humano es un órgano de forma casi-esférica. Esta forma está garantizada por la presión que desde su interior ejerce un líquido denominado humor vítreo, cuyo exceso puede provocar una enfermedad conocida como

248

7. Procesamiento básico de la visión

glaucoma. El globo ocular tiene un diámetro aproximado en el adulto de unos 7,5 cm y un peso de unos siete gramos. Las variaciones por exceso o por defecto del tamaño del ojo pueden provocar alteraciones ópticas. Los ojos más cortos de lo normal producen hipermetropía, mientras que los ojos excesivamente largos producen miopía (véase el Capítulo 19). El globo ocular puede ser movilizado por una estructura muscular externa relativamente sofisticada que permite localizar, y contribuye a enfocar, adecuadamente el objeto sobre la retina. Especialmente importante, y más allá de las funciones anteriores, es el papel de los rectos laterales y medios. Resulta muy fácil comprobar que cuanto más cerca de los ojos está el objeto que observamos, más convergencia ocular (más se giran los ojos hacia la nariz). Este movimiento genera una tensión en los músculos que el sistema nervioso es capaz de utilizar como un indicio para estimar la distancia a la que se encuentra el objeto (Figura 7.8) (véase el Capítulo 11). El globo ocular está recubierto por una capa fina y dura llamada esclerótica que en la porción central de la parte anterior del ojo se hace transparente (córnea) para dejar pasar la luz. Más hacia el interior se encuentra el coroides, que contiene vasos capilares que nutren las estructuras del ojo, y que permite regular el paso de la luz. En el centro se transforma, con este fin, en un músculo llamado iris. El iris permite variar el diámetro de la pupila, punto por el cual la luz accede al interior del globo ocular. Con poca luz la pupila aumenta su diámetro y con mucha luz lo disminuye, aunque no sólo el nivel de luminosidad es capaz de modificar el nivel de dilatación pupilar. Algunos psicólogos han comprobado que el nivel de dilatación de la pupila es un buen indicador del nivel de activación emocional y arousal que un organismo soporta. El detector de androides del célebre film Blade Runner, de R. Scott, se basaba en el mismo principio.

Figura 7.8 Esquema idealizado del modo en que el cerebro podría utilizar el nivel de tensión de los músculos oculares para estimar la distancia entre el perceptor y los objetos visuales. Adaptada de Sekuler y Blake (1994).

249

Percepción

Figura 7.9

Principales estructuras del ojo humano. Adaptada de Sekuler y Blake (1994).

Por delante del iris y la pupila se encuentra una lente ocular, también llamada cristalino, que puede alterar su forma, esto es, hacerse más fina o más gruesa, para variar a su vez el punto de convergencia de los rayos que la atraviesan. Así, y en términos generales, se hará más fina para enfocar adecuadamente los objetos lejanos y más gruesa para enfocar los objetos cercanos (véase el Capítulo 11). Alteraciones en la curvatura del cristalino producen distorsiones en la imagen que, en conjunto, son conocidas como astigmatismo (véase la Figura 7.10).

Figura 7.10 Si el lector percibe variaciones en el grosor o la curvatura de las líneas, seguramente tiene un problema de astigmatismo. Por supuesto, si utiliza lentes correctoras, antes de probar debería quitárselas. Adaptada de Sekuler y Blake (1994).

250

7. Procesamiento básico de la visión

En el fondo del globo ocular se encuentra la retina, estructura que contiene las células sensibles a la luz. La información recibida y procesada por la retina sale del globo ocular transportada por el nervio óptico a través del punto ciego, así llamado por carecer, como es lógico, de receptores (Figura 7.11).

Figura 7.11 Cierre el ojo izquierdo. A continuación tome el libro en sus manos y coloque el punto de fijación (la X) frente a su ojo derecho. Sin perder el punto de fijación, comience a mover muy despacio el libro hacia atrás o hacia adelante. Si tiene la paciencia necesaria, habrá un momento en que de pronto el punto redondo de la derecha se desvanecerá. Acaba usted de ubicar su punto ciego.

4.2

La retina

La retina recubre casi toda la superficie interna y posterior del ojo. Su función primordial es asimilar fotones y codificar electroquímicamente la energía electromagnética recibida, para después enviarla al cerebro. Detrás de la retina se encuentra, como ya hemos apuntado, el coroides, que proporciona las enzimas necesarias para la síntesis de los pigmentos fotosensibles. Dadas sus propiedades ópticas (recuérdese el funcionamiento de la cámara oscura), la imagen exterior (estímulo distal) se proyecta invertida sobre la retina. La retina se adhiere al coroides que nutre a los receptores y permite la síntesis de los fotopigmentos que éstos contienen. La retina se estructura, básicamente, en tres capas, que describiremos de dentro a fuera, es decir, desde la más cercana al coroides a la más alejada (en la Figura 7.12 la descripción iría de abajo arriba): a)

La primera es la formada por los fotorreceptores propiamente dichos. Hay dos tipos de fotorreceptores: los conos y los bastones. Los conos se encargan de la visión diurna y los bastones de la nocturna (buenas y malas condiciones de luz). Los bastones son mayores que los conos y también más abundantes (20 contra uno, aproximadamente) y su distribución sobre la superficie de la retina no es uniforme (en la Figura 7.12 los conos son claramente más pequeños y oscuros que los bastones). En concreto, los conos son muy frecuentes en el centro de la retina y muy escasos en el resto de la misma. Justo lo contrario sucede con los bastones (véase la Figura 7.13). Si el lector está familiarizado con la observación nocturna del firmamento se habrá dado cuenta intuitivamente que las estrellas de

251

Percepción

Figura 7.12

Organización anatómica de la retina. Adaptada de Sekuler y Blake (1994).

baja magnitud luminosa se localizan más fácilmente si se miran con el rabillo del ojo, es decir, haciendo que la luz que proyectan incida sobre la zona con mayor densidad de bastones, justo en la periferia de la fóvea. En la parte más cercana al coroides los receptores presentan una suerte de saco que contiene capas superpuestas de pigmentos fotosensibles, cuya estructura molecular se altera cuando la luz incide

252

7. Procesamiento básico de la visión 180.000 punto ciego

160.000

bastones

número de bastones y conos por mm2

140.000 120.000

bastones

100.000 80.000 60.000 40.000 20.000

conos

conos

fóvea

periferia tempopral

punto ciego periferia nasal

Figura 7.13 Distribución de fotorreceptores (conos y bastones) sobre la superficie de la retina. Adaptada de Sekuler y Blake (1994).

sobre ellos. Las capas se dividen entonces en dos partes, dejando una especie de canal entre ambas y cerrando el flujo hacia el interior de iones sodio positivamente cargados. La célula se hiperpolariza, es decir, se carga negativamente (pasando de 40 a 70-80 mv), provocando así la transmisión sináptica a la siguiente capa. En el centro de la retina se encuentra la fóvea, en cuyo centro, a su vez, se dispone la mácula lútea (literalmente, mancha amarilla). En el centro de la mácula se sitúa, a su vez, la fóvea centralis, una especie de depresión en la que sólo hay conos y que es, por tanto, la zona de la retina sobre la que se proyectan los objetos que intentamos percibir con mayor precisión en condiciones de alta luminosidad. b) La segunda capa está compuesta por las células bipolares, que constituyen la primera estación de relevo de la información visual en su viaje hacia el cerebro, y que sirven ya para integrar información de diversos receptores específicos.

253

Percepción

c)

En tercer lugar, y en la parte de la retina más alejada del fondo del ojo, se encuentran las células ganglionares, que integran la información remitida por las células bipolares, y por cuyos axones, unidos ya en el nervio óptico, sale la información retiniana hacia los centros visuales del cerebro a través del punto ciego Se han descrito tres tipos de células ganglionares en virtud de su velocidad de conducción del impulso nervioso: las células X (20 metros por segundo), que parecen encargadas de procesar estímulos

A Campo receptivo de centro encendido

B Campo receptivo de centro apagado

Área encendida

Área apagada

Área apagada

Área encendida

Luz

Luz

1 Punto central

2 Punto periférico

3 Iluminación central

4 Iluminación periférica

5 Iluminación difusa

0

0,5 1,0 segundos

Figura 7.14 Patrones de respuesta típicos de las células ganglionares de centro encendido (A) y apagado (B) ante distintos tipo de iluminación. Adaptada de Monserrat (1998).

254

7. Procesamiento básico de la visión

estáticos; las células Y (40 m/seg.), que parecen procesar estímulos en movimiento; y las células W (10 m/seg.), que envían información a partes muy primitivas del cerebro y que pueden estar implicadas en el control motórico del ojo y la cabeza para centrar visualmente los objetos del entorno. Se trata, por tanto, de células implicadas en la dinámica atencional del organismo. Cada célula ganglionar tiene su propio campo receptivo. El campo receptivo de una célula ganglionar define el conjunto, de forma aproximadamente circular, de receptores fotosensibles (recordemos que ni las bipolares ni las ganglionares lo son) cuya activación o inhibición afecta a su funcionamiento. Hay dos tipos de campos receptivos y, por tanto, de respuestas ganglionares: de centro encendido y de centro apagado. En el primer caso, la célula ganglionar se activa máximamente si se activan los receptores del centro de su campo y permanecen sin activar los receptores de la periferia. En el segundo caso, sucede justo lo contrario, esto es, la ganglionar está máximamente activa si los receptores del centro de su campo no son activados por la luz y sí lo son los situados en la periferia (Figura 7.14). Los patrones de iluminación mixtos producen, como es lógico, niveles de activación menos acusados. La percepción del contraste es óptima en aquellos casos en que el patrón estimular se ajusta, por así decirlo, a la estructura física del campo receptivo. Conviene recordar, en todo caso, que el nivel de integración o convergencia de las ganglionares que conectan con conos y bastones es diferente. En efecto, lo normal es que cada uno de los conos conecte exclusivamente con una ganglionar (a través de una bipolar, como es lógico) y viceversa, esto es, que cada ganglionar conecte con un solo cono. Por el contrario, las ganglionares que integran la información procedente de los bastones tienen un campo receptivo mayor, es decir, una sola ganglionar integra información de muchos bastones. La lógica de esta diferencia en el nivel de convergencia de conos y bastones es relativamente fácil de entender. Los conos, como sabemos, funcionan mal en situaciones de baja luminosidad, pero son altamente eficaces en la percepción de contornos, bordes y contrastes cuando hay mucha luz. Por esa razón, la información procedente de los conos tiene que ser procesada de manera más selectiva y precisa que la procedente de los bastones. Las ganglionares también se han clasificado en virtud de otros criterios. Las parvocélulas (parvo = pequeño) tienen campos receptivos más pequeños que las magnocélulas, lo que implica que las primeras responden mejor ante objetos pequeños que las últimas. En segundo lugar, las magnocélulas responden mejor a diferencias pequeñas de luminosidad entre centro y periferia, mientras que las parvocélulas requieren contraste intensos. En tercer

255

Percepción

lugar, las magnocélulas responden muy rápidamente a la estimulación, siendo las parvocélulas más lentas. Por último, las parvocélulas son sensibles al color y las magnocélulas no. En concreto, la estimulación diferencial de centro y periferia con colores antagónicos (rojo-verde) produce un efecto de inhibición de la activación. Se sabe, pues, que la interacción neuronal en la retina no se produce sólo de abajo arriba, esto es, de los fotorreceptores a las bipolares y de éstas a las ganglionares. En la retina se dan también efectos de interacción laterales. La organización diferencial entre centro y periferia de los campos receptivos de las células ganglionares tiene mucho que ver de hecho con estos procesos de interacción lateral. Las activaciones de las neuronas de cada parte (centro y periferia) se suman, pero la activación general de la célula ganglionar implica computar los efectos diferenciales de cada parte. De esta manera, si las dos partes del campo receptivo reciben el tipo de estimulación que necesitan, sus efectos se suman y se alcanza un nivel de activación máximo en la ganglionar, pero si el estímulo produce efectos opuestos en el centro y en la periferia, las dos regiones antagonistas compiten entre sí y la célula ganglionar correspondiente se mantiene casi inactiva. Esta interacción entre regiones antagonistas es conocida como inhibición lateral. La inhibición lateral es uno de los procesos básicos más importantes en la explicación de muchos fenómenos perceptivos, como la percepción del contraste, y ciertas ilusiones perceptivas muy llamativas (Figura 7.15).

4.3

El procesamiento de la información visual en el cerebro

Hasta el momento hemos visto cómo la información procesada a nivel retiniano era transportada fuera del globo ocular por los axones de las ganglionares (nervio óptico) a través del punto ciego. Pero, ¿qué sucede cuando el patrón de energía luminosa, ya codificado neuralmente, abandona definitivamente el ojo? Para entender lo que sucede inmediatamente después debemos recordar un hecho relativamente simple, y que ya hemos mencionado. Recordemos que el ojo humano se parece mucho, como dispositivo óptico, a una cámara oscura. Los rayos de luz reflejados por los objetos que vemos penetran en el globo ocular siguiendo trayectorias rectilíneas que tienden a converger sobre la pupila (apertura que permite el paso de la luz al interior del globo ocular). Si la trayectoria de estos rayos se prolonga, resulta muy fácil comprobar que los objetos se proyectan invertidos sobre la retina, de manera que las porciones más cercanas a la nariz del campo visual objetivo se proyectarán sobre la porción opuesta (temporal) de la retina, y viceversa, esto es, las porciones más temporales del campo visual se proyectarán sobre la porción nasal de la retina. Otro tanto ocurre con el eje vertical del campo visual. Por lo tanto, a estas alturas, esto es, cuando los axones de las

256

7. Procesamiento básico de la visión

Respuesta intensa

Respuesta débil

Punto de fijación Figura 7.15 En la parte superior de la figura podemos observar una de las múltiples variantes de la rejilla de Hermann. El lector podrá observar manchas grises en todos los cruces excepto en aquel en el que se fije visualmente. En la parte inferior, aparece una explicación tentativa de este efecto a partir de la dinámica centro-periferia de los campos receptivos (consultar Figura 7.14). Adaptada de Sekuler y Blake (1994).

ganglionares salen del globo ocular, tenemos dos patrones informativos (uno para cada ojo) invertidos respecto a la disposición real del objeto. Por lo demás, y dado que la luz procedente del objeto externo incide de manera distinta en cada ojo, al estar dispuestos en lugares distintos los patrones serán diferentes entre sí. La primera tarea del sistema nervioso consiste en poner las cosas en su lugar, es decir, mantener la independencia de aquellas partes del campo visual que son específicas de cada ojo e intercambiar la información redundante para poder compararla. Esta compleja operación de reajuste informativo tiene lugar en el quiasma (por la forma de X, chi en griego) óptico. En el quiasma óptico los axones de las ganglionares procedentes de las porciones nasales de las retinas se decusan, o cambian su trayectoria, para pasar al hemisferio cerebral contrario, mientras que los axones procedentes de las porciones temporales de la retina se mantienen en el

257

Percepción

Ojo derecho

Ojo izquierdo Imagen retiniana

Nervios ópticos Quiasma óptico Tractos ópticos

Cálculo superior (lóbulo izquierdo) Núcleo geniculado lateral (izquierdo)

Radiaciones ópticas

Córtex de asociación visual

Córtex estriado Figura 7.16 Representación esquemática del curso de la información visual desde la retina hasta el córtex estriado. Adaptada de Frisby (1979).

mismo hemisferio (véase Figura 7.16). Una vez que el nervio óptico se decusa en el quiasma pasa a denominarse tracto óptico. A partir de este momento, la información procedente de la retina puede proyectarse en dos direcciones distintas. Uno de los caminos, o vías visuales, posibles es el que se conoce como sistema genicular estriado; el otro se conoce como sistema tecto pulvinar. La mayor parte de las fibras del tracto óptico acaban su ya largo viaje en una formación presente en ambos hemisferios que se denomina núcleo geniculado lateral (NGL), situada en el cerebro medio. Cada capa o estrato de los seis que componen el NGL recibe axones de un solo ojo, es decir, una misma capa no puede recibir información procedente de los dos ojos (Figura 7.17). Las neuronas del NGL tienen sus propios campos receptivos que funcionan con la misma lógica (centro encendido o apagado) que los campos receptivos de las ganglionares y presentan una cierta selectividad

258

7. Procesamiento básico de la visión

respecto a las ganglionares con las que sinaptan: algunas sinaptan con ganglionares X (estímulos estáticos) y otras con ganglionares Y (estímulos en movimiento). Lo mismo sucede en relación a las magno y parvocélulas. De hecho los axones de las magnocélulas de la retina sinaptan en las dos primeras capas del NGL, mientras que los de las parvocélulas lo hacen en las cuatro restantes. Por otro lado, se sabe que la distribución de la información en el NGL respeta la posición objetiva de los elementos del campo visual, de manera que elementos próximos en el campo visual se corresponden con puntos próximos de activación en el NGL. Las fibras que parten del NGL llevan la información al lóbulo occipital, en primer lugar al área 17, denominado córtex estriado o córtex visual primario, y después a las áreas 18 y 19 (córtex extraestriado o visual secundario). La investigación parece demostrar que el sistema genicular estriado está implicado en la resolución espacial fina de las imágenes. La otra vía por la que discurre la información visual recibe el nombre de sistema tecto pulvinar. Algunas de las fibras que parten del núcleo geniculado lateral se proyectan hacia una formación denominada tectum, y desde allí hasta el núcleo pulvinar y el núcleo lateral posterior, desde donde se proyectan hacia el córtex visual secundario. Todo parece indicar que se trata de una vía relativamente primitiva, encargada de procesar la información procedente de las ganglionares W, relacionadas, como ya hemos indicado, con la localización espacial de los objetos.

Ojo izquierdo

Ojo derecho

Retina nasal

Retina temporal

Fibras ipsilaterales

Fibras contralaterales

Esquema de la organización en capas del NGL NGL derecho Figura 7.17 Organización de las sinapsis en las distintas capas del núcleo geniculado lateral derecho. Adaptada de Monserrat (1998).

259

Percepción

4.4

El córtex visual

Las investigaciones desarrolladas a partir de técnicas de registro de actividad neuronal muestran que existen tres tipos de células corticales implicadas en la visión: a)

Las células simples tienen campos receptivos retinianos bien delimitados y se activan ante estímulos de características bien definidas (barras, ángulos) en cuanto a su orientación en el espacio. Sólo responden ante estímulos estáticos. Las células simples se organizan en hipercolumnas que permiten dar cuenta de todas las orientaciones posibles de un estímulo (véase Figura 18). Las células de columnas contiguas varían su sensibilidad a la orientación del estímulo en unos 10 grados, desde 0 grados hasta 180. b) Por su parte, las células complejas tienen campos receptivos peor definidos y por lo tanto su patrón de activación es también más indefinido. Se ha mostrado, no obstante, que muchas de las células de este tipo se activan ante estímulos que se mueven en una dirección determinada. c) Por último, las células hipercomplejas tienen propiedades aún más indefinidas, aunque parece que algunas responden a estímulos con movimiento, dirección y orientación altamente específica.

Como hemos ido viendo, a lo largo de su viaje neurológico la información visual mantiene una cierta fidelidad a los objetos externos o, mejor, a la estructura óptica del medio. Esta relación topológica, aunque con ciertas inversiones (retina, quiasma) se mantiene también a nivel cortical, de manera que se puede decir que en el córtex se proyecta en cada momento una especie de mapa topológicamente equivalente a la imagen externa, esto es, zonas próximas en la imagen externa activan células próximas en el córtex visual. Sin embargo, la investigación ha demostrado que las zonas más importantes del campo visual, que, a la sazón, son también las zonas mejor enfocadas y por lo tanto procesadas por los conos de la fóvea, merecen más territorio cortical que las zonas periféricas. Este fenómeno es conocido como magnificación cortical. Hasta este momento todos los conceptos que hemos manejado resultarían viables para un sistema visual provisto de un solo ojo. Sin embargo, la importancia de la visión binocular en la estimación de la distancia a la que se encuentran los objetos respecto al ojo y de la distancia relativa entre los objetos de la escena visual se refleja en la existencia de células del córtex visual primario especializadas en la visión binocular. En efecto, se han detectado células individuales que, aún pudiendo activarse con estimulación procedente de un solo ojo, alcanzan su nivel más alto de activación cuando son estimuladas por patrones ópticos semejantes procedentes de ambos ojos.

260

7. Procesamiento básico de la visión

Escena Ojo izquierdo

Ojo derecho

Bloques de orientación (cada bloque se compone de células con la misma orientación)

Información del ojo izquierdo

Al otro hemisferio cerebral

Información del ojo derecho

Tipo de célula (todas en la misma orientación)

Posición a través del hipercampo

Observe que las posiciones a través del hipercampo están a lo largo de las direcciones en ángulos rectos respecto a la orientación del campo receptor

Figura 7.18

Esquema general de una hipercolumna. Adaptada de Frisby (1979).

Las células responsables de la percepción del color en el área 17 se suelen encontrar en las capas superiores del córtex, y están conectadas indirectamente con las parvocélulas sensibles al color de la retina y del NGL. Se trata de células que no muestran ninguna preferencia en la orientación de contornos o bordes y su dinámica respecto al color, aunque un poco más compleja, es muy semejante (organización centro-periferia) a la que atribuíamos a las parvocélulas.

261

Percepción

En cualquier caso, las proyecciones sobre el córtex visual primario no son el último trayecto, ni mucho menos, de nuestro viaje. La investigación ha puesto de manifiesto que la lógica de la organización del sistema visual, más allá de este punto, es la lógica de la especialización por áreas, algunas de las cuales parecen presentar cometidos altamente específicos, desde la percepción del color (V4, por ejemplo), hasta la percepción del movimiento o de caras humanas vistas desde perspectivas concretas.

5.

Consideración final

En este capítulo hemos intentado describir muy sucintamente lo que podríamos denominar condiciones de posibilidad sobre las que opera la visión. Estas condiciones son la existencia de una cierta forma de energía (la luz) y de una determinada organización biológica capaz de sacar partido de la misma en su lucha por la supervivencia. Pero el problema científico de la visión no se puede cerrar sobre sus condiciones de posibilidad. Entre otras razones porque la mera descripción de las mismas opera sobre ciertos prejuicios con relación a las funciones que cumple. Por ejemplo, en la actualidad sigue existiendo una intensa disputa entre los científicos partidarios de entender el sistema visual como una procesador de rasgos (de Valois y de Valois, 1990) —en cierto modo esta es la perspectiva que por simplificar la exposición hemos adoptado en este capítulo— y los partidarios de entenderlo como un analizador de frecuencias espaciales (Campbell y Robson, 1964; Hubel y Wiesel, 1959, 1979; Hubel, Wiesel y Stryker, 1978). Lo más interesante en relación a la reflexión que estamos apuntando aquí es que se pueden encontrar unidades funcionales del sistema visual (por ejemplo, una ganglionar) que responden tanto a ciertas propiedades geométricas de los estímulos como a ciertas frecuencias espaciales, de manera que no hay un criterio claro para decidir qué es lo que realmente procesa el sistema visual. Por otro lado, el énfasis en los componentes biológicos de la percepción fomenta, tal vez más allá de lo que sería deseable, la sensación en los psicólogos de estar pisando en firme, una sensación altamente infrecuente en este colectivo y también altamente deseada. Por esta vía se conjura el fantasma de la especulación y se entra aparentemente en el territorio franco y seguro de la verdadera ciencia. Aunque el movimiento que estamos describiendo fuese en algún sentido válido, todavía deberíamos decidir si estaríamos haciendo psicología. A medio camino se encuentra, no obstante, la trampa del mecanicismo cognitivo como versión atenuada del reduccionismo biologicista. La idea de que el sistema visual, y la mente humana, en general, funciona como una máquina tiene una larga historia que no podemos pormenorizar aquí. La metáfora del sistema visual como mecanismo alcanza su nivel óptimo de difusión con la aparición de los ordenadores. Desde entonces la

262

7. Procesamiento básico de la visión

mayor parte de los científicos interesados en la visión han trabajado bajo el supuesto de que el sistema visual es una máquina de transformación de energía en información. La adopción de la metáfora mecanicista en la psicología de la percepción visual ha tenido y tiene algunas implicaciones que conviene señalar: a)

La idea de que el sistema visual funciona con reglas fijas, o que, en todo caso, los fenómenos que contravienen el funcionamiento reglado son la excepción y no merecen la atención de los científicos. b) La idea de que las explicaciones evolutivas o funcionales son relativamente secundarias. Lo que importa más bien es definir las condiciones internas (definidas como reglas de cálculo) que permiten convertir la energía lumínica en información manejable por el sistema. c) La concepción de las condiciones biológicas (estructuras y procesos neurológicos) como mero plano de implementación. Es decir, la descripción biológica del sistema visual no es utilizada como estrategia para explicar, sino como estrategia para localizar, para situar, funciones definidas en un plano generalmente lógico-matemático, computacional. d) La atribución de un papel relativamente secundario a las condiciones biológico-evolutivas lleva a trabajar implícitamente con una imagen idealizada del sistema visual. Una imagen que no recoge adecuadamente el desarrollo ontogenético de la función visual, ni saca el partido necesario del análisis de sus alteraciones. e) Finalmente, la idea de que la función visual puede ser descrita con relativa independencia respecto a otras funciones psicológicas. Esta idea ha alcanzado su expresión filosófica más depurada con la hipótesis de la modularidad recogida de la tradición y difundida en los últimos tiempos por Fodor. Por más que se insista habitualmente (y con una insistencia tal vez sospechosa) en el carácter activo del procesamiento de información visual, la visión ha sido tradicionalmente desligada tanto teórica como metodológicamente del plano de la acción. El éxito social, si no científico, de la metáfora mecanicista en la explicación de la función visual, y del comportamiento humano, se entiende en parte como una consecuencia de la obsesión de los científicos del comportamiento por buscar soluciones simples, intentando remedar en sus dominios las estrategias de explicación habituales en las así llamadas ciencias duras. Pero las cosas en el dominio de la percepción no son en absoluto simples, como el lector habrá podido intuir a lo largo de este capítulo. Es necesario que asumamos en toda su magnitud la complejidad de los fenómenos perceptivos si queremos hacer una psicología de la percepción que

263

Percepción

alcance el papel de piedra angular que debería desempeñar en el dominio de la explicación psicológica. Para ello es fundamental que encontremos, en todos los niveles de análisis, sus vínculos con el plano de la acción. En buena medida porque si la percepción no es una forma de acción no es nada. Sólo de esa forma conseguiremos entender cómo la visión puede ir más allá de los mundos que nos traen a la mano nuestras condiciones biológicas, para convertirse en una forma de acción que no sólo nos permite introducir el mundo en nuestra conciencia, sino que, además, nos permite introducir nuestra conciencia en el mundo y transformarlo.

Bibliografía comentada Merleau-Ponty, M. (1945/1975): Fenomenología de la Percepción, Barcelona, Ediciones Península. Se trata de un trabajo filosófico excepcional en el que el autor defiende la viabilidad de un estudio fenomenológico de la percepción, concitando en su argumento elementos procedentes de la biología, la física o la psicología. Antes que nada se trata de una descripción exhaustiva de la experiencia perceptiva (visual, sobre todo), que nos permite problematizar nuestra idea intuitiva de la misma e indagar en las limitaciones de una aproximación estrictamente científica al problema. El preámbulo es la parte más interesante para los propósitos de este capítulo. Monserrat, J. (1998): Percepción Visual, Madrid, Biblioteca Nueva. El Capítulo 3 presenta una síntesis bien organizada y bastante completa de las condiciones físicas sobre las que opera el sistema visual. Sekuler, R. y Blake, R. (1994): Perception. Nueva York, Mc Graw Hill. Resulta muy interesante y muy asequible el argumento que en el Capítulo 2 se pone en juego para explicar el sentido adaptativo de la visión. Kubovy, M. (1986/1996): Psicología de la Perspectiva y el Arte del Renacimiento, Madrid, Trotta. Explica con precisión, tomando como pretexto la evolución de la perspectiva a lo largo del Renacimiento, cómo una función «natural», la visión, puede ser modulada por la cultura.

264

7. Procesamiento básico de la visión

Preguntas de revisión 1. Explica desde un punto de vista evolutivo por qué los campos ópticos de los carnívoros suelen ser diferentes a los de los herbívoros. 2. Describe una situación en la que la experiencia visual esté influida por factores culturales o sociales. 3. Reflexiona e investiga el siguiente fenómeno: si en el punto ciego no hay fotorreceptores, ¿cómo es que no tenemos un «agujero» en nuestro campo visual? 4. ¿Qué sentido tiene la decusación parcial del nervio óptico en el quiasma óptico? 5. ¿Por qué los fotorreceptores están ubicados en el fondo del globo ocular? 6. Generalmente consideramos que la visión implica la puesta en marcha de procesos que se cursan automáticamente, que no exigen el concurso activo del sujeto, y que se ubican, por así decirlo, en el polo opuesto al polo de la acción. Reflexiona sobre las consecuencias que tendría considerar la percepción como una forma de acción.

265

8. Percepción del contraste: procesamiento de bajo nivel José Antonio Aznar Casanova

Campbell y Robson (1968) sostenían la tesis de que el sistema visual lleva a cabo un análisis de la luz que incide sobre el ojo, similar al análisis de Fourier. Estos autores sugirieron que el sistema visual respondía a un enrejado de forma de onda cuadrada mediante sus respuestas a las frecuencias espaciales de sus ondas componentes y presentaron evidencias a favor de este argumento en numerosos trabajos experimentales. Mediante un experimento psicofísico llegaron a determinar la denominada Función de Sensibilidad al Contraste (FSC). Dicha FSC consiste en una representación gráfica del contraste físico necesario para lograr que sea visible un enrejado en función de su frecuencia espacial. Así, demostraron experimentalmente que los sujetos tienen diferente sensibilidad al contraste según varíe la frecuencia espacial de los enrejados. Hasta la fecha han sido propuestas numerosas aplicaciones de la FSC, entre las que destacamos: 1) como instrumento para describir la capacidad del Sistema Visual Humano (SVH), 2) también sirve para predecir la sensibilidad del SVH ante otros estímulos diferentes, y 3) para explicar la aparición de fenómenos perceptivos, filtrando las imágenes con una función bidimensional conocida como SSC o Superficie de Sensibilidad al Contraste. El paso siguiente consistió en tratar de explicar el mecanismo responsable de ello. La hipótesis, que cuenta con mayor evidencia empírica, se basa en la idea de que la FSC sería un reflejo de la actividad de un cierto número de canales psicofísicos especializados (sintonizados o afinados), cada

267

Percepción

uno de ellos, en responder a un estrecho rango de frecuencias espaciales. Este modelo multicanal presupone que el SVH ejecuta algo así como un análisis de Fourier de la imagen de entrada y que cada canal analiza unos determinados componentes espectrales. En este capítulo se describen algunas investigaciones que avalan la existencia de los canales psicofísicos, las características que presentan, los paradigmas experimentales que han permitido conocer información sobre ellos y, finalmente, mediante qué funciones matemáticas se pueden modelizar.

1.

Introducción

Al ver fotografías de escenas en blanco y negro, cine o televisión acromática, todos hemos comprobado alguna vez que es posible discriminar formas y reconocer los objetos existentes. Muchas personas se preguntan: ¿qué propiedad del estímulo, al interaccionar con el sistema visual, posibilita este reconocimiento? La respuesta es el contraste, rasgo que tiene que ver con los diferentes porcentajes de luz reflejados por los objetos adyacentes. El término clave es el de diferencias. Efectivamente, para individualizar regiones disjuntas de una imagen debemos detectar la aparición de áreas retinianas vecinas con distinta claridad, lo cual es una consecuencia de que diferentes superficies u otros objetos próximos reflejan diferente intensidad de luz. Cuando estas diferencias entre áreas vecinas sean extraídas, el sistema visual podrá delimitar las fronteras que individualizan dichas superficies u objetos, esto es, será capaz de detectar bordes físicos o contornos. Varias células retinianas y postrretinianas de la vía genículo-estriada parecen haber sido diseñadas, durante la evolución, para responder ante tales diferencias de intensidad de luz entre regiones adyacentes. Por otra parte, el aumento en la intensidad de la iluminación externa no supone un aumento en la misma proporción en la intensidad percibida, como se comprueba en psicofísica. La peculiar manera del sistema visual de responder ante las variaciones en las condiciones de iluminación se evidencia en la siguiente demostración de Hurvich y Jameson (1966): «Si nos ponemos una lente de gafas de sol (oscura) en uno de los dos ojos y leemos un libro, observaremos que toda la página queda oscurecida. Si ahora nos tapamos el ojo que veía con la lente oscurecida, observaremos que aumenta la claridad.». ¿Por qué, si entra más luz con los dos ojos juntos (aunque uno lleve una lente), vemos más claro con un solo ojo? La respuesta a esta cuestión debe tener en cuenta que la percepción binocular de la claridad no resulta de la simple suma de las descargas excitatorias generadas en los fotorreceptores de las dos retinas, sino que, de algún modo, se efectúa un promedio de los impulsos excitatorios de ambas retinas.

268

8. Percepción del contraste: procesamiento de bajo nivel

2.

La luz

Algunos objetos —el sol, las lámparas eléctricas, los tubos de rayos catódicos, las velas y algunos animales como las luciérnagas, los peces abisales, etcétera— emiten energía radiante, dentro del espectro visible, y se les denominan fuentes luminosas. Otros objetos, sin embargo, no tienen la capacidad de emitir luz y sólo son visibles cuando reflejan la luz, que incide sobre ellos, proveniente de las fuentes luminosas. La luz consiste en una radiación electromagnética emitida por incandescencia o por luminiscencia, que al incidir sobre los objetos los hace visibles. En esta definición aparecen una serie de términos que conviene precisar: — Radiación es la emisión o propagación de la energía en forma de ondas o partículas sub-atómicas. — Incandescencia es la propiedad de los cuerpos de emitir luz por aumento de su temperatura. — Luminiscencia es la propiedad que tienen algunas sustancias de emitir luz bajo el efecto de una excitación, la cual puede ser de origen: a) luminoso, por ejemplo la fotoluminiscencia (fluorescencia, fosforescencia); b) mecánico (la triboluminiscencia); c) térmico (termoluminiscencia); d) eléctrico (electroluminiscencia); e) orgánico (bioluminiscencia); f) por fenómenos químicos (quimioluminiscencia); g) por radiaciones de onda corta (radioluminiscencia). La especificación de la intensidad de energía luminosa puede realizarse en términos físicos (radiométricos); sin embargo, dado que en las escalas físicas no se tiene en cuenta al observador, se elaboraron escalas derivadas de éstas, conocidas como fotométricas. Teniendo en cuenta que los observadores evalúan la intensidad de la energía radiante de modo subjetivo, sin que existan unidades de medida constantes y universales, la psicofísica desarrolló escalas que relacionan lo objetivo (físico) con lo subjetivo (sensación). Veamos cuáles de las escalas de medición de la intensidad de luz han permitido elaborar escalas psicofísicas: Iluminancia o iluminación (I): es la cantidad de luz incidente sobre una superficie. Reflectancia (R): es el porcentaje de luz reflejada por una superficie opaca. Un término relacionado con la reflectancia que conviene aclarar es el albedo, que indica la proporción de luz reflejada por un objeto. Por tanto, es una propiedad del objeto e independiente de la intensidad de luz que incide sobre él. Si el valor del albedo es próximo a 1, por ejemplo una hoja de papel blanco, se refleja casi toda la energía luminosa que incide sobre el objeto, mientras que si el valor del albedo es próximo a 0, por ejemplo el carbón, apenas se refleja la energía luminosa que le llega. Ello implica que

269

Percepción

la percepción de la luminosidad no depende sólo de la intensidad de luz incidente, sino también de las propiedades reflectantes de las superficies. Luminancia (L): es la intensidad de luz emitida por una fuente en una cierta dirección por cada unidad de superficie iluminante. El aparato de medida utilizado para su medición es el fotómetro o luxómetro. Se obtiene al combinar la iluminancia con la reflectancia: L=I·R Las principales escalas psicofísicas relacionadas con las anteriores son: Brillantez o Brillo: es la luminancia de una superficie juzgada por un sujeto. En otras palabras, es la estimación subjetiva de la luminancia o luminancia percibida. Existe una escala de brillo que va del mínimo brillo o invisible al máximo brillo o deslumbrante. Claridad: es la reflectancia de una superficie juzgada por un sujeto. Es decir, la estimación subjetiva de la reflectancia o reflectancia percibida. Existe otra escala psicofísica que va del mínimo de claridad (o máximo de oscuridad), negro, hasta el máximo de claridad, el blanco.

LUZ

SOMBRA

Figura 8.1

PAPEL

CARBÓN

• Claro

• Oscuro

• Brilla

• Brilla

• Claro

• Oscuro

• No brilla

• No brilla

Relación entre brillo-luminancia y claridad-reflectancia.

Con frecuencia, en el lenguaje ordinario, se confunden los términos brillo y claridad, por lo que no es trivial poner un ejemplo que clarifique esta distinción. Tanto a la luz del sol como a la sombra, el papel suele ser blanco y el carbón negro. Sin embargo, el papel al sol nos parece más brillante, pero no más claro. Y el carbón al sol nos parece más brillante, pero igual de oscuro que en la sombra.

3.

El contraste

El término contraste tiene dos acepciones: Contraste físico (m): se refiere a la diferencia de intensidad luminosa entre áreas vecinas. Se obtiene, de acuerdo con la fórmula de Mi-

270

8. Percepción del contraste: procesamiento de bajo nivel

chelson (1927), dividiendo la amplitud (A) de la onda por la luminancia media (L0): m = A/ L0, donde A = (Lmáx–Lmín)/2 y L0 = (Lmáx+Lmín)/2, por tanto m = (Lmáx–Lmín)/(Lmáx + Lmín). Contraste perceptivo: se refiere al hecho de percibir la diferencia de claridad entre áreas adyacentes. No siempre un alto contraste físico produce un alto contraste perceptivo, ya que, en este último, además del contraste físico influyen los cinco factores siguientes: 1) El estado de adaptación del observador a la luz. Ciertamente, cuanto mayor es la iluminación, menor es la sensibilidad de la retina a la luz. Debido a ello, por ejemplo, podemos no advertir que nos dejamos los faros del coche encendidos durante el día. 2) El contraste simultáneo acromático, según el cual dos áreas que reflejan el mismo porcentaje de luz parecen distintas en claridad. En la Figura 8.2 podemos observar cómo, a pesar de que se trata del mismo nivel de gris, el área que tiene la periferia más oscura parece más clara que el área que tiene la periferia más clara.

Figura 8.2

Contraste simultáneo acromático.

3) El tipo de contorno que delimita los objetos. Según el contorno sea nítido o difuso, percibiremos mayor o menor contraste, respectivamente, como puede observarse en la Figura 8.3. Por lo general, los contornos nítidos o abruptos se perciben con mayor contraste. 4) La posición aparente del objeto en el espacio. Alan Gilchrist (1977) mostró experimentalmente que según perciba el sujeto las distancias relativas entre tres cartulinas (dos blancas y una negra) juzgaba que una de ellas, precisamente una de las blancas, tenía diferente claridad que la otra cartulina blanca.

271

Percepción

Figura 8.3

Contorno nítido y contorno difuso.

5) La frecuencia espacial del estímulo, entendida como número de pares de franjas claras y oscuras (ciclos) por unidad de distancia (o por grado de ángulo visual). Ordinariamente, se produce que, a mayor frecuencia espacial (mayor número de barras por unidad de longitud) los sujetos perciben menor contraste y viceversa. (véanse los enrejados de la fila superior de la Figura 8.8).

4.

Ondas sinusoidales

Una onda se produce cuando una perturbación, que altera el estado de equilibrio de un sistema físico, se propaga de un punto del espacio a otro, sin que se origine desplazamiento de materia. Si representamos la situación gráficamente, mediante unos ejes cartesianos de manera que en la ordenada situamos el desplazamiento de las partículas y en la abscisa el tiempo, obtenemos un corte esquemático del movimiento ondulatorio, en el cual podemos distinguir los siguientes elementos (véase la Figura 8.4). — Cresta es el punto más elevado de la onda. En el caso de la luz representa la luminancia máxima. — Valle es el punto más bajo de la onda. En el caso de la luz representa la luminancia mínima. — Longitud de onda () es la distancia entre dos crestas vecinas. En el caso de la luz, se halla relacionada con la sensación de matiz cromático (véase Capítulo 9). — Ciclo es el trozo de onda correspondiente a una vibración completa. — Período (T) es el tiempo que tarda una partícula en efectuar un ciclo completo. En el caso de las imágenes se refiere al número de pixels (contracción de picture element) por ciclo. El período es el inverso de la frecuencia: T = 1/u.

272

8. Percepción del contraste: procesamiento de bajo nivel

Figura 8.4

Perfil de una onda.

— Frecuencia (u) es el número de ciclos o vibraciones por unidad de tiempo (o de espacio, en el caso de las imágenes). — Amplitud (A) es el desplazamiento en altura, sobre el eje de coordenadas, alcanzado por la onda. Se relaciona con la intensidad (del sonido o de la luminancia). — Fase () se refiere a la posición del movimiento vibratorio en un momento determinado, expresada en radianes o en grados sexagesimales. En el caso de las imágenes, viene a indicar la distancia al origen del primer máximo de luminancia. Seguidamente vamos a tratar de caracterizar un tipo particular de ondas de gran interés en Psicología, se trata de las ondas sinusoidales. Recordemos que en un triángulo rectángulo pueden establecerse, básicamente, seis razones trigonométricas (sen, cos, tg, cotg, sec y cosec). Como es sabido, la razón seno de un determinado ángulo (x) se obtiene mediante el cociente entre el cateto opuesto y la hipotenusa: sen x = C1/H La función seno (y = sen x) asigna a cada ángulo (sexagesimal o en radianes) el valor del seno de dicho ángulo. Por tanto, podemos construir una tabla de valores que constituya el dominio de la función, haciendo variar el ángulo y calculando el valor de la función seno para cada ángulo: x

0

30

45

60

sen x

0

1/2

 2/2  3/2

90

180

270

360

1

0

-1

0

273

Percepción

Figura 8.5 Relación entre los lados de un triángulo rectángulo y la función trigonométrica seno de un ángulo.

Podemos observar, en la Figura 8.6, que la gráfica de la función seno es una onda periódica, cuyo período se repite idénticamente cada 360º y cuya amplitud oscila entre +1 y –1. Por esta razón, a las ondas afines las denominaremos ondas sinusoidales. En la práctica consideraremos que la función seno es equivalente a la función coseno desplazada – (/2) radianes (-90º). Combinando todos estos conceptos podemos representar, analíticamente, cualquier onda sinusoidal unidimensional mediante la función: y = f(x) = A·cos(2·u·x + ), donde x es el tiempo (en el sonido) o posición espacial (en una fila de la imagen).

Función seno

Figura 8.6

274

Representación gráfica de la función seno de un ángulo.

8. Percepción del contraste: procesamiento de bajo nivel

5

Estímulos de enrejado

En el estudio del sonido, los tonos puros, constituidos por una única frecuencia, son funciones periódicas, cuya representación gráfica se ajusta a la función sinusoidal. Desde el siglo pasado se sabe que cualquier señal auditiva puede sintetizarse sumando tonos puros. Y viceversa, cualquier sonido complejo puede descomponerse (análisis) en una serie de funciones sinusoidales o tonos puros. Por tanto, los tonos puros constituyen un conjunto de sonidos elementales, átomos, primitivas o elementos irreductibles, a partir de los cuales puede sintetizarse cualquier sonido, ruido o melodía (véase Capítulo 13). Ahora, podemos preguntarnos: ¿cuáles son los elementos irreductibles (átomos) en que pueden descomponerse las imágenes? La respuesta se refiere, precisamente, a aquel tipo de imágenes cuya variación de la luminancia se ajuste a una función sinusoidal, es decir, los enrejados sinusoidales. Los estímulos de enrejado son patrones alternantes de franjas paralelas, claras y oscuras (véase la Figura 8.7). Si pasamos un fotómetro a través de un estímulo de enrejado (en dirección ortogonal a las franjas) obtendremos los valores de luminancia de cada punto de la imagen o pixels. Después podemos visualizar su perfil de luminancia, esto es, una representación de la luminancia de cada uno de los puntos de esa imagen, en función de su posición espacial. (véase el perfil de luminancia de un estímulo de enrejado en la Figura 8.7).

Figura 8.7 barras.

Un enrejado sinusoidal y el perfil de luminancia, perpendicular a la orientación de las

La función resultante será una onda que vendrá caracterizada por los cinco parámetros que, a continuación, describimos:

275

Percepción

1.

2.

3.

La luminancia media (L0) es el promedio de luminancia de todos los puntos del enrejado, o, en otros términos, es el nivel de gris promedio del enrejado. Se calcula mediante la fórmula L0 = (Lmax + Lmin)/2. Se corresponde con el brillo medio, en cuanto estimación subjetiva de la luminancia. La amplitud (A) indica la máxima luminancia por encima de la luminancia media. Se calcula mediante la fórmula A = (Lmax Lmin)/2. Un parámetro relacionado con la luminancia media y la amplitud es el contraste (m), el cual es un índice que expresa la diferencia de intensidad luminosa entre las barras claras y oscuras (véase la fila central de la Figura 8.8). La frecuencia espacial (u) es el número de ciclos (pares de franjas claras-oscuras) por unidad de longitud. Para compensar el hecho de que el enrejado puede ser observado a diferentes distancias, se utiliza como unidad de medida el número de ciclos por grado de ángulo visual (c/º) o el número de ciclos por imagen (c/i). Por ejemplo, si la

5 c/i

10 c/i

15 c/i

20 c/i

m=1

m = 0,75

m = 0,5

m = 0,25



30º

60º

90º

Figura 8.8 Estímulos de enrejado, variando algunos parámetros (fila superior: frecuencia espacial; fila central: contraste; fila inferior: orientación).

276

8. Percepción del contraste: procesamiento de bajo nivel

4.

5.

anchura del par de franjas claras-oscuras mide 1 cm, cuando se observa a una distancia de 57,29 centímetros subtiende un ángulo visual () en la retina de 1º sexagesimal, ya que, según la ley del ángulo visual tg-1() = Tamaño/Distancia (véase el Capítulo 11). Si la anchura del par de franjas (1 ciclo de onda) fuese de 2 cm, para que proyectase el mismo tamaño en la retina (ángulo subtendido) debería situarse a 114,58 centímetros, es decir, al doble de distancia que antes. En la Figura 8.8 (fila superior) se muestra una serie de enrejados de diferente frecuencia espacial. También podemos observar que a mayor frecuencia espacial (más franjas/distancia) le corresponde menor contraste percibido y viceversa. La orientación () es el ángulo comprendido entre la línea horizontal que sirve de base al enrejado y una recta que actúe de eje de simetría para una franja cualquiera de dicho enrejado (véase la fila inferior de la Figura 8.8). La orientación se mide en grados sexagesimales y un enrejado de franjas verticales tiene una orientación de 0º, mientras que un enrejado de franjas horizontales tiene una orientación de 90º. La fase () es la distancia al origen, expresada en radianes, del primer máximo de luminancia del enrejado.

A partir de estos parámetros, podemos generar un enrejado sinusoidal mediante la siguiente fórmula: f(x,y) = L0 + A · cos [ 2·u (x · cos  + y · sen ) + ]

Figura 8.9

Onda cuadrada

Onda rectangular

Onda triangular

Onda de sierra dentada

Perfiles de luminancia 1D correspondientes a enrejados compuestos.

277

Percepción

La representación gráfica, en el dominio espacial, del enrejado nos mostrará la forma de la onda, es decir, cómo se distribuye la luminancia a lo largo del espacio. Según la forma de la onda el enrejado puede ser sinusoidal (si las transiciones del claro al oscuro se ajustan a la función seno), de onda cuadrada (si los cambios de franjas claras-oscuras son bruscos, pero equidistantes), de onda rectangular (si los cambios de franjas claras-oscuras son bruscos y no equidistantes), de onda triangular (si su perfil de luminancia muestra forma de picos triangulares), de onda en sierra dentada, etc. Excepto el enrejado con perfil sinusoidal, todas estas formas de onda corresponden a enrejados complejos, los cuales pueden sintetizarse a partir de la suma de enrejados sinusoidales.

6.

Análisis frecuencial de imágenes

A primera vista, puede resultarnos difícil entender que las imágenes acromáticas de la Gioconda o las de las Meninas pueden sintetizarse combinando enrejados sinusoidales. Sin embargo, esto es así. En efecto, Jean Baptiste Josep Fourier (1768-1830), matemático francés del siglo XIX, estudiando la propagación ondulatoria del calor descubrió que cualquier función en el conjunto de los números reales, con significado físico, puede obtenerse sumando (dominio de la frecuencia) o integrando (dominio espacial) funciones sinusoidales. De manera formal, el teorema de Fourier afirma que cualquier onda puede descomponerse en infinitos componentes con forma de onda sinusoidal. A partir de este teorema, se deduce que cualquier tipo de onda puede sintetizarse integrando entre sí sus componentes de onda sinusoidal, cuyas amplitudes y fases vienen dadas por la Transformada de Fourier (TF) de dicha imagen. Por consiguiente, el conjunto de enrejados sinusoidales constituye una base para describir cualquier imagen. El objetivo del análisis de Fourier de una imagen es, precisamente, determinar la frecuencia espacial, orientación, amplitud y fase que debe tener cada uno de los enrejados sinusoidales componentes, susceptibles de sintetizar la imagen. Por tanto, cualquier imagen puede expresarse como una específica combinación lineal de infinitos enrejados sinusoidales orientados, denominados componentes espectrales de la imagen. Para comprender el análisis de un patrón estimular mediante el análisis de Fourier, presentaremos un ejemplo sencillo. Analizaremos el perfil de luminancia de un enrejado de barras con forma de onda cuadrada, como el que se muestra en la Figura 8.10. La variación de la luminancia, en este enrejado, obtenida al pasar un fotómetro en dirección perpendicular a las barras, produce, en el dominio espacial, una forma de onda cuadrada. Pues bien, el análisis de Fourier nos permite analizar esa onda en sus ondas componentes de diferente frecuencia, amplitud, orientación y fase, o componen-

278

8. Percepción del contraste: procesamiento de bajo nivel

Luminancia

Posición espacial

Figura 8.10

Una onda cuadrada y su perfil de luminancia.

tes armónicos elementales. Veamos, intuitivamente, cómo tiene lugar el análisis de una onda cuadrada. Teóricamente, sus componentes armónicos son infinitos, pero en la práctica, podemos aproximarnos bastante a una onda cuadrada sumando un número finito de componentes. Así, en la Figura 8.11 podemos observar un limitado número de componentes elementales en los que analizamos la onda cuadrada inicial y, también, la suma de estos cuatro componentes.

f1 + f3 + f5 + f7

f7

f5 f3 f1

Figura 8.11 La suma de un reducido número de componentes armónicos se aproxima bastante al perfil de la imagen original de la Figura 8.10 (onda cuadrada).

279

Percepción

Estos componentes sinusoidales, como veremos, satisfacen unas determinadas propiedades. Así, los componentes armónicos elementales: — Tienen unas frecuencias que son múltiples impares de la frecuencia fundamental. — Tienen unas amplitudes que varían inversamente, en función de su orden. Concretamente, en dicha Figura 8.11 se observa que: • La frecuencia f1 (la frecuencia más baja) es la frecuencia fundamental o primer armónico, cuya frecuencia y amplitud es la misma que la de la onda cuadrada. • La frecuencia f3 es el segundo armónico, cuya frecuencia es el triple de la frecuencia fundamental y su amplitud 1/3 de la amplitud de la fundamental. • La frecuencia f5 es el tercer armónico, cuya frecuencia es el quíntuplo de la frecuencia fundamental y su amplitud 1/5 de la amplitud de ésta. • La frecuencia f7 es el cuarto armónico, cuya frecuencia es el séptuplo de la frecuencia fundamental y su amplitud 1/7 de la amplitud de ésta. • Se representa la onda resultante de la suma de las componentes: fundamental, segundo, tercer y cuarto armónicos. Como podemos observar, con sólo cuatro componentes, la forma de la onda se aproxima bastante a la onda cuadrada original (véase el perfil de luminancia del enrejado original). Si seguimos sumando armónicos de mayor frecuencia (que sean múltiplos impares de la fundamental), cada vez, nos aproximaríamos más a la onda cuadrada. El conjunto de todos los armónicos o componentes frecuenciales de una imagen recibe el nombre de espectro bidimensional de frecuencia o espectro de Fourier (véase Figura 8.12). En dicha Figura 8.12 se representa la cantidad de energía o amplitud con que cada armónico contribuye a la síntesis total de la imagen. A este tipo de gráficos se les denomina espectros de energía (1D). En él puede visualizarse que la energía correspondiente al sexto armónico (frec. = f11) es muy pequeña y dicha energía continuaría disminuyendo para los armónicos de mayor frecuencia. En resumen, el objetivo del análisis de Fourier de una imagen es, precisamente, determinar la frecuencia espacial, orientación, amplitud y fase que debe tener cada uno de los enrejados sinusoidales componentes, susceptibles de sintetizar la imagen.

280

8. Percepción del contraste: procesamiento de bajo nivel Energía

f1

Figura 8.12 cuadrada.

7.

f3

f5

f7 f9 f11

Componentes espectrales

Espectro de energía de la transformada de Fourier de un enrejado con forma de onda

Síntesis frecuencial de imágenes

La Figura 8.13 muestra una imagen sintetizada al sumar una serie limitada de enrejados sinusoidales que varían en frecuencia espacial (3c/i, 5c/i, 7c/i y 9c/i) y orientación (0º y 90º). Los enrejados representados en esta figura tienen una orientación  = 0º, y mediante un giro de 90º se obtienen los enrejados con  = 90º que también intervienen en la síntesis de la imagen superior de la figura.

Figura 8.13

Entramado sintetizado al sumar enrejados verticales y horizontales.

281

Percepción

Sin embargo, la transformada de Fourier (TF) es un número complejo; como se sabe, estos números constan de parte real y parte imaginaria. Las imágenes son funciones bidimensionales, por lo que tendremos que representar separadamente la TF en forma cartesiana, en un gráfico 2D la parte real y en otro la parte imaginaria. También es posible representar la TF en forma polar (coordenadas polares: módulo y ángulo de fase), lo que nos resultará más comprensible. El módulo se representará en el espectro de amplitud y contendrá la energía con que cada par de frecuencias con una determinada orientación, dada por las coordenadas u, v (u = eje horizontal, v = eje vertical), contribuyen a la síntesis de la imagen. Se representa por F(u,v) y se calcula mediante: F(u,v) = √ (Re2 + Im2). Las fases de cada uno de estos sinusoides componentes se representarán en el espectro de fase. Se indica con (u,v) y se calcula mediante: (u,v) = Arctg (Im/Re). En la Figura 8.14 se muestra una aproximación gráfica del espectro de amplitud de la TF de la imagen entramada mostrada en la Figura 8.13. En este espectro de amplitud podemos observar que está constituido por cuatro enrejados de diferente frecuencia orientados verticalmente y otros cuatro orientados horizontalmente.

Figura 8.14

Representación del espectro de amplitud de la TF de la Figura 8.13.

Para hacer más comprensible la importancia de la información contenida en los espectros de amplitud y fase se muestra, en la Figura 8.15, la imagen original (a la izquierda), su espectro de amplitud (en el centro) y su espectro de fase (a la derecha). Al observar estos espectros, pudiera concluirse erróneamente que el espectro de amplitud tiene más importancia que el espectro de fase, ya que el primero muestra alguna estructura reconocible, mientras que el segundo no, puesto que parece un patrón aleatorio. No obstante, si eliminamos el espectro de fase de esta imagen, poniendo una matriz nula (todo ceros), y posteriormente calculamos la Transformada de Fourier inversa (TF-1), la imagen resultante sintetizada muestra muy poco, o nada, de similitud con la imagen original (véase Figura 8.16-izquierda). Sin embargo, si eliminamos el espectro de amplitud, poniendo toda la matriz igual a una constante y calcula-

282

8. Percepción del contraste: procesamiento de bajo nivel

Figura 8.15

Una imagen y sus espectros de amplitud y fase.

mos la TF-1, entonces esta síntesis da lugar a una figura parecida a la imagen original (véase Figura 8.16-derecha). En conclusión, mientras que el espectro de amplitud especifica el peso o importancia con que cada componente sinusoidal está presente en la imagen, el espectro de fase especifica dónde se localiza en la imagen cada componente sinusoidal. Una estrategia que se adopta con frecuencia, en el ámbito del tratamiento de imágenes digitalizadas, consiste en seleccionar un rango de amplitudes del espectro de amplitud de la imagen, excluyendo las restantes (es decir, hacer un filtrado de la imagen) y reconstruir la imagen a partir de ella mediante la transformada inversa de Fourier y, sin variar el espectro de fase, observar después qué elementos de la imagen aparecen destacados.

Figura 8.16 A la izquierda, imagen sintetizada a partir del espectro de amplitud y dejando nulo el espectro de fase. A la derecha, imagen sintetizada a partir del espectro de fase dejando constante el espectro de amplitud.

8.

Filtrado de imágenes

Comencemos por describir unos ejemplos de filtros utilizados en ciertas ramas de la física. Un filtro acústico es un dispositivo que transmite, relativamente bien, la energía de un sonido cuando las frecuencias están compren-

283

Percepción

didas entre un determinado intervalo o banda (llamada banda de paso) y que se opone, más o menos totalmente, a la transmisión de las frecuencias que se hallan comprendidas en el rango de las demás bandas (llamadas bandas atenuadas). Mediante un tipo específico de filtro se asegura la selectividad de frecuencias de los receptores de radio y televisión. Éstos dejan pasar las ondas de la banda de frecuencias de la emisora que deseamos captar y eliminan las correspondientes a otros emisoras de diferente frecuencia. En las pantallas acústicas (baffles) se separan las altas frecuencias (tonos agudos) de las bajas frecuencias (tonos graves) mediante ciertos filtros para dirigirlas a altavoces de diferentes tonalidades (relacionadas con el tamaño de la lámina vibratoria). En fotografía se habla de un filtro corrector óptico para referirse al filtro que se coloca delante del objetivo de la cámara a fin de dejar pasar ciertas radiaciones y excluir (o atenuar) otras. Por ejemplo, un filtro UVA reduce considerablemente la radiación ultravioleta que entra en la cámara oscura. También se utilizan otros filtros fotográficos como los filtros de color (azul, rojo, infrarrojo, amarillo, etc.) y el filtro polarizador que se utiliza en la toma de vistas para eliminar los reflejos. Así pues, un filtro es un dispositivo tal que al pasar una señal compleja separa o selecciona las subseñales componentes que satisfacen ciertas propiedades. Los filtros se pueden clasificar en dos grandes grupos: filtros lineales y filtros no lineales, diferenciándose en que en los primeros satisfacen las propiedades de los sistemas lineales (linealidad y superposición), mientras que los segundos no. Los filtros lineales se dividen en dos subgrupos que, si bien no son exactamente iguales, producen resultados similares. — Filtros lineales que operan en el dominio espacial. Que hacen uso de la operación de convolución, manipulando directamente los pixels de la imagen original. — Filtros lineales que operan en el dominio frecuencial. Que hacen uso de la transformada de Fourier de la imagen. Para caracterizar un filtro es preciso conocer la forma de la función de transferencia de modulación (FTM) del sistema (ganancia en función de las frecuencias orientadas en u, v) y los cuatro parámetros siguientes: — La frecuencia espacial óptima. — La orientación óptima. — La anchura de banda en frecuencia espacial (rango de frecuencias en la orientación óptima al que se halla sintonizado el filtro). — La anchura de banda en orientación (rango de orientaciones en la frecuencia espacial óptima al que se halla sintonizado el filtro).

284

8. Percepción del contraste: procesamiento de bajo nivel TIPOS DE FILTROS

paso-bajo Figura 8.17 ciales.

paso-banda

paso-alto

Filtros en el dominio frecuencial, selectivos a diferentes rangos de frecuencias espa-

Según el rango o intervalo seleccionado de frecuencias espaciales del espectro de amplitud de la TF (véase Figura 8.17) un filtro puede ser: a)

Filtro paso-bajo: cuando deja pasar todas las frecuencias espaciales iguales o inferiores a una dada y elimina las superiores a ella. b) Filtro paso-alto: cuando deja pasar todas las frecuencias espaciales iguales o mayores que una frecuencia dada y elimina las inferiores a ella. c) Filtro paso-banda: cuando sólo deja pasar un rango de frecuencias espaciales y elimina todas las que se hallan fuera de tal rango. Según la orientación los filtros pueden ser: — Filtro orientado: cuando sólo deja pasar las frecuencias espaciales que se hallan en un determinado rango de orientación. — Filtro no-orientado: cuando deja pasar las frecuencias espaciales de un determinado rango en cualquier orientación. Existen dos métodos para realizar filtrados de imágenes. a)

El primer método (dominio espectral), dada una imagen que deseamos filtrar y un filtro (imagen máscara como las mostradas en la Figura 8.17) que elegimos en función de los resultados que pretendemos lograr, consiste en el cálculo del producto del espectro de amplitud de la imagen original por el filtro (FTM), con lo que, al sintetizar de nuevo la imagen en el dominio espacial utilizando la TF-1, obtenemos la imagen filtrada. b) El segundo método (dominio espacial), de uso más restringido, consiste en, dada una imagen y un filtro, hallar la fpp (función de pesos del punto o función de respuesta al impulso), mediante la aplicación de la TF-1 al filtro y el resultado se convoluciona con la imagen, con lo que obtenemos la imagen filtrada.

285

Percepción Sensibilidad al contraste

Frecuencia espacial c/º Figura 8.18

9.

Función de sensibilidad al contraste (FSC).

La función de sensibilidad al contraste

Campbell y Robson (1968) sostenían la tesis de que el sistema visual lleva a cabo un análisis de la luz, algo similar al análisis de Fourier, que incide sobre el ojo. A partir de un experimento psicofísico llegaron a determinar la denominada función de sensibilidad al contraste (FSC). Dicha FSC consiste en una representación gráfica del contraste físico necesario para lograr que sea visible un enrejado en función de su frecuencia espacial. Para obtener la FSC (véase la Figura 8.18), situaron en la abscisa las frecuencias espaciales y en la ordenada la sensibilidad al contraste, definida como el inverso del umbral. La FSC resulta al medir el umbral de percepción del contraste ante enrejados de diferentes frecuencias espaciales, manipulando el contraste del enrejado. La Figura 8.19 contiene una muestra de estímulos similares a los utilizados por estos autores. A partir de esta figura puede apreciarse cómo obtener una medida del umbral ante una determinada frecuencia espacial (la sensibilidad es el recíproco del umbral), ya que en cada columna hay dos estímulos con la misma luminancia promedio. Así, demostraron experimentalmente que los sujetos tienen diferente sensibilidad al contraste según varíe la frecuencia espacial de los enrejados. Esta técnica nos permite responder, entre otras, a preguntas tales como: ¿somos siempre más sensibles al contraste de enrejados de baja frecuencia

286

8. Percepción del contraste: procesamiento de bajo nivel

Figura 8.19 traste.

Enrejados sinusoidales de una frecuencia espacial determinada, que varían en con-

espacial? Si observamos la FSC para enrejados sinusoidales, obtenida por Campbell y Robson (1968) (véase Figura 8.18), comprobaremos que el sistema visual humano (SVH) es más sensible a los enrejados con frecuencias espaciales entre 3 y 6 c/º y, por supuesto, nos revela que nuestra habilidad para detectar un enrejado depende de su frecuencia espacial. La Figura 8.20 superior-izquierda, muestra la superficie de sensibilidad al contraste (SSC)

Figura 8.20

Superficie de Sensibilidad al Contraste (SSC).

287

Percepción

reconstruida a partir de los datos registrados por Ginsburg (1978). En la misma figura puede observarse una representación isométrica de la SSC, así como una sección de ésta en el eje Y. Algunas aplicaciones de la FSC que han sido propuestas (véase SierraVázquez, 1992) son: 1) Como instrumento para describir la capacidad del sistema visual y como medida alternativa más completa de la agudeza visual. La FSC ha permitido comparar la sensibilidad al contraste del sistema visual de especies diferentes, revelándonos que especies diferentes tienen mundos visuales diferentes. Además, permite seguir evolutivamente el desarrollo de la sensibilidad visual en bebés, habiéndose obtenido evidencia de que su sensibilidad y agudeza visual mejoran progresivamente, para aproximarse a la del adulto, hacia los seis u ocho meses de vida. En resumen, dentro de estas aplicaciones descriptivas, la FSC se ha utilizado en campos tan variados como psicología comparada, psicología evolutiva, psicotecnia y clínica oftalmológica. 2) Utilizada como función de transferencia de modulación (FTM) del SVH, sirve para predecir la sensibilidad del sistema visual ante otros estímulos diferentes, ya que si se conoce las frecuencias componentes del estímulo, a cada una le corresponde una determinada sensibilidad que viene dada por la FSC. 3) Utilizada como expresión de la ganancia o pérdida que el SVH produce ante una imagen entrante (esto viene a ser la FTM de un sistema de procesamiento de imágenes, como en realidad lo es el SVH), sirve para explicar la aparición de fenómenos perceptivos, recurriendo a la técnica del filtrado de imágenes (que antes se describió) y haciendo uso, como máscara, de dicha función (SSC). En la Figura 8.21 se muestra el resultado de filtrar la figura de la ilusión de

Figura 8.21 Estímulos utilizados en la ilusión de Müller-Lyer (imagen izquierda) y consecuencias del filtrado de esta imagen utilizando como máscara la SSC del SVH.

288

8. Percepción del contraste: procesamiento de bajo nivel

Müller-Lyer con la SSC. A partir de este resultado o salida del sistema puede inferirse por qué razón los segmentos comprendidos entre las puntas de flecha se perciben desiguales en cada caso. El paso siguiente consiste en tratar de explicar el mecanismo responsable de ello, esto es, explicar por qué razón sucede así. En este intento, las investigaciones en psicofísica visual han recurrido a la utilización de tres paradigmas experimentales.

10.

Paradigmas de investigación en psicofísica visual

Se han propuesto tres variantes experimentales que, combinadas con los procedimientos psicofísicos de detección y discriminación, permiten investigar la existencia de canales psicofísicos: Paradigma de adaptación selectiva. Consta de dos fases. En la primera, se expone al sujeto, durante un prolongado periodo de tiempo, a un estímulo adaptador, es decir, a un cierto valor de intensidad del estímulo por encima del umbral de detección. En la segunda fase se presenta al sujeto, inmediatamente después de la adaptación, un estímulo de prueba y se mide el umbral correspondiente a cada valor estimular. Los resultados habituales que suelen obtenerse consisten en que, cuando coincide el valor frecuencial del estímulo de prueba con el del estímulo adaptador, se incrementa al máximo el umbral de detección del estímulo; mientras que, conforme aumenta la diferencia de frecuencia entre los valores del estímulo de prueba y del adaptador, el umbral disminuye progresivamente. Paradigma de enmascaramiento. Consiste en presentar al sujeto dos estímulos superpuestos, el estímulo de prueba y otro estímulo enmascarador que reduce la detectabilidad del primero. Habitualmente los resultados obtenidos con el uso de este paradigma experimental básicamente concuerdan con los del paradigma de adaptación. Esto es, si ambos estímulos (de prueba y enmascarador) tienen el mismo valor de frecuencia, el umbral es máximo, pero conforme aumenta la diferencia el umbral decrece. Paradigma de sumación subumbral. El paradigma experimental de sumación subumbral es similar al paradigma de enmascaramiento, diferenciándose en que, en lugar de estímulo enmascarador, aquí interviene un estímulo facilitador (fondo), el cual debe tener una intensidad por debajo del umbral, por lo que no es perceptible al ser presentado solo. Los resultados obtenidos mediante su uso también son congruentes con los de los otros paradigmas. Es decir, si son iguales los valores del estímulo de prueba y de fondo, el umbral será mínimo, mientras que conforme aumentan las diferencias de ambos estímulos, el umbral aumenta paulatinamente.

289

Percepción

11.

Modelos basados en canales psicofísicos

Como consecuencia de la realización de numerosas investigaciones (Campbell y Robson, 1968; Blakemore y Campbell, 1969; Graham y Nachmias 1971; Kulikowski y King-Smith, 1973; Daugman, 1984), aparecieron dos posibles modelos alternativos del funcionamiento del SVH: el modelo unicanal y el modelo multicanal. El modelo unicanal considera que el SVH se comporta como un filtro espacial, cuyas características vienen definidas por la FSC (o FTM del SVH). Por tanto, ante cualquier señal bidimensional (o imagen) que se introduzca en el sistema se producirá, como respuesta, una versión filtrada de la señal original. Además, la detectabilidad de una imagen dependerá del umbral de percepción del contraste de sus componentes armónicos. El modelo multicanal supone que cada banda de frecuencias espaciales es procesada por un canal psicofísico independiente. De acuerdo con ello, la FTM del SVH sería la resultante de la sensibilidad de todos estos canales independientes, pudiendo tener lugar la detectabilidad de modo independiente en aquel canal que sea sensible a una cierta banda de frecuencias espaciales. En otras palabras, la FSC sería un reflejo de la actividad de un cierto número de canales psicofísicos especializados (sintonizados o afinados), cada uno de ellos, en responder a un estrecho rango de frecuencias espaciales. En consecuencia, el modelo multicanal presupone que el SVH ejecuta algo así como un análisis de Fourier de la imagen de entrada y que cada canal analiza unos determinados componentes espectrales. Sin embargo, ello no implica asumir que dicho sistema procese de modo independiente las diversas frecuencias espaciales, simplemente se asume que el SVH puede ser modelizado mediante este instrumento matemático que, en definitiva, es el análisis de Fourier. Es importante señalar que, a pesar de la evidencia a favor de la existencia de canales selectivos a la frecuencia, no está claro que el sistema visual los utilice para realizar un análisis de Fourier de la imagen. Incluso si esto fuese así, quedaría por saber cómo y dónde la frecuencia espacial del estímulo influye sobre nuestra percepción, desconociéndose todavía el mecanismo responsable de este efecto.

12.

Pruebas sobre la existencia de canales psicofísicos

Campbell y Robson (1968) verificaron que el umbral de detección de enrejados complejos (cuyos perfiles producen formas del tipo de onda cuadrada o de sierra dentada), que contienen altas frecuencias espaciales, coincidía con el umbral obtenido para el componente fundamental. No obstante, el modelo unicanal no era capaz de explicar por qué, ante ciertos estímulos de enrejado complejos, la sensibilidad resultaba ser inferior que la que prede-

290

8. Percepción del contraste: procesamiento de bajo nivel

cía el modelo unicanal, mientras que era acorde con la predicción del modelo multicanal. Por ejemplo, los sujetos eran capaces de diferenciar un enrejado sinusoidal puro de otro enrejado con perfil de onda cuadrada, siempre que el contraste permitiese detectar el tercer componente armónico. Estos resultados no pueden explicarse mediante el modelo unicanal, pero sí mediante el modelo multicanal. Efectivamente, además de que exista actividad en el canal sintonizado al componente fundamental, podemos diferenciar ambos enrejados por la presencia de actividad en otro canal sintonizado (o sensible) al tercer armónico. Posteriores investigaciones (para una revisión de estos trabajos véase Ginsburg, 1984) dieron nuevo soporte empírico a la existencia de receptores o canales sintonizados a determinadas bandas de frecuencia. Blakemore y Campbell (1969) utilizaron el paradigma experimental de adaptación al realizar una investigación que les permitiese decidir cuál de los dos modelos (unicanal o multicanal) se ajustaba mejor a los datos empíricos. En la primera fase del experimento mostraron al sujeto un estímulo (adaptador), consistente en un enrejado sinusoidal de una determinada frecuencia espacial, hasta lograr su adaptación. En la segunda fase mostraban al sujeto una serie de enrejados sinusoidales que diferían en frecuencia espacial. Los resultados revelaron que cuando la frecuencia espacial del enrejado de prueba coincidía exactamente con la del enrejado adaptador, entonces disminuía la sensibilidad del sujeto y que dicha sensibilidad crecía conforme aumentaba la diferencia en cuanto a frecuencia espacial. Puesto que el proceso de adaptación sólo influía en las frecuencias próximas a la del estímulo adaptador, y no afectaba en igual medida a todas las frecuencias espaciales a las que somos sensibles, concluyeron que existían diferentes canales y que éstos son independientes unos de otros. Es decir, estos datos apoyaban al modelo multicanal y constituían una prueba en contra del modelo unicanal. Graham y Nachmias (1971) realizaron otro experimento que aportó evidencia adicional a favor del modelo multicanal. Mostraron a los sujetos dos enrejados complejos constituidos por dos componentes sinusoidales de la misma frecuencia y amplitud, pero diferentes en fase (desplazada 180º la onda de uno de ellos, con respecto al origen; véase Figura 8.22). Según el modelo multicanal, el patrón estimular se analiza en sus componentes frecuenciales y estos armónicos se procesan en paralelo a través de diferentes canales, cada uno de ellos sintonizado (selectivo) a una estrecha banda de frecuencias espaciales. Por tanto, si dos canales procesan, independientemente, cada uno de los sinusoides componentes, dado que tanto el enrejado 1 como el enrejado 2 tienen los mismos armónicos, entonces los sujetos discriminarán igualmente estos dos patrones. Además, los sujetos sólo serán capaces de discriminar estos dos enrejados complejos en el caso de que existan distintos canales sensibles a reducidas bandas frecuenciales y a diferentes fases.

291

Percepción

Figura 8.22 Ejemplo de estímulos similares a los utilizados por Graham y Nachmias. En la columna izquierda enrejado 1, en la columna derecha enrejado 2.

Campbell y Kulikowski (1966) utilizaron el paradigma experimental de enmascaramiento a fin de verificar si existen canales sensibles a la orientación de los enrejados. En este experimento el enrejado de prueba consistía en un enrejado sinusoidal, de una determinada orientación, que se presentaba al sujeto solapándose con otro enrejado máscara de alto contraste. En cada ensayo se variaba la orientación del enrejado máscara en relación con la del enrejado de prueba y se obtenía el umbral de contraste del sujeto. Los resultados mostraron que el enmascaramiento era eficaz cuando el enrejado de prueba y el enrejado máscara coincidían en la orientación y que el enmascaramiento perdía eficacia conforme aumentaba la diferencia en orientación entre estos dos enrejados, de modo que el enrejado máscara no influía nada cuando ambas orientaciones eran perpendiculares. Estos autores concluyeron que en el SVH existen distintos canales sensibles a una orientación óptima, y que la anchura de banda en orientación de estos canales fluctuaba ±20º en torno a la orientación preferente del canal.

292

8. Percepción del contraste: procesamiento de bajo nivel

13.

Características de los canales psicofísicos

Una vez establecido empíricamente el hecho de que en el SVH existen diferentes canales de procesamiento psicofísico de los patrones estimulares, era preciso investigar cuestiones tales como: ¿cuántos canales hay?, ¿cómo operan?, ¿en qué dominio (espacial, frecuencial, o en ambos) se distribuyen?, ¿qué porción del plano de Fourier cubre estos canales?, y ¿cuál es su anchura de banda en frecuencia espacial y en orientación? Hasta el momento presente no existe unanimidad en las respuestas a estas preguntas y las investigaciones realizadas reflejan importantes desacuerdos entre las estimaciones de unos y otros autores. Y es que el número de canales, su anchura de banda en frecuencia y en orientación, etc., son interdependientes. Parece probable que el número de canales depende del ancho de banda de cada canal, al objeto de que se recubra todo el plano espectral al que es sensible el SVH, esto es, un casquete esférico de un radio de unos 60–70 c/º. En otras palabras, a un mayor ancho de banda le corresponde un menor número de canales y viceversa. No obstante, si la banda de frecuencias a la que es sensible cada canal es muy ancha, entonces estos canales serán menos selectivos a la frecuencia, aunque más precisos en la localización espacial; mientras que si la banda es estrecha, entonces los canales serán más selectivos, pero también menos precisos en la localización espacial. Las estimaciones del ancho de banda parecen verse afectadas por el paradigma experimental utilizado, ya que unos (adaptación y enmascaramiento) producen sobrestimación, en tanto que otros (suma subumbral) producen infraestimación. Suele aceptarse que, como resultado de promediar las diferentes estimaciones, los canales presentan una moderada banda estrecha. Según Watson (1982), esta anchura de banda es de una octava (la frecuencia más alta a la que es sensible está en razón 2:1, respecto a la frecuencia más baja). Este autor considera que los canales cubren entre 0,25 y 32 c/º, por lo que resultan ocho canales de frecuencia espacial con un ancho de una octava. Según Wilson (1983), existirían seis canales, centrados en las frecuencias 0.8, 1.7, 2.8, 4, 8 y 16 c/º, con una anchura de banda que fluctúa entre 1.3 y dos octavas. Respecto a la anchura de banda en orientación, las estimaciones se cifran en torno a 30º (Movshon y Blakemore, 1973) en el punto medio de la curva en la que se representa el ancho de banda, aunque otros autores (Campbell y Kulikowski, 1966) lo establecieron en 45º. No obstante, Daugman (1984) señala que estas mediciones no tienen tanto interés como el hecho de conocer que porción del plano de Fourier cubre cada canal psicofísico. Dicho autor señala que los canales psicofísicos pueden describirse como filtros paso-banda, limitados tanto en frecuencia como en orientación. Así mismo, mostró que las células simples parecen ser el soporte neurofisiológico de estos filtros y que las funciones

293

Percepción

Gabor-2D son las que mejor las modelizan, ya que son las que mejor se ajustan a sus datos. Curiosamente, Watson, Barlow y Robson (1983) observaron que el tipo de estímulo que mejor detecta el SVH es una representación, en niveles de gris, de la función Gabor-2D (véase Figura 8.24).

14.

La relación de incertidumbre de la transformada de Fourier

En el ámbito del procesamiento de señales en el dominio frecuencial y temporal (señales de radio), Gabor (1946) propuso la función que lleva su nombre. Tres décadas más tarde, y de forma independiente, Marcelja (1980) para señales 1D y Daugman (1980) para señales 2D, propusieron una función de filtrado para el procesamiento de dichas señales. La función de Gabor presenta la ventaja de ser la mejor solución posible ante la denominada relación de incertidumbre de la transformada de Fourier (TF). Esta relación, aplicada al ámbito del procesamiento de imágenes, establece que existe una ineludible dependencia mutua entre la representación de un objeto en el dominio espacial y la representación del mismo objeto en el dominio frecuencial. Por ejemplo, si un objeto se representa con alta precisión en el dominio espacial, tendrá una representación poco precisa en el dominio frecuencial. Más concretamente, la representación en el dominio espacial de un pequeño punto da lugar a un amplio espectro de frecuencia, mientras que un enrejado sinusoidal, amplio en el dominio espacial, se representa con un solo punto en el dominio frecuencial. En la Figura 8.23 puede observarse esta relación. Las funciones Gabor 2D se caracterizan, precisamente, por el hecho de minimizar la cantidad de espacio ocupado en ambos dominios (espacial y frecuencial). Esta minimización de la relación de incertidumbre de la TF puede aprovecharse para lograr el objetivo de los canales específicos de la frecuencia espacial y nos conduce al intento de solucionar el problema de la TF local. En efecto, la TF 2D es una operación global, es decir, actúa sobre toda la imagen y, sin embargo, no conocemos ninguna célula de orden superior cuyo campo receptivo asociado abarque toda la imagen retiniana. Por los trabajos de Hubel y Wiessel (1959) sabemos que, en el área visual primaria del gato, del mono rhesus y del macaco, existen células que responden cuando un enrejado sinusoidal, de una cierta frecuencia espacial y orientación, se proyecta sobre una localización específica de la retina. Además, estas células sólo responden a una estrecha banda de frecuencias espaciales y, si el enrejado excede este límite, la respuesta de la célula es nula. Por otra parte, también se conoce que la anchura de banda de los canales específicos de frecuencias espaciales y el tamaño de los campos receptivos (responsables del análisis frecuencial) presentan una relación inversa. Es

294

8. Percepción del contraste: procesamiento de bajo nivel

Figura 8.23 Arriba, un enrejado sinusoidal y su espectro de amplitud. Abajo la imagen de un cuadrado y su espectro de amplitud.

decir, a campos receptivos relativamente pequeños, necesariamente les corresponde un extenso ancho de banda. Por tanto, podemos preguntarnos cuál es el objetivo funcional de un análisis global de la frecuencia. Ello tendría como consecuencia, de acuerdo con la relación de incertidumbre, producir una representación vaga, difusa en el dominio espacial. Por consiguiente, este análisis de la frecuencia solo tendría sentido cuando la información sobre la imagen fuese local. Así pues, resulta plausible la idea de que, a lo largo de la evolución de las especies, se haya resuelto el problema mediante la solución óptima, al problema de la relación de incertidumbre, según la cual se implementan filtros Gabor 2D.

15.

Filtros Gabor

Las funciones Gabor 2D resultan del producto de un enrejado sinusoidal y una gausiana 2D (véase Figura 8.24). Las funciones Gabor pueden considerarse como la hipotética estructura de los campos receptivos de las células simples de la corteza visual primaria. Como se ilustra en la Figura 8.25, la sección positiva (la que sobresale hacia arriba) correspondería a la porción excitatoria del campo receptor, en tanto que la sección negativa correspondería a la porción inhibitoria. Así, la

295

Percepción

Figura 8.24 Composición de una función Gabor bivariada. Gaussiana-2D (izqda), enrejado sinusoidal (centro) y función Gabor-2D (dcha.)

tasa de disparo neuronal de la célula simple crece cuando dicha porción del campo receptor resulta activada (incide la luz reflejada por el estímulo sobre ella), mientras que disminuye la respuesta de la célula simple cuando se activa la porción OFF. Sabemos que, de acuerdo con Jones y Palmer (1987), en el SVH a cada célula simple le corresponden dos campos receptivos retinianos. También sabemos que la función de Gabor es una función en el campo de los números complejos y, por tanto, tiene una parte real (simétrica o even filter) y

Figura 8.25

296

Función Gabor 2D: representaciones en nivel de gris e isométrica-renderizada.

8. Percepción del contraste: procesamiento de bajo nivel

otra parte imaginaria (antisimétrica u odd filter). Así pues, de modo análogo al SVH, cada función de Gabor puede descomponerse en dos partes diferenciadas, según su perfil de luminancia sea simétrico (parte real) o antisimétrico (parte imaginaria). En otros términos, podría considerarse que las funciones Gabor están compuestas por dos clases de curvas, cada una modulada por la función gaussiana 2D y dispuestas a 90º unas de otras (en cuadratura fásica). Una de estas dos curvas parece ajustarse a una modulación cosenoidal o función antisimétrica. La otra curva está modulada senoidalmente y, a veces, también recibe el nombre de función simétrica. La Figura 8.26 muestra dos funciones Gabor-2D, una desfasada 90º respecto a la otra. Al utilizar una función Gabor 2D como filtro, la parte correspondiente a la modulación cosenoidal muestra sensibilidad a una frecuencia espacial específica, precisamente aquella frecuencia del enrejado que se ha utilizado para diseñar el filtro Gabor 2D. Cuando además, el estímulo tiene la misma orientación que el enrejado y coinciden las franjas claras y oscuras del estímulo con las del filtro Gabor (están concordantes en fase), entonces se logra la respuesta óptima (máxima tasa de disparo neuronal). Por otra parte, la respuesta del filtro será máxima si coinciden el contraste entre las franjas del estímulo de enrejado presentado y el del filtro Gabor 2D. En definitiva, el filtro Gabor 2D viene determinado por cuatro parámetros que pueden variar de forma independiente: contraste, frecuencia espacial, orientación y fase. A modo de resumen, podemos decir que la TF produce un filtrado global de la imagen, cuyo resultado es el espectro de frecuencias componentes de toda ella, sus orientaciones, sus fases y sus amplitudes. Es decir, la descripción de la imagen mediante este tipo de análisis viene expresada por un gran número de frecuencias simples o componentes armónicos. Por el contrario, los filtros Gabor 2D producen un filtrado local de la imagen. Cada filtro Gabor 2D analiza una pequeña región de la imagen retiniana, la cual se describe mediante un pequeño número de frecuencias componentes. Por tanto, disponemos de tantos pequeños espectros como áreas en la retina (campos receptores) existan. El hecho de que se requieran menos componentes para describir una pequeña área de la imagen que para describir la imagen completa es una consecuencia del carácter lineal de la TF. Daugman (1988) verificó que es posible realizar una transformada de imágenes reales con filtros Gabor 2D, comprobando también que este tipo de codificación de la imagen es mucho más económico que una codificación pixel a pixel. Además, este tipo de análisis de la imagen reduce las redundancias de segundo orden. Por otra parte, existen evidencias de que este tipo de transformada tiene lugar en los sistemas biológicos. De hecho, se han descubierto ciertos tipos de neuronas (células simples) en la corteza visual de los mamíferos, cuyos campos receptores pueden describirse adecuadamente mediante las propiedades de la funciones Gabor 2D (Kulikowski y Bishop, 1981; Jones y Pal-

297

Percepción

Figura 8.26 Dos funciones Gabor 2D y sus respectivos perfiles de luminancia. Arriba, función simétrica (filtro even). Abajo, función antisimétrica (filtro odd).

mer, 1987). Además, estos autores identificaron que los campos receptores de algunas de estas células, las del gato, difieren entre sí en un desfase de 90º, lo cual es una condición necesaria para eliminar ambigüedades en las respuestas de las células. Otros estudios psicofisiológicos (Daugman, 1984; Sagi, 1990; Webster y De Valois, 1985) señalan que también en el sistema visual humano pueden encontrarse campos receptores con propiedades similares a las funciones Gabor. Sintéticamente, esta concepción supone que la corteza visual realiza una TF discreta, fragmentada en porciones de la retina (coincidentes con el mosaico de campos receptores asociados a las células simples). Cada fragmento de la imagen se analiza mediante funciones Gabor 2D, y la importancia con que cada función Gabor 2D contribuye a formar la síntesis de un fragmento de la imagen indica la tasa de respuesta de la célula simple correspondiente. Por tanto, las células simples de la corteza visual primaria se comportan como auténticos analizadores de rasgos, codificando la información de forma altamente económica para su ulterior procesamiento. Mas

298

8. Percepción del contraste: procesamiento de bajo nivel

allá de las células simples (células complejas, hipercomplejas, etc.), y tomando como entrada la respuesta neuronal de estas células, diferentes módulos visuales se ocuparán de funciones tales como el reconocimiento de patrones, extracción de la profundidad y estereopsis, detección de movimiento, etc.

Bibliografía comentada Campbell y Robson (1968) y Maffei y Fiorentini (1973) son dos artículos básicos sobre el tema. El primero es el trabajo en el que desarrolló la función de sensibilidad al contraste en sujetos humanos, a partir de métodos psicofísicos. El segundo, muestra como el SVH analiza la imagen en sus componentes frecuenciales. Goodman (1967) establece las bases del análisis de imágenes a partir de las frecuencias espaciales contenidas en una imagen. El estudio se efectúa mediante la modelización matemática de la propagación de la luz, cosa que permite obtener de forma natural la transformada de Fourier de la imagen. Se describen las aplicaciones de este fenómeno, así como la holografía o el filtrado espacial. González y Wintz (1977) es una referencia para la implementación computacional de los algoritmos de tratamiento de imágenes. El libro hace una descripción de las propiedades de la imagen digitalizada y de los inconvenientes de la propia digitalización, para después pasar al planteamiento y realización de los algoritmos básicos del tratamiento de la imagen, como por ejemplo el de la DFT (Digital Fourier Transform) y su versión mejorada FFT (Fast Fourier Transform). Marr (1982) sintetiza, en opinión de los más prestigiosos investigadores en el campo de la visión computacional (artificial), el mayor esfuerzo realizado hasta la fecha por elaborar una teoría eficaz del procesamiento de imágenes, integrando los hallazgos de los enfoques neurofisiológicos, psicofísicos y cognitivos. La obra puede considerarse, en cierto sentido, una metateoría de la visión, ya que incluye una teoría sobre cómo debieran ser las teorías que tratan con la percepción visual, y en la que se establecen los fundamentos de la metodología de trabajo en visión computacional. Sierra-Vázquez (1992), sin duda, es el mejor y más completo desarrollo del tema del procesamiento de bajo nivel publicado en nuestro entorno. Se tratan los enfoques psicofísico, neurofisiológico y computacional, con rigor y bastante exhaustividad.

299

Percepción

Preguntas de revisión 1. ¿Qué relación existe entre la luminancia, la reflectancia, el brillo, la claridad y el contraste? 2. ¿Por qué son importantes las ondas sinusoidales en el estudio de la sensibilidad? 3. ¿Qué parámetros pueden variarse para generar un enrejado sinusoidal? 4. ¿Qué posibilidades abre la aplicación del análisis de Fourier al tratamiento de imágenes? 5. Describe en qué consiste el filtrado de una imagen y relaciona el filtrado de imágenes con la función que realizan algunas células de la vía visual geniculo-estriada. 6. ¿Qué son los canales psicofísicos y qué teorías de la percepción del contraste se basan en su existencia? 7. ¿Conoces algunas evidencias empíricas sobre la existencia de los canales psicofísicos? 8. De acuerdo con las investigaciones antecedentes, indica cuál es la anchura de banda en frecuencia espacial y la anchura de banda en orientación de los canales psicofísicos. 9. ¿Sabrías explicar qué restricción impone la relación de incertidumbre de la transformada de Fourier al sistema visual? 10. ¿Qué relación hay entre las células simples de la corteza visual y las funciones Gabor?

300

9. Percepción del color Julio Lillo Jover

El capítulo empieza distinguiendo entre los parámetros físicos relacionados con las experiencias de color y éstas en sí. A continuación se describen sus principales dimensiones y se analizan las características de las dos principales fases de procesamiento relacionadas con la percepción del color, la tricromática y la oponente. La fase tricromática explica la existencia de colores metámeros: físicamente distintos pero perceptivamente idénticos. Su existencia hace que los monitores de televisión sean mucho más baratos que si tuviesen que replicar las características físicas de las escenas reales. La comparación entre las fases tricromática y oponente permite entender por qué somos tan precisos en tareas de discriminación (comparar entre dos muestras) y tan limitados en las de categorización (recordar un color). El análisis de la fase oponente permite, además, entender la naturaleza de las categorías cromáticas presentes en nuestro idioma. Los apartados 3 y 4 se ocupan de la mezcla y medición de colores. El tercero permite entender las diferencias entre mezclar luces o tintas. El cuarto introduce los dos sistemas de referencia de colores más comunes: los espacios de color CIE y los atlas de color. El último apartado se centra en los daltonismos, una alteración que afecta a más del 5 por ciento de la población masculina española.

301

Percepción

1.

¿Qué es el color?

En el habla coloquial es frecuente escuchar expresiones como «esta caja es azul» o «el color de la sangre es rojo», en las que aparece explícitamente formulada la concepción, científicamente errónea, de que el color es una propiedad de las superficies. Por contraintuitivo que pueda ser, lo correcto es afirmar que el color es una característica de la respuesta perceptiva que se da en un individuo y que guarda relación (pero no es lo mismo) con algunas características físicas de los objetos. Para entender mejor la idea que se acaba de exponer, empezaremos analizando dos aspectos especialmente relevantes de la percepción del color: 1) la existencia de importantes diferencias individuales, y 2) la relación entre la percepción del color y la reflectancia de las superficies. 1.1

Color y diferencias individuales

El anomaloscopio de Nagel es un tipo de aparato cuyas primeras versiones datan de principios de siglo pero que, en las muy autorizadas palabras de Kaiser y Boynton (1996, p. 429) sigue siendo «la reina indiscutible de todos los instrumentos de evaluación del color». Con el fin de hacer más clara la explicación de los resultados obtenidos mediante su uso, y para distinguir mejor entre las estimulaciones físicas y las experiencias perceptivas, a partir de ahora se entrecomillarán las palabras que indican las experiencias de color (p. ej. «verde») que los estímulos presentados por el anomaloscopio producen en el observador común. También para hacer más clara la distinción entre lo físico y lo perceptivo, se efectuará un somero recordatorio de lo que es el parámetro físico más importante para el estudio de la percepción del color: la longitud de onda. La energía visible puede concebirse como una onda que se desplaza en el espacio. ¡Por supuesto!, su velocidad de desplazamiento es muy superior a la de las ondas que se desplazan en un estanque sobre el que se ha arrojado una piedra. Por otra parte, sin embargo, los dos tipos de ondas tienen muchas características en común y pueden especificarse, ambas, en términos de los mismos parámetros. En el estanque, la longitud de onda sería la distancia, en metros, entre dos puntos semejantes de la perturbación. En términos más coloquiales, entre dos crestas de dos olas consecutivas o entre el par de bajadas en el nivel del agua que siguen a cada una de estas crestas. ¿Qué sucede en el caso de la luz? También puede medirse la distancia entre dos puntos semejantes de la onda formada por la energía visible, aunque ahora la distancia a medir sea mucho menor y deba utilizarse una unidad fraccionaria del metro: el nanómetro (1nm = 10-9 m). Una vez recordado lo que es la longitud de onda, podemos ocuparnos del funcionamiento del anomaloscopio. Una de las dos mitades del anoma-

302

9. Percepción del color

loscopio (mitad de referencia) presenta luz de longitud de onda igual a 589 nm. Ante ella una persona común experimenta, a las intensidades proporcionadas por el aparato, una sensación de «amarillo». La otra mitad (mitad de mezcla) se utiliza para presentar una mezcla de luz de 670 nm («rojaamarillenta» para el observador común) con otra de 546 nm («verde-amarillenta»), de forma que, controlando las cantidades relativas de estos componentes, la combinación genere una experiencia idéntica a la de la mitad de referencia. Por tanto, para el observador común existe un punto en el que las características físicas de la luz procedente de las dos mitades del anomaloscopio son claramente diferentes y, sin embargo, producen la experimentación del mismo color. Por ello, en la nomenclatura científica habitual, el amarillo de las dos mitades es metamérico, porque se percibe como idéntico a pesar de derivarse de dos estimulaciones físicas diferentes. ¿Por qué se ha insistido tanto en hablar del observador común? Obviamente, porque no todas las personas realizan las mismas mezclas y, por ejemplo, las que sufren un daltonismo severo (véase apartado 5 de este capítulo) efectúan ajustes que muchos calificarían de sorprendentes (véase Birch, 1993, pp. 105-107) ¿Cuál es la causa de estas diferencias? Para los daltónicos, tanto la luz de 670 nm («roja»), como la de 589 nm («amarilla»), y la de 546 nm («verde»), se experimentan como «amarillas» y sólo se diferencian en la intensidad con la que se da esta sensación (un «amarillo» brillante o apagado). En síntesis, la misma estimulación que en la mitad de mezcla produce para el sujeto medio una experiencia de «amarillo» idéntica a la de la mitad de referencia, hace experimentar a un daltónico un amarillo diferente (más brillante o más apagado) y, para muchos sujetos pertenecientes al grupo de las personas normales, matices «rojizos» o «verdosos». 1.2

Color y desequilibrios energéticos.

El análisis de los resultados proporcionados por el anomaloscopio explicita la diferencia existente entre la respuesta perceptiva, a la que llamamos color, y la estimulación que la produce: si una misma estimulación genera experiencias de color diferentes en personas distintas es que, obviamente, el color no es en sí ninguna característica física de la estimulación. Por otra parte, sin embargo, un excesivo énfasis en estas diferencias puede llevar a un escepticismo no justificado sobre la posibilidad de estudiar la percepción del color. Si lo único que realmente puede controlarse son las características físicas de la estimulación y si éstas pueden dar lugar a respuestas perceptivas diferentes en distintas personas, podría plantearse ¿cómo podemos saber si se va a obtener un efecto concreto en una persona determinada? Como veremos inmediatamente, tales temores no están justificados.

303

Percepción

La estimulación utilizada por el anomaloscopio potencia la detección de diferencias interindividuales en la percepción del color. Sin embargo, éstas no son tan notorias cuando el centro de la atención se desplaza a los tipos de estimulación ante los cuales se produjo la evolución del sistema visual de nuestra especie. Así, antes de que la tecnología hiciera común el uso de fuentes artificiales emisoras de luz, la práctica totalidad de los objetos se limitaban a reflejar la luz, lo que convertía a la reflectancia en una de las variables físicas que más nítidamente permitían su diferenciación. La Figura 9.1a muestra las curvas de reflectancia de tres superficies acromáticas. Como puede verse, en todas ellas el porcentaje de luz reflejada permanece aproximadamente constante aunque varíe la longitud de onda (las funciones son paralelas al eje x). La curva superior (alta reflectancia) corresponde a una superficie blanca, la intermedia (reflectancia media) a una gris y la inferior (baja reflectancia) a una negra. Si asumimos que las tres están siendo iluminadas de la misma manera, ¿qué es lo que tendría que hacer un mecanismo visual que quisiera diferenciarlas? Simplemente, comparar la cantidad de luz enviada por cada superficie a la retina, puesto que la blanca haría llegar más luz que la gris y ésta más que la negra. En sintonía con lo que se acaba de decir, uno de los mecanismos perceptivos relacionados con la visión del color (véase apartado 2.3.2) efectúa tales comparaciones entre las cantidades de luz procedentes de áreas vecinas. Atiéndase ahora a las curvas de reflectancia que aparecen en la Figura 9.1b y compárense con las de la Figura 9.1a. ¿Cuál es la principal diferencia? Sin duda, que en b el valor de la reflectancia varía con la longitud de onda. Así, la pintura amarilla apenas refleja la energía acumulada en las bajas longitudes de onda (400-500 nm), pero lo hace en gran proporción con la acumulada en las medias y en las largas. De forma inversa, la mayor reflectancia para la pintura azulada se da ante las longitudes de onda más cortas. Todos aquellos objetos que, como los representados en la figura 9.1b, tienen superficies cuya reflectancia varía con la longitud de onda, reciben la denominación de cromáticos y, al ser contemplados por un observador común, tienden a producir experiencias de color, debido a que hacen llegar a su retina una estimulación lumínica desequilibrada, en tanto en cuanto reflejan más energía en unas longitudes de onda que en otras. Sin embargo, ¿es la variación en la reflectancia la única forma de producir tales desequilibrios? Evidentemente que no, puesto que el mismo resultado se puede conseguir utilizando sustancias transmisoras de luz (filtros de color) o fuentes lumínicas que emitan más energía en unas determinadas longitudes de onda (luces de colores). También en estos casos la estimulación presentará un relativo desequilibrio energético que tenderá a producir experiencias de color.

304

9. Percepción del color a. Superficiesacromáticas acromáticas a. Superficies

Blanca blanca

100 100

Reflectancia %% Reflectancia

90 90 80 80

% Ref lec tan cia

70 70 60 60

gris Gris 50 50 40 40 30 30 Negra negra 20 20 10 10 00 400 450 400 450

500 500

550 550

600 600

650 650

700 700

Longitud dede onda Longitud onda

b. Superficies b. Superficiescromáticas cromáticas 90 90 80 80 Amarillenta amarillenta

%% Reflectancia Reflectancia

70 70 60 60 50 50

verdosa Verdosa

Azulada azulada

40 40 30 30 20 20 10 10

00 400 400

450 450

500 500

550 550

600 600

650 650

700 700

Longitud de onda onda Longitud de

Figura 9.1 Reflectancia y cromatismo. En (a) aparecen las reflectancias de tres superficies acromáticas. En (b) se hace lo propio con varias superficies cromáticas.

305

Percepción

2.

Color y mecanismos perceptivos

2.1

Dimensiones del color.

Tres son las dimensiones que parecen suficientes para dar cuenta de las experiencias de color. Antes de exponer su naturaleza, conviene hacer explícita una importante diferencia a la hora de conceptualizar una de ellas, el brillo o claridad, en función de que la descripción se haga a partir de lo experimentado ante un estímulo luminoso aislado o, en su lugar, de una superficie de color (véase Capítulo 8). En el primer caso, estas dimensiones suelen denominarse matiz, saturación y brillo (Lillo, 1993). En el segundo caso, el último concepto tiende a ser sustituido por el de claridad. Matiz. Empecemos ocupándonos de las experiencias asociadas a la presentación de luces en la oscuridad. Lo primero que llama la atención, en una luz coloreada, es su cualidad cromática, aquello que distingue a una luz roja de otra azul, naranja o violeta, y que no permite establecer un orden de preeminencia entre estas experiencias. Dicho en otras palabras, el verde no es más o menos color que el rojo o el azul, es diferente color. Suele utilizarse el término de matiz (hue en inglés) para referirse a la dimensión cualitativa del color. Saturación. El segundo aspecto a considerar suele denominarse saturación y se refiere al grado de pureza con el que se experimenta un determinado matiz. Para entenderlo mejor, se empezará indicando que la proyección sobre una pantalla blanca de una luz monocromática de 540 nm, a intensidad suficiente, da lugar a la experimentación de un matiz verde-amarillento. Si ahora se procediese a proyectar una cantidad progresivamente mayor de luz blanca sobre la de 540 nm se observaría que, aunque se siguiese apreciando el mismo matiz, cada vez se haría con menor pureza, estaría más desaturado, hasta llegar a un punto en el que sería imposible apreciarlo. En este punto la saturación sería igual a cero y sólo se vería una luz blanca. Brillo/Claridad. El tercer aspecto a considerar, el brillo, es el más cuantitativo y tiene que ver con la magnitud de la respuesta experimentada ante una estimulación visual, de forma tal que, como sucede en el lenguaje cotidiano, se hablará de una luz poco brillante para referirse a aquella en la que se aprecia poca intensidad, y de otra muy brillante para hacer lo propio con una que produce el efecto contrario. Cuando se trabaja con superficies de colores parece adecuado seguir utilizando los términos de matiz y saturación (o sus equivalentes) para referirse a la cualidad experimentada y al grado de pureza con la que se aprecia. Sin embargo, no parece conveniente utilizar el concepto de brillo para referirse a la dimensión más cuantitativa. Entre otras cosas, debido a que apare-

306

9. Percepción del color

cen experiencias que no se dieron ante la contemplación de luces en la oscuridad. Por ejemplo, pueden apreciarse superficies negras o grises, aunque, por supuesto, nadie en su sano juicio ha visto jamás luces negras. Por tanto, sólo en el caso de las superficies parece adecuado postular la existencia de un continuo en el que las experiencias se ordenarían desde las superficies más oscuras (p.ej. una negra o una marrón oscura) a las más claras (p.ej. una blanca o una naranja pálida), pasando por niveles intermedios (los grises y la mayor parte de los colores experimentados en entornos naturales). 2.2

Conos y codificación cromática.

Aunque puedan efectuarse análisis más detallados (Zeki, 1995), existe un acuerdo generalizado respecto a la presencia de dos niveles fundamentales en la codificación de la información relacionada con la percepción del color (Kaiser y Boynton, 1996). El primer nivel se da en los receptores de la retina, es una fase de codificación basada en la existencia de tres tipos de conos. Sus respuestas son el punto de partida para el funcionamiento de un segundo nivel, mucho más relacionado con las experiencias de color, que basa su funcionamiento en la actividad de tres mecanismos perceptivos. Uno tiene que ver con la oposición existente entre las experiencias de azul y amarillo, otro con la dada entre las de rojo y verde, y el tercero haría lo propio con las de claro y oscuro. En este apartado nos ocuparemos de las principales características del primer nivel, reservando el siguiente para el segundo nivel. Tienden a darse experiencias de color cuando la energía se acumula selectivamente en un cierto rango de longitudes de onda. Consiguientemente, ¿por qué no se detectan tales predominios mediante fotorreceptores que respondan selectivamente en función de la longitud de onda? Esto es precisamente lo que ocurre en la retina, en la que los fotorreceptores de la visión diurna, los conos, se subdividen en tres tipos en función de su selectividad espectral. La Figura 9.2 muestra las curvas de respuesta espectral de los tres tipos de conos a partir de las estimaciones hechas por McLeod y Boynton (1979) (véase Pokorny y Smith, 1986). El primero, denominado 450 atendiendo al valor de la longitud de onda ante la que da su máxima respuesta, es especialmente sensible ante la energía de las longitudes de onda más cortas y, por ejemplo, es el que en condiciones normales responde en mayor medida ante las luces monocromáticas que tienden a experimentarse como violetas, azules o aguamarinas (azul-verdosas). La Figura 9.2 también muestra las funciones de respuesta de los dos restantes tipos de conos: los 530 y los 560, siendo fácil apreciar un alto grado de superposición entre ambas. Hecha esta matización puede indicarse que el 530 es relativamente más sensi-

307

Percepción 1,2 1,2

respuesta relativa respuesta relativa

11 0,8 0,8

larga larga

0,6 0.6

media media corta corta

0,4 0,4 0,2 0,2 00 400 440 440 480 480 520 520 560 560 6090 640 680 680 400 600 640 longitud de longitud deonda onda

Figura 9.2

Funciones de respuesta espectral de los tres tipos de conos.

ble a las longitudes de onda medias, mientras que el 560 lo es a las largas. Debido a la superposición entre las curvas, es correcto afirmar que una gran parte de las longitudes de onda que afectan a un tipo de cono influyen también en el otro. En cualquier caso, suele darse una mayor respuesta en los 530 ante las longitudes de onda más relacionadas con las experiencias de verde o verde-amarillento, mientras que hay predominio para la respuesta de 560 ante las longitudes de onda que tienden a producir las de naranja o rojo-amarillento. Que la primera fase de codificación se base en las respuestas de tres tipos de conos, que sea tricromática, explica, entre otras cosas, la propia existencia de colores metámeros. Para entender el porqué, compararemos el efecto producido en los fotorreceptores por dos estimulaciones que son percibidas como blancas. La primera estimulación a considerar se denomina equienergética (Figura 9.3 a) y consiste en una acumulación energética de magnitud idéntica (en la figura 1 watio) para todas las longitudes de onda. La segunda (Figura 9.3 b) está formada por tres acumulaciones de energía centradas en tres longitudes de onda: 400 (109 W), 520 (9W) y 650 (25 W) nm. Es de sentido común esperar que el estímulo equienergético provoque respuestas en los tres tipos de conos y, también, que éstas sean de magnitud semejante. Por tanto, ante él no se detectará acumulación selectiva de energía y se espera una respuesta de blanco. Menos intuitivo es pensar que este resultado es también obtenible cuando se presenta la estimulación formada por las tres acumulaciones de energía que guardan unas proporciones adecuadas. En tal caso, la actividad que produce la energía de 400 nm en los conos 450 se

308

9. Percepción del color A 1,2

Potencia (W) potencia (W)

1 0,8 0,6 0,4 0,2 0 400

450

500

550

600

650

700

longitud de onda

Longitud de onda

B

Potencia (W) potencia (W)

120 120 100 100

80 80 60 60 40 40 20 20

00 400 400

520 520

650 650

longitud de de onda Longitud onda Figura 9.3 Distribuciones espectrales de dos estimulaciones blancas. A: estimulación equienergética. B: estimulación trienergética.

acompaña de respuestas de magnitud semejante en los 530 y en los 560, debido a los efectos combinados de las energías de 520 y 650 nm. Por tanto, y dada esta semejanza en las respuestas, ¡el muestreo efectuado por los conos no detectaría un grado diferente de acumulación de energía en ninguna porción del espectro!, siendo lógica la experimentación del blanco. La Figura 9.4 utiliza puntos de diferentes tamaños para representar la magnitud de la respuesta relativa producida en los tres tipos de conos y, consiguientemente, presenta una triada de gruesos puntos para indicar que, no importa cuales sean las características físicas de los estímulos físicos causantes de este resultado, siempre que en los tres tipos de conos se dé

309

Percepción

Tipo de cono L PROTO

M DEUTO

C TRITA

BLANCO

AMARILLO

AZUL

MORADO

Figura 9.4

Respuestas de los tres tipos de conos ante cuatro estimulaciones.

una respuesta alta y de magnitud semejante, un observador común tiene la experiencia de blanco. La Figura 9.4 proporciona también tríadas correspondientes a otros colores y permite establecer el principio que provoca la diferenciación entre colores de la siguiente manera: siempre que dos estimulaciones produzcan patrones de actividad diferentes en los tres tipos de conos, serán percibidas como distintas. Así, las estimulaciones azul y morada se ven como diferentes porque producen niveles de respuesta muy distintos en los conos L (reducido para la estimulación azul, grande para la morada). Por otra parte, ¿por qué se denomina a los conos como L, M y C? Para indicar que son, respectivamente, los más sensibles a las longitudes de onda largas, medias y cortas. La Figura 9.4 también indica la denominación clínica de cada uno de estos tipos de conos (el origen de esta nomenclatura se indica en el apartado 5.1). 2.3

Mecanismos oponentes y codificación cromática.

Aunque la comprensión de la fase de codificación tricromático-retiniana es esencial para explicar aspectos importantes de la percepción del color, no es suficiente para dar cuenta de las características finales de esta experien-

310

9. Percepción del color

cia. Entre los hechos no explicados se encontrarían aspectos tan relevantes como la propia naturaleza de la cualidad cromática experimentada. Para dar cuenta de ella debe ascenderse al nivel funcional en el que se encuentran los mecanismos oponentes. Existen dos formas, no antagónicas, de entender el funcionamiento de los mecanismos del segundo nivel de la percepción del color. Por una parte, como hizo en el siglo pasado el alemán Ewald Hering (1878), fundador de la teoría de los procesos oponentes (Boring, 1942), las características de las experiencias de color pueden analizarse en busca de vivencias que sean incompatibles entre sí y, partiendo de ellas, postular que el funcionamiento del proceso perceptivo del color se basa en la existencia de estados opuestos. Por ejemplo, puede observarse que, aunque no existan inconvenientes para experimentar simultáneamente los matices de «rojo» y «amarillo» (lo que denominamos «naranja») o los de «rojo» y «azul» («morado» o «violeta»), sí que las hay para experimentar simultáneamente «rojo y verde» y «amarillo y azul». Por tanto, diría Hering, deben existir dos mecanismos cromáticos, uno que oponga la experiencia del «verde» a la del «rojo», y otro que haga lo mismo entre las de «azul» y «amarillo» A la vez, aunque en este caso nos situemos fuera del ámbito de las oposiciones entre matices, puesto que nada puede ser simultáneamente «blanco y negro», parece también adecuado hablar de un mecanismo acromático. Ocupémonos ahora de la segunda forma en que es posible conceptualizar el funcionamiento de los mecanismos oponentes (Hurvich, 1981; Lillo et al, 1995), indicando que se basa en los efectos que tienen las variaciones de reflectancia sobre la composición espectral de la energía lumínica que alcanza al ojo. De momento, este tipo de análisis se centrará en los mecanismos cromáticos («amarillo-azul» y «rojo-verde»). 2.3.1 Mecanismos cromáticos. La característica más específica de las superficies cromáticas es su tendencia a reflejar preferentemente ciertas longitudes de onda. A partir de este hecho, los mecanismos «amarillo-azul» y «rojo-verde» pueden concebirse como relacionados con la detección de dos tipos distintos de desequilibrios energéticos: 1) el sistema azul-amarillo responde ante el predominio de energía en las longitudes de onda corta («azul») o larga («amarillo»); y 2) el sistema verde-rojo responde ante el predominio de energía en las longitudes de onda medias («verde») o en cualquiera de los extremos del espectro («rojo»). Antes de analizar el funcionamiento de estos mecanismos se efectuará un comentario sobre el concepto de extremos del espectro, anteriormente utilizado, puesto que resulta contradictorio con la costumbre de utilizar las dicciones extremo rojo y extremo azul del espectro para referirse a las por-

311

Percepción

ciones donde se ubican, respectivamente, las mayores y menores longitudes de onda. Estas expresiones tienen su origen en que las cualidades predominantes en la experiencia de color en las proximidades de los 400 nm y de los 700 nm son las de «azul» y «rojo», respectivamente, si bien ninguno de estos matices se experimenta en solitario. Así, ante una estimulación monocromática de 400 nm el calificativo que mejor refleja lo experimentado es el de «violeta», puesto que junto al componente predominantes («azul») se da uno secundario («rojizo»). En modo semejante, para el otro extremo del espectro, junto al muy predominante matiz «rojizo», existe un componente secundario mucho más débil y de carácter «amarillento». En síntesis, lo importante es que, sea como componente dominante (porción larga) o secundario (porción corta), la experiencia de «rojo» se da en ambos extremos del espectro. Por tanto, nada contradice la idea de que ésta es una de las experiencias perceptivas asociadas al funcionamiento de un mecanismo, que busca detectar predominios energéticos en cualquier extremo del espectro («rojo») o en sus porciones centrales («verde»). Veamos ahora cómo se pasa del nivel de respuesta de los receptores al de los mecanismos cromáticos oponentes. Para ello debe conocerse la magnitud de la respuesta de estos mecanismos ante cada longitud de onda para, una vez en disposición de esta información, formular ecuaciones que las relacionen con las funciones de respuesta espectral de los tres tipos de conos (Figura 9.5). Sin duda alguna, las más importantes calibraciones psicofísicas de la respuesta de los mecanismos cromáticos se realizaron durante la década de los cincuenta por Leo Hurvich y Dorothea Jameson (Hurvich y Jameson, 1957; Jameson y Hurvich, 1955; Hurvich, 1981; Krauskopf et al, 1982), quienes emplearon una técnica directa e ingeniosa: la anulación de matices mediante el uso de estímulos complementarios. Pongamos un ejemplo para comprender su funcionamiento. Supóngase en disposición de un aparato capaz de generar estimulación monocromática de cualquier longitud de onda (un monocromator). Este generador proyecta alternativamente, en una pantalla, estimulaciones de 520 nm y 570 nm. La contemplación de la primera (520 nm) produce la experiencia de «verde-amarillento», y la correspondiente a la segunda (570 nm) es la de «amarillo-verdoso». Por tanto, aunque en ambos casos el mecanismo «amarillo-azul» dé el mismo tipo de respuesta («amarillo»), ésta será mayor en el segundo caso. Pero, ¿cómo podemos asignar un valor de calibración a la diferencia en la magnitud de la respuesta? La solución aplicada por Hurvich y Jameson puede formularse de la siguiente manera: Dado que la experiencia de «amarillo» es opuesta (no puede simultanearse) a la de «azul», puede anularse proyectando sobre el estímulo a calibrar cierta cantidad de una estimulación cuya presentación solitaria produzca la respuesta de «azul». Cuanto más «azul» se precise para anular la experimentación del componente «amarillento», tanto mayor se estimará el valor de su magnitud en el estímulo a calibrar.

312

9. Percepción del color Mecanismo azul-amarillo Mecanismo azul-amarillo

0,4 0,2 680

650

620

590

560

530

500

470

440

-0,2

410

0 380

Respuesta relativa (+ amarillo; - azul)

Respuesta relativa (+ amarillo; – azul)

0,6

-0,4 -0,6 -0,8 longitud Longitudde deonda onda

Mecanismo verde-rojo Mecanismo verde-rojo

0,4 0,2

695

660

625

590

555

520

485

450

-0,2

415

0 380

Respuestarelativa relativa(+ (+rojo; rojo;-verde) – verde) Respuesta

0,6

-0,4 -0,6 -0,8

longitud de onda onda Longi tud de

Figura 9.5 Resultados de las calibraciones de los mecanismos cromáticos efectuadas por Hurvich y Jameson. (a) mecanismo amarillo-azul. (b) mecanismo rojo-verde. El signo utilizado en cada mecanismo sólo sirve para indicar la oposición de experiencias.

313

Percepción

La figura 9.5 muestra los resultados de las calibraciones efectuadas por Hurvich y Jameson. En 5 (a) puede observarse que la respuesta del mecanismo «amarillo-azul» es nula ante unos 500 nm, tomando el signo de «azul» por debajo de esta longitud de onda y el de «amarillo» por encima de ella —recuérdese que la función del mecanismo es la de detectar predominios energéticos en la porción corta («azul») o larga («amarillo») del espectro. Dirigiendo ahora la atención a 5 (b) puede apreciarse que al mecanismo «rojo-verde» le corresponden dos longitudes de onda ante las cuales su respuesta es igual a cero (ante 480 y 580 nm, aproximadamente). Para las longitudes de onda media comprendidas entre ellas su respuesta es la de «verde». Para las que están fuera de tal intervalo, y por tanto en alguno de los extremos del espectro, la respuesta es la de «rojo». Puesto que las funciones 5 (a) y (b) representan el resultado final (la salida) de los mecanismos que median nuestras experiencias de color, y dado que las reproducidas en 4 hacen lo propio con sus datos de partida (la entrada, el nivel de actividad de los fotorreceptores), Hurvich y Jameson (1957) pudieron deducir las siguientes ecuaciones: Amarillo/azul = 0,34 560 + 0,06 530 - 0,71 450 Rojo/verde = 1,66 560 + 0,37 450 - 2,23 530

(1) (2)

2.3.2 Mecanismo acromático Dentro de las superficies acromáticas (figura 9.1a), puede distinguirse entre aquellas cuya reflectancia se mantiene alta en todo el espectro (y tienden a percibirse como «blancas»), y aquellas otras en las que el nivel de reflectancia se mantiene a nivel medio («grises») o bajo («negro»). El mismo mecanismo que es capaz de dar respuestas diferenciadas entre las superficies acromáticas puede hacerlo ante las cromáticas que difieren en su nivel global de reflectancia. En tal caso, las de mayor reflectancia tenderán a percibirse como «claras», mientras que lo serán como «oscuras» las de características opuestas. Por ello, aunque lo tradicional ha sido llamar blanco-negro al mecanismo perceptivo relacionado con las variaciones en el nivel global de reflectancia, es más adecuada la denominación de claro-oscuro.

2.4

Discriminación y categorización de colores.

Uno de los aspectos más llamativos de la percepción del color es la notoria diferencia existente entre la gran capacidad para discriminar colores y la limitada capacidad para utilizar categorías cromáticas. Un par de ejemplos cotidianos servirán para concretar mejor a que nos referimos.

314

9. Percepción del color

Supongamos que se ha producido un pequeño desconchón en la pintura de un pasillo y que queremos reparar lo antes posible este problema. Para ello atendemos a la pintura y concluimos que es verde pálida. Con esta información acudiremos a la tienda y, primera sorpresa desagradable, veremos que son muchas las muestras de pintura que encajan con la descripción de verde-claro y, segunda sorpresa, probablemente ninguna de ellas es exactamente igual a la del pasillo de casa, pero esto no podemos saberlo hasta que contemplamos simultáneamente las pinturas suministradas por la tienda y la presente en el pasillo de casa. Segundo ejemplo: asistimos en casa a la retransmisión del primer tiempo de un partido de fútbol y, por cualquier causa, pasamos a contemplar la segunda parte a través de las imágenes transmitidas mediante otro aparato. No notamos ningún cambio en los colores contemplados porque el césped se sigue apreciando como un verde de claridad media, las camisetas de nuestro equipo rojas, las del contrario azules, etc. Sin embargo, ¿qué sucedería si, en vez de contemplar las imágenes retransmitidas por los distintos monitores en distintos momentos las pudiéramos contemplar simultáneamente? Esta situación es similar a la que se da en muchas tiendas de electrodomésticos en las que varios monitores de televisión están encendidos al mismo tiempo y se diferencia (discrimina) más fácilmente los colores supuestamente equivalentes proporcionados por distintos monitores. Esto es, el césped se ve verde (categoría) en todos los monitores, pero en algunos de ellos se ve más saturado, en otros más claro, y en otros más oscuro. En síntesis, la visión del color permite realizar un elevado número de discriminaciones entre colores de una misma categoría, siendo necesario para ello que las muestras a discriminar estén próximas espacio-temporalmente. En este caso, se podrá utilizar cualquier diferencia detectada por los conos entre las dos muestras. Cuando estas muestras no se presenten simultáneamente (como cuando se intenta encontrar en la tienda de pinturas una semejante a la del pasillo), lo que se comparará será un color recordado (lo almacenado en nuestra memoria) con el que se esta contemplando. En tal caso, las limitaciones de la capacidad de almacenamiento de la memoria harán que sólo se utilicen los tipos de respuesta dados en los tres mecanismos oponentes (si la pintura era clara, media u oscura; si era rojiza o verdosa, y si era azulada o amarillenta; véase Figura 9.6), pero no la magnitud exacta con que se dio cada tipo de respuesta.

2.5

Lenguaje y categorías lingüísticas

¿Cuántas son las categorías cromáticas que suele utilizar adecuadamente un observador común para comunicarse verbalmente con otras personas? Puesto que, como muestra la Figura 9.6, cada uno de los mecanismos opo-

315

Percepción Denominación del mecanismo

Información relacionada con el mecanismo

Claro-oscuro (acromático)

Luminancia relativa (reflectancia)

Azul-amarillo (cromático 1)

Porción del espectro (larga o corta) en la que se acumula relativamente más energía

Rojo-verde (cromático 2)

Porción del espectro (central o cualquiera de los extremos) en la que se acumula relativamente más energía

Figura 9.6

Relación Información - Sensación Alta Media Baja

«Claro» «Medio» «Oscuro»

más en larga no hay diferencias más en la corta

Azul ——— Amarillo

más en central Verde no hay diferencias ——— más en los extremos Rojo

Información y sensación de los tres mecanismos oponentes.

nentes puede dar tres tipos de respuestas, es fácil predecir la existencia de 27 categorías cromáticas (3 × 3 × 3 = 27). Sin embargo, si se atiende sólo a las que alcanzan el calificativo de básicas en la habitual nomenclatura científica, su número queda reducido a 11: gris, blanco, negro, rojo, verde, azul, amarillo, naranja, morado, rosa y marrón. ¿A qué se debe la discrepancia entre el número de categorías predecibles y el de las básicas? ¿Por qué éstas son menos que las que se pueden utilizar consistentemente en tareas que no implican el uso del lenguaje? Dos son los factores relevantes. En primer lugar, puede suceder que una misma categoría básica se dé con varios niveles de claridad: por ejemplo, la de «verde» puede aplicarse a estímulos claros, medios y oscuros. En segundo lugar, puede suceder que algunas combinaciones de tipos de respuesta en los mecanismos oponentes no den lugar a una categoría básica en el lenguaje: por ejemplo, la respuesta tipo verde en el mecanismo verde-rojo al combinarse con las dos respuestas extremas posibles en el mecanismo azul-amarillo no da lugar a ninguna categoría básica. Existen, ¡qué duda cabe!, términos para indicar que se experimenta simultáneamente verde y azul (aguamarina) o verde y amarillo (chartreausse). Sin embargo, los términos como aguamarina y chartreausse no cumplen con los requisitos requeridos para ser considerados como términos identificadores de categorías básicas. Estos requisitos son los siguientes (Berlin y Kay, 1969; Kaiser y Boynton, 1996, cap. 11; Corbet y Davies, 1997): 1) Su denominación debe estar presente en el vocabulario de todos los hablantes del idioma. 2) El término debe utilizarse de forma consistente en las distintas personas que lo emplean y en las distintas ocasiones en que lo hacen.

316

9. Percepción del color TIPO

DENOM. CATEGORÍAS

CLARIDADES Preferentes y compatibles

RESPUESTA ROJO-VERDE

RESPUESTA AZUL-AMARILLO

Acromática

Gris

Medias

Media (neutral)

Media (neutral)

Acromática

Blanco

Altas

Media (neutral)

Media (neutral)

Acromática

Negro

Bajas

Media (neutral)

Media (neutral)

Primaria

Azul

Baja, Media, Alta

Media (neutral)

Azul

Primaria

Amarillo

Media, Alta

Media (neutral)

Amarillo

Primaria

Verde

Baja, Media, Alta

Verde

Media (neutral)

Primaria

Rojo

Baja, Media.

Rojo

Media (neutral)

Secundaria

Morado

Baja, Media.

Rojo

Azul

Secundaria

Naranja

Media, Alta,

Rojo

Amarillo

Secundaria

Rosa

Media, Alta,

Rojo

Media (neutral)

Secundaria

Marrón

Baja, Media

Rojo?

Amarillo?

Figura 9.7

Naturaleza perceptiva de las categorías básicas

3) El significado del término no debe estar incluido en ningún otro término de color. 4) El término debe ser monolexémico (una sola palabra). Por ejemplo, es monolexémica la denominación de naranja pero no la de rojoamarillento. En castellano (para otros idiomas consúltese Kay et al, 1997), los términos considerados como básicos pueden dividirse en los tres siguientes grupos de categorías: 1) Acromáticas (3): gris, blanco y negro. 2) Cromáticas primarias (4): rojo, verde, azul y amarillo. 3) Cromáticas secundarias (4): naranja, morado, rosa y marrón. La naturaleza perceptiva de las categorías es fácilmente explicable desde la teoría de los procesos oponentes de la manera siguiente (Lillo, 1998a; véase Figura 9.7): 1) Se experimenta una categoría acromática (blanco, gris, negro) cuando la respuesta en los dos mecanismos cromáticos fuera nula. 2) Se experimentan categorías cromáticas primarias (rojo, verde, azul, amarillo), cuando se da una respuesta apreciable en sólo uno de los

317

Percepción

mecanismos cromáticos (en el otro la respuesta es nula o muy reducida). 3) Se experimentan categorías cromáticas secundarias cuando: A) La respuesta en el mecanismo verde-rojo es de tipo rojo. B) Se da una respuesta no neutra en el mecanismo acromático (rosa, marrón) o en el mecanismo azul-amarillo (morado, naranja). Sin embargo, esta explicación parece adecuada para 10 de las 11 categorías básicas: las tres acromáticas, las cuatro cromáticas primarias, y las tres primeras cromáticas secundarias (morado, naranja y rosa). No obstante, no lo es para la cuarta secundaria (marrón), entre otras, por las siguientes razones: 1) Existen abundantes estimulaciones que producen, simultáneamente, las experiencias de rojo y oscuro en las que, contra lo indicado por la Figura 9.7, los observadores comunes no utilizan la categoría de «marrón» En estos casos tampoco se emplea cualquiera otra de las básicas, sino otras tales como las de «granate» o «burdeos». 2) A diferencia de lo que ocurre con el resto de las categorías cromáticas secundarias, la de «marrón» se experimenta como correspondiendo a un matiz único (Fuld, Werner y Wooten, 1983; Quinn, Rosano y Wooten, 1988). Esto es, mientras que en los prototipos de morado y naranja se experimentan dos matices diferentes (los indicados en la Figura 9.7), y en los de rosa se simultanea la experiencia de rojo con la de blanco, nada parecido a lo anterior sucede en el caso del marrón.

3.

Producción de colores

Sabemos que el color es una respuesta perceptiva dada ante la presencia de desequilibrios relativos en la energía que alcanza a un observador. Por ello, puede considerarse que la producción de colores es la producción de desequilibrios energéticos. En la medida de lo posible, para simplificar y abaratar los procesos tecnológicos, este logro debe alcanzarse partiendo del menor número de elementos-base (colores primarios). Dos son los tipos de sistemas utilizados habitualmente para producir desequilibrios energéticos. En el primero, la mezcla aditiva de colores, la utilización de cada uno de los colores primarios añade energía de un determinado tipo a la mezcla que se quiera conseguir. En el segundo, la mezcla sustractiva de colores, cada color primario resta energía de un determinado tipo.

318

9. Percepción del color c (tinta cyan) c (tinta cyan)

80 80

% reflectancia % reflectancia

80 80

reflectancia

100 100

100 100

60 60 40 40

%

% reflectancia

a (tinta amarilla)

20 20 00

60 60

40 40

20 20

0

corta

corta

media media Longitud de onda

0

larga

larga

corta corta

media media Longitud de onda Longitud de onda

larga

larga

Longitud de onda b (tinta magenta) b (tinta magenta)

d (verde mezcla) d (verde mezcla)

100 100

100 100

% reflectancia

60 60

40 40

20 20

% reflectancia

80 80

% reflectancia

% reflectancia

80 80

60 60

40 40

20 20

00 corta corta

media Longitud de onda

media Longitud de onda

larga larga

00

corta corta

media media Longitud de onda Longitud de onda

larga larga

Figura 9.8 Mezcla sustractiva de colores. (a) La utilización de una gran cantidad de tinta amarilla permite que el papel blanco deje de reflejar las longitudes de onda cortas. Las tintas magenta y cyan hacen lo propio con, respectivamente, (b) las longitudes medias y (c ) las cortas. (d) Estimulación en la que sólo se reflejan las longitudes de onda media («verde») gracias al uso combinado de tinta cyan («azul claro») y amarillo.

3.1

Mezcla sustractiva

Este tipo de mezcla es el habitualmente empleado para lograr materiales cromáticos impresos sobre papel. Ejemplos concretos de mezclas conseguidas por este procedimiento son las que se dan cuando se mezcla el trazado de distintos lápices de colores sobre una hoja de papel en blanco y, también, cuando se imprime en color mediante las impresoras habitualmente incorporadas por los equipos informáticos. El material sobre el que se imprime es blanco, es decir, su reflectancia es alta para todas las longitudes de onda (véase p. 303, Figura 9.1a). Por otra parte, es menos evidente, comprobar que la función de cada una de las tintas utilizadas es la de oponerse a la reflexión de un cierto grupo de longitudes de onda. En la forma representada mediante la Figura 9.8, la utilización de tinta amarilla sirve para reducir la proporción en que se reflejan las longitudes de onda corta (9.8a), y las tintas magenta y cyan hacen lo

319

Percepción

propio con las medias (9.8b) y largas (9.8c), respectivamente. Si se considera que la función de cada tinta es la de restar energía a una gama de longitudes de onda, es fácil explicar cómo se consiguen colores mediante su mezcla. Así, si se quiere conseguir una estimulación similar a la verde representada en 9.8d, deberán utilizarse simultáneamente las tintas que restan energía a las longitudes de onda corta (amarillo) y larga (cyan). Este resultado, por otra parte, resultará familiar a quienes hayan utilizado distintos lapiceros para crear colores. Desde el punto de vista teórico es fácil predecir la obtención de estimulaciones acromáticas mediante la utilización simultánea de las tintas amarilla, magenta y cyan. Todo lo que debe hacerse es utilizar cantidades equivalentes de cada una de ellas a fin de reducir, en el mismo grado, la cantidad de energía reflejada en las porciones corta, media y larga del espectro. Si las tres se empleasen en grado reducido se obtendría un «gris» muy claro (muy próximo al color del papel del que se parte), oscureciéndose el gris logrado a medida en que se incrementasen las cantidades empleadas. Sin embargo, puesto que utilizar cantidades exactamente equivalentes de las tres tintas puede ser difícil de conseguir, son muchos los casos aplicados en los que las estimulaciones acromáticas se obtienen empleando directamente tinta negra sobre el papel. De esta forma, siempre se tendrá la seguridad de obtener una reducción equivalente en la energía reflejada en todas las longitudes de onda. 3.2

Mezcla aditiva

Los principios en los que se basa la mezcla aditiva de colores son, como cabría esperar, opuestos a los descritos en el apartado anterior. Se parte de la ausencia de estimulación y se utilizan tres colores primarios para añadir energía en la porción corta (azul), media (verde) y larga (rojo) del espectro. Su uso conjunto y proporcionado permitirá obtener luz blanca. Los escenarios de los teatros y los monitores de televisión convencionales proporcionan buenos ejemplos de situaciones cotidianas en las que se utiliza la mezcla aditiva de colores. Antes de empezar una representación teatral, o durante los intervalos que permiten cambiar el escenario, éste permanece a oscuras porque no le alcanza la luz de ningún foco. Pocos instantes después, sin embargo, el uso inteligente de estas fuentes de luz permite crear mil ambientes diferentes mediante la combinación de un mínimo de tres tipos de focos. Uno de ellos proporciona una luz de apariencia «azulviolácea» cuando se contempla directamente y es el encargado de añadir energía de longitud de onda corta a las mezclas lumínicas del escenario. El segundo tipo, «verdoso» a la contemplación directa, hace lo propio con la energía de longitud de onda media. Mientras que el tercer tipo tiene una inevitable apariencia «rojiza» y es el encargado del componente energético

320

9. Percepción del color

de longitudes más largas. En muchos casos, el cuarto tipo de foco utilizado para iluminar el escenario tendrá una apariencia blanca y servirá para aportar la misma cantidad de energía en todo el espectro visible. En el caso de no haber podido asistir a la representación teatral deberíamos conformarnos con contemplar su retransmisión a través de la televisión. Muy probablemente, todos los colores presentados en pantalla se habrán conseguido mediante la mezcla de la luz producida por tres tipos de puntitos luminosos que pueden hacerse visibles si se observa la pantalla desde cerca y con una buena lupa. En este caso, se observará que sus colores son muy parecidos a los de los tres tipos de proyectores de nuestro hipotético teatro (azulados, verdosos y rojizos) debido a que, también los puntitos, tienen la función de aportar energía en una parte concreta del espectro visible.

4.

Medición del color

El apartado 2 se centró en el estudio de los mecanismos que median en la percepción del color y, por tanto, proporciona el adecuado marco de referencia para entender las aportaciones de la principal disciplina científica relacionada con la medición de los colores, la colorimetría, cuya finalidad explícita es la de proporcionar indicadores numéricos relacionados con las experiencias de color. Con este objetivo la Commission Internacionale de l’Eclairage (CIE) ha desarrollado una serie de espacios y superficies útiles para medir el color de las estimulaciones, en función de la respuesta producida en el colorímetro electrónico o, simplemente, colorímetro. Veamos en qué se basa su funcionamiento. 4.1

Espacios de color CIE

4.1.1 Espacio CIEXYZ Sabemos que la luz procedente de los objetos cromáticos tiende a mostrar desequilibrios energéticos, excesos o defectos relativos, y que la retina está capacitada para su detección debido a que dispone de tres tipos de sensores especialmente sensibles a la energía de las porciones larga, media y corta del espectro, respectivamente. Sabiendo esto, ¿por qué no construir un aparato funcionalmente similar a la retina y, por tanto, capaz de detectar el mismo tipo de desequilibrios? Este aparato recibe el sugerente nombre de colorímetro. La Figura 9.9 muestra las curvas de transmitancia de los filtros que puede incorporar un hipotético colorímetro. Como puede apreciarse, el filtro X deja pasar especialmente la energía acumulada en las longitudes de onda

321

Percepción Curvas de transmitancia de un colorímetro hipotético

0,8

Y Z X

0,4

5

0

5

0 70

67

65

5

0

5

0

62

60

57

55

5

0

5

0

52

50

47

45

42

0

0 40

Transmitancia Transmitancia relativa relativa

1,2

-0,4

Longitud onda Longitud de de onda Figura 9.9 Curvas de transmitancia de los filtros de un colorímetro hipotético. El filtro «X» deja pasar a su través especialmente la energía acumulada en las longitudes de onda más largas, mientras que los «Y» y «Z» hacen lo propio, respectivamente, con la acumulada en las medias y las cortas.

más largas, mientras que el Y y el Z hacen lo propio con la acumulada en las medias y en las cortas respectivamente. Por ello, si se hace pasar la luz, procedente de un objeto, por cada uno de los filtros y, de alguna manera, se mide la cantidad de luz que ha conseguido atravesarlos se obtiene una terna de valores que permiten describir la estimulación en un punto en que, con toda legitimidad, puede denominarse espacio de color. Pongamos algunos ejemplos para concretar la idea que se acaba de exponer. Supongamos que nuestro colorímetro está recibiendo la luz reflejada por una hoja de papel blanco iluminada por una fuente que contiene la misma cantidad de energía en todas las longitudes de onda (iluminación equienergética). En tal caso, los tres filtros son atravesados por una cantidad semejante de luz y se obtiene un nivel de medida equivalente para los tres filtros (p.ej. X = Y = Z = 400). Supongamos ahora que, sin cambiar de iluminación, sustituimos la hoja de papel blanco por otras percibidas como «negra», «amarilla» y «azul». En cada caso se obtendrá una clara variación en el resultado de la tríada de mediciones efectuadas. Así, para la superficie negra se obtendrá una reducción general en el nivel de respuesta (debido a su baja reflectancia), aunque se mantendrá el equilibrio (p.ej. X = Y = Z = 45). Por otra parte, la tendencia de las superficies azul y amarilla a reflejar especialmente ciertas longitudes de onda, provocará mayores valores relativos en los filtros que más fácilmente las transmiten (p.ej. X = 5, Y = 30, y Z = 90 para la superficie azul, y X = 70, Y = 75, y Z = 10 para la amarilla). Es importante recordar que podemos utilizar la tríada de valores obtenidos ante cada estimulación, a la que denominaremos valores tricromáticos, para representar la reflectancia de las superficies en un espacio definido por los ejes X, Y, y Z.

322

9. Percepción del color

Aunque los filtros utilizados en los colorímetros que se ajustan a las recomendaciones de la CIE son algo distintos a los que hasta ahora han servido de ejemplo (Pokorny y Smith, 1986), funcionan basándose en el mismo principio: permiten la detección de acumulaciones de energía en las porciones larga (X), media (Y) y corta (Z) del espectro. Son muchas las ocasiones en las que, más que interesar la cantidad absoluta de energía acumulada en cada porción del espectro, lo que realmente importa es la magnitud relativa o proporción de energía que se acumula en cada parte del espectro. Para que no puedan existir confusiones respecto a cuando se habla de cantidades absolutas (valores tricromáticos) y cuando de relativas (proporciones tricromáticas), en el primer caso siempre se utilizarán las mayúsculas (X, Y, Z), mientras que en el segundo se emplearán las minúsculas (x, y, z). Pongamos un ejemplo en el que sea fácil apreciar la utilidad de estas mediciones relativas. En una reciente visita a Valencia fui informado de la utilización de mediciones colorimétricas para seleccionar calidades diferentes de naranjas. Puesto que la asignación de un determinado nivel de calidad depende, además de atributos tales como el tamaño y la forma, del color de estos frutos, ¿por qué no aprovechar su desplazamiento en las cintas móviles de la fábrica para efectuar una rápida medición colorimétrica y utilizar posteriormente el resultado medido para controlar el funcionamiento de un automatismo capaz de separar a las naranjas? Concretemos numéricamente la situación expuesta asumiendo que las condiciones de iluminación hacen incidir en las naranjas un nivel de iluminación relativamente alto (p.ej. 1.000 lux). Partiendo de él pueden medirse los valores tricromáticos correspondientes a una naranja de color óptimo y obtenerse, por ejemplo, los siguientes: X1 = 300, Y1 = 120, y Z1 = 20. Estos valores tricromáticos se utilizarían como referencia para compararlos (mediante un simple programa informático) con los correspondientes a cada una de las naranjas que quisiéramos clasificar, de forma que sólo la obtención de una diferencia pequeña entre las dos ternas de valores tricromáticos llevase a concluir que la medición corresponde a una naranja de alta calidad (una diferencia grande indicaría que el color medido no se ajusta a esta calidad). No obstante, para que nuestro mecanismo separador de naranjas pueda, en principio, funcionar eficazmente, basándose en los valores tricromáticos proporcionados por un colorímetro CIE, resulta mucho más operativo basar su actividad en lo que en lo que normalmente se denominan proporciones o coordenadas tricromáticas (MacAdam, 1985). Supongamos que algún motivo altera las condiciones de iluminación en el habitáculo donde se están realizando las mediciones colorimétricas. Por ejemplo, supongamos que por un descuido en el servicio de mantenimiento la cantidad de luz que ilumina a las naranjas se reduce a la mitad y, consiguientemente, también lo hacen en el mismo grado los valores X, Y, y Z registrados por el colorímetro (X2 = 150, Y2 = 60, y Z2 = 10) La consecuencia de esta variación es que

323

Percepción

la propia naranja que sirvió de referencia para definir el color de la categoría superior sería considerada como no perteneciente a ella por el programa informático conectado al medidor. Como enseguida veremos, este error no se producirá si el programa informático utiliza, en lugar de valores, proporciones tricromáticas. Aunque el cambio lumínico redujo a la mitad los valores tricromáticos registrados por el colorímetro, no alteró las relaciones de magnitud existentes entre ellos, de forma que la mayor cantidad detectada siguió siendo en X (algo lógico, puesto que la naranja refleja especialmente la energía de la parte más larga del espectro), y ésta siguió siendo unas 2,5 veces superior a la de Y y unas 15 a la de Z. Por tanto, ¿por qué no utilizar un tipo de medida que se base en las magnitudes relativas existentes entre los valores tricromáticos y no se vea afectado por las variaciones en el nivel de iluminación? Las proporciones tricromáticas son este tipo de medida. El proceso matemático preciso para calcular las proporciones tricromáticas es muy sencillo. Para empezar se asume que la respuesta TOTAL del colorímetro es la suma de los tres valores tricromáticos: TOTAL = X + Y + Z

(3)

A continuación, y para determinar la proporción en la que cada uno de ellos contribuye a la respuesta total, se les divide por el valor de ésta en la forma especificada por las ecuaciones siguientes: x = X/TOTAL y = Y/TOTAL z = Z/TOTAL

(4) (5) (6)

No es difícil comprobar que su aplicación produce, para naranjas idénticas, las mismas proporciones tricromáticas en las dos situaciones lumínicas consideradas. Así, cuando la iluminación fue reducida, el valor TOTAL fue igual a 220 (X2 + Y2 + Z2 = 150 + 60 + 10) y, por tanto, la aplicación de las ecuaciones (4), (5), y (6), permite calcular las proporciones tricromáticas de la manera siguiente. x = 150/220 = 0,68 y = 60/220 = 0,27 z = 10/220 = 0,05 Un cálculo semejante aplicado a la situación de mayor iluminación (X1 = 300, Y1 = 120, Z1 = 20) da exactamente las mismas proporciones (x = 0,68, y = 0,27, z = 0,05). Además de proporcionar una medida resistente a las variaciones en la iluminancia, ¿qué ventajas adicionales proporciona la especificación de un

324

9. Percepción del color

color en función de sus proporciones? La más importante es que permite reducir a dos el número de cifras utilizadas, debido a que la tercera es deducible partiendo de las anteriores. En términos más concretos, y puesto que la suma de las tres proporciones debe ser igual a 1, el valor de cualquiera de ellas será igual a 1 menos la suma de las otras dos, por ejemplo z = 1 - (x + y). Así, en el caso de nuestra naranja, si x = 0,68 e y = 0,27, z sólo puede valer 0,05, puesto que éste es el valor que se necesita añadir a la suma de x e y para llegar a la unidad. 4.1.2 Diagrama de cromaticidad CIExy La reducción a dos del número de valores utilizados para referenciar un color facilita su representación gráfica y hace posible crear un instrumento, el diagrama de cromaticidad CIExy (Figura 9.10) muy útil para ciertas aplicaciones tecnológicas (Judd y Wyszecki, 1975). Los primeros elementos a considerar para entender el diagrama de cromaticidad CIExy son los ejes de coordenadas en los que se encuadra. Estos, x e y, son dos de las tres proporciones tricromáticas. Por esta razón, cualquier estímulo que refleje cantidades semejantes de energía en las tres partes del espectro (X = Y = Z), al dar lugar a proporciones tricromáticas idén1 0,9 0,8 550

0,7

Proporción y

0,6 500

0,5 0,4

Ac ro m á tic o

600

0,3

650-700

0,2 0,1

Línea d e lo s m o ra d o s

450 0 0

400

0,2

0,4

0,6

0,8

1

Pro p o rc ió n x

Figura 9.10

Diagrama de cromaticidad CIExy.

325

Percepción

ticas (x = y = z = 0,33), se representa en el punto x = .33 e y = .33, que, en condiciones normales, tales estimulaciones se percibirán como acromáticas («blanca», «gris» o «negra») y, por tanto, carentes de matiz. Ocupémonos ahora de las posiciones en las que se representan los estímulos más cromáticos (de saturación muy elevada) y que son los formados por una sola longitud de onda (monocromáticos). No es difícil deducir, gracias a la numeración presente en la Figura 9.10, que cada uno de ellos se representa mediante un punto en la porción curva del diagrama. Por ejemplo, no es difícil comprobar que a una estimulación monocromática de 600 nm le corresponde un valor de x ligeramente mayor a 0,60 (x = 0,627) y otro y ligeramente inferior a 0,40 (y = 0,3725). Puede asumirse que este par de valores se obtuvieron haciendo incidir sobre el colorímetro una cierta cantidad de energía de esta longitud de onda. Tal procedimiento, por supuesto, pudo aplicarse a cada una de las longitudes de onda visibles (el arco iris), para obtener las coordenadas (x, y) que permiten localizarlas en el diagrama. Analicemos, ahora, la porción no curva del perímetro del diagrama de cromaticidad o, dicho de otra forma, del segmento recto que va desde, aproximadamente, la posición referenciada como 400 hasta la que lo es como 700. Como en el resto del perímetro, cada uno de los puntos de esta recta corresponde a estimulaciones que tienden a percibirse muy saturadas. Sin embargo, no estarían formadas por una sola longitud de onda, no serían monocromáticas, sino que lo estarían por un mínimo de dos. Dado que los matices normalmente experimentados ante este tipo de estimulaciones se incluyen dentro de los «morados», el segmento del que estamos hablando se denomina línea de los morados. Dado que estas estimulaciones no se incluyen entre las que definen el conjunto de estimulaciones monocromáticas del espectro visible (no son parte del arco iris) también se la denomina línea de colores no espectrales. Una vez que sabemos que el centro del diagrama representa la acromaticidad y que su perímetro sirve para hacer lo propio con las máximas saturaciones experimentables ante los matices presentes en el espectro (porción curva) o pertenecientes al ámbito de los morados (porción recta), podemos concretar la forma en que puede utilizarse este instrumento gráfico para especificar el matiz y la saturación de otros colores. Para entenderlo mejor supondremos que se ha efectuado una medición colorimétrica y que la energía lumínica procedente de una superficie ha dado lugar a las siguientes coordenadas cromáticas: x = 0,20 e y = 0,40. ¿Qué matiz y saturación se atribuirían a semejante estimulación (representada mediante «Cr» en la Figura 9.11)? El axioma del que parte el proceso interpretativo asume que todos los colores situados en un mismo radio del diagrama son idénticos en matiz, aunque puedan diferir en saturación. De este modo, puesto que existe un radio que parte del centro del diagrama (x = y = 0,33, origen de radios) y alcanza su periferia en las proximidades de 500 nm, tras pasar por

326

9. Percepción del color 1

Proporción y

0,8

0,6

500 0,4

X

Cr Ac.

0,2

0 0

0,2

0,4

0,6

0,8

1

Proporción x

Figura 9.11 Determinación de la longitud de onda dominante y de la pureza. Un color tiene la misma longitud de onda dominante que la del color espectral presente en el mismo radio. Su pureza es la porción de éste que hay que recorrer para llegar a él.

Cr, puede concluirse que Cr tiene el mismo matiz («verdoso») que el poseído por un estimulo monocromático de 500 nm. En síntesis, cuando se utiliza el diagrama para determinar gráficamente el matiz correspondiente a una estimulación, todo lo que ha de hacerse es trazar el radio que pasa por el color de interés, considerándose como longitud de onda dominante o de referencia a la del único estímulo monocromático que también se representa en el mismo radio. Pasemos ahora a ocuparnos de la forma en que el diagrama de cromaticidad CIExy representa la saturación, recordando el significado de los dos puntos extremos de cada uno de sus radios. Uno es siempre el propio centro del diagrama (x = y = 0,33) y corresponde a un nivel de saturación cero. El otro se sitúa en el perímetro y corresponde a la máxima saturación experimentable en un determinado matiz. Puede concluirse que el alejamiento a lo largo del radio representa el incremento en la saturación. Por tanto, un alejamiento igual a la mitad de la longitud del radio corresponderá a un nivel de saturación igual al 50 por ciento de la experimentada ante el estímulo monocromático. ¿Por qué se ha resaltado que los niveles de saturación se especificaban con relación a la del estímulo monocromático que correspondiera? El diagrama CIExy tiene la importante limitación de que no permite comparar la saturación de estímulos con diferentes longitudes de onda dominante. Por ejemplo, puesto que todos los estímulos monocromáticos ocupan el extremo más saturado de un radio, podría pensarse que todos ellos deberían experimentarse con un nivel de saturación diferente. En contra de esta predicción lo que se encuentra (Wyszecki, 1986) es que aquellos

327

Percepción

colores con longitudes de onda más extremas (próximas a los 400 nm o a los 700 nm) tienden a percibirse más saturados que los que tienen longitudes de onda centrales. En sentido estricto, lo único que permite determinar el diagrama de cromaticidad CIExy es la pureza de una determinada estimulación, esto es, el nivel relativo de saturación respecto a la máxima experimentable en el radio que corresponda del diagrama. Por ello, aunque todos los estímulos monocromáticos tengan una pureza del 100 por ciento no tienen por qué experimentarse con niveles de saturación semejantes. 4.1.3 Limitaciones del espacio CIEXYZ Las mediciones de los estímulos cromáticos basados en el espacio CIEXYZ del que el diagrama CIExy es un derivado, tienen dos grandes ventajas: estabilidad y precisión. Al basarse en la medición electrónica de las cantidades de luz acumuladas en las porciones largas (X), medias (Y) y cortas (Z) del espectro, una misma estimulación produce siempre el mismo resultado colorimétrico (estabilidad) y éste permite detectar con gran finura pequeñas variaciones estimulares (precisión). Por otra parte, como veremos enseguida, las mediciones basadas en los parámetros del espacio CIEXYZ, tienen serias limitaciones. El primer conjunto de limitaciones tiene que ver con la concepción localista en la que se basa. Para computar tanto los valores tricromáticos (X, Y, Z) como las coordenadas de cromaticidad (x, y), el colorímetro analiza la energía de una estimulación sin tener en cuenta la naturaleza de lo que le rodea. Este enfoque no es adecuado porque una misma estimulación puede dar lugar a experiencias de color muy distintas en función del fondo en el que se presenta (Wyszecki, 1986). El segundo conjunto de factores que limitan la utilidad del espacio CIEXYZ para describir la percepción del color deriva de que, en contra de lo que está implícito en su uso, los aspectos cualitativos de esta experiencia perceptiva no pueden explicarse exclusivamente en función de los aspectos también cualitativos existentes en la estimulación. En este capítulo se ha afirmado que lo esencial de las estimulaciones cromáticas es que presentan desequilibrios energéticos (apartado 1.2) y que la detección de tales desequilibrios es la causa fundamental de la percepción del color (apartado 2.2). Sin embargo, nunca se ha dicho que este factor fuese el único. Fundamentalmente porque tal afirmación resultaría falsa. Analicemos lo que sucedería si fuese verdadera. La longitud de onda dominante (véase 4.1.2) es el parámetro del espacio CIEXYZ que permite determinar el tipo de desequilibrio energético presente en una estimulación. Por ello, si ésta fuera la única variable a considerar para predecir los aspectos cualitativos del color, cabría esperar que todas las estimulaciones con la misma longitud de onda dominante deberían experimentarse con el mismo matiz, independientemente de

328

9. Percepción del color

su intensidad y pureza. La existencia de los efectos Bezold-Brüke y Abney demuestran que no es así. El efecto Bezold-Brüke (Valberg et al., 1991) es el cambio experimentado en el matiz de una estimulación que mantiene constante su longitud de onda dominante y varía en intensidad. Por ejemplo, una luz monocromática de 605 nm que produce un naranja perfecto (igual de rojiza que amarillenta) a intensidades intermedias, se ve más amarillenta que rojiza a intensidades altas, y más rojiza que amarillenta a las bajas. Trabajando con superficies de colores su nivel de reflectancia puede ser decisivo para que se experimente, o no, un determinado matiz. Por ejemplo, Boynton y Olson (1990), en un estudio clásico, encontraron que la categoría de amarillo sólo se aplica a estimulaciones con reflectancias relativamente altas (superiores al 60 por ciento, ¡no hay amarillos oscuros!). En la misma línea, investigaciones recientes (Vitini et al., 1998) han encontrado que las mismas longitudes de onda dominantes que producen la denominación de amarillo con altas claridades, con bajas claridades producen las de verde o marrón (muchos observadores consideran que el término más adecuado para describir el color visto es el de caqui). El efecto Abney (Burns et al, 1984) es el cambio experimentado en el matiz de una estimulación que mantiene constante su longitud de onda dominante y varía en pureza. Por ejemplo, una estimulación de 485 nm se experimenta como un azul casi perfecto cuando su pureza es del 100 por ciento pero se experimenta como azul con un débil componente verdoso a purezas intermedias. Consciente de las limitaciones del espacio CIEXYZ, la CIE, que lo creó en 1931, ha desarrollado, en esta segunda mitad de siglo, una serie de espacios derivados de él (por ejemplo CIE Lu´v´ y CIE L ab) que lo mejoran, tanto en el ámbito teórico como en el aplicado. Por ejemplo, estos nuevos espacios incorporan un parámetro, L (Lightness), que permite especificar la claridad experimentada ante un estímulo, teniendo en cuenta no sólo la intensidad de la estimulación que envía al ojo, sino también la de las superficies que le rodean. Un análisis detallado de estos nuevos espacios excede las posibilidades de este capítulo y debe buscarse en otras fuentes (Hunt, 1987) 4.2

Atlas de colores

La forma más precisa de especificar una estimulación cromática es, sin duda, la conseguida mediante colorímetros electrónicos que especifican las propiedades estimulares en términos de los espacios CIE. Sin embargo, son muchas las ocasiones en las cuales no se requiere un excesivo nivel de precisión en la medida y, además, se desea que ésta pueda realizarse e interpretarse por personas con conocimientos limitados sobre la percepción del color. De darse estas circunstancias puede sustituirse la utilización de un

329

Percepción

colorímetro electrónico, de precio muy elevado, por el empleo de un atlas de color, que resultará mucho más fácil de encontrar debido a su costo relativamente reducido. En esencia, un atlas de colores no es más que un sistema organizado de muestras cromáticas, normalmente presentadas en formato de libro. Para referenciar un color mediante un atlas debe buscarse en él la muestra que más se le parece y asignarle la denominación correspondiente a tal muestra. Como conocen bien los aficionados a la pintura, al bricolaje, a las bellas artes o a la informática, existen múltiples atlas disponibles a nivel comercial. Sin embargo, aquí nos centraremos en uno, en el atlas NCS distribuido por AENOR. Esta selección se basa en que 1) la impresión de sus muestras es de alta calidad, 2) éstas se presentan de forma organizada y significativa desde el punto de vista psicológico, 3) el número de muestras incluidas en él es elevado (1.730), y 4) el sistema NCS ha sido oficialmente adoptado por la Comunidad Económica Europea como un estándar para referenciar colores, siendo éste el motivo por el cual es distribuido, en España, por AENOR (Agencia Española de Normalización). El sistema NCS (Natural Color System) es un espacio de referenciación de los colores directamente basado en las concepciones de la teoría de los procesos oponentes (apartado 2.3). La nomenclatura NCS se basa en tres parámetros clave: blancura (w), negrura (s) y cromaticidad (c), debiendo ser igual a 100 la suma de los tres (w+s+c=100). Los estímulos más fáciles de describir, mediante la nomenclatura AENOR, son los acromáticos, porque en ellos c=0 (no se experimenta color). Un ejemplo de denominación aplicada a este tipo de estímulo sería la siguiente: S 7500-N. La letra S indica que esta denominación, al igual que todas las demás del atlas, se especifica en términos del sistema natural de los colores. Tras poner la S, lo primero que se especifica es el nivel de negritud correspondiente a la muestra, para ello se utilizan las dos primeras cifras (75). Las dos segundas (00) indican el nivel de croma que, lógicamente, es cero para una estimulación acromática. Este hecho, además, se reconfirma mediante la utilización de la letra N (no cromática). Ninguna de las cifras presentadas informa explícitamente sobre la blancura, aunque ésta es fácil de deducir (25) si se recuerda que la suma de cromaticidad, negrura y blancura debe ser igual a 100. Ocupémonos ahora de la denominación que le corresponde a un estímulo cromático, por ejemplo, S 2070-Y10R. Al igual que antes, los dos primeros pares de cifras indican, respectivamente, la negrura (20) y cromaticidad (70) y permiten deducir la blancura (10). El resto de la denominación (Y10R) sirve para especificar el matiz, hallándose éste entre el amarillo (Y) y el rojo (R), aunque mucho más cerca del primero que del segundo. Al basarse en la teoría de los procesos oponentes, la nomenclatura NCS considera que hay cuatro matices básicos: amarillo (Y), rojo (R), azul (B), y verde (G), que son los que se experimentan cuando sólo hay respuesta en uno de los mecanismos cromáticos. Caso de responder ambos, se da uno de los

330

9. Percepción del color

cuatro matices combinados: amarillo-rojo (Y-R), rojo-azul (R-B), azul-verde (B-G) o verde-amarillo (G-Y). Para indicar la fuerza relativa de cada uno de los matices experimentados se utiliza una escala numérica que va de 0 a 100 y las puntuaciones más bajas corresponden al predominio del primer matiz básico presente en la denominación (p.ej. Y10R indica que es más amarillento que rojizo), mientras que las más altas corresponden en el caso de que se dé la situación inversa (p.ej. Y80R indica que es más rojizo que amarillento).

5.

Alteraciones en la percepción del color

5.1

Tipos de alteraciones

El capítulo se inició recalcando el carácter perceptivo de las experiencias de color. Para ello se analizaron, entre otras evidencias, los resultados obtenidos mediante el anomaloscopio de Nagel. Como ya se indicó, lo que esencialmente se hace, al utilizarlo, es presentar una estimulación de referencia y pedir al evaluado que efectúe una mezcla de dos componentes hasta conseguir que su apariencia fuese, para él, idéntica a la de referencia. Este tipo de igualación puede extenderse utilizando como referentes cada una de las longitudes de onda del espectro visible. En tal caso, será de especial interés determinar el número mínimo de colores precisos para igualar mediante su mezcla los matices experimentados ante los estímulos del espectro. Por los motivos que pronto explicaremos, en las personas de tipo común, el mínimo necesitado es igual a tres, siendo ésta la causa de que se les considere tricromáticas. En el apartado 2.2 se hizo uso de las figuras 3 y 4 para mostrar como dos estimulaciones físicamente distintas (figuras 3a y 3b) podían producir el mismo patrón de respuesta en los conos de la retina (fila superior de la Figura 9.4). La Figura 9.4 también se utilizó para ejemplificar el hecho de que sólo eran dicriminables aquellas estimulaciones que producían patrones de respuesta diferentes en los conos retinianos. Por consiguiente, es fácil entender por qué los observadores comunes son tricromáticos: si en una mezcla se utiliza un componente que aporta energía en la porción corta del espectro, un segundo que lo haga en la media, y otro en la larga, se activará, en grado diferente, cada tipo de cono en función de la proporción de cada tipo de componente que se utilice y, consiguientemente, se emulará el patrón de activación producido por una determinada estimulación. En términos más concretos, si las cantidades representadas en la Figura 9.3b permiten activar en magnitud elevada y semejante a los tres tipos de cono, una reducción a la décima parte en la cantidad de energía utilizada de 400 nm disminuirá el nivel de respuesta en los conos C y, por tanto, producirá un patrón similar al que, en la Figura 9.4, se identifica como amarillo.

331

Percepción

Suponga ahora que en la retina de una persona faltase uno de los tres tipos de conos. Antes de analizar las consecuencias de esta pérdida, introduzcamos la nomenclatura clínica utilizada para describirla. En esencia, se trata de emplear como prefijos las palabras griegas que significan primero (proto), segundo (deuta) y tercero (trita) y como sufijo la expresión anopia, que significa falta del. Partiendo de ello es lógico denominar protanopia a la deficiencia derivada de la falta del primer tipo de cono, y deutanopia y tritanopia a las que tienen que ver con las del segundo y tercero, respectivamente. ¿Cuál es la principal característica de la visión de protanopes, deutanopes y tritanopes? Sin duda, que perciben como idénticas estimulaciones que los tricromáticos experimentan como claramente diferenciadas o, en términos más técnicos, que tienen muchos más metámeros que los tricromáticos. Por ejemplo, en la Figura 9.4, para un protanope no habría forma de discriminar entre los estímulos que allí se identifican como azul y morado porque lo único que permite su diferenciación es la magnitud de la respuesta que se da en el tipo de cono del que carecen. Se utiliza el término de dicromático para referirse a cualquier persona que carezca de uno de los tres tipos de conos y, consiguientemente, puede indicarse que lo son protanopes, deutanopes y tritanopes. El origen de este término radica en que sólo necesitan dos colores para igualar, mediante su mezcla, el matiz que experimentan ante cualquier longitud de onda del espectro. Cada uno de los dos actúa especialmente sobre uno de los dos conos de los que dispone el dicromático. Analizar las limitaciones derivadas de poseer sólo dos conos permite entender por qué los dicromáticos confunden colores que al observador común le parecen diferentes. Sin embargo, no dice nada en relación a los colores que de hecho experimentan. Para obtener respuestas al respecto debe ascenderse al nivel de análisis de los mecanismos oponentes (apartado 2.3). Distintas evidencias psicofísicas (Fletcher y Voke, 1985) han llevado a pensar que, en protanopes y deutanopes, se da una no-funcionalidad en el mecanismo rojo-verde, mientras que en tritanopes se da en el azul-amarillo. El que tanto en protanopes como en deutanopes carezca de funcionalidad el mismo mecanismo es la causa de que ambas patologías se incluyan en el grupo de los daltonismos. Otras dos patologías que también pertenecen al grupo de daltonismos son la protanomalía y la deutanomalía. Prota y deutanomalía son alteraciones en la visión del color que tienen que ver con la existencia de alteraciones en los protoconos o los deutoconos. El tipo de alteración más común se puede entender atendiendo a las funciones representadas en la Figura 9.2. Como puede verse, las que corresponden a protoconos y deutoconos tienen un alto grado de superposición y coinciden en muchas longitudes de onda en cuanto a sensibilidad. Sin embargo, exceptuando el punto en el que las funciones interseccionan, todas las demás longitudes de onda muestran un

332

9. Percepción del color

nivel de respuesta relativamente mayor ante uno de los dos tipos de conos. El grado de predominancia relativa es una de las claves que permite distinguir entre distintas estimulaciones. Este tipo de información se encuentra alterada en protanómalos y deutanómalos. En algunos protanómalos la curva de respuesta de los protoconos se encuentra desplazada hacia la izquierda respecto a la normal. En algunos deutanómalos la curva de los deutaconos está desplazada hacia la derecha. En ambos casos se da una reducción en la distancia entre curvas y, consiguientemente, un mayor grado de solapamiento entre ellas. La consecuencia más importante es que, aunque estas personas también requieran un mínimo de tres colores para reproducir mediante su mezcla los matices que experimentan ante las distintas longitudes de onda, los mezclan en proporciones muy distintas a las de los observadores comunes y por esta razón se les denomina tricromáticos anómalos. El último grupo de alteraciones del que nos ocuparemos, los monocromatismos, implica una nula capacidad para utilizar la información cromática y, esencialmente, un tipo de visión similar al que tiene un observador común al contemplar una película en blanco y negro. Este tipo de afección puede tener dos orígenes: 1) que en la retina sólo existe un tipo de cono, caso en el cual se hablará de monocromatismo monocónico; y 2) que no exista ninguno, caso en el cual se hablará de monocromatismo por ausencia de conos. Si una persona sólo tiene un tipo de cono puede ocurrir que dos longitudes de onda diferentes produzcan exactamente la misma respuesta. El secreto se halla en variar la intensidad de forma que compense las posibles diferencias existentes en la sensibilidad a cada longitud de onda. Por ejemplo, supongamos que se van a presentar dos longitudes de onda, A y B, y que ante la primera el tipo de cono del que dispone el monocromático es el doble de sensible que ante la segunda. Si ambas longitudes de onda se presentan con la misma intensidad, la estimulación A producirá una respuesta doble que la B, pero si esta última se presenta con el doble de intensidad, las respuestas ante A y B son idénticas y el observador no puede diferenciarlas. ¿Cómo es posible que exista un segundo tipo de monocromatismo y que éste reciba la sorprendente denominación de monocromatismo por ausencia de conos? ¿No sería ciega esta persona? La respuesta a esta última pregunta es un contundente no, debido a que en la retina existe un tipo de fotorreceptor, los bastones, a los que no hemos prestado atención hasta el momento. Los bastones son los fotorreceptores que, gracias a su gran sensibilidad, nos permiten ver durante la noche cuando los niveles de iluminación son tan reducidos que reciben la denominación de escotópicos. Durante las horas centrales del día, o cuando disponemos de una buena iluminación artificial y nos encontramos por ello en condiciones fotópicas, apenas contribuyen a la visión porque su capacidad de respuesta esta desbordada. Si es así, ¿pueden ser de alguna utilidad para las personas que

333

Percepción

sólo disponen de ellos en niveles de iluminación como los del mediodía? La respuesta es afirmativa, si se tiene la precaución de utilizar algún tipo de gafas ahumadas para reducir la cantidad de luz que llega a la retina. Sin embargo, la calidad de la visión así conseguida es muy deficiente, ya que es similar a la del observador común en condiciones escotópicas. Esto es, aunque permite esquivar bultos relativamente grandes y localizar objetos de grandes dimensiones (un armario, un pasillo), no permite que se realicen tareas que implican el manejo de detalles finos (¡no se puede leer un periódico a la luz de la luna!). 5.2

Incidencia y evaluación de las alteraciones en la percepción del color

De entre las distintas alteraciones en la percepción del color el grupo de mayor incidencia es el formado por los daltonismos. En nuestro país, más del 5 por ciento de los varones sufren alguna versión de este problema (Lillo et al, 1997). El porcentaje de mujeres afectadas es, al igual que en otros países (Fletcher y Voke, 1985), de una magnitud muy inferior (menos del 0,5 por ciento). La causa de esta fuerte diferencia entre sexos estriba en que la mayor parte de los daltonismos son de origen genético, están asociados al cromosoma X y se transmiten con carácter recesivo (Hsia y Graham, 1965). La situación puede simplificarse de la siguiente manera: denominemos X al cromosoma de tipo común, y X’ al cromosoma asociado a problemas en la visión del color de tipo daltónico. En el caso de las mujeres podrían darse las tres siguientes situaciones: 1) XX, dos cromosomas comunes, la mujer es de tipo común porque ni sufre ni transmite el daltonismo a su descendencia; 2) X’X, un cromosoma común y otro con problemas: la mujer es portadora, y aunque no experimenta problemas en la visión del color, sí los puede sufrir su descendencia; y 3) X’X’, dos cromosomas con problemas: la mujer es daltónica y transmite la patología a su descendencia. En el caso de los varones podrían darse las dos siguientes situaciones: 1) XY, un cromosoma X del tipo común, la visión del color es normal; y 2) X’Y, un cromosoma X’ del tipo asociado con problemas en la visión del color, el hombre es daltónico. Aunque se base en principios descubiertos a finales del siglo pasado por Rayleigh, y no se haya modificado esencialmente desde que lo diseñara Nagel a principios de este siglo, el anomaloscopio que lleva el nombre de este investigador sigue siendo considerado como «la reina indiscutible de todos los instrumentos de evaluación del color y el único dispositivo de uso común (a pesar de su alto precio) capaz de discriminar en forma fiable entre dicromáticos y tricromáticos anómalos» (Kaiser y Boynton, 1996, p. 429). A pesar de que tengan menos precisión que los anomaloscopios tipo Nagel, los tests de láminas pseudoisocromáticas son mucho más utilizadas en

334

9. Percepción del color

A Figura 9.12

B

C

D

Apariencia general de una lámina de la primera parte del test TIDA.

la detección de los daltonismos debido a que, además de ser mucho más económicos, permiten combinar una alta sensibilidad en la detección con la posibilidad de utilizarse de forma rápida. Estas pruebas utilizan láminas pseudoisocromáticas, es decir, incorporan elementos que son percibidos con colores semejantes (isocromáticos) para los daltónicos pero no para el observador común. Por ello se aplica el prefijo de pseudo para referirse, por ejemplo, a las superficies impresas en tintas verdosas y rojizas que pueden parecerle semejantes a un daltónico, pero no a una persona con visión normal. En fecha reciente (Lillo, 1996) se ha desarrollado en nuestro país un nuevo test de láminas pseudoisocromáticas, el TIDA (Test de Identificación de Daltonismos), con la finalidad explícita de ser aplicable, además de a sujetos adultos, a niños en edad escolar. La Figura 9.12 muestra el esquema gráfico general del que derivan todas las láminas de su primera parte. Como puede observarse, en ella aparecen dos conjuntos de monos cuyo interior puede imprimirse con distintos colores. En esencia, se debe indicar cuáles de los monos situados en la fila inferior son parecidos a los de la superior. Más concretamente, puesto que éstos son siempre grises, debe indicarse de entre los inferiores aquellos que también se perciben como carentes de color, deduciéndose la existencia de un daltonismo cuando el observador selecciona, junto a los genuinamente grises, alguno de los que normalmente se ven como coloreados.

335

Percepción

Bibliografía comentada En castellano existen dos manuales sobre la percepción, de fácil comprensión, que incorporan capítulos relacionados con la percepción del color. Estos son: Goldstein, E. B. (1988): Sensation and Perception, Madrid, Debate. Permite ampliar lo aquí presentado respecto a las bases psicofísicas de la fase de codificación oponente, aunque, al ser traducción de un texto publicado en inglés en 1984, está algo desactualizado. Lillo, J. (1993): Psicología de la Percepción, Madrid, Debate. Presenta una buena descripción de la relación existente entre la mezcla aditiva de colores y el origen de los espacios CIE. Su lectura también es conveniente para los interesados en los mecanismos relacionados con la constancia de color. En fecha reciente se ha publicado un nuevo manual general: Montserrat, J. (1998): La Percepción visual, Madrid, Biblioteca Nueva. Resulta interesante la descripción efectuada sobre los aspectos fisiológicos relacionados con la percepción del color. A este respecto puede consultarse también: Zeki, Z. (1995): Una Visión del Cerebro, Barcelona, Ariel. En inglés, el texto introductorio clásico sobre el color es: Hurvich, L.M. (1981): Color Vision, Sunderland. MA. Sinauer Assoc. Mucho más completo, pero también mucho más difícil de leer es: Kaiser, P. K; & Boynton, R. M. (1996): Human Color Vision (Second Edition), Washington, Optical Society of America. Sin duda, una magnifica visión global y actualizada de la percepción del color realizada por dos de sus principales investigadores.

336

9. Percepción del color

Preguntas de revisión 1. ¿Qué relación existe entre la presencia de desequilibrios energéticos y la percepción del color? ¿Qué tipos de desequilibrios se detectan en las fases tricromática y oponente? 2. ¿Por qué se puede discriminar entre más colores de los que se puede categorizar? 3. ¿Por qué se considera que un monitor de televisión es un ejemplo de mezcla aditiva de colores? ¿Qué se puede decir respecto a los colores obtenidos mezclando el trazo de distintos lápices? 4. ¿Qué caracteriza a los valores tricromáticos de las estimulaciones acromáticas? ¿Qué sucede con las proporciones o coordenadas cromáticas de estas últimas? 5. ¿Cuál es la diferencia entre la pureza y la saturación de un color? 6. ¿Cuál es la relevancia teórica de los efectos de Abney y Bezold-Bruke? 7. ¿En qué se diferencian dicromatismos y tricromatismos anómalos? ¿Las personas con estos problemas tienen una visión en blanco y negro? ¿Afectan estos problemas en grado semejante a hombres y mujeres? 8. ¿Cuál sería la apariencia de un color identificado en el atlas de colores AENOR Como S-7020 R90B?

337

10.

Organización perceptual y reconocimiento visual del objeto Antonio Crespo León

Este capítulo tiene por objeto presentar al lector las principales aportaciones realizadas en dos áreas de trabajo diferentes dentro del estudio de la percepción: la organización perceptual y el reconocimiento de los objetos a través de la modalidad visual. La primera parte del capítulo se dedica a la organización perceptual. Los investigadores de este campo pretenden descubrir los factores responsables de que los elementos sensoriales se organicen en totalidades coherentes ante nuestra experiencia. Partiendo de las propuestas de la psicología de la Gestalt, y tras una contraposición entre sistemas lineales de organización y sistemas no-lineales, se revisan fenómenos relevantes como son la articulación figura-fondo, el agrupamiento perceptual y el principio mínimo de pregnancia, desarrollado, ampliado y estudiado mucho más científica y cuantitativamente desde los modelos más recientes de bondad del patrón. Se finaliza este apartado discutiendo algunas cuestiones interesantes y críticas sobre el valor heurístico de los principios de organización, la importancia de las partes en la determinación de los todos, y la explicación de los fenómenos de organización mediante el principio de la probabilidad como alternativa al de pregnancia. La segunda parte del capítulo se dedica al reconocimiento visual de objetos. Se presenta un modelo general de reconocimiento que se va desarrollando en una serie de modelos más específicos seleccionados entre los más relevantes con el propósito de que el lector capte lo que han sido las principales aportaciones y teorías en esta área de investigación. Se anali-

339

Percepción

zan los rasgos distintivos de los modelos de plantillas y características, los modelos de ejes, el reconocimiento por componentes (RBC), los modelos de alineamiento pictórico, y se finaliza mostrando el funcionamiento de los modelos conexionistas de reconocimiento visual por procesamiento distribuido en paralelo.

1.

Introducción

Durante el continuo proceso de adaptación al medio los organismos hemos desarrollado mecanismos psicológicos con objeto de disponer orden ante la diversidad estimular propia del nicho ecológico en el que nos desenvolvemos. La apariencia fenoménica del medio no se reduce a una simple colección de elementos, partes, colores o texturas yuxtapuestas que se disponen de forma caótica, sino que por el contrario la percepción tiende hacia la organización y la coherencia, permitiendo la ejecución de respuestas ante las demandas ambientales. Miro por la ventana y observo una carretera que atraviesa un campo, que la carretera es transitada por varios vehículos, que en los bordes de su arcén existen carteles indicadores, que junto a la carretera se sitúan varios edificios de diverso aspecto, a su derecha e izquierda percibo vegetación, árboles y pájaros de diferentes especies, en el horizonte un avión que se dirige a no sé qué destino, etc. La percepción no es caótica, nuestra experiencia perceptual no está constituida por una sinfín de elementos sensoriales aislados (bordes, líneas, superficies, partes, etc.) sino por totalidades organizadas discernibles entre sí: percibo el teléfono de mi despacho y lo distingo de la mesa que a su vez es una totalidad diferente de la lámpara de mi escritorio. Pero además, estas totalidades organizadas no son entes estáticos. Los objetos del medio sufren transformaciones en el espacio: el teléfono de mi despacho lo puedo disponer más lejano o cercano, puedo moverlo a través de diferentes orientaciones en el espacio, puede incidir la luz sobre su superficie ocasionando distintos matices de color, etc., las posibilidades son innumerables. Cualquier transformación del objeto en el espacio y/o cualquier movimiento del observador genera una proyección diferente en la retina y, sin embargo, tengo una habilidad casi instantánea en reconocerlo visualmente: no sólo lo distingo de otros objetos significativos del medio, sino que este objeto que genera diferentes proyecciones retinianas es percibido fenoménicamente con una identidad constante. Reflexione el lector por un momento lo caótico que resultaría el mundo si cada vez que un objeto modificase su proyección retiniana se percibiera algo diferente: ¡la adaptación hubiera sido imposible! Las relaciones entre organización perceptual y reconocimiento visual son estrechas, podríamos afirmar que lo último no es posible sin lo primero, ¿cómo reconocer tal o cual objeto si previamente no existe una organización en una totalidad funcional y discernible? Además, ambos fenóme-

340

10. Organización perceptual y reconocimiento visual del objeto

nos se erigen en el centro de la psicología de la percepción como áreas de investigación de gran trascendencia pero ante las que, lamentablemente y a pesar de que las propuestas teóricas han proliferado con el tiempo, no existe hoy por hoy una explicación satisfactoria, sino más bien diversidad de modelos teóricos que ofrecen soluciones parciales y, en numerosas ocasiones, ad hoc. El propósito de este capítulo es presentar al lector las principales cuestiones científicas relacionadas con los mecanismos de organización perceptual y de reconocimiento visual de los objetos. Para conseguir estos objetivos vamos a dividir el resto del capítulo en dos apartados dedicados a cada uno de estos mecanismos, respectivamente. Científicamente, la cuestión central en el estudio de la organización perceptual no es sino descubrir los factores responsables de que las sensaciones o elementos aparezcan como totalidades unitarias y coherentes ante nuestra experiencia. Por su parte, el planteamiento básico para los estudiosos de reconocimiento visual consiste en dilucidar los mecanismos por los que los objetos del medio se discriminan entre sí y conservan una identidad fenoménica a pesar de las diferentes transformaciones a las que son sometidos en el espacio.

2.

Organización perceptual

Los psicólogos interesados en el estudio científico de la organización perceptual pretenden descubrir los factores responsables de la interacción entre elementos discretos (partes, líneas, superficies, etc.) para constituir unidades perceptuales significativas que se muestran ante nuestra experiencia como un todo. Dicho de otra forma, estudiando la organización perceptual pretendemos averiguar cómo nuestras sensaciones se configuran en totalidades funcionales. Una habitual y sencilla demostración útil para ilustrar el tema y apreciar cómo la experiencia perceptual supera o va más allá de las simples propiedades de los elementos constituyentes se observa en la Figura 10.1. Los cuatro estímulos aparecen ante el observador como triángulos, a pesar de que los elementos o partes que los generan son diferentes: una línea continua en a, una sucesión de puntos en b, textura interna a modo de línea oblicua en c, y en d se percibe un triángulo que emerge del fondo sin que existan límites definidos siguiendo un contorno real y físico (figura anómala de Kanizsa). Estos ejemplos, como otros que vamos a ir viendo, demuestran que el estudio de la organización perceptual no puede reducirse a un simple análisis de la recepción del estímulo proximal (energías que afectan a nuestros receptores sensoriales), sino más bien indican que en una determinada fase de procesamiento entran en funcionamiento ciertos mecanismos que coadyuvan a generar la experiencia fenoménica unitaria del sujeto. Estudiar tales mecanismos es labor del psicólogo y así se ha venido haciendo desde la

341

Percepción aa

bb

cc

dd

Figura 10.1 En los cuatro estímulos la organización percibida corresponde a un triángulo, a pesar de la diversidad de los elementos constituyentes.

época de la Gestalt, que sin lugar a dudas ha constituido la escuela psicológica que más empeño puso en este propósito. 2.1

Sistemas lineales versus sistemas no-lineales en el estudio de la organización perceptual

A inicios del presente siglo, la Gestalt surgió como una reacción de protesta frente al estructuralismo elementalista que venía marcando la manera de hacer psicología desde el último tercio del siglo anterior. Los estructuralistas adoptaron una posición analítica fundamentada en el método introspectivo, cuya forma de proceder era la de forzar a sujetos altamente entrenados a describir los estímulos perceptuales en sus elementos sensoriales constituyentes: por ejemplo, los sujetos podían describir el triángulo de la Figura 10.1b como una secuencia horizontal, y dos secuencias inclinadas (hacia derecha e izquierda) de puntos negros que se conectan en sus extremos. La idea subyacente de este método analítico debe localizarse en supuestos empiristas desde los que se considera que toda nuestra experiencia se va adquiriendo a lo largo de la vida en forma de sensaciones elementales que quedan vinculadas entre sí mediante mecanismos asociativos. Frente a este introspeccionismo analítico, la Gestalt recurre a la demostración fenoménica, presentando al sujeto estímulos con varias posibilidades de organización, debiendo éste indicar la que percibe: [] [] [] [] [] Por ejemplo, un sujeto puede describir la figura anterior como una organización constituida por diez corchetes individuales abiertos a derecha e izquierda alternativamente, aunque casi con toda seguridad la organización percibida con mayor probabilidad corresponderá a una secuencia de cinco cuadriláteros [ ]. Con demostraciones de este tipo la Gestalt llamó la atención por primera vez sobre las totalidades fenoménicas. Si los estructuralistas forzaban el análisis hasta las sensaciones elementales, para los gestaltis-

342

10. Organización perceptual y reconocimiento visual del objeto

tas esta manera de proceder era equivocada, pues la naturaleza o forma del elemento constituyente no parece ser tan decisiva para configurar un todo organizado, tal como hemos demostrado con los triángulos de la Figura 10.1. El análisis debe llegar solamente hasta el percepto que aparece ante la experiencia fenoménica, y el percepto no es sino una totalidad organizada, diferente e irreductible a las partes componentes. Consecuencia de este proceder metodológico es que el estructuralismo y la Gestalt se corresponden respectivamente con visiones lineales y no-lineales en el estudio de la organización perceptual: aquí la linealidad hace referencia a las posibles propiedades resultantes del todo organizado con respecto a las partes. Los estructuralistas defienden un sistema perceptual lineal donde la percepción del todo es un simple agregado de las partes constituyentes; alternativamente los gestaltistas sientan las bases de los sistemas perceptuales no-lineales, en donde la organización del todo no es reducible a las partes componentes (el todo es diferente a la suma de las partes). La Gestalt supuso el punto de arranque genuino en el estudio de los fenómenos de organización perceptual y desde entonces han sido numerosos los trabajos realizados al respecto, parcelándose este estudio en diversas áreas que han acaparado el interés de los investigadores. En lo que sigue vamos a presentar una serie de interesantes fenómenos que son la esencia de los mecanismos de organización perceptual: la segregación figura-fondo, el agrupamiento perceptual y la pregnancia. 2.2

La articulación figura-fondo

Afortunadamente para el ser humano la ambigüedad perceptual no es lo habitual en el medio ecológico en que se desenvuelve. Imagine por un momento el lector que cada vez que mirase a su alrededor observara, en los estímulos del medio, una ambigüedad análoga a la que muestran las figuras reversibles de la Figura 10.2. Se denominan figuras reversibles porque el mismo estímulo puede generar diversas organizaciones perceptuales. La figura de la izquierda fue utilizada por un psicólogo danés, cercano a la Gestalt, llamado Edgar Rubin: es la figura de los rostros y la copa, y según se persiste en su observación se pueden percibir dos caras una frente a otra, o la silueta de una copa (probablemente al inicio solamente se perciba una de ellas hasta que se descubre la alternativa). Algo similar sucede en la figura de la derecha, popularizada en psicología por Boring, y que corresponde al grabado de la joven y la vieja: según se persiste en la observación se puede percibir uno u otro rostro. Lo sorprendente de las figuras reversibles es que las energías que estimulan nuestros órganos sensoriales permanecen constantes aunque nuestra percepción es multiestable, es decir, percibimos alternativamente organizaciones diferentes aunque solamente una de ellas va a

343

Percepción

ser prevaleciente en un momento determinado, y ello es así porque la organización percibida se constituye en figura que destaca sobre un fondo. Los fenómenos de multiestabilidad descritos, para tranquilidad del ser humano, no son los que prevalecen en la vida cotidiana. Sin embargo, esta circunstancia habitual no invalida el supuesto básico referido a que nuestra percepción se articula en la dualidad figura-fondo, pues cuando prestamos atención a algún objeto de nuestro medio realmente lo que hacemos es percibir una figura sobre un fondo indeterminado constituido por otros objetos, hecho ya advertido originalmente por los psicólogos de la Gestalt, quienes consideraron esta articulación como el aspecto más elemental de la organización perceptual (Koffka, 1935; Rubin, 1921). En los trabajos de investigación se recurre habitualmente a la presentación de figuras reversibles con objeto de estudiar los aspectos más interesantes relacionados con la articulación figura-fondo, lo que ha aportado interesantes conocimientos sobre las cualidades que definen las dos partes del tándem y los principios que determinarán si, en igualdad de condiciones, una superficie tenderá a ser percibida como figura o como fondo.

Figura 10.2 Figuras reversibles. A la izquierda, los rostros y la copa de Edgar Rubin; a la derecha, la imagen de la joven y la vieja popularizada por Boring.

En primer lugar, existen unas propiedades cualitativas que distinguen la figura del fondo. Se asume que la figura es mucho más densa que el fondo, que tiene un contorno que define una forma con aspecto de solidez, que puede vincularse a contenidos significativos, que tiende a atraer la atención en mayor medida que el fondo, el cual tiende a percibirse tras ella como una superficie que se extiende sin interrupción, sin forma aparente y sin posibilidad de conexión con significados. En segundo lugar, y de manera complementaria a estas propiedades cualitativas, desde la Gestalt (muy especialmente a partir de los trabajos de Rubin) se han analizado y determi-

344

10. Organización perceptual y reconocimiento visual del objeto

nado las condiciones que permiten prever si una determinada forma será percibida como figura o desempeñará el papel de fondo difuso. Estas condiciones son: la simetría, las áreas envueltas, el contraste, la orientación, la convexidad, y el tamaño relativo (véase Figura 10.3). Por influencia de la simetría, y a igualdad de condiciones, las formas simétricas se erigirán como Figura frente a las no-simétricas que actuarán como fondo, motivo por el que tendemos a percibir las columnas negras sobre las blancas en la Figura 10.3a. El principio de áreas envueltas establece que, en igualdad de condiciones, las áreas envueltas tienden a percibirse como figuras frente a las áreas envolventes que actúan como fondo; además, por efecto del contraste también se percibirá como figura aquella superficie que más contraste con el entorno. Tanto por un motivo como por otro, en la Figura 10.3b se tiende a percibir una mancha blanca sobre un fondo negro y no un rectángulo negro con una abertura irregular en el centro que permite ver un fondo blanco. La orientación también es una condición determinante, pues las direcciones verticales y horizontales tienden a percibirse como figura frente a otras direcciones alternativas: en la Figura 10.3c se tiende a percibir la cruz frente al aspa. Además, las formas convexas se segregarán más probablemente como figuras que las formas cóncavas, de ahí que en la Figura 10.3d se perciban con mayor probabilidad las formas blancas (convexas) y no las formas negras (cóncavas). Finalmente, conforme al principio del tamaño relativo, las áreas de menor tamaño tenderán a percibirse como figura frente a las de mayor tamaño que serán percibidas como fondo, por lo que tendemos a percibir en la Figura 10.3e unas finas aspas negras sobre un fondo blanco, y no la enorme cruz blanca correspondiente a la organización perceptual alternativa. En realidad el ser humano, salvo en condiciones de laboratorio, no tiende a percibir estímulos aislados como los descritos sino conjuntos de objetos con cierto grado de significación que se muestran a mayor o menor distancia y que se articulan sobre un fondo constituido por otros objetos o superficies presentes en el medio. Los principios expuestos que prevén la segregación figura-fondo no son sino indicativos de que en numerosas ocasiones el sistema visual tiene problemas para organizar la escena en partes significativas, por lo que es necesario acudir a reglas o condiciones que decidirán cómo se efectuará el proceso de segregación. Consecuencia de todo ello es que el sistema visual resulta en numerosas ocasiones engañado al percibir una configuración diferente a la que debiera percibir, algo que queda especialmente puesto de manifiesto en los fenómenos de camuflaje. La esencia del camuflaje no es sino desarticular o eliminar una determinada segregación figura-fondo, consiguiendo una nueva organización perceptual en la que la figura objeto de la detección debe pasar inadvertida. La naturaleza ofrece extraordinarios ejemplos conocidos por todos: multitud de especies animales (camaleones o serpientes) modifican o adaptan el color de su piel hasta igualarlo a las características del medio para no destacar en el ni-

345

Percepción

a

a

b b

dd

cc e e

ff

Figura 10.3

Ejemplos demostrativos de los principios de articulación figura-fondo.

cho ecológico y salvaguardarse frente a depredadores o no ser descubiertos por sus presas. En la Figura 10.3f mostramos un ejemplo simplificado de cómo una determinada organización perceptual se impone a otra diferente (que es la que interesa camuflar): la mayor parte de observadores perciben una serie de formas geométricas negras sobre un fondo blanco, siendo muchos de ellos incapaces de percibir perfectamente camuflada una organización alternativa constituida por una palabra oculta. Formas análogas de comportamiento perceptual subyacen en los mecanismos de camuflaje militar ampliamente estudiados.

346

10. Organización perceptual y reconocimiento visual del objeto

2.3

El agrupamiento perceptual

Un segundo frente de trabajo en el estudio de la organización perceptual, estrechamente ligado al anterior, es el referido al agrupamiento. En el año 1923, el que es considerado fundador de la Gestalt, Max Wertheimer, se interrogó acerca de las propiedades del estímulo que ocasionaban una concreta organización perceptual. Aunque originalmente Wertheimer formuló cinco principios de agrupamiento perceptual (proximidad, semejanza, destino común, buena continuación y cierre), con posterioridad otros autores (especialmente Köhler, Koffka y Rubin) ampliaron la lista hasta más de un centenar (Helson enumera 114 proposiciones), que se conocen como leyes de la Gestalt o principios de la organización perceptual. No obstante, el vocablo leyes debe manejarse con suma cautela, pues no se corresponde a lo que en ciencia se describe como ley, más que leyes son simples reglas cuyo objetivo es predecir la organización perceptual que prevalecerá con mayor probabilidad. Seguidamente vamos a presentar los principios de agrupamiento clásicos de Wertheimer a los que añadiremos los principios de región común y conectividad uniforme que recientemente han sido propuestos por Palmer (1992) y por Palmer y Rock (1994) respectivamente. Conforme al principio de proximidad, y manteniendo el resto de condiciones iguales, se observa que los elementos más cercanos entre sí tienden a formar un agrupamiento, de tal forma que el observador percibe cuatro configuraciones de dos puntos cada una y no una secuencia de ocho puntos:

•• •• •• •• El mismo efecto de agrupamiento por parejas es posible generarlo mediante la semejanza, pues manteniendo todas las condiciones constantes, los elementos más similares tienden a agruparse juntos, de ahí que se perciban parejas de puntos negras y blancas:

••

O O

••

O O

Un tercer factor es el de destino común: a igualdad de condiciones los elementos que se desplazan en la misma dirección y a la misma velocidad tenderán al agrupamiento. Algunos investigadores (Palmer, 1992) consideran que el destino común es un principio de semejanza en donde la propiedad de igualdad que determina el agrupamiento viene dada por el movimiento. En la figura inferior, si desplazamos hacia arriba o hacia abajo al mismo tiempo, según la dirección que indican los apuntamientos, y a la misma velocidad, observaremos cuatro configuraciones de dos triángulos cada una, dos moviéndose hacia arriba y las otras dos hacia abajo. ▲▲▼▼▲▲▼▼

347

Percepción

El cuarto principio es el de buena continuación: los segmentos o líneas entre las que exista una transición suave tenderán a agruparse y percibirse como una totalidad, de ahí que percibamos dos líneas que se cruzan, y no dos formas en V rotadas 90º que se encuentran en su vértice.

Finalmente, el último principio propuesto por Wertheimer es el de cierre: tenderán a agruparse juntos los elementos que constituyan áreas cerradas. Cubriendo lateralmente la figura anterior, ahora se perciben dos triángulos isósceles rotados que se tocan en su vértice:

Recientemente Palmer y Rock han añadido dos nuevos principios de agrupamiento perceptual: región común y conectividad uniforme. La región común establece que, a igualdad de condiciones, los elementos que se localizan dentro de una misma zona perceptualmente definida tenderán a percibirse agrupados, de ahí que percibamos agrupaciones de parejas de puntos porque son coplanares en un mismo espacio definido por los rectángulos:

O

O

O

O

O

O

O

O

De forma alternativa el principio de conectividad mantiene que regiones conectadas con propiedades visuales uniformes (tales como brillo, líneas, colores, texturas, movimiento, etc.) tienden a agruparse como una unidad. A pesar de que la distancia entre los puntos es idéntica, la organización percibida en la figura corresponde a parejas de puntos que se encuentran enlazados entre sí mediante una línea.

348

10. Organización perceptual y reconocimiento visual del objeto

2.4

Desde la pregnancia hasta los modelos de bondad del patrón

Por encima de todos los principios de articulación figura-fondo y de agrupamiento existe un principio superior admitido por los psicólogos de la Gestalt que actúa como denominador común de los demás. Es el principio de la pregnancia y se resume de la siguiente manera: de todas las organizaciones posibles que disponga un estímulo se tenderá a percibir la más simple, la que minimice la complejidad del estímulo, por ello este principio también se denomina principio de simplicidad o principio mínimo. El principio de pregnancia es responsable de que todos los ejemplos y figuras que hemos presentado al lector hasta ahora se perciban como hemos descrito porque son las organizaciones más económicas y simples. Koffka (1935, p. 110) describe este principio de la siguiente manera: «la organización psicológica será siempre tan buena como las condiciones psicológicas lo permitan. En esta definición el término bueno es indefinido... Se refiere a propiedades como la regularidad, la simetría, la simplicidad y otras...» Este principio mantiene una estrecha relación con la visión dinamicista de la organización perceptual defendida por los psicólogos de la Gestalt, quienes admitieron en su momento un modelo cerebral fundamentado en la teoría de campos eléctricos de la física. Tal visión dinamicista suele describirse mediante la denominada metáfora de la pompa de jabón: una burbuja es una superficie esférica perfecta, pero cualquier presión aplicada en un determinado punto ocasiona distorsiones en la forma. De modo similar se consideraba que el cerebro es un conductor eléctrico que ante la presentación de un estímulo generaba campos eléctricos cuya distribución o configuración era topológicamente análoga a la organización percibida. Esta doctrina se denomina isomorfismo y desde ella se mantiene que un determinado orden en el espacio psicológico se corresponde con un orden el espacio fisiológico cerebral. Aunque hoy en día la doctrina del isomorfismo ha sido refutada, pues se ha demostrado que el cerebro no actúa tal como se creía, en su momento fue la idea sobre la que se sostenía el principio de la pregnancia. De acuerdo con este punto de vista el cerebro se organizaba tendiendo hacia la forma más simple, al igual que una pompa de jabón adopta una forma esférica por su sencillez. La pregnancia es la responsable de que percibamos la mejor de las figuras. La pregunta lógica a esta afirmación no es sino interrogarse acerca de los factores que son responsables de la buena figura o de la buena forma, y ya vimos en la definición de Koffka que éste recurre a una serie de descriptores vagos e imprecisos como la simplicidad, la sencillez o la regularidad. Por ello, el principio de la pregnancia, como cualquier otro de los principios de la organización, es un simple heurístico cualitativo a partir del cual resulta complicado decidir la forma más simple, la mejor de las formas; de ahí que, en época posterior a la Gestalt, se hayan realizado estudios experimentales que, desvinculándose de las observaciones descrip-

349

Percepción

tivas y fenoménicas, aporten índices cuantitativos con objeto de definir de una manera operativa el concepto de buena figura, o más rigurosamente el de bondad del patrón. En lo que sigue analizaremos el modelo informacional y dos modelos transformacionales en el estudio de la bondad de patrones estimulares: el de los grupos R&R y el de los grupos de simetría. 2.4.1 El modelo informacional de Hochberg y McAlister: cuantificación del estímulo Hochberg y McAlister realizaron en 1953 uno de los primeros intentos de cuantificar la bondad de una figura. Consideraron que el concepto de bondad debe ser entendido como un concepto informacional que puede cuantificarse recurriendo al recuento de líneas, ángulos e intersecciones; de ahí que, en figuras multiestables, sea posible predecir qué tipo de organización prevalecerá en función de la cantidad de información que defina una organización concreta. El principio informacional propuesto por estos investigadores es el siguiente: cuanto menos cantidad de información sea necesaria para definir una determinada organización perceptual, más probable es que sea percibida frente a otras organizaciones alternativas. Por ejemplo, en la Figura 10.4 se muestra al lector dos ejemplos de los llamados cubos de Kopfermann. Estas figuras son multiestables porque pueden percibirse como un cubo tridimensional o como un hexágono bidimensional. Según el principio de pregnancia propuesto por la Gestalt, la figura de la izquierda se tiende a percibir como un cubo porque esta organización es mucho más simple y regular que la organización alternativa en la que se percibiría como un hexágono plano. Algo similar sucede con la figura de la derecha que tiende a percibirse como un hexágono por ser ésta la forma más regular.

Cuantificación informativa en dos dimensiones Líneas: Ángulos: Intersecciones:

16 26 10

12 18 7

Figura 10.4 La cantidad de información necesaria para definir la bidimensionalidad es menor para la figura de la derecha que para la de la izquierda.

350

10. Organización perceptual y reconocimiento visual del objeto

Siguiendo la propuesta de Hochberg y McAlister, la probabilidad de percibir las figuras anteriores como hexágonos bidimensionales es mayor en la de la derecha que en la de la izquierda, pues se precisa mucha menos información para definir la bidimensionalidad en esta última que en la figura alternativa (medida por recuento de líneas, ángulos e intersecciones), lo que vendría a coincidir con las observaciones expuestas relacionadas con el grado de pregnancia en dos y tres dimensiones: la figura de la izquierda se percibe como un cubo y la de la derecha como un hexágono porque son las organizaciones más simples informativamente. 2.4.2 El modelo transformacional de W. R. Garner: redundancia informativa y tamaño de los conjuntos R&R. De los trabajos de Hochberg y McAlister parece deducirse que los buenos patrones son informativamente simples y, dentro de la teoría de la información, la simplicidad informativa se obtiene mediante la redundancia. En comunicación, la redundancia se refiere a un exceso de información que permite, a pesar de los posibles deterioros debidos al ruido, reproducir la señal completa. En psicología de la percepción, la redundancia es un exceso informativo de tal forma que el todo es predecible desde cualquiera de las partes. Por ello se asume que los buenos patrones deben ser patrones redundantes. Garner (1970) también entiende la bondad del patrón en términos de redundancia informativa, aunque ahora operativamente la redundancia se define como el conjunto estimular que se genera al aplicar un total de ocho transformaciones: cuatro rotaciones en pasos de 90º (0º*, 90º, 180º y 270º) y cuatro reflexiones de espejo a lo largo de un plano (vertical, horizontal, diagonal izquierdo y diagonal derecho). Debido a la naturaleza de este tipo de transformaciones, al conjunto estimular generado se le denomina conjunto R&R (rotaciones y reflexiones). Tal como se muestra en la Figura 10.5 cualquiera de estas transformaciones aplicadas al estímulo A genera siempre el mismo patrón, de ahí que el tamaño del conjunto R&R sea igual a 1. Aplicar las ocho transformaciones en las figuras B, C y D genera un conjunto estimular de cuatro perceptos diferentes, por lo que se dice que el tamaño del conjunto R&R es de 4. En la figura E, las transformaciones ocasionan cada una de ellas un percepto distinto por lo que el tamaño del conjunto R&R es ahora de 8. El modelo de Garner entiende la redundancia como equivalencia o duplicidad de un patrón cuando es transformado, y desde él se afirma que el tamaño de los conjuntos R&R no es sino un reflejo de la redundancia infor*

La rotación de 0º, es decir dejar la figura intacta, se conoce también como operación de «identidad» (I).

351

Percepción Rotaciones 0º(I)

90º

V: Reflexión vertical H: Reflexión horizontal

180º

Reflexiones 270º

V

H

Iz

Tamaño conjunto Dch

R&R

Grupo de simetría

1

I 90º 180º 270º V H Iz Dch

4

IV

4

I Iz

4

I 180º

8

1

Iz: Reflexión diagonal izquierda Dch: Reflexión diagonal derecha

Figura 10.5 Conjunto estimular (A, B, C, D, y E) cuya bondad se define por el tamaño del conjunto de R&R o por el orden del grupo de simetría.

mativa de un determinado patrón estimular. Efectivamente, se observa que cuanto menor es el tamaño del conjunto estimular R&R mayor es el grado de redundancia. Si, como se señaló anteriormente, la redundancia se relaciona directamente con la bondad del patrón, podemos concluir que los buenos patrones tienen pocas alternativas porque son muy redundantes. El modelo de Garner es importante por dos razones. Primero, porque es una teoría pionera que aborda el estudio de la bondad del patrón desde una perspectiva transformacional. Segundo, frente al modelo informacional de Hochberg y McAlister, ahora, para determinar el grado de bondad de una figura no se precisa analizarla en partes o elementos (intersecciones, ángulos o segmentos), sino que el índice cuantitativo que define el grado de bondad se reduce a un conjunto R&R, generado por una serie de operaciones transformacionales que se ejecutan sobre la totalidad del estímulo, consiguiendo una aproximación más holista al estudio de la buena forma. 2.4.3 El modelo transformacional de S. E. Palmer: grupos de simetría El modelo de Palmer (1991) constituye una de las aportaciones más recientes al análisis de la bondad del patrón. Este análisis se realiza en términos de grupos de simetría. Frente a la simetría refleja o imagen en espejo, ahora

352

10. Organización perceptual y reconocimiento visual del objeto

la simetría debe entenderse desde el punto de vista matemático de la invarianza transformacional. Matemáticamente, el concepto de simetría es equivalente al de invarianza; diremos por tanto que una figura es simétrica con respecto a una transformación si una vez aplicada ésta la figura es perceptualmente indiscernible de su configuración inicial. Por ejemplo, la letra Z no dispone de simetría refleja (imagen de espejo), pero si la rotamos en el plano 180º volv7emos a obtener la misma forma. Se dice, por tanto, que una transformación constituye una operación de simetría cuando una vez aplicada dicha transformación el estímulo permanece indiscernible de su configuración inicial. Es fácil apreciar que el conjunto de rotaciones (0º, 90º, 180º y 270º) y reflexiones (V, H, Iz, D) de las que hablábamos anteriormente en la Figura 10.5 pueden constituir operaciones de simetría. Ello será cierto siempre que, al aplicarse sobre el estímulo, la nueva apariencia sea idéntica a la configuración inicial. Por ejemplo, el estímulo A dispone de las operaciones I, 90º, 180º, 270º, V, H, Iz, y D, porque aplicando cualquiera de ellas el estímulo en forma de cruz siempre permanece inalterable. En el estímulo B sólo son operaciones de simetría la identidad (I) y la reflexión en un plano vertical (V), pues son las dos únicas operaciones que una vez aplicadas dejan la figura idéntica a su configuración inicial (en forma de T). En C las operaciones de identidad y reflexión en el plano diagonal izquierdo son las dos aplicables, y así sucesivamente con el resto de las figuras. Pues bien, al conjunto de operaciones de simetría que es factible aplicar a un patrón determinado se denomina grupo de simetría, y dicho grupo se define por su orden. El orden no es sino la cantidad de operaciones de simetría incluidas en el grupo: por ejemplo, el orden del grupo de simetría de la figura A es de 8, pues ocho son las transformaciones que una vez aplicadas dejan la figura idéntica a la original; en este mismo sentido, en las figuras B, C y D el orden del grupo es de 2; y en la figura E el orden es de 1. Para nuestros propósitos es importante observar cómo el grupo de simetría va a ser determinante en el análisis de la bondad del patrón: si el lector observa las figuras del gráfico encontrará una relación directa entre el orden del grupo y la bondad del patrón. Así se observa que los mejores patrones, o los buenos patrones, como el de la figura A, presentan grupos de simetría de mayor orden, y los malos patrones, como el de la figura E, obtienen un orden mínimo. En conclusión, desde el modelo de Palmer se propone que el buen patrón es aquel que, a pesar de las múltiples transformaciones a las que puede ser sometido, siempre presenta la misma organización perceptual. Por consiguiente, el buen patrón presenta un alto grado de invarianza transformacional. Es interesante observar las posibles relaciones entre el modelo de los conjuntos R&R de Garner y el de los grupos de simetría de Palmer. Tanto la teoría de Garner como la de Palmer se centran en teorías transformacionales de la bondad del patrón. Sin embargo, el interés de Garner se dirige al

353

Percepción

conjunto de patrones diferentes que se ocasionan una vez aplicadas las transformaciones (conjunto R&R), mientras que el interés de Palmer son las transformaciones que dejan el patrón invariante (grupo de simetría), de ahí que el último modelo, además de ser un modelo transformacional, sea un modelo de invarianza. Obsérvese que si R es el tamaño del conjunto R&R y S representa el orden del grupo de simetría, el resultado del producto (T) es siempre de 8, es decir, las ocho operaciones que se han considerado en estos estímulos, de tal forma que R x S = T. El modelo de Palmer es mucho más robusto y parsimonioso que el de Garner, pues, además de permitir estudiar el grado de detectabilidad de diferentes simetrías, permite hacer predicciones y comparaciones entre el grado de bondad presente en múltiples figuras, simplemente conociendo el orden del grupo de simetría: cuanto mayor sea el orden de una figura mayor será su bondad. 2.5

Algunas reflexiones interesantes

En la actualidad, las ideas y fenómenos presentados por la Gestalt han sido retomados y analizados desde perspectivas cercanas al procesamiento de la información. Los manuales de Kubovy y Pomerantz (1981), y Beck (1982), junto con el trabajo de Epstein (1988) marcan el inicio de esta corriente neogestaltista, sin olvidar las ideas de algunos autores que consideran que las propuestas de la Gestalt podían beneficiarse de las aportaciones realizadas desde los modernos modelos conexionistas de procesamiento distribuido en paralelo (Leeuwen, 1989) o que el estudio de la bondad del patrón debe efectuarse desde perspectivas no-transformacionales (Helm y Leeuwenberg, 1996). Este renovado interés ha supuesto también nuevas aportaciones en las que incluso se llega a poner en entredicho el mismo fundamento de la teoría gestáltica. Analizaremos someramente algunas de ellas: el valor heurístico de los principios, la importancia de las partes en la determinación del todo, y el desplazamiento del principio de pregnancia por el principio de probabilidad. Los principios de organización como simples descripciones heurísticas. Algunos autores como Hochberg (1974, 1981) han realizado sugerentes críticas no solamente a la supuesta universalidad de los principios, sino a la misma contribución de la Gestalt al estudio de la organización. Realmente los principios de organización figura-fondo o de agrupamiento no determinan de forma absoluta la percepción, es decir, no deciden de forma exclusiva una concreta organización frente a las alternativas. Por ejemplo, en las figuras reversibles el observador, de forma voluntaria, puede cambiar la percepción entre las áreas que constituyen la figura-fondo, e incluso en ocasiones estos mismos principios entran en contradicción entre sí, lo que imposibilita el establecimiento de una jerarquía en el momento de su apli-

354

10. Organización perceptual y reconocimiento visual del objeto

cación. Por esta razón, los principios deben ser comprendidos no como leyes explicativas de la organización perceptual sino como simples reglas con un cierto valor heurístico. La importancia de las partes en la determinación del todo. No es completamente cierto que la organización de los todos organizados (Gestalten) sea independiente de sus partes. La Figura 10.6 muestra dos figuras imposibles en las que la percepción resulta paradójica y curiosa: es como si el dibujante hubiera cometido algún error en el dibujo que afectara a la sensación de profundidad, pues efectivamente dichas figuras no se pueden construir de forma lógica en un espacio tridimensional siguiendo los principios de la geometría, y ello a pesar de que ante nuestra experiencia aparecen como objetos tridimensionales.

a

Figura 10.6

b

Figuras imposibles.

Las figuras imposibles suponen un reto a las teorías de la organización perceptual. Es posible etiquetarlas como simples anomalías perceptivas y buscar explicaciones ad hoc para cada una de ellas, con objeto de preservar la pureza de los principios de organización. Sin embargo, lo que realmente están demostrando es que, por encima del nivel de análisis global, existe la posibilidad de que la organización perceptiva se mueva también a niveles locales como puede ser la intersección de contornos. Por ejemplo, las figuras que aparecen a continuación son simples intersecciones que pueden interpretarse de varias formas: la figura de la izquierda puede percibirse como una forma plana constituida por tres líneas que convergen en un punto o también como uno de los extremos de un cubo; la de la derecha se percibe como una T inclinada o también como un contorno que atraviesa una superficie opaca. Estos sencillos ejemplos demuestran que una posible explicación al fenómeno de las figuras imposibles exige dirigir la atención del investigador al análisis de las áreas o zonas más locales, muy especialmente a la confluencia o intersección de líneas o superficies, en donde se producen diversos tipos de organización perceptual que pueden llegar a ser disonantes con

355

Percepción

la organización prevaleciente a escala global, lo que pondría en entredicho la supuesta superioridad del todo sobre las partes.

Algo similar sucede con otros fenómenos perceptuales como son las ilusiones. En la Figura 10.7a se presenta la ilusión Poggendorff (se distorsiona la continuación natural del segmento) y en la 10.7b la de Wundt (distorsión en la que parece romperse el paralelismo físico existente entre las dos líneas horizontales). Las ilusiones son importantes para el estudio del proceso perceptual: obsérvese, en la de Wundt, que la proyección retiniana corresponde a dos líneas paralelas aunque la organización perceptual que se erige y predomina no corresponde con la representación física. Las ilusiones han sido un fenómeno frecuentemente utilizado por la Gestalt como argumento contundente para refutar la perspectiva estructuralista y con ello demostrar la falta de validez de los modelos lineales de percepción. No obstante, resulta paradójico que los principios de organización, postulados por la escuela alemana, no resuelvan este enigma perceptual.

a

Figura 10.7

b

Ilusiones; (a) ilusión Poggendorff y (b) ilusión de Wundt.

Pregnancia y probabilidad. Se sabe que, desde el punto de vista de la Gestalt, el fundamento básico de toda organización es el principio de la pregnancia, o principio mínimo, desde el que se defiende que la organización perceptual prevaleciente será la más simple que permitan las circunstancias. Alternativamente a este principio, la organización perceptual se ha explicado mediante el denominado principio de la probabilidad. Conforme a éste, la organización perceptual prevaleciente será aquella que corresponda de forma más probable al estímulo distal, o, en otras palabras, los elementos sensoriales se organizarán en el objeto que sea más consistente con dicho input. El principio de la probabilidad se maneja desde posiciones

356

10. Organización perceptual y reconocimiento visual del objeto

teóricas neoestructuralistas y fue propuesto originalmente por Helmholtz (1867/1962). Para comprender el debate subyacente a la controversia simplicidad versus probabilidad le sugiero retómese, por un momento, la figura presentada para ilustrar el principio de continuidad: obsérvese la tendencia a la percepción de dos líneas cruzadas en forma de X y no de dos V conectadas por sus vértices. Pues bien, conforme al principio de simplicidad la organización percibida en forma de X lo es porque es una descripción mucho más simple, más regular o más económica que la alternativa. Sin embargo, conforme al principio de la probabilidad, el input sensorial se organiza como una X debido a que es frecuente hallar la continuidad de líneas o contornos, de ahí que sea la organización que prevalezca con mayor probabilidad. Algunos investigadores han realizado interesantes trabajos con objeto de dilucidar el grado de potencia explicativa de uno u otro principio (Pomerantz y Kubovy, 1986). En realidad, la controversia simplicidad-probabilidad se reduce a una contraposición entre diferentes perspectivas del proceso perceptual. Defender una organización perceptual regida por la simplicidad parece enmarcarse mucho mejor en un contexto innatista bajo el que subyace el modelo isomórfico, que entiende un funcionamiento cerebral dinámico determinado innatamente; estaríamos refiriéndonos a un modelo de hardware a causa de que la organización perceptual está determinada por un sistema cerebral con unos principios de funcionamiento innatos. Por su parte, defender una organización perceptual regida por el principio de la probabilidad se vincula mucho más estrechamente a posiciones empiristas porque las probabilidades de los estímulos del ambiente deben ser aprendidas; hablaríamos ahora de un modelo de software porque las reglas de la organización perceptual pueden modificarse progresivamente con el aprendizaje. Frente a esta contraposición entre simplicidad y probabilidad, debemos hacer mención a las recientes aportaciones sustentadas en la teoría matemática de la complejidad, desde las que se propone que ambos principios son equivalentes, debido a que ambos pretenden maximizar la percepción, organizándola de la manera más simple o de la manera más probable (Chater, 1996). Se sugiere, desde esta nueva posición teórica, que el debate y la investigación habría que dirigirlo no a demostrar la superioridad de un principio sobre otro (pues se consideran equivalentes), sino realmente a descubrir si la percepción actúa o se rige por principios maximalistas.

3.

Reconocimiento visual del objeto

Hasta ahora se han presentado cuestiones relacionadas con la organización de las sensaciones en totalidades coherentes. Corresponde ahora enfrentarnos al análisis de los mecanismos psicológicos encargados del reconoci-

357

Percepción

miento de los objetos mediante la visión. Con el estudio del reconocimiento visual pretendemos descubrir los principales procesos responsables de que los organismos discriminen entre los objetos del medio y de que los perciban como una identidad y con continuidad fenoménica, a pesar de las diferentes proyecciones retinianas que generan como consecuencia de sufrir transformaciones en el espacio o como consecuencia del movimiento del observador. La importancia del proceso de reconocimiento visual está fuera de toda duda y este proceso es crítico en la adaptación del organismo al nicho ecológico; no en vano es uno de los temas de investigación que adquiere mayor trascendencia en el estudio de la percepción humana. Perspectiva categorial y métrica del reconocimiento. Los matices que adquiere el enunciado reconocimiento del objeto son diversos y, a priori, simplificando en exceso, podríamos distinguir entre una perspectiva categorial y otra perspectiva métrica. Por reconocimiento del objeto podemos entender los procesos de índole clasificadora que permiten al ser humano manejarse con categorías diferentes y poner orden ante la diversidad estimular, al facilitar el agrupamiento de estímulos y objetos del medio en categorías significativas. En este sentido, reconocer un objeto no es sino agruparlo con otros objetos con los que comparte una serie de rasgos o propiedades en común. Esta perspectiva categorial se sustenta en dos principios. El primero es el de la adaptación, pues la creación de categorías significativas reduce, de forma importante, la diversidad informativa del medio, con objeto de hacerlo manejable informativamente. En efecto, somos capaces de reconocer diferentes especies de animales, diferentes colores, diferentes profesiones, capas sociales, o razas, o que un coche de bebé no es lo mismo que un coche de carreras, los ejemplos son infinitos. Es importante apreciar que la diversidad del medio debe ser superada con objeto de facilitar nuestra adaptación, lo que ha sido posible desarrollando la facultad de categorizar el ambiente en clases significativas, agrupando los estímulos que comparten características comunes, con objeto de ser tratados de forma equivalente. El segundo principio de la perspectiva categorial es el de la inducción, pues la creación de clases es consecuencia directa de la puesta en marcha de procesos de pensamiento inductivo: categorizar es agrupar y dicha agrupación se consigue pasando de los elementos particulares, de las individualidades, a las propiedades generales entendidas como rasgos compartidos, en mayor o menor grado, por los diversos miembros que constituyen una categoría. Alternativamente a la perspectiva categorial, la perspectiva métrica se sitúa en el corazón mismo de los procesos perceptivos, y desde ella se entiende el proceso de reconocimiento del objeto como un mecanismo vinculado a la captación de invariantes relacionados con la forma y con las propiedades métricas como son el tamaño, la posición o la orientación en el espacio. La perspectiva categorial y la métrica no son excluyentes en modo

358

10. Organización perceptual y reconocimiento visual del objeto

alguno, sino perfectamente complementarias, pues reconocer un objeto no sólo consiste en captar sus atributos métricos y de forma sino en otorgarle un significado y utilidad funcional asignándolo, en mayor o menor grado, a una determinada categoría. No obstante, la investigación sobre categorías ha generado un campo de investigación propio, mucho más vinculado a procesos de pensamiento y razonamiento, mientras que la perspectiva métrica se relaciona en mayor medida con los procesos perceptivos. Por ello, y dada la naturaleza de este manual, adelanto al lector que el resto de nuestra exposición versará en exclusiva sobre las propuestas desarrolladas desde los modelos métricos. Un modelo general de reconocimiento visual. La mayor parte de las propuestas teóricas elaboradas desde la psicología y desde la inteligencia artificial, que pretenden dar cuenta del reconocimiento visual del objeto, participan explícita o implícitamente de un sistema de cognición general descrito formalmente en la Figura 10.8.

Representaciones Representaciones almacenadas en almacenadas en memoria memoria

Figura 10.8

IMAGEN RETINIANA IMAGEN RETINIANA

Objeto

Representación codificada codificadadel delinput inputo oseñal señalde de entrada entrada

Procesos de ajuste ajuste yy emparejamiento emparejamiento

Modelo general de reconocimiento visual

El objeto, dependiendo del punto de vista del observador y/o de su posición en el espacio, proyecta una imagen en la retina que es codificada mediante un input o señal de entrada. A su vez existen una serie de representaciones canónicas almacenadas en memoria, estas representaciones canónicas no deben entenderse como una simple réplica del patrón retiniano. Por canónicas debemos entender representaciones independientes del punto de vista adoptado por el observador, conservando, de esta forma, las propiedades invariantes más relevantes informativamente. El diagrama indica que el reconocimiento es en esencia un conjunto de procesos de ajuste y comparación (matching) entre la codificación del objeto externo a partir

359

Percepción

de la imagen retiniana y las múltiples representaciones o modelos almacenados en memoria. Aunque este modelo general es asumido por la mayor parte de los teóricos (Banks y Krajicek, 1991; Biederman, 1987; Liu et al, 1995; Logothetis y Sheinberg, 1996; Marr y Nishihara, 1978; Pinker, 1984; Ullman, 1989), la realidad es que las diferencias surgen cuando se trata de especificar el formato representacional utilizado para almacenar la información, cuando se debe indicar el número de estadios de procesamiento al que se somete la imagen retiniana (probablemente sea la teoría de Marr la más completa en este sentido), y cuando se trata de buscar un acuerdo sobre cuáles son los procesos específicos de ajuste y emparejamiento involucrados. En lo que sigue vamos a analizar los rasgos distintivos de algunos modelos de reconocimiento visual que mayor impacto han provocado: los clásicos de plantillas y características, los modelos de ejes, el reconocimiento por componentes (RBC), las propuestas de alineamiento pictórico y, finalmente, los modelos conexionistas. 3.1

Reconocimiento por comparación de plantillas

Desde esta propuesta se afirma que el reconocimiento del objeto se reduce a encontrar una plantilla en la que encaje la imagen codificada. Por ejemplo, el reconocimiento de la letra R (Figura 10.9) se produce debido a que se ha localizado un molde que encaja con el patrón de entrada, rechazándose otros moldes bien por no existir ajuste (W) o por encajar parcialmente (P, B).

R R

R R

W

P P

B B

Figura 10.9 Reconocimiento por plantillas. Se ha localizado una plantilla que encaja con la imagen codificada de la letra R; el resto de moldes no son válidos porque no encajan o porque ocasionan ajustes parciales.

Aunque la explicación expuesta es sencilla, los problemas que presentan estos modelos son numerosos. El primero es que los ajustes parciales mencionados pueden ocasionar a veces falsas alarmas durante el reconocimiento (creer haber reconocido una P o B cuando se presenta una R), aunque es cierto que en la vida cotidiana, a veces, se producen errores en este sentido (muy especialmente en el reconocimiento de letras o palabras), lo que va en

360

10. Organización perceptual y reconocimiento visual del objeto

R

favor del modelo. Otro problema más serio es el de los cambios de orientación o de tamaño del estímulo. Ciertamente los objetos del medio pocas veces se contemplan desde las mismas condiciones, pues la distancia a la que se dispongan así como la perspectiva adoptada ocasionan cambios en la orientación y en el tamaño percibido, lo que a su vez exigiría una plantilla para cada una de las perspectivas de observación. Es obvio que una propuesta tal es inconsistente con los límites de almacenamiento en memoria. Una posibilidad que todavía salvaría el modelo pasaría por admitir, conforme a un principio de economía cognitiva, la actuación de procesos de normalización de la orientación y tamaño. En la Figura 10.10 se observa que antes de proceder a la comparación con la plantilla, la imagen sería sometida a un conjunto de ajustes o transformaciones que anulasen la diversidad de perspectivas en el espacio, obteniendo como resultado una imagen normalizada con los parámetros métricos (orientación y tamaño) presentes en las representaciones almacenadas en forma de plantillas, pasándose seguidamente a la fase de emparejamiento, tal como se ha descrito anteriormente. La posibilidad de normalización del tamaño y de la orientación en tareas de comparación de patrones cuenta con abundante evidencia acumulada desde las propuestas originales de Bundesen y Larsen (1975) y Shepard y Metzler (1971).

Normalización de la Normalización de la orientación y del tamaño a valores canónicos

R

R R

Figura 10.10 Actuación de un supuesto mecanismo de normalización de la orientación y del tamaño de una imagen con objeto de adaptarla a la plantilla correspondiente.

3.2

Reconocimiento por detección de características o rasgos

Otra forma de proceder en el reconocimiento es mediante la detección de rasgos o características que definen un patrón estimular dado. Por ejemplo, distinguimos la letra R de la P porque la primera dispone de una línea inclinada que le proporciona su carácter singular, algo similar cabría decir por ejemplo al diferenciar la O de la Q. Estas propuestas gozaron de gran popularidad a raíz del modelo Pandemonium de Selfridge (1959) y estuvieron muy influenciadas por las observaciones fisiológicas de Hubel y Wiesel que demostraban la existencia de células detectoras de características en la corteza visual.

361

Percepción

Q

Figura 10.11

Detectores elementales

Detectores globales



Curva cerrada



Detector de O



Línea oblicua



Detector de Q

Ejecutivo de decisión

Imagen retinian

Q

Sistema de reconocimiento visual a partir de la detección de características.

Un sistema de reconocimiento por características, ante una tarea de detección de letras, operaría en varios niveles (Figura 10.11). En primer lugar el sistema dispondría de un nivel de detectores elementales de rasgos, que se activarían o responderían ante la presencia de líneas horizontales, verticales, oblicuas, curvas cerradas, curvas abiertas, etc. Reconocer la O exige la activación del rasgo de curva cerrada, reconocer la Q añadiría un segundo rasgo de línea oblicua. Estos detectores de características enviarían su señal a un nuevo conjunto de detectores globales encargados de localizar los rasgos propios de las letras que representan, existiendo un detector para cada una de las letras. En nuestro caso, el detector global de la O responderá cuando el detector de curva cerrada se active, y el detector global de la Q lo hará ante la presencia de curva cerrada y de línea oblicua. Finalmente, un último nivel constituido por un ejecutivo de decisión determinará qué detector global se selecciona, en función del grado de activación alcanzado, dependiendo del número de características detectadas, completándose así el proceso de reconocimiento. Si bien estos modelos han sido útiles en el momento de explicar el reconocimiento de patrones sencillos como caracteres alfanuméricos, o rasgos elementales como códigos de morse (este último fue el propósito original de Pandemonium), la realidad es que presentan dificultades cuando lo que se pretende es explicar la identificación de formas naturales. Imagínese por un momento la enorme cantidad de características (líneas, curvas y ángulos) que habría que combinar para detectar la forma de un árbol. En casos de esta naturaleza el sistema cognitivo debería recurrir a complejos criterios combinatorios para identificar la forma global a partir de un conjunto finito de características como líneas horizontales, verticales y oblicuas, curvas, ángulos, etc., funcionamiento que no parece muy plausible. Además toparíamos con un problema añadido, y es que este tipo de modelos se suelen limitar a especificar o describir un conjunto de detectores lineales pero no suelen explicar cómo se establecen las relaciones de los rasgos entre sí, es decir, cómo se disponen unos con respecto a otros, hecho que, en el mo-

362

10. Organización perceptual y reconocimiento visual del objeto

mento de detectar las formas naturales complejas, les haría más insostenibles todavía. 3.3

Reconocimiento por ejes de coordenadas

Una posibilidad de superar la última de las dificultades citadas (reconocer el objeto mediante la especificación de las relaciones existentes entre las partes) consistiría en describirlo recurriendo a un sistema de ejes de coordenadas, de forma análoga a lo que sucede en geometría. Esta posibilidad es interesante, pues la descripción de la orientación o de la forma de un estímulo se realiza asignando un eje intrínseco o marco de referencia perceptual (MR), de tal forma que existirá invarianza en el reconocimiento del objeto si la relación entre éste y el MR permanece constante. Obsérvese en la Figura 10.12 que la descripción de la letra A permanece siempre invariable con respecto al MR interno independientemente de las transformaciones a las que sea sometida. La ambigüedad en la organización perceptual y en el reconocimiento surgirá cuando una figura disponga de MRs alternativos que ocasionen diferentes descripciones de la forma. Por ejemplo, un cuadrado rotado 45º se percibirá como un rombo; ello es así porque la figura dispone de dos MRs alternativos cuya prioridad se establecerá a favor de aquel que coincida con un marco ambiental más amplio (esta misma hoja de papel) o la vertical gravitacional.

Figura 10.12 Descripción de un estímulo por un marco de referencia perceptual (MR). La A siempre se percibe como tal porque la relación entre figura y MR permanece constante a pesar de las transformaciones. El cuadrado-rombo dispone de dos MRs alternativos, por lo que dependiendo del MR seleccionado se percibirá una u otra figura.

363

Percepción

La mayor parte de los modelos de ejes asumen que el reconocimiento del objeto consiste en pasar de un MR centrado en el observador a un MR centrado en el objeto. En los MR dependientes del punto de vista del observador, el origen del sistema de coordenadas se encuentra en el sujeto que percibe, por lo que resulta fácil deducir que la representación retiniana será diferente dependiendo del movimiento del sujeto (en la retina un cuadrado aparecerá proyectado como un rombo si el observador rota su cabeza en un ángulo de 45º). Alternativamente los MR intrínsecos o centrados en el objeto localizan su origen en el mismo estímulo que se pretende identificar: la ventaja frente a los anteriores es obvia, pues la identificación del objeto será independiente de la perspectiva adoptada por el observador y/o de las posibles transformaciones del objeto (el caso de la A en la Figura 10.12). Para la mayor parte de estos modelos el reconocimiento visual consiste en efectuar una descripción del objeto que sea independiente del punto de vista adoptado, permitiendo así la captación de invariantes. Cuando identificamos un objeto a partir de la asignación de un MR intrínseco, estamos activando una determinada representación canónica almacenada en memoria que puede formalizarse en una descripción estructural. Por descripción estructural entendemos una representación de conocimiento organizado de manera selectiva. Por ejemplo, en la Figura 10.13 aparece una descripción estructural simplificada de la forma de un elefante en la modalidad de red semántica. Los nodos de la descripción estructural corresponden a partes del objeto que, en nuestro ejemplo, se pueden organizar jerárquicamente. Las líneas indican las relaciones existentes entre las partes. La esencia de la identificación de objetos a partir de MRs no es otra que la activación de la representación canónica correspondiente en forma de descripción estructural de las diversas partes componentes. De los modelos de ejes que activan descripciones estructurales podemos señalar dos ventajas. La primera es que podemos enfrentarnos al reconocimiento de objetos en tres dimensiones, pues la descripción estructural almacena información canónica concerniente a las partes volumétricas del objeto y a sus relaciones. Una segunda ventaja es que las descripciones estructurales no solamente se utilizan en psicología para representar información visual apropiada para el reconocimiento, sino que estos formalismos representan también información no-visual relacionada con las categorías a las que pertenece el objeto (animales, muebles, etc.) o información sobre sus usos, de tal forma que los procesos subsecuentes de razonamiento y pensamiento, en los que se utilizan ambos tipos de conocimiento, se ven facilitados al complementarse los dos tipos de informaciones entre sí. El modelo computacional de reconocimiento de Marr y Nishihara. En psicología son numerosas las propuestas teóricas desarrolladas para explicar el reconocimiento por ejes de coordenadas, aunque tal vez sea la de Marr y Nishihara (1978, utilizada con posterioridad por Marr en 1982) la que constituye el punto de partida más aceptado y compartido. Estos auto-

364

10. Organización perceptual y reconocimiento visual del objeto ELEFANTE ELEFANTE

TORSO

CABEZA CABEZA

OREJAS OREJAS

EXTREMIDADES EXTREMIDADES

COLMILLOS

Figura 10.13 Descripción estructural correspondiente a la categoría elefante. Los nodos corresponden a las partes del cuerpo y las líneas indican relaciones entre ellas.

res comparten el supuesto anteriormente citado al afirmar que el reconocimiento consiste en pasar desde una descripción dependiente del punto de vista a otra totalmente independiente basada en ejes intrínsecos al objeto, que permita la comparación de éste con representaciones canónicas almacenadas en memoria. Para conseguir este propósito el sistema visual humano, a partir de la imagen retiniana generada por la luz que reflejan los objetos, procesa la información en tres estadios sucesivos que generan diferentes descripciones del estímulo: el esbozo primario, el esbozo 2-D y el modelo 3-D. El esbozo primario y el esbozo 2-D pertenecen a un estadio de procesamiento visual temprano o visión de bajo nivel, pues para su formación en ningún momento se recurre a procesos interpretativos. Ambos esbozos se limitan exclusivamente a las superficies visibles del objeto, informando de la estructura: cambios en intensidad luminosa que captan contornos y texturas, orientaciones y distancias de observación. Lo más interesante para el reconocimiento visual es que tanto el esbozo primario como el 2-D son dependientes del punto de vista adoptado por el observador, de ahí que cualquier movimiento del objeto o del sujeto ocasione diferentes representaciones de la estructura de las superficies del objeto. Para solucionar el problema de la constancia en el reconocimiento, el sistema visual debe proceder a efectuar una nueva representación del objeto, independiente del punto de vista del observador, constituyendo, esta representación, el denominado modelo 3-D. El modelo 3-D pertenece a una fase de procesamiento visual tardío o visión de alto nivel, pues en su generación se recurre frecuentemente a mecanismos conceptuales arriba-abajo; es la esencia del sistema de reconocimiento visual y se sustenta sobre tres supuestos estrechamente relacionados: la asignación de un sistema de coordenadas, la localización de primitivos y la organización modular. Un modelo 3-D es una descripción del objeto que recurre a un sistema de coordenadas intrínseco al objeto, definido por los ejes naturales de alar-

365

Percepción

Figura 10.14 Una jarra de cerveza y su descripción volumétrica en forma de cono generalizado con su eje correspondiente.

gamiento o simetría que anulan cualquier cambio en la perspectiva adoptada, de tal forma que la descripción del objeto con respecto a este MR permanece invariable. Si la descripción del objeto exige asignar un MR interno, resulta obvio que las formas deben describirse recurriendo a una serie de elementos primitivos, es decir, a unidades elementales de información útiles para la descripción que se pueden localizar en los objetos y que son compatibles con un tratamiento en términos de ejes de coordenadas. Los primitivos propuestos para los modelos 3-D son formas volumétricas (en tres dimensiones) denominadas conos generalizados. Como se observa en la Figura 10.14, un cono generalizado puede definirse como el volumen que se origina al desplazar una sección transversal a lo largo de un eje; la sección transversal puede variar en tamaño, pero su forma siempre va a permanecer constante. Apréciese que el cono generalizado se define perfectamente recurriendo al eje que lo genera. Aunque cada modelo 3-D es una unidad simple e independiente, pues proporciona información sobre la forma que representa, es habitual que se organicen entre sí de forma anidada. Estas organizaciones anidadas posibilitan no sólo la descripción del objeto global sino también de las partes componentes, hecho destacable debido a que, en el reconocimiento, pueden existir exigencias de detalle. En la Figura 10.15 se presenta una descripción anidada de modelos 3-D correspondiente al cuerpo humano adaptada a partir de Marr y Nishihara (1978). Cada uno de estos modelos 3-D se caracteriza estructuralmente por disponer de dos ejes: el eje del modelo que nos proporciona información sobre la orientación y el tamaño del objeto global, y los ejes componentes que nos indican la posición y el tamaño relativo de las partes con respecto al objeto, y que, a su vez, también son modelos 3-D subordinados. En nuestro ejemplo, el primer modelo 3-D corresponde a la descripción global del

366

10. Organización perceptual y reconocimiento visual del objeto Modelo 3-D: cuerpo humano Modelo 3-D: brazo Modelo 3-D: antebrazo

Figura 10.15 Organización jerárquica de modelos 3-D correspondiente al cuerpo humano (adaptado de Marr y Nishihara, 1978; p. 278). Cada cuadrado corresponde a un modelo 3-D; a la izquierda de cada modelo se representa el eje del modelo en forma de cono generalizado y a la derecha los ejes componentes, que, a su vez, también constituyen modelos 3-D subordinados.

cuerpo: el cono generalizado de la izquierda corresponde al eje del modelo y en la derecha se representan los ejes componentes del modelo; cada uno de estos ejes constituye a su vez otro modelo 3-D subordinado (descripción del brazo) constituido por un eje de modelo y unos nuevos ejes componentes a partir de los cuales se genera un nuevo modelo 3-D (descripción del antebrazo), y así sucesivamente. Algunos problemas de las descripciones mediante ejes. Aunque el reconocimiento de los objetos recurriendo a ejes ha sido ampliamente admitido y aplicado en numerosos campos de investigación en psicología (comparación de patrones, memoria de formas visuales, rotación mental de objetos, percepción de figuras multiestables, etc.) estos modelos presentan algunos inconvenientes. En primer lugar no parece quedar clara la importancia de determinados aspectos geométricos de la figura en el establecimiento del MR. Hemos visto que los conos generalizados corresponden a secciones alargadas y/o simétricas que facilitan la detección o definición de ejes. Sin embargo, cuando se contrasta empíricamente el papel del alargamiento y la simetría en el establecimiento del MR los resultados no son concluyentes (CrespoLeón, 1993): el alargamiento cuenta con escasa evidencia empírica (Humphreys y Quinlan, 1987) y la simetría, si bien la evidencia a su favor es mucho más abrumadora, encuentra el problema del reconocimiento de figuras del medio ambiente que no disponen de simetría, pretendiéndose salvaguardar la teoría al hablarse de grados de simetría o cuasi-simetrías. En segundo lugar, cuando cambia la orientación de un objeto el reconocimiento del mismo no siempre se produce recurriendo a un MR intrínseco independiente del punto de vista adoptado, sino que en ocasiones los obser-

367

Percepción

vadores realizan juicios basándose en la proyección retiniana, lo que hablaría a favor de la utilización de MRs dependientes de la perspectiva de observación. En este sentido debemos distinguir entre la identificación de estímulos familiares y la de formas noveles o poco familiares. El reconocimiento de los primeros es bastante sencillo y el sistema visual los suele describir a partir de un sistema de ejes intrínsecos al objeto que compensa los posibles cambios de perspectiva u orientación. Sin embargo, el rendimiento en la identificación de estímulos que presentan numerosas partes relacionadas entre sí (palabras y rostros) y/o que resultan poco habituales para los sujetos (figuras geométricas abstractas en 3-D) se ve negativamente afectado por los cambios en orientación, lo que hace pensar que, para su identificación, los sujetos recurren a representaciones basadas en la proyección retiniana, dependientes, por tanto, del punto de vista adoptado (Edelman y Bülthoff, 1992; Humphrey y Khan, 1992; Rock y di Vita, 1987). 3.4

Reconocimiento por componentes (RBC)

A partir de la idea de los primitivos de la forma, imagine el lector un sistema de reconocimiento visual constituido por un conjunto finito de elementos universales, que mediante combinación, pudieran ocasionar cualquier forma, de manera análoga a lo que sucede con el reconocimiento de las palabras del lenguaje mediante fonemas (24 fonemas permiten codificar todas las palabras del castellano). El modelo de reconocimiento por componentes (RBC: recognition-by-components) propuesto por Biederman (1987; Hummel y Biederman, 1992) parte de esta concepción, y entiende que el reconocimiento de los objetos se produce por la identificación de unos elementos primitivos geométricos denominados geones (iones geométricos), volumétricos similares a los conos generalizados que se erigen en las unidades básicas del reconocimiento.

Detección de contornos e identificación de componentes

Comparación de componentes con las representaciones del objeto

Identificación del objeto

368

10. Organización perceptual y reconocimiento visual del objeto

Figura 10.16 A la izquierda un conjunto de geones y a la derecha posibles objetos constituidos por combinación de los anteriores (adaptado de Biederman, 1987; pp. 123 y 130).

La Figura 10.16 muestra a la izquierda una serie de posibles geones y a la derecha tres objetos cotidianos que pueden ser descritos recurriendo a estos volumétricos. La identificación de los geones componentes y el subsecuente reconocimiento +del objeto se produce en una serie de fases (véase el diagrama de flujo). En primer lugar la imagen de la retina es sometida a un proceso de detección de contornos en función de características como el color, la luminancia o la textura, lo que proporciona una primera descripción de los límites del objeto. En esta primera fase actúan una serie de operaciones que tienen por misión facilitar la segmentación de la figura en diversas regiones, tomando como referencia las formas cóncavas, y obteniendo como resultado final una identificación de componentes constituyentes (los geones). En un siguiente estadio se produce una comparación en paralelo entre los geones identificados y las representaciones del objeto almacenadas en memoria, admitiéndose la posibilidad de ajustes parciales, lo que iría a favor de la efectividad de los procesos de reconocimiento cuando se dispone de información incompleta del objeto por encontrarse, por ejem-

369

Percepción

plo, oculto parcialmente por otro objeto. Finalmente, el estadio de identificación se refiere a la localización o activación de la representación correspondiente a un objeto determinado que encaje con los componentes identificados. La esencia del proceso de reconocimiento en RBC radica en el mecanismo de segmentación de la imagen en componentes elementales o geones. Los geones corresponden a formas volumétricas que se diferencian entre sí y son fácilmente detectables independientemente de la perspectiva de observación que se adopte. En este sentido, Biederman reitera con insistencia que los geones son identificados a partir de la imagen retiniana bidimensional, a pesar de que subjetivamente son interpretados en tres dimensiones, y el reconocimiento es posible debido a que todas las vistas posibles de un objeto activan siempre los mismos geones y la misma disposición ordenada entre ellos (Biederman y Gerhardstein, 1993); es decir, reconocemos la linterna o la lámpara porque, independientemente de la proyección retiniana, los geones y su disposición unos con respecto a otros se mantiene constante, por ello siempre se activa la misma descripción estructural. En esencia, la propuesta novedosa de Biederman radica en proponer al geón como formalismo representacional que, frente a otro tipo de formalismos más abstractos (redes semánticas, esquemas, etc.), tiene la ventaja de pretender explicar el reconocimiento métrico del objeto recurriendo a un concepto definido de forma inherente por propiedades geométricas, por lo que podríamos concluir que la correspondencia entre el modelo y lo modelado es elevada. 3.5

Reconocimiento por alineamiento

El modelo de reconocimiento por alineamiento pictórico desarrollado por Ullman (1989) es un modelo computacional que participa de algunas características expuestas anteriormente. Dada una imagen retiniana correspondiente a la vista específica de un objeto (V), el reconocimiento del mismo debe ser entendido como un proceso de búsqueda en un espacio donde se encuentran ubicados modelos del objeto que abarcan todas sus posibles vistas (M) junto a las transformaciones (T) que pueden aplicarse a dichos modelos.

Estadio de alineamiento

Estadio de emparejamiento

370

10. Organización perceptual y reconocimiento visual del objeto

El modelo de alineamiento participa de dos estadios. En el primero (estadio de alineamiento) se localiza la transformación T que anula los cambios en posición, tamaño u orientación existentes entre la vista V y el modelo M, transformación que se aplica prioritariamente sobre M aunque también es factible aplicarla sobre V. En el segundo (estadio de emparejamiento), una vez alineados V y M, se debe buscar y localizar el modelo M que se corresponda con la vista (V). Por consiguiente, la identificación del objeto se reduce a localizar un modelo concreto M junto con una transformación T que maximice el ajuste (F) entre la imagen retiniana (V) y el modelo (M). Expresado formalmente supone maximizar la relación F(V,(M, T)), o dicho de otra forma, encontrar un modelo M y una transformación T que alinee M y V de la manera más óptima. En el ejemplo de la Figura 10.17 se muestra a la izquierda una vista V de un objeto y su modelo M; la transformación localizada se aplica a M de tal manera que en un primer momento se alinea el escalamiento y en un segundo momento se alinea la orientación, obteniendo así un emparejamiento en el que se ha maximizado el ajuste entre V y M. T aplicada a M

VV

M M

T T escalamiento

orientación

Ajuste maximizado

Figura 10.17 Reconocimiento por alineamiento. Se encuentra una transformación (T) que anula en M las diferencias en tamaño y orientación, maximizando el ajuste entre V y M.

Probablemente se aprecie la analogía existente entre el mecanismo de alineamiento y los procesos de normalización a los que nos referíamos cuando hablábamos de los modelos de plantillas. Tanto en el alineamiento como en la normalización se aplica una transformación que anula cualquier cambio en orientación o tamaño, y cuyo objetivo es facilitar el ajuste entre V y M (en el modelo de alineamiento) o entre la imagen codificada y la plantilla (en el modelo de plantillas). A pesar de esta analogía, Ullman considera que el concepto de alineamiento es mucho más amplio que el concepto tradicional de normalización. Por normalización se ha entendido un conjunto de simples mecanismos que se aplican a imágenes definidas en un

371

Percepción

espacio bidimensional, pretendiendo así anular o compensar las rígidas transformaciones (habitualmente de orientación y tamaño) a las que han sido sometidas, por ejemplo reconocer la letra A rotada en el plano. Por su parte, el mecanismo de alineamiento contempla una serie de transformaciones mucho más complejas que permiten dar cuenta del reconocimiento de objetos 3-D sometidos a múltiples transformaciones en el espacio; transformaciones que pueden ser rígidas (no hay cambio en la forma del objeto) y también no-rígidas, en las que el objeto parece moldearse y adoptar otras formas diferentes, como por ejemplo cuando se reconoce a una persona de pie, sentada o agachándose. Además, la normalización ha operado exclusivamente con el estímulo global descartando aspectos más locales del mismo, elementos a los que es necesario recurrir en numerosas ocasiones, especialmente en el momento de explicar el reconocimiento en situaciones de información insuficiente, por ejemplo cuando un objeto se encuentra ocluido parcialmente por otro. 3.6

Reconocimiento por procesamiento distribuido en paralelo (PDP)

Todos los modelos vistos hasta ahora comparten una circunstancia en común: el reconocimiento del objeto implica la puesta en marcha de una serie de fases o estadios secuenciales en los que se va operando hasta conseguir un ajuste entre la imagen del objeto y la representación en memoria; de ahí que todos ellos puedan representarse mediante diagramas de flujo y se ajusten, en mayor o menor grado, a nuestro modelo general de reconocimiento. Participarían de lo que se denomina en psicología el modelo del ordenador, es decir, la mente codifica, transforma, almacena y recupera la información en memoria de forma análoga a un ordenador. El último modelo que vamos a presentar rechaza que el reconocimiento implique una serie de fases o estadios secuenciales de procesamiento en las que se aplican diversas operaciones. Más bien el reconocimiento consiste en la activación puntual de una red (véase la Figura 10.18), más o menos compleja, constituida por simples unidades de computación artificiales análogas a las neuronas que procesan la información de forma distribuida y en paralelo (procesamiento distribuido y en paralelo, PDP). El PDP es propio de las denominadas arquitecturas conexionistas desde las que se entiende la estructura de la mente como un sistema de unidades de procesamiento que, en un momento determinado, pueden estar activadas/desactivadas y que se conectan excitatoria/inhibitoriamente con otras unidades del sistema, generando así un patrón o estado de activación de la red en conjunto. El funcionamiento mental conexionista no busca explicaciones en el ordenador que procesa secuencialmente la información, sino que toma como referente el cerebro humano y su forma peculiar de funcio-

372

10. Organización perceptual y reconocimiento visual del objeto + 1,5 +1.5

+1 +1

Figura 10.18

++11

Red neuromorfa simplificada con dos unidades de entrada y una de salida.

namiento en paralelo, de ahí que los modelos conexionistas sean modelos cerebrales de la mente. Con el propósito de reproducir artificialmente un sistema de computación distribuida y en paralelo, estos modelos recurren a dos parámetros cuantitativos necesarios para que la red sea capaz de efectuar las computaciones y conexiones necesarias: el peso de conexión y el valor de umbral. El peso (etiquetas sobre la flecha) indica la naturaleza de la conexión existente entre las unidades de procesamiento y puede ser excitatoria (pesos con signo positivo) o inhibitoria (pesos con signo negativo). Por su parte, el valor de umbral (subrayado en el interior) no es otra cosa que el valor mínimo que debe recibir o ingresar una unidad para activarse. Manejando estos simples parámetros, la red es capaz de realizar operaciones cognitivas complejas, reduciendo numerosos problemas cognitivos (memoria, lenguaje, percepción, etc) a simples cuestiones de reconocimiento de patrones. En los ejemplos que vamos a presentar de inmediato asumiremos que una unidad activada responde con 1 y desactivada con 0 (formato binario). 11 → 1 10 → 0 01 → 0 00 → 0

Por ejemplo, nuestra pequeña red de la figura 10.18 es capaz de responder diferencialmente ante un patrón de entrada específico (11) entre los cuatro posibles (11, 10, 01 y 00), y una manera de operacionalizar este caso se reduce a que la unidad de salida se active (1) cuando las dos unidades de en-

373

Percepción

trada estén activadas (11) y permanecer desactivada (0) en el resto de combinaciones (10, 01, 00). Pues bien, partiendo de los valores asignados, la red es capaz de reconocer el patrón 11 frente a los tres restantes (10, 01, 00). En efecto, si las dos unidades de entrada se activan (ambas responden con 1), el input que ingresa la unidad de salida es de: (1 × 1) + (1 × 1) = 2, valor que supera el umbral de +1,5, la unidad de salida se activará y contestará con 1. Sin embargo, frente al patrón 10 (o ante el inverso 01) la unidad de salida no se activará y responderá con 0, pues ingresa un valor de (1x1) + (0 × 1) = 1, que está por debajo del umbral [(0 × 1) + (1 × 1) = 1, ante 01]. Finalmente, ante el patrón 00 la unidad de salida ingresa un valor nulo que, obviamente, sigue encontrándose por debajo del umbral [(0 × 1) + (0 × 1) = 0] por lo que permanece desactivada, respondiendo con 0. Como se puede apreciar, la red responde diferencialmente ante distintas entradas a partir de la activación o desactivación de sus unidades, lo que en esencia constituye un proceso de reconocimiento de patrones de entrada: nuestra red reconoce cuatro entradas estimulares diferentes (11, 10, 01 y 00) que implican un patrón de activación/desactivación entre todas la unidades de la red. Como se aprecia, estos sistemas de reconocimiento procesan la información de manera distribuida entre todas las unidades del sistema, y en paralelo, es decir, cada unidad efectúa su propia computación según su posible activación (1 ó 0 en el ejemplo citado, activada o desactivada). De ahí que optemos por denominar a estos modelos de reconocimiento modelos de procesamiento distribuido en paralelo (PDP). Es sorprendente que la red, a partir de reiterados intentos, aprende por sí misma los valores necesarios que le permiten alcanzar un determinado estado de activación. Para conseguir un resultado deseado, la red modifica progresivamente los pesos y valores de umbral hasta que éstos adoptan unos valores congruentes con lo que se pretende representar. Los mecanismos de aprendizaje son múltiples y suelen recurrir a algoritmos cuyo objetivo es reducir los errores al mínimo. Uno de los más utilizados es el de la retropropagación (Chauvin y Rumelhart, 1996; Hinton, 1989). Este algoritmo computa, para la unidad de salida, la diferencia o error existente entre la actividad real y la deseada, produciéndose seguidamente una modificación progresiva de los pesos que conectan las unidades, hasta que el error desaparezca, estableciéndose nuevas conexiones excitatorias (pesos con valor positivo) o inhibitorias (pesos con valor negativo). Todos los modelos de reconocimiento por PDP se ajustan, en general, al funcionamiento descrito, aunque cada uno de ellos presenta ciertas particularidades que le faculta en el desempeño de la tarea para la que han sido específicamente diseñados. Los modelos más complejos están constituidos por numerosas unidades de computación, tal como sucede en el modelo de activación interactiva y competitiva (IAC) de reconocimiento de palabras representado en la Figura 10.19 (McClelland y Rumelhart, 1981; Rumelhart y McClelland, 1982). Este modelo está diseñado para reconocer una

374

10. Organización perceptual y reconocimiento visual del objeto

Nivel de palabras

Nivel de letras

Nivel de rasgos

Figura 10.19 Representación simplificada del modelo IAC de reconocimiento de palabras (adaptado a partir de McClelland y Rumelhart, 1981).

palabra de cuatro letras de un conjunto total de 1.179 extraídas del inglés a partir del establecimiento de conexiones excitatorias e inhibitorias entre capas de unidades de procesamiento. Para entender el modelo es necesario tener siempre en cuenta que las elipses disponen en su interior de unidades de procesamiento que se conectan entre sí inhibitoriamente, mientras que entre los niveles pueden existir tanto conexiones excitatorias (señaladas por las flechas) como inhibitorias (señaladas por líneas con cabeza de punto). Formalizar el modelo implica utilizar 1.395 unidades de procesamiento que se distribuyen de la siguiente manera. En un primer nivel de características se detectan los rasgos individuales de las letras. IAC utiliza un sistema de detección de segmentos similar al mostrado en la Figura 10.20 que permite representar, a partir de 28 unidades de procesamiento insertas en cada elipse, los rasgos horizontales, verticales y diagonales de las letras: 14 de estas unidades detectan la presencia y otras 14 detectan la ausencia del rasgo correspondiente. Las 28 unidades de cada elipse se conectan inhibitoriamente entre sí y compiten por alcanzar un grado de activación. Las señales tanto excitatorias como inhibitorias de las unidades de rasgos ingresan en un siguiente nivel o nivel de letras, en donde existen en cada elipse 26 unidades de procesamiento que corresponden a cada una de las letras del abecedario inglés. El funcionamiento entre el nivel de rasgos y el de letras es sencillo; en nuestro ejemplo, para la primera posición, la unidad de rasgo que detecta la presencia de la línea hori-

375

Percepción

zontal superior de la letra T envía una señal excitatoria a todas aquellas unidades de letras que presentan este rasgo (B, Z, P, ...), y una señal inhibitoria a todas las unidades de letras que no disponen de esa característica (H, L, M, ...); algo idéntico sucedería con la A en la segunda posición y con la E en la cuarta. Finalmente, el reconocimiento de la palabra se produce por la activación de una de las 1.179 unidades de procesamiento del tercer nivel, de tal manera que, al igual que sucedían entre los niveles anteriores, las conexiones excitatorias e inhibitorias entre el segundo y tercer nivel decidirán qué palabra se reconoce. Por ejemplo, la unidad de letra T activada en primera posición establece conexiones excitatorias con todas aquellas unidades de palabras que tienen una T al comienzo (TAKE, THIN, ...) e inhibitorias con todas aquellas unidades de palabras que disponen de cualquier otra letra (CAKE, LONG, ...). En el nivel de palabras, una vez que se ha activado una unidad (p. ej. TAKE), ésta envía señales excitatorias a las unidades de letras que detectan éstas en las posiciones respectivas e inhibitorias a aquellas que no la detectan: en nuestro ejemplo, la activación de la unidad de palabra TAKE enviaría señal excitatoria a la unidad de letra T en primera posición e inhibitoria a todas las demás unidades de letra de primera posición; excitaría a la unidad de letra A en segunda posición e inhibiría a todas las demás unidades de letra de segunda posición; y así sucesivamente. En conclusión, el reconocimiento de una palabra se reduce a un sencillo procesamiento distribuido y en paralelo entre las tres capas de unidades que establecen entre sí conexiones excitatorias e inhibitorias. Los modelos de reconocimiento por procesamiento distribuido en paralelo han experimentado un enorme auge en psicología desde mediados de los ochenta. Una de sus ventajas es la parsimonia explicativa que, a partir de sencillos conceptos asociativos basados en la inhibición/excitación, son capaces de simular el funcionamiento cognitivo, recurriendo a conceptos cercanos al funcionamiento cerebral. No obstante, estos modelos neuromorfos parecen haber quedado reducidos a simples programas de simulación por ordenador, a partir de los cuales se han generado escasas predic-

Figura 10.20

376

Sistema de detección discreto utilizado por la red IAC en el nivel de rasgos.

10. Organización perceptual y reconocimiento visual del objeto

ciones susceptibles de contrastación empírica. Además, actualmente no existe un modelo conexionista general de reconocimiento visual de amplio espectro, sino una serie de micromodelos ad hoc que no pueden ir más allá de la tarea para la que han sido diseñados específicamente: modelos de reconocimiento de patrones, de letras (IAC); e incluso adaptación de modelos anteriores (RBC) en forma de redes neuronales como es el caso del modelo JIM de Hummel y Biederman (1992) que en su primera capa de unidades comienza detectando los contornos del objeto hasta llegar a la última capa en la que se produce el reconocimiento del mismo.

Bibliografía comentada Cualquier texto básico sobre percepción incluye siempre un apartado, más o menos extenso, dedicado a cuestiones de organización perceptual y, en menor medida, al reconocimiento visual. Para el lector interesado en ampliar o completar los contenidos de este capítulo sugiero las siguientes lecturas en castellano: Goldstein, E. B. (1995): Sensación y percepción, Madrid, Alianza. La lectura del Capítulo 7 de este manual clásico puede resultar interesante, pues en él se aborda de forma conjunta aspectos de organización del estímulo y temas de reconocimiento visual, estos últimos un poco reducidos a modelos de plantillas y características. Mayor, J. y Pinillos, J. L. (1992): Tratado de Psicología General, Vol. 3. Atención y Percepción. Madrid, Alianza. El lector que acuda a este tercer volumen del tratado tiene la oportunidad de realizar una consulta mucho más monográfica. En primer lugar puede proceder al Capítulo 7, escrito por Mª. Dolores Luna «Percepción visual de la forma y organización perceptual» que se dedica de forma exclusiva a cuestiones de percepción de la forma y organización perceptual; es uno de los monográficos más completos y documentados en castellano. Además de este capítulo el lector puede recurrir al Capítulo 6, redactado por Luis F. Melero «Reconocimiento de patrones» en el que se hace una revisión de la problemática del reconocimiento visual a través de la propuesta de diversas teorías sobre reconocimiento. En inglés las lecturas son mucho más abundantes. Vamos a sugerir solamente dos entre las más clásicas, ambas citadas en las referencias. Sobre organización perceptual consúltese el capítulo de Kubovy y Pomerantz (1986). Es uno de los más interesantes y completos, pues tras un planteamiento teórico sobre cuestiones organizacionales en percepción dedica la segunda parte a evidenciar la importancia del principio de pregnancia frente al de probabilidad. Sobre reconocimiento visual resulta obligado citar a un clásico que ha servido de inspiración para otros trabajos posteriores: es el artículo original de Pinker (1984) aparecido en la revista Cognition cuya primera parte aborda múltiples aspectos de reconocimiento visual, realizando una exhaustiva revisión de las principales teorías y modelos propuestos desde la psicología y la inteligencia artificial.

377

Percepción

Preguntas de revisión 1. Describa los siguientes conceptos: a) organización perceptual, b) isomorfismo, c) figuras imposibles, d) figuras reversibles, e) principio de pregnancia, f) principio de la probabilidad. 2. Contraponga conceptualmente la idea de sistemas lineales frente a la de sistemas no lineales en el estudio de la organización perceptual. 3. Describa los principios de agrupamiento y de articulación figura-fondo propuestos por la Gestalt. 4. ¿Cómo se relaciona el grado de bondad de un determinado patrón con el orden del grupo de simetría? 5. Describa los siguientes conceptos: a) reconocimiento visual, b) plantilla, c) cono generalizado, d) marco de referencia visual, e) modelo 3-D, f) algoritmo de retropropagación. 6. Contraponga la perspectiva métrica frente a la categorial en el estudio del reconocimiento visual. 7. ¿Cómo se describe el proceso de reconocimiento visual desde el modelo RBC? ¿Y desde el modelo de alineamiento pictórico? 8. Describa los tres tipos de representaciones admitidos en el modelo de reconocimiento computacional de Marr y Nishihara. 9. En el estudio de reconocimiento visual, ¿es idéntico el concepto de normalización que el de alineamiento? Si no lo es, exponga sus diferencias.

378

11. Percepción de la profundidad, de la distancia y del tamaño Enric Munar i Roca

Este capítulo se halla dividido en dos partes estrechamente relacionadas entre sí y que actualmente forman el grueso de la investigación sobre percepción visual del espacio desde la perspectiva psicológica. En la primera parte se exponen los indicios que permiten la percepción de la denominada tercera dimensión o, en otras palabras, la percepción de la distancia y de la profundidad. Estos indicios se dividen en los de naturaleza binocular (disparidad retiniana y convergencia binocular) y los que se pueden desplegar en condiciones monoculares (acomodación del cristalino, indicios a través del movimiento y claves pictóricas). En la segunda parte del capítulo se exponen los conocimientos más destacables sobre la percepción y la constancia del tamaño, destacando la ley del ángulo visual y la ley de Emmert. Finalmente, se describen algunas ilusiones en la percepción del tamaño y en la percepción de la distancia, indicando algunas hipotéticas explicaciones al respecto. La ilusión de la luna ocupa el último apartado como fenómeno ampliamente analizado por los estudiosos de la percepción.

1.

Introducción

Kant (1781) mantenía que el espacio es el presupuesto necesario para la existencia de objetos, actúa como receptáculo para la aprehensión de los mismos y se experimenta como una entidad en sí misma. Postulaba que cada persona nace con una noción espacial, la cual ha evolucionado en la

379

Percepción

especie y no necesita ser aprendida por cada individuo. En el caso de que cojamos un objeto o un organismo y le quitemos, uno por uno, todos los rasgos empíricos (forma, color, peso, etc.) todavía quedará el espacio que ocupaba el objeto, ahora vacío. Por tanto, el espacio es un medio para aprehender el mundo externo. Según las ideas kantianas, esta noción de espacio es un constructo mental a priori, el cual organiza datos sensoriales, y no necesariamente debe tener su correlato en el mundo físico. No obstante, la idea de espacio y de relaciones espaciales ha de ser un reflejo relativamente fiel de algunos aspectos de la organización del mundo físico o, de lo contrario, no sería útil para el organismo en su proceso de adaptación. El concepto de espacio más extendido a lo largo de la historia es la noción descrita bajo la perspectiva de la geometría euclidiana. Se consideran tres dimensiones espaciales, determinadas física y matemáticamente por sendos ejes perpendiculares entre sí, habitualmente etiquetados como x, y y z. El estudio de la psicología de la percepción ha utilizado y utiliza tres dimensiones eventualmente análogas a las anteriores: vertical, horizontal y profundidad. Por consiguiente, existe la tendencia y la tentación de suponer que el uso psicológico de las tres dimensiones es una consecuencia de la realidad externa, descrita en términos de la geometría clásica. Por contra, algunos autores (Bohr, 1949; Eilan, McCarthy y Brewer, 1993) han señalado la posibilidad de una propuesta inversa, es decir, que la perspectiva de la física clásica no sea más que una consecuencia del funcionamiento de nuestro sistema perceptivo del espacio. Berkeley (1709) defendía que el conocimiento del espacio deriva de las percepciones; las cosas existen en tanto que son percibidas; cuando dejan de ser percibidas dejan de existir, debido a que su esencia no es otra que nuestra percepción. En definitiva, se pueden producir planteamientos circulares y paradójicos: ¿el espacio psicológico-perceptivo es consecuencia de la estructura física del espacio? o ¿la estructuración física del espacio es consecuencia de nuestra percepción espacial? La física ha centrado sus investigaciones en el componente exterior a nuestro organismo y la psicología de la percepción lo ha hecho en el componente mental o interno. Consecuentemente, existen algunas diferencias relevantes entre el estudio del espacio de la física clásica y el de la psicología de la percepción. En la geometría euclidiana las tres dimensiones anteriormente apuntadas son equivalentes en cuanto a las reglas que las rigen: aquellos fenómenos (distancia entre dos puntos, paralelismo, etc.) que se producen en una extensión son, en general, aplicables a las otras dos. Sin embargo, la psicología no puede considerar una equivalencia funcional entre la percepción de la dimensión vertical, la percepción de la dimensión horizontal y la percepción de la profundidad o de la distancia. Si bien las dos primeras dependen de procesamientos muy similares entre sí, basados, fundamentalmente, en las representaciones retinianas, existen unas leves diferencias entre la percepción de la dimensión horizontal y la de la vertical.

380

11. Percepción de la profundidad, de la distancia y del tamaño

Por ejemplo, somos ligeramente más precisos en la discriminación de posiciones en el plano horizontal que en el plano vertical. En cambio, no hay ninguna duda de que la percepción de la profundidad y de la distancia sigue un tratamiento perceptivo diferente al que utiliza la percepción de las otras dos dimensiones, de ahí que se otorgue a aquélla el calificativo de tercera dimensión, distinguiéndola de las otras dos. Este capítulo está dedicado a la percepción visual de la tercera dimensión, en la que podemos distinguir la percepción de la distancia, cuando tratamos la tercera dimensión como percepción de relaciones entre objetos, y la percepción de la profundidad, cuando nos referimos a la captación de la tercera dimensión en un mismo objeto. La visión es el sistema perceptivo que capta más rápidamente y con mayor precisión la información sobre profundidad y distancia. No obstante, no debemos olvidar que tanto el sistema auditivo como el sistema táctil nos pueden aportar algunas informaciones sobre el espacio. Para ello remitimos al lector a los capítulos 13 y 16, respectivamente. En la segunda parte del capítulo trataremos los fenómenos de la percepción y de la constancia del tamaño, propiedad del objeto directamente vinculada a la percepción de la distancia.

2.

Percepción de la profundidad y de la distancia

En condiciones normales cualquier imagen que se anteponga al ojo provoca una representación bidimensional en la retina del mismo. En dicha representación pueden distinguirse posiciones en el plano horizontal y en el plano vertical. En principio, parece lógico razonar que nuestra percepción del espacio es bidimensional. Las imágenes retinianas, o estímulos proximales de la visión, no transmiten información directa sobre la distancia entre el observador y los objetos (distancia absoluta) ni entre los diferentes objetos (distancia relativa). Obsérvese la Figura 11.1: la imagen retiniana separa la posición del punto a de la del punto b a partir de la representación de los correspondientes puntos a’ y b’, que se reflejan en lugares distintos de la retina. En cambio, las representaciones de los puntos a y c se concretan en el mismo lugar de la retina. ¿Cómo es posible que nuestro sistema visual distinga entre las posiciones a y c? ¿Cómo es posible que, a partir de una representación bidimensional, podamos construir percepciones tridimensionales? Berkeley (1709), rechazando la suposición racionalista según la cual algunas entidades de nuestra mente son innatas, afirmaba que la tercera dimensión debía percibirse por la asociación de claves visuales con la posición de los objetos, experimentada a través del tacto, argumento postulado, siglos antes, por algunos pensadores de la Grecia clásica. En una crítica simple y poco precisa a los planteamientos de Berkeley, podemos señalar que cualquiera de nosotros puede experimentar el efecto de profundidad que se origina en la visión de la mayoría de imágenes, incluso en ilustracio-

381

Percepción

Figura 11.1 La representación retiniana delimita la posición de los puntos situados en diferentes posiciones verticales u horizontales, por ejemplo la diferencia de las posiciones a y b correlaciona con la diferencia de sus posiciones retinianas, a’ y b’. En cambio, la representación retiniana no recoge la diferencia de posiciones en distancia, como es el caso de a y c, y sus correspondientes a’ y c’.

nes elaboradas sobre soportes de dos dimensiones, aunque no poseamos conocimiento táctil del entorno ilustrado. Por ejemplo, podemos comprobar la percepción de profundidad en la observación de fotografías. Puesto que la información sobre la profundidad no viene dada de modo inmediato por las imágenes retinianas de los objetos, tiene que haber algún otro indicio que nos permita generar una apreciación de la profundidad de los objetos y de la distancia entre ellos. Es habitual dar por supuesta la propiedad tridimensional del mundo que nos rodea. Así, pocas veces reflexionamos sobre nuestra percepción de la distancia y de la profundidad. Por consiguiente, los indicios que nos proporcionan dicha percepción deben funcionar, en nuestro quehacer cotidiano, a un nivel rápido y poco consciente. Esta rapidez e inadvertencia ha llevado al establecimiento de dos perspectivas sobre los orígenes de la percepción de la tercera dimensión. Los autores que defienden la perspectiva nativista-racionalista entienden que la percepción del espacio es una facultad innata de la mente o, en otras palabras, que estamos programados o predispuestos a la percepción tridimensional. La corriente asociacionistaempirista mantiene que dicha percepción es el resultado de nuestra experiencia sensorial, recabada, fundamentalmente, en la infancia. La finalidad del capítulo presente no es la de analizar dicha controversia, pero sí la de interesarse por el planteamiento realizado desde ambos enfoques: ¿cuáles son las claves que utiliza nuestro sistema cognitivo-perceptual para captar la distancia y la profundidad?

382

11. Percepción de la profundidad, de la distancia y del tamaño

A continuación, se exponen aquellas claves consideradas de mayor relevancia para la consecución de la percepción tridimensional. Pueden realizarse varias clasificaciones de estos indicios. En este capítulo hemos optado por dividir dichas claves entre aquellas basadas en la información emanada de la visión binocular y aquellas que pueden ser utilizadas monocularmente. 2.1

Indicios binoculares

El hecho de poseer dos ojos es una característica profusamente extendida en el mundo animal. En concreto, las especies que se consideran que tienen un mayor grado de desarrollo filogenético poseen un sistema visual compuesto por dos órganos receptores. Ello nos hace suponer que este hecho proporciona un alto rendimiento en la adaptación al medio, si bien no todas las especies con dos ojos tienen la misma disposición espacial interocular, —por ejemplo algunas aves tienen situados los ojos de forma que la unión de los dos campos visuales abarca, aproximadamente, los 360 grados alrededor del cuerpo. En cambio los seres humanos los tienen situados en dirección a la zona frontal del cuerpo, de forma que el campo visual abarcado sólo alcanza, aproximadamente, los 200 grados. Como consecuencia de ello, y si tenemos en cuenta que un ojo humano puede abarcar un campo visual cercano a los 180 grados, hallamos una amplia zona de solapamiento entre los campos monoculares (véase el Capítulo 7). ¿Tiene alguna función este solapamiento? Y si la tiene, ¿cuál es? Existe suficiente evidencia empírica para suponer que el solapamiento de los dos campos visuales proporciona indicios para la percepción de la distancia. En la visión binocular, como indicio de la percepción de la distancia, podemos distinguir dos claves o procesos que aportan información a este objetivo: la disparidad retiniana y la convergencia binocular. 2.1.1 Disparidad retiniana Cada uno de nuestros ojos proporciona una perspectiva ligeramente diferente del entorno visible. Para comprobar este hecho, colóquese el dedo índice en posición vertical frente a los ojos, a unos 30 centímetros de distancia. Acto seguido, ciérrese el ojo derecho y obsérvese la relación espacial del dedo con el fondo: se podrá comprobar que el dedo cubre una parte concreta del fondo. A continuación ciérrese el ojo izquierdo y ábrase el derecho. Ahora se podrá apreciar cómo la relación de oclusión del dedo sobre el fondo ha cambiado, es decir, parece como si el dedo se hubiera desplazado hacia la izquierda. A partir de esta evidencia podemos afirmar que las representaciones retinianas de los dos ojos son ligeramente dispares, y que

383

Percepción

el origen de dicha disparidad retiniana reside en la separación horizontal, de unos seis-siete centímetros, entre los ojos. El organismo aprovecha esta disparidad retiniana para realizar estimaciones sobre la distancia entre objetos, es decir, sobre la distancia relativa. Veamos cómo se origina este proceso. Cuando se enfoca la visión en un objeto, las proyecciones de los ojos convergen en dicho objeto, como lo hacen los ojos de la figura 11.2-I en la posición a, de forma que su imagen se representa en la fóvea de ambos ojos. Cualquier otro punto que se sitúe en la denominada línea del horóptero (en el dibujo representada mediante la curva continua), como es el caso de la posición b, provoca un desplazamiento de sus correspondientes imágenes, respecto a la fóvea, en el mismo sentido y de igual magnitud en ambas retinas, es decir: el desplazamiento a’-b’, en el ojo izquierdo, se realiza en el mismo sentido y es de la misma magnitud que a’’-b’’, en el ojo derecho. Ello quiere decir que existe paridad retiniana en aquellos objetos situados en la línea del horóptero, y que el sistema visual estima que estos puntos se hallan a la misma distancia del observador, sin efectuar estimaciones de la distancia absoluta. No obstante, el fenómeno de paridad retiniana no se restringe a la línea del horóptero, sino que existe una zona anterior y una posterior a dicha línea, en las cuales también existe paridad retiniana: es la denominada área de Panum. En la Figura 11.2 viene representada por la zona entre las curvas discontinuas alrededor de la línea del horóptero. A pesar de que físicamente puede atribuirse disparidad retiniana entre los puntos del área de Panum, el sistema visual no atribuye disparidad a las diferencias ocasionadas en la representación retiniana o bien no las detecta. ¿Qué ocurre con aquellas posiciones que se encuentran fuera del área de Panum? Veamos la situación de la Figura 11.2-II. La posición b se encuentra en la misma dirección que a respecto al punto medio entre los ojos, pero fuera del área de Panum que ocasiona la línea del horóptero centrada en el punto a. El desplazamiento de la representación del punto b respecto a la fóvea es similar en ambos ojos, si bien el desplazamiento b’-a’, en el ojo izquierdo, es de sentido contrario al a’’-b’’, del ojo derecho; mientras la imagen de b en el ojo izquierdo se halla a la izquierda de la fóvea, en el ojo derecho se halla a la derecha de la misma. Por tanto, existe disparidad retiniana y este hecho nos informa de que la posición b se halla más cerca que la posición a. Si ambos desplazamientos fueran de sentido contrario al expuesto, es decir, si el desplazamiento en el ojo izquierdo fuera a’-b’ y en el derecho b’’-a’’, siempre suponiendo que a’ y a’’ representan las fóveas, ello significaría que el objeto situado en la posición b se hallaría a una distancia absoluta superior al área de Panum correspondiente a la posición a. En el caso de la Figura 11.2-III, la posición b se halla fuera del área de Panum y en una dirección diferente de la de a. La consecuencia concreta de esta situación es que el desplazamiento a’-b’ es mucho más pequeño que el a’’-b’’, aunque se produzca en el mismo sentido. En consecuencia, también existe disparidad retiniana entre ambas representaciones, hecho que el sis-

384

11. Percepción de la profundidad, de la distancia y del tamaño

Área de Panum

Línea del horóptero

Figura 11.2 La disparidad retiniana es una fuente de información para la estimación de la distancia relativa. Aquellas posiciones que se hallan en la línea del horóptero o en el área de Panum no provocan disparidad retiniana, como en el caso I en el cual el desplazamiento a’-b’, del ojo izquierdo, y a’’-b’’, del ojo derecho, tienen la misma magnitud y el mismo sentido. En cambio, posiciones fuera del área de Panum provocan disparidad retiniana a causa de un desplazamiento de sentido contrario, como en el caso II: b’-a’ y a’-b’, o a un desplazamiento de diferente magnitud como en el caso III, o a la combinación de ambos factores. La línea del horóptero viene representada por la curva continua y el área de Panum por la zona entre las dos curvas discontinuas.

385

Percepción

tema visual aprovecha para realizar estimaciones de distancia entre objetos. Además de estos casos, se pueden encontrar otros ejemplos donde varíe la combinación entre las direcciones y las distancias de los objetos respecto al observador, la magnitud del desplazamiento retiniano y el sentido del desplazamiento retiniano, provocando situaciones específicas de disparidad retiniana y aportando información diferente sobre la distancia relativa. El valor mínimo de disparidad retiniana que nuestro sistema visual puede detectar es el de un micrómetro de diferencia de desplazamiento, una milésima parte de un milímetro. La disparidad retiniana, además de ser una fuente de información sobre la distancia relativa, produce algunos efectos fenoménicos de relevante interés en el estudio de la percepción. Los efectos de fusión visual y de doble visión, se pueden considerar como diferentes resultados del proceso subyacente a la paridad-disparidad retiniana. La fusión visual consiste en la integración de ambas representaciones oculares en un único percepto, ello ocurre con las representaciones perceptivas de aquellos objetos que se hallan en el área de Panum específica de la situación. En caso de que estos objetos se hallen fuera de dicha área, se produce el fenómeno de doble visión, es decir, objetos que se hallan por delante o por detrás del área de Panum se perciben de forma doble, debido a que la disparidad retiniana supera los niveles máximos a los cuales nuestro sistema visual puede efectuar la fusión visual. Podemos provocar un ejemplo de doble visión colocando el dedo índice frente a nuestros ojos, al igual que en el caso anteriormente expuesto, y enfocar nuestra visión sobre el fondo; como consecuencia de ello percibiremos doble visión de nuestro dedo, a causa de que éste se halla en la zona anterior al área de Panum. El fenómeno de visión doble se reproduce en el medio cinematográfico a partir de la borrosidad de aquellos objetos fuera del enfoque visual. La fusión visual es la base de los conocidos efectos estereoscópicos, los cuales son producto de la fusión de dos imágenes ligeramente distintas, proyectadas, cada una a un ojo. Wheatstone (1838) elaboró el primer estereoscopio. Este constaba de dos tablones en los cuales se podían sujetar sendas imágenes que se reflejaban en dos espejos, para luego, ambas imágenes reflejadas en cada uno de ellos, alcanzar un ojo diferente. Manipulando las imágenes colocadas en los tablones se pueden crear uno u otro efecto de distancia, semejante al que ocurre en la Figura 11.3. Si se centra la mirada de los dos ojos en sendas configuraciones —lo que se puede facilitar colocando un folio de unos 25 centímetros entre ambas— conseguiremos, con un poco de paciencia, la fusión perceptiva de ambas imágenes: el resultado será la percepción de un objeto tridimensional en el cual el rectángulo interior aparece más próximo que el exterior. Desde la época de Wheatstone hasta nuestros días se han desarrollado muchos tipos de estereoscopios, hasta el punto de convertirse en productos de masiva comercialización. Entre ellos, podemos hallar algunas variantes

386

11. Percepción de la profundidad, de la distancia y del tamaño

Figura 11.3 Si se coloca una hoja en blanco entre las dos configuraciones y fijamos la mirada de cada ojo en cada una de ellas, conseguiremos percibir un objeto tridimensional en el cual el cuadrado interior flotará por delante del exterior.

de destacable interés para la psicología de la percepción: los compuestos por estereogramas y los compuestos por anaglifos. Julesz (1971) desarrolló los estereogramas de puntos aleatorios con la idea de analizar el proceso de la estereopsis. En la Figura 11.4 podemos ver un ejemplo de estereograma de puntos aleatorios. Si realizamos un procedimiento similar al anteriormente descrito para conseguir el efecto estereoscópico, podremos comprobar que la mirada independiente de ambos ojos a sendas configuraciones provoca la impresión de un cuadrado tridimensional tras unos segundos de cierta rivalidad binocular. En la parte inferior de la figura se describe el modo de elaborar las configuraciones con el objetivo de conseguir el efecto estereoscópico de un cuadrado en relieve. Anaglifo es una palabra proveniente del griego que significa escultura en relieve. En el estudio de la percepción de la profundidad se ha utilizado este término para referirse a aquellas configuraciones que consiguen el efecto estereoscópico a partir de la utilización de colores opuestos (véase Capítulo 9). La configuración se dibuja en verde y rojo (colores opuestos más utilizados), el observador debe utilizar unas gafas con un filtro rojo en un ojo y con un filtro verde en el otro y la consecuencia es la recepción de imágenes diferentes por parte de cada ojo; si los estímulos han sido elaborados para tal fin se obtiene el efecto estereoscópico de profundidad. Frisby (1979) muestra una gran cantidad de configuraciones que producen dicho efecto mediante la utilización de anaglifos. Existen otras formas de conseguir el efecto estereoscópico de profundidad, como, por ejemplo, la utilización de contornos ilusorios. Debido a que la exposición de estas técnicas ocasionaría un texto excesivamente extenso

387

Percepción

Figura 11.4 Estereogramas de puntos aleatorios: siguiendo el procedimiento descrito en la figura 11.3 podemos obtener la percepción de un cuadrado sobresaliendo de fondo de puntos aleatorios. En la parte inferior podemos observar cómo ambas configuraciones parten de un mismo patrón de puntos aleatorios. En el caso del estímulo de la derecha se ha realizado un desplazamiento hacia la izquierda de un grupo de puntos que forman un cuadrado (c), y la parte descubierta (d) ha sido rellenada por otro conjunto de puntos aleatorios.

para los objetivos planteados en este capítulo, nos parece adecuado remitir a obras de sumo interés en la temática de los efectos esteroscópicos, como la anteriormente citada de Frisby (1979), y las de Bruce, Green y Georgeson (1996) y Lillo (1993). Algo similar ocurre con la exposición de los modelos explicativos del fenómeno estereoscópico y de la fusión visual, es decir, considerando que la exposición de estos modelos excedería los objetivos de este capítulo, los textos anteriormente citados son una buena referencia para indagar sobre esta materia. 2.1.2 Convergencia binocular El otro indicio binocular de distancia es el proceso de convergencia de la mirada de los dos ojos, el cual se basa en el grado de inclinación horizontal que llevan a cabo ambos ojos. La medida de este indicio se realiza a través del denominado ángulo de convergencia. En la Figura 11.5, podemos ob-

388

11. Percepción de la profundidad, de la distancia y del tamaño

Figura 11.5 El ángulo de convergencia binocular es mayor cuanto más cerca del observador se halle el objeto enfocado, en este caso,  es mayor que , debido a que a se encuentra más cerca del observador que b.

servar la relación que existe entre el ángulo formado por la convergencia de la mirada de ambos ojos y la distancia a la que se halla el objeto enfocado. Cuanto más cerca del observador se halle el objeto observado mayor será el ángulo de convergencia, y menor cuanto más lejos se sitúe el objeto. El fundamento de esta clave reside en algunos movimientos oculares. Para que la convergencia binocular sea considerada como un indicio de profundidad es necesario que nuestro sistema perceptivo sea informado de dichos movimientos. Sin embargo, han existido dudas sobre la ejecución de esta retroinformación motora hacia los sistemas centrales, en este caso, perceptivos. En los últimos años, Gamlin, Yoon y Zhang (1996) y Zhang y Gamlin (1998), a partir de estudios de carácter neurofisiológico, han aportado algunas evidencias de la relación del proceso de convergencia binocular con la actividad de regiones concretas del encéfalo. No obstante, en aquellas investigaciones que aportan datos en beneficio de la hipótesis de que el sistema visual utiliza la convergencia binocular para realizar estimaciones de distancia absoluta, se advierte que, probablemente, el uso de esta clave esté restringido a distancias inferiores a los tres metros, entre el observador y el objeto. En situaciones de ausencia de estímulos visuales adecuados sobre los que proyectar la mirada, la convergencia se produce a una distancia situada en el intervalo de 25-75 centímetros del observador (Rosenfield, 1997).

389

Percepción

2.2

Indicios monoculares

A pesar de que la disparidad retiniana es una clave potente para la estimación de la profundidad, ello no supone que, para la percepción de la tridimensionalidad, sea imprescindible la visión binocular. Si se cierra un ojo se comprueba como todavía se pueden realizar estimaciones, más o menos adecuadas, de las distancias absolutas y de las relativas. Ello significa que también existen indicios monoculares de distancia y profundidad. No obstante, no serán tan fiables como las que se realizan con visión binocular. A continuación, se exponen aquellos indicios monoculares más relevantes, agrupados en tres apartados: la acomodación del cristalino, los indicios derivados del movimiento y las claves pictóricas. 2.2.1 Acomodación del cristalino La acomodación del cristalino proporciona un indicio basado en un proceso de adaptación del cristalino, con el fin de reflejar adecuadamente la imagen del objeto observado en la retina. Los músculos ciliares, mediante los procesos de tensión y distensión, son los responsables de la acomodación del cristalino. Así, el cristalino puede adoptar una forma redondeada o una forma más plana dependiendo de la distancia a la que se halla el punto de observación. Cuanto más cerca se halle el objeto observado mayor abombamiento del cristalino y, cuanto más lejos, mayor aplanamiento. Algunos textos presentan conjuntamente las claves de acomodación del cristalino y de convergencia binocular, debido a que comparten una serie de características. En primer lugar, ambas claves dependen de movimientos musculares, de ahí su clasificación como indicios oculomotores o indicios fisiológicos. En segundo lugar, todavía existe la duda de que ambas claves sean utilizadas en el proceso de estimación de la distancia, independientemente de que se produzcan ambos fenómenos cuando estimamos distancias, si bien, recientemente, Zhang y Gamlin (1998) han presentado evidencias en este sentido. En tercer lugar, y en el supuesto de aceptar la tesis de que son claves de profundidad, ambos indicios aportan únicamente información sobre la distancia absoluta, en ningún caso realizan aportaciones a la percepción de la distancia relativa. 2.2.2 Indicios a través del movimiento Los indicios de distancia expuestos anteriormente pueden ser utilizados en situaciones estáticas, aunque en la mayor parte de los casos que actúa la percepción de la profundidad se produce en circunstancias dinámicas. En el Capítulo 12 de la presente obra se hallan las particularidades propias de la

390

11. Percepción de la profundidad, de la distancia y del tamaño

detección y percepción de movimiento. En este apartado únicamente trataremos el movimiento como fenómeno que facilita información para la percepción de la distancia y de la profundidad. De esta forma, distinguiremos dos situaciones, aquella en que el observador se halla en movimiento y aquella en que es el objeto observado el que se mueve. 2.2.2.1 Paralaje del movimiento Cuando el observador se mueve ocurre el fenómeno expuesto en la Figura 11.6. En la posición 1, la distancia retiniana entre las representaciones de los puntos a y b es pequeña. En cambio, después de un desplazamiento hasta la posición 2, la distancia retiniana entre las representaciones de a y b es mucho mayor. Esta variación nos proporciona información sobre la distancia relativa entre los puntos a y b. El proceso puede ser descrito de la manera siguiente: el desplazamiento retiniano entre a’ y a’’ es mayor que el desplazamiento entre b’ y b’’, ello significa que a se halla más cerca que b. Además, este caso también nos proporciona una cierta información sobre la distancia absoluta de ambos puntos, otorgando lejanía al punto b y cercanía al punto a. Enright (1996) comprobó que la diferencia entre las proyecciones retinianas, antes y después de un movimiento sacádico, permite realizar una estereopsis secuencial de la situación, es decir: el sujeto realiza un proceso de disparidad retiniana antes del movimiento sacádico; a continuación se produce el movimiento sacádico y el sujeto vuelve a realizar otro proceso de disparidad retiniana; la diferencia entre los resultados de estos dos procesos de estereopsis es suficiente para aportar información sobre distancias tridimensionales. En la literatura sobre el estudio de la percepción, el fenómeno descrito en la Figura 11.6 se denomina paralaje de movimiento. El concepto de paralaje hace referencia a un cambio de posición. Como consecuencia de este efecto, podemos señalar que si el observador se halla en movimiento, las imágenes de los objetos cercanos atravesarán su retina a mayor velocidad que aquellas imágenes de objetos que se encuentren más alejados. Este efecto se puede comprobar cuando se viaja en un automóvil. Mirando por la ventanilla lateral se puede observar qué rápido atraviesan nuestro campo visual aquellos objetos que se hallan cerca de la carretera, pero, en cambio, se comprueban los diminutos cambios que se producen en las imágenes de las montañas lejanas; es más, se puede observar que aquellos objetos más alejados, como es el caso de la luna, parece que nos acompañan en nuestro viaje.

391

Percepción

Figura 11.6 Paralaje del movimiento: obsérvese la diferencia del punto retiniano de proyección de a y b dependiendo de la posición del sujeto (1 ó 2). Si el sujeto se desplaza de 1 a 2 consigue información de la distancia relativa entre a y b a partir de la comparación de la representación retiniana en la posición 1 y de la resultante en la posición 2.

2.2.2.2 Efecto cinético de profundidad El efecto cinético de profundidad se produce cuando se mueve el objeto observado y, como consecuencia de este movimiento, el observador extrae información sobre la tridimensionalidad del objeto en cuestión. En situaciones estáticas no es sencillo obtener información sobre la profundidad del objeto observado, aunque las claves de disparidad retiniana, de sombreado y de familiaridad nos pueden ayudar a extraer dicha información. Sin embargo, el movimiento del objeto nos proporcionará una mayor cantidad de información sobre su tridimensionalidad. Por tanto, el efecto cinético de profundidad es una clave de tridimensionalidad del mismo objeto, y no lo es ni de distancia absoluta, a no ser que se combine con el indicio de tamaño familiar, ni de distancia relativa. Werkhoven y van Veen (1995) comprobaron la relación existente entre la velocidad del objeto y la validez de la información tridimensional percibida; en concreto, a mayor velocidad menor precisión en la percepción de la profundidad del objeto. 2.2.3 Indicios pictóricos A partir del Renacimiento, un gran número de pintores empezaron a utilizar algunas de las estrategias pictóricas, actualmente muy extendidas, para conseguir la percepción de la profundidad en el visionado de sus obras. Es-

392

11. Percepción de la profundidad, de la distancia y del tamaño

tas estrategias fueron inferidas de claves que utilizamos habitualmente en la vida real para percibir la tercera dimensión. A partir de este hecho, pasaron a denominarse indicios pictóricos aquellas claves de profundidad que pueden plasmarse en un lienzo o en un dibujo. En general, dichos indicios son simples consecuencias de la geometría euclidiana. A continuación, se exponen los siete indicios pictóricos que hemos considerado de mayor relevancia, aunque pueden hallarse algunos más. 2.2.3.1 Oclusión La clave de oclusión, también llamada de interposición, parte del supuesto que aquellos objetos que cubren parcialmente la posición de otros objetos se hallan más cerca del observador. Se supone que el objeto que cubre está situado delante del objeto cubierto (figura 11.7). La oclusión es, probablemente, una de las claves de mayor potencia en la percepción de la distancia relativa.

Figura 11.7 Se puede comprobar la apariencia de que el cuadrado se halla frente a la elipse, ello es debido a la clave de oclusión. Obsérvese que, en dicho proceso, también interviene la ley de cierre de la organización perceptual (véase el Capítulo 10).

2.2.3.2 Sombras En la observación de un objeto, podemos centrar nuestro interés en la falta de uniformidad en la iluminación de su superficie. Ramanchandran (1988) destaca la impresión de solidez que nos produce este efecto de sombreado, y la información que aporta sobre la estructura y sobre las partes que componen el objeto. Fíjese en la Figura 11.8, donde se puede observar cómo los objetos que aparecen en la parte izquierda del lector proporcionan una impresión de hendidura en la parte central (convexidad), mientras los de la derecha provocan una impresión de saliencia en la parte central (concavidad). La explicación de este fenómeno que ha obtenido mayor consenso entre la comunidad científica procede de la perspectiva de la evolución filogenéti-

393

Percepción

Figura 11.8 Obsérvese como los dos objetos de la izquierda nos proporcionan una impresión de concavidad; en cambio, los de derecha provocan una percepción de convexidad. Ello es debido a la distribución de intensidades lumínicas reflejadas por diferentes partes de los objetos o, en otras palabras, por el juego de luces y sombras.

ca: las proyecciones de la luz solar sobre los objetos y la reflexión de estas luces hasta nuestros ojos tienen unas direcciones específicas (dependiendo de la situación del sol y de la del observador) que han determinado la distribución de luces y sombras en la percepción de los objetos. Por una parte, podemos observar que la única diferencia entre los dos tipos de objetos es la distribución del patrón de iluminación: mientras que los de la izquierda reflejan una mayor cantidad de luz en dos zonas cercanas a los lados (horizontales en la superior y verticales en la inferior), en los de la derecha el reflejo de iluminación es mayor en su parte central. El haz de luz que ilumina el objeto procede de posiciones superiores al objeto (al igual que la luz solar) y éste refleja parte del haz al observador. De esta forma, en el supuesto de que la superficie del objeto sea uniforme en su composición, aquellas partes del objeto más cercanas al observador reflejarán mayor cantidad de luz hacia éste, debido al menor recorrido que deberá realizar la luz, que aquellas partes más alejadas, en las cuales el recorrido será mayor y, por tanto, habrá un mayor efecto de difracción de la luz. Por tanto, las zonas blancas producen la impresión de una menor distancia al observador que aquellas zonas grises o negras. Éste es, en parte, el proceso que subyace a la técnica conocida con el nombre de claroscuro o combinación de luces y sombras. Además del fenómeno de falta de uniformidad en la iluminación de la superficie de un objeto, también se debe destacar la importancia del efecto de sombras entre objetos que se produce en la percepción de la profundidad. Este efecto de sombras proyectadas, es decir, de las sombras de objetos que caen sobre superficies contiguas, desempeña un cierto protagonismo en la estimación de distancias relativas.

394

11. Percepción de la profundidad, de la distancia y del tamaño

2.2.3.3 Gradiente de textura Gibson (1979) propuso que las impresiones de superficies planas son las unidades básicas para la percepción de la tridimensionalidad, y no los objetos individualizados. Según este autor, la percepción de la distancia de un punto determinado depende de la situación de dicho punto respecto a las superficies bidimensionales, como por ejemplo la superficie del suelo, la de una pared o la de un techo. Estas superficies están estructuradas según un gradiente de textura. Por gradiente de textura debemos entender la variación de la densidad de textura en relación con la distancia. La densidad de textura puede ser medida por el número de unidades componentes de la superficie en una área determinada, entendida esta última como área retiniana. Así, las áreas más cercanas al observador presentarán una menor densidad de textura que aquellas más alejadas (véase figura 11.9). Ejemplos de este indicio son la observación de un suelo compuesto por baldosas o el de una pared de ladrillos. 2.2.3.4 Perspectiva lineal El efecto conocido como perspectiva lineal, en la producción artística, fue introducido por Alberti en su obra De Pictura en 1435, con el fin de dotar a sus obras de impresión tridimensional. A pesar de ser una técnica ampliamente utilizada en la pintura y en el dibujo, su origen se halla en la percepción real de la profundidad; la perspectiva lineal también es una clave de uso frecuente en nuestras percepciones para la construcción de la tercera dimensión. El mejor ejemplo para explicar la clave de perspectiva lineal consiste en el caso de dos líneas paralelas dispuestas en profundidad: cuanto mayor es la distancia de las líneas al observador será menor la separación, en las representaciones retinianas, entre las dos líneas. De esta forma, dos líneas paralelas dispuestas en profundidad, dan lugar a un punto imaginario de convergencia en el estímulo proximal o en la representación bidimensional del observador: es el denominado punto de fuga. La Figura 11.9, además del indicio de gradiente de textura, proporciona la clave de perspectiva lineal: los cuadrados, que pueden ser observados como baldosas de un suelo, forman líneas paralelas que, en una representación pictórica, tienen menor separación entre ellas a medida que se perciben a mayor distancia. Tanto la perspectiva lineal como el indicio de gradiente de textura son consecuencias geométricas de la posición del observador. En situaciones reales podemos comprobar cómo se produce una reducción en la magnitud de las proyecciones retinianas del objeto con el incremento de distancia entre éste y el observador.

395

Percepción

Figura 11.9 El gradiente de textura nos ofrece una fuente de información de profundidad. En la figura el área que tiene una menor densidad de textura (número de elementos por unidad de espacio) se percibe más cerca que aquella que tiene mayor densidad. En este caso, esta clave se conjuga con la perspectiva lineal.

2.2.3.5 Perspectiva aérea La clave de perspectiva aérea se basa en la interferencia atmosférica que se produce entre el objeto observado y el observador. Las partículas de la atmósfera provocan una serie de distorsiones físicas sobre los rayos de luz; así, a mayor recorrido del haz de luz, mayor posibilidad de que se produzcan distorsiones. De esta forma, aquellas reflexiones de luz procedentes de los objetos más alejados sufrirán normalmente una mayor dispersión y, como consecuencia, el objeto se percibirá más borroso y más azulado. La explicación de que el objeto alejado proporcione una impresión azulada se halla en el fenómeno de difracción de Rayleigh, según el cual las longitudes de onda corta (azul) sufren mayor difracción que las largas y esta dispersión, que se halla en la atmósfera y no en los objetos, provoca una impresión azulada en aquellos objetos alejados o en el mismo cielo. Con relación a la perspectiva aérea conviene destacar la importancia de la saturación del aire a causa de partículas volátiles en situaciones concretas. Por ejemplo, en las grandes ciudades se produce el efecto de borrosidad en la observación de elementos no excesivamente alejados, y ello es debido a la cantidad de polución atmosférica existente. En cambio, en lugares montañosos, donde el aire es mucho más puro, podemos observar la nitidez de colinas muy alejadas, hecho que puede inducir a engaño a alguien que realice apreciaciones de distancias a partir de su perspectiva aérea. 2.2.3.6 Tamaño relativo y tamaño familiar El tamaño del área que ocupa la imagen de un objeto en la representación retiniana tiene cierta trascendencia en la apreciación de la distancia a la que se halla dicho objeto. Cuanto más cerca del observador se halle un objeto, mayor será el tamaño que ocupa en la representación bidimensional. Por

396

11. Percepción de la profundidad, de la distancia y del tamaño

consiguiente, en la percepción de dos objetos totalmente desconocidos se aprecia una distancia menor en aquel objeto que ocupa una mayor dimensión de la imagen retiniana que en el que ocupa una área más pequeña (Ittelson y Kilpratick, 1951). Este caso es un buen ejemplo de la clave de tamaño relativo, según la cual se otorga el mismo tamaño a ambos objetos desconocidos y, en consecuencia, se supone una mayor aproximación al objeto que ocupa una mayor área retiniana. En cambio, en las situaciones en las cuales conocemos el tamaño del objeto utilizamos esta información para la percepción de la distancia absoluta, realizando un cálculo más aproximado de la distancia que en el caso de objetos desconocidos. Ésta es la denominada clave del tamaño familiar. Por ejemplo, si una moneda de cinco pesetas ocupa la misma área retiniana que una de 500 pesetas, percibiremos como más cerca la primera debido a su menor tamaño familiar (Epstein, 1965). En el apartado 3 se trata, con mayor detalle, la relación entre la percepción de la distancia y la percepción del tamaño. 2.2.3.7 Altura relativa En la Figura 11.10 se observa cómo la situación del conejo en la parte inferior provoca una impresión de cercanía, a diferencia del conejo situado cerca de la línea superior. La clave de altura relativa explica este fenómeno. Si nos situamos por debajo de la línea del horizonte, aquellos objetos que se hallan a menor altura nos provocarán una impresión de cercanía, a diferencia de aquellos cuya base se sitúe cerca de la línea del horizonte, los cuales percibiremos como alejados. En cambio, por encima de la línea del horizonte ocurre el proceso inverso: aquellos objetos situados a menor altura, es decir, más cerca de la línea del horizonte, se percibirán más alejados que aquellos que se hallen a mayor altura. Tanto en un caso como en otro, existe una relación lógica con las situaciones reales: el horizonte es el punto más alejado que el ser humano puede percibir; en consecuencia, aquellos objetos cercanos al horizonte también son percibidos como lejanos. Según Cutting (1986) está clave ya fue descrita por Euclides en el siglo III a. C. 2.3

Integración de claves

Hasta ahora se han expuesto, uno por uno, los indicios más relevantes para la percepción de la profundidad: el paso siguiente consiste en el planteamiento de cómo funcionan conjuntamente estos indicios para conseguir la percepción tridimensional particular del ser humano. La propuesta tiene difícil solución. Actualmente, pocos autores se han atrevido a postular un modelo al respecto; por consiguiente, podemos afirmar que no existe nin-

397

Percepción

Figura 11.10 La clave de altura relativa nos indica que el conejo situado en la parte baja de la imagen produce una impresión de mayor cercanía que el conejo situado en la parte superior. Por encima de la línea del horizonte la relación es a la inversa: la paloma situada en la parte superior de la imagen parece encontrarse más cerca del observador que la situada cerca de la línea del horizonte.

gún sistema global consensuado, ni tan solo destacable, que integre el uso de las diferentes claves de profundidad según situaciones concretas. A partir de investigaciones sobre la inclinación, Zimmerman, Legge y Cavanagh (1995) proponen un modelo parcial que defiende la existencia de dos o, posiblemente, más representaciones de la dimensión espacial de la profundidad. Estos autores proponen una representación local derivada primariamente de las claves pictóricas y otra representación de la distancia, centrada en el observador, derivada inicialmente de la disparidad retiniana y del paralaje del movimiento. Con el fin de dar alguna orientación a lo expuesto hasta este momento, cabe la posibilidad de utilizar las conclusiones de algunos experimentos que han empleado más de una clave, ya sea en conflicto o como facilitación, y las deducciones lógicas y razonadas de las mismas. Una primera conclusión que podemos extraer de este tipo de investigaciones es el hecho de que la disponibilidad de varios indicios proporciona una percepción más fiable y más acorde con la realidad que el uso de una única clave. La utilización de la disparidad retiniana junto a la acción de las señales oculomotoras, acomodación y convergencia, parecen ser suficientemente eficaces en distancias relativamente cortas, y de mayor validez que cualquiera de ellas de forma individual. Cuando coinciden gran parte de las señales pictóricas

398

11. Percepción de la profundidad, de la distancia y del tamaño

en una escena, en una pintura o en un dibujo, el efecto de profundidad es más enérgico que en aquella circunstancia donde sólo aparecen uno o dos indicios. La combinación del efecto de profundidad cinética y la reproducción de paralaje del movimiento en películas cinematográficas potencía la percepción tridimensionalidad de las escenas. Una segunda conclusión consiste en la conveniencia de combinaciones concretas de los diferentes indicios, es decir, la necesidad de combinar procesos de percepción de distancia absoluta y procesos de distancia relativa para conseguir una percepción tridimensional lo más acorde posible con la información exterior. Si queremos utilizar dos claves de distancia para captar la tridimensionalidad de una escena visual, parece conveniente emplear una clave de mayor potencialidad para la distancia absoluta y otra de mayor peso en la percepción de la distancia relativa. De todas formas, no podemos olvidar que la percepción de la distancia y de la profundidad no actúa independientemente de otros mecanismos perceptivos. En concreto, la percepción de la distancia tiene una marcada interacción con la percepción del tamaño de los objetos, como vimos anteriormente en el apartado de los indicios pictóricos de tamaño relativo y de tamaño familiar. Por consiguiente, a continuación, expondremos el funcionamiento de los mecanismos perceptivos básicos para la percepción del tamaño.

3.

Percepción y constancia del tamaño

La percepción del tamaño puede ser estudiada bajo la perspectiva de situaciones estáticas, concretas e individuales, en cuyo caso, en este apartado, hablaremos del concepto de percepción del tamaño, o bien bajo la perspectiva de situaciones cambiantes, en cuyo caso trataremos el fenómeno denominado constancia del tamaño. En el primer caso, el espectador percibe el tamaño, únicamente, en función de la reflexión del tamaño real del objeto en su retina, aunque ésta no suele ser la circunstancia más habitual en la que nos desenvolvemos, pues el ambiente que nos rodea está frecuentemente compuesto de situaciones en donde se produce movimiento y, además, cada uno de nosotros posee una experiencia concreta sobre el tamaño de los objetos. Por consiguiente, si tenemos en cuenta que el tamaño real de un objeto no depende únicamente de la reflexión de su imagen en nuestra retina, y debido a que el tamaño retiniano va cambiando según se mueva el observador o el objeto, el sujeto deberá adecuar la percepción del estímulo proximal o imagen retiniana a un tamaño percibido más acorde con la realidad, y ello lo hará en función de su experiencia pasada y de su experencia inmediata. La experiencia inmediata viene determinada por la información sobre el movimiento del sujeto o del objeto y por los cambios que se produzcan en el estímulo proximal.

399

Percepción

3.1

Percepción del tamaño

En la percepción del tamaño, entendida en sentido estricto, debemos distinguir dos tipos de situaciones de consecuencias perceptivas claramente diferenciables y que se distinguen por la concepción otorgada al término tamaño. En el primer tipo de situaciones el tamaño se define como la longitud extendida en el plano formado por las dimensiones vertical y horizontal o plano frontoparalelo; si se realiza una estimación únicamente en función de la dimensión vertical se denomina altura, y si se realiza en función de la horizontal se denomina anchura; este grupo también incluye estimaciones de tamaño en orientaciones diagonales. En el otro tipo de situaciones el tamaño se define en función de la longitud extendida en el eje de profundidad, o fondo; en este grupo deben incluirse aquellos casos en que se combina la profundidad con el plano frontoparalelo. Mientras que, en el primer tipo de situaciones, el sistema visual es muy sensible a pequeñas diferencias de tamaño (Munar, 1997), los errores de las estimaciones en el segundo tipo de situaciones se incrementan de forma notable (Norman, Todd, Perotti y Tittle, 1996). 3.1.1 La ley del ángulo visual En etapas primarias, la percepción del tamaño está relacionada con el tamaño que ocupa la imagen del objeto en la retina o tamaño retiniano. El tamaño retiniano se puede medir indirectamente a partir del ángulo visual. La ley del ángulo visual afirma que nuestra percepción del tamaño de un objeto está determinada por la magnitud del ángulo visual que ocupa el objeto (en la comparación entre la figura 11.11-I y la 11.11-II podemos observar dicha relación). El denominado ángulo visual se determina por el ángulo que forman dos líneas imaginarias, una extendida desde el ojo hasta el extremo superior del objeto y, la otra, desde el ojo hasta el extremo inferior del objeto. Cuanto mayor sea el ángulo visual mayor será el tamaño retiniano. De esta manera, si un objeto provoca un tamaño retiniano mayor que otro, percibiremos el tamaño del primero como mayor que el del segundo, siempre que percibamos que se hallan a la misma distancia. Sin lugar a dudas, la ley del ángulo visual, o su correlato del tamaño retiniano, es el factor más decisivo en la percepción del tamaño sin información de distancia. No obstante, existen otros factores que influyen, en menor medida, en la percepción del tamaño. Veamos cuáles son estos otros factores.

400

11. Percepción de la profundidad, de la distancia y del tamaño

Figura 11.11 El ángulo visual es el ángulo que se forma entre el ojo, como vértice, y los puntos superior e inferior del objeto observado. En I, dos personas de diferente altura y situadas a distintas distancias provocan el mismo ángulo visual y el mismo tamaño en la imagen retiniana. En II, la persona situada en el punto a provoca un mayor ángulo visual y, en consecuencia, una imagen retiniana de mayor tamaño que en el caso I.

3.1.2 Otros factores intervinientes en la percepción del tamaño La forma interviene en la percepción del tamaño (Anastasi, 1936). Concretamente, aquellos objetos más alargados (rombos o rectángulos) parecen más grandes que aquellos objetos de igual tamaño pero de forma mucho más compacta (cuadrados o círculos). El tamaño del fondo también influye claramente en la percepción del tamaño de la figura; así un objeto que se ve frente a un fondo grande parecerá más pequeño que aquel mismo objeto frente a un fondo pequeño (Rock y Ebenholtz, 1959). Otro factor que interviene es la luminosidad percibida; si el fondo es oscuro y la figura del objeto es más clara, el objeto parecerá más grande que el mismo objeto oscuro en un fondo más claro (van Erning, Gerrits y Eijkman, 1988), además, a mayor contraste de luminosidad entre figura y fondo existe una percepción de tamaño mayor que a menor contraste. Recientemente, Bertamini, Yang y Proffitt (1998), utilizando distancias grandes, han comprobado que los juicios de tamaño relativo son más precisos cuando los objetos se sitúan cerca del horizonte que cuando la ubicación de éstos se halla lejos de él.

401

Percepción

3.2

Constancia del tamaño

Atendiendo únicamente a los factores anteriormente mencionados, no podemos explicar la razón por la que consideramos que el tamaño de nuestro amigo, que se está alejando, es constante a pesar de la disminución del tamaño retiniano de su imagen. La constancia del tamaño es un fenómeno perceptivo según el cual el tamaño de un objeto tiende a ser percibido relativamente invariable a pesar de los cambios de tamaño que se produzcan en nuestra imagen retiniana. Sin lugar a dudas, estos cambios son debidos a los desplazamientos en distancia entre el observador y el objeto. Por tanto, se establece una relación indirecta entre la constancia del tamaño y la percepción de la distancia (Figura 11.11-I). Monserrat (1998) nos presenta la relación formal entre la altura del objeto (H), la distancia entre sujeto y objeto (D) y el ángulo visual (a): H = 2 · D · tangente (a/2) Para calcular el ángulo visual a partir de la altura y de la distancia del objeto, podemos despejar a y la fórmula queda como sigue: a = 2· arctan [H/(2D)] Habitualmente se define la constancia del tamaño a partir de la percepción de la distancia, es decir, la constancia del tamaño es un fenómeno según el cual mantenemos el tamaño percibido de un objeto a pesar de que varíe la distancia entre nosotros y el objeto. Respecto al estudio de esta relación, nos parece adecuado destacar dos eventos históricos: la ley de Emmert y el experimento de Holway y Boring (1941). 3.2.1 La ley de Emmert Emmert, en 1881, comprobó que el tamaño de una postimagen retiniana parece mayor si el estímulo se proyecta sobre una superficie más distante que sobre una más cercana (Boring, 1942). Fácilmente, se puede repetir el procedimiento utilizado por Emmert para llegar a semejante conclusión. Para ello, se fija la mirada durante un minuto, aproximadamente, en un círculo negro de unos dos centímetros. A continuación, se observa el espacio en blanco contiguo al círculo y se logra un postefecto de la imagen con su tamaño percibido específico; si se parpadea ligeramente se puede lograr un mayor efecto de la postimagen. Posteriormente, se repite la operación, pero ahora proyectando la postimagen en una pared blanca; se puede comprobar cómo el tamaño percibido de esta segunda postimagen es mucho mayor que

402

11. Percepción de la profundidad, de la distancia y del tamaño

el de la primera. A partir de esta observación, Emmert formuló la siguiente relación: TP = TR x DP, donde TP es el tamaño percibido, TR es el tamaño retiniano, y DP es la distancia percibida. La ley de Emmert ofrece una relación formal entre tamaño percibido y distancia percibida. 3.2.2 El experimento de Holway y Boring (1941) Holway y Boring (1941) llevaron a cabo una serie de experimentos a partir de los cuales demostraron la importancia de la información de la distancia en la determinación de la constancia del tamaño. El sujeto se colocaba en la intersección, en ángulo recto, que formaban dos pasillos. Los estímulos eran discos de luz situados en uno de los pasillos a diferentes distancias (de 3 a 36 metros). Para cada distancia se seleccionaba un disco de diferente tamaño, de forma que todos los discos proyectaran en la retina el mismo grado de ángulo visual. El sujeto estimaba el tamaño del estímulo comparando con un modelo situado en el otro pasillo, a una distancia de unos 10 metros. El experimentador variaba el tamaño del modelo de comparación hasta que el sujeto le indicaba que había conseguido una equiparación satisfactoria. Se dispusieron cuatro condiciones diferentes, las cuales dependían del número de claves disponibles de distancia. Los resultados mostraron que a mayor número de claves disponibles de distancia más correlacionaba el tamaño percibido con el tamaño real. En consecuencia, comprobaron que la constancia del tamaño depende de la percepción de la distancia. Sin información acerca de la distancia, no conseguimos una buena constancia del tamaño. En un experimento similar (Lichten y Lurie, 1950) se eliminaron todas las claves de profundidad mediante el uso de pantallas, de forma que sólo se permitía contemplar los círculos de prueba. En tales condiciones, se eliminó la constancia del tamaño y las percepciones de los sujetos se ajustaron plenamente a la ley del ángulo visual. Por tanto, parece evidente la existencia de un mecanismo de calibración tamaño-distancia. 3.2.3 Otras explicaciones de la constancia del tamaño Los principios de la explicación expuesta anteriormente, según la cual un observador calcula el tamaño de un objeto percibido combinando su tamaño retiniano y la distancia percibida, fueron propuestos por Helmhotz (1866). Según este autor dichos cálculos no se realizan de una forma consciente, de ahí el término de inferencia inconsciente tan célebre en los escritos de Helmhotz. Otros autores han utilizado otros conceptos para referirse a este tipo de explicación, como los de teoría de la toma en consideración (Rock, 1985) o hipótesis de no variación del tamaño y la distancia (Matlin y Foley, 1996). Aunque esta explicación es la que ha conseguido mayor

403

Percepción

consenso, existen algunos hallazgos no explicables desde esta perspectiva. Por ejemplo, Brenner, van Damme y Smeets (1997) presentan unas conclusiones experimentales según las cuales la información cinestésica de la distancia del objeto no mejora los juicios visuales del tamaño del objeto. Algunos autores han propuesto que la proporción entre el tamaño de la imagen retiniana de un objeto y el de otro objeto puede servir de marco de referencia para lograr la constancia del tamaño. De esta forma, la percepción y la constancia del tamaño de un objeto pueden explicarse mediante la razón entre el ángulo visual de un objeto y el ángulo visual de otro objeto. Esta explicación ha recibido varios nombres: teoría de la relación entre estímulos (Rock, 1985), principio de proporcionalidad (Dember y Warm, 1990) y explicación del tamaño relativo (Matlin y Foley, 1996). No podemos olvidar la explicación de la constancia del tamaño que se ofrece desde la perspectiva ecológica. Gibson recurre al concepto de invarianza o invariante, según el cual los aspectos de la percepción, como el tamaño, persisten en el tiempo y en el espacio y no sufren cambios durante ciertas transformaciones como, en el caso de la constancia del tamaño, las variaciones en distancia entre observador y objeto. Por consiguiente, según Gibson, el tamaño es un aspecto inherente al objeto que la percepción capta de forma inmediata y que no varía a pesar de los cambios del estímulo proximal. 3.3

Ilusiones visuales de tamaño y distancia

Nuestra experiencia diaria de la percepción del tamaño está dominada por la constancia del tamaño. Ello es así a causa de que nuestra experiencia suele darse en condiciones en las que existe suficiente información válida sobre la distancia. No obstante, podemos hallar algunas situaciones en que la información perceptiva sobre la profundidad y el tamaño provoque ilusiones perceptivas, en nuestro caso, de distancia y de tamaño. Es decir, situaciones en las que la información perceptiva del evento no correlaciona de forma fiel con la información del exterior. Sin embargo, debemos tener en consideración que las ilusiones visuales forman parte del funcionamiento normal de nuestra visión: todas las personas las perciben de forma ilusoria y, podemos afirmar, que es el coste que debe asumir el sistema visual por el tipo de procedimiento que ejecuta. Es más, los estudiosos de la percepción utilizan las ilusiones para desvelar las claves de funcionamiento del sistema visual. En este apartado no es nuestra intención realizar una exposición exhaustiva de las ilusiones visuales. Simplemente, expondremos, de forma breve, algunos casos de ilusiones de tamaño y la clásica ilusión de la luna. Gregory (1970, 1986), Gregory y Gombrich (1973), y Wade (1990) aportan extensa información sobre las ilusiones visuales.

404

11. Percepción de la profundidad, de la distancia y del tamaño

3.3.1 Ilusiones de longitud y profundidad de líneas Con el concepto de ilusiones de longitud y profundidad de líneas nos referimos a las estimaciones ilusorias sobre el tamaño de los objetos componentes de una configuración estimular, provocadas por una determinada disposición de las líneas constituyentes de dicha configuración. En la Figura 11.12 aparecen algunos ejemplos de este tipo de ilusiones. En la ilusión de Müller-Lyer (a) la línea con puntas de flecha hacia adentro se aprecia más larga que la otra línea, cuando, en realidad, son del mismo tamaño. En la ilusión de Ponzo (b), la caja situada en la parte superior parece de mayor tamaño que la situada en la parte inferior, siendo físicamente las dos cajas iguales, ello es debido a la impresión de profundidad que ocasiona la disposición de las dos líneas laterales, esta ilusión parece depender de los mismos mecanismos subyacentes que el indicio de profundidad de perspectiva lineal. En la ilusión horizontal-vertical (c) la línea vertical parece de mayor longitud que la horizontal, cuando en realidad son iguales. En el paralelogramo de Sander, la línea discontinua de la izquierda parece de mayor lon-

a

c

b

d

Figura 11.12 Ilusiones de longitud de líneas: a) ilusión de Müller-Lyer; b) ilusión de Ponzo; c) ilusión horizontal-vertical; d) paralelogramo de Sander.

405

Percepción

gitud que la línea discontinua de la derecha, siendo ambas de la misma longitud. Se han realizado varias propuestas para la explicación de las ilusiones de longitud y profundidad de líneas. Según la teoría de la constancia mal aplicada estas ilusiones pueden interpretarse como la representación de un espacio tridimensional en uno bidimensional, de forma que la aplicación correcta de los indicios de distancia y de las reglas de la constancia del tamaño provocan el surgimiento de una ilusión (Gregory, 1970; Luo y Wang, 1997). La teoría del movimiento ocular defiende que la explicación radica en el patrón de los movimientos oculares necesarios para inspeccionar la configuración estimular: por ejemplo, en la ilusión de Müller-Lyer existiría un mayor recorrido ocular en la inspección de la línea con puntas de flecha hacia adentro que en la inspección de la otra línea (Coren, 1981). Para un mayor conocimiento sobre los modelos explicativos de este tipo de ilusiones consúltese alguno de los siguientes textos: Gregory (1970), Gillam (1980), Matley y Foley (1995) o Higashiyama (1996). 3.3.2 Ilusiones de la magnitud de áreas En las ilusiones de tamaño y de distancia, además de las que involucran la longitud y la profundidad de líneas, existen otros tipos de ilusiones, como pueden ser las relacionadas con la apreciación de áreas. La habitación de Ames es la más clásica de este segundo tipo de ilusiones. Para conseguir esta ilusión se construye una habitación que, desde el punto de vista del observador, parece cuadrada, aunque, realmente, el vértice de la izquierda del observador se halla a mayor distancia que el derecho; ello se consigue manipulando algunas claves de profundidad (el tamaño relativo de los objetos que componen la habitación, la perspectiva lineal de los lados superiores e inferiores de ventanas y paredes, el gradiente de textura del suelo, etc.). Entonces una persona se coloca en el vértice izquierdo y otra en el derecho; el observador, al creer que se hallan a la misma distancia absoluta, estima que la persona del vértice izquierdo es mucho mayor que la del derecho, ya que basa su juicio, única y exclusivamente, en el ángulo visual que ocupan las imágenes de ambas personas en su retina. En este tipo de ilusiones podemos encontrar aquellas en las que la comparación de dos magnitudes de sendas áreas se ve influida por el entorno que rodea dichas áreas. En la ilusión de Delboeuf se compara la magnitud de dos círculos de área idéntica: uno (a) rodeado por un círculo mayor que éste, mientras en el otro (b) se halla un círculo menor en su interior; el área de (b) parecerá mayor que el área de (a).

406

11. Percepción de la profundidad, de la distancia y del tamaño

3.3.3 La ilusión de la luna La ilusión de la luna consiste en la percepción de un mayor tamaño de la luna cuando se halla cerca del horizonte que cuando está situada en el cenit. Según algunos estudios, la luna se percibe un 30 por ciento mayor en una condición que en otra. El ángulo visual que ocupa la imagen de la luna en nuestra retina es el mismo en ambos casos, por lo que, la explicación no puede provenir de la ley del ángulo visual. Desde la Antigüedad se ha intentado hallar una explicación a este fenómeno y, por este motivo, son numerosas las aportaciones en este sentido. Hershenson (1989) presenta una compilación de posibles explicaciones al fenómeno de la ilusión de la luna. La propuesta que, en la actualidad, tiene mayor aceptación es la teoría de la distancia aparente; esta explicación parte del supuesto de que un objeto contemplado cerca del horizonte da la impresión de mayor lejanía que otro situado en el cenit. Ello es debido a que, en el caso de la luna situada cerca del horizonte, se visualiza una configuración en la que existe un espacio poblado de objetos en el recorrido entre el observador y la luna. En cambio, cuando se halla en el cenit no suele aparecer ningún otro objeto en la configuración que se contempla y este hecho provoca una apariencia de menor distancia entre el observador y la luna. Por tanto, ya que en las dos situaciones la luna ocupa el mismo ángulo visual y en el horizonte se percibe más alejada, aplicando la ley de Emmert obtendremos que la luna situada cerca del horizonte se percibe más grande que cuando se ubica en el cenit.

Bibliografía comentada La obra de Bruce y Green (1990) Percepción Visual se halla traducida al castellano. En ella podemos hallar una breve exposición de los indicios de profundidad y, lo que es más interesante, un buen resumen de los modelos explicativos de la estereopsis y, en concreto, de la fusión visual. En la misma línea, Frisby (1979) nos presenta un adecuado compendio de los modelos explicativos de fusión visual y un gran número de ejemplos de anaglifos y estereogramas. Goldstein (1984), además de exponer, de forma breve, los distintos indicios de profundidad, presenta un adecuado resumen de la perspectiva ecológica de Gibson en el tema de la percepción de la distancia y la profundidad. También aparece un capítulo dedicado exclusivamente a las constancias perceptuales. La obra de Matlin y Foley (1995), es una adecuada referencia, tanto para la comprensión de la percepción de la profundidad como para la de la percepción del tamaño. No obstante, debe destacarse, fundamentalmente, por su exposición de los conocimientos sobre la constancia del tamaño y sobre el estudio de las ilusiones visuales. La obra de Rock (1985), tiene dos capítulos de destacable interés para la materia tratada. En el capítulo «Múltiples caminos llevan a la tercera dimensión» se rea-

407

Percepción liza una buena exposición de las principales claves de profundidad, así como del origen de la percepción de la profundidad. En el capítulo «Ilusiones geométricas» se realiza una brillante exposición de las principales ilusiones visuales estudiadas en el ámbito de la psicología. En general, la obras de Gregory (1970, 1973, 1986, entre otras) son un buen referente para el estudio de las ilusiones visuales asociadas al tamaño y a la distancia, aunque ninguna de ellas ha sido traducida al castellano. En la misma línea, podemos hallar la obra de Wade (1990) con gran cantidad de ejemplos de ilusiones visuales.

Preguntas de revisión 1. En este caso se propone un ejercicio que consiste en la aplicación de los conocimientos expuestos anteriormente. En concreto, a partir de los avances sobre estereopsis realizados por Julesz (1971), el lector debe configurar un estereograma de puntos aleatorios, de forma que la observación del mismo, en las condiciones pertinentes, provoque la percepción de un círculo que realce sobre el fondo. Como alternativas a la figura a realzar podemos ofrecer las de un triángulo, un rombo o el de una línea de medio centímetro de grosor. 2. En la vida cotidiana hacemos uso de los indicios pictóricos de profundidad, si bien su denominación proviene del campo de la pintura y del dibujo. La tarea de este ejercicio es conseguir una reproducción de un dibujo, de una pintura o de una foto en la que podamos hallar los siete indicios pictóricos expuestos anteriormente. Esta reproducción se debe acompañar de un comentario donde se ejemplifique cada uno de los indicios, a partir del contenido de la reproducción. 3. Se sitúa un objeto (a) de 30 centímetros de altura a 3 metros del observador y otro objeto (b) de 40 centímetros a 4,5 metros del observador: ¿cuál de los dos ocupa un mayor tamaño retiniano en altura? A continuación, el observador estima correctamente la distancia del objeto (a), pero yerra en la estimación del objeto (b), situándolo a una distancia de 337 centímetros: ¿qué conclusión extraerá el observador sobre los tamaños percibidos de ambos objetos? 4. La teoría de la distancia aparente es la propuesta que mayor consenso ha conseguido en la búsqueda de explicaciones para la ilusión de la luna. La tarea, en esta pregunta, es la de hallar una ilusión similar en cuanto pueda ser explicada por la teoría de la distancia aparente, e in-

408

11. Percepción de la profundidad, de la distancia y del tamaño

tentar comentar y describir el fenómeno hallado. Una ligera pista se puede obtener en la observación de barcos situados en el mar, a través de las calles de la ciudad, para aquellos que habiten en la costa, o en la visualización de montañas a través de las calles para aquellos que las puedan observar desde su localidad. 5. «Lena saltaba y oscilaba al ritmo de la calesa, pero aquello carecía de importancia nada a fin de cuentas tenía importancia en aquel lento desaparecer que es un viaje en calesa. Yo estaba absorbido por algo más, un algo incorpóreo, formado por la relación entre la velocidad con la que desaparecían los objetos más próximos y la más lenta de los objetos más distantes, así somos por la inmóvil presencia de aquellos situados a gran distancia... eso dominaba mi atención.» ( W. Gombrowicz, Cosmos, p. 131). En el fragmento anterior se describe un fenómeno que se ha tratado durante la exposición del capítulo: ¿cuál es este fenómeno? Además, el lector debe comentar el fragmento anterior a partir de la utilidad perceptiva señalada en el capítulo. También deben incorporarse esquemas gráficos que ejemplifiquen los fundamentos geométricos de este fenómeno. 6. Elabora un par de anaglifos con el objetivo de percibir una cruz, u otro objeto simple, en relieve. Puede realizarse con el par de colores opuestos rojo-verde o con el par amarillo-azul. Para construir las gafas pertinentes puedes utilizar papeles transparentes de colores. 7. Diseña una situación experimental para poder evaluar la importancia de la acomodación del cristalino como indicio de profundidad. Para ello, debes evitar la influencia del resto de claves de profundidad.

409

12. Percepción del movimiento Enric Munar i Roca y Jaume Rosselló Mir

En este capítulo se exponen los conocimientos más relevantes sobre la percepción del movimiento. Tras la introducción al tema, se desarrolla en el segundo apartado una conceptualización sumaria de la terminología fundamental, ofreciendo al lector algunos valores psicofísicos de interés para la percepción de movimiento real. El tercer apartado trata sobre el movimiento ilusorio, a menudo referido como movimiento aparente. Siguiendo los cánones clasificatorios tradicionalmente aceptados, se describen los cuatro tipos de ilusión del movimiento: movimiento estroboscópico, movimiento inducido, movimiento autocinético y postefectos de movimiento. A continuación, se exponen las principales perspectivas de estudio de la percepción visual del movimiento. En primer lugar, se describen los postulados básicos de la aproximación ecológica, desarrollada a partir de la aproximación de Gibson. En segundo lugar, la perspectiva computacional nos introduce a la forma en que se elabora la información de movimiento para culminar en un percepto. Finalmente, se ofrece una panorámica de los resultados que, obtenidos desde la aproximación de las neurociencias, introducirán al lector a la forma en que cooperan distintas regiones de nuestro cerebro para que podamos ver el movimiento. El quinto apartado se dedica a la percepción auditiva del movimiento, a menudo subestimada, pero que, sin duda, ha generado un cuerpo de conocimientos de inestimable valor. Como en el caso de la modalidad visual, hemos creído conveniente dividir este apartado tratando en primer lugar los contenidos de carácter psicofísico, para profundizar finalmente en su base neural.

411

Percepción

1.

Introducción

Movimiento es una palabra muy utilizada en nuestro vocabulario cotidiano. Esto se debe, en parte, a la gran cantidad de acepciones que presenta. Concretamente, en el Diccionario de la lengua española, de la Real Academia, podemos hallar hasta catorce. La primera de ellas define que movimiento es «acción y efecto de mover o moverse» (p. 1410). Si, por extensión, atendemos al significado del verbo mover podemos hallar la siguiente definición: «hacer que un cuerpo deje el lugar o espacio que ocupa y pase a ocupar otro» (p. 1409). En este marco, podemos introducir el concepto de percepción del movimiento y definirlo como la capacidad cognitiva que posee un organismo que le permite captar, de forma inmediata, el cambio de lugar de un objeto o de un cuerpo y, a la vez, aprehender algunos atributos relacionados con este cambio (velocidad, dirección, etc.). Resulta sorprendente la ingente cantidad de investigaciones que, desde la psicología evolutiva, incorporan el movimiento en sus tareas experimentales para examinar otras habilidades (por ejemplo, la permanencia del objeto), dando por sentada, incluso en el recién nacido, una buena capacidad para percibir movimiento (Nelson y Horowitz, 1987). Esta importancia otorgada a la percepción del movimiento en el estudio del desarrollo ontogenético puede ser explicada desde diversas perspectivas. Una de ellas afirmaría que el desarrollo de un número importante de funciones perceptivas (visuales, auditivas y táctiles) depende de una adecuada estimulación ambiental basada en el movimiento, de forma que la sensibilidad a la percepción del movimiento se halla presente a partir del nacimiento, requiriendo tan sólo de una mínima facilitación. El sistema nervioso de los mamíferos parece tener preinstalada la percepción del movimiento. Algunos autores han sugerido que esta predisposición biológica puede ser adaptativa para el neonato, en el sentido de que responder a un objeto en movimiento puede ser más importante que saber exactamente qué es lo que se mueve (Sekuler, 1975). Por tanto, la percepción del movimiento parece ser una habilidad fundamental en los recién nacidos. Desde el punto de vista filogenético, Sekuler (1975) comenta que, durante la evolución, es posible que la percepción del movimiento fuera moldeada por presiones selectivas más fuertes y directas que las que determinaban otros aspectos de la visión. De esta forma, es más importante responder rápidamente a un objeto que ha sido arrojado en nuestra dirección que identificar qué objeto es. Este mismo autor señala que, después de una lesión cerebral que causa pérdidas temporales de las funciones visuales, la primera función que se recupera es la percepción del movimiento (véase el apartado 4.3.1, para una mejor compresión de los mecanismos neurales que pueden dar cuenta de este hecho). Walls (1963) indica que la visión humana es un complejo de abundantes y ricas experiencias, y que el ser humano se ha diversificado tanto en inte-

412

12. Percepción del movimiento

reses y hábitos que pocos individuos valoran del mismo modo su capacidad de ver. Según Walls, si preguntásemos a un relojero, éste destacaría la precisión; un astrónomo enfatizaría la sensibilidad; un pintor, posiblemente, daría más importancia al color. «Pero si preguntáramos a los animales que inventaron el ojo del vertebrado, los cuales mantienen la patente sobre la mayoría de los rasgos del modelo humano, el registro visual de movimiento sería el de mayor importancia.» (Walls, 1963, p. 342). Dada la relevancia de la aprehensión de movimiento para nuestro sistema perceptivo, pensamos que vale la pena exponer por separado las dos grandes categorías de percepción del movimiento tradicionalmente descritas. La primera categoría se refiere a la percepción de movimiento real, es decir, en este caso la percepción del movimiento se basa en el desplazamiento de un objeto de un lugar a otro en el mundo físico. En otros términos, podemos hablar de percepción verídica del movimiento, concepto según el cual la información adquirida a través de una modalidad perceptiva es consistente con la información adquirida a través de otros canales perceptivos o cognitivos, y puede ser contrastada por la acción (Kolers, 1972). En la segunda categoría, la percepción del movimiento no se corresponde a un desplazamiento real de un objeto, sino que viene determinada por unas características situacionales o contextuales que provocan movimiento aparente sin que exista movimiento en el mundo físico: es el caso de la ilusión de movimiento.

2.

Percepción del movimiento real

No siempre que se produce movimiento físico el sujeto percibe movimiento. Por ejemplo, sabemos que las agujas del reloj se mueven, deducción a la que podemos llegar tras observar que, en un momento dado, el minutero está sobre las nueve, mientras al cabo de quince minutos se encuentra sobre las doce. En cambio, podemos no percibir directamente el movimiento de esa aguja, y mucho menos el de la que marca las horas. A menudo, percibir o no movimiento depende de una serie de variables no siempre tan obvias como las que intervienen en el caso de las agujas del reloj. Los investigadores de la percepción del movimiento han considerado pertinente determinar qué parámetros psicofísicos intervienen en la percepción de movimiento y cuáles son los valores que han de tomar dichos parámetros para provocarla. El umbral de velocidad de detección de movimiento es, posiblemente, el parámetro psicofísico más destacado, y se define como la velocidad mínima a la que un objeto debe desplazarse para que un observador detecte movimiento. Aubert (1886) comprobó que la velocidad mínima para detectar una línea en movimiento es de 10 a 20 minutos de arco visual por segundo (‘/s). Sin embargo, si se coloca un marco de referencia —por ejemplo un

413

Percepción

rectángulo que encuadre el punto inicial y el punto final de desplazamiento—, el umbral desciende a 1 o 2 ‘/s (véase Figura 12.1). Por tanto, se puede afirmar que el umbral de velocidad de detección de movimiento varía según el entorno del objeto. Un marco de referencia como el anteriormente descrito también influye en la apreciación de la aceleración, de forma que un objeto que se acerca a una velocidad constante a uno de los lados del rectángulo parece aumentar su velocidad a medida que se halla más cerca de éste (Brown, 1931a).

aa

bb

cc Figura 12.1 El umbral de velocidad de detección de movimiento es mucho mayor en la situación a que en la b o en la c.

El marco de referencia no es el único factor que influye en el valor del umbral de velocidad de detección de movimiento. Veamos algunos ejemplos. En primer lugar, el umbral no se ve afectado por la presencia de marcos de referencia con estímulos de breve duración (250 milisegundos), pero sí con presentaciones más largas (Leibowitz, 1955). Por otra parte, el umbral disminuye con un aumento de luminancia (Leibowitz, 1955). También resulta más fácil detectar movimiento en el centro del campo visual cuando no hay movimiento en la periferia que cuando lo hay (Mundt, 1988). Asimismo, el conocimiento sobre la dirección en que se moverán los estímulos influye también en los valores del umbral: si se conoce la dirección del movimiento se obtendrán umbrales menores (Matlin y Foley, 1980). Otra variable de importancia en la percepción del movimiento es la relación entre el tamaño del objeto y el marco de referencia en el cual se mueve. El efecto de transposición de velocidad surge del fenómeno subyacente a esta relación. La transposición de velocidad muestra que es posible percibir como iguales dos velocidades diferentes en objetos de distinto tamaño, a pesar de que la velocidad de uno de ellos sea mayor que la del otro. Esto se debe a dos factores: el tamaño de los objetos y los marcos de referencia.

414

12. Percepción del movimiento

Brown (1931b) pidió a los sujetos que igualasen la velocidad de un punto de gran tamaño que se movía a través de un rectángulo grande a la de un punto diminuto que se movía a través de un rectángulo menor (véase Figura 12.2). Los resultados demostraron que, cuando el primer rectángulo era diez veces más grande que el otro, el punto mayor tenía que moverse siete veces más deprisa que el pequeño para conseguir la misma velocidad aparente. Este fenómeno tiene importantes implicaciones para la proyección de material cinematográfico (Goldstein, 1988).

Figura 12.2 Transposición de velocidad: para que ambos estímulos se perciban a la misma velocidad, el círculo grande deberá moverse más deprisa que el pequeño.

La constancia de la velocidad es otro efecto relevante, según el cual, en determinadas circunstancias, un aumento de velocidad retiniana (velocidad a la que se van activando los receptores retinianos) no se corresponde con un aumento de velocidad percibida. Más concretamente, podemos decir que si mantenemos la velocidad constante de un objeto que se desplaza de derecha a izquierda y nos vamos alejando de este objeto, la velocidad percibida seguirá siendo la misma, a pesar de que el distanciamiento haya provocado un descenso notable en la velocidad angular a la que se desplaza el objeto a través del campo visual y, por consiguiente, en la velocidad a la que se desplaza su imagen en nuestra retina. La falta de correlación entre la velocidad percibida y la velocidad retiniana también se produce cuando seguimos con nuestra mirada un objeto en movimiento. Aunque mantengamos la representación del objeto en la misma zona retiniana, percibimos movimiento del objeto en cuestión (véase el apartado 4.3.2 para conocer los posibles mecanismos neurales que explican este fenómeno). Resulta evidente que la percepción del movimiento no depende exclusivamente de la existencia de movimiento en la representación retiniana del objeto. Un enfoque de gran poder heurístico es el que recoge Mack (1986), distinguiendo entre claves de movimiento relativo y claves de movimiento absoluto. Las primeras, también llamadas claves exo-

415

Percepción

céntricas, percepciones configuracionales o claves relativas al objeto, dependen totalmente de la información retiniana y nos dan información del desplazamiento de un objeto en relación con otro o con el fondo. Sin embargo, estas claves no nos informan de qué objeto se mueve: el desplazamiento relativo entre dos objetos puede ser producto del movimiento de cualquiera de los dos o de ambos. En cambio, las claves de movimiento absoluto, también llamadas claves relativas al sujeto o egocéntricas, dependen de la comparación entre las claves retinianas y las extrarretinianas (p.ej., el movimiento de los ojos o de la cabeza) y pueden ayudarnos a solucionar esa ambigüedad. Normalmente, ambos tipos de claves coinciden. Sin embargo, en el caso de conflicto, cabe destacar que son las relativas (al objeto) las que predominan, determinando nuestra percepción del movimiento (Mack, 1986) (véase apartado 4.3, para las bases neurales del procesamiento de esas claves).

3.

Ilusiones de movimiento o movimiento aparente

Puede resultar paradójico que en un gran número de investigaciones sobre el estudio de la percepción del movimiento se hayan utilizado estímulos estáticos (Rechea, 1992; Perrott y Strybel, 1997). Para hablar del fenómeno subyacente a la percepción de movimiento en condiciones estáticas es frecuente recurrir al término de movimiento aparente (Kolers, 1972; Rechea, 1992; Perrott y Strybel, 1997). Sin embargo, consideramos que este término puede llevar a engaño, ya que también se produce movimiento aparente en la mayoría de situaciones en las que existe movimiento real, aunque hay que tener en cuenta que el constructo se acuñó con la intención de referirse a la percepción de movimiento que no fuera causada por un movimiento real del objeto. De todas formas, creemos que puede ser más adecuado utilizar el término ilusión de movimiento o movimiento ilusorio para referirnos a aquella percepción de movimiento provocada por una combinación determinada de estímulos estáticos. Veamos ahora cuáles son los principales tipos de movimiento ilusorio. 3.1

Movimiento estroboscópico

El concepto de movimiento estroboscópico hace referencia a la ilusión de movimiento producida mediante un patrón rápido de estimulación sobre distintas partes de la retina, a partir de una distribución espaciotemporal específica de estímulos estáticos. La primera investigación sistemática sobre movimiento ilusorio la llevó a cabo Exner (1875), que demostró que dos objetos estáticos que emiten destellos, si se colocan de forma adecuada y se procura a la emisión lumínica cierto patrón temporal, se perciben como un

416

12. Percepción del movimiento

objeto en movimiento. Exner utilizó dos fuentes eléctricas productoras de destellos colocadas una al lado de otra, y fue variando el intervalo temporal entre los dos destellos. Los sujetos percibían movimiento cuando el intervalo temporal entre los dos destellos era, como mínimo, de 14 ms (movimiento óptimo o β). En cambio, cuando la separación temporal disminuía a aproximadamente 10 ms, los sujetos tenían la impresión de ver dos destellos de forma simultánea (simultaneidad), mientras que si aumentaba lo suficiente, el sujeto sólo percibía una sucesión de destellos (sucesión). Treinta y cinco años más tarde, Wertheimer iniciaba sus trabajos en este ámbito. Entretanto, se habían inventado las cámaras y los proyectores de películas en movimiento. Wertheimer (1912) llevó a cabo un estudio mucho más sistemático, en el que manipuló fundamentalmente los parámetros espaciales y temporales, obteniendo algunos resultados ligeramente diferentes a los obtenidos por Exner. Sus experimentos revelaron que las tres etapas descritas por su antecesor (movimiento óptimo, simultaneidad y sucesión) podían complementarse con la inclusión de los llamados movimiento parcial y movimiento φ (fi). El movimiento parcial se caracteriza por un movimiento ilusorio del primer destello hacia el centro, movimiento que desaparece antes de llegar a este punto medio, y por la aparición del segundo destello desplazado hacia el centro y moviéndose aparentemente hasta el lugar donde efectivamente se había producido (véase Figura 12.3). El movimiento φ o movimiento puro puede describirse como una impresión de movimiento sin percepción concomitante de objetos moviéndose; la analogía en términos físicos podría basarse en el fenómeno que se da cuando un objeto aparece en un lugar, reaparece en otro, y se mueve lo suficientemente rápido entre esos dos lugares para que únicamente se pueda captar su movimiento (de ahí, el nombre de movimiento puro) y no, por ejemplo, los detalles de su forma. Este fenómeno fue precisamente la base del famoso trabajo que publicó Wertheimer en 1912, que llevaba por título El estudio experimental del sentido del movimiento, y que supuso un hito histórico en la psicología científica al considerarse el punto de partida de la psicología de la Gestalt y representar la ruptura definitiva con la tradición estructuralista de Wundt. Algunos años más tarde, Korte (1915) establecía los principios del movimiento estroboscópico que posteriormente se denominarían las leyes de Korte. Este autor midió cuidadosamente las condiciones espaciales y temporales necesarias para crear este tipo de ilusión de movimiento. Durante muchos años, estas leyes han sido supuestos básicos en el estudio de la percepción del movimiento, pero, actualmente, debemos tomarlas como generalidades que adolecen de ciertas limitaciones. Las tres leyes de Korte son: 1) Con un intervalo interestimular (ISI) fijo, la separación espacial de las fuentes productoras de destellos (S) debe variar de forma directamente proporcional a la intensidad de los destellos (I), y viceversa.

417

Percepción O Más de 200-300 ms

Sucesión

O

Movimiento φ

O

>O

Entre 60 y 200 ms

Movimiento óptimo β

O

>O

40-60 ms aproximad.

Movimiento parcial

O

>O

Entre 20 y 40 ms

Simultaneidad

O

>

O Menos de 20 ms

Figura 12.3 Diferentes situaciones en las que se produce el movimiento estroboscópico (movimiento φ, movimiento óptimo, y movimiento parcial).

2) Con una separación espacial fija (S), el intervalo interestimular (ISI) debe ser inversamente proporcional a la intensidad de los destellos (I) y viceversa. 3) Con una intensidad fija (I), la separación espacial (S) y el intervalo interestimular (ISI) deben variar de forma directamente proporcional. El movimiento estroboscópico también se puede dar en disposiciones estimulares complejas, aunque bajo ciertas condiciones específicas. Ternus (1926) realizó un experimento en el que demostró que la naturaleza del movimiento estroboscópico dependía de la configuración global del estímulo (correspondencia global). Colocó dos luces, que llamaremos 2 y 3, y las encendió simultáneamente dos veces con un intervalo temporal determinado, comprobando que no existía percepción de movimiento. A continuación, situó dos luces más, la 1 y la 4, formando la distribución 1-2-3-4. Con esta disposición, primero encendió simultáneamente las luces 1, 2 y 3; luego las 2, 3 y 4: ahora sí se daba ilusión de movimiento. Tanto en la primera oca