Solias Aris - Metodos Formales En Lingüistica.pdf

  • Uploaded by: abi moca
  • 0
  • 0
  • January 2021
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Solias Aris - Metodos Formales En Lingüistica.pdf as PDF for free.

More details

  • Words: 80,028
  • Pages: 246
Loading documents preview...
Métodos formales en Lingüística

PROYECTO EDITORIAL CLAVES DE LA LINGÜÍSTICA PROYECTO EDITORIAL

PSICOLOGÍA. MANUALES PRÁCTICOS Director: Juan Carlos Moreno Cabrera

Directores: Manuel Maceiras Fafián Juan Manuel Navarro Cordón Ramón Rodríguez García

Métodos formales en Lingüística Teresa Solías

Consulte nuestra página web: www.sintesis.com En ella encontrará el catálogo completo y comentado

“Este documento se ha realizado con la Ayuda Financiera de la Unión Europea. El contenido de este documento es responsabilidad exclusiva de sus autores y en modo alguno debe considerarse que refleja la posición de la Unión Europea”

Reservados todos los derechos. Está prohibido, bajo las sanciones penales y el resarcimiento civil previstos en las leyes, reproducir, registrar o transmitir esta publicación, íntegra o parcialmente, por cualquier sistema de recuperación y por cualquier medio, sea mecánico, electrónico, magnético, electroóptico, por fotocopia o por cualquier otro, sin la autorización previa por escrito de Editorial Síntesis, S. A. © Teresa Solías © EDITORIAL SÍNTESIS, S. A. Vallehermoso, 34. 28015 Madrid Teléfono 91 593 20 98 http://www.sintesis.com ISBN: 978-84-907707-4-0 ISBN: 978-84-907763-5-3 Depósito Legal: M. 2.119-2015 Impreso en España - Printed in Spain

1 Índice

Preámbulo .........................................................................................................

1. Fundamentos del estudio formal de las lenguas

7

...............................

11

1.1. Parámetros sobre el objeto de estudio .................................................... 1.1.1. La lingüística teórico-descriptiva frente a la lingüística prescriptiva ......................................................... 1.1.2. El estudio del código y de su pragmática .................................... 1.1.3. Sociolingüística y análisis del discurso ........................................ 1.1.4. Psicolingüística .......................................................................... 1.1.5. Lingüística computacional ......................................................... 1.1.6. Universales y tipologías .............................................................. 1.2. Parámetros sobre la metodología de la formalización ............................. 1.2.1. Clasificaciones frente a procesos ................................................. 1.2.2. Forma frente a función .............................................................. 1.2.3. Sintacticismo frente a lexicalismo ............................................... 1.2.4. Procesamiento serial o paralelo ..................................................

13

2. Las Gramáticas Formales 2.1. 2.2. 2.3. 2.4.

13 16 17 20 24 26 29 29 33 37 39

.....................................................................

43

Gramáticas de tipo 0 o Irrestrictas ......................................................... Gramáticas de tipo 1 o Dependientes del Contexto .............................. Gramáticas de tipo 2 o Independientes del Contexto ............................ Gramáticas de tipo 3 o Regulares ..........................................................

52 63 72 90

5

Métodos formales en Lingüística

3. Aplicaciones de las Gramáticas Formales

y de las matrices de rasgos .....................................................................

3.1. 3.2. 3.3. 3.4. 3.5

95

Representación gráfica: árboles y corchetes etiquetados ......................... Gramáticas Dependientes del Contexto: las reglas fonológicas .............. Gramáticas Independientes del Contexto: las reglas sintácticas .............. Matrices de rasgos y Gramáticas de Unificación .................................... Representación del Discurso y Representación del Conocimiento .........

96 106 113 123 138

4. Extensiones de las Gramáticas Formales ............................................

145

4.1. Grados de adecuación de las gramáticas ................................................ 4.2. Evolución de las Gramáticas de Constituyentes ..................................... 4.3. Más allá de las Gramáticas de Constituyentes .......................................

146 159 183

5. Funciones ..................................................................................................

201

5.1. Funciones entre predicados, constantes y variables. La composicionalidad ........................................................................... 5.2. Gramáticas funtor-argumento: la Gramática Categorial ........................ 5.3. Operador Lambda: la alteración en el orden básico de constituyentes ... 5.4. Aplicaciones lingüísticas de la composición de funciones ......................

202 211 221 228

Bibliografía .......................................................................................................

241

6

Preámbulo

Este libro introduce algunos de los métodos formales más utilizados en la lingüística teórica actual. Un método formal provee un procedimiento para la descripción, el análisis o la explicación de los fenómenos a través de modelos lógico-matemáticos. No todas las ramas de la lingüística son susceptibles de ser estudiadas mediante métodos formales. En líneas generales, dentro de la complejidad que entraña, es más sencillo formalizar el código que el uso contextual y social que se hace de él. Por ese motivo los métodos formales son poco utilizados en el estudio de la Pragmática y la Sociolingüística, por ejemplo. Para este tipo de disciplinas es más común utilizar métodos cuantitativos, esencialmente basados en la estadística. También hay ramas que presentan un sesgo claramente prescriptivo. En cambio, los métodos formales son especialmente útiles para la formulación de teorías que intenten formular leyes generales sobre la caracterización y el funcionamiento de los fenómenos lingüísticos. En este libro no se desarrollarán los pormenores de ninguna teoría lingüística, sino que nos limitaremos a exponer algunos de los principios básicos que las fundamentan y algunos de los procedimientos formales más utilizados para su formulación. Los capítulos del presente libro estarán dedicados a la exposición de diversos métodos formales y se ejemplificarán a través de algunas de las aplicaciones más conocidas en diversas teorías lingüísticas. Esperamos que, gracias a ello, el lector pueda identificar otras muchas aplicaciones en el futuro al estudiar el quehacer de los lingüistas o, incluso, pueda aplicar tales métodos formales a otros ámbitos de la investigación lingüística. El libro consta de cinco capítulos y de una bibliografía escueta, siguiendo las normas editoriales para esta colección. El primer capítulo es una introducción a los principales parámetros que determinan el estudio formal de las lenguas. Consta de dos grandes apartados en los que se expondrán, por un lado, las características y distinciones que se producen entre las ramas de la lingüística determinadas por las diferentes elecciones en cuanto al objeto de investigación y los métodos formales 7

Métodos formales en Lingüística

que les son propios y, por otro, los que tienen que ver con los parámetros que caracterizan las propias teorías gramaticales en cuanto a cómo abordan el estudio del objeto de investigación y cómo esto determina los métodos formales utilizados. En el segundo capítulo se presentará el concepto de Gramática Generativa y se expondrán con detenimiento los tipos de Gramáticas Formales que componen la denominada jerarquía Chomsky. En el tercer capítulo se expondrán aplicaciones de diferentes tipos de Gramáticas Formales al análisis lingüístico, en particular a la fonología y a la sintaxis. También se introducirán las matrices de rasgos, que es un mecanismo formal que no solo ha dotado a las Gramáticas Formales de un gran poder expresivo, sino que ha determinado su desarrollo en las últimas décadas. Por último, se tratarán algunas aplicaciones de ciertas variedades de matrices de rasgos para la Representación del Discurso y la Representación del Conocimiento. En el cuarto capítulo se muestran algunas de las evoluciones que han sufrido las Gramáticas Sintagmáticas y, en especial, se tratarán algunos de los mecanismos formales que se han introducido en tales gramáticas para tratar adecuadamente los fenómenos lingüísticos que transgreden el orden de constituyentes básico. Como ya se habrá ido desarrollando en los capítulos 2 y 3, las Gramáticas Sintagmáticas (que corresponden a un subconjunto de las Gramáticas de tipo 2 de la jerarquía de Chomsky, también denominadas Gramáticas Independientes del Contexto) son apropiadas para dar cuenta de los fenómenos lingüísticos que siguen el orden no marcado de constituyentes, pero para todas aquellas construcciones en las que el orden argumental básico está alterado de alguna manera, tales gramáticas son inapropiadas desde el punto de vista de descripción y explicación lingüística. Por ello, se han añadido una serie de mecanismos formales de mayor o menor complejidad formal que nos permitirán analizar tales fenómenos lingüísticos. La exposición comparativa de tales recursos formales es especialmente interesante. Por último, en el quinto capítulo se exponen los procedimientos formales que se basan esencialmente en funciones matemáticas, aunque hay que reconocer que todos los métodos formales pueden reducirse a definiciones en términos de conjuntos y funciones. En este capítulo incluiremos explicaciones básicas sobre tipos de funciones, su aplicación a la sintaxis a través de la Gramática Categorial básica, el principio de composicionalidad semántica, el operador Lambda y las composiciones de funciones, tanto aplicadas a las matrices de rasgos como a la Gramática Categorial. La aplicación de la Composición de Funciones, combinada con otra operación que se denomina Elevación de Tipo, permite a la Gramática Categorial Combinatoria dar cuenta de estructuras lingüísticas que transgreden el orden lineal de constituyentes, como sucede con las construcciones sintácticas con dependencias cruzadas. 8

Preámbulo

No quisiera finalizar este preámbulo sin agradecer a algunas personas su inestimable apoyo y ayuda en el proceso de elaboración de este libro. Ante todo a Juan Carlos Moreno Cabrera, por la confianza intelectual que me ha mostrado al ofrecerme este proyecto en el que he podido prospectar y expresar ideas forjadas en mis últimos treinta años de estudio. A Emilio Ridruejo Alonso, quien siempre me ha apoyado a pesar de no compartir mis puntos de vista formales sobre la teoría gramatical. A María Luisa González Díaz, Lis, a Juan Barba Escribá y a Fernando Calderón Quindós por revisar partes del borrador de una manera tan profesional, también por su amistad y por su afecto, naturalmente todos los errores que puedan encontrarse son de mi responsabilidad. A mis compañeros del Proyecto de investigación del Ministerio de Economía y Competitividad nº FFI2012-33881 María Caamaño Alegre, Cristina Corredor Llanas y, de nuevo, Juan Barba Escribá, por todas las sesiones de discusión científica en las que he profundizado en el conocimiento de los métodos formales en Lingüística. Es un privilegio poder formar parte de un grupo de investigadores de tanto rigor y categoría intelectual. A Juan y a Iris porque no habría manera ni formal ni informal de agradecerles todo lo que me han ayudado.

9

1

Fundamentos del estudio formal de las lenguas

El estudio descriptivo, teórico y explicativo de los fenómenos lingüísticos ha llevado a los lingüistas a introducir métodos formales que ayuden a representar con precisión y claridad las unidades que componen tales fenómenos, sus interrelaciones, los procesos que les afectan y la explicación de su funcionamiento. Los métodos de representación utilizados por los lingüistas son muy variados y obedecen a muy diversos objetivos, tanto metodológicos como ontológicos. Asimismo, cada nivel de análisis lingüístico (fonética, fonología, morfología, sintaxis, semántica y pragmática) ha concretado los métodos de representación de la información en un sentido o en otro pero, como veremos en este libro, los métodos de representación formal se pueden cifrar en varias líneas generales, como las gramáticas formales, las matrices de rasgos y, en general, el álgebra, la teoría de conjuntos, la lógica, las funciones y los sistemas deductivos. Los métodos formales que se usan actualmente en lingüística dependen esencialmente de dos cuestiones: por un lado, del objeto de investigación mismo y, por otro, de las características de la teoría lingüística que se adopte para llevar a cabo su estudio. En este capítulo presentaremos los principales campos de estudio de la lingüística con los métodos formales que les son más característicos y abordaremos los parámetros fundamentales que caracterizan las principales aproximaciones teóricas al estudio de las lenguas humanas. Tales parámetros generales han ido variando con el objeto de ampliar y profundizar el tratamiento de aspectos cada vez más diversos de las lenguas humanas. Los puntos de vista y los métodos formales con los que las teorías lingüísticas abordan el estudio del lenguaje se han ido enriqueciendo a medida que se han ampliado los campos de investigación y ha ido aumentando el número de investigado11

Métodos formales en Lingüística

res que se han dedicado a su estudio. Efectivamente, las teorías lingüísticas han sufrido grandes cambios desde mediados del siglo XX hasta la actualidad. En primer lugar se han producido intensas discusiones en torno al propio objeto de investigación, con la voluntad de delimitarlo y definirlo. Esto ha dado lugar a grandes escisiones entre los lingüistas sobre qué es lo que hay que estudiar, existiendo en la actualidad una gran diversidad de ramas de la lingüística que no existían a principios del siglo XX (como por ejemplo, la psicolingüística, la pragmática, el análisis del discurso o la sociolingüística). Por otra parte se aprecia una gran evolución en los mecanismos teóricos y en las herramientas formales que se proponen para estudiar el objeto de investigación elegido por cada modelo. Desde este segundo punto de vista, lo que se diversifica y evoluciona es cómo realizar el estudio lingüístico. Estos cambios se deben esencialmente a una voluntad de ganar en precisión, en unos casos, y en generalidad en otros, pero siempre es el replanteamiento del objeto de investigación y la voluntad de las teorías de dar cuenta de los hechos lingüísticos de manera apropiada lo que ha determinado las grandes reformulaciones en las teorías. Así pues, dos son las grandes causas de los cambios introducidos en los principios y mecanismos teóricos defendidos por las teorías; por un lado, el cambio de enfoque sobre el tipo de fenómenos que deben describirse y explicarse y por otro, el replanteamiento de los mecanismos de análisis con el fin de encontrar las herramientas más adecuadas para estudiar los nuevos problemas planteados o para estudiar los fenómenos lingüísticos con nuevas técnicas formales o desde distintas perspectivas epistemológicas o con metodologías diferentes. Los aspectos que diferencian unas teorías lingüísticas de otras giran en torno a los factores enunciados hasta ahora. Coherentemente se podrían agrupar en dos grandes apartados; por un lado, los que tienen que ver con las diferentes elecciones sobre el objeto de estudio y los métodos formales que les son propios y por otro, los que tienen que ver con los parámetros que caracterizan las teorías gramaticales en cuanto a cómo abordan el estudio del objeto de investigación y cómo esto determina los métodos formales utilizados. El primer apartado está estructurado en seis secciones, cuyo contenido se describe a continuación. Primero trataremos la necesidad de desarrollar métodos formales para realizar descripciones y teorías lingüísticas lo más objetivas posibles a partir del cambio de objeto de investigación, desde la lingüística prescriptiva a la lingüística teóricodescriptiva. En segundo lugar trataremos la dicotomía entre el estudio del código independientemente del contexto frente al estudio de la pragmática de las lenguas en su contexto de uso. En tercer lugar abordaremos el estudio de la sociolingüística y del análisis del discurso. En el cuarto apartado analizaremos la posibilidad de estudiar el proceso de adquisición lingüística y los procedimientos mentales que determinan la producción de las emisiones, de una lengua frente al estudio de tales emisiones inde12

Fundamentos del estudio formal de las lenguas

pendientemente de los procesos cerebrales que las han producido. En quinto apartado abordaremos el objeto de estudio introducido por la inteligencia artificial y en sexto y último apartado trataremos los universales lingüísticos como objeto de investigación frente al estudio de fenómenos lingüísticos aislados. En el segundo apartado de este capítulo presentaremos varios aspectos fundamentales entre los que optan las teorías lingüísticas y que introducen distinciones importantes entre ellas. En primer lugar abordaremos la diferencia entre teorías que se aproximan a los datos con la intención de identificarlos, describirlos y clasificarlos y las que se proponen dar cuenta del funcionamiento de los procesos que los producen. Asimismo trataremos de la distinción que se ha establecido entre las corrientes que estudian el lenguaje basándose estrictamente en la forma sin hacer intervenir criterios funcionales, semánticos o pragmáticos y las que parten de la función comunicativa para realizar el estudio lingüístico. También presentaremos la evolución que han sufrido las teorías lingüísticas, que va desde el enfoque sintacticista de la gramática hasta el enfoque lexicalista que hoy día impera en las corrientes de estudio de los fenómenos lingüísticos. Por último, trataremos el distinto engranaje entre los diferentes niveles de análisis lingüístico o de módulos que presentan los diversos enfoques teóricos que estudian el lenguaje. Por un lado estarán las teorías que aboguen por un procesamiento en paralelo de la información lingüística y por otro, las que postulen un procesamiento serial como mejor forma de articulación de los niveles de información lingüística. Naturalmente, al elenco de temas que vamos a tratar en este capítulo podrían añadirse otros, ya que es imposible ser exhaustivo en una cuestión de semejante envergadura. Simplemente se van a tratar algunos de los aspectos que parece que suscitan más interés entre los lingüistas actuales o que han tenido importancia en la introducción de los métodos formales en la lingüística desde mi punto de vista.

1.1. Parámetros sobre el objeto de estudio Tal y como acabamos de exponer, vamos a dedicar este apartado a presentar los diversos campos de investigación que caracterizan a la lingüística actual y los métodos formales que son determinados por el objeto de investigación elegido.

1.1.1. La lingüística teórico-descriptiva frente a la lingüística prescriptiva Una distinción que se podría considerar preliminar a todo lo que vamos a exponer a lo largo de este libro es la que se da entre lo que se ha denominado lingüística 13

Métodos formales en Lingüística

prescriptiva y la lingüística teórico-descriptiva. Esta distinción es muy importante puesto que la generalización de los estudios lingüísticos desde una óptica teóricodescriptiva ha provocado el gran desarrollo que han experimentado los métodos formales en la lingüística del siglo XX, que pueden remontarse a la lingüística comparativista, pasando por la lingüística estructuralista y funcionalista y extendiéndose de forma generalizada con las gramáticas generativas, tanto chomskianas como postchomskianas. En realidad cuando una persona llega a la universidad con la intención de realizar estudios relacionados con el lenguaje, la formación lingüística que ha recibido mayoritariamente hasta ese momento ha sido prescriptiva y también lo es el punto de vista que muestra una persona culta media. La lingüística prescriptiva se centra en el estudio de la variedad culta de una determinada lengua, en particular en la variedad literaria y formal de un idioma. A través de este estudio se elaboran una serie de prescripciones sobre el uso culto del idioma que los niños y adolescentes aprenden en la enseñanza obligatoria y que cualquier persona que quiera mostrar socialmente una formación académica intenta respetar. A este uso prescriptivo del idioma se le suele denominar uso correcto pero, naturalmente, es correcto desde el punto de vista del uso social, no desde el punto de vista de la corrección lingüística. En cambio muchas personas creen equivocadamente que el único uso correcto de un idioma, desde el punto de vista lingüístico, es el uso prescriptivo. Es tarea bastante ingrata, pero necesaria, intentar mostrar a los que intentan estudiar el lenguaje humano desde un punto de vista científico que el estudio prescriptivo de las lenguas cumple, efectivamente, una función importante en la normativización del idioma, en la estandarización de la escritura y en la estandarización de la variedad oral culta, pero que es intrínsecamente subjetiva y está destinada a revisarse periódicamente mientras la lengua esté viva y evolucione con normalidad. Efectivamente, una lengua que se usa evoluciona respondiendo a ese uso y a las propias tendencias internas de cambio lingüístico. Sería baladí intentar imponer unas prescripciones ‘ad aeternum’ puesto que las lenguas evolucionan y las prescripciones deben evolucionar con ellas. Naturalmente las prescripciones lingüísticas al uso en el siglo XIX no se mantienen actualmente, bajo pena de parecer anacrónicas y ridículas y hacer nuestro uso lingüístico extravagante, aunque bien es verdad que el prescriptivismo siempre acoge con simpatía los usos ligeramente arcaicos, que en realidad son los que se corresponden con los usos establecidos y normativizados que se usan en la variedad escrita culta y en la literaria. Por otra parte, un lingüista en términos generales tiene como cometido estudiar las lenguas con el objeto de describir sus usos, sus unidades, las interrelaciones entre ellas, sus procesos, sus cambios, lo que es común a ellas y la manera 14

Fundamentos del estudio formal de las lenguas

sistemática en que se diferencian e intentar proponer leyes generales –o dicho de forma más sencilla, generalizaciones– que expresen y expliquen su funcionamiento. Para conseguir este objetivo el lingüista debe proponer métodos formales que permitan representar de forma clara, inambigua y precisa tales fenómenos lingüísticos. Desde este punto de vista, el lingüista prescriptivo se ocupa de una parcela muy acotada y superficial del quehacer lingüístico, aunque al corresponder al uso culto del idioma es la más conocida en los ámbitos de la enseñanza y de la formación cultural de las personas. El lingüista estudia fundamentalmente las variedades orales de los idiomas, sean variedades geográficas o diatópicas –como los denominados dialectos– o variedades sociales o diastráticas –como los sociolectos o las jergas– o variedades diafásicas o registros –como los registros culto, coloquial o vulgar. Todas las variedades de las lenguas nos dan datos sobre las posibilidades lingüísticas humanas y nos dan un panorama completo de la riqueza lingüística de un idioma, con toda su variedad léxica, fonética y fonológica, gramatical, sintáctica, semántica y pragmática. Como decíamos, el uso lingüístico hace que las lenguas evolucionen continuamente y lo que establece una variedad como culta no son criterios lingüísticos sino criterios de prestigio social debido al poder político y económico de las clases que hablan esas variedades. Es decir, no son variedades cultas porque sean preferibles lingüísticamente sino porque devienen cultas al ser habladas por personas con poder que el resto de la población quiere imitar. Así acaban escribiéndose esas variedades específicas y deviniendo modelo para la lingüística prescriptiva. La lingüística teórico-descriptiva, en su tarea de describir, clasificar y expresar generalizaciones que atañen al funcionamiento lingüístico no solo debe tener en cuenta todos los usos orales de las lenguas sino que debe intentar abordar el estudio lingüístico de una manera objetiva que sea independiente de su opinión personal. Esto se traduce en que el estudio lingüístico debe realizarse siguiendo las premisas generales de la investigación científica, evitando aplicar patrones de análisis que son propios de la lengua materna del lingüista a otras lenguas, intentando proponer métodos de estudio que nos permitan llegar a conclusiones generales que sean útiles para compararlas con las obtenidas en el estudio de otras lenguas y extrapolables al estudio de otros procesos parecidos. Por todo ello la lingüística descriptiva, la teórica y la inevitable combinación de ambas en un estudio que quiera alcanzar conclusiones finales, se han visto abocadas al desarrollo, aplicación y refinamiento de métodos formales que nos permitan realizar un estudio científico del lenguaje humano y de las lenguas particulares. Ha sido dentro de la lingüística teórico-descriptiva donde ha nacido la necesidad de utilizar métodos formales para la expresión científica de sus estudios y conclusiones. 15

Métodos formales en Lingüística

1.1.2. El estudio del código y de su pragmática Una de las primeras elecciones a la hora de abordar el estudio de las lenguas humanas es optar por estudiar las propiedades fonéticas, fonológicas, morfológicas, sintácticas y semánticas del código, independientemente del contexto en el que se realicen, o bien estudiar los actos de habla en su contexto comunicativo para determinar cómo este influye en la conformación del significado. En el estudio de las lenguas humanas en cuanto a sus propiedades como códigos, los lingüistas se han centrado en el estudio de las unidades lingüísticas, su clasificación en sistemas y estructuras y la caracterización de los procesos que les afectan. Este punto de vista es aplicable a la fonética y la fonología, a la morfología, a la sintaxis y a la semántica. En todas estas disciplinas se ha efectuado un gran esfuerzo en torno a la delimitación y caracterización formal de las unidades correspondientes a cada nivel de análisis lingüístico y un esfuerzo aún mayor, si cabe, en la caracterización de los procesos generales que afectan a tales unidades. Se ha estudiado su combinación en unidades de complejidad cada vez mayores y se ha intentado establecer reglas generales sobre su funcionamiento. El estudio del código ha estado marcado a lo largo del siglo XX por el incremento del uso de la formalización. Por señalar algunos de los más extendidos, se han desarrollado modelos de formalización basados en el álgebra, como la Gramática Generativa propuesta por Noam Chomsky a mediados de siglo XX a partir de su teoría de Gramáticas Formales, o en las funciones matemáticas, como en la Gramática Categorial iniciada por Kazimierz Ajdukiewicz a principios del siglo XX o la Gramática Léxico-Funcional propuesta por Joan Bresnan en el último cuarto del siglo XX, por poner algunos ejemplos. Asimismo, se han introducido matrices de rasgos para la formalización de las descripciones de las unidades, incluso en algunos casos se han utilizado operaciones para expresar relaciones y procesos entre las matrices de rasgos, como veremos a lo largo de este libro. También se ha complicado el tipo de lógicas utilizadas para representar la semántica de las lenguas naturales, especialmente a partir de Richard Montague, y se ha introducido el uso de los sistemas deductivos tanto en semántica como en gramática. Tal como se verá en los diversos apartados del libro introduciremos de forma clara los aspectos fundamentales de tales métodos formales y sus aplicaciones a los diferentes niveles de análisis lingüístico que se dedican al estudio de las lenguas en cuanto a códigos. Por otra parte, la Pragmática es la disciplina que estudia cómo contribuye el contexto en la constitución del significado de la proposición. La pragmática se propone estudiar varios aspectos fundamentales del uso comunicativo del lenguaje. Son varios los objetivos que persiguen los estudios pragmáticos. Por un lado, la delimitación de los distintos significados que puede adquirir una misma emi16

Fundamentos del estudio formal de las lenguas

sión dependiendo del contexto comunicativo y por otro, el estudio de diferentes construcciones gramaticales que refieran a un mismo significado pragmático. Asimismo, la pragmática estudia las inferencias de significado que se siguen de una cierta emisión lingüística, así como las presuposiciones asociadas con el significado de una cierta proferencia que hacen que esta tome diversos matices de significado dependiendo de los interlocutores que intervengan en el acto comunicativo. Por otra parte, la pragmática también estudia las implicaturas conversacionales que se desprenden de una cierta conversación efectuada en un cierto contexto y asociada a unos interlocutores particulares. Dentro del marco de la Lingüística es más común el uso de procedimientos argumentativos que de métodos formales, aunque pueden acompañarse de expresiones mínimas en algún tipo de arreglo de la lógica de predicados. Las corrientes más estudiadas son la teoría de los actos de habla fundada por John L. Austin y continuada por John Searle, la teoría de la cooperación de Paul Grice, la de la relevancia de Dan Sperber y Deirdre Wilson o la teoría de la argumentación de Jean-Claude Anscombre y Oswald Ducrot, por citar algunas de las aproximaciones pragmáticas más extendidas. De entre los métodos matemáticos más utilizados en pragmática cabe destacar la estadística. Cada vez es más común aplicar a los corpus conversacionales o de habla oral, normalmente dirigida por encuestas, algún programa estadístico específicamente orientado a humanidades que permita establecer comparaciones paramétricas entre grupos, correlaciones entre variables y análisis de varianza, aunque estos procedimientos tienen su supremacía de uso en el campo de la sociolingüística y el análisis del discurso, como explicaremos en la siguiente sección. A lo largo de este libro no dedicaremos ningún capítulo a la estadística, puesto que los métodos cuantitativos caen fuera del alcance de la presente obra. Por otro lado caben destacar algunas corrientes minoritarias dentro de la pragmática que utilizan sistemas deductivos y teoría de modelos como métodos de formalización. Así por ejemplo, los trabajos de Lingüística Dinámica de Ruth Kempson y sus colaboradores. Estos y otros tratamientos formales se han desarrollado sobre todo dentro del marco de la Filosofía del Lenguaje.

1.1.3. Sociolingüística y análisis del discurso La sociolingüística y el análisis del discurso son disciplinas que han irrumpido con fuerza en el campo de la lingüística y han aportado nuevos métodos formales al estudio de los fenómenos del lenguaje. La estadística es la herramienta matemática más útil para el tratamiento de datos. Tales datos pueden sistematizarse por medio de variables que pueden determinarse de forma objetiva y permite ha17

Métodos formales en Lingüística

llar regularidades en los datos cuantitativos que seguramente se nos escaparían a simple vista debido a su volumen y complejidad. Así pues, la estadística es el método formal usado más comúnmente tanto por sociolingüistas como por los que se dedican al análisis del discurso y del texto. La sociolingüística es el estudio de la relación entre la lengua y la sociedad en que se utiliza. Se han distinguido dos grandes ramas. Por un lado, la macrosociolingüística se encarga de estudiar los fenómenos que se producen en una sociedad en la que se habla más de una lengua: la diglosia, las actitudes lingüísticas, la planificación lingüística y otros fenómenos que surgen del contacto lingüístico. Los primeros autores en señalar este objeto de estudio fueron Uriel Weinreich, Charles Ferguson y Joshua Fishman. Por otro lado, la microsociolingüística se encarga de estudiar la variación dentro de una misma lengua, estudiando las variedades sociales de un idioma. Asimismo también estudia las variedades que se producen a causa de la dispersión geográfica de una comunidad lingüística, son los denominados dialectos. El gran iniciador de esta corriente de estudio fue George Labov. Ambos tipos de estudio utilizan variables sociales para delimitar el estudio y para sacar conclusiones relevantes. Tales variables suelen ser la edad, el sexo, la ocupación laboral, el estatus social, el contexto comunicativo, la clase social de los interlocutores en el proceso comunicativo, aunque también pueden ser la religión, la ideología, la raza y otras variables sociales que puedan ser relevantes al estudio. La sociolingüística utiliza las herramientas estadísticas como recurso matemático que le ayuda a delimitar un determinado uso social y una determinada tendencia de uso. Con los resultados de un análisis cuantitativo y cualitativo del uso social de una lengua no solo se pueden conocer mejor las variedades de esa lengua y sus relaciones, sino que también se pueden hipotetizar tendencias de cambio lingüístico, determinadas por esa variabilidad lingüística introducida por nuevos usos lingüísticos. Asimismo, el análisis de corpus escritos u orales escogidos en virtud de sus variables sociales suele ser otro de los recursos utilizados especialmente en microsociolingüística. Por otra parte, también se ha incorporado a la Lingüística la disciplina denominada Análisis del Discurso. Tradicionalmente, la Lingüística se había centrado fundamentalmente en el estudio de las palabras y de las partes de la oración y, más recientemente, en su combinatoria sintáctica para formar oraciones. En la última mitad del siglo XX surgió una nueva disciplina que amplía el objeto de estudio al discurso, tanto oral como escrito. Esta disciplina combina campos tan amplios como la sintaxis, la semántica, la pragmática, la sociolingüística, los procesos mentales de reconocimiento y producción lingüística y las relaciones de todo ello con los contextos culturales, históricos, políticos y sociales. 18

Fundamentos del estudio formal de las lenguas

De nuevo, los métodos de estudio en el análisis del discurso pueden ser cualitativos o cuantitativos. Los métodos cuantitativos para el análisis del discurso se basan en el estudio de corpus que agrupan gran cantidad de textos codificados con propiedades directamente observables para luego calcular propiedades estadísticas a partir de tales codificaciones. Aplicando operaciones estadísticas a estos corpus etiquetados se pueden llegar a establecer correlaciones cualitativas de gran interés, aunque siempre atañen exclusivamente al corpus estudiado, lo cual hace difícil llegar a conclusiones generales. Uno de los autores más representativos de este campo de estudio es Teun van Dijk. A partir del análisis lingüístico, este autor promulga un análisis del discurso en diversos niveles en los que se busca deducir una serie de variables principalmente pragmáticas y sociolingüísticas, aunque no se excluyen otras más amplias como las que hemos señalado arriba. Dentro de las variables pragmáticas, fundamentalmente se centra en la deducción de la información contextual que afecta al proceso comunicativo. Entre las características sociales, se intenta profundizar en el estatus de los integrantes en el proceso comunicativo basándose en parámetros típicos del análisis sociolingüístico, como el sexo, la edad, la posición social, la ocupación laboral, la religión, el origen étnico, las aficiones y otros indicios de asociación grupal. Por otra parte, encontramos la obra de Janös Petöfi que puede enmarcarse más propiamente dentro de la teoría del texto y ha recibido un gran interés por parte de los teóricos de la literatura. Este autor articula un complejo modelo descriptivo y explicativo en torno a los conceptos de texto, co-texto, contexto, plano gramatical, suprasegmental y rítmico, semántico y pragmático. No obstante, el análisis del discurso no solo ha recibido interés desde el punto de vista de la lingüística externa, sino que también ha habido investigadores que lo han estudiado desde el punto de vista del propio código. Ciertamente, se pueden estudiar las propiedades del discurso en cuanto a las relaciones interoracionales que se dan entre los elementos gramaticales, como por ejemplo las anáforas o los deícticos. Así, podríamos resaltar los modelos de análisis del discurso propuestos por autores eminentemente lógicos como Hans Kamp, Uwe Reyle o Irene Heim, que se presentarán en el capítulo 3, apartado 3.4. En estas aproximaciones en particular se estudian fundamentalmente las anáforas y los mecanismos de referencia discursiva utilizando herramientas de una lógica formal bastante elaborada. Asimismo, dentro del marco del Funcionalismo hay varias corrientes que han propuesto un análisis del discurso que conecta los niveles sintáctico, semántico y pragmático, como la Gramática del Papel y la Referencia de Robert van Valin y Randy LaPolla, o incluso modelos que integran también el análisis fonológico a todo lo anterior, como la Gramática Funcional del Discurso de Kees Hengeveld y Lachlan Mackenzie o la Gramática de Construcciones de Charles Fillmore y sus colaboradores. 19

Métodos formales en Lingüística

Y ya en la vertiente psicolingüística del análisis del discurso y del texto existe también una corriente que estudia el papel de los procesos de memoria, atención, percepción y resolución de problemas en el proceso de comprensión de los mismos. Dentro de este marco es fundamental la noción de modelo mental, que se refiere a una representación sobre la situación o contexto en el que está enmarcado un discurso y que permitirá almacenar en la memoria a largo plazo una representación del conocimiento sociocultural que se ha extraído en el proceso comunicativo y que se supone que conforma un modelo mental compartido por los integrantes de dicho proceso comunicativo. Quizás el autor más conocido de esta corriente de la ciencia cognitiva es Walter Kintsch, junto a Teun van Dijk. Estas investigaciones se han extendido al marco de la ciencia cognitiva y de la representación del conocimiento en inteligencia artificial. En este marco se proponen programas informáticos que emulen el procesamiento y generación del lenguaje natural, la traducción automática y la representación del conocimiento. Lo común en estas aplicaciones es preparar programas que extraigan directamente la información de grandes corpus de textos de todo tipo de géneros. La información extraída se suele organizar en ontologías de estructuras de rasgos subestructuradas y tipificadas que se utilizan como representación del conocimiento. Como puede comprobarse es una disciplina donde confluyen gran cantidad de campos interdisciplinares y que todavía se encuentra en proceso de fundamentación y expansión.

1.1.4. Psicolingüística Otro de los aspectos fundamentales que se plantean los lingüistas es si el objeto de investigación atañe al producto lingüístico una vez ha sido emitido o si el objetivo de la investigación lingüística consiste en poner de manifiesto los mecanismos mentales que hacen posible la producción lingüística, y no solo la producción, sino también la adquisición lingüística, tanto de primera como de segunda lengua. En definitiva, estamos ante una nueva elección entre teorías lingüísticas que atañe al propio objeto de estudio: el estudio de la lengua como producto, independientemente de los mecanismos que han permitido su producción o, en contraposición, el estudio de tales mecanismos mentales. Casi cualquier disciplina dentro de la lingüística puede estudiarse desde ambos puntos de vista, quizás con excepción de la fonética, la tipología lingüística, la antropología lingüística y la sociolingüística, que me parecen difíciles de estudiar desde el punto de vista psicolingüístico. Sin embargo, la fonología, morfología, sintaxis, semántica, pragmática, la adquisición lingüística, los trastornos del 20

Fundamentos del estudio formal de las lenguas

lenguaje, el cambio lingüístico, la lingüística evolutiva e incluso el análisis del discurso, todos ellos pueden estudiarse tanto desde un punto de vista relativo estrictamente al código como desde un punto de vista psicolingüístico. Uno de los máximos defensores del estudio del lenguaje desde el punto de vista psicolingüístico ha sido Noam Chomsky. Este lingüista norteamericano ha sido uno de los que más ha contribuido a la lingüística teórica en la segunda mitad del siglo XX. Sus teorías han aportado hipótesis a la teoría psicolingüística pero, objetivamente, ha construido teorías para el estudio del lenguaje desde un punto de vista descriptivo y teórico ya que la contrastación empírica es difícil en psicolingüística. No cabe duda de que los métodos formales desarrollados por Chomsky, sobre todo a finales de los 50 y a mediados de los 60 del siglo XX, han sido determinantes en la introducción de nuevos métodos de análisis formal de las lenguas naturales. Efectivamente, a partir de las teorías lingüísticas de Chomsky surgen multitud de teorías nuevas que ya no tienen nada que ver con lo que era habitual en la lingüística de la primera mitad del siglo XX. Principalmente es la visión predictiva, formal, hipotético-deductiva, que conduce a la formulación de generalizaciones y de explicaciones, lo que lleva a este notorio cambio de perspectiva en el quehacer lingüístico. Muchos lingüistas después de las aportaciones de Chomsky han continuado dentro de esa perspectiva sin tener pretensiones psicolingüísticas, exclusivamente desde una perspectiva de estudio teórico y formal de las lenguas efectivamente producidas, e incluso criticando las propias propuestas formales de Chomsky. Así pues, dentro de la infinidad de propuestas que encontramos en sus teorías, podemos discernir en la obra de Chomsky dos aportaciones esenciales. Por un lado la propuesta de que el objetivo de la lingüística sea el estudio de los mecanismos lingüísticos cognitivos, lo cual constituye un gran cambio dentro de la disciplina. Por otro, y desde el punto de vista que adopta este libro todavía más importante, la obra de Chomsky supone la introducción generalizada de los métodos formales en el estudio de la lingüística. Este segundo aspecto puede considerarse escindido del primero y constituye quizás la mayor aportación de la lingüística chomskyana a la lingüística general. Desde el punto de vista psicolingüístico, Chomsky no siempre ha defendido el mismo tipo de estudio. Así en sus primeros modelos, en la denominada Teoría Estándar, se centraba en la formalización de la competencia. Como es bien sabido la competencia es el conocimiento que todo hablante tiene sobre su lengua y que le permite usarla adecuadamente tanto desde el punto de vista gramatical como desde el punto de vista del uso (lo que constituye la actuación). La competencia está formada por un conjunto de instrucciones y mecanismos mentales que conforman el conocimiento que tenemos sobre una cierta lengua y nos permite producir y reconocer oraciones gramaticales y diferenciarlas de las agramaticales. 21

Métodos formales en Lingüística

Chomsky (1957, 1965) partía de la base de un estudio sobre el tipo de gramáticas formales que serían más adecuadas para describir el conocimiento lingüístico, en general el estudio de la competencia. Pero al aplicar tales formalismos a la construcción de sistemas de reglas que dieran cuenta de la competencia de una cierta lengua, en la práctica, la tarea del lingüista acabó por constituir una tediosa casuística de reglas particulares, en muchos casos idiosincráticas, alejándose del objetivo psicolingüístico y acercándose en exceso a la descripción y generalización teórica de la lengua producto. Esto hizo que Chomsky se replanteara el modelo teórico y que propusiera una abstracción muy severa al tipo de reglas sintácticas, lo que condujo a la Teoría de Principios y Parámetros (también conocida como Teoría de la Reacción y el Ligamiento), que tomó forma en Chomsky (1981). En esta reformulación del paradigma chomskiano, el eje central de la teoría vira hacia el estudio del proceso de adquisición lingüística. Desde un concepto innato de Gramática Universal se intenta explicar cómo el cerebro va adquiriendo las características particulares de las lenguas a través de la fijación de características tipológicas concretas (los denominados parámetros). De nuevo las aportaciones de la teoría se fueron alejando cada vez más del estudio de los procesos psicolingüísticos y se fueron centrando en la delimitación de los parámetros volviéndose así, cada vez más, una parte de la lingüística tipológica. En la última década del siglo XX, Chomsky (1993, 1995) propuso un nuevo giro en la teoría con el objeto de retomar el estudio de la naturaleza del lenguaje desde un punto de vista psicolingüístico, surgiendo así el Minimismo. Este modelo quiere centrarse en las propiedades generales de la mente que hacen que las lenguas humanas compartan una serie de universales lingüísticos. Los universales lingüísticos serán dependientes de una serie de operaciones mentales abstractas que posee la especie humana. Con ello se ha dado inicio a otro apasionante tema de investigación, la denominada biolingüística, que busca los fundamentos biológicos de la psicolingüística. La biolingüística estudia, entre otras cosas, las operaciones mentales de la especie humana que hacen posible el lenguaje. La recursividad es considerada como la más esencial de tales operaciones, como argumentan Hauser, Chomsky y Fitch (2002: 2) “FLN includes the core grammatical computations that we suggest are limited to recursion” (Traducción de la autora: “La Facultad del Lenguaje en sentido estricto (FLN), es decir, aquellos aspectos del lenguaje humano que son exclusivos de los humanos, y en los humanos, exclusivos del lenguaje, incluye los cómputos gramaticales esenciales que nosotros sugeriríamos que se limitan a la recursividad”). Asimismo, la biolingüística estudia los genes relacionados con el lenguaje en torno a la hipótesis del innatismo lingüístico y también los aspectos 22

Fundamentos del estudio formal de las lenguas

evolutivos de la especie humana que han hecho posible el surgimiento del lenguaje en dicha especie y su actual caracterización formal. Tal y como reconocen los propios seguidores de Chomsky, este último objetivo, al menos, así lo diría yo, se sustenta más en la especulación que en la investigación. Para realizar esta afirmación nos apoyamos en los propios Fitch, Hauser y Chomsky (2005: 1), quienes afirman “Such questions are unlikely to be resolved empirically due to a lack of relevant data, and invite speculation rather than research” (Traducción de la autora: “Es difícil resolver tales cuestiones empíricamente debido a la falta de datos relevantes, e invita a la especulación más que a la investigación”). Como hemos visto, el paradigma chomskiano se ha reformulado en varias ocasiones, siempre con el objeto de adecuarse al objetivo psicolingüístico de la investigación. Tal y como se desprende de la explicación precedente, la comunidad de lingüistas seguidores del paradigma chomskiano tendía a abandonar el objetivo psicolingüístico para centrarse en el objetivo descriptivo y formalizador de los fenómenos de las lenguas humanas, de tal manera que el resultado de la investigación podía ser considerado independiente de los mecanismos mentales. Posiblemente esto se debe a la dificultad de contrastación empírica del estudio psicolingüístico tal y como lo plantea Chomsky, que en la mayoría de los casos es un estudio psicolingüístico teórico alejado de los experimentos psicolingüísticos y de los estudios neurolingüísticos. Estos cambios en el paradigma han sido muy criticados por los lingüistas ajenos al paradigma chomskiano, e incluso por los propios seguidores, ya que cada reformulación ha traído consigo un nuevo bagaje teórico de bastante complejidad formal, al menos para los lingüistas no formales. En la práctica, estas reformulaciones han constituido un avance de la disciplina sobre todo en el desarrollo de los métodos formales de análisis lingüístico, lo cual me parece positivo, aunque es muy posible que el objetivo psicolingüístico siga sin una teoría satisfactoria por el momento. Naturalmente otros muchos lingüistas, tanto seguidores como críticos de Chomsky, han formado parte de la corriente psicolingüística del estudio de los fenómenos del lenguaje, obteniendo los mismos resultados inconcluyentes del paradigma chomskiano. Esto indica, por un lado, que el objeto de estudio psicolingüístico es suficientemente interesante para la lingüística en general a pesar de que es necesario todavía mucho trabajo al respecto y por otro, que posiblemente la psicolingüística no puede remitirse únicamente al estudio teórico de los datos del producto lingüístico sino que hay que cambiar de métodos y ahondar más en el estudio de los trastornos del lenguaje y en los datos obtenidos con las actuales técnicas de diagnóstico por imagen utilizadas en neurolingüística. En esta línea, es cada vez más común el uso de tomografías digitalizadas para el estudio de los estados y los procesos psicolingüísticos. 23

Métodos formales en Lingüística

Asimismo, desde otros ámbitos se han desarrollado análisis del corpus tanto para el estudio de la adquisición lingüística como para el estudio de la pérdida o alteración del lenguaje (afasias, trastornos del lenguaje, etc.). Para el español ya empiezan a ser clásicos los estudios longitudinales del proceso de adquisición lingüística desarrollados por Fuensanta Hernández Pina o por Susana López Ornat, así como los estudios realizados por Miquel Serra o por Juana Liceras y sus colaboradores. En el ámbito general, es extraordinariamente útil el manejo de la base de datos internacional CHILDES, donde podemos encontrar transcripciones en-línea de multitud de casos de adquisición lingüística, tanto monolingües como bilingües, junto a casos de afasias. Recientemente también disponemos de los estudios publicados por Milagros Fernández sobre la adquisición lingüística basados en la metodología del análisis del corpus.

1.1.5. Lingüística computacional Desde mediados del siglo XX, pero sobre todo a partir de la década de los 80, han proliferado los estudios de lingüística computacional. En sus inicios el objetivo era la traducción automática y Yehoshua Bar-Hillel puede considerarse uno de sus pioneros. Actualmente la lingüística computacional tiene un objeto de estudio más general y se considera parte de la inteligencia artificial. El objetivo parte de la construcción de programas informáticos que sean capaces de simular un tipo de comportamiento lingüístico. Progresivamente se podrán ir integrando los logros obtenidos para los diferentes niveles de análisis con el objetivo final de conseguir un programa que simule el comportamiento lingüístico global del ser humano. En sus orígenes y hasta finales del siglo XX, la corriente principal de la lingüística computacional se basaba en reglas algebraicas o en funciones matemáticas. Así, la jerarquía de gramáticas formales de Chomsky, que estudiaremos en el capítulo 2 de este libro, ha sido ampliamente utilizada en este campo con todo tipo de modificaciones, extensiones y variaciones. En realidad, puede considerarse que parte del avance y evolución de las gramáticas generativas postchomskianas, en el sentido en que las veremos en el capítulo 2, se debe en gran medida al objetivo computacional. Y si bien es verdad que todavía se realizan estudios de lingüística computacional basados en reglas formales, actualmente la corriente mayoritaria construye sus aportaciones al campo a partir de estudios de base estadística. De entre tales aproximaciones podemos destacar las denominadas redes conexionistas, que son programas capaces de extraer reglas basadas en patrones estadísticos de funcionamiento a partir del procesamiento de corpus de gran magnitud. 24

Fundamentos del estudio formal de las lenguas

La parte de simulación del lenguaje que está más desarrollada concierne a la fonética. Actualmente ya disponemos de simuladores de voz de bastante calidad, aunque todavía faltan retoques en el plano de las coarticulaciones y en los rasgos no suprasegmentales, especialmente en el nivel entonativo, pero que producen emisiones lingüísticas bastante naturales. El campo del reconocimiento del habla está también muy avanzado y se producen aplicaciones para la vida cotidiana que son de gran utilidad. Esta relativa facilidad, que ha costado varias decenas de años, se debe a que los sonidos del lenguaje pueden caracterizarse por medio de parámetros matemáticos basados en la física del sonido y esto es fácilmente informatizable. Por otra parte, el hecho de que estas unidades lingüísticas no tengan significado facilita enormemente su formalización, lo complicado vendrá en los niveles lingüísticos con significado. El paso de texto a habla ha mejorado considerablemente gracias al uso de analizadores morfológicos que permiten procesar mejor las coarticulaciones y la línea melódica entonativa. La sintaxis ha recibido mucha atención por parte de la lingüística computacional basada en reglas formales y también puede afirmarse que las teorías lingüísticas han avanzado mucho en precisión formal gracias a las aplicaciones computacionales. Como hemos apuntado más arriba, las gramáticas formales de la jerarquía de Chomsky representaron una revolución en el campo de la lingüística computacional. La mayoría de las implementaciones de la sintaxis de las lenguas naturales hace uso de algún tipo de gramática generativa. Pero no es Chomsky el que se ha encargado de tal aplicación, puesto que Chomsky siempre se ha interesado por los cerebros naturales, no por los artificiales. Ha sido, por un lado, dentro de la informática y por otro, dentro de modelos lingüísticos alternativos al chomskiano donde se ha utilizado una extensión del concepto de gramática generativa. Asimismo, la inclusión de las matrices de rasgos y de la operación de unificación, que veremos en el capítulo 3, han constituido un avance importante en el procesamiento de la combinatoria sintáctica. Actualmente cada vez es más normal utilizar métodos estocásticos y de redes conexionistas para la deducción de las reglas sintácticas, lo cual ha dejado en cierta medida de tener interés para el lingüista y suele desarrollarse dentro de los departamentos de informática. Los métodos actuales no suelen dar teorías generales que expliquen el funcionamiento de un campo o de un fenómeno lingüístico, sino que dan soluciones ad-hoc para problemáticas concretas o producen programas de análisis que analizan una serie de datos sin que podamos saber qué tipo de generalizaciones lingüísticas ha detectado. En relación a la semántica y a la pragmática, se ha hecho mucho trabajo basado en la lógica deductiva, en ontologías de representación del conocimiento y en sistemas deductivos aplicados a tales ontologías, pero queda mucho trabajo por 25

Métodos formales en Lingüística

realizar todavía. Aparte de estos métodos, y en combinación con ellos, también se ha realizado mucho trabajo utilizando redes conexionistas y aplicando métodos de análisis del discurso para la extracción de información relevante para la representación del conocimiento. Y si la representación de la semántica y del conocimiento del mundo es complicada, la confección de unas reglas pragmáticas que permitan realizar automáticamente las inferencias derivadas del uso en un contexto determinado todavía lo son más. Queda aquí, pues, bastante por descubrir y mucho trabajo que realizar.

1.1.6. Universales y tipologías Vamos a finalizar este primer apartado que se ha encargado de presentar los principales objetos de investigación de la lingüística y los métodos formales que se han introducido para ellos, presentando el campo de estudio de los universales lingüísticos. En los estudios lingüísticos siempre ha existido la dicotomía entre estudiar fenómenos lingüísticos idiosincráticos y construir una teoría de lo que es común a las lenguas humanas, los universales lingüísticos, o al menos lo que es más recurrente en ellas, para expresar tendencias generales y tipologías lingüísticas. Dentro del estudio de los universales lingüísticos existen dos grandes corrientes, la descriptiva y la cognitiva. Joseph Greenberg fue el pionero de la corriente descriptiva, estudiando unas treinta lenguas de los cinco continentes y estableciendo cuarenta y cinco universales descriptivos. Tales universales están basados sobre todo en el orden de palabras y constituyen una investigación fundamental en el campo. No todos ellos son universales absolutos (todas las lenguas presentan la propiedad x), sino que muchos son implicativos (si una lengua posee la propiedad x, entonces también posee la propiedad y) o estadísticos e indican tendencias (un número elevado de lenguas presenta la propiedad x). Este tipo de aproximación al estudio de los universales lingüísticos y las tipologías ha sido desarrollada de forma muy notable por otros lingüistas posteriores, como Bernard Comrie, por citar a uno de los más notables. Ciertamente, el lector puede plantearse si es lícito establecer universales a partir del análisis empírico de 30 lenguas. Es posible que sea necesaria una investigación más extensa, como la que han aportado desde mediados del siglo XX a la actualidad los autores que han añadido a aquellos primeros análisis de Greenberg, el análisis de un número cada vez mayor de lenguas. Pero en realidad, este tipo de generalizaciones no serían lícitas si no se aplicara un riguroso proceso de selección cualitativa a las lenguas seleccionadas para la realización del estudio. Efectivamente, para realizar un estudio de tipología lingüística es imprescindible selec26

Fundamentos del estudio formal de las lenguas

cionar lenguas no emparentadas etimológicamente para evitar así las posibles coincidencias debidas a la génesis común. Asimismo, de entre las lenguas no emparentadas es preferible escoger lenguas entre las que no se haya dado contacto lingüístico, para evitar así las semejanzas debidas a este. En definitiva, hay que hacer una cuidadosa selección de las lenguas que van a formar parte de la base de datos que inspirará nuestras hipótesis sobre lo que podrían ser universales, y después seguir sometiendo esas hipótesis y las predicciones que de estas se sigan a nueva contrastación empírica con un conjunto de lenguas diferentes al primigenio, pero escogido con el mismo tipo de criterios metodológicos de falta de conexión filogenética y sociolingüística. La otra corriente en la formulación de los universales lingüísticos es la iniciada principalmente por Noam Chomsky y es la que hemos denominado cognitivista. Como ya hemos comentado, para este autor el lingüista debe estudiar el conjunto de mecanismos mentales innatos que posee el ser humano que le permiten aprender y utilizar una lengua. Chomsky supone que este conjunto de mecanismos innatos hace posible y justifica la existencia de los universales y las tipologías lingüísticas. Según Chomsky, todos los seres humanos poseen un conocimiento lingüístico innato, que él denomina Gramática Universal, y que está formado por un conjunto de principios universales en términos absolutos que, por lo tanto, no varían de una lengua a otra. Asimismo, ese dispositivo lingüístico innato también consta de un conjunto de parámetros que son comunes a todas las lenguas, pero que deben tomar un valor concreto. Los parámetros son los que producen las tipologías lingüísticas, mientras que los principios son los que determinan los universales. Un principio universal sería que todas las oraciones formuladas en una lengua pueden poseer sujeto, en cambio un parámetro sería la posición relativa del sujeto en relación al verbo, o más específicamente en relación al Sintagma Verbal. Un parámetro muy conocido de la Gramática Universal, que se puede relacionar directamente con los estudios tipológicos de Greenberg, es el denominado de núcleo inicial/final. Este parámetro se refiere al orden relativo de los elementos en el sintagma. Cualquier sintagma de cualquier lengua se estructura en términos generales en torno a una categoría que funciona como núcleo y, dependiendo del tipo categorial del núcleo, este a su vez podrá seleccionar un sintagma que le complemente (e incluso un especificador). El orden de aparición de los complementos en relación a los núcleos es tipológico y lo que sostiene Chomsky es que si en una lengua un núcleo precede al complemento en un sintagma, cualquier núcleo lo precederá en todos los sintagmas de la lengua. Por ejemplo, en español el verbo precede al objeto directo (sea un SN, una oración completiva, etc.) y, por lo tanto, el nombre precede al complemento del nombre (que podría ser un sin27

Métodos formales en Lingüística

tagma preposicional o una oración de relativo, por ejemplo). En cambio en euskera, donde el complemento es el que precede al verbo, correspondientemente también lo precede al nombre. Un ejercicio muy entretenido y aleccionador es contrastar empíricamente este parámetro de núcleo inicial/final con los 45 universales de orden de palabras de Greenberg. Ante todo tenemos que separar los 23 universales que están indefinidos en relación a lo que postula el parámetro chomskiano (puesto que se trata de una lista de universales generales, no solo de universales relativos al orden de los complementos en relación a los núcleos). De los 22 universales relevantes para lo que postula el parámetro de núcleo inicial/núcleo final, 19 claramente confirman el parámetro en relación con muy diversas situaciones gramaticales, mientras que los otros 3 ofrecen un resultado dudoso (puesto que una parte del universal muestra el parámetro, pero otra parte lo contradice, con lo que como conclusión general esos tres lo contradicen). Es un interesante resultado, tanto por la abrumadora cantidad de lenguas que lo siguen como por los casos que lo contradicen, aunque solo sea de forma parcial. Los parámetros están indefinidos en el momento de nacer, es decir no han tomado ningún valor aunque están predefinidos para un rango de valores. Tomarán valor a través del proceso de adquisición lingüística, cuando al niño se le hablan una o varias lenguas. Cuando se aprende una lengua se fijan los parámetros que corresponden a las propiedades tipológicas de tal lengua; si el niño recibe datos de más de una lengua, entonces fija los parámetros que les corresponden de forma simultánea. El proceso de adquisición lingüística finaliza cuando todos los parámetros de todos los niveles lingüísticos están correctamente fijados (entendiendo que a la vez ha aprendido un vocabulario suficiente). Así pues desde que el niño nace, cuando posee una gramática universal formada por principios absolutos y parámetros sin fijar, hasta que ha aprendido una lengua y tiene totalmente fijados los parámetros, el niño pasa por una serie de etapas intermedias en las que la fijación paramétrica está incompleta. Desde el inicio de sus escritos, Chomsky distinguió entre universales formales y universales sustantivos. Los universales formales tienen que ver con la metagramática, son los principios teóricos generales que acotan la forma general de las gramáticas y nos permitan formular gramáticas para las lenguas particulares basadas todas ellas en los mismos fundamentos. Se trata de la teoría gramatical. En cambio, los universales sustantivos se refieren a las propiedades lingüísticas compartidas por todas las lenguas estudiadas. En realidad, hasta las propuestas de Chomsky, los lingüistas que habían estudiado los universales lingüísticos se habían dedicado al estudio de los universales sustantivos y a partir de Chomsky han proliferado teorías sobre cómo debe ser la gramática general de las lenguas y los mecanismos formales más adecuados para poder formularlas. 28

Fundamentos del estudio formal de las lenguas

1.2. Parámetros sobre la metodología de la formalización Tal y como hemos anunciado al inicio de este capítulo, vamos a dedicar este segundo apartado a presentar diversos parámetros que caracterizan las teorías gramaticales en relación a cómo les interesa abordar el estudio del objeto de investigación. Las diferentes opciones que adopten los promotores de las distintas teorías lingüísticas incidirán directamente en unas necesidades de formalización diferente. Trataremos, en primer lugar, de la diferencia entre realizar descripciones y clasificaciones de los datos a estudiar los procesos lingüísticos. En un segundo apartado abordaremos la diferencia entre las teorías que se centran en la forma frente las que se centran en la función. Después abordaremos el sintacticismo frente al lexicalismo que se puede adoptar para formular las teorías gramaticales. Asimismo las teorías lingüísticas se diferenciarán por el hecho de adoptar la hipótesis de que el procesamiento se realiza en serie o en paralelo.

1.2.1. Clasificaciones frente a procesos Independientemente del objeto de estudio, un primer aspecto fundamental que debe aclarar una aproximación al estudio de las lenguas humanas es si su objetivo se cifra en la delimitación y descripción de las unidades de la disciplina y su posterior clasificación, o si a partir de una descripción, o además de ella, lo que va a intentar es explicar los procesos que les atañen, proponer reglas generales que den cuenta de su funcionamiento y que predigan propiedades y aspectos no superficiales sobre ellas y sobre su comportamiento. Convencionalmente se considera que el estructuralismo se dedicó a las clasificaciones y que el generativismo, en general, se ha dedicado al estudio de los procesos, y no me refiero aquí al Paradigma Chomskiano en exclusiva, sino a la gran familia de formalismos gramaticales de base generativa o formalmente equivalente a la gramática generativa, pero que no utilizan transformaciones sino otros mecanismos formales, como veremos en el capítulo 2. Dentro del funcionalismo, dependiendo mucho de la escuela y del círculo de investigadores, se han obtenido generalizaciones y principios explicativos muy potentes y altamente formalizados, como en los modelos de Simon Dik, Kees Hengeveld o de Robert van Valin y Randy LaPolla, por citar algunos, y también es cierto que otras escuelas se han dedicado a la descripción y clasificación de unidades y fenómenos. Vamos a desarrollar un poco más esta diferencia a través de un ejemplo. En los sonidos de las lenguas hay unos que, aunque los sustituyamos por otros, no provocan un cambio de significado en la palabra afectada, los denominamos alófonos. Así por 29

Métodos formales en Lingüística

ejemplo, si tomamos la palabra “Duero” y representamos la pronunciación estándar en el Alfabeto Fonético Internacional obtendremos [dwero] (que suena de la manera habitual). Pero si alguien pronunciara por casualidad [duero], que sonaría como un hiato “du-e-ro”, se notaría una pronunciación extraña o peculiar, pero se entendería perfectamente el significado de la palabra. En fonología se dice que [w] es un alófono de /u/. En cambio, /u/ es un fonema porque si lo sustituimos por otro sonido, o bien se pierde el significado, o bien obtenemos un significado nuevo. Por ejemplo, si cambiamos el sonido /u/ por /a/ obtenemos [daero], que no significa nada. Así pues, siguiendo con la explicación de la diferencia entre la visión clasificatoria y la que se dedica a describir o explicar procesos, ante los alófonos correspondientes a los fonemas, la visión clasificatoria establecerá unos criterios de delimitación de las unidades fonemáticas y alofónicas, definirá relaciones entre ellos que permitan formar clases y describirá con sumo cuidado los contextos de articulación en los que tales fonemas son materializados como ciertos alófonos. Incluso puede ser que se estudien los porcentajes de uso de ciertas variedades alofónicas, en el caso de los alófonos facultativos, y que también se estudien las circunstancias sociales, pragmáticas y psicolingüísticas que puedan determinar tales pronunciaciones, entre otras muchas posibilidades de ejemplos de la óptica clasificatoria. En cambio, el que se dedique a estudiar los procesos, se basará en una descripción cuidadosa de los contextos lingüísticos en los que se produce cierto alófono, o se dedicará en una fase preliminar a elaborar una descripción del fenómeno fonológico en cuestión y luego intentará formular reglas que establezcan de forma general la aparición de tales alófonos en relación a sus fonemas correspondientes, intentará dilucidar qué rasgos fonológicos están involucrados en el proceso o le sirven de detonante, intentará identificar las regularidades del contexto en el que se producen los alófonos objeto de estudio, entre otros parámetros que pueden estar implicados en dicho proceso. Así, se podrían describir los fonemas /i/ y /u/ del español como: /i/

+silábico –consonante +continuo –estridente +anterior –coronal +sonoro +alto –bajo 30

Fundamentos del estudio formal de las lenguas

/u/

+silábico –consonante +continuo –estridente –anterior –coronal +sonoro +alto –bajo

Incluso podría decirse que forman una clase natural muy específica que responde a la definición siguiente: /i, u/

+silábico +alto

Asimismo, podríamos describir en qué casos se unen con vocales para formar sílabas, pasando a ser consideradas como semiconsonantes o semivocales, dependiendo de si aparecen por delante de las vocales o por detrás. Naturalmente también se escogerían símbolos para representar tales alófonos (que no serían fonemas porque su emisión no permitiría cambiar el significado de las palabras), en el caso de las semiconsonantes los símbolos utilizados serían [j,  w] y en el caso de las semivocales serían [ꞈi,  ṷ]. Se describiría también la diferencia entre ambos y se harían espectrogramas que mostraran el carácter aproximante (consonántico, por ende) de las semiconsonantes. Asimismo se delimitarían los contextos vocálicos particulares en los que tendría lugar la diptongación, cómo esta variaría en relación al dialecto o dependiendo de algún otro tipo de variable contextual, así como un largo etcétera de detalles descriptivos y clasificatorios que delimitaran el comportamiento de estas unidades. En cambio, desde un punto de vista que analizara los procesos e intentara dar cuenta de las reglas generales que dieran cuenta de ellos, habría que partir de una descripción como la que acabamos de esbozar para luego poder proponer alguna regla que permitiera generalizar los procesos de diptongación. Por ejemplo, para expresar los cambios que se producen en los fonemas /i, u/ para dar como resulta31

Métodos formales en Lingüística

do los alófonos semiconsonánticos [j,  w] en determinados contextos sonoros, se podría proponer la siguiente regla: +silábico +alto



+consonántico

/ ____

+silábico

Esta regla dice que la clase natural que se define como [+silábico, +alto], es decir /i, u/ , pasará a ser [+consonántico] si dicha vocal /i/ o /u/ se encuentra en un contexto fónico precediendo a una vocal. La flecha ‘→’ indica que se trata de un proceso, la raya inclinada ‘/’ significa ‘en el contexto lingüístico siguiente’ y la barra horizontal ‘____’ indica el lugar en el que se emitiría el fonema o clase natural de fonemas afectados por la regla. En el capítulo 2 se explicará este tipo de formalismo en su contexto y se verá su utilidad no solo en fonología, sino también en la representación de otro tipo de procesos, como los sintácticos. Con este ejemplo tan simple y tan simplificado solo hemos pretendido ejemplificar el trabajo tan diferente que emergería de un punto de vista que se encargue de delimitar unidades y realizar clasificaciones frente a otro que intentara estudiar los procesos que afectan a tales unidades con el objeto de intentar formalizar su funcionamiento. No obstante, creo que es importante señalar que aunque el enfoque de delimitación y clasificación de unidades y fenómenos lingüísticos ha tenido y sigue teniendo muchos seguidores en todas las disciplinas lingüísticas –y más actualmente, con el éxito de los análisis estadísticos de corpus, entrevistas y encuestas–, tal estudio debe ser considerado como una fase previa a la elaboración de una teoría que estudie los procesos que atañen a tales unidades y fenómenos. Es verdad que muchos lingüistas creen que es suficiente con delimitar, describir, clasificar, señalar propiedades y expresar relaciones, pero a mi juicio, y al de muchos otros lingüistas, el objetivo de la lingüística a largo plazo no es solo el de describir los fenómenos lingüísticos sino el de explicar el funcionamiento de los procesos lingüísticos, expresar los mecanismos generales que explican los fenómenos que se producen en y en torno a las lenguas naturales con generalizaciones predictivas que pongan de manifiesto los dispositivos de uso, cambio, variación, adquisición, pérdida o trastorno y, en general, de la estructura y el funcionamiento de las lenguas humanas. En definitiva, esta es una cuestión metodológica de gran envergadura que tiene una importancia mayúscula en la elaboración de las investigaciones y que condiciona los métodos formales que se utilizan en su desarrollo. 32

Fundamentos del estudio formal de las lenguas

1.2.2. Forma frente a función Otra de las grandes opciones que distingue a las corrientes que se dedican al estudio de las lenguas naturales es fundamentar las teorías de descripción, análisis y/o explicación de los datos en criterios formales o en criterios funcionales. Para los lingüistas en general, los funcionalistas son los que se aproximarán al estudio de las lenguas naturales como medio de comunicación, estudiarán los aspectos comunicativos del lenguaje humano y estudiarán los fenómenos lingüísticos haciendo hincapié en su función comunicativa. Por otra parte, los formalistas serán los que estudiarán las lenguas naturales independientemente de su función comunicativa, en cuanto estructuras complejas de relaciones entre unidades lingüísticas estudiadas con criterios basados en su forma física, su morfología, su posición y distribución, su capacidad de conmutación, la concordancia, etc. Ambas corrientes han competido duramente en el panorama lingüístico y es curioso constatar la rivalidad que suelen manifestar los seguidores de las dos perspectivas. No obstante, es posible que fuera no solo deseable sino necesario incorporar criterios formales en el estudio del lenguaje como medio de comunicación y a su vez, enriquecer los modelos que se han desarrollado bajo la óptica formal de las lenguas incorporando funciones comunicativas y pragmáticas, como ya se está haciendo en el marco de algunas teorías que trataremos más adelante. La lingüística funcional tiene su origen en la escuela estructuralista del círculo de Praga, a principios del siglo XX. De todas formas, en este contexto convivieron las primeras nociones del funcionalismo junto a un formalismo estricto. Efectivamente, las primeras tesis del funcionalismo lingüístico las encontramos en las teorías de Vilem Mathesius y Roman Jakobson, entre otros, mientras que Nicolai Trubetzkoy, uno de los exponentes más famosos y reconocidos del círculo lingüístico de Praga, desarrollaba una teoría formal de delimitación y clasificación de fonemas y alófonos. Así es, la propuesta de Nicolai Trubetzkoy de un método efectivo para determinar los fonemas frente a los alófonos y para distinguir los tipos de alófonos, constituye un buen ejemplo de una concepción de la lingüística basada en reglas formales que ayuden a establecer de una manera objetiva el objeto de investigación. Estos tratamientos formales de la fonología fueron desarrollados posteriormente por uno de los grandes fundadores del funcionalismo lingüístico, Roman Jakobson, quien emigrado a Estados Unidos desarrolló, junto al fonólogo Morris Halle, la teoría de rasgos fonológicos. La definición de estos rasgos distintivos estaba basada en las propiedades acústicas del sonido, que son observables solo a través de aparatos que miden las propiedades físicas del sonido. Noam Chomsky toma estos rasgos fonológicos de Roman Jakobson y Morris Halle como punto de partida para proponer, de nuevo junto a Morris Halle, sus 33

Métodos formales en Lingüística

propios rasgos fonológicos de base articulatoria. Actualmente la fonología se mantiene en un elevado grado de formalización, por ejemplo en la Teorías de la Optimalidad o la Teoría Derivacional. Por otra parte, como ya se ha indicado anteriormente, la lingüística formal suele identificarse con la obra de Noam Chomsky, aunque otros autores se han dedicado a ella antes que él de una manera menos reconocida. Estructuralistas como Charles Hockett o Zellig Harris o categorialistas como Ajdukiewicz o BarHillel deben considerarse lingüistas formales, así como los estructuralistas de la escuela de Copenhague o los fonólogos de la escuela de Praga que ya hemos comentado. Pero es cierto que hoy día Noam Chomsky se considera el máximo promotor de la lingüística formal, a pesar de que sus propuestas cada vez son menos formales, en términos estrictos. Los criterios formales del estudio de las lenguas humanas se basan exclusivamente en las propiedades estructurales intrínsecas de las unidades lingüísticas y de sus relaciones y procesos. Las lenguas se contemplan como estructuras matemáticas de algún tipo y se utilizan modelos de la lógica y de las matemáticas para estudiarlas, tal y como se hace en muchas otras ciencias. Por ejemplo, bajo esta óptica, las lenguas pueden ser estudiadas como álgebras formadas por un conjunto de unidades, así las palabras relacionadas por un conjunto de operaciones –como la concatenación entre las palabras– con las que se intentan expresar las generalizaciones y procesos que les atañen. Asimismo, además de la lógica y el álgebra pueden usarse teoría de conjuntos, grafos, matrices de rasgos, por citar algunos mecanismos formales muy utilizados. A veces parece que se habla de la lingüística formal como si solo estuviera interesada por aspectos del lenguaje independientes del significado o de la función comunicativa, como por ejemplo la fonología y la sintaxis, pero esto no es exacto. Si bien es verdad que el autor que ha devenido el más representativo de la lingüística formal, Noam Chomsky, se ha dedicado esencialmente a la sintaxis y muy secundariamente a la fonología, el estudio de la semántica –particularmente la de la oración– ha sido esencialmente formal, tan formal que la mayor parte de los lingüistas la desconocen por no haber recibido cursos específicos de lógica matemática que les posibilite su comprensión. Asimismo, existen grandes autores que han usado métodos formales desde la óptica funcionalista, como Simon Dik, Talmy Givón o Kees Hengeveld, entre otros muchos. Así pues, el uso de métodos formales y del punto de vista formal no es exclusivo de los modelos chomskianos. Lo que sí es verdad es que tanto el paradigma chomskiano como los modelos posteriores que han adoptado la gramática generativa como mecanismo de formalización gramatical, pero que no son transformacionales ni tienen pretensiones psicolingüísticas, hacen uso de la lógica y las matemáticas como metalenguaje 34

Fundamentos del estudio formal de las lenguas

inambiguo, conciso y expresivo. Digamos que el criterio inicial que habíamos expuesto en este capítulo está cambiando poco a poco, a la par que los funcionalistas incluyen cada vez más aparato matemático y más métodos formales para estudiar las lenguas humanas. Por lo tanto, cada vez hay más lingüísticas que hablan de lingüística formal refiriéndose a las corrientes lingüísticas que emplean métodos formales en su aproximación al lenguaje, independientemente de si se fundamentan en la forma o en la función. Veamos un par de ejemplos de la diferencia que entraña tal cambio de perspectiva. Por un lado, podemos evaluar la corriente iniciada por Robert van Valin y Randy LaPolla, que se considera funcionalista, pero que utiliza una metodología basada en la lógica que entraña dificultad para aquellos que no hayan recibido cursos específicos previos. Por otra parte, podemos evaluar la corriente iniciada por Joan Bresnan, que se considera formalista pero que utiliza el concepto de función gramatical no solo como primitivo de la teoría sino que constituye el mecanismo fundamental para expresar las relaciones abstractas entre las unidades y los procesos que les acaecen. En la corriente de estudio gramatical de Joan Bresnan y sus seguidores, la estructura funcional es el marco en el que se representa también la información universal común a las lenguas. Desde el punto de vista del presente libro ambas perspectivas deben de ser estudiadas en función de los métodos formales que utilizan en el estudio del lenguaje. La diferencia cualitativa es que para acceder, siguiendo con el ejemplo, a la gramática funcionalista de Robert van Valin y Randy LaPolla hay que haber estudiado lógica y al final son los métodos formales que ha aprendido el lingüista los que le permiten acceder o no a un cierto campo de investigación, creándose dos grandes grupos de lingüistas: los que conocen los métodos formales más generales de la lógica, la estadística, el álgebra (aplicada a la gramática), la teoría de conjuntos, los grafos y las matrices de rasgos y son capaces de aprender cualquier aproximación al lenguaje, sea funcionalista o formal, y los que no conocen los métodos formales más habituales y, por lo tanto, deben circunscribir su ámbito de estudio a las teorías no formalizadas. La formalización aporta precisión, claridad, inambigüedad y capacidad de falsar las teorías de forma estricta, ya que si no sabemos con precisión lo que afirman las hipótesis es muy difícil poderlas falsar. Parece que para hacer una teoría general es necesario el uso de cierto grado de formalización. Asimismo, dentro de las corrientes funcionalistas, y en general dentro de las corrientes que estudian el lenguaje en su contexto social, ha nacido un nuevo tipo de aplicación de métodos matemáticos al estudio de los fenómenos de las lenguas humanas. Efectivamente, se trata del uso de la estadística. Dentro de la lingüística basada en la forma independientemente de la función comunicativa es mucho 35

Métodos formales en Lingüística

menos habitual el uso de los programas estadísticos, mientras que en los estudios funcionalistas, sociolingüísticos y de análisis del discurso y de la conversación está generalizado. A todo ello se ha sumado la denominada lingüística del corpus, que no es en sí misma un paradigma de estudio dentro de la lingüística, sino un tipo de método formal para estudiar el lenguaje escrito o transcrito basado en el análisis estadístico de los datos lingüísticos, que en formato electrónico y convenientemente etiquetados y preparados informáticamente son tratados por medio de programas estadísticos. Con los números resultantes, el lingüista tanto puede establecer descripciones y clasificaciones como estudiar los procesos lingüísticos, confirmar hipótesis y formular reglas sobre el comportamiento lingüístico de los datos contenidos en el corpus. También pueden establecerse nuevas hipótesis a partir de los números obtenidos, pero lo que no debería hacerse es establecer reglas inductivas de pretensión generalizadora a partir de los porcentajes obtenidos ya que su validez científica es nula (no se trata de generalizaciones, sino de reglas aplicables solo al corpus). Hemos señalado que en la lingüística basada en la forma es menos común el uso de la estadística. En estas corrientes es común basar la contrastación empírica en los juicios de gramaticalidad del propio lingüista. Sin embargo, creo que estas perspectivas de estudio del lenguaje podrían beneficiarse de la lingüística del corpus para realizar una contrastación más segura de sus hipótesis. Pero ante todo es importante tener en cuenta que los tipos de hipótesis que se realizan guiadas por una teoría y no inducidas por métodos de análisis estadístico suelen necesitar cierto tipo de ejemplos cualitativos más que un volumen de ejemplos cuantitativamente alto. No obstante esto, a veces hay casos dudosos basados en los juicios de gramaticalidad del lingüista en los que se apoyan algunas teorías que deberían contrastarse empíricamente en corpus para obtener un veredicto de gramaticalidad más imparcial. Antes de finalizar esta sección hay que señalar que también existen otras corrientes lingüísticas que ni parten de los presupuestos funcionalistas del estudio del lenguaje ni han adoptado las gramáticas generativas como base de su análisis gramatical, pero que también adoptan el enfoque formal al estudio del lenguaje. Dentro de estas corrientes podríamos citar la Gramática Categorial, con autores como Mark Steedman, Michael Moortgat o Glyn Morrill, la Semántica de Richard Montague, con David Dowty, Robert Wall o Stanley Peters, o la Teoría de Representación del Discurso propuesta por Hans Kamp y Uwe Reyle, entre otras. En definitiva, es lícito hablar de la lingüística formal como conjunto de corrientes que usan métodos matemáticos de algún tipo para realizar su objeto de estudio, ya sea desde una óptica basada en la función comunicativa o en la forma física independientemente de su función. Por lo tanto, desde este punto de vista 36

Fundamentos del estudio formal de las lenguas

también formarán parte de la lingüística formal los modelos funcionalistas que usan métodos formales para el estudio del lenguaje y que aportan riqueza a la lingüística formal en cuanto conjunto de aproximaciones a la lingüística que utilizan métodos formales en su estudio de las lenguas humanas.

1.2.3. Sintacticismo frente a lexicalismo Otro aspecto fundamental en la formulación de las teorías lingüísticas es en qué nivel de análisis resolver los fenómenos gramaticales. Por un lado se ha estudiado la opción de representar en las reglas sintácticas la complejidad de la combinatoria gramatical. Por otro lado se ha investigado la posibilidad de pasar todo el peso descriptivo y explicativo de la combinatoria gramatical al léxico. En las primeras propuestas formales las gramáticas se dividían en componentes de análisis que presentaban una estructuración estanca entre categorías morfológicas, sintácticas y semánticas. Esto hacía que ciertos procesos gramaticales se procesaran en el componente morfológico, como por ejemplo la información gramatical que estaba expresada en la flexión en una cierta lengua. Esta misma información era procesada en el componente sintáctico si en otra lengua no existía morfología ligada sino libre. Esto conducía al absurdo de que los mismos fenómenos fueran tratados en componentes diferentes dependiendo de su expresión física superficial en cada lengua. Por este motivo se empezó a considerar que la información contenida en la morfología flexiva debía incorporarse a las reglas sintácticas y en particular, esta es la opción que adopta Noam Chomsky en sus primeras formulaciones gramaticales. En estos modelos ya se considera que el componente morfológico se ocupa solo de la formación de palabras por medio de la morfología derivativa y de la composición. La evolución de la Teoría Estándar de Chomsky (desde 1957 hasta finales de los 70 del siglo XX) mostró que el número de reglas de las gramáticas particulares que se construían para las competencias lingüísticas de las lenguas era excesivo y que todas las estructuras sintagmáticas compartían un núcleo gramatical que seleccionaba complementos y especificadores de cierto tipo. Esto condujo a la reducción del número de reglas en beneficio de un esquema sintagmático genérico organizado en torno a las relaciones especificador-núcleo-complemento. Este importante cambio se produjo en la década de los 80 dentro de la denominada Teoría de Principios y Parámetros. En este esquema sintagmático general se consideraba una regla universal en la que un núcleo podría escoger a su(s) complemento(s) y a un especificador y podía adjuntarse con un número ilimitado de complementos opcionales. Esta era la regla sintáctica universal (sensible al orden 37

Métodos formales en Lingüística

de palabras) y el resto de la información gramatical, tanto de selección categorial como de selección semántica, de concordancia y de asignación de rasgos y propiedades, se producía desde las estructuras léxicas. El cambio fue radical, se había partido de la incorporación de la morfología flexiva a la sintaxis y se había terminado incorporando la información gramatical y sintáctica en la representación léxica para que la combinatoria sintáctica se realizara mediante procesos de selección, generación y control dirigidos por el propio léxico. Actualmente, en la denominada Teoría Minimista, el lexicalismo del programa chomskiano ha ido mucho más allá y ya no hay ningún esquema prefijado de combinatoria sintagmática. Simplemente las categorías gramaticales se funden en virtud de sus propiedades de selección para formar nuevas categorías sintagmáticas y no hay ningún pre-esquema que encasille la estructura de los sintagmas. El léxico determina la estructura que va a tener la construcción gramatical y las relaciones que se van a establecer entre las categorías que la integran, independientemente de su materialización formal superficial. Como se ve, los componentes de la gramática generativa transformacional original que correspondían a los niveles de análisis lingüístico se han desdibujado y surge una nueva relación entre la morfología, la semántica y la sintaxis. Nos encontramos con que parte de la sintaxis se traslada al nivel morfológico y otra parte pasa al nivel semántico. La clásica estructura en componentes o niveles ha sido sustituida actualmente por una estructura de módulos que interactúan para dar un resultado gramatical completo. Otro aspecto que el lexicalismo ha hecho cambiar en la Gramática Generativo Transformacional es la propia existencia de las transformaciones. Efectivamente, en los modelos gramaticales asociados a la Teoría Estándar existía un gran número de reglas sintácticas que operaban sobre las categorías gramaticales elidiéndolas, cambiándolas de sitio, insertándolas. En la teoría de los 80, la denominada Teoría de Principios y Parámetros, se eliminan todos los tipos de transformaciones salvo las de movimiento de categorías. Y en la teoría actual, el Minimismo, se han eliminado todas las reglas transformacionales. Actualmente todos los procesos sintácticos se computan en un solo nivel de representación guiados por las propiedades léxicas de las categorías implicadas en la construcción gramatical y luego los niveles fonético y conceptual se encargan de los últimos ajustes (que no son pocos ni triviales). Pero toda esta evolución del sintacticismo al lexicalismo Chomsky no la ha realizado solo, ni mucho menos. Para hacer honor a la verdad, debería decirse que la ha realizado empujado por las críticas de los propios gramáticos que trabajaban en su modelo, por la de muchos que lo abandonaron y por la de otros muchos que nunca formaron parte de él. Vamos a abundar un poco en esta afirmación. Por un 38

Fundamentos del estudio formal de las lenguas

lado, están las corrientes lingüísticas que postularon el lexicalismo mucho antes de que Chomsky ni siquiera propusiera la Teoría Estándar, me refiero a la Gramática Categorial. Ya en 1935, Kazimierz Ajdukiewicz propuso un modelo de gramática categorial plenamente lexicalista, equivalente a la actual formulación de la regla de combinatoria sintagmática de la Teoría Minimista, pero es posible que Chomsky no haya tenido conocimiento de ese trabajo hasta muy entrado el siglo XX. A la vez que Chomsky propuso el modelo de principios y parámetros, otros autores propusieron modelos gramaticales lexicalistas, no tan lexicalistas como la Gramática Categorial o como la Teoría Minimista, pero sí considerablemente lexicalistas, como por ejemplo la Gramática Léxico-Funcional de Joan Bresnan o la Gramática de Estructura Sintagmática Generalizada (GPSG) propuesta por Gerald Gazdar, o la Gramática Sintagmática dirigida por el núcleo de Carl Pollard y Ivan Sag o los modelos actualizados de la Gramática Categorial de David Dowty, Emmon Bach o Mark Steedman, entre otros. Actualmente seguimos con modelos lexicalistas radicales, como la Gramática Léxica de Richard Hudson, la Gramática de Construcciones de Charles Fillmore o las variantes multimodales de la Gramática Categorial de Michael Moortgat y Glyn Morrill, dejando de lado muchas aproximaciones y muchos autores lexicalistas. La voluntad lexicalista de las teorías gramaticales ha promovido la inclusión de nuevos métodos formales en la lingüística. En particular ha representado un gran avance el desarrollo de las matrices de rasgos para expresar unitariamente las propiedades lingüísticas de las unidades léxicas, tanto morfosintácticas, como semánticas, pragmáticas o fonológicas. Asimismo, sobre estas matrices de rasgos que expresan todo tipo de valores lingüísticos se aplican operaciones muy útiles desde el punto de vista combinatorio, como la unificación, o desde el punto de vista del control de relaciones entre las categorías, como la “reentrancia”, conceptos que serán tratados en profundidad en el capítulo 3.

1.2.4. Procesamiento serial o paralelo Por último, trataremos otra posible opción que se plantea entre las teorías lingüísticas. Un modelo lingüístico puede escoger entre organizar las reglas o mecanismos que procesen la información lingüística correspondiente a los diversos niveles de análisis serialmente, es decir computando primero un nivel y después otro para obtener un resultado final tras este procesamiento de operaciones encadenadas, o puede concebir el cómputo de los procesos lingüísticos como una interacción en paralelo de las reglas o mecanismos de producción o de restricción gramatical que confluyen solidariamente en la construcción de un objeto lingüístico 39

Métodos formales en Lingüística

final. La elección entre un procesamiento serial de los mecanismos lingüísticos o un procesamiento paralelo tiene varias consecuencias importantes, ya sea desde el punto de vista de las asunciones ontológicas como desde el punto de vista de las predicciones que produce la teoría o sobre las restricciones de aplicación que provoca. Vamos a mostrar algunos de ellos. Los modelizaciones generativas desarrolladas por Noam Chomsky siempre han tenido una organización general serial debido a la asunción de partida de que la sintaxis es autónoma. Esto provoca que el cuerpo central de los modelos chomskianos siempre esté protagonizado por el procesador sintáctico, que toma su input del léxico y que desemboca en los procesadores fonológico y fonético, por un lado, y semántico, por otro. En la Teoría Estándar esta organización era literalmente serial, el resultado del componente léxico era la entrada del procesador sintáctico de base, a cuyo resultado se le aplicaba el procesador de transformaciones sintácticas que luego era direccionado a las interpretaciones fonética y semántica. En el modelo de Principios y Parámetros el léxico produce la construcción sintáctica al aplicársele el esquema X’, al que se le aplican modularmente varios componentes que controlan la buena formación gramatical y a cuyo resultado se le aplican las reglas sintácticas de movimiento categorial. La representación sintáctica resultante es la entrada, por un lado, del módulo fonológico que producirá una forma fonética aplicando a los fonemas unas reglas de transformación que produzcan los alófonos correspondientes al contexto de articulación. Independientemente, a la representación sintáctica resultante se le aplicarán una serie de operaciones de forma lógica que darán como resultado la interpretación semántica. Así pues, en este modelo encontramos un procesamiento general serial, aunque en el módulo sintáctico de base se da una aplicación en paralelo de varios principios y restricciones de buena formación que garantizan la gramaticalidad de la representación sintáctica resultante. En el modelo Minimista la arquitectura se simplifica puesto que no hay varios niveles de procesamiento sintáctico, sino que todas las operaciones sintácticas se producen en un único nivel de representación, pero el modelo sigue siendo de procesamiento serial y de nuevo se parte de un léxico, ahora muy poderoso, que se proyecta en la estructura sintáctica que, a su vez, produce una representación que constituye la entrada del sistema perceptivo que producirá la salida sonora y del sistema conceptual que producirá la representación semántica. Una de las restricciones importantes de adoptar un modelo de procesamiento serial es que las reglas y mecanismos que forman parte de los niveles más bajos de la arquitectura del modelo gramatical no pueden influir en las operaciones que forman parte de los niveles más altos, lo cual es un inconveniente que no se da en 40

Fundamentos del estudio formal de las lenguas

los modelos de procesamiento paralelo. Por lo tanto, se puede afirmar que los modelos seriales son unidireccionales y en particular, en los modelos chomskianos primero se produce la sintaxis y después la semántica, por lo que no puede esperar que ningún requisito semántico influya en la generación sintáctica. Esto es un gran inconveniente por muchas razones, de entre las cuales solo voy a destacar la de interpretación incremental o truncada. Ciertamente, cuando se está generando un enunciado, sería deseable que si el proceso se trunca se pudiera obtener una interpretación parcial del fragmento producido, así como una representación sintáctica parcial y una representación fonológica parcial con su correspondiente forma fónica parcial. En un modelo serial, si una emisión se trunca no es posible ofrecer una representación parcial del fragmento de información lingüística producida. Por ejemplo, si alguien iba a decir (1) pero no termina de emitir el enunciado y produce un fragmento lingüístico como (2), un modelo serial no podría producir ninguna salida fonética ni semántica para este fragmento puesto que no se ha podido construir una representación sintáctica de esta oración, a la que le falta un argumento obligatorio: (1) (2)

Las montañas nevadas emitían reflejos iriscentes. Las montañas nevadas emitían (…).

En cambio, este fragmento podrá recibir una forma fonética, una representación sintáctica parcial y una interpretación semántica parcial en las teorías que dispongan de forma paralela el procesamiento de las operaciones fonológicas, sintácticas y semánticas, como es el caso de la Gramática Léxico-Funcional, de la Gramática Sintagmática dirigida por el léxico, de la Gramática Categorial, de la Gramática de Construcciones, de la Sintaxis Dinámica y de muchas otras teorías lingüísticas actuales. En particular se puede citar el modelo de semántica incremental de Mark Steedman, basado en la operación de composición de funciones formalizada en la Gramática Categorial Combinatoria y la Sintaxis Dinámica, teoría lingüística de la interpretación incremental aplicada a la conversación, desarrollada por Ruth Kempson y sus colaboradores. Las teorías que adoptan un procesamiento paralelo de las operaciones lingüísticas aplican a la vez las reglas y mecanismos con los que se construye la representación fonológica, sintáctica, semántica y/o pragmática, permitiendo la interacción entre las reglas de los diversos componentes. El léxico guía la sintaxis y la semántica y otros posibles niveles de información lingüística y se podrán establecer relaciones transversales entre los componentes gramaticales ya que cualquier información está disponible en cualquier momento del proceso. Asimismo, utilizando modelos de procesamiento paralelo, en cualquier momento se pueden obte41

Métodos formales en Lingüística

ner representaciones de información lingüística parcial, con lo que la secuencia (2) podría obtener una representación sintáctica y semántica, así como una forma fonética. En definitiva, desde el punto de vista adoptado en este manual es más útil organizar los modelos de manera que el procesamiento sea paralelo. No obstante nunca se sabe lo que la contrastación empírica nos puede llegar a demandar, siempre se puede dejar abierta la posibilidad de inscribir partes seriales dentro de un procesamiento general en paralelo. Con esto finalizamos este capítulo introductorio a los fundamentos del estudio formal de las lenguas. En el resto de los capítulos nos dedicaremos a desarrollar algunos de los principales métodos formales que se han utilizado para llevar a término las distinciones a las que nos hemos referido en el transcurso del presente capítulo.

42

2

Las Gramáticas Formales

A mediados del siglo XX Noam Chomsky propuso la teoría y la tipología de las Gramáticas Formales, que supuso una revolución en el ámbito de la lingüística formal. Tales gramáticas intentan dar un patrón formal para construir las reglas de las gramáticas generativas. Una gramática generativa está formada por un conjunto de reglas que producen secuencias de categorías sintácticas que se corresponden con oraciones gramaticales de una lengua y permite distinguirlas de las oraciones agramaticales. En este caso los conceptos de gramaticalidad y agramaticalidad no tienen nada que ver con la gramática prescriptiva, sino con los supuestos de la gramática y de la teórica, tal y como fueron presentadas en el capítulo 1, apartado 1.1.1. Dentro de la concepción de gramaticalidad que aquí nos ocupa, es gramatical una secuencia de unidades lingüísticas que está bien formada en relación a unas reglas de producción combinatoria de cadenas de categorías. Por otra parte, se considera agramatical toda secuencia de categorías lingüísticas que transgreda las instrucciones expresadas en las reglas de la gramática. Las gramáticas tienen la propiedad de discriminar entre las oraciones bien formadas, o gramaticales, y las mal formadas, o agramaticales. Se asume que los hablantes nativos tienen la capacidad de discriminar entre las oraciones gramaticales y las agramaticales sin ningún tipo de instrucción explícita, simplemente en virtud del proceso de adquisición lingüística natural que ha hecho posible el almacenamiento del conocimiento gramatical competente. Desde el punto de vista de Chomsky, las reglas de una gramática generativa deben intentar representar de manera formal el conocimiento que un hablante nativo tiene de su lengua. Fuera de los ámbitos de la lingüística desarrollada por Noam Chomsky y sus seguidores, y especialmente en el campo relativo a la Lingüística Computacional, a menudo se han utilizado estas gramáticas formales tanto descriptiva como predictivamente, pero sin hacer alusión a las descripciones ni a las predicciones de naturaleza psicolingüística.

43

Métodos formales en Lingüística

Para representar formalmente el concepto de gramática generativa, Chomsky (1957) propuso el mecanismo de las gramáticas formales. Antes de acometer la introducción de tales formalismos es necesario indicar que, en esta concepción de la teoría lingüística, las lenguas son contempladas como el resultado de aplicar una serie de reglas combinatorias a conjuntos de palabras plenamente especificadas desde el punto de vista de sus valores gramaticales y que forman lo que se denomina el lexicón, que es un desarrollo de lo que tradicionalmente se ha denominado vocabulario. La diferencia entre lo que entendemos por un vocabulario y lo que entendemos por un lexicón es que el vocabulario está compuesto estrictamente por una lista de palabras mientras que el lexicón está formado por palabras dotadas de una completa información lingüística (o al menos lo más completa posible). Fuera de la lingüística chomskiana se ha desarrollado un formalismo utilísimo de representación lexicológica, las denominadas matrices o estructuras de rasgos, que veremos con detalle en el capítulo 4, apartado 4.2. El resultado de la combinación de palabras contenidas en el lexicón serán: los constituyentes, en los primeros niveles combinatorios; los sintagmas en el siguiente nivel; y en última instancia, las oraciones de una lengua. Este tipo de aproximación al análisis de las lenguas es de base algebraica ya que las lenguas se conciben como un conjunto de unidades combinadas por medio de un conjunto de operaciones para dar como resultado ciertas estructuras algebraicas (que representan estructuras lingüísticas, como por ejemplo las oraciones). Este tipo de aproximación algebraica se puede aplicar a cualquiera de los niveles lingüísticos, en particular se ha aplicado a la Fonología, la Morfología, la Sintaxis y la Semántica de la oración. No obstante hay que admitir que desde el punto de vista algebraico, existen muchos más trabajos dedicados a la Sintaxis que al resto de los niveles de análisis lingüístico, aunque también hay interesantes aportaciones en el campo de la Fonología que comentaremos con especial atención en el capítulo 3, apartado 3.2. En cambio, la Semántica Oracional ha sido muy poco trabajada por los lingüistas, al menos en comparación al enorme flujo de trabajos que han desarrollado al respecto los filósofos del lenguaje. Los lingüistas se han dedicado más a la Semántica Léxica desde un punto de vista descriptivo y estructuralista, por un lado, y a la Pragmática, por otro, siguiendo las teorías de los filósofos del lenguaje Austin, Searle, Grice, Sperber y Wilson, Carston, entre otros, que no se cuentan entre los investigadores que sostienen el punto de vista algebraico. La operación algebraica más utilizada en Sintaxis es la concatenación, que simplemente permite combinar unidades sintácticas más simples con las que tienen inmediatamente a su derecha o a su izquierda para formar categorías gramaticales más complejas, como constituyentes, sintagmas y oraciones, que a su vez se 44

Las Gramáticas Formales

combinan por concatenación con otras categorías para formar estructuras de nivel de complejidad cada vez mayor. A continuación, veremos un ejemplo de dicha concepción algebraica de la combinatoria lingüística aplicada a la sintaxis. Se partirá de un lexicón muy sencillo pero en el que se propondrán conjuntos de rasgos gramaticales que se asignarán a las palabras. Asimismo, tendremos algunos ejemplos de categorías sintácticas y una serie de reglas combinatorias de concatenación.

CUADRO 2.1 Concepción algebraica de la combinatoria lingüística Supongamos las siguientes categorías gramaticales: N = nombre Det = determinante SN = sintagma nominal V = verbo SV = sintagma verbal fem = femenino pers = persona sing = singular pos = posesivo indef = indefinido trans = transitivo Y las siguientes asignaciones de valores en el lexicón: casa {N, fem, 3pers, sing} jardín {N, masc, 3pers, sing} mi {Det, pos, 1pers, sing} un {Det, indef, masc, sing} tiene {V, trans, 3pers, sing} Y las reglas combinatorias que se ofrecen a continuación: 1. 2. 3.

Concatena_SN {Det, N} Concatena_SV {V, SN} Concatena_O {SN, SV}

45

Métodos formales en Lingüística

Aplicando las reglas de concatenación (1-3) a las categorías gramaticales de esta gramática de ejemplo, obtendríamos una estructura algebraica que nos permitiría generar, por ejemplo, la siguiente oración: (2.1)

Mi casa tiene un jardín

Esta oración se habría generado aplicando la regla de concatenación (1) a las entradas del lexicón ‘mi’ y ‘casa’, por un lado, y a ‘un’ y ‘jardín’, por otro. A continuación se aplicaría la regla (2) a ‘tiene’ y a ‘un+jardín’ y por último se aplicaría la regla (3) a ‘mi+casa’, por un lado, y a ‘tiene+un+jardín`, por otro. Como se ve las reglas permiten producir las oraciones, esto es a lo que se denomina una gramática generativa. Con este ejemplo todavía no se aprecia el gran poder expresivo, la economía y la gran utilidad de estos formalismos. Por ahora solo hemos pretendido ilustrar la concepción algebraica de la gramática formal que subyace a la noción de gramática generativa. Esta concepción contrasta fuertemente con la de la gramática tradicional, donde la gramática es entendida como un conjunto de capítulos dedicados a la descripción de los aspectos gramaticales de cada una de las clases de palabras, independientemente de su combinatoria. Dentro de la concepción generativa de la gramática, lo esencial en ella es la combinatoria, dentro de que se parte de descripciones precisas del comportamiento gramatical de cada una de las categorías asociadas a las clases de palabras. Esta concepción de lo que es la gramática tiene mucho más que ver con una visión productiva del lenguaje. La gramática tradicional nos provee una visión estática e inconexa de cada una de las clases de palabras que componen una lengua. En cambio, la gramática generativa intenta profundizar en cómo se combinan tales clases de palabras para formar unidades complejas hasta llegar a las oraciones. Como ya indicábamos en el capítulo 1, actualmente hay autores también formales, como Ruth Kempson y sus colaboradores, o funcionales como Van Valin y LaPolla, que intentan ir más allá de la oración y abordar la generación del discurso con la complejidad asociada de dar cuenta de la construcción de las referencias, deixis y elipsis. Esta concepción generativa y formal del lenguaje que introdujo Chomsky a mediados de la década de los 50 del siglo XX ha sido un gran estímulo para muchas áreas de conocimiento e investigación dentro de la lingüística y en el estudio de lenguajes formales. Efectivamente, dentro de la disciplina general que se dedica a la Inteligencia Artificial se ha desarrollado una amplia subdisciplina dedicada a la modelización del lenguaje humano que se ha denominado Lingüística Computacional. La Lingüística Computacional se ha valido, y sigue valiéndose en 46

Las Gramáticas Formales

gran medida, de las gramáticas formales que propuso Noam Chomsky para la modelización computacional de las combinatorias posibles en las lenguas, con el objeto de simular en los ordenadores comportamientos lingüísticos inspirados en los de los humanos. Actualmente, la Lingüística Computacional es de las pocas que siguen utilizando las gramáticas formales tal y como las propuso Chomsky al inicio de su carrera, puesto que en la lingüística actual las gramáticas formales han sufrido grandes modificaciones desde que se hicieron públicas en la obra de Noam Chomsky Estructuras Sintácticas (1957). Así pues, la sintaxis de las lenguas humanas puede verse como una estructura algebraica de más o menos complejidad. Hay que señalar que cuanta menor complejidad tengan las operaciones que postulemos, mayor complejidad habrán de tener las entradas del lexicón. Recíprocamente, cuanta mayor complejidad tengan las reglas de combinatoria sintáctica, menor complejidad podrán tener las entradas léxicas. Actualmente se ha optado por la primera de estas opciones, como se irá viendo a lo largo de este libro, aunque al principio se empezó con la segunda de las posibilidades, postulando una gran cantidad de reglas sintácticas bastante complejas y de entradas léxicas bastante simples, como ya hemos comentado en el capítulo 1 en el aprtado 1.2.3. En el capítulo 3, apartado 3.3, mostraremos gramáticas formales que ejemplificarán las dos posibilidades que acabamos de enunciar. A continuación, pasamos a exponer la teoría de Gramáticas Formales que hemos estado introduciendo hasta aquí. Una gramática formal se define de forma general como un dispositivo de estructura algebraica que produce secuencias de categorías a partir de la combinación de símbolos básicos, aplicando una serie de operaciones o de reglas de generación. Como ya se ha explicado anteriormente, hay que tener en cuenta que una estructura algebraica no es otra cosa que el resultado de aplicar una o varias operaciones a un conjunto de unidades. Tal y como hemos visto, en el caso del lenguaje podríamos definir de una forma muy sencilla una estructura algebraica aplicando una operación de concatenación sobre un lexicón (o diccionario mental). Así pues, como pequeño ejercicio, el lector podría considerar un vocabulario simple formado por {la, muchos, biblioteca, libros, central, de, tiene} y pensar en unas reglas de concatenación análogas a las expuestas en el cuadro 2.1 que permitieran construir combinaciones como la del ejemplo siguiente: (2.2)

La biblioteca central tiene muchos libros

Si después de pensarlo y de intentar formular las reglas combinatorias no le parece tan sencillo, debe esperar a ver los formalismos tan elegantes que Chomsky propuso para realizarlo. 47

Métodos formales en Lingüística

Una gramática formal se puede definir como un conjunto ordenado de cuatro elementos, una cuádrupla, formada por: 1. Un conjunto de símbolos terminales V, que podrían ser las categorías léxicas o vocabulario. 2. Un conjunto de símbolos no terminales Σ, que por ejemplo podrían ser las categorías sintagmáticas y que nos servirán para agrupar en constituyentes y sintagmas las categorías que se combinen por relación sintagmática 3. Un símbolo inicial axiomático que pertenece al conjunto Σ y que denominaremos O, del que parten todas las generaciones de secuencias que produce la gramática, como la categoría oración 4. R, que es un conjunto finito formado por todas las reglas de producción de la gramática que tomarán la forma X→Y, donde X e Y son sucesiones finitas del vocabulario total, es decir de la unión del vocabulario no terminal Σ y del terminal V.

CUADRO 2.2. Esquema general de una Gramática Formal para las lenguas Una gramática formal está formada por cuatro conjuntos de elementos: GF = Donde: V = vocabulario, que nos permitirá tener almacenadas y definidas las entradas léxicas. Σ = símbolos no terminales de la gramática, como SN, SV, etc., que nos permitirán agrupar las categorías en constituyentes y sintagmas hasta llegar a la categoría raíz o distinguida. O = categoría distinguida, es el axioma o categoría raíz de la categoría gramatical más compleja que se considere, normalmente oración. R = conjunto de reglas de combinación.

Esta definición es muy general y abarca gran cantidad de gramáticas concretas. En realidad es fácil ver que se podrían expresar todas las gramáticas de las lenguas humanas con tal de adaptar las reglas combinatorias, las categorías sintagmáticas y el conjunto V a las necesidades específicas de cada lengua. Incluso se podría pensar en un conjunto de categorías sintagmáticas lo suficientemente abstracto como para que no hubiera que cambiarlo de lengua a lengua, con lo que 48

Las Gramáticas Formales

solo habría que definir para cada lengua el vocabulario y la combinatoria sintagmática. Naturalmente la categoría distinguida Oración, o raíz, se mantendría de una gramática a otra. Asimismo, actualmente el vocabulario se ha extendido a un lexicón que, como ya hemos explicado, se diferencia del vocabulario por contener información gramatical asociada a la entrada léxica. Lo fundamental de este tipo de aproximación a la gramática es que provee un marco en el que desarrollar patrones de construcción de reglas gramaticales para expresar generalizaciones lingüísticas. Después de formular esta definición tan general, Chomsky investigó los posibles patrones de reglas que podían componer una gramática, lo cual nos dará tipos diferentes de Gramáticas Formales. En particular Chomsky propuso cuatro tipos de reglas formales que pueden constituir una gramática en estos términos y discutió su adecuación para la descripción, la generalización y la explicación lingüística. En este punto, es necesario aclarar algo de suma importancia. A pesar de que solemos pensar en las gramáticas como instrumentos teóricos para la representación de los fenómenos sintácticos, hay que indicar que estas gramáticas son útiles para expresar cualquier tipo de proceso lingüístico. Así, como veremos en el capítulo 3, apartado 3.2, se ha utilizado una de las gramáticas formales propuestas por Chomsky para expresar los procesos fonológicos que hacen que los fonemas se materialicen en alófonos. En realidad estas gramáticas son dispositivos formales que sirven para expresar procesos lingüísticos en general, sean sintácticos o de otro tipo, y a pesar del extenso uso que se les ha dado en sintaxis y en fonología todavía podrían aplicarse mucho más a ámbitos en los que todavía no han sido utilizados, como la pragmática o la sociolingüística. Lo fundamental es encontrar generalizaciones combinatorias o procedimentales con las que poder formalizar los fenómenos lingüísticos. Una vez descritos los procesos y delimitados los comportamientos generales, las gramáticas formales proveen un marco de representación formal para expresarlos. Por ejemplo, si observáramos de forma sistemática que en un cierto dialecto se realiza un cierto cambio o proceso fonológico, léxico o entonativo, o que en determinado contexto comunicativo se utilizan ciertas estructuras lingüísticas sintácticas, léxicas o fonológicas para denotar un cierto significado no deducible de la semántica lingüística sino de la pragmática, entonces las gramáticas formales nos aportarían una herramienta formal de expresión. Uno de los problemas fundamentales en el estudio del lenguaje es, precisamente, describir y generalizar los comportamientos y procesos lingüísticos. Encontrar un método de representación o de expresión de entre los que ya se han propuesto no es tan difícil, pero a menudo nos asusta la complejidad formal. A lo largo de este libro intentaremos explicar de forma sencilla tales métodos formales de representación de los datos, los procesos y las generalizaciones lingüísticas. 49

Métodos formales en Lingüística

En la década de los 50 del siglo XX, Noam Chomsky se propuso una reflexión en torno a cuál sería el tipo de gramática formal más apropiado para expresar los fenómenos lingüísticos. En el transcurso de dicha investigación desarrolló su teoría de Gramáticas Formales, una teoría que ha tenido unas repercusiones muy importantes en el estudio de la lingüística interna en general y en la expresión de los procesos fonológicos y sintácticos en particular. Chomsky (1957) formalizó la idea de gramática generativa a través de cuatro tipos de gramáticas formales de complejidad decreciente. Cada tipo incluye al siguiente grupo, de manera que las Gramáticas de tipo 0 (G0), o irrestrictas, son las más potentes y las que generan el rango más amplio de lenguajes. Como veremos, son demasiado potentes para dar cuenta de forma apropiada de los fenómenos de las lenguas humanas, o al menos de la forma en que los lingüistas quieren. El siguiente tipo de gramáticas formales está contenido en el anterior, pero es bastante menos potente y ofrece un conjunto más controlado de procedimientos formales. Son las Gramáticas de tipo 1 (G1) o dependientes del contexto. El siguiente tipo es algo más restrictivo y está contenido en los dos precedentes. Son las Gramáticas de tipo 2 (G2) o independientes del contexto. Por último, Chomsky propone el grupo más restrictivo, las Gramáticas de tipo 3 (G3) o regulares, contenidas en los tres tipos precedentes y que el propio Chomsky consideró demasiado restrictivas para la complejidad estructural de las lenguas naturales, aunque se han utilizado bastante en aplicaciones computacionales. Cada nuevo tipo de gramática se define al aplicar ciertas restricciones al tipo de gramática anterior, de manera que las G3 son las más restrictivas y son las que pueden generar menos variedad de estructuras y los lenguajes que pueden generar son un subconjunto de las de tipo G2, y lo mismo se puede decir de las G2 en relación a las G1 y de las G1 en relación a las G0. Esta tipología de gramáticas formales se ha denominado la Jerarquía de Chomsky, debido a esa estructura de inclusión que la caracteriza. Asimismo los lenguajes que pueden generar cada una de las gramáticas están en relación de inclusión desde el L3 al L0. Veámoslo en la figura 2.1. Como decíamos, esta jerarquía de Gramáticas Formales produciría una serie de lenguajes que estarían en relación de inclusión. Esta propiedad suele representarse con la siguiente notación de teoría de conjuntos: L0 ⊃ L1 ⊃ L2 ⊃ L3 La Jerarquía de Chomsky no solo se ha utilizado extensivamente en teoría lingüística sino también en lingüística computacional para formalizar lenguas naturales con el objetivo de procesarlas y simularlas algorítmicamente y, por otro lado, en teoría de la computación y en matemáticas para tratar con lenguajes artificiales. 50

Las Gramáticas Formales

G0 G1 G2 G3

Figura 2.1. Jerarquía de Gramáticas Formales de Chomsky.

Como hemos visto, uno de los componentes de las gramáticas formales es un conjunto de reglas. Las reglas de una gramática formal deben leerse de manera que las categorías que aparecen en su parte izquierda, también denominada cabecera, se redefinen de la manera especificada en la parte derecha de la regla. La parte derecha de las reglas a veces se denomina reescritura y a las reglas de las gramáticas formales, reglas de reescritura. La definición de cada gramática acotará o especificará el tipo de categorías que pueden aparecer en la parte izquierda y en la parte derecha y esto será esencialmente lo que las distinga. En particular, ninguna regla formal de las Gramáticas de la Jerarquía de Chomsky va a poder estar constituida de manera que la parte izquierda de la regla esté formada únicamente por un símbolo terminal, una palabra del vocabulario. Efectivamente, las cabeceras de las reglas siempre tienen que contener al menos una categoría gramatical y, dependiendo del tipo de gramática formal, pueden aparecer con ellas elementos léxicos (que constituyen los elementos terminales de las gramáticas de las lenguas y nunca podrán aparecer solos en la cabecera). En el cuerpo de las reglas no solo pueden aparecer tanto categorías terminales como no terminales sino que, en ciertos casos, también va a poder aparecer la denominada secuencia vacía, que se nota habitualmente como e. Esta posibilidad causará interesantes resultados, aunque su uso tendrá que acotarse adecuadamente. En particular, con la cadena e se podría dar cuenta de la elisión tanto de categorías léxicas como de categorías sintagmáticas. 51

Métodos formales en Lingüística

A continuación, vamos a presentar las características generales de cada tipo de gramática y los argumentos que Chomsky y otros lingüistas han dado a favor o en contra de su uso en lingüística. Los argumentos a favor o en contra de cada tipo de gramática giran en torno a la capacidad de poder representar el mayor número de fenómenos lingüísticos con el mecanismo que menos recursos formales requiera. Asimismo, desarrollaremos ejemplos comprehensivos de cada tipo de gramática de la Jerarquía de Chomsky para que se entienda mejor la diferencia que hay entre ellas y la posible utilidad de cada tipo de regla gramatical.

2.1. Gramáticas de tipo 0 o Irrestrictas Las reglas de producción de una gramática tipo 0 o irrestricta son muy potentes, lo que en la práctica quiere decir que son muy poco restrictivas y que se pueden generar muchas combinaciones con ellas. Por lo tanto incluyen al resto de gramáticas formales, que serán mucho más restrictivas al imponer condiciones de construcción de reglas. Asimismo, son formalmente equivalentes a lo que en informática se conoce como máquinas de Turing con lo que todo lo que se ha investigado sobre tales dispositivos pueden aplicarse a las Gramáticas Irrestrictas o de tipo 0. Estas reglas pueden tener ristras de categorías tanto en la cabecera como en la reescritura y pueden usarse para describir una gran variedad de procesos. La única condición que se impone para que una regla sea de tipo 0 es que la parte izquierda de la regla, o cabecera, contenga al menos un símbolo no terminal, todas las demás formulaciones son posibles. Recordemos que los símbolos no terminales se utilizan para las categorías sintagmáticas y se representan por medio de letras romanas mayúsculas, mientras que los símbolos terminales se utilizan para el vocabulario y se representan por medio de letras romanas minúsculas. Así, por ejemplo, las reglas de la columna izquierda del cuadro 2.3 serían posibles en una Gramática de tipo 0 porque todas las cabeceras contienen al menos un símbolo no terminal, no importa si en la parte derecha o cuerpo de la regla la reescritura los contenga o no. En cambio, las reglas de la columna izquierda no son reglas de tipo 0 posibles porque solo contienen categorías terminales en la parte izquierda de la regla. Tampoco se podrían formular reglas cuya cabecera estuviera formada exclusivamente por la cadena vacía, que se nota habitualmente como e. Más adelante, en este apartado, veremos la relevancia lingüística que tiene esta restricción. En los siguientes ejemplos hay que tener en cuenta que estas reglas no se utilizan para la descripción y el análisis de las lenguas naturales precisamente por52

Las Gramáticas Formales

que son demasiado potentes y no permiten expresar adecuadamente ciertos refinamientos de las estructuras lingüísticas.

CUADRO 2.3 Ejemplos de reglas posibles e imposibles en una Gramática de tipo 0 Reglas posibles

Reglas imposibles

SN → el niño

El niño → SN

SN V SN interesante→ SN V SN

El niño lee un libro interesante→ SN V SN

N ADJ → ADJ N

torre alta → alta torre

O siempre → SN SV ADV

siempre → ADV

SN → e

e → SN

La manera convencional de escribir las reglas de la Gramática tipo 0, o Irrestricta, formalmente incluye el uso de variables representadas normalmente por medio de letras griegas minúsculas. Estas letras griegas minúsculas simbolizan ristras de categorías lingüísticas. Así pues, la forma general de las reglas de tipo 0 es como se muestra a continuación: (2.3)

π→ϕ

Tal y como hemos explicado, aunque puede que a algunos esta fórmula les resulte incomprensible, en realidad es muy sencilla de interpretar: π y ϕ son variables que representan cadenas de símbolos, en nuestro caso ristras de categorías lingüísticas, y π tiene que contener alguna categoría no terminal, es decir, que se tenga que redefinir en términos más simples, por ejemplo una categoría sintagmática como SN o SV. Por supuesto esta categoría no terminal no tiene por qué referirse a la sintaxis sino que podría ser cualquier categoría lingüística, como una matriz de rasgos fonológicos que definan una clase natural de sonidos o, simplemente, un símbolo A que luego pueda recibir una definición en términos lingüísticos más simples hasta llegar a las categorías terminales. En el cuadro 2.4 exponemos un ejemplo lingüístico muy sencillo de Gramática de tipo 0. Que se trata de una Gramática Irrestricta se reconoce porque contiene reglas que presentan más de un objeto lingüístico en la cabecera. Queremos 53

Métodos formales en Lingüística

advertir que cualquier gramática, sea del tipo que sea, deberá tener un mecanismo que compruebe la correcta concordancia entre el género y el número de los sintagmas nominales, así como de la rección preposicional. Naturalmente, la gramática del cuadro 2.4 solo pretende ejemplificar el uso de la regla (2.3). En el capítulo 3, apartado 3.4, veremos un método formal muy simple y elegante que permite dar cuenta de la concordancia.

CUADRO 2.4 Ejemplo lingüístico de Gramática de tipo 0 (1) O → SN SV (2) O → SN SV Conj SN SV (3) SN SV → Det N V Det N (4) SN SV → Det N Adj V Det N (5) SN SV → Det N V Det N Adj (6) Det → el, la, un, muchas (7) N → chica, libro, ilustraciones (8) V → tiene (9) Adj → lista, interesante (10) Conj → y

Esta gramática podría generar oraciones con las estructuras especificadas a través de las categorías gramaticales consignadas a la derecha de la regla, como por ejemplo: (2.4) (2.5) (2.6) (2.7)

La chica tiene un libro. La chica lista tiene un libro. La chica tiene un libro interesante. La chica tiene un libro y el libro tiene muchas ilustraciones.

Para generar la oración (2.4) tendríamos que aplicar la regla (1) y la regla (3) y a continuación, utilizar las reglas de inserción léxica correspondientes de entre (6) a (10). Asimismo, para generar la oración (2.5) habría que aplicar las reglas (1) y (4), y de nuevo las reglas de inserción léxica. Para (2.6), las reglas (1) y (5) así como las reglas de (6) a (10) correspondientes y para (2.7), las reglas (1), (2), (3) y de nuevo (3) y las correspondientes reglas de inserción léxica. Por supuesto 54

Las Gramáticas Formales

esta gramática tan simple podría generar muchas más oraciones de las ilustradas aquí, sobre todo si añadiéramos más vocabulario. Asimismo, podríamos añadir más tipos de reglas combinatorias dentro de los límites de las Gramáticas Irrestrictas. Como, por ejemplo, reglas muy sencillas de permutación o de sustitución que el formalismo de las Gramáticas tipo 0 nos permite y que ofrecen una potencia expresiva enorme. Veamos un ejemplo de ello. Considérense las oraciones siguientes: (2.8) (2.9)

El chihuahua mordió a un labrador grande y el labrador pequeño mordió a un bulldog. El bulldog pequeño mordió al gran labrador y este al chihuahua pequeño.

En ellas podemos observar cambio de orden en la posición del adjetivo, sustitución de un sintagma nominal por un pronombre cuando aparece después de la conjunción y eliminación de un verbo en el segundo conjunto coordinante de una coordinación. En el cuadro 2.5 se propone una Gramática Irrestricta para dar cuenta de estas construcciones.

CUADRO 2.5 Ejemplo lingüístico de Gramática de tipo 0 para las oraciones (2.8) y (2.9) (1) O → SN SV (2) O → O Conj O (3) SN → Det N (4) SN → Det N Adj (5) SV → V P SN (6) N grande → gran N (7) Conj SN → Conj Pro (8) Conj SN V → Conj SN (9) Conj → y (10) Det → el, un (11) N → chihuahua, bulldog, labrador (12) Adj → grande, pequeño, gran (13) V → mordió (14) Pro → este (15) P → a (16) P el → al 55

Métodos formales en Lingüística

La gramática del cuadro 2.5 es extraordinariamente potente, pero su poder generativo está acotado por restricciones contextuales, ya que la permutación, la sustitución y la elisión se producen exclusivamente en un contexto muy determinado. La regla de permutación (6) solo se produce sobre los adjetivos ‘grande’ y ‘gran’. En el caso de la sustitución del sintagma nominal por el pronombre ‘este’, solo puede producirse detrás de la categoría de la conjunción. La elisión verbal está restringida a la oración del segundo conjunto coordinante oracional. Asimismo, también se ha introducido una regla de contracción ortográfica de la preposición y el artículo masculino singular. Como se puede observar, la flexibilidad, expresividad y potencia de este tipo de gramáticas es muy grande y, ajustando adecuadamente los contextos de aplicación, podrían dar resultados muy interesantes en la teoría lingüística. No obstante, sorprendentemente, han sido dejadas de lado por los gramáticos a pesar del uso velado que Chomsky les da en sus reglas transformacionales, como veremos en el capítulo 4, apartado 4.3. Otra posibilidad extraordinariamente potente que nos ofrecen las Gramáticas de tipo 0, Irrestrictas, es la de formular reglas que tengan la cadena vacía e en la parte derecha de la regla, con lo que se podrían elidir elementos. Por ejemplo, se podría tener una regla como: (2.10) SN → e Esta regla (2.10) permitiría elidir una categoría SN. Hay que tener en cuenta que, por lo que se ha explicado al principio de este apartado, no sería posible la regla (2.11): (2.11) e → SN Esta regla no es posible porque la única restricción que se impone a las Gramática de tipo 0 es que la parte izquierda de la regla contenga al menos un símbolo no terminal. Así pues, no se pueden hacer surgir de la nada categorías sintácticas ni, por supuesto, estructuras. Volviendo a (2.10) esta regla permitiría, por ejemplo, elidir el sujeto en las lenguas en las que puede omitirse el sujeto (denominadas a menudo en la bibliografía lenguas de sujeto nulo o con la terminología anglosajona, lenguas prodrop). El español es una de esas lenguas, así como el resto de las lenguas románicas salvo el francés. Pero si incluyéramos esta regla en nuestra Gramática tipo 0, no solo podríamos elidir los sujetos sino también los objetos directos y cualesquiera sintagmas nominales, contraviniendo así los límites de la gramaticalidad. Por lo tanto, esta posibilidad debe estar lingüísticamente controlada si se quiere dar cuenta de la sintaxis de las lenguas naturales. 56

Las Gramáticas Formales

Una de las formas más naturales de controlar el uso de la regla (2.10) sería a través de las categorías circundantes. A falta de otros recursos que introduciremos en los siguientes apartados, se tendría que escribir una regla para cada posible sujeto en combinación con cada posible predicado, lo que conllevaría una profusión de reglas inaceptable. No sería nada práctico ni, por supuesto, económico tener una regla para cada posible estructura descriptiva de una lengua. Quisiéramos tener gramáticas con el menor número posible de reglas y, además, lo más generales posibles (es decir, que con un menor número de reglas, se pudiera dar cuenta de un mayor número de casos). Basándonos en la Gramática de tipo 0 que hemos desarrollado anteriormente en el cuadro 2.4, a continuación exponemos un ejemplo del tipo de Gramática Irrestricta en la que quedaría reflejado el problema al que estamos aludiendo.

CUADRO 2.6 Ejemplo lingüístico de Gramática de tipo 0 que incluya la categoría e (1) O → SN SV (2) SN SV → e V Det N (3) SN SV → e V Det N Adj (5) SN SV → e V Det N Adv Adj (6) Det → un (7) N → libro (8) V → tiene (9) Adj → ilustrado, interesante (10) Adv → muy

La gramática del cuadro 2.6 permitiría producir las siguientes oraciones con sujeto elidido, utilizando las reglas de combinatoria consignadas de (1) a (5) y las reglas de inserción léxica de (6) a (10): (2.12) Tiene un libro. (2.13) Tiene un libro ilustrado. (2.14) Tiene un libro muy interesante. En la gramática del cuadro 2.6 se ha introducido también la posibilidad de que un adverbio intensifique a un adjetivo (i.e. SN SV → e V Det N Adv Adj). Por 57

Métodos formales en Lingüística

otra parte, se ha eliminado la regla de coordinación para simplificar las cosas y centrarnos en lo que ahora queremos mostrar. Lo que más nos interesa de la gramática del cuadro 2.6 es que las categorías que integraban los sujetos correspondientes han sido sustituidas por la cadena vacía e y eso nos llevaría a tener tantas reglas como posibles estructuras oracionales quisiéramos incluir, lo cual, como decíamos más arriba, es sumamente antieconómico. Naturalmente esto se puede expresar de una forma mucho más económica y elegante utilizando recursos de una Gramática de tipo 2, Gramática Independiente del Contexto, como veremos a su debido momento. Otro problema de los recursos exclusivos de las Gramáticas de tipo 0, que posiblemente ya se ha empezado a adivinar ante el ejemplo de gramática del cuadro 2.6, es que este tipo de reglas describe los hechos lingüísticos de una manera sumamente literal. Efectivamente, tales reglas permiten describir la combinatoria lingüística superficialmente, pero no reflejan generalizaciones. Utilizando solo los mecanismos exclusivos de las Gramáticas Irrestrictas es muy fácil generar secuencias de cadenas y por lo tanto, secuencias de categorías, pero lo que es más interesante para los lingüistas es poder expresar relaciones relevantes y agrupaciones estructurales lingüísticamente explicativas. Con una Gramática de tipo 0 pura, es decir restándole los mecanismos formales específicos al resto de las gramáticas formales, no alcanzamos mucha fineza expresiva desde el punto de vista lingüístico. Por este motivo Chomsky no las consideró apropiadas para dar cuenta de la complejidad estructural y de las relaciones lingüísticas que se dan en las lenguas naturales. Naturalmente, si se combinan los recursos de toda Jerarquía de Chomsky en una sola Gramática Irrestricta, de tipo 0, como hemos hecho en la gramática del cuadro 2.6, entonces el panorama cambia (sería equivalente a utilizar una máquina de Turing). Podría ser una idea atractiva utilizar esencialmente mecanismos de tipo 2 y de tipo 1, que veremos enseguida, combinados con recursos exclusivos de tipo 0 usados restringidamente y solo para tratar casos muy concretos. Explorar esa posibilidad podría ofrecernos interesantes teorías lingüísticas para el análisis de las lenguas naturales. Seguidamente ejemplificaremos el problema de la falta de economía en la utilización de recursos exclusivos de las Gramáticas Irrestrictas. Para ello, haremos uso de una nueva adaptación de la primera Gramática de tipo 0, expuesta en el cuadro 2.4. Con ella veremos que para generar las diferentes estructuras oracionales tendríamos que formular tantas reglas como ristras de categorías gramaticales combinadas en un cierto orden hubiera en esa lengua, lo cual resultaría de nuevo sumamente antieconómico. Para entender mejor esta cuestión solo tenemos que recordar lo que hemos explicado al principio de este apartado, que las reglas de tipo 0 están formadas por ristras de categorías que se reescriben como otras ristras de categorías. 58

Las Gramáticas Formales

CUADRO 2.7 Ejemplo lingüístico de la antieconomía de los recursos de tipo 0 (1) (2) (3) (4) (5) (6) (7) (8) (9) (10) (11) (12) (13) (14) (15) (16)

O → SN SV SN SV → Det N V Det N SN SV → Det N Adj V Det N SN SV → Det N V Det N Adj SN SV → Det N P Det N V Det N SN SV → Det N V Det N P Det N SN SV → Det N P Det N V Det N P Det N SN SV → Det N Adj P Det N V Det N SN SV → Det N Adj P Det N V Det N Adj SN SV → Det N Adj P Det N V Det N Adj P Det N SN SV → Det N P Det N Adj V Det N SN SV → Det N P Det N Adj V Det N P Det N SN SV → Det N P Det N Adj V Det N P Det N Adj SN SV → Det N Adj P Det N Adj V Det N P Det N Adj SN SV → Det N Adj P Det N Adj V Det N Adj P Det N Adj Det → el, la, un, una, los, las, unos, unas, muchas, muchos, algún, alguna, algunos, algunas… (17) N → chica, libro, ilustraciones, casa, silla, ordenador, mesa, lápiz… (18) V → tiene, usa, compra, vende, afila, lee, ordena, limpia, mira… (19) Adj → lista, interesante, sólido, ordenada, rápido, cómoda, bonita…

Como el lector puede haber adivinado, una gramática exclusivamente de tipo 0 no es solo nada económica, sino que es incapaz de dar cuenta de la complejidad de las lenguas humanas porque necesitaría un número infinito de reglas que corresponderían al número potencialmente infinito de las oraciones de una lengua. Vamos a intentar explicar adecuadamente esta afirmación. Noam Chomsky señaló ya desde sus primeros trabajos en la década de los cincuenta del siglo XX, y lo ha reiterado en trabajos tan actuales y de tanta repercusión en el mundo de la investigación lingüística como Hauser, Chomsky y Fitch (2002), que el número de oraciones de una lengua es potencialmente infinito y que, además, las oraciones podrían considerarse teóricamente ilimitadas en longitud. 59

Métodos formales en Lingüística

Naturalmente, el número de oraciones efectivamente proferidas (emitidas) en una lengua es finito (aunque enorme) y las oraciones efectivamente emitidas son siempre de longitud finita, por supuesto, aunque de longitud indefinida. Pero aquí Chomsky se está refiriendo a una capacidad, a una propiedad de la facultad humana del lenguaje. Con el lenguaje humano se podría generar un número infinito de oraciones que nunca se llegarán a producir efectivamente, estamos hablando de una capacidad. Además, cada oración podría siempre alargarse añadiendo un nuevo adjetivo, o un nuevo complemento preposicional, o de relativo o una nueva estructura conjuntiva (encabezada por una conjunción), por ejemplo. Este tipo de propiedad ha sido denominada por Chomsky productividad del lenguaje y, posiblemente, su representación formal es la que más ha atraído a los lingüistas que se han interesado por la obra de Noam Chomsky. La productividad lingüística va de la mano de la recursividad y su representación formal se basará en la formulación de reglas recursivas que, esencialmente, permitan reiterar la categoría de la cabecera en el cuerpo, o parte derecha de la regla. De esa manera, la cabecera se definirá por medio de una reescritura que a su vez contenga, o acabe llevando a través de diversos caminos, de nuevo a la cabecera. Esto creará un bucle de generación ilimitada de estructuras que solo se romperá haciendo uso de una regla de base, es decir de una regla cuyo cuerpo no contenga la cabecera ni conduzca a ella por medio de ninguna reescritura anidada. La regla base será una regla no recursiva, como las que hemos visto hasta ahora en los ejemplos de gramáticas que hemos expuesto, es decir, una regla en cuya parte derecha no aparezca la categoría de la cabecera, ni acabe llevando a ella por reescrituras posteriores.

CUADRO 2.8 Ejemplo de regla base y de regla recursiva (1) O → SN SV (2) SN SV → Det N V Conj O (3) SN SV → Det N V

En el cuadro 2.8 tenemos una regla base en (3); puesto que en su cuerpo no aparece ninguna repetición de la cabecera ni ninguna categoría contenida en el cuerpo, puede reescribirse de manera que nos lleve de nuevo a esta cabecera. En cambio, las reglas (1) y (2) conjuntamente forman un ciclo recur60

Las Gramáticas Formales

sivo. En principio, (1) no es una regla recursiva, puesto que en el cuerpo no aparece repetida la categoría O. Pero si vamos a la regla (2), que tiene por cabecera la reescritura de la regla (1), entonces nos encontramos con que en el cuerpo de (2) se vuelve a llamar a la regla (1). Con esta combinación de reglas (1) y (2) se podría crear un bucle indefinidamente largo de oraciones subordinadas. La recursividad es una propiedad general de las reglas de reescritura, y no es exclusiva de las reglas de tipo 0. No obstante, es más práctico explicarlo aquí puesto que las reglas de tipo 0 contienen a todos los demás tipos de reglas. No obstante los problemas que hemos indicado anteriormente en relación a las Gramáticas Irrestrictas o de tipo 0, en virtud de su gran capacidad expresiva se podrían dar cuenta de casos sintácticamente muy complejos, como por ejemplo las construcciones que impliquen un cambio de orden de las categorías en comparación con su correspondiente estructura aseverativa. Vamos a ver algunos ejemplos de oraciones con estructura gramatical compleja y que podrían generarse con reglas de tipo 0 por medio de permutación de categorías: (2.15) El libro es leído por la chica. (2.16) ¿Qué lee la chica? (2.17) El libro que lee la chica. Estas construcciones podrían generarse con una Gramática de tipo 0 que incluyera para (2.15) reglas de movimiento que permitieran trasladar el sintagma nominal objeto directo de una estructura enunciativa a la posición de sujeto, y el sujeto de la estructura enunciativa se moviera a la posición de complemento agente. Asimismo, la regla tendría que insertar la categoría preposicional ‘por’ en la cadena de categorías del cuerpo de la regla. Por lo tanto, la gramática tendría que tener reglas de permutación y reglas en las que la cadena del cuerpo de la regla fuera más larga que la cadena de la cabecera, es decir reglas que introdujeran categorías, lo cual es perfectamente posible para una gramática de tipo 0. Para la estructura correspondiente a la oración (2.16) necesitaremos igualmente reglas de permutación, pero también reglas de elisión y de sustitución de unas categorías por otras. Por último, para generar la estructura de la oración (2.17) serán necesarias las reglas de permutación y de introducción de categorías. A continuación, vamos a proponer una de las posibles Gramáticas Irrestrictas que darían cuenta de estas tres oraciones. Recuérdese que la única premisa para la formación de una regla de tipo 0 es que una cadena de categorías gramaticales se reescribe en otra ristra de categorías gramaticales. 61

Métodos formales en Lingüística

CUADRO 2.9 Ejemplo lingüístico de una Gramática de tipo 0 con permutación, inserción de categorías y sustitución de categorías (1) Det1 N1 Vtrans Det2 N2 → Det2 N2 Aux_pasiva VPart Prep_agente Det1 N1 (2) Det1 N1 Vtrans Det2 N2 → Interr_objeto_directo Vtrans Det1 N1 (3) Det1 N1 Vtrans Det2 N2 → Pro_relativo_objeto_directo Vtrans Det1 N1 (4) Det → el, la (5) N → libro, chica (6) Vtrans → lee (7) Aux_pasiva → es (8) VPart → leído (9) Prep_agente → por (10) Intr_objeto_directo → qué (11) Pro_relativo_objeto_directo → que Donde los subíndices numéricos no introducen una categoría gramatical distinta, sino que numeran las categorías del mismo tipo en relación al orden de aparición en la cadena.

Esta gramática es muy literal desde el punto de vista de la descripción lingüística, como ya señalábamos anteriormente para este tipo de gramáticas, pero permitiría generar las construcciones pasivas, interrogativas de objeto directo y oraciones de relativo en función de objeto directo a partir de las correspondientes estructuras enunciativas. Por ejemplo, aplicando la regla (1) se podría generar la oración (2.18) a partir de la (2.19): (2.18) El libro es leído por la chica. (2.19) La chica lee el libro. Análogamente, aplicando la regla (2) se puede generar la oración (2.20) a partir de la (2.21): (2.20) ¿Qué lee la chica? (2.21) La chica lee el libro. Y, por último, también se podría generar la oración (2.22) a partir de la (2.23) utilizando la regla (3): 62

Las Gramáticas Formales

(2.22) El libro que lee la chica. (2.23) La chica lee el libro. Este tipo de construcciones consignadas en (2.18), (2.20), (2.22) son las que Chomsky resolvió con reglas transformacionales en sus primeros modelos teóricos (en la década de los 50, 60 y 70). En modelos posteriores, Chomsky ha tratado estas mismas construcciones con reglas de movimiento y con un lexicón más informativo. En el último minimismo las ha analizado con reglas de duplicado (copia) de categorías. Todos estos mecanismos que ha utilizado Chomsky para dar cuenta de este tipo de construcciones son, técnicamente, mecanismos correspondientes a las Gramáticas Irrestrictas de tipo 0. Con esto hemos intentado mostrar un panorama de lo que se podría generar utilizando los mecanismos exclusivos de las Gramáticas Irrestrictas o de tipo 0. Como se ha mostrado, son realmente potentes y pueden dar cuenta de todas las combinaciones sintácticas que nos propongamos, el problema es que la manera en que nos permiten dar cuenta de ellas no resulta satisfactoria para los lingüistas, que siguiendo a Chomsky querrían expresar las relaciones sintagmáticas y gramaticales que se contraen en las oraciones y no simplemente generar las ristras (o cadenas) de categorías de las que se componen. En los apartados sucesivos seguiremos prospectando la Jerarquía de las Gramáticas Formales de Chomsky para ver cuáles son las virtudes y cuáles son los inconvenientes que presentan cada una de ellas.

2.2. Gramáticas de tipo 1 o Dependientes del Contexto Las Gramáticas de tipo 1 también se denominan Gramáticas Dependientes del Contexto o Gramáticas Sensibles al Contexto (esta última designación es un calco del inglés context-sensitive grammar). Las reglas de producción de una Gramática de tipo 1 siguen siendo reglas con las que se puede expresar multitud de estructuras y posibilidades. No obstante, se les impone un mecanismo de control muy útil e interesante para su aplicación a las lenguas naturales que permite filtrar gran parte de las aplicaciones problemáticas que tenían las gramáticas exclusivamente de tipo 0. Se trata de condiciones sobre el contexto de aplicación. Podría tratarse de cualquier contexto que pudiéramos expresar de forma simbólica, por lo que normalmente se han utilizado para expresar contexto intralingüístico. Con esto nos referimos a las categorías que coaparecen en el entorno sintagmático en Sintaxis, a los sonidos que se coarticulan inmediatamente antes o después del sonido sobre el que queremos aplicar la regla fono63

Métodos formales en Lingüística

lógica en Fonología o podría referirse a los rasgos semánticos que coadyuvan a una interpretación o que son imprescindibles para que se produzca en Semántica. No soy consciente de que se haya usado para controlar el contexto extralingüístico tan necesario para controlar los procesos pragmáticos, pero supongo que esto se debe a que la Pragmática ha recibido mucha menos formalización que la Gramática. No obstante ,sería muy útil utilizar estas reglas dependientes del contexto, tipo 1 de la Jerarquía de Chomsky, para representar tales condiciones contextuales. O al menos, ayudaría al principio a realizar una formalización de los tipos de actos de habla, máximas conversacionales, principios de la relevancia y, en general, contextos inferenciales que tan importantes son en los fenómenos pragmáticos. Seguramente en el ámbito de la inteligencia artificial, dentro de la lingüística computacional, sí se han utilizado puesto que los informáticos son los que más fieles se muestran a la Jerarquía de Gramáticas de Chomsky, mucho más que el propio Chomsky, lo cual no deja de ser llamativo. La razón puede estar en que los informáticos no buscan ningún tipo de realidad psicológica en la formulación de las gramáticas, mientras que Chomsky considera primordial este objetivo. Como veremos más adelante, en el capítulo 4, apartado 1, Chomsky rechaza las gramáticas formales de su jerarquía para el tratamiento del lenguaje natural precisamente por motivos de adecuación, denominada ‘realidad’, psicológica. Las reglas de las Gramáticas Dependientes del Contexto o de tipo 1 tienen la siguiente forma: (2.24) αAβ → αϕβ Lo que dice (2.24) es que el símbolo no terminal A se reescribe como una ristra ϕ, formada posiblemente por un solo elemento, en el contexto de aplicación α, por la izquierda, y β, por la derecha. El contexto de aplicación α, β debe entenderse como lo que aparece justo antes de A, que es α, y lo que aparece justo después de ϕ, que es β. Como veremos más adelante, estas reglas no solo se aplican a la sintaxis sino que se pueden aplicar a cualquier nivel de análisis lingüístico, en particular se han aplicado con mucho éxito a la fonología. Hay otra forma de notar estas reglas que quizás es más clara que la original y además, es la que se ha utilizado habitualmente en fonología. Efectivamente, la regla (2.24) se puede notar alternativamente como (2.25): (2.25) A → ϕ / α__β

64

Las Gramáticas Formales

La notación (2.25) expresa lo mismo que la (2.24), pero al separar el proceso que desarrolla la regla por un lado, (2.26) A → ϕ de las condiciones o restricciones que se imponen al contexto de aplicación por otro; puede que resulte más claro: (2.27) α__β La barra baja en el contexto (2.27) expresa el lugar donde aparecerá la expresión lingüística A a la que se le aplicará el proceso que la convertirá en ϕ. Asimismo, α o β podrían ser la secuencia vacía, es decir que podría ser que el contexto por delante o el contexto por detrás no fueran relevantes para la aplicación de la regla y que por lo tanto, no hiciera falta hacer referencia a él. Por ejemplo si uno quisiera expresar que la /s/ solo puede sonorizarse cuando se articula delante de una consonante sonora, podría expresarlo (de forma muy simplificada) de la siguiente manera: (2.28) /s/ → [z] / __ [+cons, +son] La regla (2.28) dice que un fonema consonántico sordo /s/ pasa a articularse con su correspondiente alófono sonoro [z] (la ‘z’ aquí es el signo del alfabeto fonético que representa a una ‘s’ sonora, no se refiere a la letra ‘z’ del alfabeto latino) solo en el caso (eso es lo que representa la barra inclinada ‘/’) en que aparezca por delante de una consonante sonora. Ese podría ser el caso de la palabra ‘mismo’, que podría articularse [mizmo], con la ‘s’ sonora, puesto que el fonema /s/ aparece por delante de la consonante sonora [m]. En estas reglas y explicaciones encerramos entre barras inclinadas ‘/’ a los fonemas y entre corchetes ‘[‘, ‘]’ a los alófonos, como es la práctica habitual en fonética y fonología. Asimismo, el contexto que aparece detrás del sonido al que se le aplica la regla se expresa convencionalmente dentro de una matriz formada por los corchetes cuadrados ‘[‘, ‘]’, en este caso [+cons, +son]. Sobre la formulación general de las reglas de tipo 1, expresada en (2.24) o (2.25), hay que hacer alguna apreciación importante. La única condición que Chomsky impone a este tipo de reglas es que la parte derecha de la regla tiene que ser al menos tan larga como la parte izquierda. Una primera consecuencia de esto es que α y β podrían ser vacías, con tal de que A sea un símbolo no terminal y ϕ sea una ristra de al menos un elemento, ya queda preservada la condi65

Métodos formales en Lingüística

ción; así pues, el contexto podría llegar a ser vacío en el caso de que no fuera relevante para la ejecución del proceso que introduce la regla. Por lo tanto (2.29), la regla sin contexto alguno es una instanciación posible del esquema de regla de tipo 1 (2.24): (2.29) A → ϕ Otra de las consecuencias cruciales de la condición de que el cuerpo de la regla sea al menos tan largo como la cabecera, es que no pueden existir reglas de tipo 1 en las que la reescritura sea la cadena vacía. Es decir, la regla (2.30) no es posible en una Gramática de tipo 1: (2.30) αAβ → αeβ La regla (2.30) se leería ‘A puede pasar a ser la cadena vacía en el contexto formado por la cadena α y la cadena β’. Por supuesto, tampoco es posible su formulación con contexto vacío expresada en (2.31): (2.31) A → e Esto quiere decir no solo que no se puede expresar la elisión de categorías con una Gramática de tipo 1, sino que la pretendida inclusión entre gramáticas y entre lenguajes de la Jerarquía de Chomsky no es estricta, puesto que tanto en las Gramáticas de tipo 0 como en las de tipo 2, que veremos en el apartado siguiente, sí puede reescribirse un símbolo no terminal en términos de la cadena vacía y en las Gramáticas de tipo 1 no. Se podría decir que con esta salvedad, la inclusión de gramáticas existe. Para una argumentación más detenida y formal de este aspecto el lector interesado puede consultar Hopcroft y Ullman (1979, pp. 225226) o si se desea un poco menos de envergadura formal, Partee, Ter Meulen y Wall (1990, pp. 530-531). A continuación, vamos a desarrollar una Gramática de tipo 1 sensible al contexto para dar cuenta de un problema de la sintaxis del español. Se trata de la posibilidad que ofrece el español de formar sintagmas nominales sin determinante, alternando con otros sintagmas nominales con determinante, dependiendo del contexto. A los sintagmas nominales sin determinación también se les denomina en la bibliografía nombres escuetos (traducción del inglés bare nouns). Considérense las siguientes oraciones, teniendo en cuenta que para expresar que una posibilidad no es gramatical convencionalmente se escribe un asterisco ante la secuencia agramatical: 66

Las Gramáticas Formales

(2.32) (2.33) (2.34) (2.35) (2.36) (2.37) (2.38) (2.39) (2.40) (2.41) (2.42) (2.43) (2.44) (2.45)

La chica compra un libro. La chica compra libros. La chica compra azúcar. *Chica compra un libro. *Chica compra libros. *Chica compra azúcar. Las chicas compran un libro. Las chicas compran libros. Las chicas compran azúcar. *Chicas compra un libro. *Chicas compra libros. *Chicas compra azúcar. El azúcar es dulce. *Azúcar es dulce.

En estas oraciones se muestra cómo un sintagma nominal en posición de sujeto no puede aparecer sin determinante en ningún contexto (podríamos buscar más ejemplos, pero no encontraríamos ninguno en que pudiera aparecer el sintagma nominal sin determinante). En cambio, en la posición de objeto directo sí que puede aparecer sin determinante, en particular cuando el nombre está en plural (i.e. libros) o es un nombre incontable (i.e. azúcar). Así pues, el sintagma nominal en posición de sujeto no es gramatical sin determinante ni de (2.41) a (2.43), independientemente de cuál sea el objeto directo del verbo, puesto que son casos en los que el nombre aparece en plural, ni en los casos en que es incontable como por ejemplo (2.45). Para poder generar adecuadamente las expresiones gramaticales y distinguirlas de las agramaticales, puede ser útil usar las Gramáticas Dependientes del Contexto, de tipo 1 en la Jerarquía de Chomsky. Ante todo debemos delimitar cuál es el contexto lingüístico relevante en el que se produce el cambio de estructura. Ya lo hemos señalado anteriormente: el sintagma nominal puede reescribirse sin determinante si y solo si está en la posición de complemento de un verbo transitivo. En cambio, en la posición de sujeto se debe reescribir con determinante. Vamos a verlo: (2.46) SN → N / Vtrans__[incontable



plural]

En la regla (2.46) el símbolo no terminal A del esquema genérico de regla (2.25) (para mayor comodidad lo repetimos aquí: A → ϕ / α__β) ha tomado el valor de SN. El cuerpo de la regla (2.46) establece que SN se reescribe como un 67

Métodos formales en Lingüística

N, un nombre sin determinante alguno. N es la instanciación de la ristra ϕ que está en la parte derecha del esquema general de regla tipo 1 en (2.25). Pero lo más relevante es que la regla (2.46) está condicionada a que tal SN aparezca a la derecha de un verbo transitivo: solo si el SN es objeto directo de un verbo transitivo puede reescribirse como N sin determinante. Asimismo, tal nombre debe ser necesariamente o bien incontable o bien plural (la disyunción lógica se expresa convencionalmente con el símbolo ∨). Esta restricción la hemos añadido como una anotación en forma de subíndice del lugar en el que tendría que aparecer el SN, que pasa a reescribirse como un simple N en la regla (2.26). En relación al esquema de regla (2.25), la ristra α que representa las categorías que aparecen a la izquierda de la categoría sobre la que se aplica la regla, en este caso SN, toma el valor de Vtrans, verbo transitivo, y la ristra β está vacía (es decir, que las categorías que aparezcan a la derecha del SN objeto directo no afectan a su estructura sintagmática y, por lo tanto, no deben tenerse en cuenta al formular su regla de producción o generación). Asimismo en el contexto expresamos que el nombre sobre el que se aplique esta regla debe ser incontable o estar en plural, de esta manera redondeamos las condiciones contextuales necesarias para la buena formación de los sintagmas nominales sin determinante en los ejemplos mostrados, de (2.32) a (2.45). En cambio, la regla para la producción del sintagma nominal en función de sujeto sería una regla general para la producción de sintagmas nominales que no estaría acotada por el contexto. No es necesario que indiquemos la posición de sujeto por medio de un contexto ad-hoc, puesto que en las lenguas SVO (de orden básico oracional Sujeto-Verbo-Objeto) el único sintagma nominal que puede aparecer a la izquierda del verbo en la posición no marcada (esto quiere decir, en oraciones no enfáticas y no topicalizadas) es el sujeto. Veamos a continuación las dos reglas relevantes: (2.47) SN → Det N (2.48) O → SN SV Como vemos, en la regla de reescritura del SN α y β están vacíos y, en realidad, nos quedaría una regla que correspondería al tipo 2 (como veremos en el próximo apartado). Esto no debe extrañarnos puesto que es un ejemplo práctico de lo que queremos decir cuando afirmamos que las gramáticas de la Jerarquía de Chomsky están unas incluidas dentro de las otras: puesto que las Gramáticas de tipo 2 están incluidas dentro de las de tipo 1, es normal que haya reglas de tipo 1 que puedan ser a la vez de tipo 2, aunque naturalmente hay multitud de reglas de tipo 1 que no son de tipo 2, todas las que tienen el contexto expreso. La regla 68

Las Gramáticas Formales

(2.48) también sería de tipo 2 y, por lo tanto, también de tipo 1 (y de tipo 0, si consideráramos que la ristra de la cabecera está formada por un único símbolo no terminal). A continuación, vamos a mostrar una Gramática de tipo 1 completa para dar cuenta de las oraciones de (2.32) a (2.45). Advertimos que Chomsky establece que una gramática es del tipo que corresponde a la regla de menor numeración. Así, aunque la gramática que expondremos en el cuadro 2.10 contenga reglas que estrictamente pueden ser consideradas de tipo 2, como las que hemos visto en (2.47) y (2.48), si contiene al menos una regla de tipo 1, entonces debe ser considerada Gramática de tipo 1.

CUADRO 2.10 Ejemplo de Gramática de tipo 1 para las oraciones (2.32) a (2.45) (1) O → SN SV (2) SN → Det N (3) SN → N/Vtrans_[incontable plural] (4) SV → Vtrans SN (5) SV → Vcop Adj (6) Det → el, la, un (7) N → chica, libro, azúcar[incontable], chicas[plural] (8) Vtrans → compra (9) Vcop → es (10) Adj → dulce ∨

Ante todo, el lector debe tener en cuenta que las gramáticas que estamos introduciendo en este capítulo son de ejemplo, por supuesto una aplicación para el lenguaje natural tendría unas gramáticas mucho más generales, con muchas más reglas y con un lexicón mucho más complejo puesto que tendrían que ser para un conjunto amplio de datos lingüísticos. Asimismo, las gramáticas para una aplicación general tendrían que estar asistidas por un generador morfológico que produjera las conjugaciones y las desinencias morfológicas de los sintagmas nominales. También tendrían que tener un controlador de las concordancias, cosa que será fácil de implementar usando las estructuras de rasgos que veremos en el capítulo 4, apartado 4.2. 69

Métodos formales en Lingüística

Una vez realizadas estas apreciaciones, vamos a comentar la gramática que se ha introducido en el cuadro 2.10. Las reglas (1) a (4) son reglas con contexto vacío (que serán equivalentes a reglas de tipo 2, como veremos). La regla relevante para ejemplificar los mecanismos dependientes del contexto, tipo 1, es la regla (3) y su interacción con la regla de SN (2). En general se aplicaría la regla (2), salvo cuando el SN apareciera en la posición de objeto directo, a la derecha de un verbo transitivo. Solo en ese caso la regla que lo generaría es la de regla (3), pudiendo así producir las oraciones (2.33), (2.34), (2.39) y (2.40). Naturalmente, en el caso de estar construyendo una gramática general para la lengua española se tendría que tener en cuenta que los plurales también pueden aparecer con determinante, e incluso los incontables, pero bajo ciertas restricciones semánticas. (2.49) (2.50) (2.51) (2.52)

La chica compra unos libros. La chica compra los libros. La chica compra el azúcar. *La chica compra un azúcar.

En la gramática del cuadro 2.10 se ha contemplado esta posibilidad en la regla (4), que permite la combinación de un verbo transitivo con un sintagma nominal de cualquier tipo, sea con determinante o sin él. Para el caso (2.52) –y para dar un análisis más profundo del resto– habría que formular una gramática más compleja que las que estamos tratando en este capítulo. En parte podrían producirse utilizando las matrices de rasgos que introduciremos en el capítulo 3 y asumiendo una teoría del discurso como la de Hans Kamp y Uwe Reyle (1993), que presentaremos a su debido momento. Este mismo fenómeno de sintagma nominal sin determinación se da también en español en los sintagmas nominales regidos por preposición. Véanse los siguientes ejemplos: (2.53) (2.54) (2.55) (2.56) (2.57)

La chica compra un pañuelo de papel. La chica compra un paquete de pañuelos. *La chica compra un pañuelo de el/un papel. *La chica compra un paquete de los pañuelos. La chica compra un libro de la asignatura.

En las oraciones de (2.53) y (2.54) encontramos los sintagmas preposicionales ‘de papel’ y ‘de pañuelos’, en los que el SN está formado por un N sin determinante. En contraposición, (2.55) y (2.56) muestran que no puede aparecer un de70

Las Gramáticas Formales

terminante en dicha posición y, por último, (2.57) muestra un caso en el que sería imposible prescindir del determinante. La gramática que daría cuenta de estos sintagmas nominales incluye de nuevo una regla de tipo 1, pero esta vez restringiendo la aparición del N sin determinante a la posición de argumento de la preposición, como se muestra en el Cuadro 2.11.

CUADRO 2.11 Ejemplo de Gramática de tipo 1 para las oraciones (2.52) a (2.57) (1) O → SN SV (2) SN → Det N (SP) (3) SN → N/ P_[incontable plural] (4) SP → P SN (5) SV → Vtrans SN (6) Det → el, la, un, los (7) N → chica, libro, paquete, pañuelo, asignatura, papel[incontable], pañuelos[plural] (8) Vtrans → compra (9) P → de ∨

De nuevo esta gramática es de tipo 1 porque contiene la regla dependiente del contexto sintagmático (3). Como se ve, la regla (3) establece que un sintagma nominal puede reescribirse como un nombre sin determinante si es incontable o plural y aparece justo a la derecha de una preposición, como argumento suyo. Otro aspecto interesante de esta gramática es que se introduce la categoría de sintagma preposicional (SP), en concreto en la regla (2). El sintagma preposicional aparece como complemento opcional del sintagma nominal (la opcionalidad de una categoría en una regla gramatical cualquiera se expresa por medio de paréntesis). Esto simplemente nos informa de que tanto se pueden construir sintagmas nominales con sintagma preposicional modificando al nombre como sin él. Así, en los sintagmas nominales sujeto de las oraciones de ejemplo (2.53) a (2.57) no aparece ningún sintagma preposicional, aunque por supuesto podría aparecer, pero hemos hecho la ejemplificación precisamente de esta forma para mostrar la opcionalidad. La regla de sintagma preposicional (4) de nuevo tiene el contexto vacío (por lo que colapsaría con las reglas de tipo 2). La regla (4) simplemente dice que un sintagma preposicional está formado por la combinación de una preposición con un sintagma nominal cualquiera, sin especificar si tiene que estar 71

Métodos formales en Lingüística

formado con un determinante o sin él, con lo que deja abierta la posibilidad de que una preposición pueda combinarse con un sintagma nominal con determinante, como sucede en (2.57). Otra cuestión relativa a los nombres que pueden funcionar como sintagmas nominales sin determinante es que muchos sustantivos que no son ni plurales ni incontables en sentido estricto también pueden aparecer sin determinante, como en (2.58). Lo que sucede es que se trata de nombres que pueden tener una interpretación incontable a pesar de ser contables. Por ejemplo: (2.58) La chica compró una tarta de manzana. En esta oración aparece usado el nombre manzana, que en principio es contable, pero está utilizado como un incontable en cuanto a que se refiere a un tipo de materia. El lector que desee profundizar en la cuestión de los sustantivos sin determinación en español puede dirigirse a Bosque (1996) o a Espinal (2010).

2.3. Gramáticas de tipo 2 o Independientes del Contexto Y llegamos al apartado de las gramáticas que más juego han dado a los lingüistas en la modelización de las estructuras de las lenguas naturales: las Gramáticas de tipo 2, también denominadas Independientes del Contexto o libres de contexto (mala traducción del inglés context-free). Estas gramáticas se han utilizado recurrentemente en la formalización gramatical, aunque en la mayoría de los casos se han usado en combinación con algún otro mecanismo de producción o de control de generación de estructuras. Chomsky las utilizó en sus primeros modelos, que conforman lo que se denomina Teoría Estándar, desarrollados desde Chomsky (1957) y Chomsky (1965) hasta finales de los 70 del siglo XX. En estos modelos chomskianos el formalismo gramatical de tipo 2 se utiliza junto a una gran profusión de reglas más complejas (denominadas transformacionales), que intuitivamente serían como reglas de tipo 0 llevadas a un alto grado de sofisticación aunque, en sentido estricto, no pueden ser consideradas como tales puesto que se les añaden unas modificaciones que no entran dentro de los límites de la definición de las reglas de tipo 0, como mostraremos en el capítulo 4, apartado 1. En el siguiente modelo del paradigma chomskiano publicado a inicios de la década de los 80 (1981), denominado Gramática de la Reacción y el Ligamiento o de Principios y Parámetros, Chomsky pasó a utilizar una formulación muy depurada de reglas de tipo 2 que se denominó Teoría X’. La Teoría X’ se basa en la 72

Las Gramáticas Formales

formalización de lo que Chomsky considera la estructura universal de un sintagma. Su expresión formal se produce a través de reglas de tipo 2 formadas por símbolos no terminales variables (no instanciados) que tomarán un valor concreto dependiendo del contexto sintagmático de aplicación. A este núcleo de Gramática de tipo 2 se le añadió una única regla transformacional que permuta un símbolo no terminal en una ristra de categorías no terminales. A esta regla de permutación se le denomina Regla de Movimiento y no podría ser considerada como una regla de tipo 0, entre otras cosas, porque el elemento permutado deja una marca de su posición de partida (denominada huella) y solo se permuta bajo ciertas condiciones que ya no tienen que ver con las restricciones de las gramáticas formales de la Jerarquía de Chomsky. Finalmente Chomsky inició un nuevo proceso de renovación de su paradigma lingüístico a partir de la década de los 90, el denominado Programa Minimista. En este paradigma se adopta una única regla de combinatoria universal que simplemente combina dos símbolos no terminales para dar como resultado un nuevo símbolo no terminal. Si le damos la vuelta al planteamiento lexicalista de esta regla y lo expresamos en términos sintacticistas, tenemos una regla de tipo 2: un símbolo no terminal se reescribe como la combinación de dos símbolos no terminales. Por supuesto, ya que se trata de una única regla de combinación universal, las categorías no terminales de tal regla son variables. En adición a esta Gramática de tipo 2 formada por una sola regla, en las primeras formulaciones del Programa Minimista, Chomsky postula una regla de movimiento parecida a la descrita para el Modelo de Principios y Parámetros, pero ya en los dos mil propone una regla de iteración o copia. De nuevo sería un mecanismo intuitivamente de tipo 0, pero en modo alguno puede considerarse como tal desde el punto de vista técnico puesto que tiene una sintaxis muy compleja que en todo es ajena a la formulación de las reglas irrestrictas de tipo 0 que hemos visto en el primer apartado de este capítulo. Pero no solo Chomsky ha utilizado las Gramáticas de tipo 2 como base de su teoría gramatical. Gran cantidad de teorías gramaticales post-chomskianas han utilizado las Gramáticas de tipo 2 como parte del aparato formal utilizado para la modelización de las estructuras lingüísticas de las lenguas humanas. En el capítulo 4 comentaremos las que han tenido más difusión entre los lingüistas. En esencia, la mayoría de las teorías gramaticales al uso han tomado un núcleo de Gramática de tipo 2, o equivalente, y le han añadido recursos funcionales o formales de otra índole para dotar al formalismo de la expresividad lingüística necesaria para dar cuenta de la mayor parte de las construcciones que se dan en las lenguas humanas. Después de esta introducción el lector debe pensar, con justicia, que las Gramáticas de tipo 2 no son suficientemente potentes para dar cuenta de la estructura de las construcciones sintácticas del lenguaje natural. La respuesta a esta cuestión 73

Métodos formales en Lingüística

es peculiar, ya que es que sí y no. Siguiendo a Shieber (1985), formalmente las Gramáticas de tipo 2 son suficientes para generar la mayor parte de las construcciones lingüísticas de las lenguas humanas. En particular, no se pueden construir Gramáticas de tipo 2 que generen dependencias cruzadas entre las categorías gramaticales, como las que se producen en las oraciones subordinadas del neerlandés o del alemán hablado en Suiza. Shieber (1985) aporta este ejemplo tomado del neerlandés, para este fenómeno lingüístico: (2.59) omdat ik Cecilia Henk de paarden zag helpen voeren porque yo Cecilia Henk los hipopótamos vi ayudar alimentar ‘porque yo vi a Cecilia ayudar a Henk a alimentar a los hipopótamos’ En esta construcción aparece en primer lugar la conjunción causal ‘omdat’ seguida de una batería de cuatro sintagmas nominales y a continuación otra batería de tres verbos. La relación sintáctica entre los sintagmas nominales y los verbos para formar los correspondientes sintagmas verbales y la oración completa se basa en dependencias cruzadas. El primer sintagma nominal de la primera batería, ‘ik’, se combina con el primer verbo de la segunda batería, ‘zag’, el segundo sintagma nominal ‘Cecilia’ se combina con el segundo verbo ‘helpen’, el tercer sintagma nominal ‘Henk’ se combina con el tercer verbo ‘voeren’ y el cuarto sintagma nominal ‘de paarden’ es el complemento de ‘voeren’, y esa cláusula a su vez es el complemento de ‘helpen’ y la cláusula resultante es el complemento de ‘zag’. En (2.60) mostramos gráficamente tales relaciones de dependencias. En este gráfico se observa que unas líneas de conexión sintáctica se montan, o cruzan, sobre las otras. Este tipo de relación entre los símbolos terminales no puede ser representada con los mecanismos formales que definen a una Gramática Independiente del Contexto, de tipo 2, como veremos en detalle más adelante. (2.60) omdat ik Cecilia Henk de paarden zag helpen voeren

Una construcción del español, y de otras muchas lenguas, que contiene este tipo de dependencias cruzadas es la que se produce con ‘respectivamente’. Veámoslo: (2.61) Ana, Rosa y Pilar leen una revista, un libro y un informe, respectivamente. 74

Las Gramáticas Formales

El adverbio ‘respectivamente’ desencadena las dependencias cruzadas de las dos baterías de sintagmas nominales; gráficamente: (2.62) Ana, Rosa y Pilar leen una revista, un libro y un informe, respectivamente

Una vez hayamos explicado la forma de las reglas tipo 2 podremos ahondar en la razón por la cual tales construcciones no pueden ser generadas por una Gramática Independiente del Contexto. Pero lo que nos importa ahora para la línea de argumentación que estamos desarrollando es que, técnicamente, las Gramáticas de tipo 2 producen la práctica totalidad de las construcciones de las lenguas humanas, salvo este tipo de construcciones. Ante la prueba formal que nos da Shieber (1985) de esta afirmación, la pregunta que cabe formularse es por qué los lingüistas no utilizan mayoritariamente este formalismo gramatical para construir las gramáticas particulares de las lenguas humanas. La respuesta procede del propio Chomsky. Ante todo hay que advertir que los informáticos no tienen reparos en construir procesadores de la sintaxis de las lenguas humanas utilizando exclusivamente recursos de las Gramáticas de tipo 2. Son los lingüistas los que han añadido todo tipo de mecanismos adicionales a las Gramáticas Independientes del Contexto con el fin de producir análisis de las lenguas naturales. La razón es de adecuación lingüística. Los lingüistas no solo quieren producir la mayoría de las construcciones gramaticales de las lenguas, como es capaz de hacer una Gramática de tipo 2 en términos de ristras de categorías, sino que quieren dar cuenta de otras propiedades lingüísticas, como por ejemplo la estructura de constituyentes o la relación entre una construcción activa y una pasiva, entre una construcción de relativo y su correspondiente estructura enunciativa o las relaciones gramaticales que se establecen entre los elementos que integran una oración, entre muchas otras cuestiones relevantes desde el punto de vista lingüístico. Sin embargo, las gramáticas formales de la Jerarquía de Chomsky solo pueden dar cuenta de una combinatoria estructural por medio de la concatenación de categorías. En particular, las Gramáticas Independientes del Contexto que ahora nos ocupan pueden expresar la concatenación de categorías no terminales que a su vez aglutinan otras categorías jerárquicamente dominadas por aquellas. El uso habitual de las Gramáticas de tipo 2 agrupa en tales categorías no terminales las categorías que forman constituyentes. Por este motivo los lingüistas a menudo denominan Gramáticas Sintagmáticas o Gramáticas de Constituyentes a las Gramáticas de tipo 2, a pesar de que las Gramáticas Independientes del Contexto que 75

Métodos formales en Lingüística

son capaces de expresar la estructura sintagmática de las construcciones lingüísticas y, en general, la estructura de constituyentes, son un subconjunto de todas las Gramáticas Independientes del Contexto. En gran medida, la asunción de que la sintaxis debe formalizarse a través de la estructura de constituyentes va de la mano de la asunción de la semántica composicional. La semántica composicional se refiere a que el significado final de una oración depende de la combinación sistemática y organizada de las partes que la componen (i.e. Frege), que a menudo se identifican con los constituyentes en la teoría sintáctica actual. En los últimos años, desde la teoría pragmática hay autores que han argumentado problemas para la hipótesis de la composicionalidad (Recanatti 2002, Carston 2010) y otros que han empezado a postular sintaxis incrementales (que no siguen la estructura de constituyentes) para dar cuenta de la semántica incremental (Kempson, Meyer-Viol y Gabbay 2001, Cann, Kempson y Marten 2005). Pero este es un debate muy reciente y, en general, hay que admitir que la sintaxis de constituyentes y la semántica composicional siguen captando el interés de la mayoría de los lingüistas. Entre los autores que defienden la semántica composicional se pueden rastrear modelos sintácticos que no promulgan una sintaxis basada en la estructura de constituyentes, como por ejemplo la Gramática de las Dependencias, como veremos un poco más adelante. Formalmente, las reglas de producción de una Gramática de tipo 2 tienen la forma general siguiente: (2.63) A → ϕ El esquema de regla que hemos introducido en (2.63) debe leerse siguiendo las convenciones habituales para los símbolos. ‘A’ es un símbolo no terminal y ‘ϕ’ es una ristra o cadena de símbolos terminales y no terminales. Algunos ejemplos de este tipo de reglas, ya clásicos por lo mucho que se han utilizado en el quehacer lingüístico, pueden ser: (2.64) O → SN SV (2.65) SN → Det N (Adj) (2.66) SN → Vtrans SN Como se ve, estas reglas corresponden a reglas de tipo 1 en las que el contexto es vacío, como ya habíamos advertido en el apartado anterior. Esto simplemente probaría que las Gramáticas de tipo 2 estarían incluidas estrictamente en las Gramáticas de tipo 1 si no fuera porque, siguiendo las definiciones, las Gramáticas de tipo 2 pueden contener reglas en las que el símbolo terminal ‘A’ puede 76

Las Gramáticas Formales

reescribirse por la cadena vacía, es decir, la ristra ϕ puede ser igual a e (recuérdese, crucialmente, que tal rescritura no era posible en una Gramática Dependiente del Contexto, de tipo 1). Esto solo es problema si uno está obcecado en que la jerarquía de inclusión entre las gramáticas formales debe mantenerse. Naturalmente, no es un problema para la formalización de las lenguas naturales, a no ser que la regla que reescribe símbolos terminales en cadena vacía se use sin ningún tipo de control. El uso indiscriminado de tal regla haría que se elidieran categorías que no debieran elidirse. Pero, naturalmente, lo mismo podría decirse de cualquier recurso formal. Las gramáticas formales nos ofrecen un marco de expresión, pero el uso concreto que hagamos de esos recursos depende de nuestra pericia como gramáticos. Sin embargo, a Chomsky sí le preocupó esta cuestión y por eso formuló lo que se ha denominado la Forma Normal de Chomsky. El teorema de la Forma Normal de Chomsky establece que para toda Gramática Independiente del Contexto con cadena vacía existe otra Gramática Independiente del Contexto sin cadena vacía equivalente que genera las mismas producciones lingüísticas. Una Gramática de tipo 2 en Forma Normal de Chomsky solo tiene reglas con la forma (2.67) o (2.68): (2.67) A → B C (2.68) A → a En la regla (2.67) todas las categorías son símbolos no terminales, tanto las de la cabecera como las del cuerpo, mientras que en la regla (2.68) el símbolo no terminal ‘A’ se reescribe como el símbolo terminal ‘a’. La Forma Normal de Chomsky tiene repercusiones muy importantes. La primera es que, si se adopta, la jerarquía de inclusión entre las gramáticas se mantiene con todo el interés y la elegancia matemática que comporta. En segundo lugar, y mucho más relevante para el quehacer lingüístico, es que con estos esquemas generales de regla se obliga a que las gramáticas tengan estructura binaria (cada reescritura se compone de dos categorías no terminales) y esto comportará que los árboles sean también binarios, con todas las repercusiones para la explicación lingüística que ello comporta. A continuación, vamos a mostrar un ejemplo de una Gramática de tipo 2 aplicada a la producción de un pequeño fragmento de estructuras del español basadas en las oraciones (2.69) a (2.73): (2.69) La chica simpática tiene un libro. (2.70) La chica tiene un libro con muchas fotografías. (2.71) La chica tiene un libro con varias fotografías de las plantas unicelulares. 77

Métodos formales en Lingüística

(2.72) La chica simpática tiene un libro con muchas fotografías grandes. (2.73) La chica simpática del pantalón azul tiene un libro nuevo con varias fotografías grandes de las plantas unicelulares.

CUADRO 2.12 Ejemplo de Gramática de tipo 2 para las oraciones (2.69) a (2.73) (1) O → SN SV (2) SN → Det N (Adj) (SP) (3) SP → P SN (4) SV → Vtrans SN (5) Det → el, la, un, muchas, varias, las (6) N → chica, libro, fotografías, plantas (7) Vtrans → tiene (8) P → de, con (9) Adj → simpática, grandes, unicelulares, azul

En la gramática del cuadro 2.12 no encontramos ninguna regla dependiente del contexto y todas las reglas están formadas por un símbolo terminal que se reescribe como una cadena de uno o más símbolos no terminales. Esta comprobación nos asegura que se trata efectivamente de una Gramática de tipo 2 que, por cierto, no está formulada en la Forma Normal de Chomsky –véase la regla (2)–, aunque naturalmente podría traducirse a ella. A continuación, vamos a analizar qué tipo de producciones genera la gramática 2.12. Por la regla (2), esta gramática puede generar estructuras nominales formadas por un determinante, un nombre, un sintagma adjetivo y un sintagma preposicional. Pero la regla (2) no dice solo eso. En virtud de la opcionalidad expresada por los paréntesis, dicha regla permite expresar también que una construcción formada por un determinante, un nombre y un adjetivo es gramatical, así como lo es la construcción determinante, nombre y sintagma preposicional. Por supuesto, esta regla también contempla la posibilidad de que se efectúe un sintagma nominal formado por un determinante y un nombre solamente si se aplica la opcionalidad de todos los paréntesis. Y todo ello en cualquier posición, independientemente del contexto sintagmático. Es decir, que cualquier sintagma nominal puede reescribirse de esas cuatro formas, independientemente de si aparece en la posición de sujeto o en la de objeto. 78

Las Gramáticas Formales

En la regla (2) de la gramática del cuadro 2.12 se echa en falta otro de los complementos nominales habituales, las oraciones de relativo. Seguidamente vamos a desarrollar un asunto muy interesante para entender que una cuestión es el poder expresivo de las Gramáticas Independientes del Contexto, de tipo 2, y otra cosa es lo que los lingüistas están dispuestos a representar con tales gramáticas. Considérese la siguiente oración: (2.74) La chica que tiene el libro Para generar la construcción de relativo de sujeto ejemplificada en (2.74), simplemente se tendría que añadir alguna regla adicional a la gramática del cuadro 2.12, obteniendo la gramática del cuadro 2.13.

CUADRO 2.13 Ejemplo de Gramática de tipo 2 para las oraciones (2.69) a (2.74) (1) O → SN SV (2) SN → Det N (Adj) (SP) (Orel) (3) SP → P SN (4) Orel → Prorel SV (5) SV → Vtrans SN (6) Det → el, la, un, muchas, varias, las (7) N → chica, libro, fotografías, plantas (8) Vtrans → tiene (9) P → de, con (10) Adj → simpática, grandes, unicelulares, azul (11) Prorel → que

En la gramática del cuadro 2.13 se ha añadido la regla (4), que reescribe la estructura de una construcción de relativo en función del sujeto de una forma muy sencilla y elegante. Simplemente, el pronombre relativo aparece en lugar del SN sujeto de la regla de reescritura oracional (1). Así se da cuenta de la construcción de relativo, pero también del paralelismo con una estructura oracional. Para que pueda generarse como complemento de un nombre se ha añadido el símbolo no terminal de la cabecera de la regla (4) al cuerpo de la regla (2), como un comple79

Métodos formales en Lingüística

mento opcional de nombre. En cambio, si se trata de una construcción de relativo de objeto directo, como la de (2.75), la situación se complica. (2.75) El libro que tiene la chica. Por un lado, el formalismo de las Gramáticas tipo 2 es capaz perfectamente de permitir que formulemos una regla que produzca tales estructuras pero, por otro lado, la regla no será capaz de expresar las generalizaciones lingüísticas que cualquiera asociaría a una construcción de relativo en función de objeto. Para comprobarlo, veamos primero cómo quedaría una Gramática Independiente del Contexto que generara dicha construcción. En particular, profundizaremos en la regla que habría que añadir a la gramática del cuadro 2.14 para que, además, generara la oración (2.75).

CUADRO 2.14 Ejemplo de Gramática de tipo 2 para las oraciones (2.69) a (2.75) (1) O → SN SV (2) SN → Det N (Adj) (SP) (Orel) (3) SP → P SN (4) Orel → Prorel SV (5) Orel → Prorel V SN (6) SV → Vtrans SN (7) Det → el, la, un, muchas, varias, las (8) N → chica, libro, fotografías, plantas (9) Vtrans → tiene (10) P → de, con (11) Adj → simpática, grandes, unicelulares, azul (12) Prorel → que

En la gramática del cuadro 2.14 se ha añadido la regla (5) que reescribe el símbolo no terminal Orel como un pronombre relativo, Prorel, seguido de un verbo transitivo y un sintagma nominal. Pero ese sintagma nominal no es el sintagma nominal objeto, como parecería indicar el orden de palabras si lo comparamos con el orden no marcado de una construcción transitiva, sino que se trata del sintagma nominal sujeto que aparece pospuesto. Para que las relaciones gramaticales 80

Las Gramáticas Formales

queden formalmente más claras, vamos a anotar las categorías gramaticales de las reglas (1), (4), (5) y (6) con información funcional: (2.76) (2.77) (2.78) (2.79)

Regla (1): O → SNsuj SV Regla (4): Orel → Prorelsuj SV Regla (5): Orel → Prorelobj V SNsuj Regla (6): SV → Vtrans SNobj

En las reglas (2.76) a (2.79) hemos añadido anotaciones funcionales a los sintagmas nominales y a los pronombres de relativo en función de sujeto para distinguirlos de los que desempeñan la función de objeto. La correspondiente gramática que contuviera estas reglas no solo generaría las construcciones de relativo de sujeto y de objeto, sino que distinguiría entre la distinta naturaleza de los sintagmas nominales implicados en el proceso por medio de la subcategorización funcional introducida. El cuadro 2.15 muestra la Gramática Independiente del Contexto que se obtendría al introducir estos cambios.

CUADRO 2.15 Ejemplo de Gramática de tipo 2 con anotaciones funcionales para las oraciones (2.69) a (2.75) (1) O → SNsuj SV (2) SN → Det N (Adj) (SP) (Orel) (3) SP → P SN (4) Orel → Prorelsuj SV (5) Orel → Prorelobj V SNsuj (6) SV → Vtrans SNobj (7) Det → el, la, un, muchas, varias, las (8) N → chica, libro, fotografías, plantas (9) Vtrans → tiene (10) P → de, con (11) Adj → simpática, grandes, unicelulares, azul (12) Prorel → que

No obstante, Chomsky ya desde sus primeras publicaciones, pero también muchos lingüistas posteriores, considera que reglas como (5) no son en absoluto 81

Métodos formales en Lingüística

satisfactorias desde el punto de vista lingüístico y defiende que se debe poder expresar la relación gramatical que hay entre el pronombre de relativo y la posición argumental del hipotético sintagma nominal cuya función desempeña. Es decir, que se debería establecer un mecanismo que permitiera relacionar el pronombre de relativo en función de sujeto con la posición de sintagma nominal sujeto que apreciamos en la regla (2.76) y también el pronombre de relativo en función de objeto con la posición argumental de objeto directo del sintagma nominal de la regla (2.79). Chomsky defiende que estas relaciones se establecen cognitivamente y que todo hablante nativo es capaz de reconocerlas, a pesar de no haber marcas fónicas presentes en las respectivas posiciones argumentales. Y por supuesto que no las hay, ya que en su lugar funcionan los respectivos pronombres de relativo, aunque ocupando una posición de orden de palabras marcada en relación a las estructuras transitivas generadas con sintagmas nominales de objeto. Retomando el punto de vista de Chomsky, el objetivo de la gramática está trascendiendo los límites de la descripción de los datos generados para pasar a dar cuenta del conocimiento lingüístico. Esta cuestión, y otras de índole parecida, han hecho que muchas corrientes de la lingüística formal hayan añadido mecanismos excepcionales para dar cuenta de estos casos y de otros parecidos, mecanismos que caen fuera del alcance formal de las gramáticas de la Jerarquía de Chomsky, como veremos en el capítulo 4. Lo central de la argumentación que acabamos de exponer en torno a las construcciones de relativo de objeto muestra que hay estructuras que las Gramáticas Independientes del Contexto pueden generar sin problemas técnicos mediante reglas de tipo 2 perfectamente bien construidas, pero que no dan cuenta de la estructura de constituyentes que un hablante nativo asociaría a la construcción lingüística. Como veíamos en la regla (5) de la gramática del cuadro 2.15, para generar una oración de relativo de objeto directo pueden construirse reglas de tipo 2 a pesar de que trasgredan la estructura de constituyentes. El formalismo de las Gramáticas tipo 2 lo permite, a pesar de que los lingüistas no las usen porque persiguen expresar un conocimiento lingüístico que va más allá. Sobre esta cuestión se puede consultar el interesante artículo de Pullum y Gazdar (1982). La razón formal por la que pueden construirse de todos modos estas reglas de generación, a pesar de no contemplar la estructura de constituyentes, es que siguen la estructura general de la regla A → ϕ, que introducíamos antes en (2.63). Este esquema general de regla tipo 2 solo establece que una cierta categoría puede relacionarse con otras por concatenación. No hay problemas formales en expresar que el pronombre de relativo va prepuesto al verbo transitivo (en lugar de aparecer pospuesto a él) y que el sujeto va pospuesto, como en el ejemplo (2.75). 82

Las Gramáticas Formales

Las limitaciones para reglas del estilo de (5) en la Gramática Indipendiente del Contexto del cuadro 2.15 surgen en el momento en que se quiere dar cuenta de que la posición del pronombre de relativo en función de objeto directo está relacionada combinatoriamente con la posición argumental del verbo transitivo, con el que forma un constituyente. En ese caso necesitaríamos conectar dos posiciones que se encuentran discontinuas y eso es algo que una Gramática Independiente del Contexto no es capaz de hacer formalmente porque se basa en relaciones combinatorias de concatenación. Por otro lado, el sintagma nominal sujeto pospuesto debe cruzarse con esa dependencia discontinua para alcanzar su posición argumental y así obtener el orden de constituyentes no marcado SVO (estas construcciones de relativo de objeto directo no fuerzan la posposición del sujeto, pero la hacen perfectamente posible). (2.80) El libro [que leyó [mi hija]

En términos de estructura de constituyentes, un objeto directo se computa a la derecha del verbo de manera no marcada. En cambio, el pronombre de relativo ‘que’ en función de objeto directo no aparece a la derecha del verbo, sino a la izquierda de la oración a la que le falta el objeto directo. El problema radica en que, si basamos las reglas de tipo 2 en la estructura de constituyentes, el verbo transitivo estará buscando un SNobjeto directo donde no lo hay (a su derecha), puesto que la regla no marcada que respeta la estructura de constituyentes tendría que ser (2.81), que no concuerda con la construcción gramatical producida en (2.80): (2.81) *SV → V Prorelobj Naturalmente, hay corrientes lingüísticas como el funcionalismo o la gramática de las dependencias que han optado por plasmar esas relaciones gramaticales prescindiendo del nivel de la estructura de constituyentes, prefiriendo niveles de representación funcional o de dependencias, como veremos en breve. Otros ejemplos de este problema de discontinuidad de constituyentes es el generado por las dependencias cruzadas en las construcciones subordinadas del neerlandés o del alemán hablado en Suiza que habíamos ejemplificado más arriba y, sin irnos tan lejos, de las dependencias cruzadas que se producen en construcciones con ‘respectivamente’ del español. Asimismo, hay lenguas en las que se da un uso generalizado de los constituyentes discontinuos, que formalmente generarán dependencias cruzadas. Este problema se presenta en muchas lenguas con abundante 83

Métodos formales en Lingüística

morfología flexiva inscrita en los nombres y los verbos porque es muy normal que los componentes de un sintagma aparezcan disgregados a lo largo de las oraciones. Esta característica es fácilmente observable en las oraciones del latín o del euskera. Veámoslo en el siguiente ejemplo del latín extraído del Libro I de Las Metamorfosis de Ovidio, escogido totalmente al azar ya que se trata de la primera oración: (2.82) In nova fert animus mutatas dicere formas corpora En nuevos lleva ánimo mutadas decir formas cuerpos ‘Me lleva el ánimo a decir las mutadas formas a nuevos cuerpos’ (traducción literal de Ana Díaz Vega) ‘Me apetece explicar cómo se transformaron las formas en nuevos cuerpos’ (traducción libre de la autora) Como se ve en la transliteración palabra a palabra, y si lo comparamos con la traducción literal, el orden de las palabras no corresponde a agrupaciones en constituyentes sintácticos. Los sintagmas se reconocen gracias a la concordancia de la morfología flexiva entre las palabras, en modo alguno aparecen las palabras agrupadas en cuanto a su relación sintagmática. Naturalmente se podría formular una Gramática Formal que generara oraciones como esta, pero no se trataría tanto de una Gramática de tipo 2, como de una Gramática de tipo 0, con la falta de generalización que ello implica. En el cuadro 2.16 se muestra una gramática de tipo 0 muy simple que podría generar la estructura sintáctica de esta oración. La regla (1) generaría la ristra de categorías de la oración (2.82) en el orden en el que se han producido, pero no se expresaría la estructura de constituyentes ni tampoco ninguna generalización lingüística relevante en torno a las relaciones sintagmáticas ni a las de dependencia que se establecen dentro de una oración como la consignada en (2.82).

CUADRO 2.16 Gramática de tipo 0 para la oración (2.82) (1) (2) (3) (4) (5)

O → P Adj V N Adj Vinf N N N → corpora, formas, animus V → dicere, fert Adj → nova, mutatas P → in 84

Las Gramáticas Formales

Esta gramática contiene una sola regla sintáctica que corresponde con la generación categoría por categoría de la estructura de (2.82). La falta de generalidad de esta gramática es obvia y no se podría proponer nada mejor utilizando Gramáticas Independientes del Contexto o Gramáticas Independientes del Contexto ya que las cadenas de símbolos que forman el cuerpo de las reglas de las Gramáticas Formales de la Jerarquía de Chomsky están unidas mediante la operación de concatenación de categorías. No sería posible construir una Gramática Independiente del Contexto para construcciones de este tipo, que en latín están generalizadas al igual que en euskera y en muchas lenguas no configuracionales (sin un orden fijo de palabras). Los componentes de los constituyentes se encuentran diseminados por toda la oración y generarían dependencias cruzadas como las que hemos ejemplificado anteriormente para las oraciones subordinadas del neerlandés o para las de ‘respectivamente’. Veámoslo gráficamente para el ejemplo (2.82): corpor In novaa fert aanimus mutatas dicere formas corpora

Figura 2.2. Dependencias cruzadas en la oración (2.82).

En la figura 2.2 se representa cómo tendrían que ir encajados los elementos según la estructura de constituyentes: ‘animus’ sería el sujeto de ‘fert’ y ‘dicere+[mutatas+formas]+[in+nova+corpora] su cláusula de complemento con estructura anidada. Como se ve, es imposible asignar símbolos no terminales que agrupen a los elementos que forman un mismo constituyente sin cambiarlos de sitio. Si en lugar de la operación de concatenación propia de las Gramáticas Formales de la Jerarquía de Chomsky se utilizara una operación de dependencia, al estilo de las Gramáticas de Dependencias fundadas por Lucien de Tesnière, entonces sí se podrían expresar las relaciones sintácticas relevantes en una construcción como la mostrada en (2.82). A continuación, se muestra un ejemplo de representación de relaciones sintagmáticas discontinuas para la oración (2.82) basadas en la denominada Gramática de las Dependencias. 85

Métodos formales en Lingüística

fert animus

dicere i in

formas form as

corpora corp rpo pora

mutatas t

nova mus mutatas mutat dicere formas corpora In nova fert animus Figura 2.3. Estructura de Dependencias y orden de palabras para la oración (2.82).

En la figura 2.3 se ha completado la representación con información relativa al orden de palabras, aunque eso hace que el gráfico sea bastante poco claro ya que confluyen gran cantidad de flechas de distinta índole en muy poco espacio. Las líneas discontinuas indican el orden lineal de proferencia de las palabras que aparecen en el diagrama de dependencias y las líneas continuas construyen un diagrama jerárquico que representa las dependencias que hemos mostrado en la figura 2.2. En la figura 2.4 se incluye el gráfico que muestra únicamente las dependencias, para que se puedan apreciar mejor. Esta gramática no daría cuenta de la estructura jerárquica de constituyentes, sino que expresaría qué categorías dependen de qué otras, independientemente del orden de palabras. En el marco de la Gramática de las Dependencias no siempre se expresa el orden de palabras, pero en el caso de que se quisiera representar, los seguidores de dicha gramática lo expresan por medio de la cadena de palabras anotada al pie del diagrama que muestra las dependencias. Esto solo indicaría el orden lineal de proferencia y podría ser sustituido por una representación fonética, ya que en realidad no tiene relación con ninguna generalización sobre el orden de palabras, sino que se remite al orden particular de una oración proferida, como ocurría con la Gramática de tipo 0 del cuadro 2.16 consignado antes. 86

Las Gramáticas Formales

fert animus

dicere in

formas

corpora

mutatas

nova Figura 2.4. Estructura de Dependencias para la oración (2.82).

Para expresar el procedimiento de construcción de la figura 2.4 en términos de Gramáticas Formales, se tendría que sustituir la relación de concatenación propia de las gramáticas de la Jerarquía de Chomsky por un nuevo tipo de operación que expresara la dependencia entre los símbolos que forman una cadena. Imaginemos que notamos tal operación de combinación con la etiqueta depende_de. Con esta nueva operación podríamos construir una gramática como la del cuadro 2.17 para la estructura de dependencias que mostrábamos en la figura 2.4.

CUADRO 2.17 Gramática de Dependencias para la oración (2.82) (1) (2) (3) (4) (5) (6) (7) (8)

GN → Adj depende_de N GN → P depende_de GN GV → GN depende_de V GV → GVinf depende_de V N → corpora, formas, animus V → dicere, fert Adj → nova, mutatas P → in

87

Métodos formales en Lingüística

Esta Gramática de Dependencias intenta recoger los principios formales que fundamentan la figura 2.4. Tendría el esquema genérico de una Gramática Independiente del Contexto, pero prescindiendo de la noción de constituyente y utilizando la operación de dependencia en lugar de la de concatenación. Esto da como resultado un tipo de gramática diferente al de las Gramáticas tipo 2, aunque esté basada en ellas como medio de representación. Para terminar con esta cuestión quisiéramos señalar un último aspecto en relación al poder generativo de las Gramáticas Independientes del Contexto. En las lenguas no configuracionales en las que la discontinuidad de los constituyentes está generalizada, bien se podría dar el caso teórico de que las Gramáticas Independientes del Contexto pudieran formalmente generar algunas de sus construcciones. En particular, los mecanismos formales de las Gramáticas de tipo 2 podrían dar cuenta de un cierto tipo muy específico de discontinuidad. Sería el caso en el que los constituyentes discontinuos adoptaran casual o sistemáticamente el siguiente esquema, en el que las dependencias no se cruzan sino que adquieren forma de candelabro: (2.83) A B C V C’ B’ A’

En este caso se podría postular una gramática que formara los constituyentes de dentro hacia fuera de la estructura. En la gramática del cuadro 2.18 no hemos escrito reglas que reescriban las categorías en palabras porque es un ejemplo ilustrativo de una posibilidad teórica.

CUADRO 2.18 Ejemplo de Gramática Independiente del Contexto para dependencias en forma de candelabro (1) Z → C V C’ (2) Y → B Z B’ (3) X → A Y A’

Vamos a tratar por último de unas condiciones de buena formación que pueden aplicarse a todas las Gramáticas Formales, aunque ha surgido en el devenir de la investigación dentro del marco de las Gramáticas Independientes del Contexto. Las 88

Las Gramáticas Formales

Gramáticas de tipo 2 han recibido tanta atención por parte de lingüistas e informáticos que se han desarrollado una serie de importantes restricciones para su escritura, aunque la forma general de las reglas no lo imponga. Una de las restricciones más importantes para la escritura correcta de las gramáticas es la que se ha denominado en la bibliografía limpieza de las gramáticas y que en realidad es útil para cualquier tipo de gramática. Que una gramática sea limpia entraña, en primer lugar, que no haya símbolos no terminales en el cuerpo de las reglas sin usar en las cabeceras de las reglas. De esta forma nos aseguramos de que todas las categorías que utilizamos reciben una definición o reescritura en la gramática. En segundo lugar, también hay que asegurarse de que las reglas lleguen a las cadenas terminales, porque si no no se podrían generar las oraciones de hecho. Este concepto puede consultarse en su variante formalizada en Hopcroft y Ullman (1979), así como el procedimiento formal para transformar una Gramática sucia en una Gramática limpia. Un ejemplo de gramática limpia sería cualquiera de las que hemos expuesto en este capítulo y en particular para las Gramáticas de tipo 2, las que hemos desarrollado a lo largo de este apartado. Ante todo el lector debería comprobar en cualquiera de estas gramáticas, por ejemplo en la del cuadro 2.12, que, efectivamente, todas las reglas están encabezadas por un símbolo no terminal y nos llevan en la parte derecha a otros símbolos no terminales hasta llegar a los símbolos terminales. Ningún símbolo no terminal queda por reescribir y todos los terminales han sido introducidos. Pero se podría dar el caso de que alguien escribiera una gramática en la que no se cumpliera alguna de estas dos características. Eso produciría una gramática que nos acarrearía problemas a la hora de generar las estructuras lingüísticas. A continuación, mostramos un ejemplo de gramática sucia basada en la gramática del cuadro 2.12:

CUADRO 2.19 Ejemplo de Gramática de tipo 2 sucia basada en la del Cuadro 2.12 (1) (2) (3) (5) (6) (7) (8) (9)

O → SN SV SN → Det N (Adj) (SP) SV → Vtrans SN Det → el, la, un, muchas, varias, las N → chica, libro, fotografías, plantas Vtrans → tiene P → de Adj → simpática, grandes, unicelulares, azul 89

Métodos formales en Lingüística

En la gramática del cuadro 2.19 observamos que la regla (2) contiene un símbolo no terminal SP en la parte derecha, que luego no recibe ninguna regla de reescritura. Asimismo, en las oraciones se utiliza la palabra ‘con’ y, en cambio, no aparece el símbolo terminal ‘con’ en el cuerpo de la regla que introduce las preposiciones. Estos son errores que cualquier lingüista que escriba una Gramática Formal debe tratar de evitar repasando cuidadosamente la escritura de la gramática. Los informáticos han creado un algoritmo para comprobar la limpieza de las gramáticas y que, además, permite pasar de una gramática sucia a una gramática limpia; para profundizar en esta cuestión el lector es de nuevo orientado hacia Hopcroft y Ullman (1979).

2.4. Gramáticas de tipo 3 o Regulares Las Gramáticas de tipo 3 son las más restrictivas de las que componen la Jerarquía de Chomsky. No han sido muy utilizadas por los lingüistas, pero en cambio han sido ampliamente utilizadas por los informáticos. Las reglas de producción de las Gramáticas de tipo 3, también denominadas Gramáticas Regulares, tienen la siguiente forma general: (2.84) A→ Bb (2.85) A→ bB (2.86) A → b Según la regla (2.84), la Gramática tipo 3 es capaz de generar estructuras en las que haya un no terminal a la izquierda y un terminal a la derecha, son reglas recursivas a la izquierda. La regla (2.85) permite producir un terminal a la izquierda y un no terminal a la derecha, son recursivas a la derecha. Por último, la regla (2.86) permite generar terminales, con este tipo de reglas se puede dar fin a la recursividad propia de este tipo de gramáticas. En el caso de querer utilizar este tipo de Gramáticas tipo 3 para dar cuenta de estructuras del español, lo más natural sería utilizar las reglas del tipo (2.85), ya que el español es una lengua con orden de palabras no marcado SVO. Para lenguas de orden no marcado SOV, lo más natural sería utilizar la regla (2.84). Vamos a ver esta cuestión a través de ejemplos. Considérese la siguiente oración: (2.87) Carmen ha hecho un regalo a su amiga. Para generarla podríamos utilizar la siguiente Gramática de tipo 3, aunque posiblemente pocos lingüistas lo harían: 90

Las Gramáticas Formales

CUADRO 2.20 Ejemplo de Gramática de tipo 3 para la oración (2.87) (1) (2) (3) (4) (5) (6) (7) (8)

O → Carmen A A → ha B B → hecho C C → un D D → regalo E E→aF F → su G G → amiga

La Gramática Regular de tipo 3 que se propone en el cuadro 2.20 produciría la oración palabra por palabra en un análisis incremental de izquierda a derecha. No daría cuenta de la estructura de constituyentes ni de la estructura sintagmática, ni tampoco de otras relaciones gramaticales existentes en la oración. Pero daría cuenta del orden literal de emisión lingüística. Para una lengua SVO como el euskera, se utilizarían reglas del tipo (2.84). Véase el orden de palabras en la siguiente oración en dicha lengua (no entraremos aquí en la estructura morfológica, que es muy interesante pero que nos alejaría de la explicación principal): (2.88) Karmele-k bere lagun-ari opari bat egin di--o Karmele-ERG su amigo-DAT regalo un hacer AUX-3ª.SUJ.SING ‘Karmele ha hecho un regalo a su amigo/a’ Obsérvese en el cuadro 2.21 que la Gramática de tipo 3 que se necesitaría para generarla utiliza reglas que siguen el esquema (2.84). La gramática del cuadro 2.21 permite generar la oración (2.87) en el orden de emisión permitiendo así un análisis incremental, como en el caso anterior. De nuevo el resto de características lingüísticas no pueden ser expresadas utilizando una Gramática de tipo 3. Como el lector ya habrá deducido, el uso de este tipo de Gramáticas Formales es muy poco económico. La situación mejoraría un poco si se utilizaran como símbolos terminales las categorías gramaticales, pero luego habría que insertar el vocabulario de forma excepcional.

91

Métodos formales en Lingüística

CUADRO 2.21 Ejemplo de Gramática de tipo 3 para la oración (2.88) (1) (2) (3) (4) (5) (6) (7)

O → A Karmelek A → B bere B → C lagunari C → D opari D → E bat E → F egin F → dio

Otro de los problemas que presentan las Framáticas de tipo 3 para la adecuada representación de las lenguas humanas es que no serían capaces de expresar la relación de concordancia entre un sujeto y su correspondiente predicado cuando en el sujeto aparecen complementos anidados que hacen que el nombre y el verbo aparezcan separados en la expresión lingüística. Veamos un ejemplo del tipo de fenómeno lingüístico al que nos referimos: (2.89) Los libros que tienen unas ilustraciones que son muy valiosas son caros

En la oración (2.89) el sintagma nominal sujeto presenta un complemento de relativo que, a su vez, tiene incrustado otro complemento de relativo que, de nuevo, está complementado por una construcción de relativo. Con una Gramática de tipo 3 no se podría expresar la necesaria concordancia entre la categoría sintagmática que contiene a ‘libros’ y la que contiene al verbo ‘son’ (del SV ‘son caros’). La razón es obvia, al generar la oración estrictamente de izquierda a derecha no habría manera formal, utilizando las reglas (2.84) a (2.86), de expresar la relación entre el sintagma nominal sujeto y el sintagma nominal predicado, ni entre el nombre y el verbo que, de no aparecer tan distanciados en la secuencia lingüística, podrían llegar a relacionarse por pura relación de concatenación que queda totalmente desdibujada cuando utilizamos como formalismo de representación una Gramática de tipo 3:

92

Las Gramáticas Formales

CUADRO 2.22 Ejemplo de Gramática de tipo 3 para la oración (2.89) (1) O → los A (2) A → libros B (3) B → que C (4) C → tienen D (5) D → unas E (6) E → ilustraciones F (7) F que G (8) G → son H (9) H → muy I (10) I → valiosas J (11) J → son K (12) K → caros

Como se ve, no hay ningún nivel en el que puedan relacionarse el sujeto y el predicado como sintagmas. En cambio, con una Gramática de tipo 2, Independiente del Contexto, esto sí sería posible. Veámoslo en la gramática de ejemplo que se muestra en el cuadro 2.23:

CUADRO 2.23 Ejemplo de Gramática de tipo 2 para la oración (2.89) (1) O → SN SV (2) SN → Det N (Orel) (3) Orel → Prorel SV (4) SV → Vtrans SN (5) Vcop → SAdj (6) SAdj → (Adv) Adj (7) Det → los, unas (8) N → libros, ilustraciones (9) Vtrans → tienen (10) Vcop → son (11) Adj → valiosas, caros (12) Prorel → que (13) Adv → muy 93

Métodos formales en Lingüística

En la Gramática de tipo 2 del cuadro 2.23, la regla (1) permite establecer la concordancia entre el sujeto y el predicado al situarlos en el mismo nivel de análisis. La razón es que las Gramáticas de tipo 2 sí permiten agrupar categorías dentro de sintagmas y expresar relaciones entre tales sintagmas. Como se ve, la misma capacidad para expresar la estructura de constituyentes que en el apartado anterior llegaba a ser una limitación de las Gramáticas Independientes del Contexto para expresar algunos fenómenos complejos de ciertas lenguas, como las dependencias cruzadas, ahora resulta un avance en relación a la capacidad expresiva en comparación con las Gramáticas Regulares. Con esto terminamos la exposición de los principios básicos de las Gramáticas Formales de la Jerarquía de Chomsky. En el próximo capítulo todavía trataremos de algunos importantes aspectos relacionados con ellas al mostrar sus aplicaciones a las lenguas humanas. En el capítulo 4 mostraremos algunos de los mecanismos formales que se han añadido a estas gramáticas para dar cuenta de casos en los que se altera la estructura de constituyentes argumental. Como se ve, la teoría de Gramáticas Formales ha tenido una repercusión muy importante en los métodos formales que se emplean en lingüística, aunque aún nos quedan por ver bastantes que también han sido muy influyentes en las teorías lingüísticas actuales.

94

3

Aplicaciones de las Gramáticas Formales y de las matrices de rasgos

En este capítulo expondremos algunas de las aplicaciones más conocidas de las Gramáticas Formales de la Jerarquía de Chomsky. Las Gramáticas Irrestrictas, de tipo 0, y las Gramáticas Regulares, de tipo 3, no han recibido mucha atención por parte de los lingüistas por las razones esgrimidas en los apartados correspondientes del capítulo 2. En cambio, las Gramáticas Dependientes del Contexto, de tipo 1, y sobre todo las Gramáticas Independientes del contexto, de tipo 2, han inspirado un gran volumen de aplicaciones y de extensiones de la Jerarquía de Chomsky. En el primer apartado de este capítulo presentaremos los modos de representación más habituales de las producciones de las gramáticas. Se tratará de los diagramas arbóreos y sus propiedades formales, por un lado, y de los corchetes etiquetados, por otro. Estos modos de representación de la información tienen especial importancia en los enfoques sintacticistas del estudio de la gramática. En el segundo apartado mostraremos una de las aplicaciones más extendidas entre los lingüistas de las Gramáticas Dependientes del Contexto, de tipo 1. Las Gramáticas Dependientes del Contexto han sido utilizadas ampliamente en teoría fonológica para representar la relación entre los fonemas y los alófonos en las lenguas naturales. En el tercer apartado trataremos la aplicación de las Gramáticas Independientes de Contexto para la representación de la sintaxis de las lenguas naturales. Pero será en el cuarto apartado donde presentaremos la versión más común en la actualidad de las Gramáticas Independientes del Contexto, las denominadas Gramáticas de Unificación. Dichas gramáticas tienen en esencia la misma base formal 95

Métodos formales en Lingüística

que las Gramáticas de tipo 2, pero se utilizan haces de rasgos gramaticales en lugar de simples categorías. Estos haces de propiedades lingüísticas se suelen denominar matrices de rasgos o estructuras de rasgos y se utilizan en casi todas las aplicaciones actuales de las Gramáticas Independientes del Contexto. Para operar con tales matrices de rasgos al realizar las combinatorias sintagmáticas se utiliza la operación de unificación, que también ha sido fundamental en la evolución de las Gramáticas de tipo 2. Estos modos de representación de la información lingüística tienen especial importancia en los enfoques lexicalistas del estudio de la gramática. Por último, dedicaremos un apartado a presentar algunas aplicaciones de matrices de rasgos para la representación del conocimiento lingüístico, tanto gramatical como semántico. También presentaremos el uso de otras estructuras de representación de la información que, sin ser haces de rasgos en sentido estricto, podrían fácilmente ser consideradas como tales y que han constituido un gran avance en la representación del discurso.

3.1. Representación gráfica: árboles y corchetes etiquetados Las producciones de una Gramática Formal se pueden presentar de forma gráfica por medio de los conocidos árboles de análisis sintácticos o diagramas arbóreos. Los árboles sirven para expresar gráficamente las relaciones sintagmáticas entre las categorías que componen una oración. Construirlos a partir de las reglas de una gramática es sencillo ya que solo es necesario empezar por el símbolo distinguido de la gramática, normalmente O (oración), y colocar dicha categoría en el nodo raíz del árbol, o lugar más elevado de la jerarquía. Justo debajo de la categoría raíz del árbol se dibujan dos ramas en forma de ángulo y en sus extremos se escriben las categorías que aparecen en el cuerpo de la regla. Partamos de un ejemplo muy simple: (3.1)

O → SN SV

O SN

SV

Figura 3.1. Diagrama arbóreo correspondiente a la regla (3.1). 96

Aplicaciones de las Gramáticas Formales y de las matrices de rasgos

El diagrama arbóreo de la figura 3.1 es una representación gráfica del contenido de la regla (3.1). El interés del diagrama arbóreo es que pueden enlazarse tantas reescrituras de reglas como queramos, de manera que se pueden representar las relaciones sintagmáticas que se establecen entre las categorías gramaticales que forman una oración. A continuación, mostramos un árbol un poco más completo, aunque muy simple, y en él vamos a presentar las características formales que los lingüistas han definido para poder expresar relaciones sintagmáticas universales en las lenguas. Considérese la oración (3.2): (3.2)

La chica lee un libro. O SN DET la

SV

N

V

SN

chica lee DET

N

un libro Figura 3.2. Diagrama arbóreo para la oración (3.2).

CUADRO 3.1 Ejemplo de Gramática de tipo 2 que genera la oración (3.2) (1) (2) (3) (4) (5) (6) (7) (8) (9)

O → SN SV SN → Det N (Adj) (SP) SP → P SN SV → Vtrans SN Det → la, un, varias, las N → chica, libro, fotografías, plantas Vtrans → lee, tiene P → de, con Adj → ampliadas, unicelulares 97

Métodos formales en Lingüística

El árbol de análisis que representaría la estructura de constituyentes sería el que se muestra en la figura 3.2. Este árbol se podría generar con la gramática del cuadro 3.1, que se encuentra debajo de la figura 3.2. Como el lector podrá apreciar, cada ramificación del árbol de análisis se corresponde con la aplicación de una regla de reescritura, de manera que en el nodo de cada subárbol encontramos la categoría que constituye la cabecera de la regla correspondiente y en la ramificación del nodo se encuentran las categorías que componen la reescritura de la regla. Como se ve, la primera ramificación de la figura 3.2 corresponde a la aplicación de la regla (1), la ramificación del SN sujeto corresponde a la regla (2) sin expresión de ningún complemento opcional, la ramificación del SV predicado corresponde a la regla (4) y la del SN objeto directo de nuevo corresponde a la regla (2) sin complementos. Pero más allá de esto, en el diagrama arbóreo podemos ver representada la jerarquía sintáctica, por un lado, y el orden de palabras, por otro. La jerarquía sintáctica se expresa por medio de la denominada relación de dominio. Un elemento domina a otro en el diagrama arbóreo si aparece por encima de él en el eje vertical. Así, el nodo raíz O domina al resto de las categorías que aparecen en el árbol de análisis sintáctico. El nodo SN domina a las categorías gramaticales DET y N, y el nodo SV domina a V, a SN objeto directo y a los DET y N que están dominados por el SN objeto directo. En los casos concretos del SV y de la O podemos ejemplificar un concepto muy interesante y útil, se trata de la noción de dominio inmediato que tan útil será en los análisis lingüísticos. Entre el nodo SV y los nodos V y SN existe dominio inmediato, igual que entre el nodo O y los nodos SN sujeto y SV. Pero en cambio, entre el nodo O y el V existe tan solo dominio, igual que entre el nodo SV y el nodo N contenido dentro del SN objeto directo. Más adelante se irá haciendo claro por qué son útiles estas distinciones, pero intuitivamente la idea es que no es lo mismo la relación ‘ser madre’ que la relación ‘ser abuela’ de una persona. En el primer caso habría dominio inmediato y en el segundo habría solo dominio, si es que se nos permite la licencia metafórica de tal imagen (ya que no sería la palabra ‘dominio’ la más adecuada para definir las relaciones de parentesco, por supuesto). Todavía queremos introducir alguna terminología habitual en relación a los diagramas arbóreos. En general, un nodo que se ramifica se denomina madre y las categorías que son dominadas inmediatamente por él se denominan hijos o hijas (en inglés es habitual usar el femenino para todas estas relaciones, pero en español se utiliza el masculino o el femenino concordando con el nombre ‘nodo’, ‘categoría’ etc., para referirse a las categorías dependientes de un nodo). Dos categorías que son hijas del mismo nodo se refieren como hermanas, se dice que son nodos hermanos en el árbol. Todas estas relaciones se utilizan mucho en la investigación lingüística. 98

Aplicaciones de las Gramáticas Formales y de las matrices de rasgos

(3.3)

La chica tiene un libro con varias fotografías ampliadas de las plantas unicelulares.

El diagrama arbóreo que generaría la gramática del cuadro 3.1 para la oración (3.3) es el que se muestra en la figura 3.3. Ahí vemos cómo cada una de las reglas de la gramática del cuadro 3.1 ha dado lugar a una ramificación del árbol que respeta las correspondientes reescrituras. Pero lo más interesante es que en el diagrama arbóreo tenemos a la vista toda la estructura oracional y las relaciones sintácticas que se establecen entre las categorías gramaticales. De esta manera, en el primer SP que encontramos yendo por el árbol de arriba hacia abajo, ‘con varias fotografías grandes de las plantas unicelulares’, vemos gráficamente que la preposición ‘con’ toma como argumento el SN, ‘varias fotografías grandes de las plantas unicelulares’. Asimismo, el nombre fotografías tiene dos complementos expresados como hermanos en la misma ramificación del nodo madre SN, uno es el adjetivo ‘grandes’ y el otro el SP ‘de las plantas unicelulares’. A su vez, todo el SP ‘con varias fotografías grandes de las plantas unicelulares’ es complemento de libro, ya que aparece en su mismo nivel de ramificación.

O SN

SV

DET N

V

NP

la chica tiene DET N

SP

un libro P

SN

con DET

N

ADJ

SP

varias fotografías ampliadas P

SN

de DET

N

ADJ

las plantas unicelulares

Figura 3.3. Diagrama arbóreo correspondiente a la oración (3.3). 99

Métodos formales en Lingüística

Como se ve, el árbol aporta una dimensión informativa de importancia capital para realizar el análisis lingüístico y, en realidad, lo que hemos comentado hasta aquí son solo aspectos superficiales ya que sobre el árbol se pueden definir multitud de operaciones que ayudarán a representar relaciones lingüísticas de gran complejidad. Una de las configuraciones arbóreas que ha recibido un uso más dilatado en la bibliografía de la investigación en lingüística formal es el denominado mando-c, o mando categorial. Este concepto fue introducido por Tanya Reinhart (1976) y fue plenamente adoptado en el modelo chomskiano de Principios y Parámetros de Chomsky (1981) (denominado al principio Teoría de la Reacción y el Ligamiento). Sirve para establecer relaciones gramaticales de la trascendencia de la asignación de caso, la asignación de papeles semánticos, el establecimiento del ligamiento de las anáforas a sus antecedentes y otras operaciones gramaticales de suma importancia. Por supuesto, este tipo de operaciones exceden el poder expresivo de las Gramáticas Formales de la Jerarquía de Chomsky, pero hay que tener en cuenta que Chomsky nunca consideró su teoría de gramáticas formales como una teoría apropiada para la representación de los fenómenos lingüísticos de las lenguas naturales. A esta cuestión ya hicimos alusión en el capítulo 2, especialmente en el apartado dedicado a las Gramáticas de tipo 2, Independientes de Contexto, y la retomaremos en el apartado cuarto de este capítulo. A continuación, exponemos la definición de mando-c: (3.4)

Una categoría α manda-c a una categoría β si y solo si: i) ni α domina a β, ni β domina a α ii) el primer nudo ramificado que domina a α, domina también a β

Esta definición se refiere a nudos que están situados ‘en paralelo’ dentro del árbol. Vamos a utilizar de nuevo el diagrama arbóreo de la figura 3.2. Trivialmente dos nudos hermanos se mandan-c mutuamente: O SN DET la

N

SV V

SN

chica lee DET

N

un libro 100

Aplicaciones de las Gramáticas Formales y de las matrices de rasgos

Por ejemplo, el SN sujeto y el SV se mandan-c mutuamente, igual que el DET y el N, el V y el SN objeto. Esto es así porque la primera de las categorías que consideramos, por ejemplo el SN hijo de O, que instanciaría a α, no domina al SV ni viceversa, cumpliendo así la cláusula i). Además, consideramos que el primer nudo ramificado ascendiendo por el árbol, que es O, domina al SN y también al SV. Por lo tanto, existe mando-c. Pero puede ser que al lector le resulte más difícil identificar que existe mando-c entre el SN sujeto y el SN objeto o entre V y el N ‘libro’ y, en cambio, así es. Si se repasan de nuevo las cláusulas, se constatará que en todos estos casos, por supuesto, no hay dominio, pero además, y crucialmente, el primer nudo que domina a la categoría que manda-c (el SN sujeto o el V, en nuestros ejemplos) también domina a la otra categoría. La definición no impone dominio inmediato, sino dominio y este se cumple en todos los casos bajo consideración. Donde no se cumple es entre el DET o el N de cualquiera de los SN y el V, porque en ambos casos el primer nudo ramificado que dominaría a DET o a N es SN, y SN no domina a V, por lo que no hay mando-c. Para que el lector pueda entender la utilidad y el interés de un concepto como este, vamos a mostrar una de las aplicaciones clásicas que Chomsky le ha dado. Se trata de la denominada Teoría del Ligamiento, de Chomsky (1981). Considérense los ejemplos siguientes: (3.5) (3.6)

La madre de Anabel se peinó. La madre de Anabel la peinó.

Estas dos oraciones son idénticas salvo por el hecho de que en (3.5) aparece la anáfora ‘se’, mientras que en la oración (3.6) aparece el pronombre ‘la’. Pero el significado resultante es ciertamente diferente. En el primer caso quien se peina es la madre y en el segundo quien es peinada es la hija, y todo por el efecto de tan pequeña partícula. En la terminología que adoptará Chomsky, la anáfora debe estar ‘ligada’, es decir debe encontrar un antecedente en su misma cláusula, mientras que el pronombre debe ser ‘libre’, es decir no puede encontrar un antecedente dentro de su misma cláusula. El ligamiento se produce bajo la configuración estructural de mando-c. Para dar cuenta de este fenómeno lingüístico, que además es común a todas las lenguas en las que existen anáforas frente a pronombres, Chomsky (1981) propone la siguiente Teoría del Ligamiento: (3.7) (3.8) (3.9)

Las anáforas siempre tienen que estar ligadas Los pronombres siempre tienen que ser libres Las expresiones referenciales siempre son libres 101

Métodos formales en Lingüística

(3.10) Un elemento está ligado cuando está mandado-c por su antecedente semántico. De la cláusula (3.10) se deduce que los pronombres y las expresiones referenciales, como los sintagmas nominales, nunca pueden estar mandados-c por su antecedente semántico (su referente), mientras que las anáforas tienen que estarlo necesariamente. Vamos a ver cuál es la situación en relación a las oraciones (3.5) y (3.6) utilizando para ello los diagramas arbóreos correspondientes, que se muestran en las figuras 3.4 y 3.5: O SN DET la

N

SV SP

madre P

SN

ANAF

V

se

peinó

de Anabel Figura 3.4. Diagrama arbóreo para la oración (3.5).

O SN DET la

N

SV SP

madre P

SN

PRO

V

la

peinó

de Anabel Figura 3.5. Diagrama arbóreo para la oración (3.6).

102

Aplicaciones de las Gramáticas Formales y de las matrices de rasgos

En la figura 3.4 podemos comprobar que la anáfora está mandada categorialmente por su antecedente el SN ‘la madre de Anabel’. Toda la categoría de SN sujeto ni domina ni es dominada por la anáfora y el primer nudo ramificado que domina a dicho SN es O y, por supuesto, el nudo oración domina a todas las categorías, incluida la anáfora. Por lo tanto, la anáfora está ligada por un antecedente adecuado que cumple con las condiciones que impone la teoría del ligamiento. En la figura 3.5, en cambio, el antecedente semántico no es todo el SN sujeto, sino que es el SN ‘Anabel’ (la que es peinada y, por lo tanto, el antecedente del pronombre ‘la’). Dicho sintagma nominal se encuentra incrustado como argumento de un sintagma preposicional que, a su vez, funciona como complemento de ‘madre’ en el sintagma nominal sujeto. Existe un abismo entre el sintagma nominal antecedente y el pronombre. Veámoslo, ni el SN ‘Anabel’ domina al pronombre ni viceversa, y el primer nudo que domina a este SN es el del sintagma preposicional y el SP no domina en modo alguno al pronombre. Por lo tanto, el pronombre no está mandado categorialmente por su antecedente semántico, por lo tanto es libre y cumple con las restricciones establecidas por la Teoría del Ligamiento. Como hemos mostrado, los árboles añaden mucho más a la teoría gramatical de lo que añaden otros procedimientos gráficos de representación de las relaciones jerárquicas de dependencias. No obstante, como el lector posiblemente ha experimentado en sus estudios anteriores de lingüística descriptiva, también es cierto que hay autores que prefieren utilizar otros modos gráficos de representación basados en líneas, flechas o en cajas. Normalmente se trata de autores que persiguen objetivos descriptivos o pedagógicos y no tienen que someterse a las necesidades que impone la formulación de una teoría lingüística o el establecimiento de leyes generales sobre el funcionamiento lingüístico. Sin embargo, si bien es verdad que la forma más habitual de representar los análisis sintácticos en lingüística formal es utilizar los diagramas arbóreos, a veces se utilizan los denominados corchetes etiquetados (o rotulados) como medio alternativo. Sin lugar a dudas, los corchetes etiquetados son menos claros a la hora de identificar rápidamente las relaciones gramaticales que se establecen entre las categorías que forman una oración, pero también es verdad que ocupan mucho menos espacio y que pueden escribirse utilizando cualquier procesador de textos. La idea es que cada ramificación de un árbol sintáctico puede representarse alternativamente encerrando las categorías que comprenden la reescritura dentro de corchetes cuadrados del tipo ‘[‘, ‘]’. Al pie del corchete de abertura se escribirá la categoría del nodo madre y se actuará recursivamente del mismo modo para todas las ramificaciones anidadas, creando cajas de corchetes anidados y etique103

Métodos formales en Lingüística

tados con sus correspondientes nodos. Con un ejemplo se entenderá este procedimiento muy fácilmente. A continuación, repetimos de nuevo la figura 3.2 para mayor facilidad de lectura: O SN DET la

N

SV V

SN

chica lee DET

N

un libro Figura 3.6. Árbol de ejemplo para transliterar a corchetes etiquetados.

Para representar este diagrama arbóreo por medio de corchetes etiquetados, primero abrimos un corchete y lo etiquetamos como O; siempre es conveniente también cerrarlo porque si no suelen quedar corchetes desparejados. Dentro de ese corchete escribiríamos el SN y el SV. A su vez, la categoría SN sería la etiqueta de un nuevo par de corchetes, y lo mismo sucedería con el SV. Dentro de sendos corchetes irían el DET y el N, en cuanto al SN, y el V y el SN, en cuanto al SV. Por último desarrollaríamos la estructura interna el SN objeto directo con un nuevo corchete etiquetado. Veámoslo paso a paso en el cuadro 3.2.

CUADRO 3.2 Pasos de construcción del análisis en términos de corchetes etiquetados de la figura 3.2 (1) [O SN SV] (2) [O [SN DET N] [SV V SN]] (3) [O [SN DET N] [SV V [SN DET N]]]

104

Aplicaciones de las Gramáticas Formales y de las matrices de rasgos

La línea (3) corresponde a la representación por medio de corchetes etiquetados del diagrama arbóreo de la figura 3.2. En una representación de este tipo parece más difícil ver la configuración de mando-c u otras configuraciones y operaciones que suelen aplicarse a los diagramas arbóreos, pero también es posible identificarlas con la práctica. En cambio, es muy fácil ver el dominio y la precedencia. A continuación, mostramos el proceso de construcción del análisis sintáctico utilizando corchetes etiquetados de la oración (3.5) La madre de Anabel se peinó, que ya se había desarrollado en el diagrama arbóreo de la figura 3.

CUADRO 3.3 Pasos de construcción del análisis en términos de corchetes etiquetados de la figura 3.4 (1) [O SN SV] (2) [O [SN DET N SP] [SV ANAF V ]] (3) [O [SN DET N [SP P SN]] [SV ANAF V ]]

Por último, transcribiremos a corchetes etiquetados el análisis sintáctico representado en el árbol de la figura 3.3, que correspondía a la oración (3.3) La chica tiene un libro con varias fotografías ampliadas de las plantas unicelulares.

CUADRO 3.4 Pasos de construcción del análisis en términos de corchetes etiquetados de la figura 3.3 (1) (2) (3) (4) (5)

[O SN SV] [O [SN DET N] [SV V [SN DET N SP]]] [O [SN DET N] [SV V [SN DET N [SP P [SN DET N ADJ SP]]]]] [O [SN DET N] [SV V [SN DET N [SP P [SN DET N ADJ [SP P SN]]]]]] [O [SN DET N] [SV V [SN DET N [SP P [SN DET N ADJ [SP P [SN DET N ADJ]]]]]]]

Con estos ejemplos esperamos haber dejado claro cuál es el proceso de construcción de un análisis utilizando corchetes etiquetados, aunque no cabe duda de que en esta cuestión la práctica es la manera más certera de entender y aprender el procedimiento. 105

Métodos formales en Lingüística

3.2. Gramáticas Dependientes del Contexto: las reglas fonológicas Las Gramáticas Dependientes del Contexto se han utilizado extensamente en la teoría fonológica generativa para expresar la relación entre los fonemas de una lengua y sus correspondientes alófonos. Las reglas fonológicas propuestas por Chomsky y Halle (1968) utilizaban el formalismo de las Gramáticas Dependientes del Contexto para expresar que un cierto fonema se pronuncia como un cierto alófono en un cierto contexto fónico. Por lo tanto, en esta aplicación de las Gramáticas Dependientes del Contexto el símbolo no terminal A del esquema genérico de regla de tipo 1 toma el valor de una clase de fonemas o de un cierto fonema, la ristra ϕ expresa los cambios que hay que introducir en la matriz de rasgos distintivos que caracterizan a la clase de fonemas o al fonema para que se puedan producir los alófonos correspondientes a dichos fonemas. Pero estos cambios no se producen en cualquier situación, sino en un contexto fonético determinado que es expresado en la parte α __ β de la regla que expusimos en el apartado 2.2 del capítulo 2 y que recordamos bajo estas líneas: (3.11) A → ϕ / α__β Los procesos que describen las reglas fonológicas son considerados por Chomsky como procesos cognitivos. Efectivamente, Chomsky considera que estas operaciones se producen en el cerebro del hablante competente. La hipótesis de Chomsky es que el cerebro tendrá almacenados los fonemas y las reglas fonológicas y los alófonos se producirán por medio de la aplicación de las reglas en determinados contextos muy bien especificados. Para la caracterización de estos procesos se parte de la descripción de los fonemas de una lengua por medio de rasgos fonológicos. Como es bien sabido, Roman Jakobson y el prestigioso fonólogo Morris Halle propusieron en 1956 la descripción y clasificación de los fonemas de las lenguas en términos de rasgos fonológicos distintivos. Lo novedoso de esta propuesta es que la unidad básica de la fonología dejaba de ser el fonema y pasaba a ser el rasgo distintivo. Con un conjunto bastante reducido de rasgos distintivos básicos definidos por oposición (intuitivamente, en términos de lo tiene o no lo tiene) se podían definir los fonemas de cualquier lengua del mundo a través de tablas en las que se mostraba si un dicho rasgo distintivo se manifestaba o no en un cierto sonido o en un cierto fonema. Dicha teoría de rasgos fonológicos distintivos fue adoptada y reformulada diez años más tarde por Noam Chomsky y, de nuevo, Morris Halle en 1968. La 106

Aplicaciones de las Gramáticas Formales y de las matrices de rasgos

diferencia entre la definición de los rasgos distintivos de Jakobson y Halle y los de Chomsky y Halle es que la propuesta de Jakobson y Halle se basa en propiedades acústicas de los sonidos, mientras que la de Chomsky y Halle se basa en propiedades articulatorias, siendo así un poco más intuitiva. Para el español, James W. Harris (1969) publicó una extensa obra desarrollando multitud de reglas fonológicas para el español utilizando el formalismo de las Gramáticas Dependientes del Contexto. A continuación, mostraremos algunas de ellas para que el lector pueda apreciar la utilidad de la aplicación de las reglas de tipo 1 a la explicación de los hechos fonológicos y en particular, a la relación entre fonemas y alófonos. Posiblemente las más conocidas de las reglas que formuló Harris (1969) son la regla de la asimilación de las nasales del español al punto de articulación de la consonante siguiente y la regla de espirantización, o aproximación, de las oclusivas sonoras del español. La regla de la asimilación de las consonantes nasales al punto de articulación de la consonante siguiente se puede observar en datos como por ejemplo [‘aɱfora], [‘djeṋte] [‘aɲʧoa], [‘saŋgre]. Como se ve en estos ejemplos, cuando la consonante siguiente es labiodental, como la [f], entonces la nasal deviene la labiodental [ɱ]; si es dental como la [t], entonces deviene dental [ṋ]; si la consonante es palatal como la [ʧ], entonces la nasal será palatal [ɲ] y si la consonante es velar [g], la nasal será velar [ŋ]. Harris (1969) formula una regla fonológica muy elegante para conseguir expresar estos hechos lingüísticos. Para empezar, el símbolo no terminal A de la regla genérica (3.11) toma el valor de una matriz formada por el rasgo distintivo [+nasal] que refiere a la clase fonológica de las nasales: (3.12) +nasal La matriz de salida de la regla fonológica, que materializa a ϕ, tendrá que estar constituida por los rasgos distintivos que deben cambiar en los fonemas para dar como resultado los alófonos. Pero Harris no lista todos los alófonos en la matriz de salida, que sería lo que intuitivamente uno haría, sino que usa un procedimiento mucho más sutil y elegante. Lo que hace es poner una matriz con los rasgos distintivos que se refieren a los puntos de articulación y no les asigna un valor concreto (+ o –), sino que les atribuye como valor una variable. De la misma manera, en el contexto pondrá los mismos rasgos distintivos de punto de articulación que en la matriz de salida con la misma variable. Veámoslo:

107

Métodos formales en Lingüística

+nasal



α anterior β coronal γ alto ϕ retraído

/ _____

+consonántico α anterior β coronal γ alto ϕ retraído

Figura 3.7. Regla de asimilación del punto de articulación de las nasales del español a la consonante siguiente.

En la figura 3.7 vemos listados los rasgos distintivos correspondientes a puntos de articulación. La combinación de rasgos distintivos [+anterior], [-coronal] caracterizaría a los sonidos que se articulan con los labios, como labiodentales o bilabiales El rasgo [+coronal] es el que caracteriza a los sonidos articulados en el área dental, por ejemplo los alveolares y los dentales. La combinación [+alto], [retraído] caracteriza a los sonidos palatales o prepalatales. Por último, el rasgo [+retraído] definirá inambiguamente a los sonidos velares. De esta forma, cuando un punto distintivo tome un cierto valor para una determinada consonante, el valor variable de la nasal pasará a tomar el mismo valor que el que tenga la consonante que le siga. Por este ingenioso procedimiento, la regla fonológica hará precisamente lo que nos muestran los datos empíricos. Los valores que adopten el resto de los rasgos distintivos para cada punto de articulación son irrelevantes para la regla fonológica. Así las cosas, la unión de todos los rasgos distintivos de punto de articulación permite expresar que cuando la consonante tenga un cierto punto de articulación para los rasgos [anterior, coronal, alto, retraído], automáticamente la nasal pasará a tener los mismos valores en virtud de la igualdad de valores que inducen las variables que representan el valor de los rasgos distintivos en la regla fonológica. De esta manera representa con una sola regla lo que en principio hubiera requerido tantas reglas fonológicas como puntos de articulación. Por lo que respecta a la regla fonológica de la espirantización, intenta dar cuenta del proceso que sufren los fonemas consonánticos del español /b,d,g/ cuando aparecen en determinados contextos. El contexto fónico más general en el que /b,d,g/ pasan a espirantizarse y a pronunciarse como [β,ð,ɣ] es intervocálico, con lo que la primera regla de aproximación intuitiva sería:

108

Aplicaciones de las Gramáticas Formales y de las matrices de rasgos

+oclusivo +sonoro



+espirante

/ [+V] _ [+V]

Figura 3.8. Regla de espirantización de las oclusivas sonoras del español. Versión 1.

Esta primera aproximación a la regla fonológica simplemente establece que el rasgo [+oclusivo] de la matriz de entrada, que llama a los fonemas sobre los que se aplicará la regla, se convierte en [+espirante] solo si se encuentra entre vocales. Esto último se expresa a través del contexto que hemos representado tras la barra inclinada ‘/’. Hemos simbolizado las vocales con el rasgo [+V] y, como es habitual en las reglas dependientes del contexto, hemos expresado con el símbolo ‘_’ el lugar donde debería proferirse la consonante sobre la que se aplica la regla. Pero esta regla no está expresada con la precisión necesaria, ya que hemos utilizado los términos descriptivos ‘oclusivo’, ‘espirante’ o ‘vocal’ y, en cambio, las reglas fonológicas generativistas siempre utilizan los rasgos distintivos que hacen referencia a las clases naturales de sonidos, no el término que refiere a la clase natural directamente. Así, los sonidos oclusivos serán obstruyentes, puesto que interponen una obstrucción total a la salida del aire. No son continuos, puesto que el aire deja de pasar momentáneamente en el momento de la obstrucción total propia de las oclusivas. Todavía hay que añadir otro rasgo para poder delimitar inambiguamente el conjunto de las oclusivas. Efectivamente, los rasgos [+obstruyente, –continuo no solo caracterizan a las oclusivas sino también a las africadas. La diferencia es que las africadas, en el caso del español solo existe la africada /ʧ/, se caracterizan por ser [+estridente], mientras que las oclusivas no lo son. Por lo tanto, la matriz de rasgos que define a las oclusivas debe incluir el rasgo [–estridente] para distinguir el grupo de las oclusivas del grupo de las africadas: (3.13)

+obstruyente –continuo –estridente

109

Métodos formales en Lingüística

Pero esta matriz todavía no es la que necesitamos para formular la regla de espirantización de las oclusivas sonoras del español. Esta matriz de rasgos se refiere en estos momentos a la totalidad de las oclusivas: /b, d, g, p, t, k/. Para llamar solo a los fonemas oclusivos sonoros del español, /β, δ, γ/ tendríamos que añadir el rasgo [+sonoro] a la matriz: (3.14)

+obstruyente –continuo –estridente +sonoro

Ahora ya tenemos definida la matriz de entrada de la regla fonológica, que es lo que correspondería al símbolo no terminal A de la regla general de las Gramáticas Dependientes del Contexto que habíamos repetido en (3.11). Para expresar que se produce una espirantización, el rasgo distintivo que debe cambiar es el de [-continuo]. Como es bien sabido, el rasgo distintivo [continuo] se refiere al hecho de que pase aire continuamente por el aparato fonador mientras se articula el sonido. Así pues, ya que las espirantizadas o aproximantes se caracterizan precisamente porque dejan pasar un poco de aire en su producción, deberán ser necesariamente [+continuo]. A pesar de este pequeño flujo de aire, tales sonidos no dejan de ser obstruyentes, aunque la obstrucción no sea total. Por lo tanto, el único rasgo distintivo que cambiará entre la matriz de entrada y la matriz de salida es el de [±continuo]. Esto se representa poniendo en la matriz de salida, que materializa a ϕ en la regla genérica de las Gramáticas Dependientes del Contexto (3.11), simplemente el rasgo que cambia con respecto a la matriz de entrada. Asimismo, el rasgo [-continuo] se elimina de la matriz de entrada para evitar redundancias entre los rasgos distintivos. Efectivamente, el rasgo del alófono resultante pasará a ser [+continuo] y, habiendo especificado esa información, es irrelevante que el valor para el rasgo [continuo] en la matriz de entrada fuera + o –. Si hubiera sido +, el sonido no cambiaría después de aplicarse la regla; si en cambio fuera – (como es el caso que nos ocupa), entonces pasará a ser + como deseábamos. Esto no sucede solo en esta regla fonológica sino que, en general, siempre se excluye de la matriz de entrada el rasgo que cambia; con que aparezca en la matriz de salida es suficiente para que el proceso fonológico se produzca adecuadamente. Con esta eliminación, la regla fonológica pasaría a tener la siguiente forma:

110

Aplicaciones de las Gramáticas Formales y de las matrices de rasgos

+obstruyente –continuo –estridente +sonoro



+continuo

/ [+sil] _ [+sil]

Figura 3.9. Regla de espirantización de las oclusivas sonoras del español. Versión 2.

Esta regla fonológica expresa que el rasgo [±continuo] debe tomar el valor [+continuo]. Asimismo, hemos cambiado el término descriptivo V (vocal) que utilizábamos en el contexto de la figura 3.8 por el rasgo distintivo [+silábico] porque en el sistema de rasgos distintivos de Chomsky y Halle (1968) el rasgo distintivo que caracteriza a las vocales es el rasgo [+silábico]. La figura 3.9 expresa el proceso de espirantización de las oclusivas sonoras del español en contexto intervocálico, pero en realidad lo que ha hecho famosa la formulación de Harris (1969) de esta regla fonológica no ha sido tanto este contexto sonoro sino su definición del resto de contextos fónicos en los que las oclusivas sonoras se espirantizan. Así es, las oclusivas sonoras del español no solo se espirantizan en contexto intervocálico, sino en otros contextos en los que aparece detrás de consonante. La descripción de los datos, es que las oclusivas sonoras se mantienen oclusivas detrás de pausa, detrás de nasal y la /d/ también detrás de consonante lateral ([l] y [r]). En estos contextos /b, d, g/ se pronuncian [b, d, g], en el resto se pronuncian [β, δ, γ]. De lo que se apercibió Harris (1969) es de que en estos contextos tanto las oclusivas sonoras como las consonantes del contexto tenían el mismo punto de articulación. Es así porque las nasales del español se articulan siempre asimilándose al punto de articulación de la consonante siguiente. Por lo tanto, cuando las oclusivas sonoras aparecen por detrás de una nasal, ambas consonantes siempre tendrán el mismo punto de articulación. El otro contexto atañe a la /d/, que se mantiene oclusiva si va precedida de [l] o [r]. Pero, de nuevo, todas estas consonantes tienen el mismo punto de articulación [+coronal], por lo que la pronunciación de la /d/ se mantendrá oclusiva. Teniendo en cuenta este análisis de los datos, Harris (1969) propuso definir el contexto de aplicación de la regla de espirantización de las oclusivas sonoras del español delante de consonante restringiéndolo a las situaciones en las que la oclusiva sonora y la consonante que le precediera no tuvieran el mismo punto de arti111

Métodos formales en Lingüística

culación. Pero expresar esto en el formalismo de las matrices de rasgos distintivos no es trivial. Para ello Harris (1969) propuso utilizar variables como valores de los rasgos distintivos. De esta manera, el valor que tuviera el rasgo distintivo para el punto de articulación de una cierta oclusiva sonora podría relacionarse con el de la consonante precedente por medio de la utilización de la misma variable en el mismo rasgo distintivo de las respectivas matrices de rasgos. Harris (1969) utiliza el rasgo [coronal] para indicar el punto de articulación de las consonantes. Si son [+coronal], como la /d/, las líquidas /l, r/ o la nasal /n/, no se aplicará la regla y /b, d, g/ se mantendrán oclusivas. Lo mismo sucederá si tanto las oclusivas sonoras como la consonante que les siga son [–coronal], como la /b/, la /g/, con todas las consonantes no dentales ni alveolares o con las nasales [ɱ, ɲ, ŋ]. Al igual que en la regla fonológica de asimilación del punto de articulación de la nasal a la consonante siguiente, Harris utiliza la letra griega α para expresar un valor variable que depende del contexto. Para indicar que las dos consonantes deben tener punto de articulación de valor contrario, Harris utiliza α para el valor [coronal] de las oclusivas sonoras y –α para el de la consonante que le precede. Veamos cómo se desarrolla finalmente la regla:

+obstruyente –estridente +sonoro

/ [+sil] ___ [+sil] ∨ →

+continuo +cons –αcoronal

_______ [αcoronal]

Figura 3.10. Regla de espirantización de las oclusivas sonoras del español. Versión definitiva.

La regla de la figura 3.10 está un poco simplificada en relación a la de Harris (1969, p. 60), pero para ejemplificar la aplicación de las Gramáticas Dependientes del Contexto a la teoría fonológica es suficiente y además, resulta más clara. Con ella hemos podido ver la complejidad que pueden alcanzar los símbolos no terminales de la regla genérica de las Gramáticas Dependientes del Contexto y, especialmente, el refinamiento formal que se alcanza en la definición de los contextos lingüísticos de los que depende la aplicación de este tipo de reglas. 112

Aplicaciones de las Gramáticas Formales y de las matrices de rasgos

3.3. Gramáticas Independientes del Contexto: las reglas sintácticas Las Gramáticas Independientes del Contexto han sido, sin duda, las Gramáticas Formales más utilizadas, investigadas y, como no, criticadas de toda la jerarquía de Chomsky. Su influencia en el desarrollo de la Lingüística del siglo XX en general, no solo de la lingüística formal, ha sido muy grande y realmente el panorama de la lingüística actual sería muy diferente si no se hubieran propuesto y extendido en el quehacer lingüístico. En realidad, es muy probable que si Chomsky no las hubiera formulado, otro lingüista hubiera acabado haciéndolo. No es esta una afirmación gratuita, puesto que, mientras que la formulación del resto de las Gramáticas Formales de la Jerarquía de Chomsky podrían haber pasado desapercibidas para los lingüistas en general, es muy difícil que las Gramáticas Independientes del Contexto no acabaran desarrollándose de una forma similar a como lo han hecho a partir de la teoría de constituyentes de los distribucionalistas norteamericanos, particularmente de Charles Hockett y Zellig Harris. Como mostrábamos en el capítulo 2, las Gramáticas Independientes del Contexto se han utilizado principalmente para representar la estructura de constituyentes, a pesar de que su poder expresivo es mucho mayor. Como decíamos entonces, el lenguaje formal de una Gramática Independiente del Contexto puede generar prácticamente todas las estructuras de las lenguas naturales, con la excepción de las dependencias cruzadas que encontramos habitualmente en las oraciones subordinadas del neerlandés o las oraciones formadas con el adverbio ‘respectivamente’ en lenguas como el español. Pero los lingüistas han preferido utilizar los mecanismos formales de las Gramáticas Independientes del Contexto para dar cuenta de las construcciones combinatorias no marcadas de constituyentes sintagmáticos y utilizar otro tipo de reglas para representar las construcciones que alteran el orden básico de constituyentes, como veremos en el capítulo 4, apartado 1. Debido a esta preferencia de los lingüistas por usar las Gramáticas de tipo 2 para representar las estructuras de constituyentes, a menudo se les ha denominado en la bibliografía ‘Gramáticas de constituyentes’ o ‘Gramáticas sintagmáticas’ a pesar de que, naturalmente, debido a las propiedades de inclusión propias de la Jerarquía de Chomsky, no solo las Gramáticas de tipo 2, sino también las de tipo 1 y las de tipo 0, podrían dar cuenta de estas propiedades de la estructuración de las construcciones lingüísticas. Así pues, las Gramáticas Independientes del Contexto se han utilizado especialmente para representar la sintaxis de las lenguas naturales y, en particular, la estructura de constituyentes. Ya vimos un nutrido ejemplo de Gramáticas de tipo 2 en el apartado 2.3 del capítulo anterior, pero así y todo se puede profundizar en 113

Métodos formales en Lingüística

algunas cuestiones muy relevantes de tales gramáticas. Una de las primeras cosas que se deberían advertir después de las explicaciones desarrolladas hasta aquí, es que los diagramas arbóreos y los corchetes etiquetados que hemos expuesto en el apartado 3.1 se han desarrollado principalmente a partir del uso de las Gramáticas Independientes del Contexto para expresar la estructura de constituyentes. Tales formalismos de representación son especialmente útiles para plasmar los diferentes niveles jerárquicos de dependencias entre los constituyentes si las producciones de la gramática son muy largas. Considérese la oración (3.15): (3.15) Un lingüista norteamericano del MIT inició una revolución en la lingüística que tuvo unas repercusiones muy importantes en la historia de las ciencias del lenguaje. Para formular una Gramática Independiente del Contexto para la oración (3.15) debemos tener muy en cuenta cuál es la estructura de constituyentes estableciendo con precisión las dependencias jerárquicas de los diferentes sintagmas. Solo así podremos poner en claro el nivel jerárquico en el que conviene situar cada constituyente a la hora de formular las reglas de tipo 2 que conforman la gramática. En particular, esto es especialmente delicado cuando se trata de asignar los sintagmas preposicionales a su nivel jerárquico correspondiente, ya que es muy común que se produzcan errores entre los sintagmas preposicionales que son complementos del nombre y que, por lo tanto, deben producirse dentro de la regla de sintagma nominal y los sintagmas preposicionales que modifican a un sintagma verbal pero que están al lado de un sintagma nominal. Esto produce ambigüedades, como veremos más adelante. Algunas de estas ambigüedades de asignación de nivel jerárquico producen interpretaciones diferentes, mientras que otras simplemente son imposibles. Seguidamente mostramos un ejemplo de Gramática Independiente del Contexto que generaría la oración (3.15). Si se aplican cuidadosamente las reglas de la gramática del cuadro 3.5 podremos generar el árbol que muestra la figura 3.11. El diagrama arbóreo permite desambiguar la aplicación de la regla (2), ya que dicha regla permite generar un sintagma preposicional como complemento del nombre de forma general. No obstante, cuando hay varios complementos nominales anidados recursivamente, la regla no permite guardar el registro de en qué nivel se ha generado cada uno. En cambio, esa valiosa información es precisamente la que permite representar el diagrama arbóreo ya que sitúa cada dependencia en su nivel de constituyentes, guardando así el registro del orden jerárquico de producción del análisis. 114

Aplicaciones de las Gramáticas Formales y de las matrices de rasgos

CUADRO 3.5 Ejemplo de Gramática de tipo 2 para la oración (3.15) (1) O → SN SV (2) SN → Det N (SAdj) (SP) (Orel) (3) SN → Npropio (4) SP → P SN (5) Orel → Prorel SV (6) SV → Vtrans SN (SP) (7) SAdj → (Adv) Adj (8) Det → un, el, una, la, unas, las (9) N → lingüista, revolución, lingüística, repercusiones, historia, ciencias, lenguaje (10) Npropio → MIT (11) Vtrans → inició, tuvo (12) P → de, en (13) Adj → norteamericano, importantes (14) Adv → muy (15) Prorel → que

Así, por ejemplo, podemos representar de este modo que la oración de relativo ‘que tuvo unas repercusiones muy importantes en la historia de las ciencias del lenguaje’ es complemento del nombre ‘revolución’ y no del nombre ‘lingüística’, del cual la regla (2) permitiría hacerlo depender. Asimismo, podemos representar que ‘en la historia de las ciencias del lenguaje’ depende de ‘tuvo unas repercusiones muy importantes’ y que se ha generado con la regla (6) de la gramática del cuadro 3.5 y no con la regla (2). Por este motivo no se interpreta como complemento de ‘repercusiones’, a pesar de que formalmente bien podría generarse como complemento de dicho nombre utilizando la regla (2). Por lo tanto, las Gramáticas Independientes del Contexto combinadas con un procedimiento formal de representación de los niveles jerárquicos de dependencias, son extraordinariamente útiles para expresar las relaciones gramaticales. Veámoslo en el diagrama arbóreo de la figura 3.11:

115

Métodos formales en Lingüística O

SN

DET

N

SV

ADJ

SP

Un lingüista Norteamericano P

V

SN

SN inició DET N

de DET SN el MT

SP

una revolución P

OREL

SN

en DET

REL N

la lingüística

SV

que V

SN

tuvo DET

SP

N

SADJ

unas repercusiones ADV

ADJ

muy importantes

P

SN SP

en DET N

la historia P

SN

de DET

N

SP

las ciencias P

SN

de DET

N

el lenguaje

Figura 3.11. Diagrama arbóreo que muestra el análisis para la oración (3.15).

Otra de las propiedades más apreciadas de estos diagramas arbóreos asociados a las producciones de las Gramáticas Independientes del Contexto, y en general a la Gramáticas Formales, es que permiten representar de forma muy clara las ambigüedades sintácticas. Como decíamos antes, la diferente atribución de un complemento preposicional a un sintagma verbal o a un sintagma nominal produce árboles sintácticos diferentes y puede originar interpretaciones semánticas distintas o simples absurdos. Pero esto no solo sucede con los sintagmas preposicionales, ocurre con cualquier tipo de complemento o modificador que pueda asignarse a más de un nivel jerárquico. Considérese la oración (3.16):

116

Aplicaciones de las Gramáticas Formales y de las matrices de rasgos

(3.16) Mi padre tiene bastantes óleos y varios dibujos antiguos. Esta oración tan simple tiene dos posibles interpretaciones que derivan de dos árboles diferentes y corresponden a dos derivaciones de aplicaciones de reglas distintas. Por un lado, se podría interpretar que mi padre tiene unos óleos, que pueden ser nuevos o antiguos, y también unos dibujos antiguos; por otro lado, se podría interpretar que tiene una colección formada tanto de óleos como de dibujos, todos ellos antiguos. La Gramática Independiente del Contexto que podría generar ambas estructuras jerárquicas se muestra en el cuadro 3.6.

CUADRO 3.6 Ejemplo de Gramática de tipo 2 para la oración (3.16) (1) (2) (3) (4) (5) (6) (7) (8) (9)

O → SN SV SN → Det N SN → SN conj SN SN → SN (Adj) SV → Vtrans SN Det → mi, bastantes, varios N → padre, óleos, dibujos Vtrans → tiene Adj → antiguos

Para obtener la primera interpretación se debe generar el sintagma nominal ‘varios dibujos’ con la regla (2) y luego aplicarle el adjetivo con la regla (4). A continuación, se genera el sintagma nominal ‘bastantes óleos’, de nuevo usando la regla (2), y se coordina dicho sintagma nominal con el sintagma ‘varios dibujos antiguos’ utilizando la regla (3). La primera interpretación se representa en el siguiente diagrama arbóreo de la figura 3.12. En cambio, si queremos obtener la segunda interpretación, hay que coordinar el sintagma nominal ‘bastantes óleos’ con el sintagma nominal ‘varios dibujos’ utilizando la regla (3) y luego complementar el sintagma nominal ‘bastantes óleos y varios dibujos’ aplicando el adjetivo ‘antiguos’ a todo el conjunto coordinante, utilizando para ello la regla (4) (figura 3.13).

117

Métodos formales en Lingüística

O SN DET

SV N

V

mi padre tiene

O CONJ

SN DET

N

SN

y

SN DET

bastantes óleos

ADJ N

antiguos

varios dibujos Figura 3.12. Diagrama arbóreo para la primera interpretación de la oración (3.16).

O SN DET

SV N

V

SN SN

mi padre tiene

N

bastantes óleos

y

antiguos

SN

CONJ

SN DET

ADJ

DET

N

varios dibujos

Figura 3.13. Diagrama arbóreo para la segunda interpretación de la oración (3.16).

118

Aplicaciones de las Gramáticas Formales y de las matrices de rasgos

Otro asunto que atañe a la construcción de las Gramáticas Independientes del Contexto para la construcción de la teoría lingüística es la importante cuestión de si una gramática se construye siguiendo un enfoque sintacticista o lexicalista. Efectivamente, tal y como habíamos expuesto en el apartado 1.2.3 del capítulo 1, utilizando gramáticas formales tanto podemos construir gramáticas formadas por un conjunto de reglas bastante complejas y un lexicón muy sencillo, como Gramáticas Formadas por un conjunto de reglas muy simple pero con un lexicón muy complejo. Vamos a ejemplificar ahora tal posibilidad con las Gramáticas Independientes del Contexto. Primero propondremos una Gramática de tipo 2 que a partir de un conjunto de reglas sintácticas bastante extenso y de un léxico bastante simple generará estructuras activas y pasivas a partir de las reglas de reescritura. En segundo lugar, mostraremos una Gramática Independiente del Contexto que producirá estructuras activas y pasivas generadas directamente a partir de estructuras léxicas bastante complejas aplicándoles reglas sintácticas bastante simples. Los ejemplos que vamos a desarrollar están inspirados en los modelos formales de Chomsky, pero no corresponden a sus propuestas, sino que son adaptaciones de aquellas a Gramáticas Independientes del Contexto sin más aditivos formales. En particular, la primera gramática que vamos a desarrollar está inspirada en el modelo estándar (Chomsky 1965) pero usando el formalismo de las Gramáticas Independientes del Contexto sin más adiciones. La segunda está inspirada en el último modelo chomskiano, el Programa Minimista de Chomsky (1995), y fundamentalmente en las propuestas lexicalistas del formalismo lingüístico denominado Gramática Categorial, según el modelo de Bar-Hillel (1953), cuyas bases se tratarán en el capítulo 5. Las oraciones que vamos a tomar como datos para la confección de estas Gramáticas de tipo 2 ilustrativas son: (3.17) La amiga de mi hija compró una tortuga. (3.18) Una tortuga fue comprada por la amiga de mi hija. La primera Gramática Independiente del Contexto que vamos a presentar será un ejemplo de gramática sintacticista. Esto significa que será una gramática que resolverá los fenómenos lingüísticos a través de reglas sintagmáticas. La gramática que se muestra en el cuadro 3.7 contiene una gran cantidad de reglas con las que se generarán las estructuras tanto activas como pasivas a partir de reglas de reescritura. Veámoslo:

119

Métodos formales en Lingüística

CUADRO 3.7 Ejemplo de Gramática Independiente de Contexto compuesta por un conjunto de reglas complejas y un lexicón simple (1) (2) (3) (4) (5) (6) (7) (8) (9) (10)

O → SN SV SN → DET N (SP) SV → Vtrans SN SP → P SN SV → Vpas (SP) VPAS → AUXser Vparticipio DET → la, mi, una N → amiga, hija, tortuga P → de, por V → compró

La Gramática de tipo 2 del cuadro 3.7 muestra una serie de reglas que simplemente definen o reescriben categorías complejas en las categorías que las componen hasta llegar a las categorías léxicas, tal y como se ha hecho en los ejemplo de gramáticas formales que hemos desarrollado hasta ahora. Se debe tener en cuenta que las reglas 5 y 6 expresan reglas de reescritura correspondientes a la generación de los sintagmas verbales pasivos. Para la generación del árbol correspondiente a la oración activa (3.17) se tienen que utilizar las reglas del (1) al (4) de la gramática del cuadro 3.7. En cambio, para la generación del árbol correspondiente a la oración pasiva (3.18) ha sido necesario utilizar la regla (5) de SV en lugar de la (3). Pero en cualquiera de los dos casos, el poder generativo ha procedido de las reglas de reescritura que plasman la combinatoria estructural de la estructura de constituyentes sintagmáticos y, en ningún caso, de reglas de reescritura que profundicen en la complejidad de la definición gramatical o sintagmática del léxico. Asimismo, la estructura lingüística que se asigna a las entradas léxicas en esta Gramática Independiente del Contexto es nula. Las palabras son introducidas directamente como símbolos no terminales y no se les asigna información sintagmática ni gramatical de tipo alguno. A continuación, se muestra el árbol generado por la gramática del cuadro 3.7 correspondiente a la oración en activa consignada en (3.17). En realidad, los árboles pueden no mostrar diferencias significativas entre el enfoque sintacticista y el enfoque lexicalista. Esto es muy llamativo porque los cambios en una teoría gramatical pueden introducirse exclusivamente para que expliquen los datos de una forma que nos parezca preferible por razones independientes a la mera descripción. 120

Aplicaciones de las Gramáticas Formales y de las matrices de rasgos

O SN Det

N

SV SP

la amiga P

V

SN

SN

compró Det

de Det N

N

una tortuga

mi hija Figura 3.14. Árbol de análisis de la oración (3.17) utilizando la gramática 3.7.

A continuación, mostramos el árbol de la generación de la oración pasiva (3.18) a partir de la gramática sintacticista del cuadro 3.7. Debe aclararse que este no sería el árbol habitual en el modelo chomskiano para una construcción pasiva. Solo se trata de un ejemplo de árbol muy sencillo que tomará sentido cuando se compare con el tratamiento lexicalista ejemplificado al final de este apartado. O SN Det

N

SV Aux

V

SP

una tortuga fue comprada P

SN

por Det

N

SO

la amiga P

SN

de Det

N

mi hija

Figura 3.15. Árbol de análisis de la oración (3.18) utilizando la gramática 3.7. 121

Métodos formales en Lingüística

Sin embargo, esta misma construcción pasiva podría haberse generado con otra gramática formada por reglas sintácticas más simples y por un léxico más complejo. En el cuadro 3.8 se muestra una posible gramática formal con tales características lexicalistas.

CUADRO 3.8 Ejemplo de Gramática Independiente del Contexto compuesta por reglas sintácticas simples y lexicón complejo (1) Regla sintagmática única: C → A B (2) A, B y C son categorías gramaticales [N, V, P, ADJ, ADV, CONJ]. A y B se combinan sintagmáticamente para formar una categoría de tipo C siguiendo las especificaciones léxicas que se dan a continuación: (3) Los nombres pueden tomar como complementos a SP y como especificadores a determinantes para formar SN (4) Las preposiciones toman como complementos a SN para formar SP (5) Los verbos transitivos toman a SN para formar SV (6) Los verbos pasivos toman como sujetos SN con papel semántico de PACIENTE y con caso nominativo (7) Los verbos pasivos pueden tomar opcionalmente un SP para formar un SV (8) Un SN y un SV pueden combinarse para formar una O (9) DET → la, mi, una (10) N → amiga, hija, tortuga (11) P → de, por (12) V → compró

Esta Gramática de tipo 2 contiene las especificaciones léxicas necesarias para generar las estructuras activa y pasiva que hemos visto anteriormente. El árbol generado sería el mismo que hemos consignado antes, por lo que no lo repetimos. El foco ahora se sitúa sobre la diferente formulación de las Gramáticas Independientes del Contexto que hemos desarrollado. Como se aprecia con claridad, la segunda se centra en la definición de las propiedades combinatorias del léxico y contiene una sola regla de combinatoria sintáctica. Esto es lo que se denomina una gramática lexicalista y no se ha extendido en la teoría gramatical hasta los años 80, a pesar de que ya Ajdukiewicz (1935) propuso a principios del siglo XX un modelo de teoría sintáctica de base lexicalista, la denominada Gramática Categorial, retomada a mediados de siglo por Bar-Hillel (1953) y Lambek (1958) y en los años 80 por las 122

Aplicaciones de las Gramáticas Formales y de las matrices de rasgos

publicaciones de Steedman y otros categorialistas. Sin embargo, esta concepción de la teoría gramatical se ha extendido masivamente entre los lingüistas, fundamentalmente, a partir de los trabajos de Kay, Kartunen, Bresnan, Kaplan, Gazdar, Pollard y Sag, entre otros, y de los modelos de Chomsky de los años 80 y 90 hasta la actualidad. Salvo los categorialistas, que veremos en el último capítulo de este libro, todos estos autores utilizan las Gramáticas Independientes del Contexto extendidas con otros recursos formales, como veremos en el próximo capítulo. Por último, quisiéramos destacar un aspecto muy llamativo de la cuestión que estamos tratando. Tanto la Gramática Independiente del Contexto de cuadro 3.7 como la del cuadro 3.8 pueden generar idénticos diagramas arbóreos a pesar de tener una forma totalmente diferente. El hecho es que diferentes gramáticas formales pueden generar los mismos marcadores sintagmáticos o estructuras de análisis si son fuertemente equivalentes. Para tener solo una equivalencia tendrían simplemente que generar el mismo conjunto de oraciones. En el capítulo 5, apartado 5.2, volveremos sobre estos conceptos en la comparación entre la Gramática Independiente del Contexto y la Gramática Categorial.

3.4. Matrices de rasgos y Gramáticas de Unificación En este apartado expondremos un formalismo que ha sido clave para que se produjera la eclosión y extensión del lexicalismo en las diversas teorías lingüísticas actuales. Hay que advertir que se puede adoptar un punto de vista lexicalista sin necesidad de utilizar matrices de rasgos, como bien ha demostrado la Gramática Categorial clásica o el Minimismo chomskiano en sus versiones más ortodoxas, que veremos más adelante. Sin embargo, la adición de matrices de rasgos hace que no solo los formalismos concebidos como puramente lexicalistas, como la Gramática Categorial, refrenden aún más esa propiedad, sino que también formalismos tan sintacticistas como las Gramáticas Independientes del Contexto, de tipo 2 de la Jerarquía de Chomsky, puedan llegar a ser consideradas lexicalistas con la mera adición de las matrices de rasgos. Estas delicadas diferencias se clarificarán según avancemos en la exposición de la materia. Asimismo, las matrices o estructuras de rasgos y la unificación también son muy importantes en la actualidad como métodos formales de representación de información lingüística y de los procesos gramaticales. En gran medida deben considerarse el mecanismo clave que han utilizado varias de las teorías lingüísticas más relevantes en la actualidad para la extensión del poder expresivo de las Gramáticas de tipo 2 sin necesidad de reglas de gran potencial como las transformaciones, tal y como veremos en el capítulo 4. 123

Métodos formales en Lingüística

Las matrices de rasgos y las Gramáticas de Unificación fueron propuestas por Kay (1979, 1984, 1985) y Shieber (1986) dentro del marco de la lingüística computacional y, en particular, de la traducción automática. Las estructuras de rasgos son de gran utilidad para la representación declarativa de cualquier tipo de conocimiento lingüístico. Se han utilizado fructíferamente para expresar las propiedades morfosintácticas de los elementos lingüísticos, para establecer concordancias entre las matrices de rasgos y, en general, para expresar cualquier tipo de dependencia o relación entre los elementos gramaticales. Como en realidad ya hemos visto intuitivamente en el apartado 3.2 de este capítulo, también se utilizan desde hace tiempo para expresar los haces de rasgos fonológicos que componen un fonema, así como cualquier conjunto de propiedades fonológicas a las que se quiera referir tanto descriptiva como procedimentalmente. En semántica y en pragmática se utilizan profusamente para la representación del conocimiento, como veremos en el apartado 3.5. En definitiva, este formalismo ha protagonizado un gran avance en el tratamiento de la información, tanto en el campo de la lingüística descriptiva y la lingüística teórica como en el de la lingüística computacional y la inteligencia artificial. Este modo de representar la información presenta la gran ventaja de que es muy gráfico y permite captar rápidamente la información de forma visual, incluso la más compleja. Su uso redunda tanto en la claridad y en la expresividad como en el rigor científico, ya que al ser un formalismo sumamente declarativo exige del lingüista una gran precisión y compromiso no solo a la hora de expresar los datos descriptivos sino también con la evolución que sufren a lo largo del procesamiento lingüístico a que son sometidos los datos en los análisis por parte de las teorías. En este apartado abordaremos, en primer lugar, la descripción de la estructura general de las matrices de rasgos. A continuación, abordaremos las estructuras de rasgos plenamente formalizadas que se utilizan para representar la información morfosintáctica y la combinatoria sintáctica a través de la operación de unificación. Finalmente, expondremos algunas aplicaciones de estos conceptos a las Gramáticas Independientes del Contexto, en lo que se ha venido a denominar las Gramáticas de Unificación. Las matrices de rasgos están formadas por pares compuestos por un atributo y su valor correspondiente. El número de pares que forma la matriz no está limitado, así que el volumen de una matriz de rasgos depende de la complejidad de la información que nos dispongamos a representar o del detalle al que queramos llegar. En los pares, el atributo es siempre simple pero el valor puede ser simple o puede ser, a su vez, otra matriz de rasgos. Un atributo puede ser cualquier propiedad lingüística que queramos definir, como número, persona o concordancia, y el valor es un valor simple, como primera persona o plural o sintagma nominal o una matriz de rasgos 124

Aplicaciones de las Gramáticas Formales y de las matrices de rasgos

con los valores que le corresponden a sus atributos. Con esta definición recursiva queda asegurada la versatilidad y expresividad de estas estructuras.

CUADRO 3.9 Definición recursiva de una matriz de rasgos (1) Una matriz de rasgos es un conjunto de pares atributo valor. (2) Un atributo se extrae de un conjunto que representa el rango de propiedades lingüísticas, por ejemplo NUM, TIEMP, PERS, CAT, etc. (3) Un valor puede extraerse de un conjunto que representa el dominio de propiedades lingüísticas, por ejemplo SING, PAS, 1, 2, 3, N, V, etc. (4) Un valor puede estar formado por una matriz de rasgos.

Como se ve en la definición del cuadro 3.9, un ejemplo de valores simples asociados a atributos podría ser el que se muestra en la figura 3.16, donde Pers significa persona, Num número y PLU plural.

PERS 1 NUM PLU Figura 3.16. Matriz de rasgos con valores simples.

Mientras que un valor complejo estará expresado a través de una nueva matriz de rasgos. Un posible valor podría ser esta misma estructura de rasgos de la figura 3.16 que podría corresponder a un atributo Conc (concordancia). En esta matriz de rasgos también aparece el valor Cat categoría y SN sintagma nominal. Véase: CAT SN CONC

PERS 1 NUM PLU

Figura 3.17. Matriz de rasgos con valores simples y complejos. 125

Métodos formales en Lingüística

Estas estructuras de rasgos pueden llegar a complicarse considerablemente en las aplicaciones lingüísticas. Hay que tener en cuenta que el que las usa puede utilizarlas para cualquier campo de estudio dentro de la lingüística y para cualquier tipo de aplicación, ya que no hay restricciones al respecto. Por ese motivo es un formalismo que ha tenido un gran éxito como herramienta de expresión de todo tipo de información, desde la fonología a la pragmática, pasando por la morfología, la sintaxis y la semántica. A menudo nos encontramos con estructuras de rasgos que se ordenan en submatrices paralelas de manera que, al mismo tiempo, una misma matriz de rasgos puede contener información jerarquizada e información en paralelo relativa a los diferentes niveles lingüísticos. A continuación, vamos a exponer y a interpretar un ejemplo construido a propósito para mostrar esta facilidad que poseen las estructuras de rasgos de plasmar diferente información de forma estructurada en un mismo plano de contenidos paralelos de manera muy sencilla y clara. Esta matriz de rasgos está inspirada en las que se suelen utilizar en la teoría lingüística denominada Gramática LéxicoFuncional (abreviada como LFG).

CAT SN SUJ

CONC

NUM SING PERS 3

CASO NOMINATIVO PRED ‘Iris’ CAT SN OBJ

CONC

NUM PLU PERS 3

CASO ACUSATIVO PRED ‘libros’ PRED < ‘lee’ (↑SUJ) (↑OBJ) > Figura 3.18. Matriz de rasgos donde se combina información de diverso tipo. 126

Aplicaciones de las Gramáticas Formales y de las matrices de rasgos

La figura 3.18 muestra información muy simple de tipo gramatical, funcional y semántico, que correspondería a una oración tan sencilla como ‘Iris lee libros’. La información gramatical que se expresa en la figura 3.18 sería la categoría, el caso, el número, la persona, la concordancia. En cambio, los valores funcionales están representados aquí por los rasgos relativos al SUJETO y al OBJETO. El valor semántico en LFG se denomina PRED, que para los nombres es el valor referencial o conceptual de la entidad o el individuo y para el verbo, además del valor referencial, lleva asociada, un patrón de exigencias de buena formación, en este caso sería PRED < ‘lee’ (↑SUJ) (↑OBJ)> . Esta fórmula significa en LFG que este tipo de verbo requiere la aparición obligatoria de un sujeto y un objeto, como se verá con más detalle en el capítulo 4. Existe otro tipo posible de valor que puede tomar un atributo. Se trata del mecanismo denominado reentrancia, que consiste en que un atributo tome el mismo valor que otro atributo. Pero no consiste en que casualmente coincidan en tener el mismo valor, sino en que lo compartan. Es decir, hay una sola matriz de rasgos o un solo rasgo que es tomado como valor del mismo atributo contenido en varias matrices al mismo tiempo. Así, para expresar que entre el artículo, el nombre y el adjetivo de un mismo sintagma nominal existe concordancia, podemos usar la misma matriz de rasgos como valor de los respectivos atributos CONC.

CAT DET PRED ‘el’ CONC NUM SING PERS 3 GEN MASC

CAT N PRED ‘libro’ CONC CAT ADJ PRED ‘interesante’ CONC

Figura 3.19. Matriz de rasgos con reentrancia. 127

Métodos formales en Lingüística

En cambio, no sería reentrancia el hecho de que diera la casualidad de que dos sintagmas nominales tuvieran el mismo género, número y persona. Eso se trataría de una coincidencia pero no podríamos utilizar la reentrancia para representar que, casualmente, dos objetos lingüísticos tienen los mismos valores para los rasgos del atributo CONC. Para reconocer los casos de reentrancia se puede aplicar una prueba muy sencilla. Si uno de los valores cambia, el del otro objeto lingüístico que se supone que es reentrante debe cambiar automáticamente para que la expresión lingüística siga siendo gramatical. Por ejemplo, si el adjetivo de la matriz de rasgos de la figura 3.19 pasa a ser plural, entonces necesariamente el artículo y el nombre tendrían que pasar a ser plural. En cambio, en la figura 3.18 los valores de concordancia para los sintagmas nominales sujeto y objeto no son reentrantes porque puede darse una oración perfectamente gramatical (como es el caso) en la que nos valores no coincidan, precisamente porque no son compartidos: porque no son reentrantes. Si se dieras el caso de que tuvieran por casualidad los mismos valores, entonces no podríamos utilizar reentrancia para representar esta coincidencia puesto que hay dos valores no un valor único compartido.

SUJ

CAT SN NUM SING PERS 3

CONC

PRED ‘Iris’ OBJ

CAT SN CONC

NUM SING PERS 3

PRED ‘Sandokán’ PRED < ‘lee’ (↑SUJ) (↑OBJ)> Figura 3.20. Matriz de rasgos con valores idénticos pero no reentrantes.

128

Aplicaciones de las Gramáticas Formales y de las matrices de rasgos

Otra de las aplicaciones más comunes de la reentrancia es la representación de la concordancia entre el sujeto y el predicado. Veamos el ejemplo siguiente:

SUJ

CAT SN CONC

NUM SING PERS 3

CASO NOMINATIVO PRED ‘Iris’ OBJ

CAT SN CONC

NUM PLU PERS 3

CASO ACUSATIVO PRED ‘libros’ PRED < ‘lee’ (↑SUJ) (↑OBJ) > CONC

Figura 3.21. Matriz de rasgos con concordancia sujeto-predicado.

Como se ha podido deducir de estos sencillos ejemplos, la reentrancia constituye un mecanismo de capital importancia para la expresión de información compartida. Como vemos en la estructura de rasgos ejemplificada en la figura 3.21, la concordancia entre el sintagma nominal sujeto y el verbo de la oración se puede expresar asociando el mismo valor al atributo CONC del verbo y del sujeto. No se trata de que casualmente coincidan en tener el mismo valor, sino de que el valor 129

Métodos formales en Lingüística

es el mismo para ambos, lo comparten. Además, como bien se observa, este tipo de mecanismo formal es muy fácil de extrapolar de una lengua a otra. Así, en otras tantas lenguas en las que existe concordancia entre el sujeto y el verbo se podría expresar el mismo fenómeno lingüístico utilizando la misma estructura de rasgos, salvo cambiando el valor semántico de las entradas léxicas. En el capítulo 4 veremos cómo se han aplicado y extendido estas matrices de rasgos para dar poder expresivo mayor a las Gramáticas Independientes del Contexto, en particular en el tratamiento de las construcciones que alteran el orden básico de constituyentes. En realidad, los ejemplos que estamos poniendo en este apartado ya ponen de manifiesto que una Gramática de tipo 2 que utilice tales estructuras de rasgos podrá expresar mucha más información lingüística y tendrá la capacidad de plasmar más generalizaciones de las que es capaz una Gramática Independiente del Contexto que solo utilice las categorías gramaticales sin especificar su estructura de rasgos. Formalmente, las matrices de rasgos no son otra cosa que funciones. Como se ha visto, cada atributo debe tener necesariamente un valor y esta propiedad es la que determina que se trate de funciones. Son funciones no inyectivas, puesto que un valor puede ser asignado a más de un atributo (como en el caso de la concordancia que acabamos de ver) y son no sobreyectivas puesto que necesariamente habrá muchos más valores posibles de los que se emitan en una producción determinada. Así, la persona podría ser primera, segunda o tercera, pero solo se materializa una en cada proferencia particular, así que las otras dos quedarían sin asignar. Para combinar tales estructuras de rasgos por medio de reglas Independientes del Contexto se hace preciso algún tipo de mecanismo que permita ejecutar las combinaciones del cuerpo de las reglas de tipo 2. A dicho mecanismo de fusión entre matrices de rasgos se le denomina unificación y a las gramáticas que lo utilizan como propiedad fundamental de combinatoria de estructuras de rasgos se les denomina Gramáticas de Unificación. Ya veremos en el próximo capítulo que hay muchas teorías lingüísticas que forman parte de esta familia de formalismos y que la asunción de las matrices de rasgos y de la unificación ha supuesto un gran avance para la teoría gramatical en general. Las Gramáticas de Unificación básicas las iniciaron Kay (1979, 1984, 1985) y Shieber (1986), entre otros, y se empezaron aplicando al procesamiento automático del inglés, pero muy rápidamente se extendieron a la teoría lingüística general porque imprimían un punto de vista lexicalista a las Gramáticas Independientes del Contexto que resultaba muy novedoso y prometedor. Desde un punto de vista lexicalista, las reglas de tipo 2 no se contemplan como reglas de reescritura de categorías gramaticales no terminales en constituyentes inmediatos de complejidad cada vez menor hasta obtener los símbolos terminales. Las reglas se contem130

Aplicaciones de las Gramáticas Formales y de las matrices de rasgos

plarán desde el léxico, los símbolos terminales, a la combinatoria sintáctica de complejidad cada vez mayor hasta obtener una oración o un cierto tipo de construcción deseada. Así pues, es como si las reglas se leyeran de derecha a izquierda, de manera que se combinan las entradas léxicas y las unidades lingüísticas de complejidad menor para formar objetos lingüísticos cada vez más abstractos. Por ejemplo, la regla de tipo 2 consignada en (3.19): (3.19) SV → Vtrans SN Desde un punto de vista lexicalista, se podría leer como que el verbo transitivo se combina con un sintagma nominal para formar un sintagma verbal. Por supuesto, el sintagma resultante es el mismo que si decimos que un sintagma verbal puede estar integrado por un verbo transitivo y un sintagma verbal. Pero desde la primera perspectiva procedemos desde las entradas léxicas, mientras que desde la segunda procedemos de categorías sintagmáticas preestablecidas para llegar al léxico. En una Gramática de Unificación necesariamente adoptaremos un punto de vista lexicalista. Partiremos de las matrices de rasgos que caracterizarán el vocabulario de una lengua. Necesariamente un lexicón desarrollado para una aplicación gramatical tendrá que estar plenamente especificado con todo tipo de rasgos lingüísticos. Los que hemos utilizado hasta aquí son meros ejemplos de las unidades y las operaciones que conforman este método de representación de los fenómenos lingüísticos. En esencia, lo que hará una Gramática de Unificación será combinar las matrices de rasgos que caractericen los objetos lingüísticos para formar un objeto lingüístico más complejo. En el siguiente cuadro se expone la definición de la operación de unificación.

CUADRO 3.10 Definición de la operación de unificación (1) La unificación intenta combinar dos matrices de rasgos para formar una nueva matriz de rasgos. (2) Dos pares con distinto atributo unifican siempre. Aparecen sumados en la matriz de rasgos resultante. (3) Dos pares con el mismo atributo y valor distinto nunca unifican. No se puede generar una nueva matriz resultante y la producción falla. (4) Dos pares con el mismo atributo y el mismo valor son idempotentes, es decir, queda solo un ejemplar en la nueva matriz de rasgos resultante de la unificación. (5) Dos pares con el mismo atributo, uno con un valor constante y otro con un valor variable, unifican. En la matriz de salida, la variable toma el valor de la constante. 131

Métodos formales en Lingüística

Vamos a ir viendo un ejemplo de cada caso. En lo que se refiere al caso (2) del cuadro 3.10, se cumpliría en las siguientes estructuras de rasgos:

CAT DET



DEF +

CAT DET DEF + Figura 3.22. Operación de unificación: punto (2).

En la figura 3.22 se muestra cómo a partir de pares atributo-valor totalmente distintos se puede formar una nueva estructura de rasgos unificando toda la información.

CAT DET



CAT N

¡FALLA! Figura 3.23. Operación de unificación: punto (3).

La figura 3.23 muestra algo muy importante que a menudo es motivo de error. Para combinar dos categorías y fundirlas en una nueva, no se puede unificar sumando cualquier cosa. Si hay información contradictoria la unificación no se puede llevar a término. En este ejemplo se intenta mostrar que unificar no es concatenar. Por lo tanto, aunque sí se puede concatenar un determinante con un nombre, no se pueden unificar porque la matriz de rasgos resultante solo puede tener un valor para el atributo CAT, lo que en la práctica significa que solo puede pertenecer a una categoría. 132

Aplicaciones de las Gramáticas Formales y de las matrices de rasgos

El punto (4) del cuadro 3.10 es muy sencillo. Simplemente establece que si un par atributo-valor aparece en las dos matrices de rasgos que se van a unificar, solo debe aparecer uno en la estructura de rasgos final. Es decir: CAT DET

CAT DET



CAT DET Figura 3.24. Operación de unificación: punto (4).

Seguidamente vamos a explicar el último punto de la definición de la operación de unificación contenida en el cuadro 3.10. Posiblemente, este es uno de los puntos más importantes de la operación de unificación por el gran juego que ofrece a la hora de formalizar y predecir procesos lingüísticos. Considérese la matriz de rasgos genérica de un sintagma nominal:

CAT SN CASO X FUNCIÓN Y PAPEL Z CONC

NUM SING PERS 3 GEN FEM

Figura 3.25. Matriz de rasgos con valores variables.

Si quisiéramos representar información funcional y semántica concreta en la matriz de rasgos correspondiente a la entrada léxica, no podríamos expresar tales 133

Métodos formales en Lingüística

valores hasta que el sintagma nominal ya hubiera sido tomado como argumento en una cierta posición sintagmática. Naturalmente, si el sintagma nominal aparece en posición de hermano del sintagma verbal o, por el contrario, aparece a la derecha de un verbo transitivo o de una preposición, entonces la posición sintáctica determinará claramente qué valores tomaran tales atributos. Hasta que no se haya producido la combinatoria sintagmática, no se podrá determinar el valor que tendrán los rasgos de función y de papel semántico, pero precisamente al ser cancelado un sintagma nominal por parte de un verbo, una preposición o un sintagma verbal, se podrán asignar dichos valores precisamente en virtud de la unificación. Para expresar que una cierta categoría léxica no tiene todavía un valor asignado se utilizan valores variables, normalmente X, Y, Z, como se hace en la figura 3.25. Si esta matriz de rasgos se unifica con la matriz de rasgos de un verbo transitivo, entonces los valores para tales pares tendrían que ser [CASO ACUSATIVO], [FUNCIÓN OBJETO1] y [PAPEL TEMA]. Vamos a ver cómo se desarrollaría la regla de tipo 2 de reescritura de un sintagma verbal transitivo, como (3.19), en términos de Gramática de Unificación: CAT SN DEF R CASO ACUSATIVO FUNCIÓN OBJETO1 PAPEL TEMA NUM U CONC PERS T

CAT V TIEM X MODO Y ASP Z NUM W CONC PERS V

GEN S

CAT SV TIEM X MODO Y ASP Z CONC

NUM W PERS V

Figura 3.26. Regla para el SV en Gramática de Unificación. 134

Aplicaciones de las Gramáticas Formales y de las matrices de rasgos

De la figura 3.26 se pueden comentar bastantes cosas. Ante todo debe quedar claro que se trata de una regla Independiente del Contexto pero la presentamos de la reescritura a la cabecera, al modo lexicalista. La cabecera es la unificación de las dos matrices de rasgos correspondientes al cuerpo de la regla. En este caso se trata de una regla de sintagma verbal, por lo tanto la primera estructura de rasgos que se nos ofrece es la del verbo. El resto de los valores no están instanciados ya que se trata de una regla general, los rasgos para los atributos de TIEMPO, MODO y ASPECTO se instanciarán en cuanto unifiquemos en esta matriz de rasgos la matriz de rasgos de un verbo concreto, por ejemplo ‘lee’:

CAT V TIEM presente MODO indicativo ASP perfecto CONC NUM sing PERS 3 Figura 3.27. Matriz de rasgos para ‘lee’.

Asimismo, en el caso del sintagma nominal que el verbo transitivo toma como argumento pasará lo mismo. Cuando un cierto sintagma nominal se instancie en esta regla, las variables tomarán valor, por ejemplo ‘libros’: CAT SN DEF CASO Q FUNCIÓN P PAPEL O CONC

NUM pl PERS 3

Figura 3.28. Matriz de rasgos para ‘libros’. 135

Métodos formales en Lingüística

La estructura de rasgos del SN contendría la información relativa a los rasgos de concordancia, a la categoría y a la definitud del sintagma, que en este caso sería indefinido. Sin embargo, los valores para caso, función y papel se desconocen, puesto que no se sabe qué lugar ocupará este sintagma nominal en la estructura oracional. Cuando la matriz de rasgos de la figura 3.28 se unifique con una regla, se instanciarán tales variables. Seguidamente vamos a unificar las figuras 3.27 y 3.28 en la regla 3.26 siguiendo las disposiciones de la definición de unificación del cuadro 3.10.

CAT SN DEF CASO ACUSATIVO FUNCIÓN OBJETO1 PAPEL TEMA CONC NUM pl

CAT V TIEM presente MODO indicativo ASP perfecto CONC NUM sing PERS 3

PERS 3

CAT SV TIEM presente MODO indicativo ASP perfecto CONC NUM sing PERS 3 Figura 3.29. Combinación por unificación del SV ‘lee libros’.

En la figura 3.29 hemos dejado en mayúsculas los valores que procedían de la regla para que se puedan distinguir de los que son idiosincráticos del lexicón. Está claro que los valores para el caso, la función y el papel semántico proceden de la regla, otorgados por la posición del dicho sintagma nominal en relación al verbo, mientras que el resto de los valores se asignan por la unificación con la entrada de 136

Aplicaciones de las Gramáticas Formales y de las matrices de rasgos

la figura 3.28. Por supuesto, las matrices de rasgos que representan las entradas léxicas pueden completarse con mucha más información por el simple procedimiento de añadir más rasgos lingüísticos, dependiendo de lo que queramos estudiar. Un detalle importante es que los valores del sintagma verbal se heredan del verbo puesto que el verbo es el núcleo de dicha estructura. A continuación mostramos la regla que permitiría generar la matriz de rasgos correspondiente a la oración. CAT SV TIEM X MODO Y ASP Z CONC

CAT SN DEF L CASO NOMINATIVO FUNCIÓN SUJETO PAPEL AGENTE CONC NUM W PERS V

NUM U PERS T

CAT OR TIEM X MODO Y ASP Z CONC Figura 3.30. Regla para oración en Gramática de Unificación.

Una vez tenemos la regla de oración, solo queda instanciar en ella una estructura de rasgos correspondiente a un sintagma nominal que funcione como sujeto y podemos instanciar el sintagma verbal que habíamos conseguido en la figura 3.29. Así, si consideramos que el SN sujeto es definido, de número singular y en tercera persona, por ejemplo ‘Iris’, podríamos tener la siguiente instanciación de la regla: 137

Métodos formales en Lingüística

CAT SV TIEM presente MODO indicativo ASP perfecto CONC NUM pl

CAT SN DEF + CASO NOMINATIVO FUNCIÓN SUJETO PAPEL AGENTE CONC NUM sing PERS 3

PERS 3

CAT OR TIEM presente MODO indicativo ASP perfecto CONC Figura 3.31. Análisis de la oración ‘Iris lee libros’ en Gramática de Unificación.

Con esta muestra de cómo funcionan las Gramáticas de Unificación y las matrices de rasgos, cerramos este apartado que ha tenido y sigue teniendo un gran impacto en la teoría lingüística actual. En el próximo capítulo veremos algunas evoluciones de las Gramáticas de Unificación con aplicaciones más complejas de las estructuras de rasgos para expresar los fenómenos lingüísticos que comprenden alteraciones en el orden de constituyentes básico.

3.5. Representación del Discurso y Representación del Conocimiento En este último apartado vamos a mostrar algunas aplicaciones de ciertas variedades de las matrices de rasgos para el avance de las teorías de representación de algunos de los fenómenos lingüísticos que se producen en el discurso y de la representación del conocimiento. 138

Aplicaciones de las Gramáticas Formales y de las matrices de rasgos

Empezaremos exponiendo los aspectos esenciales de la Teoría de Representación del Discurso (conocida como DRT por las iniciales de su nombre en inglés Discourse Representation Theory) iniciada por Hans Kamp, que tiene su paralelo en la teoría de Irene Heim (que se denomina en inglés File Changing Semantics, y que podría recibir la traducción de Semántica de los Ficheros Cambiantes). Tanto Hans Kamp (1981) como Irene Heim (1982) propusieron independientemente sendas teorías para el tratamiento de las anáforas discursivas. En particular, se enfrentaron con las denominadas anáforas del burrito y con la representación de la definitud frente a la indefinitud de los artículos, entre otras cuestiones no menos enjundiosas, como el tratamiento formal del tiempo y el aspecto. Las denominadas anáforas del burrito se cifran en emisiones como las siguientes: (3.20) Si Pedroi tiene un burritoj, éli loj cuida. Las oraciones encadenadas de este tipo presentan el problema de establecer formalmente la correcta referencia del clítico que aparece en la segunda oración. Esto se traduce en varios subproblemas. Para empezar, el pronombre ‘lo’ no tiene referencia ligada en el nivel sintáctico, mientras que en el nivel semántico se comporta como una anáfora, es decir está obligatoriamente ligado: necesariamente ‘lo’ se refiere a ‘un burrito’ y no puede tener referencia libre (no puede referirse a otro individuo o entidad). En segundo lugar, la expresión ‘un burrito’ está cuantificada existencialmente a través del artículo ‘un’ (el cuantificador existencial se representa formalmente con el símbolo ∃ y sirve para indicar que uno o algunos elementos de un conjunto cumplen una determinada propiedad, aquí ‘ser un burrito’). Por lo tanto, de manera no marcada debería parafrasearse como existe un burrito del que predicamos la segunda oración que compone el discurso, pero en realidad lo que parece entenderse a partir de esta construcción es que cualquier burrito que tuviera Pedro sería cuidado por él, es decir una cuantificación universal (el cuantificador universal se representa formalmente con el símbolo ∀ y sirve para indicar que todos los elementos de un conjunto cumplen una determinada propiedad). Formalmente, la traducción lógica automática de (3.20) sería (3.21): (3.21) ∃x [(burrito(x) ∧ tiene(pedro, x)) → cuida(pedro, x)] Pero en cambio debería ser (3.22): (3.22) ∀x [(burrito(x) ∧ tiene(pedro, x)) → cuida(pedro, x)] 139

Métodos formales en Lingüística

Por otra parte, en términos generales los cuantificadores existenciales son indefinidos y también tendríamos que poder explicar por qué en la segunda oración podemos hacer una referencia definida a un individuo determinado por medio del pronombre anafórico ‘lo’. No obstante, a pesar de todos estos problemas de formalización con la lógica al uso, no hay nada extraño en este tipo de oraciones como emisiones lingüísticas, lo único incorrecto son los métodos formales que hemos utilizado para dar cuenta de ellas. El punto de vista general que adoptan Kamp (1981) y Heim (1982) es que el significado tiene una parte dinámica en la que se agregan nuevas piezas significativas a las ya existentes en el discurso y esta integración posibilita nuevas adiciones en la parte del discurso que todavía ha de producirse. La formalización de esta idea no se realiza utilizando el lenguaje de la lógica de predicados clásica, sino que utilizan conjuntos en los que incluyen las representaciones de la semántica de las oraciones y que pueden referir a otros conjuntos que se han producido anteriormente, con los que forman un discurso único y de los que devienen subconjuntos. Al utilizar conjuntos en lugar de expresiones cuantificadas evitan el problema que hemos presentado antes y, además, consiguen una mayor expresividad y plasticidad para representar la semántica del discurso. Esta idea puede expresarse gráficamente con cajas, como hace Kamp en su Teoría de la Representación del Discurso y se podría traducir muy fácilmente a matrices de rasgos. Pensemos que las matrices de rasgos son conjuntos de pares atributos valor, que a su vez contienen otras matrices de rasgos anidadas como subconjuntos. Si usáramos una matriz de rasgos general como la que contiene toda la información correspondiente al discurso y las subsiguientes estructuras de rasgos anidadas como las oraciones que lo conforman, podríamos representar la información semántica de una manera muy clara y sencilla y utilizar la reentrancia para establecer las relaciones referenciales entre partes de oraciones y, crucialmente, interoracionalmente, como es el caso que aquí nos ocupa. Procederemos primero a mostrar cuál es el tratamiento en cajas para la anáfora del burrito, siguiendo para ello la explicación que dan Kamp, Ganabith y Reyle (2011). El tratamiento de Heim (1982) sería formalmente análogo, pero nos centraremos en los procedimientos gráficos para hacer todo más comprensible. La DRS (acrónimo para el término estructura de representación del discurso, que procede del inglés discourse representation structure) de la figura 3.32 es muy fácil de interpretar. En primer lugar tenemos un discurso general con una variable ‘x’ que es ligada por el predicado ‘pedro’, que es el sujeto de la oración principal. Seguidamente se introduce una variable ‘y’ que es ligada por el predicado ‘burrito’ y, en el mismo entorno, se introduce el predicado diádico ‘tiene (x,y)’. Entonces se produce una relación de consecuencia entre esta caja y la de la 140

Aplicaciones de las Gramáticas Formales y de las matrices de rasgos

siguiente oración que es crucial para la correcta representación del significado discursivo que hemos descrito antes para (3.20). En la última caja tenemos las variables ‘z’ y ‘w’ y el predicado diádico que las relaciona ‘cuida (z,w)’. Y en virtud de la relación de consecuencia, se establece la relación de igualdad entre ‘z’ e ‘y’ y entre ‘w’ y ‘z’.

x pedro(x) y burrito (y) tiene (x,y)



z w cuida (z,w) z=y w=z

Figura 3.32. Representación DRS de la semántica de la oración (3.20).

Seguidamente vamos a comentar algunos de los aspectos más importantes de esta nueva formalización de la semántica de (3.20). El condicional es la clave formal que permite introducir una cuantificación universal sobre el referente de la expresión indefinida ‘un burrito’. Asimismo, el condicional fuerza a que la caja que conforma el consecuente dependa del antecedente para establecer sus valores referenciales. En otras palabras, el consecuente es interpretado y evaluado en el contexto que provee el antecedente. Esto hace que un pronombre proferido en el consecuente pueda ser interpretado como anafórico con el antecedente emitido en el antecedente de la construcción condicional. Dicha relación anafórica se establecerá en virtud de lo que se denomina accesibilidad en la Teoría de la Representación del Discurso. Esta relación arbitra la correcta asociación de los referentes discursivos y se produce en el caso en el que el pronombre aparezca dentro del alcance lógico de su antecedente. Por otra parte, los referentes discursivos que aparecen en el consecuente no suelen ser accesibles para los pronombres que se profieren en el antecedente. Esto produce una asimetría en la relación de accesibilidad puesto que los referentes discursivos introducidos en el antecedente son accesibles para los pronombres que se emiten en el consecuente, pero no al revés. 141

Métodos formales en Lingüística

Esto permite arbitrar coherentemente la aparición de las anáforas y da como resultado un principio elegante y general. Por último, dentro de este apartado vamos a mostrar otra de las aplicaciones de estructuras de información basadas en conjuntos del tipo de las matrices de rasgos, aunque se hayan denominado y formalizado de otra manera en el campo específico en el que se han desarrollado. En este caso nos queremos referir a la representación de la información conceptual, que puede extenderse a la representación del conocimiento. Ya autores pioneros en la formalización de la semántica léxica, como Fillmore (1976), propusieron lo que se denominó marcos (frames en la terminología original inglesa) para la representación de la información semántica, estructurándola por medio de redes que aglutinan organizadamente información conceptual relacionada. En la Semántica de Marcos se utilizan unos conjuntos que contienen pares atributo valor en los que se expresa la información conceptual y enciclopédica asociada a las entradas léxicas. La hipótesis que se maneja es que no se puede entender una determinada palabra sin ponerla en relación con la situación general en la que se utiliza, que constituiría el marco. Así, por ejemplo, el significado de ‘restaurante’ solo podría entenderse si incluimos el de ‘comensales’, ‘camarero’, ‘mesas’, ‘carta’, ‘menú’, ‘cuenta’, ‘propina’, ‘horario’, entre otros, y las perspectivas que unos adoptan frente a otros en el marco. Intuitivamente un marco está formado por la definición de la escena en la que se incrusta un cierto significado y que permite que este tome profundidad y complejidad. Un marco semántico se podría definir como un conjunto de datos que especifican atributos característicos y funciones esenciales asociados al significado de una cierta entrada léxica cuando interactúa en un contexto de uso prototípico. Esta estructura informativa relaciona diferentes conceptos que semánticamente están asociados de forma sistemática a un cierto uso en una situación determinada. Es muy importante mantener una coherencia al definir los marcos y evitar contradicciones entre los datos que lo configuran. En Hamm, Kamp y van Lambalgen (2006) se defiende que la Representación del Discurso que se ha presentado en la primera parte de este apartado podría enriquecerse con la Semántica de Marcos, de manera que ambas teorías confluyeran y se mejoraran mutuamente. Actualmente esta perspectiva en la definición de las relaciones semánticas se ha exportado a las relaciones gramaticales produciendo lo que se ha venido a denominar Gramática de Construcciones, que veremos en su propio contexto en el próximo capítulo. En el campo de la inteligencia artificial, Brachman (1983), Reiter, Brachman y Levesque (1992), Brachman y Levesque (2004), Helbig (2006), entre otros, se 142

Aplicaciones de las Gramáticas Formales y de las matrices de rasgos

ha propuesto una ampliación de la teoría de los marcos y de las redes semánticas que van mucho más allá y ha desembocado en lo que se denomina la Teoría de Representación del Conocimiento. En dicha teoría, la información se representa por medio de grafos formados por relaciones, especialmente jerárquicas, que permiten estructurar la información de más general a más particular, de manera que los nodos más específicos hereden la información más general a partir de otros nodos relacionados con ellos. En los nodos de estos grafos podrían situarse estructuras de información muy simples o marcos muy completos, todo depende del grado de complejidad que se proponga cubrir la representación del conocimiento que se esté realizando. Estas representaciones pueden llegar a ser muy intricadas y las reglas de herencia que permiten el trasiego de la información a lo largo de la red serán extraordinariamente complejas, puesto que se puede heredar información de diversas ramificaciones de la red, por lo que se necesitan formulas lógicas muy estrictas para arbitrar su corrección. La idea de utilizar redes jerárquicas de datos que permitan estructurar ordenadamente la información de más general a más particular, de manera que cuando se añada un objeto particular este herede en el momento los atributos que le corresponden, no se ha utilizado exclusivamente en inteligencia artificial. En teoría gramatical es una de las ideas que ha ayudado a que el lexicalismo fuera más factible en las aplicaciones prácticas, sobre todo de Lingüística Computacional. Efectivamente, ya en Gazdar, Klein, Pullum y Sag (1985) aparecen jerarquías muy simples para representar la información gramatical, pero es en Carpenter (1992) donde toman fuerza estas estructuras jerárquicas de información gramatical que devienen fundamentales en la versión de la Gramática Sintagmática dirigida por el núcleo (HPSG) de Pollard y Sag (1994). Carpenter (1992) propuso las estructuras de rasgos tipificadas que permiten precisamente recoger la información prototípica de cada objeto gramatical y colocarlo en un cierto nivel en relación al resto de los objetos gramaticales. Por ejemplo, la matriz de rasgos tipificada para una categoría ‘verbo’, en general, contendrá los pares atributo-valor generales a cualquier verbo, que serán heredados por los distintos tipos de verbos (intransitivos, transitivos, ditransitivos, etc.). Y a su vez, la categoría general ‘verbo’ heredará los rasgos que caracterizan generalmente a las categorías rectoras, y así sucesivamente. De esta manera, si estamos escribiendo matrices de rasgos para crear un lexicón de una gramática lexicalista, nos ahorraremos redundancias y trabajo innecesario. Asimismo, las estructuras de rasgos tipificadas facilitan la coherencia entre las distintas matrices de rasgos construidas dentro de un mismo marco teórico o de una misma investigación. 143

Métodos formales en Lingüística

Con esto hemos intentado mostrar varias aplicaciones, tanto en semántica léxica como del discurso, como en representación del conocimiento enciclopédico y lingüístico. Los mecanismos formales que se utilizan en estos ámbitos son matrices de rasgos o podrían expresarse por medio de estructuras de rasgos introduciendo pequeñas ampliaciones, lo que nos muestra el gran poder expresivo de dicho formalismo.

144

4

Extensiones de las Gramáticas Formales

En este capítulo vamos a presentar algunas de las ampliaciones formales que han recibido las Gramáticas Independientes del Contexto con el fin dar cuenta de los fenómenos de las lenguas naturales de la forma más general y explicativa posible desde el punto de vista lingüístico. En el primer apartado trataremos de los grados de adecuación de las gramáticas que propuso Chomsky (1957) para evaluar el poder expresivo de las Gramáticas Formales. Las argumentaciones desarrolladas en este apartado serán importantes para entender por qué se han ampliado los procedimientos formales propios de la Jerarquía de Chomsky, y en particular de las Gramáticas Independientes del Contexto, a otro tipo de formalismos. En el segundo apartado presentaremos los cambios y abstracciones más conocidos que han afectado a las reglas de las Gramáticas Independientes del Contexto con el fin de dar cuenta de los datos de una forma más general o aumentar su poder expresivo y explicativo, pero manteniéndose dentro del poder descriptivo de las reglas de tipo 2. En el tercer apartado expondremos los mecanismos más conocidos de extensión del poder expresivo de las Gramáticas Independientes del Contexto, sobrepasando el poder explicativo de las Gramáticas de tipo 2, tanto por medio de otro tipo de reglas como por medio de operaciones que se aplican directamente sobre los árboles o sobre las matrices de rasgos. La reentrancia tendrá un papel clave en muchas de las teorías lingüísticas actuales. Un aspecto común y fundamental en la evolución y el avance de los métodos formales en lingüística es el lexicalismo y la representación de la información lingüística a través de rasgos gramaticales (incluso sin usar formalmente las matrices de rasgos ni la operación de unificación). 145

Métodos formales en Lingüística

4.1. Grados de adecuación de las gramáticas Ya en sus primeras formulaciones de lo que luego se ha venido en denominar el modelo chomskiano del estudio del lenguaje, Chomsky estableció con mucha claridad lo que él entendía por teoría gramatical, cuáles eran sus cometidos y por qué ciertas formulaciones de las Gramáticas Formales podían ser útiles para la expresión de la teoría del lenguaje y otras no. Para determinar de una manera objetiva si una Gramática Formal, del tipo que fuera, es adecuada para dar cuenta del funcionamiento y de la complejidad del lenguaje natural, Chomsky (1965) definió tres niveles o grados de adecuación que eran aplicables a las gramáticas y que determinaban sus capacidades, o su adecuación, para dar cuenta del lenguaje natural y, por lo tanto, su adecuación para construir con ellas una teoría lingüística. Estos grados de adecuación se definen de la forma como muestra el cuadro 4.1.

CUADRO 4.1 Grados de adecuación de una Gramática [

Grado de adecuación observacional Una gramática es observacionalmente adecuada si y solo si: – Presenta los datos de forma que se correspondan con la realidad. – Es capaz de determinar si una oración es gramatical o no. Es el nivel de adecuación mínimo de una teoría gramatical y el resto de grados de adecuación lo deben respetar también.

[

Grado de adecuación descriptiva Una gramática es descriptivamente adecuada si y solo si, además de ser observacionalmente adecuada: – Describe correctamente la competencia lingüística del hablante-oyente ideal. – Asigna descripciones estructurales a las oraciones que se corresponden con la intuición de los hablantes nativos. Todas las gramáticas descriptivamente adecuadas deben ser también observacionalmente adecuadas.

[

Grado de adecuación explicativa Una gramática es explicativamente adecuada si y solo si, además de ser observacional y descriptivamente adecuada: – Es capaz de seleccionar de entre las gramáticas descriptivamente adecuadas aquella que dé cuenta de los hechos lingüísticos de forma más satisfactoria.

146

Extensiones de las Gramáticas Formales

En estas definiciones se encuentran concentrados multitud de requisitos y de exigencias que vamos a ir analizando y ejemplificando a lo largo de este apartado. Vamos a empezar por las gramáticas observacionalmente adecuadas. En realidad, Chomsky les dedica muy poca atención en sus obras ya que no es el tipo de gramática por la que él está interesado. No obstante, obtener una gramática para una lengua que contemple el grado de adecuación observacional no es un trabajo simple ni rápido. Es necesaria la observación detallada de un gran número de datos lingüísticos para poder formular una gramática que presente los datos de forma que se correspondan con el uso. En realidad una gramática observacional sería una gramática que describiera de forma exacta y veraz los datos lingüísticos, lo cual no es en absoluto trivial. La buena gramática tradicional cumpliría esta condición. Asimismo, una gramática observacionalmente adecuada tendría que disponer de algún tipo de mecanismo que permitiera determinar si una oración es gramatical o no. Esto ya cae fuera del ámbito de la gramática tradicional y exige algún tipo de formalización. Si retomamos las gramáticas de la Jerarquía de Chomsky presentadas en el capítulo 2 de este libro, podremos comprobar con relativa facilidad que cualquiera de los cuatro tipos de Gramáticas Formales de Chomsky pueden obtener este grado de adecuación observacional, siempre y cuando se atengan adecuadamente a la descripción de los datos lingüísticos y estén formalmente bien construidas. Dicha capacidad parece bastante clara en el caso de las Gramáticas de tipo 2, Independientes del Contexto, y en el de las de tipo 1, Dependientes del Contexto, ya que a través de los ejemplos que hemos desarrollado en los apartados 3.2 y 3.3 del capítulo 3 parece evidente que tienen la capacidad de describir los datos de forma fiel a la realidad lingüística y además permiten determinar si una oración es gramatical o no de una forma efectiva a partir del emparejamiento de las estructuras lingüísticas con las reglas de reescritura. Sin embargo, quizás las Gramáticas de tipo 0, Irrestrictas, y las de tipo 3, Regulares, puedan generar alguna duda en el lector. Por ello vamos a profundizar un poco en por qué una Gramática estrictamente Irrestricta o una Gramática Regular pueden ser consideradas observacionalmente adecuadas. Cuando hablamos de Gramáticas estrictamente Irrestrictas o de Gramáticas Irrestrictas puras nos referimos a las Gramáticas de tipo 0 que no son ni de tipo 1, ni de tipo 2, ni de tipo 3, puesto que todas las gramáticas de la Jerarquía de Chomsky están incluidas formalmente en el patrón de las reglas de tipo 0. Vamos a empezar con las Gramáticas Irrestrictas, de tipo 0. Recordemos que la forma de sus reglas era: (4.1)

π→ϕ 147

Métodos formales en Lingüística

La regla consignada en (4.1) establece que una cierta cadena se reescribe como otra cadena diferente, aunque solo sea por una categoría. Con esta regla podemos construir gramáticas que describan verazmente los datos lingüísticos y, además, que puedan ofrecer un procedimiento objetivo para determinar si una oración es gramática o no. Vamos a mostrar estas afirmaciones a través de un ejemplo muy sencillo.

CUADRO 4.2 Ejemplo lingüístico de Gramática de tipo 0 (1) (2) (3) (4) (5) (6) (7) (8)

O → SN SV SN SV → Det N (Adj) V Det N (Adj) SN SV → Det N (Adj) V Det N (Adj) P Det N (Adj) Det → este, la, un, el N → chico, libro, autógrafo, bibliotecaria V → tiene, prestó Adj → antiguo, estudioso, amable, precioso P→a

Esta gramática podría describir adecuadamente los componentes que integran las siguientes oraciones, tanto desde el punto de vista del orden de palabras como de las categorías gramaticales: (4.2) (4.3) (4.4) (4.5) (4.6) (4.7)

Este libro tiene un autógrafo. Este libro antiguo tiene un autógrafo. Este libro tiene un autógrafo precioso. Este libro antiguo tiene un autógrafo precioso. La bibliotecaria prestó un libro al chico. La bibliotecaria amable prestó un libro antiguo al chico estudioso.

Las oraciones (4.2) a (4.7) son descritas y predichas como gramaticales por la regla (2) de la Gramática Irrestricta del cuadro 4.1. Las oraciones (4.2) y (4.3) son descritas y predichas como gramaticales por la regla (3) de dicha gramática. En estos casos se juega con la opcionalidad de la categoría del adjetivo, que puede aparecer o no, a voluntad. Esta gramática tan simple describiría los posibles elementos de una construcción transitiva como las de (4.2) a (4.5) y de una construcción ditransitiva 148

Extensiones de las Gramáticas Formales

como las de (4.6) y (4.7). Asimismo, permitiría distinguirlas de secuencias agramaticales como las siguientes, que no se amoldarían a ninguna de las reglas de la gramática: (4.8) (4.9)

*libro tiene este *bibliotecaria la prestó antiguo

Como puede apreciarse en las secuencias (4.8) y (4.9), el concepto de gramaticalidad que se utiliza en lingüística formal es muy radical. Para la lingüística formal una oración de las que la lingüística normativa considera incorrecta no sería más que una oración gramatical en otra variedad lingüística. Por ejemplo, la construcción consignada en (4.10) sería gramatical para muchos hablantes nativos del español, por lo tanto en la lingüística formal no puede considerarse agramatical sino gramatical en una cierta variedad diatópica, diastrática o diafásica o, en el peor de los casos, aceptable, pero nunca incorrecta. El concepto de aceptable se refiere en lingüística formal a construcciones que sintácticamente no serían producidas por la gramática, pero que se entienden desde el punto de vista semántico. A estas oraciones Chomsky las denomina aceptables. (4.10) La bibliotecaria piensa ?de que el libro es delicado. Un aspecto importante que hay que señalar en relación al cuadro 4.2 es que infragenera, es decir, genera menos construcciones de las que en realidad son gramaticales en español. Pero esto se debe a que es una gramática de ejemplo que no tiene la menor relevancia lingüística, como les sucede a todas las gramáticas de estudio. La Gramática Irrestricta consignada en el cuadro 4.2 permitiría generar el árbol de análisis de la figura 4.1. En él podemos observar que no expresa con toda profundidad la jerarquía sintáctica. La descripción lingüística queda reducida al orden de palabras y a la atribución de las categorías gramaticales. O SN Det la

N

SV ADJ

bibliotecaria amable

V

DET

prestó

un

N

N

P DET

libro antiguo a

el

N

ADJ

chico estudioso

Figura 4.1. Análisis de la oración (4.7) utilizando la Gramática del cuadro 4.2. 149

Métodos formales en Lingüística

La regla (1) permitiría generar el primer nivel jerárquico de dominio y el segundo nivel lo producirían sendas reglas (2) y (3). Sin embargo, la gramática del cuadro 4.2 no permitiría expresar la relación sintagmática diferente que se establece entre los componentes de ‘la+bibliotecaria+amable’ ni, aún más grave, entre los elementos que forman ‘prestó+un+libro+antiguo+a+el+chico+estudioso’ que presentan para el lingüista un rico engranaje jerárquico de relaciones. En relación a las Gramáticas Regulares la situación es parecida, aunque quizás menos clara debido a la forma tan restringida que tienen sus reglas. Recordemos que las reglas de una Gramática de tipo 3 o Regular tienen que acomodarse a las formas generales siguientes: (4.11) A→ Bb (4.12) A→ bB (4.13) A → b Igual que con las Gramáticas Irrestrictas puras, estos patrones de regla hacen que no podamos en modo alguno representar la estructura de constituyentes. Pero mientras que en las Gramáticas de tipo 0 podíamos enumerar una cadena de categorías concatenadas que aparecen juntas contrayendo relaciones sintagmáticas, con las Gramáticas de tipo 3 no se puede expresar esa información tan útil e interesante desde el punto de vista lingüístico. La forma de las reglas regulares obliga a que la generación de las oraciones se produzca categoría por categoría, como si de una escalera se tratara. Esta idea la veremos en breve reflejada en el diagrama arbóreo.

CUADRO 4.3 Ejemplo lingüístico de Gramática de tipo 3 (1) O → la A (2) A → bibliotecaria B (3) B → amable C (4) C → prestó D (5) D → un E (6) E → libro F (7) F → antiguo G (8) G → a H (9) H → el I (10) I→ chico J (11) J→ estudioso 150

Extensiones de las Gramáticas Formales

O A

La bibliotecaria

B amable

C prestó

D un

E libro

F antiguo

G a

H el

I chico

J estudioso

Figura 4.2. Diagrama arbóreo de la oración (4.7) utilizando la Gramática Irrestricta del cuadro 4.3.

La gramática del cuadro 4.3 generaría el árbol de la figura 4.2 para la oración (4.7) ‘La bibliotecaria amable prestó un libro antiguo al chico estudioso’, donde se aprecia la forma de escalera a la que aludíamos anteriormente. Esa forma es el producto de la recursividad direccional a la derecha que tiene la Gramática Regular del cuadro 4.2. Como es natural, ante esta representación de la estructura de análisis de la oración (4.7) cualquiera se dará cuenta de que la descripción que aporta es sumamente superficial. En realidad, se corresponde estrictamente con el orden de palabras de elocución. Hay lingüistas que argumentan, entre otros Steedman (1989, 1991) o Kempson, Meyer-Viol y Gabbay (2001) y Cann, Kempson y Marten (2005), que este 151

Métodos formales en Lingüística

tipo de análisis sintagmático que da cuenta del orden incremental de producción de la secuencia sintáctica es el que mejor se corresponde con la construcción de la interpretación semántica. Steedman (1991) utiliza el ejemplo siguiente para ejemplificarlo: (4.14) El mago sacó un conejo del sombrero. Cuando alguien profiere cualquier oración, y en particular la del ejemplo (4.14), en el momento en que emite ‘el’ el oyente sabe ya que nos vamos a referir a un nombre definido, masculino y singular; cuando a continuación se emite ‘mago’ el oyente sabe que se refiere a una entidad que se adapta al conocimiento enciclopédico que en nuestra sociedad asociamos al concepto “mago”. Al decir ‘sacó’, necesariamente el oyente interpreta que la acción se produjo y se completó en el pasado y entiende la acción ”sacar” a la que tal emisión refiere y, lo que es más, la asocia con la cadena proferida anteriormente ‘el mago’. Y si cuando se acaba de pronunciar ‘un’ y el oyente ha realizado la interpretación parcial correspondiente, entonces el emisor trunca la emisión de dicha oración por cualquier circunstancia, el receptor sabrá interpretar adecuadamente el fragmento de oración ‘El mago sacó un’. Así pues, estos autores defienden que no es necesario producir toda la estructura de constituyentes completa, ni asociar toda la información sintagmática y gramatical que conocemos sobre una oración a toda la oración para proceder a su interpretación. Sin embargo, hay que señalar que la propuesta gramatical de Steedman (1989, 1991) no es una Gramática Regular, sino un cierto tipo especial de Gramática Categorial que sí asigna categorías sintagmáticas a las cadenas de categorías. La propuesta de Kempson et al. (2001) y Cann et al. (2005) tampoco usa Gramáticas Regulares, sino lo que se denomina Sintaxis Dinámica, que es un formalismo gramatical de gran complejidad. Volviendo a la adecuación observacional de las Gramáticas de tipo 3, se puede considerar que dan una descripción de los datos acorde con los argumentos de los defensores del análisis incremental. Además, también permiten discriminar las oraciones gramaticales de las agramaticales. Es posible que el lector esté pensando que lo que hace poco útiles a estas Gramáticas tipo 3 es que los símbolos terminales sean palabras. Para que fueran más eficientes habría que considerar símbolos terminales a las categorías léxicas, de manera que se obtuvieran gramáticas que generaran patrones lingüísticos más generales. Para la gramática del cuadro 3.10, el análogo sería la gramática del cuadro 4.3, aunque habría que modificar la definición general de las Gramáticas Regulares.

152

Extensiones de las Gramáticas Formales

CUADRO 4.4 Ejemplo generalizado al uso lingüístico de Gramática de tipo 3 (1) O → Det A (2) A → N B (3) B → Adj C (4) C → V D (5) D → Det E (6) E → N F (7) F → Adj G (8) G → P H (9) H → Det I (10) I → N J (11) J → Adj (12) Det → la, un, el (13) N → bibliotecaria, libro, chico (14) Adj → amable, antiguo, estudioso (15) V → prestó (16) P → a

En principio, tal y como está formulada en el cuadro 4.4, esta gramática no es de tipo 3, Regular, sino de tipo 2, Independiente del Contexto, puesto que en la reescritura de las reglas (1) a (11) aparecen dos símbolos no terminales. Las reglas (12) a (16) tampoco serían de tipo 3, puesto que en la reescritura aparecen cadenas de símbolos terminales. La única regla que sería de tipo 3 sería la (13). No obstante, las reglas (12) a (16) serían fácilmente traducibles a reglas de tipo 2 por el simple procedimiento de escribir una regla para cada entrada léxica, es decir: Det → la, Det → un, Det → el, N → bibliotecaria, N → libro, N → chico, etc. Sin embargo, si consideramos las categorías léxicas como símbolos terminales, podríamos tener una gramática de tipo 3 con las reglas (1) a (13), todas ellas acordes ahora a los patrones generales (4.11), (4.12), (4.13). En principio no podríamos tener reglas como (12) a (16), puesto que si las categorías léxicas constituyen los símbolos terminales, entonces no pueden reescribirse. Pero de todas formas habría que insertar el léxico con otro mecanismo formal. Esto haría que, en definitiva, estas Gramáticas de tipo 0 y de tipo 3 fueran equivalentes a la hora 153

Métodos formales en Lingüística

de dotar de análisis a las estructuras puesto que ambos tipos de Gramáticas darían cuenta esencialmente del orden de palabras. La gran diferencia es que la gramática de tipo 0 genera para la misma oración una estructura plana con todos los elementos al mismo nivel, sin jerarquización alguna, y en cambio la de tipo 3 presenta una jerarquización máxima en forma de escalera. Sin embargo, ninguna de las dos ofrece estructura de constituyentes ni de dependencias lingüísticas de ningún tipo. Una en horizontal y otra en vertical ofrecen una información parecida con la gran diferencia de que en el caso de las Gramáticas de tipo 0 tenemos categorización gramatical y en el caso de la Gramática de tipo 3 obtenemos un análisis incremental. En relación al grado de adecuación descriptiva, tanto las Gramáticas Dependientes del Contexto como las Independientes del Contexto pueden alcanzar la adecuación descriptiva, no así las Irrestrictas y las Regulares. En relación a las Irrestrictas y a las Regulares, es obvio que los análisis que acabamos de exponer no describen correctamente la competencia lingüística del hablante-oyente ideal ni asignan descripciones estructurales a las oraciones que puedan corresponderse con la intuición de los hablantes nativos. En este punto es necesario explicar en qué consiste el concepto de hablanteoyente ideal y las motivaciones que tiene Chomsky para introducirlo. La noción de hablante-oyente ideal se refiere al conocimiento lingüístico común y estable que comparten los hablantes de una lengua, e incluso los hablantes de diferentes lenguas, por el hecho de estar utilizando sistemas lingüísticos. Para Chomsky, la teoría gramatical debe intentar descubrir las propiedades generales del lenguaje humano y expresarlas con un sistema de reglas o de mecanismos formales. En este tipo de perspectiva se tienen que efectuar idealizaciones que abstraigan las cuestiones que afectan al proceso comunicativo para poder centrarse en las estructuras y propiedades estables del lenguaje. Chomsky incluso va más allá y pretende que la gramática permita describir y dar cuenta, es decir explicar, la facultad de los hablantes para producir y comprender un número ilimitado de oraciones, trasladando el estudio gramatical al estudio de las facultades lingüísticas cognitivas. Para conseguir este objetivo, Chomsky cree necesario dejar de lado las cuestiones sociales y pragmáticas y centrarse en establecer los principios generales aplicables a todas las lenguas, los que se basan, en última instancia, en las propiedades intrínsecas de la mente. Para este autor, el estudio sobre las propiedades estables e intrínsecas a la estructura lingüística no puede estar supeditado a los lapsus de memoria, a las interrupciones, a las reformulaciones estructurales a mitad de la emisión de una oración y a otras alteraciones ocasionales que sufre la producción lingüística. 154

Extensiones de las Gramáticas Formales

Este punto de vista ha sido muy criticado por autores que no se dedican al estudio de las propiedades generales del lenguaje. No obstante, cada campo tiene sus propios requisitos y si se tiene en cuenta el grado de abstracción y generalidad al que pretende llegar Chomsky en su estudio sobre la facultad lingüística, es comprensible que no se puedan tener en cuenta manifestaciones lingüísticas ocasionales para realizar un estudio tan general. Pero a mi juicio, sí se deberían tener en cuenta otras cuestiones estables del uso lingüístico que tienen que ver con variables sociológicas y pragmáticas de carácter general y que también podrían estudiarse dentro de la teoría lingüística formal. Otra cuestión que aparece en la noción de grado de adecuación descriptivo es que las gramáticas deben dar cuenta de la intuición de los hablantes nativos. Esta cuestión simplemente hace referencia a que no podemos centrarnos en una lengua académica artificial, sino que hay que estudiar las variedades orales de las lenguas, aunque sean consideradas poco elegantes, o ‘incorrectas’, por los académicos. Hay que tener en cuenta que la mayor parte de las lenguas del mundo no se escriben y, por lo tanto, no tienen literatura escrita ni normativa como la que suele aplicarse a las lenguas de nuestro entorno cultural. No se puede fundamentar el estudio del lenguaje humano en las variedades normativas de las lenguas, ni siquiera en las variedades normativas orales, puesto que todas las lenguas tienen variedades de prestigio. El estudio de las propiedades del lenguaje humano debe basarse en las variedades lingüísticas surgidas de forma natural en las comunidades lingüísticas y en los usos de los hablantes que utilizan sus gramáticas de forma inconsciente. Como se ve, este concepto de gramática pasa a ser un concepto cognitivo. Para Chomsky, el hablante nativo está en posesión inconsciente de la gramática cognitiva natural de una lengua y ese es el objeto de estudio primario para investigar sobre las propiedades del lenguaje humano. Volviendo a la adecuación descriptiva de las Gramáticas Formales de la Jerarquía de Chomsky, es necesario que las gramáticas que quieran obtener tal grado de adecuación descriptiva deban describir correctamente la competencia lingüística del hablante-oyente ideal. Esto quiere decir que las gramáticas descriptivamente adecuadas no solo describirán los datos observables en un corpus lingüístico ya emitido, como hacían las observacionalmente adecuadas, sino que además deben conseguir que sus descripciones sean acordes con el conocimiento que todo hablante tiene de su lengua. Este requisito se refiere a la descripción del conocimiento que tiene el hablante en lo relativo a las relaciones gramaticales, a las relaciones sintagmáticas, a las restricciones semánticas, fonológicas, pragmáticas, etc. Naturalmente, no debe entenderse como que una gramática exprese toda esta información ya que, en sentido estricto, es improbable que exista ninguna gramática que abarque todo el conocimiento que tiene un hablante de una lengua, ni siquiera la que tendría 155

Métodos formales en Lingüística

un hablante-oyente idealizado. Esta condición se refiere a que el fragmento de gramática que estemos evaluando dé cuenta de un fragmento de competencia lingüística general de los hablantes. Con lo que el objeto de la gramática ya no son los datos emitidos, sino las capacidades lingüísticas cognitivas que permiten a un hablanteoyente ideal producir las proferencias lingüísticas. Las Gramáticas de tipo 2, Independientes del Contexto, y las de tipo 1, Dependientes del Contexto, podrían ajustarse a este requisito si la investigación en lingüística cognitiva nos llevara a la conclusión de que la información lingüística que un hablante posee en la mente se basa en categorías gramaticales, estructura de constituyentes, estructura jerárquica entre constituyentes, restricciones de selección sintáctica o semántica, en un conocimiento organizado por reglas, pero sobre esta cuestión no hay acuerdo. Así pues, si se llegara a demostrar que esas son las bases de la cognición, entonces este tipo de gramáticas podrían ser descriptivamente adecuadas. Por otra parte, sí que hemos mostrado que tales gramáticas pueden asignar descripciones estructurales a las oraciones. De nuevo habría que profundizar en la cuestión de si tales descripciones estructurales corresponden con la intuición de los hablantes nativos. El tema de la asignación de las descripciones estructurales tiene más repercusión de la que se pueda atribuir a simple vista. Se debe tener en cuenta que el punto de vista chomskiano es que la asignación de una descripción estructural a una construcción lingüística significa que la gramática puede realizar generalizaciones lingüísticas significativas sobre las regularidades subyacentes a las construcciones de las distintas lenguas. Considérese de nuevo cualquiera de las Gramáticas Independientes del Contexto que hemos visto hasta aquí, como por ejemplo la del cuadro 4.5.

CUADRO 4.5 Ejemplo de Gramática Independiente del Contexto (1) (2) (3) (4) (5) (6) (7) (8) (9) (10)

O → SN SV SN → DET N (SP) SV → Vtrans SN SP → P SN SV → Vpas (SP) VPAS → AUXser Vparticipio DET → la, mi, una N → amiga, hija, tortuga P → de, por V → compró 156

Extensiones de las Gramáticas Formales

En la práctica, la gramática del cuadro 4.5 podría aplicarse a muchas otras lenguas de orden básico SVO, salvo por supuesto por las reglas de vocabulario de (7) a (10). Está claro que las reglas (1) a (6) expresan generalizaciones no solo válidas para el español, sino para muchas otras lenguas y esta expresión de generalizaciones Chomsky la interpreta como indicio de que se está representando no solo el conocimiento de la mente del hablante nativo sino también un conocimiento lingüístico general que tiene su fundamento en la estructura de la mente y en la facultad lingüística innata de los humanos. La discusión continúa cuando queremos evaluar el grado de adecuación explicativa. Lo que dice Chomsky al respecto es que, de todas las gramáticas descriptivamente adecuadas, las que serán explicativamente adecuadas serán las que den cuenta de los hechos lingüísticos de la manera más satisfactoria. Y la cuestión clave es qué se entiende por ‘de la manera más satisfactoria’. Para Chomsky, una gramática explicativamente adecuada será la que explique el conocimiento cognitivo que permite a un bebé realizar la adquisición lingüística, la que explique el conocimiento competente que tiene un hablante nativo y la que explique la facultad lingüística humana. Lo cual le lleva a un grado de exigencia extremo que muy pocas gramáticas podrían demostrar empíricamente que lo tienen, aunque sea parcialmente, pero que constituye un objetivo programático de la lingüística chomskiana. Pero no todos los lingüistas comparten con Chomsky este mismo punto de vista. El resto de las corrientes lingüísticas actuales consideran excesivo el grado de adecuación explicativo tal y como lo define Chomsky y consideran en su quehacer lingüístico que conseguir el grado de adecuación descriptiva ya es conseguir una gramática suficientemente explicativa. También hay muchos lingüistas que consideran que conseguir una gramática que describa adecuadamente los datos emitidos ya es un objetivo suficientemente complejo y se centran en lo que Chomsky consideraría el grado de adecuación observacional. En realidad, estos grados de adecuación están orientados a una investigación de las facultades lingüísticas cognitivas, ya que si no tuviéramos en cuenta dicho componente, con una gramática que describiera los datos emitidos y estableciera generalizaciones sobre los mecanismos que permiten su construcción ya tendríamos un objetivo suficientemente complejo e interesante para la investigación lingüística. Naturalmente, llegar a especificar los mecanismos que rigen nuestra mente es un objetivo sumamente estimulante e interesante, pero de muy difícil contrastación empírica por la explicitud y detalle que necesitarían las pruebas neurológicas que implican. En la persecución del grado de adecuación explicativa, Chomsky (1957, 1965) consideró que ninguna de las Gramáticas Formales de la Jerarquía que lleva 157

Métodos formales en Lingüística

su nombre era adecuada para dar cuenta de la facultad humana del lenguaje. Por lo tanto, en primera instancia, decidió enriquecer las Gramáticas de tipo 2, Independientes del Contexto, con una serie de adiciones formales que le permitieran no solo obtener una adecuación descriptiva mayor (acorde a la estructura jerárquica de constituyentes), sino también alcanzar el grado de adecuación explicativa. Y de aquí surgió la Gramática Generativa Transformacional, que a lo largo de la segunda mitad del siglo XX y hasta la actualidad ha ido evolucionando tanto en cuanto a la depuración de las reglas de tipo 2 que utiliza como en cuanto a los mecanismos formales que propone para intentar alcanzar el grado de adecuación explicativo que se busca. Como ya ha quedado claro a lo largo de los capítulos precedentes, Chomsky utilizó las reglas de las Gramáticas Independientes del Contexto en las primeras formulaciones de su teoría lingüística, la Teoría Estándar, para formalizar y generar las construcciones no marcadas de las lenguas. Sin embargo, en la búsqueda de la adecuación explicativa, ya en Chomsky (1957 y 1965) se utiliza dicho formalismo para generar una estructura profunda, es decir, la estructura sintáctica que corresponde a la generación sintáctica en su posición argumental no marcada y se utilizan otros métodos formales ajenos a la Jerarquía de Chomsky para generar las construcciones que alteran el orden de constituyentes no marcado. Cualquier estructura que transgrede el orden básico de constituyentes se relaciona semánticamente con una oración de estructura de constituyentes no marcada y se genera a partir de ella por medio de las reglas transformacionales que veremos en el apartado 4.3. Las reglas transformacionales son mecanismos muy potentes que van más allá de las gramáticas de constituyentes y se encargarán de introducir los cambios necesarios en la estructura profunda para obtener una nueva estructura sintáctica, la denominada estructura superficial. Esta nueva estructura relacionada mostrará las posiciones sintácticas correspondientes al orden de proferencia (transgreda el orden básico de constituyentes o no) y lo pondrá en relación con las posiciones no marcadas de la estructura profunda. Con este tipo de estrategia, el programa chomskiano ha intentado durante años obtener el grado de adecuación explicativa, aunque en el Minimismo se ha prescindido de la distinción formal entre estructura profunda y estructura superficial. El tipo de construcciones lingüísticas en las que los lingüistas se han centrado en este tipo de argumentaciones son las de pasiva, las interrogativas, las de relativo y otras en las que el orden de constituyentes argumental se muestra en posiciones sintácticas marcadas. Ilustrativamente, según Chomsky, una gramática explicativamente adecuada tendría que relacionar (4.16) con (4.15). Para ello, según este autor, se debería generar una estructura profunda para (4.16) 158

Extensiones de las Gramáticas Formales

que coincidiera en gran medida con la estructura de (4.15), pero cuya estructura superficial fuera distinta. La estructura superficial de (4.15) sería esencialmente idéntica a la estructura profunda, mientras que la estructura superficial de (4.16) sería radicalmente diferente. Lo importante para la Teoría Estándar chomskiana y para la Teoría de Principios y Parámetros es proponer mecanismos formales para representar ambas estructuras y la relación derivacional que los chomskianos postulan entre ellas. En última instancia, ese correlato derivacional intenta expresar la relación cognitiva que se postula dentro del modelo chomskiano para ambas construcciones: (4.15) Mi hija lee un libro. (4.16) Un libro es leído por mi hija. En lo que resta de capítulo trataremos los diversos intentos formales de las distintas corrientes de la lingüística teórica para que sus teorías lingüísticas puedan dar cuenta de este tipo de correlaciones. Primero trataremos las depuraciones e innovaciones introducidas en las propias Gramáticas de Constituyentes, como subconjunto de las Gramáticas Independientes del Contexto, y en el último apartado mostraremos algunas de las adiciones más conocidas a las Gramáticas Independientes del Contexto efectuadas no solo dentro del paradigma chomskiano sino por parte de diversas corrientes de la lingüística formal.

4.2. Evolución de las Gramáticas de Constituyentes En este apartado vamos a centrarnos en cómo la lingüística formal, primero la lingüística chomskiana y luego otras teorías de lingüística formal, generativas pero no transformacionales, han hecho evolucionar las reglas de tipo 2 para intentar dar cuenta de una manera más explicativa, general y abstracta de los datos lingüísticos. La mayor parte de las teorías lingüísticas formales han partido de las Gramáticas Independientes del Contexto de la Jerarquía de Gramáticas Formales de Chomsky. Es por este motivo que nos vemos obligados a partir siempre de la lingüística chomskiana, aunque según vaya avanzando la explicación nos iremos despegando de ella. En el capítulo 5 trataremos otro tipo de lingüística formal totalmente ajena a la Jerarquía de Chomsky, la lingüística basada en funciones matemáticas como método formal de representación. La evolución que han sufrido las reglas Independientes del Contexto de la Jerarquía de Chomsky ha sido hacia un grado de abstracción y de lexicalismo cada vez mayor. En la propia lingüística chomskiana del modelo de Principios y Pará159

Métodos formales en Lingüística

metros, públicamente a partir de Chomsky (1981), y en el modelo Minimista, oficialmente a partir de Chomsky (1995), las propias reglas de tipo 2 han pasado a ser mucho más generales a la hora de representar las propiedades sintagmáticas de las lenguas humanas, pero también mucho más acotadas en sus posibilidades de construcción de lo que era aquella regla primigenia ‘A → ϕ’, que analizábamos en el capítulo 2. La casuística en la expresión de la combinatoria sintagmática se reduce drásticamente y, como contrapartida, aumenta decididamente la información sintáctica y gramatical que está contenida y controlada por el lexicón. Así pues, durante la segunda mitad de la década de los 70 y a partir de la publicación del modelo de Principios y Parámetros a principios de los 80, se declara una nueva concepción de las reglas sintagmáticas en las que la Gramática Independiente del Contexto sufre un proceso de abstracción muy importante. En el modelo de Principios y Parámetros se manejan solo dos reglas de generación de estructuras de constituyentes, las que componen la teoría denominada X’ (se lee: teoría equis barra). Además de estas reglas, existen dos reglas de adjunción de modificadores que permitirán añadir complementos opcionales a dicha estructura X’. Las reglas de la teoría X’ son en realidad esquemas de reglas de tipo 2 que se deben instanciar con los datos lingüísticos particulares de las categorías propias de cada lengua en el orden de palabras correspondiente a los grandes tipos lingüísticos (esencialmente SVO, SOV y VSO). Las reglas esquemáticas que componen la teoría X’ son: (4.17) SX → (SZ) X’ (4.18) X’ → X (SY) Empecemos por explicar la regla (4.18). Esta regla introduce una categoría léxica nuclear, la categoría X, que puede corresponder a un verbo, un nombre, una preposición, un adjetivo, una conjunción o un adverbio. La instanciación del resto de las categorías del esquema X’ depende del valor que tome la categoría X, que corresponde al núcleo del sintagma. La categoría SY corresponde a un sintagma de un núcleo Y, que se reescribiría a su vez como un sintagma con la regla (4.17). SY se refiere al complemento del núcleo X y se representa entre paréntesis porque su aparición depende del tipo de núcleo que sea X. Si, por ejemplo, X corresponde a un verbo transitivo entonces Y será un sintagma nominal. En cambio, si X corresponde a una conjunción, entonces SY será una oración, y así con el resto de las categorías. Cada categoría escoge el tipo de complementos con los que se combina. Con respecto a la regla (4.17), establece que un sintagma está formado por un posible especificador SZ, que aparecerá o no dependiendo de nuevo del tipo de 160

Extensiones de las Gramáticas Formales

núcleo. Dicha categoría SZ especifica a la categoría X’ que a su vez, como habíamos definido en la regla (4.18), está formada por el núcleo más sus posibles complementos. De nuevo las categorías de los especificadores dependen del tipo de núcleos con los que se combinen. Así, un nombre seleccionará determinantes como categorías especificadoras y, en cambio, un verbo seleccionará verbos auxiliares, por ejemplo. Naturalmente, se puede dar el caso de que una cierta categoría X no seleccione ni complemento ni especificador, como es el caso de un verbo intransitivo. La instanciación del esquema X’ para un verbo intransitivo sería (4.19): (4.19) SV → Vintr En (4.19), tanto SZ como SY son vacíos. El único elemento obligatorio de un esquema X’ es el núcleo X. Por otra parte, se podría dar el caso de que el núcleo seleccionara un complemento, pero no un especificador. Por ejemplo un verbo transitivo con su objeto directo correspondería a la siguiente instanciación del esquema X’: (4.20) SV → Vtrans SN En (4.20) X ha tomado el valor del verbo transitivo y SY se ha instanciado como un sintagma nominal. En el caso de que dicho sintagma verbal (4.20) tomara un auxiliar, entonces tendríamos una instanciación completa del esquema X’, siendo SZ un auxiliar: (4.21) SV → SAux V’ (4.22) V’ → Vtrans SN La mayoría de los especificadores son sintagmas formados por un núcleo solo. Sin embargo, se mantiene una categoría sintagmática en esa posición puesto que se trata de un esquema de regla que tiene que usarse para cualquier especificador de cualquier lengua SVO del mundo. En el caso de que la lengua fuera SOV, el esquema X’ tendría que formularse en el orden simétrico: (4.23) SX → X’ SZ (4.24) X’ → SY X Así pues, el esquema X’ se materializa en cuatro posibles estructuras sintácticas generales que se pueden dar en cualquier lengua del mundo (variando solo el 161

Métodos formales en Lingüística

orden de palabras, dependiendo de la lengua). La instanciación concreta del esquema X’ dependerá del tipo de núcleo y de los valores asociados a él en el lexicón. A continuación, mostramos las ejemplificaciones de los diagramas arbóreos correspondientes a las cuatro posibilidades: SV Vintr Figura 4.3. Instanciación del esquema X’ correspondiente a un sintagma formado por un núcleo solo.

SV Vtr SN Figura 4.4. Instanciación del esquema X’ correspondiente a un sintagma formado por un núcleo con un complemento.

SN SDet N Figura 4.5. Instanciación del esquema X’ correspondiente a un sintagma formado por un núcleo con un especificador.

SV SAUX

V’ Vtr SN

Figura 4.6. Instanciación del esquema X’ correspondiente a un sintagma formado por un núcleo con un complemento y un especificador.

162

Extensiones de las Gramáticas Formales

Además de este esquema X’ válido para los complementos y los especificadores, Chomsky propone las denominadas reglas de adjunción para poder añadir modificadores opcionales. Siguen una estructura recursiva, de manera que podrían adjuntarse tantos modificadores opcionales como requirieran los datos lingüísticos: (4.25) SX → SX SW La regla (4.25) permite simple y llanamente añadir por la derecha un adjunto SW que modifica a todo el sintagma SX. La proyección resultante (representada por la cabecera de la regla) pertenece a la misma categoría del sintagma que ha acogido al modificador adjunto. La regla (4.26) permite añadir un adjunto por la izquierda: (4.26) SX → SW SX Una instanciación del esquema de adjunción por la izquierda podría ser: (4.27) SV → SAdv SV Que para la oración (4.28), daría el diagrama arbóreo de la figura 4.3. (4.28) Siempre lee novelas SV SAdv

SV

siempre V

SV

lee novelas Figura 4.7. Diagrama arbóreo para una adjunción a la izquierda.

El árbol de la figura 4.7 expresa que el adverbio ‘siempre’ modifica a todo el sintagma verbal ‘lee+novelas’. A su vez, la concatenación de ‘siempre’ con 163

Métodos formales en Lingüística

‘lee+novelas’ forma un nuevo sintagma verbal ampliado ‘[siempre+[lee+novelas]]’. Como decíamos, este procedimiento es recursivo y permitiría añadir tantos modificadores opcionales como fuera necesario y, además, se podrían combinar las reglas (4.25) y (4.26). Por ejemplo, considérese (4.29): (4.29) Mi hija siempre compra muchos libros en la librería del barrio Esta oración contiene un sintagma verbal que presenta modificadores adjuntos, tanto por la izquierda como por la derecha. Así, ‘siempre’ tendría que generarse con la regla (4.25), igual que en el ejemplo (4.28). En cambio, el sintagma preposicional ‘en la librería del barrio’ debería adjuntarse con la regla (4.26), dando como resultado el diagrama arbóreo representado en la figura 4.8. Como se ve, la mayor parte de los sintagmas que componen el diagrama arbóreo de la figura 4.8 son del tipo [núcleo + complemento] o del tipo [especificador + núcleo]. Sin embargo, también tenemos un sintagma formado por [especificador + [núcleo + complemento]], en concreto [SNla [N’librería [SPdel barrio]]]. Por último, encontramos instanciado el esquema de adjunción por la izquierda (4.25) en [SV [SADVsiempre] [SVcompra muchos libros en la librería del barrio]] y el de la derecha (4.26) en [SV[SVcompra muchos libros] [SPen la librería del barrio]]. En la figura 4.8 hemos utilizado el esquema X’ de forma generalizada para construir el diagrama arbóreo. Por ese motivo no ha sido necesario escribir ninguna Gramática Independiente del Contexto. Con el esquema X’ ya no hace falta escribir gramáticas formales específicas para las oraciones o las construcciones de las lenguas, sino que las especificaciones lingüísticas del lexicón permiten instanciar el esquema general (4.17)-(4.18) en las reglas combinatorias necesarias. La gramática generativa dio un gran paso hacia el lexicalismo al proponer la teoría X’ como abstracción de las Gramáticas Independientes del Contexto. Otra de las peculiaridades del esquema X’ es el binarismo. Como se puede apreciar, los esquemas que componen la teoría X’ y las reglas de adjunción son todos ellos de reescritura binaria. Esto tiene grandes ventajas a la hora de expresar la jerarquía sintáctica. En un árbol binario siempre queda del todo claro quién modifica a quién, puesto que todas las ramas están constituidas o bien por un núcleo y un complemento o bien por un especificador que afecta al constituyente formado por un núcleo o por un núcleo y un complemento. Las relaciones gramaticales están claramente especificadas. No obstante, han surgido algunas cuestiones en relación a esta cuestión. Una de las más inmediatas que puede asaltarnos es la de cuál sería la estructura correspondiente a un verbo ditransitivo con sus correspondientes objetos directo e indirecto. En principio uno tendería a construir un análisis en el que los dos objetos se situaran al mismo nivel. 164

Extensiones de las Gramáticas Formales

O SN DET N

SV SADV

SV

Mi hija siempre

SV V

SP SN

P

compra DET

N

SN

en DET

muchos libros



la

N

SP

librería P

SN

de DET

N

el barrio Figura 4.8. Diagrama arbóreo que muestra varias adjunciones al SV.

O SN La chica

SV V

SN

SP

compró un libro P

SN

a un amigo Figura 4.9. Diagrama arbóreo triario.

165

Métodos formales en Lingüística

En la figura 4.9 se nos muestra un análisis triario del objeto directo e indirecto. Pero este no sería el árbol que correspondería a un análisis realizado aplicando el esquema X’. En cambio: O SN

SV

La chica

Væ V

SP SN

P

SN

compró un libro a un amigo Figura 4.10. Diagrama arbóreo binario para una oración ditransitiva.

En la figura 4.10 se ha situado el objeto directo como primer complemento del núcleo verbal. El objeto indirecto se ha representado en una posición recursiva sobre V’, que afecta a todo el constituyente formado por el verbo más el objeto directo. Si el sintagma verbal llevara un especificador se vería aún más claro que el objeto indirecto no se ha colocado en la posición del especificador sino, como decimos, en una posición recursiva sobre V’: O SN

SV

La chicaAUX



ha

Væ V

SP SN

P

SN

comprado un libro a un amigo Figura 4.11. Diagrama arbóreo binario para una oración ditransitiva. 166

Extensiones de las Gramáticas Formales

En la figura 4.11 se hace evidente el análisis recursivo de las construcciones ditransitivas. Nótese que no se está utilizando el esquema de adjunción por la derecha, ya que en ese caso el árbol sería tal y como se muestra en la figura 4.12. O SN

SV

La chica

SV

AUX ha

SP Væ

V

P SN

SN

a un amigo

comprado un libro

Figura 4.12. Análisis del objeto indirecto como adjunto al SV.

En la figura 4.12 se analizaría el objeto indirecto del verbo ditransitivo como un complemento adjunto, es decir como un modificador, lo cual sería incorrecto desde el punto de vista lingüístico. Por este motivo, el análisis preferible es el que mostrábamos en la figura 4.10 porque el objeto indirecto cae bajo el dominio del mismo nodo de sintagma verbal que domina al verbo transitivo y al objeto directo, como corresponde a los hechos lingüísticos que se quieren representar. Sin embargo estos esquemas X’, SX → SZ X’, X’ → X SY y su simétrico SX → X’ SZ, X’ → SY X, son demasiado rígidos y comportan problemas en la aplicación práctica de las lenguas del mundo. Además, existen lenguas en las que hay cruces entre los dos esquemas propuestos en principio para SVO y para SOV. Todo ello ha hecho que Chomsky (1995) reformulara este esquema en una única regla muy abstracta y general que sigue siendo de tipo 2. Se denomina fusión y simplemente establece la combinatoria por concatenación: una categoría X se combina con una categoría Y para formar una categoría Z siempre y cuando sus requisitos en el lexicón se respeten y, por lo tanto, la fusión sea posible. Esta regla daría cuenta de los constituyentes no marcados: (4.30) Regla sintagmática de fusión: A B → C, donde C es una proyección de la categoría de A o de la categoría de B. 167

Métodos formales en Lingüística

La regla de (4.30) solo establece que dos objetos sintácticos A y B se combinan para formar un nuevo objeto C que será una proyección sintáctica de uno de los dos objetos originarios. Se trata de una nueva expresión de la regla de tipo 2, aunque con la reescritura en el lado izquierdo de la regla, pero seguimos teniendo una ristra como reescritura y un símbolo no terminal como categoría que se reescribe (tal como está escrita podría confundirse con una regla de tipo 0, puesto que tiene una ristra de categorías en la cabecera). Esta definición permitirá combinar categorías léxicas en el caso de que sus especificaciones gramaticales en el lexicón permitan que la fusión sea gramatical. También permitirá combinar una categoría léxica con otro objeto sintáctico (por ejemplo, una fusión previa de otras categorías) para formar una nueva proyección. A continuación, vamos a ver un sencillo ejemplo de la aplicación de la regla sintagmática de fusión. Considérese la oración: (4.31) Iris lee un libro Siguiendo la fusión en el orden que indicarían los requisitos léxicos, primero se fusionaría la categoría léxica ‘un:Det’ con ‘libro:N’. Esta combinación tanto podría dar como resultado lo que habitualmente se ha conocido como sintagma determinante en la bibliografía del paradigma chomskiano, como un sintagma nominal. A su vez, el verbo toma dicho sintagma resultante y da como resultado una proyección del verbo. Y dicha proyección del verbo puede volverse a proyectar de nuevo fundiéndose con el sujeto a través de una nueva aplicación de la regla (4.30). Si expresamos esta derivación por medio de un árbol de análisis se vería del siguiente modo: V N

V

Iris V

Det

lee Det N un libro Figura 4.13. Diagrama arbóreo que muestra la aplicación de la regla de fusión (4.16). 168

Extensiones de las Gramáticas Formales

Como se ve en la figura 4.13, con la regla sintagmática de fusión se prescinde de las barras, aunque en la práctica la mayoría de los autores siguen utilizando la categoría ‘sintagma’. Una de las cosas más llamativas para la tradición de la lingüística chomskiana es que la categoría ‘oración’ se reduce a una proyección del verbo. Por un lado, se han eliminado drásticamente los problemas de rigidez de la teoría X’, pero ahora deben extremarse las restricciones combinatorias expresadas en el léxico para evitar las producciones agramaticales. Tales restricciones pasan por un sistema de rasgos bastante complejo que se acopla al lexicón para controlar la buena formación del proceso de combinatoria sintáctica. Da la impresión de que es un mecanismo formal todavía en proceso de refinamiento, como la mayor parte del programa minimista. Por otra parte, es algo sorprendente que la lingüística chomskiana se cuente entre las que no utilizan matrices de rasgos ni unificación, a pesar de que no deja de usarlas intuitivamente y la impresión de un observador externo es que les ayudarían a formalizar de una manera más ordenada y clara la información y los procesos que le afectan. Dentro de otras corrientes de la lingüística formal también se utilizan reglas de tipo 2 o variaciones de las mismas. En realidad, el conjunto de teorías gramaticales que utilizan reglas Independientes del Contexto como base de su análisis de la estructura sintagmática, técnicamente, deben ser consideradas como gramáticas generativas, aunque todas ellas son no transformacionales. Como decíamos al inicio del capítulo 2, un formalismo puede ser considerado como una gramática generativa si provee un procedimiento inambiguo y regular de producción de las estructuras gramaticales de las lenguas. En cambio, las únicas gramáticas generativas que utilizan reglas transformacionales son las diferentes versiones que integran el modelo chomskiano. Sin embargo, existen una gran cantidad de teorías gramaticales post-chomskianas que son gramáticas generativas pero no son gramáticas generativas transformacionales. Empezamos por la Gramática Léxico-Funcional, denominada a menudo con las siglas del inglés LFG (Lexical Functional Grammar). Esta teoría gramatical tuvo sus primeras formulaciones a principios de la década de los 80 del siglo XX por parte de los lingüistas Joan Bresnan y Ronald Kaplan, y se pueden rastrear hasta la actualidad importantes aplicaciones en las aportaciones bibliográficas de Mary Dalrymple, de Miriam Butt y de Yehuda Falk, entre otros. En general, la LFG es una teoría gramatical especialmente útil para plasmar universales lingüísticos y generalizaciones interlingüísticas a través del nivel de representación funcional que da una mayor capacidad explicativa a la gramática. En particular, la LFG ha dado interesantes resultados en su aplicación a la traducción automática. El esquema que se sigue para conseguir traducir de una lengua a otra, o en el caso del proyecto europeo EUROTRA para traducir de varias lenguas a otras, se basa, precisamente, en la formulación de una estructura funcional común. 169

Métodos formales en Lingüística

L_salida_1

L_entrada_1 L_salida_2

L_entrada_2

L_salida_3

Estructura funcional común

L_entrada_3

L_salida_n

L_entrada_n

Figura 4.14. Ejemplo de la utilidad de la LFG en traducción automática.

Pero no se puede llegar a la estructura funcional si no es a través de las estructuras de constituyentes, que en la LFG están anotadas con breves fórmulas relativas a los valores funcionales de los sintagmas. Tales anotaciones permitirán que las estructuras de constituyentes se proyecten en una estructura funcional que será independiente del orden de palabras y constituirá el nivel de representación de la información relevante desde el punto de vista interlingüístico. Las estructuras de constituyentes, denominadas en LFG estructuras-c, surgen a partir de reglas Independientes del Contexto instanciadas con entradas léxicas muy informativas desde el punto de vista gramatical. En la figura 4.15 se puede ver un ejemplo simplificado de tales anotaciones funcionales incrustadas en una estructura de constituyentes: O (↑ SUJ) = ↓

SV

SN

V (↑ OBJ) = ↓

DET

N

la

niña

lee

SN Det

N

un

libro

Figura 4.15. Diagrama arbóreo con algunas anotaciones funcionales. 170

Extensiones de las Gramáticas Formales

Como se puede observar, el sintagma nominal sujeto y el sintagma nominal objeto están precedidos por unas etiquetas que indican su categoría funcional y que tienen una sintaxis propia, como iremos viendo entre este capítulo y el siguiente. A continuación, se muestra una Gramática Independiente del Contexto anotada con información funcional propia de la LFG.

CUADRO 4.6 Ejemplo de gramática de constituyentes en LFG (1) O → SN

(↑SUJ)=↓

SV ↑=↓

(2) SN → NProp (3) SV → Vtrans SN

(↑OBJ)

(4) NProp → Iris N (↑PRED) = ‘Iris’ (5) NProp → Sandokán N (↑PRED) = ‘Sandokán’ (6) Vtrans → lee V (↑PRED) = ‘lee 〈(↑SUJ) (↑OBJ)〉’

La gramática del cuadro 4.6 generará una estructura de constituyentes muy parecida a la que generaría una Gramática Independiente del Contexto de la Jerarquía de Chomsky, salvo por las comentadas anotaciones relativas a las funciones que desempeñan los sintagmas. La utilidad de tales anotaciones funcionales en este nivel de estructura de constituyentes todavía puede considerarse descriptiva a pesar de que más tarde, en la denominada estructura funcional (estructura-f), se revelará muy útil en el análisis de los datos lingüísticos y en la explicación de los fenómenos lingüísticos, como sugería nuestra anterior referencia a la traducción automática. Las flechas hacia arriba que preceden las anotaciones funcionales se refieren a que la función expresada en la anotación corresponde al nudo que lo domina y las flechas hacia abajo que les siguen se refieren al propio nudo y significan que la información de constituyentes relativa a dicha función se desarrolla en los nudos dominados por él. Por ejemplo, en la regla (1) del cuadro 4.6 la anotación que lleva el SN: (↑SUJ)=↓ significa que el sintagma nominal es el sujeto de la categoría que lo domina, oración O, y que está compuesto por todo lo que está por debajo de la etiqueta de ese nodo. En cambio, las anotaciones funcionales del SV: ↑=↓ indican que es el núcleo de toda la construcción puesto que la información del nodo dominante debe buscarse en los nudos dominados, creándose así un flujo continuo de la información que es equivalente. Este tipo de configuración caracte171

Métodos formales en Lingüística

riza al núcleo de las estructuras sintácticas. Estas flechas harán posible la transcripción formal entre las estructuras de constituyentes y las estructuras funcionales, como veremos en su debido momento. La anotación PRED que se lee en las entradas léxicas se refiere a la información predicativa de la entrada léxica. En el caso de los nombres, se trata simplemente de referencias. En el caso de los verbos, además de ser referencial conlleva una fórmula, denominada forma semántica, que organiza la información funcional de toda la construcción y que manifiesta los requisitos de subcategorización de un núcleo. En este caso, este núcleo verbal requiere obligatoriamente un sujeto y un objeto y estos requisitos se expresan formalmente con esta anotación funcional: (↑PRED) = ‘lee 〈(↑SUJ) (↑OBJ)〉’. Esta información organiza la estructura funcional de la oración y será de suma importancia para la expresión de generalizaciones lingüísticas y para la consecución de la adecuación explicativa de la LFG, como veremos en el apartado 4.3. Si aplicamos la gramática del cuadro 4.6 a la oración (4.32): (4.32) Iris lee Sandokán. El árbol que obtendremos será: O (↑SUJ)=↓

↑= ↓

SN

O

Nprop

O

(↑OBJ)=↓

Iris

O

SN

(↑PRED)=‘Iris’ (↑PRED)=‘leer’<(↑SUJ)(↑OBJ)>’ Nprop Sandokán (↑PRED)=‘Sandokán’

Figura 4.16. Estructura-c con anotaciones funcionales en LFG. 172

Extensiones de las Gramáticas Formales

Iris

NUM = SING PERS = 3 GEN = FEM

Lee

NUM = SING PERS = 3 TIEM = PRES ASP = PERF MODO = INDIC

Sandokán

NUM = SING PERS = 3 GEN = MASC

O ↑= ↓

(↑SUJ)=↓ SN

SV

Nprop

V

(↑OBJ)=↓

Iris

lee

SN

(↑PRED)=‘Iris’ (↑PRED)=‘leer’<(↑SUJ)(↑OBJ)>’

Nprop

(↑NUM)=SING

(↑NUM)=SING

Sandokán

(↑PERS)=3

(↑PERS)=3

(↑PRED)=‘Sandokán’

(↑GEN)=FEM

(↑TIEM)=PRES

(↑NUM)=SING

(↑ASP)=PERF

(↑PERS)=3

(↑MOD)=INDIC

(↑GEN)=MASC

Figura 4.17. Estructura-c con anotaciones funcionales y léxicas en LFG.

En la figura 4.17 se muestra la misma estructura-c de la figura 4.16 pero plenamente anotada con la información gramatical que procede del lexicón. De este modo, al pie del diagrama arbóreo de la figura 4.17 encontramos información relativa al número, la persona y el género, en el caso de los nombres, y al número, la 173

Métodos formales en Lingüística

persona, el tiempo, el modo y el aspecto en el caso de los verbos. Naturalmente esta información puede completarse tanto como el lingüista desee con el fin de obtener un grado de adecuación lo más elevado posible. En la Gramática Léxico-Funcional se utilizan muchas más funciones que las referidas al sujeto y al objeto. Por supuesto hay verbos que introducen otras funciones gramaticales distintas a las mencionadas y las preposiciones introducen también ciertos tipos de funciones gramaticales. Otros tratamientos de la estructura de constituyentes en las teorías gramaticales actuales pueden rastrearse en la denominada GPSG (Generalized Phrase Structure Grammar, que se ha traducido tanto por Gramática sintagmática generalizada como por Gramática de estructura de constituyentes generalizada) y en su posterior evolución, la conocida como HPSG (Head-driven Phrase Structure Grammar, que se ha traducido de múltiples formas pero que podríamos denominar Gramática sintagmática –o de constituyentes- dirigida por el núcleo o Gramática de estructura sintagmática nuclear). La GPSG fue propuesta por Gazdar (1981) y desarrollada por Gazdar, Klein, Pullum y Sag (1985). La teoría de análisis de constituyentes que utiliza se basa de nuevo en las Gramáticas Independientes del Contexto, pero con algunos cambios que las hacen más flexibles. En particular, ha tenido mucha aceptación dentro de la lingüística formal su propuesta de separar la relación de dominio de la relación de precedencia en el árbol sintáctico. Como ya habíamos explicado en el capítulo 3, apartado 3.1, dos de las relaciones sintagmáticas que fundamentan el análisis de constituyentes son el dominio entre las categorías gramaticales, que induce una jerarquía entre ellas, y la precedencia, que predice el orden de palabras. Al separar las relaciones de dominio de las de precedencia se pueden distinguir las relaciones jerárquicas generales (corresponden al eje vertical del árbol de análisis) de las de orden de palabras (articulan el eje horizontal). Por un lado, tendremos las reglas de dominio que expresarán las relaciones sintagmáticas generales interlingüísticas representadas por una jerarquía estratificada. Por otro, la precedencia expresará las relaciones de orden de palabras concreto de cada lengua. En (4.33) y (4.34) se muestran ejemplos de reglas 0 (de dominio inmediato) frente a las de (4.35) a (4.37) que ejemplifican reglas particulares para el español de PL (de precedencia lineal): (4.33) (4.34) (4.35) (4.36) (4.37)

SN → N Det Adj SP SP → SN P P > SN Det > N Adj > SP 174

Extensiones de las Gramáticas Formales

Jugando con estos dos tipos de reglas se podría expresar que ciertas categorías tienen un orden de palabras variable, expresando reglas DI para ellas pero dejando sin concretar sus reglas PL. En el ejemplo que hemos puesto, de (4.33) a (4.37) hemos dejado sin especificar el orden relativo del adjetivo, de manera que este conjunto de reglas permitiría sintagmas como los siguientes sin introducir ningún mecanismo excepcional más: (4.38) El interesante final del libro (4.39) El final interesante del libro Este tipo de distinción entre reglas de dominio inmediato, DI, y de precedencia lineal, LP, fueron también adoptadas en las primeras formulaciones de la HPSG, Gramática sintagmática dirigida por el núcleo. Dicha gramática fue propuesta por Pollard y Sag (1987) basándose en gran medida en las ideas tanto de la GPSG como de la LFG, aunque posiblemente hace una apuesta todavía más radical por el lexicalismo (siempre teniendo en cuenta que tanto la GPSG como la LFG representaron en su momento un fuerte viro hacia el lexicalismo). Una de las nociones fundamentales de la teoría es la del signo lingüístico al estilo de Ferdinand de Saussure, por lo que la asociación entre la forma y el contenido articula la producción de las construcciones en la HPSG. Asimismo, en GPSG tuvo suma importancia la inclusión de jerarquías conceptuales extraídas de la representación del conocimiento en inteligencia artificial, pero en HPSG esta idea se generaliza no solo a la semántica sino también a la representación de la información gramatical por medio de tipificaciones jerárquicas de clases de categorías gramaticales. En cambio, el nivel sintagmático ha perdido prácticamente todo el desarrollo y son las subcategorizaciones contenidas en las estructuras informativas asociadas al lexicón las que formalizan las necesidades de combinatoria sintagmática. Al igual que la Gramática Categorial, que trataremos debidamente en el último capítulo, la Gramática sintagmática dirigida por el núcleo cifra la combinatoria sintáctica en la información contenida en las entradas léxicas. Últimamente, la HPSG ha recibido influencia de la Gramática de Construcciones, por lo que se han añadido más aspectos funcionales y pragmáticos a las matrices de rasgos que se asocian con las entradas léxicas. En HPSG las entradas léxicas están representadas por matrices de rasgos atributo-valor, denominadas en HPSG con la abreviatura AVM por ser el acrónimo de la expresión inglesa Attribute Value Matrices. Estas estructuras de rasgos están ordenadas jerárquicamente entre sí por medio de tipificaciones, es decir, de estructuras de rasgos preformadas para una cierta clase de palabras o de objeto lin175

Métodos formales en Lingüística

güístico y que están clasificadas entre sí taxonómicamente por medio de relaciones sintagmáticas y de significado. Esta idea fue desarrollada por Carpenter (1992) y es una adaptación a la gramática de las ontologías propias de la representación del conocimiento en inteligencia artificial que ya fueron trasplantadas a la semántica por la GPSG de Gazdar, Klein, Pullum y Sag (1985) y por los primeros trabajos en Gramática de Construcciones de Fillmore (1985). La idea es realmente útil e interesante. En lugar de tener que construir desde cero una AVM prácticamente idéntica a otras del mismo tipo cada vez que se va a caracterizar un verbo transitivo o nombre, o cualquier estructura de rasgos correspondiente a un objeto lingüístico, se proponen esquemas generales de estructuras de rasgos que uno solo tiene que terminar de caracterizar con los valores particulares de cada elemento lingüístico. Asimismo, tales AVM tipificadas están relacionadas con otras de las que son tipos más generales o más específicos, formando una red jerárquica de información lingüística. Por ejemplo, si asignamos el AVM de tipo verbo transitivo a una palabra, entonces heredará todos los atributos propios de los verbos, de las categorías nucleares de sintagma y de las categorías léxicas en general, por poner un ejemplo. La estructura de rasgos correspondiente a cada objeto lingüístico se creará al momento (en línea, si se prefiere esta otra imagen) recogiendo atributos de todas las categorías lingüísticas con las que esté relacionado. Esto supone un gran ahorro en el almacenamiento de información ya que solo se tendrán que almacenar los valores de atributos específicos de cada entrada léxica. El resto se heredarán al momento formando la AVM completa correspondiente, tal y como habíamos explicado en el capítulo 3, apartado 3.4. Una vez formadas las estructuras de rasgos particulares a cada objeto lingüístico, su combinación sintáctica se controlará por medio de reglas ID/LP como las que hemos mostrado en (4.33)-(4.37) y de la unificación que fundirá unas AVM con otras para formar nuevas estructuras de rasgos. Las imágenes de estructuras de rasgos, AVM, totalmente especificadas según la forma convencional utilizada en el modelo de la HPSG que vamos a usar seguidamente para ejemplificar entradas léxicas de la Gramática de Sintagmática dirigida por el núcleo están extraídas del bien conocido y controlado sitio de la red http://en.wikipedia.org/wiki/File:Walks-avm.png, que ofrece todos los permisos legales para su utilización. Naturalmente, las explicaciones que damos de ellas son completamente nuestras. En primer lugar mostramos la estructura de rasgos correspondiente a la entrada léxica para el verbo inglés ‘walk’:

176

Extensiones de las Gramáticas Formales

word PHON

‘walks’ synsem category HEAD

SYNSEM

verb synsem CAT | HEAD noun

CAT

SUBJ

VALENCE

CONT

1

ref-index PER 3rd NUM sing

COMP < > CONT

content WALKER

1

Figura 4.18. Estructura de rasgos AVM para el verbo ‘walk’ (caminar).

En la figura 4.18 tenemos una entrada prototípica para un verbo intransitivo. Lo primero que se observa empezando a analizar la AVM de izquierda a derecha es que aparece en paralelo el tipo de AVM (word, es decir estructura de rasgos preformada para definir los atributos lingüísticos de una ‘palabra’), la fonética y la estructura sintáctico-semántica. Avanzando hacia la derecha en la estructura de rasgos SYNSEM observamos un apartado donde se desarrollan los valores categoriales y otro donde se desarrollan los valores de contenido semántico. El rasgo de categoría se escinde entre la categoría nuclear y las categorías exigidas por dicho núcleo, que constituye lo que se denomina ‘valencia’. La valencia es muy importante puesto que determina la estructura final que tendrá la construcción. En el caso de un verbo llevará siempre un SUJETO en la valencia y una lista de COMPLEMENTOS. En este caso, al tratarse de un verbo intransitivo no tendrá complementos que satisfacer y, por lo tanto, la lista estará vacía. A su vez, la AVM del sujeto tendrá estructura sintáctica y semántica, con lo que de nuevo hay que especificar los valores correspondientes al atributo SYNSEM que le corresponde. El núcleo del sujeto será un nombre, según reza la AVM, y en el CONTENIDO se indica que necesitará un especificador de referencia y los valores de concordancia de número y persona. En el valor del atributo del CONTENIDO 177

Métodos formales en Lingüística

general de la entrada léxica se especifica que asigna un papel semántico de ‘el_que_camina’ (WALKER). Naturalmente, esta AVM podría estar mucho más especificada, pero esto nos da una idea de en qué consiste. Además podemos considerar la entrada para el pronombre femenino de tercera persona ‘she’:

word PHON

she’ synsem CAT

HEAD noun

CONT

ref-index PER 3rd NUM sing

SYNSEM

Figura 4.19. Estructura de rasgos (AVM) para el pronombre ‘she’ (ella).

En la estructura de rasgos que se muestra en la figura 4.19 podemos observar de nuevo la jerarquización del nivel palabra entre fonética y el nivel sintáctico semántico. En otras formulaciones podemos encontrar información pragmática y, desde luego, muchos más rasgos relativos a los valores gramaticales del objeto léxico que se describe. En el caso de esta AVM sólo se especifica que el núcleo es un nombre y que en el contenido tiene que haber algún índice relativo a la referencia y los valores para número y persona. Las dos estructuras de rasgos que hemos mostrado pueden fusionarse por medio de la operación de unificación y, así, formar una nueva AVM correspondiente a la oración ‘she walks’, donde se han combinado sintagmáticamente ambas estructuras de rasgos. El procedimiento de la unificación de AVM sería el método habitual para generar nuevas construcciones complejas a partir de construcciones más simples, siempre y cuando no hubiera construcciones que transgredieran los requisitos establecidos por las AVN correspondientes a las entradas léxicas. La figura 4.20 contiene la estructura de rasgos que representa la unificación de las estructuras de rasgos de las AVM mostradas en las figuras 4.18 y 4.19. La estructura de rasgos resultante corresponderá a la de la oración formada por el sujeto pronominal ‘she’ y el verbo intransitivo ‘walks’. La mayor parte de los 178

Extensiones de las Gramáticas Formales

valores para los atributos de esta estructura de rasgos son variables, es decir, esperan tomar un cierto valor constante en el proceso de unificación de las AVM 4.18 y 4.19. El hecho de que el valor de un atributo esté representado por una variable numérica que se repite en otros puntos de la AVM significa que tienen el mismo valor. Sería un caso de reentrancia a los que hemos hecho referencia cuando explicamos las matrices de rasgos y la unificación. head-subj-phrase PHON

1

SYNSEM

+

2

HEAD

CAT

VALENCE | SUBJ

CONT

4

PHON HEAD-DTR

SS

3

2

CAT

3 HEAD VALENCE | SUBJ

CONT NON-HEAD-DTR

PHON SS

5

4 1 5

Figura 4.20. AVM para la oración inglesa ‘she walks’ (ella camina).

A menudo, los lingüistas que trabajan en HPSG prefieren adoptar una presentación arbórea para expresar la AVM, en cuyo caso las submatrices de rasgos correspondientes a los argumentos se situarían en sendas ramas dominadas por el núcleo. La figura 4.21 muestra la misma información que contiene la figura 4.20. Tanto en la figura 4.20 como en la 4.21, se muestra el AVM que correspondería a la oración intransitiva. El núcleo de la construcción sería el verbo y el sujeto sería el constituyente inmediato no nuclear (NON-HEAD-DAUGHTER). A su vez, cada uno de ellos se desarrollaría en una estructura de rasgos con su correspondiente estructura de rasgos sintáctico-semántica, SYNSEM (también notada como SS). Para entender las AVM solo se tienen que seguir cuidadosamente las coincidencias en las indexaciones, de esa forma es posible reconocer muy fácil179

Métodos formales en Lingüística

mente a qué corresponde cada una de las estructuras de rasgos subcontenidas en la AVM correspondiente a la construcción general.

head-subj-phrase PHON

1

SYNSEM

+

2

HEAD

CAT

VALENCE | SUBJ

CONT

4

NON-HEAD-DTR PHON SYNSEM

HEAD-DTR PHON

1

3

2

5

SYNSEM

CAT CONT

3 HEAD VALENCE | SUBJ

5

4

Figura 4.21. Diagrama arbóreo HPSG para la figura 4.20.

La Gramática de Construcciones (GC) fue propuesta por Fillmore (1985) y desarrollada entre otros por Kay y Fillmore (1999, con un conocido borrador circulando en 1994) y Goldberg (1995), terminando por formar parte de la lingüística cognitiva. Hay que tener en cuenta que la lingüística cognitiva se enfrenta a las hipótesis innatistas de Chomsky en que mientras este defiende una facultad lingüística especializada, los cognitivistas conciben el lenguaje como una instanciación de las operaciones cognitivas que nos permiten aprender y utilizar el conocimiento en general. Al igual que la HPSG, la GC promulga la noción de signo como concepto básico y lo amplía de forma que los emparejamientos se producen, por un lado, entre la forma fonológica, morfológica y sintáctica y por otro, con la función, la semántica, la pragmática y el discurso. Estos signos tan complejamente estructurados forman construcciones lingüísticas preestablecidas que sirven de patrones para la producción de oraciones. Estas construcciones formadas por emparejamientos de forma y sentido no se encuentran aisladas entre sí, sino que forman 180

Extensiones de las Gramáticas Formales

ontologías taxonómicas de conocimiento lingüístico en las que las construcciones mantienen entre sí diversos tipos de relaciones formales y funcionales. En la GC la sintaxis se ha diluido totalmente en el léxico, ya no hay reglas gramaticales de ningún tipo. Vamos a ejemplificar algunas de las construcciones que sirven de base para esta teoría gramatical, que cada día gana más adeptos dentro de la lingüística cognitiva y también dentro de la lingüística formal. En el caso de una estructura ditransitiva como (4.40), en una teoría gramatical que se basara en alguna de las formulaciones comentadas basadas en la Gramática Independiente del Contexto, recibiría la regla de tipo 2 (4.41), con las subsecuentes reescrituras correspondientes a los símbolos no terminales del cuerpo de la regla. En cambio, en la GC recibiría la construcción que mostramos en la figura 4.22. (4.40) Iris escribe un correo a Anabel (4.41) SV → V SN SP

SEM: CAUSA-RECEPCIÓN
paciente-receptor rel="nofollow">

R-papel: ESCRIBIR-ENVIAR <el_que_escribe- lo_escrito-destinatario > SINT:

V

SUJ

OBJ

OBJ2

Figura 4.22. Construcción predeterminada para una ditransitiva en GC.

En la figura 4.22, vemos que en paralelo se establece cuál debe ser la estructura semántica, la de papeles temáticos y la sintaxis funcional de la construcción. Naturalmente se podrían añadir a estos esquemas tantos detalles lingüísticos como se deseara contemplar, y de hecho hay autores que incluyen más. En particular, el esquema de construcción de la figura 4.22 está inspirado en Goldberg (1995). Lo esencial de estos esquemas es que, por un lado, incluyen una variedad muy amplia de información tanto sintáctica como semántica, y pueden llegar a incluirla de tipo pragmático y cognitivo, y que, por otro, abandonan totalmente las reglas sintácticas de cualquier tipo. No quisiéramos cerrar este apartado sin hacer referencia a las Gramáticas de Adjunción de Árboles, conocidas como TAGS, que es el acrónimo de la denomi181

Métodos formales en Lingüística

nación original en lengua inglesa Tree Adjoining Grammar. Estas gramáticas están entre las Gramáticas Independientes del Contexto, de tipo 2, y las Gramáticas Dependientes del Contexto, de tipo 1, y por ello se suelen considerar del tipo Suavemente Dependiente del Contexto (Midly Sensitive Grammars), manteniéndose dentro de la Jerarquía de Chomsky. En este apartado hemos intentado tratar algunas de las gramáticas formalizadas más utilizadas por la comunidad lingüística. En cambio, este no es el caso de las TAGS, que son mucho menos conocidas que el resto de las teorías gramaticales que hemos presentado aquí. Pero su propuesta es teóricamente interesante desde el punto de vista de la comparación con el resto y por ello nos parece de interés y utilidad presentarla. Las Gramáticas de Adjunción de Árboles fueron propuestas fundamentalmente por Joshi (1985). La propuesta es sumamente original y no deja de recordarnos por un lado a las Gramáticas de Construcciones y, por otro, a las Gramáticas Categoriales, de las que hablaremos en el último capítulo. La propuesta es que la gramática tiene una serie de árboles ya preestablecidos que corresponden a construcciones sintácticas y luego se encajan, o adjuntan, entre sí de la manera en que lo exige el léxico. Hay dos operaciones de construcción de árboles nuevos a partir de árboles existentes, la adjunción y la sustitución. Véase a continuación la operación de adjunción:

O SN

O

SV SV

SN +

Vaux

SV*

SV

= SV

Vaux V

SN

V

DET N

SN DET N

Figura 4.23. Operación de adjunción de árboles en TAGS.

En la operación de adjunción se ha incrustado un árbol dentro de otro utilizando el operador asterisco *. El operador * indica el lugar por el que puede incrustarse un árbol en el interior de la estructura de otro. Así, en la figura 4.23, el árbol que tiene el SV con asterisco, SV*, se ha incrustado en medio del primer árbol, de manera que el SV sin asterisco se ha podido adjuntar al SV* y así for182

Extensiones de las Gramáticas Formales

mar un nuevo árbol de estructura más amplia. En este caso a partir de un SV sin especificador alguno se ha formado un SV especificado por un auxiliar.

O SN

O

SN SV

SN +

DET

N

SV

= V

V

SN

SN DET N

Figura 4.24. Operación de sustitución de árboles en TAGS.

En cambio, en la figura 4.24 se muestra la operación de sustitución de árboles, que simplemente reescribe un nodo de un árbol por otro encabezado por la misma categoría. En el modelo de las Gramáticas de Adjunción de Árboles, a cada palabra le correspondería un árbol dependiendo de sus requisitos de subcategorización y de selección categorial en general. La combinación sintagmática se produciría a través de las operaciones de adjunción o de sustitución. Este modelo de TAGS está conceptualmente muy relacionado con la Gramática Categorial, que es anterior a él y a la HPSG, que también se inspira en la Gramática Categorial para la organización sintagmática. Pero, por otro lado, el hecho de que las entradas léxicas se asocien a construcciones, en este caso a construcciones arbóreas, no deja de tener relación con la Gramática de Construcciones, que en sus orígenes es coetánea aunque posiblemente se ha extendido más tarde entre la comunidad científica. Con esto terminamos nuestro, inevitablemente breve, recorrido por las principales aproximaciones al tratamiento de la estructura de constituyentes básica. A continuación, vamos a adentrarnos en el campo del tratamiento de las construcciones que transgreden la estructura de constituyentes no marcada.

4.3. Más allá de las Gramáticas de Constituyentes Tal y como hemos ido argumentando a lo largo de este libro, por distintas razones las Gramáticas Independientes del Contexto no se consideran suficientemente expresivas para dar cuenta de los fenómenos lingüísticos de las lenguas naturales. 183

Métodos formales en Lingüística

A continuación, vamos a recopilar algunas de las razones fundamentales que hemos introducido.

CUADRO 4.7 Principales razones para extender las Gramáticas de tipo 2 con otro tipo de mecanismos formales (1) Formalmente no pueden dar cuenta de las dependencias cruzadas que se dan en algunas lenguas. (2) Es antiintuitivo expresar con este formalismo las relaciones sintagmáticas entre categorías que aparecen discontinuas en la secuencia sonora, pero que forman parte del mismo constituyente. (3) No se pueden relacionar formalmente estructuras que se puede considerar que están cognitivamente relacionadas, como las estructuras de pasiva, las interrogativas, las estructuras de relativo, entre otras, y sus correspondientes estructuras enunciativas. (4) No se puede dar cuenta de la relación entre las estructuras lingüísticas ya aprendidas y el proceso de adquisición lingüística. (5) No se puede predecir la asignación de los antecedentes de las anáforas y los pronombres.

Desde un punto estrictamente formal el punto (1) sería el único relevante, el único que podría motivar que se añadieran nuevos mecanismos formales. Pero en realidad es el que cuantitativamente ha suscitado menos atención en la bibliografía de teoría lingüística. Por supuesto, las dependencias cruzadas de las oraciones subordinadas del neerlandés han recibido mucha atención, pero quedan diluidas en un flujo enorme de trabajos dedicados al resto de los puntos enunciados. El punto (2) ha recibido más atención en la bibliografía de lingüística formal basada en estructura de constituyentes, pero el asunto que ha provocado una inmensidad de trabajos de investigación en lingüística formal ha sido el punto (3). En relación al punto (4) la lingüística chomskiana se ha centrado en él especialmente en el modelo de Principios y Parámetros y bastante en el Minimismo, aunque actualmente el Minimismo se encuentra orientado hacia lo que se denomina la Biolingüística, la investigación del origen del lenguaje en la especie de los homínidos. Sobre el punto (5) han trabajado los chomskianos, los de LFG, HPSG pero, sobre todo, en el marco de la Teoría de la Representación del Discurso que hemos comentado en el capítulo anterior, apartado 3.5. 184

Extensiones de las Gramáticas Formales

Centrándonos en el punto (3), efectivamente, la mayor parte de los lingüistas que trabajan en teoría lingüística intentan proporcionar algún mecanismo formal que relacione las estructuras argumentales no marcadas con las estructuras marcadas que cognitivamente podrían considerarse relacionadas con ellas. En la actualidad, hay muchas formulaciones teóricas que ya no las relacionan derivacionalmente, pero el largo camino formal recorrido ha dejado huellas importantes en los procedimientos formales que se utilizan. De nuevo hay que empezar por las primeras obras de Chomsky (1957 y 1965), dentro de lo que se denomina Teoría Estándar. A la vez que propuso las Gramáticas Independientes del Contexto para dar cuenta de la estructura de constituyentes no marcada, propuso también las reglas transformacionales para dar cuenta de la relación estructural que él conjeturaba que existía cognitivamente entre una oración enunciativa y lo que él consideraba sus transformaciones sintácticas correspondientes: pasiva, construcciones de relativo, interrogativas, etc. Las reglas Independientes del Contexto se aplicaban para producir lo que Chomsky denominó estructura superficial. Sobre la estructura generada tras la aplicación de las reglas Independientes del Contexto se aplicaban reglas transformacionales para obtener derivacionalmente las estructuras sintácticamente más complejas. Esta segunda estructura es lo que se denominó estructura superficial. La estructura superficial correspondía a la parte del análisis sintáctico de lo que se profiere y, por supuesto, en las estructuras sintácticas enunciativas la estructura profunda y la estructura superficial coincidían. Por otra parte, en la Teoría Estándar el peso semántico de las construcciones recaía en la estructura profunda. Por ese motivo, lo común entre el significado de una oración enunciativa y sus correspondientes construcciones interrogativas, relativas y pasivas, entre otras, se cifraba en la interpretación de la estructura profunda y se suponía que la estructura superficial solo informaba de accidentes sintácticos de la expresión de tales conceptos. Ya apuntábamos en el capítulo 2 que las transformaciones y, en particular, las transformaciones de las primeras formulaciones de la teoría chomskiana tienen un cierto aspecto de reglas de tipo 0. A continuación vamos a poner un ejemplo de ello. Para notar las transformaciones usaremos un formalismo lo más claro y simple posible. Una de las transformaciones más sencillas, posiblemente, es la de inversión del auxiliar. Esta transformación persigue generar una interrogativa de sí o no a partir de la correspondiente construcción afirmativa, como sucede en las oraciones que se observan en (4.42) y (4.43). (4.42) Pilar ha visto esta película. (4.43) ¿Ha visto Pilar esta película? 185

Métodos formales en Lingüística

En (4.44) se muestra la regla transformacional de inversión del auxiliar que permitiría derivar la estructura (4.43) a partir de (4.42). (4.44) X SN AUX V Y → X AUX V SN Y La regla consignada en (4.44) simplemente permuta el auxiliar y el verbo con el sintagma nominal sujeto en un cierto contexto formado por las ristras de categorías X e Y que aparecen a derecha y a izquierda de las categorías afectadas por la transformación. Esta regla en particular se ajusta en todo a la forma general de una regla irrestricta, de tipo 0, en la que una ristra de categorías se reescribía como otra ristra de categorías y a la vez nos recuerda a las reglas dependientes del contexto, de tipo 1, donde aparece un contexto en el que se aplica la regla. Pero no sería una regla cuya aplicación dependiera del contexto, ya que dicho contexto no especifica ninguna restricción sobre la aplicación de la regla. Solo expresa que la transformación se aplica independientemente de que haya otras categorías en el contexto, que se mantienen inamovibles a pesar de la aplicación de la transformación. En cambio, para generar una estructura con pronombre interrogativo de objeto directo se propone una regla transformacional que no solo permuta las categorías sino que, además, transforma el sintagma nominal léxico en función de objeto directo en un pronombre interrogativo. (4.45) X SNsuj Vtrans SNobj Y → PronIntobj X Vtrans SNsuj Y Esta regla permitiría generar la oración (4.47) a partir de la oración (4.46), siendo X e Y vacíos en este caso. (4.46) Pilar ha visto algo. (4.47) ¿Qué ha visto Pilar? En la década de los 70 del siglo XX, las transformaciones pasaron a ser operaciones sobre los árboles (en especial a partir de los trabajos de Joseph Emonds). Finalmente, a principios de los 80, se hizo pública una nueva concepción de las transformaciones en la que se abandonaba la idea general de transformación de cualquier tipo y se adoptaba la de movimiento (que no es otra cosa que un tipo específico de transformación). La regla presenta un alto grado de abstracción, como se aprecia en (4.48), reescrita informalmente como (4.49). (4.48) Muévase-α (4.49) Debe moverse cualquier categoría α que no pueda encontrar sus rasgos gramaticales o interpretación en su lugar de generación de base 186

Extensiones de las Gramáticas Formales

En el caso de las interrogativas, la regla de movimiento traslada un elemento desde la posición argumental que le corresponde en la estructura profunda a la posición no argumental, discontinua con el resto de su constituyente, en la que aparece en la estructura superficial. Así, el auxiliar en las construcciones interrogativas, los pronombres de relativo y los interrogativos se moverían a una posición externa a la oración. Lo interesante de esta propuesta es que los elementos ‘movidos’ tendrían todos ellos un sitio común en el árbol, un lugar marcado general donde irían a parar los elementos desplazados de su posición argumental. A cambio, se propone una complicación formal importante, puesto que se postula que en la estructura superficial debe quedar una huella que indique la posición argumental no marcada que ocupaba el elemento que se ha movido en la estructura profunda. La huella debe estar coindexada con dicho elemento para asegurar su identificación y la correferencia con su elemento léxico correspondiente.

Oæ C QuéI

O SV V

SN S Pilar SN

ha visto hI

Figura 4.25. Diagrama arbóreo que muestra el movimiento de un pronombre interrogativo de objeto directo desde su posición argumental básica.

La categoría Oʹ′ (que se lee: oración con una barra) simplemente se refiere a la categoría oración con un nivel de proyección. La barra expresa que la categoría en cuestión se ha proyectado recursivamente para generar una rama nueva en el árbol. En este caso tenemos una oración con un lugar especial para situar las categorías desplazadas a través de una regla de movimiento. Deberíamos reflexionar un poco sobre la posición del sujeto para (4.47). En la figura 4.25 hemos situado 187

Métodos formales en Lingüística

el sintagma nominal sujeto pospuesto al sintagma verbal pero bajo el dominio de oración, en la posición VOS. Posiblemente no sería esta la posición no marcada que se postularía en general para el sujeto del español, aunque tampoco es raro encontrar autores que postulen una posición posverbal para el sujeto. En principio, la corriente más generalizada dentro de la lingüística chomskiana postularía el sujeto en la posición no marcada SVO en la estructura profunda, es decir, como hermano del sintagma verbal por la izquierda. Por su parte, el pronombre interrogativo objeto directo se generaría en su posición argumental. En la figura 4.26 mostramos dicha estructura profunda.

Oæ C

O SV

SN Pilar

V

SN

ha visto

qué

Figura 4.26. Árbol para la estructura profunda de la oración (4.33).

Otra posibilidad para representar el sujeto en las construcciones interrogativas como (4.47), sería moverlo a la posición de adjunto del SV por la derecha dejando su correspondiente huella en la posición no marcada de origen en la posición de sintagma nominal hermano del SV, como se muestra en la figura 4.27. Naturalmente, también sería posible postular el árbol de la figura 4.26 en propuestas más económicas. Decidirse por un cierto diagrama arbóreo de representación de las relaciones sintácticas conlleva una profunda investigación sobre las consecuencias de predicción en el comportamiento sintagmático que se derivan de cada una de ellas y suele comportar largas e inconclusas discusiones académicas. Naturalmente, otra posibilidad de representación sintáctica para dicho sujeto pospuesto sería como adjunto a oración por la derecha. De esa manera seguiría siendo constituyente inmediato de la categoría oración, como en el caso en el que aparece prepuesto. Véase la figura 4.28.

188

Extensiones de las Gramáticas Formales

Oæ C

O SV

Quél SN SV

hj V

SN SN Pilarj

ha visto hl

Figura 4.27. Posibilidad de representación del sujeto pospuesto de la interrogativa como adjunto del sintagma verbal.

Oæ O

C Quél

SN

O SN hj

SV V

Pilarj SN

ha visto hl Figura 4.28. Posibilidad de representación del sujeto pospuesto de la interrogativa como adjunto de la oración. 189

Métodos formales en Lingüística

Uno de los problemas de la regla de movimiento propuesta en la década de los 80 es que la formulación de la regla es muy amplia, no presenta ningún tipo de acotación. Por un lado esto comporta un fuerte cambio hacia una mayor abstracción en la teoría, que Chomsky cree que está relacionado con la obtención de un mayor grado de adecuación explicativa. No obstante, también comporta formular una compleja teoría que permita restringir qué elementos pueden moverse y a dónde, así como arbitrar adecuadamente las huellas que dejan los argumentos al moverse de posición. Dar solución a estas preguntas genera una teoría bastante intricada de mecanismos que controlan la buena formación de las estructuras sintácticas y que distinguen entre distintos tipos de categorías vacías, entre las que se cuentan las huellas, que hemos ejemplificado en los diagramas arbóreos precedentes en este apartado. Chomsky propone una serie de mecanismos formales que hace posible decidir adecuadamente la asignación de las estructuras sintácticas y la atribución de los valores gramaticales a las categorías implicadas en las construcciones, a la vez que permite controlar los movimientos de los sintagmas nominales argumentales. En particular, son de gran interés para la teoría lingüística en general los principios que controlan que todos los sintagmas nominales reciban caso abstracto y papel semántico, o temático. El caso abstracto se refiere a que todos los sintagmas nominales reciben caso, no solo los de las lenguas que tienen morfología flexiva fonéticamente expresa. Las lenguas que no la tienen manifiestan el caso por medio del orden de palabras o por medio de preposiciones o posposiciones (dependiendo del tipo de lengua). Así, en chino se expresa el caso fundamentalmente a través del orden de palabras, en euskera a través de los morfemas inscritos en los nombres y en español por medio de preposiciones, aunque también hay casos que se expresan fundamentalmente a través del orden de palabras (el objeto) y por la concordancia con el verbo (el sujeto). Esta obligatoriedad de asignación de caso y de papel semántico se ha usado en la lingüística chomskiana para generar la estructura de construcciones como las pasivas, que quieren relacionarse con la estructura profunda transitiva correspondiente. Para lograr esta relación se establece que las marcas gramaticales de pasiva determinen que el sintagma nominal objeto directo no reciba caso, pero sí papel semántico de paciente. En cambio, la posición sintáctica del sujeto en el árbol es una posición que recibe caso nominativo, pero donde no se asigna papel semántico alguno. Por otra parte existe una preposición agente que encabeza un sintagma preposicional adjunto, es decir de modificador opcional, que tiene la capacidad de asignar caso oblicuo, pero papel semántico de agente. Con este panorama de asignaciones a las categorías léxicas particulares que tienen la virtud de permitir controlar el árbol sintáctico se puede generar una construcción pasiva, 190

Extensiones de las Gramáticas Formales

pero a cambio de un proceso bastante complejo que, además, resulta un tanto adhoc. Considérese la siguiente oración: (4.50) Un libro es leído por Iris. La estructura profunda para (4.50) sería:

O SN PAPELθ CASO nom

SV V

SN

es leído DET N un libro PAPELθ tema CASO nom

Figura 4.29. Estructura profunda para una pasiva. Modelo Principios y Parámetros.

En la estructura profunda la posición de sujeto no recibe papel semántico (que en la lingüística chomskiana se suele denominar papel temático y, abreviado, papel-θ) y, en cambio, sí que recibe caso nominativo. Por otra parte, la posición de objeto directo recibe papel semántico de tema, pero no recibe caso. Por los filtros generales del modelo chomskiano de Principios y Parámetros, el filtro del caso y el criterio temático exigen, respectivamente, que los sintagmas nominales reciban caso y papel-θ. El objeto directo de la estructura profunda no recibe caso en su posición básica, por lo tanto, debe moverse a una posición sintáctica en que se lo asignen, en este caso será la posición básica del sujeto gramatical. Por otra parte, ese sintagma nominal sí que había recibido papel semántico en la estructura profunda, así que al moverse a la posición de sujeto en la estructura superficial lo lleva consigo y no importa que en la posición de sujeto del verbo en pasiva no puedan asignárselo. 191

Métodos formales en Lingüística

En el caso opcional de que se quisiera proferir un sujeto, como en la oración (4.50), este deberá adjuntarse a la estructura por medio de una preposición que funcione como rector que le asigne caso y papel semántico. La estructura superficial quedaría del siguiente modo:

O SN un librol PAPELθ tema CASO nom

SV SP

SV V es leído

hl

P SN por Iris PAPELθ agente CASO oblicuo

Figura 4.30. Estructura superficial para una pasiva. Modelo Principios y Parámetros.

Como vemos, las transformaciones han sufrido una depuración entre la Teoría Estándar y la Teoría de los Principios y los Parámetros de los años 80. En el modelo chomskiano de los ochenta y sucesivos la estructura profunda pierde el protagonismo semántico que había tenido en la Teoría Estándar y se añade a la teoría un nivel de representación semántica autónomo, que se denomina Forma lógica, y un nivel de representación fonética, que se denomina Forma fonética, para poder procesar la representación semántica y la fonética independientemente de la sintaxis y después de ella. Estos cambios tan importantes son debidos a que se llega a la conclusión de que la semántica está determinada no sólo por la estructura de constituyentes no marcada de la estructura profunda, sino por la combinación de la estructura profunda y la estructura superficial. Esto lleva a una escisión muy importante en la Gramática Generativa Transformacional, puesto que los denominados Semánticos Generativos siguen defendiendo la producción del significado como primitiva cognitivamente frente a la producción sintáctica. Esta escisión ha llevado finalmente a la importante corriente 192

Extensiones de las Gramáticas Formales

actual conocida como Semántica Cognitiva y, en gran medida, al cognitivismo actual, que es radicalmente opuesto a los modelos y presupuestos cognitivos chomskianos. Para los constituyentes marcados, en el Minimismo, el procedimiento para dar cuenta de las construcciones que entrañan discontinuidad o de los fenómenos lingüísticos que habitualmente se habían tratado por medio de reglas de movimiento (interrogativas, de relativo, pasiva, etc.) es la copia. Deja de existir la diferencia entre estructura profunda y estructura superficial y se postula un único nivel de representación en el que la información que no aparece en su posición argumental aparece duplicada por medio de una ‘copia cognitiva’ que se sitúa en la posición no marcada. Pero todavía falta por acabar de resolver cómo el módulo de pronunciación eliminaría la copia que solo es cognitiva. Por otra parte, la teoría de la copia cohabita en muchas aplicaciones con la regla de movimiento y en este momento existe coexistencia de recursos formales muy diversos dentro del propio Minimismo. Son muchos y variados los problemas formales que se deben resolver todavía en el Minimismo, al igual que fueron muchos los problemas formales que produjo la Teoría de Principios y Parámetros. Entre ellos reaparece de nuevo el fenómeno lingüístico de la discontinuidad sintáctica, que es más común en las lenguas de orden libre o semi-libre y también el problema de arbitrar las categorías vacías y las categorías funcionales (o estrictamente morfosintácticas). En otras teorías lingüísticas post-chomskianas el tratamiento de las construcciones que alteran el orden básico de la estructura de constituyentes nunca se ha hecho recurriendo a reglas transformacionales, ni tampoco a copias. No obstante, la estrategia general sigue siendo relacionar un argumento sintáctico requerido por la matriz de subcategorización de un rector, ya sea verbo o preposición, con la posición sintáctica que ocupa en el orden de proferencia. Como hemos visto, esta relación en la lingüística chomskiana se realiza por medio de reglas de movimiento de categorías, en cambio en la mayoría de las teorías lingüísticas actuales lo más habitual es utilizar estructuras de rasgos y reentrancia para dar cuenta de las discontinuidades y de las dependencias de larga distancia en general. En las primeras formulaciones de la LFG a principios de la década de los ochenta, ante el tratamiento de la pasiva que acabamos de exponer dentro del marco chomskiano de Principios y Parámetros, Bresnan (1982) propuso un tratamiento sumamente lexicalista basado en la Gramática Relacional de Perlmutter y Postal (1977). Se trata de las reglas de redundancia léxica que resuelven de una manera sumamente lexicalista la conexión entre construcciones que pueden relacionarse por medio de cambios que se producen a nivel léxico o morfológico. En particular, para la pasiva se propuso la siguiente: 193

Métodos formales en Lingüística

(4.51) Regla léxica de la pasiva: (SUJ) → ∅ / (OBLICUOagente) (OBJ) → (SUJ) Cambio morfológico: V → V(pasiva) En LFG las anotaciones funcionales controlan toda la estructura, esto quiere decir que los cambios en las anotaciones funcionales que hemos notado en (4.51) provocarán que se produzca una estructura en la que, por un lado, el que fuera sujeto de la estructura pasiva sea introducido como un adjunto oblicuo con papel semántico de agente y, por otro lado, el que fuera objeto en la construcción activa pase a ser sujeto en la pasiva. Asimismo, es necesario que se produzca un cambio en la morfología verbal. En cambio, en GPSG se mantiene un tratamiento más sintacticista basado en las denominadas Metarreglas. Las Metarreglas relacionan dos reglas que corresponden a las dos estructuras de las que se quiere explicar una relación cognitiva, como por ejemplo la pasiva. La Metarregla de pasiva en Gazdar, Klein, Pullum y Sag (1985) sería: (4.52) SV → W, SN ⇓ SV[PAS] → W, (SP[‘por’]) En la regla (4.52) tenemos dos reglas de dominio inmediato ID que reescriben el SV, en un caso en activa y en el otro en pasiva, conectadas por el símbolo ‘⇓’. En la de arriba del esquema encontramos el símbolo no terminal ‘W’ que representa la categoría que va a cambiar por efecto de la Metarregla. En la regla resultante el objeto ha desaparecido y, opcionalmente, se puede incluir un sintagma preposicional introducido por la preposición ‘por’. En realidad, estas Metarreglas recuerdan a las primeras transformaciones de las gramáticas chomskianas de la Teoría Estándar, por mucho que los autores pretendan aportar un tratamiento distinto al de la lingüística chomskiana. No obstante, la diferencia es que en la transformación de pasiva de la lingüística chomskiana el sintagma nominal objeto se relaciona con la posición del sujeto de la pasiva. Esta relación no se produce en el tratamiento de la GPSG, ya que en el esquema (4.52) no se refleja que el SN complemento del verbo transitivo acabe siendo el sujeto de la construcción pasiva. Gazdar, Klein, Pullum y Sag (1985) no creen que sea necesario representar esa relación cognitiva en la teoría de la gramática y por ello la excluyen de sus representaciones formales, cuando está claro que con los métodos formales que utilizan sería muy sencillo incluirla. 194

Extensiones de las Gramáticas Formales

Por otra parte, la regla léxica de la LFG (4.51) y la metarregla de la GPSG (4.52) son ontológicamente muy distintas, especialmente en relación con la adecuación explicativa tal y como la entiende Chomsky. La propuesta de la LFG intenta dar cuenta de la conexión cognitiva que hay entre tiene los dos tipos de construcciones y la de la GPSG no. Esta característica no es casual y es que mientras que la LFG tiene pretensiones de explicación psicológicas, la GPSG renuncia intelectualmente a que tal posibilidad entre dentro de los límites del poder explicativo de una teoría lingüística y por eso renuncia a dar cuenta de esta relación que, por otra parte, sería muy fácil de expresar en el formalismo que utilizan estos autores. En HPSG el procesamiento de toda la información lingüística se encauza a partir de operaciones sobre las estructuras de rasgos y de reglas léxicas, al igual que en LFG. La pasiva se trata por medio de una regla léxica expresada a través de una matriz de rasgos léxicos, una AVM. En esta regla léxica sí que se relaciona la posición de objeto de la construcción activa con la de sujeto de la estructura pasiva y se introduce opcionalmente la posibilidad de utilizar el que fuera sujeto de la activa como complemento agente introducido por una preposición en la pasiva. A pesar de que este tratamiento no tiene ninguna relación epistemológica con el de la GPSG, formalismo con el que está emparentado y al que ha sustituido, el aire general de la regla léxica no deja de recordarnos a la Metarregla que hemos visto en (4.52) adoptando el punto de vista del léxico e incluyendo la referencia a la relación entre el objeto de la activa y el sujeto de la pasiva. Para ver que esto es así, vamos a analizar la AVM que contiene la regla léxica de la pasiva. La AVM de la figura 4.31 establece que la entrada de la regla léxica de pasiva es un verbo transitivo. Sus argumentos son el sujeto, identificado por medio de un ÍNDICE i, y el objeto que está identificado por el símbolo no terminal ‘A’. En la salida de la regla de pasiva encontramos el mismo verbo en forma pasiva, el cual tiene como lista de argumentos en primer lugar, es decir como sujeto, el símbolo no terminal ‘A’ que en la entrada representaba al objeto y como segundo argumento se propone entre paréntesis, es decir de uso opcional, un sintagma preposicional introducido por la preposición ‘por’ y que tiene el mismo ÍNDICE i que representaba al sujeto de la construcción transitiva. Con este repaso por los tratamientos de la pasiva hemos podido ver algunos métodos formales que se utilizan actualmente para dar cuenta de cuestiones que, tradicionalmente, se han considerado fuera del alcance de la Gramática de Constituyentes. Para finalizar, presentaremos otro lote de tratamientos dedicados a las construcciones interrogativas que nos mostrará más detalles de algunos de estos nuevos procedimientos formales en los que las estructuras de rasgos parecen haber ganado un terreno muy importante a los árboles sintácticos. 195

 

1



ENTRADA



Vtrans ARGS ([INDIC i] ⊕ A



Vpart



1

ARGS A ⊕

  

Fpa

SINT [FORM pas]



SALIDA





Regla-Dominio inmediato

     

Métodos formales en Lingüística

FORM ‘por’ INDIC i

Figura 4.31. Regla léxica de pasiva en HPSG.

Consideremos de nuevo la oración que hemos analizado con el modelo chomskiano: (4.53) ¿Qué vio Pilar? En LFG la relación entre la posición de constituyentes no marcada y la posición de cualquier objeto lingüístico que no ocupa la posición básica para su argumento se representa por medio de la reentrancia, que hemos explicado en el capítulo anterior, apartado 3.4. Así, en una construcción interrogativa como (4.53) el interrogativo ‘qué’ se conectaría con la posición de objeto argumental mientras que el sujeto se enlazaría con una posición de adjunto. En la GPSG hay posiciones sintácticas y sus entradas léxicas correspondientes que van marcadas con un determinado rasgo que puede propagarse por el árbol desde la entrada léxica hasta la posición que debe ocupar. El rasgo especial se introduce en el léxico por medio del operador barra denominado SLASH ‘/’. Cuando un rasgo es introducido con la barra SLASH, la categoría que lo lleva debe obligatoriamente trasladarse por el árbol hasta encontrar la posición que está marcada con el mismo rasgo que se necesita cancelar. Esta posición ofrece una rama libre a la categoría que se ha trasladado por el árbol y la construcción que resulta corresponde a una construcción que transgrede el orden de constitu196

Extensiones de las Gramáticas Formales

 



  

ADJUNTO

PRED ‘Pilar’

TIEM pasado MODO indicativo ASP perfecto PRED ‘ver 〈(↑SUJ) (↑OBJ)〉’





OBJ

PRED ‘qué’



SUJ





INTERROG



yentes básico. Los rasgos que se propagan son, por ejemplo, +INTERRR, +RELATIVO, +TOPICO, etc. El desplazamiento del elemento marcado a lo largo del árbol no puede dejar de recordarnos a las transformaciones de movimiento de Chomsky.

Figura 4.32. Estructura-f para la construcción interrogativa (4.39).

En la figura 4.33 tenemos dos categorías con SLASH, por un lado el interrogativo ‘Qué’ que está marcado en el léxico con el rasgo {+INT} y por otro lado la posición de sujeto de la construcción interrogativa que va marcada como {+TÓPICO} por la derecha. La categoría del interrogativa asciende por el árbol hasta que puede satisfacer su búsqueda del rasgo {+INT}. En la posición de COMP encuentra la posición propia de los pronombres interrogativos y allí cancela el rasgo {+INT} desapareciendo el SLASH y resultando la categoría INTERROGATIVO. Para el sujeto, el rasgo SLASH con el rasgo {+TOPICO} por la derecha obliga al sujeto a moverse hacia la derecha por el árbol para encontrar la posición marcada con el rasgo {+TÓPICO-DER}. Este segundo desplazamiento se ha notado con una línea discontinua para distinguirlo del primero.

197

Métodos formales en Lingüística

O' O

INTERR{+INT} ENTRADA SN/+TÓPICO-DER

SV SV

vió

SN{+TÓPICO-DER}

SN/+INT

Pilar

Figura 4.33. Análisis en ‘SLASH’ en GPSG para la interrogativa (4.53).

En HPSG, las relaciones de larga distancia en las que el orden de constituyentes básico queda alterado por razones estructurales se formalizarán y se explicarán por medio de las matrices de rasgos tipificadas AVM. En este caso el método de análisis utiliza el rasgo SLASH como parte de los atributos de las estructuras de rasgos y la reentrancia para analizar este tipo de construcciones. En la figura 4.34 se muestra el análisis para una oración interrogativa muy simple. De todas formas, se puede consultar una detallada exposición sobre el tratamiento de las construcciones interrogativas en HPSG en Ginsburg y Sag (2000). La AVM de la figura 4.34 incluye una descripción de la posición extraoracional que corresponde a los elementos interrogativos (también a los pronombres de relativo, a los tópicos, etc.). Este lugar se relaciona con el tercer componente de la oración, el objeto, gracias a la reentrancia expresada con el índice 3. El orden de palabras final lo expresa la matriz correspondiente a la fonética, que muestra el orden de emisión de los elementos. Ya en la matriz de rasgos correspondiente a la oración tenemos el verbo, que es el núcleo de la construcción, que subcategoriza al objeto y al sujeto. En la posición argumental del objeto vemos un rasgo GAP, que es el que indica que el objeto no ocupa esa posición base. Si observamos los rasgos SLASH, LOC, INT y ALMACÉN veremos cómo el objeto está compartido por diferentes posiciones en el árbol para asegurar la relación entre el pronombre interrogativo y la posición de objeto directo del verbo. Por otra parte, el sujeto se desarrolla como argumento del verbo y aparece pospuesto tanto en la matriz de orden de emisión como en la matriz de orden de subcategorización. 198

  

Cláusulas de interrogatorio

NÚCLEO [INV + 1] ARGS 〈 〉 CONTENT 3 CAT

{ALMACÉN



LOC 5 INT 8



SINSEM



SLASH { }

 

FON {3+2+1}

8 }

SINSEM [CAT SN] CONTENT ‘qué’

Oración Interrogativa de inversión de sujeto

 

2

CAT

ARGS 〈 GAP

3

LOC

5

CONTENT ‘vió’

Sintagma Nominal FON

5

SLASH



SINSEM

Verbo trans CAT 2

1

CONTENT ‘Pilar’



1

ALMACÉN 8

SUJETO 1 〉



INT { } SINSEM

CONTENT 3

ALMACÉN 8

5



SLASH

  

Extensiones de las Gramáticas Formales

Figura 4.34. AVM para el tratamiento de las interrogativas en HPSG.

En general, en todos los ejemplos de este capítulo hemos incluido unas matrices de rasgos muy esquemáticas. En las aplicaciones de estas teorías lingüísticas a las lenguas naturales se utilizan estructuras de rasgos máximamente especificadas. Las etiquetas que están en cursiva representan las tipificaciones de estructuras de rasgos, de manera que cuando el lingüista asocie una etiqueta de la jerarquía de 199

Métodos formales en Lingüística

tipos a una categoría determinada, entonces una matriz de rasgos prefijada para ese tipo de categorías se generará en su lugar. Esto ahorra tiempo y trabajo a la hora de construir las AVM y, además, preserva la coherencia de las definiciones categoriales del lexicón. En este capítulo hemos mostrado los métodos formales más importantes utilizados en las teorías lingüísticas actuales, tanto para representar las construcciones que respetan la estructura de constituyentes no marcada como para tratar las construcciones que alteran dicha estructura de constituyentes base. La razón para incluir estos métodos formales que exceden o modulan la expresividad de las Gramáticas Formales de la Jerarquía de Chomsky empezó siendo la obtención o el acercamiento al grado de adecuación explicativo y, en particular, el dar cuenta del conocimiento lingüístico y de su naturaleza cognitiva, específica para los chomskianos y general para los cognitivistas. Pero también ha tenido una importancia capital en el avance de estos formalismos su aplicación al campo del procesamiento del lenguaje natural dentro del marco de la Lingüística Computacional y de la Inteligencia Artificial. Naturalmente, cae fuera del alcance de este libro incluir una exposición completa y detallada de las principales teorías lingüísticas, pero esperamos que la exposición realizada aquí haya suscitado la curiosidad del lector para que avance en tal empresa.

200

5

Funciones

En este capítulo desarrollaremos los métodos formales que están relacionados con las funciones matemáticas para procesar o representar el conocimiento lingüístico. Normalmente las formalizaciones basadas en funciones se han aplicado en Sintaxis y en Semántica. En el primer apartado presentaremos el concepto de función e introduciremos los elementos más habituales sobre los que se aplica en teoría lingüística: los predicados, las constantes y las variables. Utilizando tales unidades presentaremos el concepto de composicionalidad, que tan importante es en la teoría semántica. En el segundo apartado introduciremos las gramáticas basadas en la relación funtor-argumento y, como ejemplo de ellas, presentaremos los conceptos básicos de una Gramática Categorial. En el tercer apartado introduciremos el cálculo Lambda y mostraremos la utilidad tan grande que ha tenido en la teoría lingüística, en particular en la Semántica Formal que procede de los trabajos de Montague. Por último, en el cuarto apartado presentaremos dos aplicaciones de la composición de funciones que han resultado ser especialmente útiles en el tratamiento de los fenómenos de las lenguas naturales. Por un lado mostraremos el uso de las composiciones para generar matrices de rasgos a partir de árboles. Este procedimiento ha resultado sumamente interesante para las aplicaciones computacionales de la Gramática Léxico-Funcional, LFG, ya que permite abstraer la información de orden de palabras y pasar a un nivel más general de representación de la información lingüística de una manera procedimental. Finalmente, mostraremos la gran utilidad del uso de las composiciones de funciones en Gramática Categorial para tratar las alteraciones en el orden de constituyentes no marcado, culminando con un análisis de las construcciones con dependencias cruzadas que ya en el capítulo 2 se habían señalado como problemáticas para los métodos formales más habituales de representación de la información gramatical.

201

Métodos formales en Lingüística

5.1. Funciones entre predicados, constantes y variables. La composicionalidad En general las funciones matemáticas se utilizan en cualquier ámbito de la investigación científica para representar cualesquiera dos datos entre los que exista una dependencia. La manera más fácil de entenderlo es a través de conjuntos. Una función es la operación que asigna un único elemento a cada elemento del conjunto de partida. A dicho conjunto de partida se le denomina dominio y al conjunto objetivo se le denomina conjunto de llegada; a los elementos del conjunto de llegada que son imagen (reciben una aplicación) de algún elemento del dominio se les denomina rango.

flor amigo hija

masculino

lámpara coche té

femenino

Figura 5.1. Ejemplo lingüístico de función matemática.

Como se ve en la figura 5.1, podemos clasificar las palabras del español en virtud de su género. Es muy fácil comprobar que se trata de una función puesto que cada elemento del conjunto de partida, del dominio, recibe un solo valor en el conjunto de llegada, que en este caso constituye el rango. También se comprobará con facilidad que no tiene por qué darse la condición contraria, es decir, para que se establezca una relación de función no es necesario que solo un elemento del dominio se relacione con un elemento del conjunto de llegada. Nótese que en el ejemplo de la figura 5.1 los elementos del subconjunto formado por {flor, hija y lámpara} toman como valor {femenino}, mientras que los elementos del subconjunto {amigo, coche, té} toman como valor {masculino}. No tiene por qué darse una relación uno a uno para que se establezca una función. Hay cuatro tipos de funciones, dos sobreyectivas y dos no sobreyectivas. Una función es sobreyectiva cuando se agotan todos los elementos del conjunto de 202

Funciones

llegada al aplicarse los elementos del dominio, es decir cuando el conjunto de llegada es igual al rango. Estas son las funciones más habituales en lingüística. A su vez, las funciones pueden ser inyectivas o no inyectivas dependiendo de si hay, o no, el mismo número de elementos en el dominio y en el conjunto de llegada, dicho de otra forma dependiendo de si los elementos del rango reciben la aplicación de más de un elemento del dominio o no. Las funciones más habituales en lingüística son sobreyectivas y no inyectivas, como la de la figura 5.1, y las sobreyectivas inyectivas, que también se denominan biyectivas. INYECTIVA

FUNCIONES SOBREYECTIVA

NO INYECTIVA

A

W

A

X

B

X

B

Y

C

Y

C

Z

D

Z

D

A

W

A

W

B

X

B

X

C

Y

C

Y

Z

D

Z

NO SOBREYECTIVA

Figura 5.2. Tipos de funciones matemáticas.

Volviendo a la figura 5.1, lo más interesante es que podemos generalizar esta idea y categorizar todo el vocabulario de una lengua en relación a sus rasgos lin203

Métodos formales en Lingüística

güísticos. Si lo pensamos, caeremos en la cuenta de que las matrices de rasgos que hemos visto en el capítulo 3, apartado 3.4, son también un ejemplo de aplicación de las funciones a la configuración y definición del lexicón. Y también podremos ver con facilidad que sería posible definir las Gramáticas Formales en términos de funciones matemáticas en lugar de en términos de estructuras algebraicas. Considérense los siguientes ejemplos:

SINGULAR

NÚMERO

PLURAL

1

PERSONA

3

2

PRESENTE PASADO FUTURO

TIEMPO

Figura 5.3. Atributos con sus posibles valores en términos de funciones.

En la figura 5.3 se muestran algunos ejemplos de atributos en sendos conjuntos dominio con sus respectivos rangos de valores. Cada asignación individual de valores para una determinada entrada del lexicón sería una función, como en 5.4. En el resto de los apartados de este capítulo se mostrará cómo tratar, por medio de funciones, varios aspectos relevantes de las teorías lingüísticas, como las reglas gramaticales, la transliteración entre los árboles y las estructuras de rasgos, y la jerarquización de las matrices de rasgos con diferentes objetivos. En lo que queda de este apartado mostraremos una de las aplicaciones más básicas y fundamentales de las funciones en la teoría lingüística. Se trata de la fundamentación de la teoría semántica por medio del denominado principio de composicionalidad. 204

Funciones

TIEM

PRES

MODO

INDIC

ASP

PERF

NÚM

SING

PERS

3

Figura 5.4. Matriz de rasgos en términos de funciones.

El principio de composicionalidad fue introducido por el filósofo del lenguaje Gottlob Frege entre finales del siglo XIX y principios del siglo XX. El principio establece que: (5.1)

Principio de composicionalidad: El significado de las expresiones complejas está determinado por la composición semántica del significado de sus partes, y así recursivamente hasta que se alcanza el significado de las palabras simple.

En este principio la sintaxis y la semántica van en paralelo, al árbol sintáctico le corresponde una forma lógica que será la representación de la interpretación semántica. El significado de una forma lógica cambiará tanto si se cambian los elementos que la integran, como si cambia la estructura sintáctica con la que los relacionamos. Para ilustrar este principio nos será muy útil el uso de funciones. Para que sea más fácil de entender partiremos del significado de las unidades léxicas y las iremos componiendo en unidades más complejas hasta alcanzar la oración. Considérese la siguiente oración: (5.2)

Juan toca un acordeón de 120 bajos

En este apartado vamos a mostrar una presentación del principio de composicionalidad tratado en términos de funciones. Las funciones que vamos a asignar como categorías semánticas a las entradas léxicas son informales y construidas ad-hoc para este ejemplo, por lo tanto no se debe buscar en ellas la corrección lógico matemática sino la explicitud pedagógica. En particular, el uso de las variables no es riguroso puesto que se necesitaría el operador Lambda, del que tra205

Métodos formales en Lingüística

taremos en el apartado 5.3, pero serán perfectamente comprensibles y útiles para la exposición del principio de composicionalidad a través de funciones. Para ello, empezaremos introduciendo los individuos y las entidades con referencia definida. A estos elementos lingüísticos, como los nombres propios, se les asignan constantes que les relacionen inambiguamente con dicha referencia semántica, por ejemplo ‘j’ por ‘Juan’. A pesar de que lo que acabamos de decir es muy común en los trabajos de semántica formal, se debe tener en cuenta que, en realidad, los nombres propios de las lenguas naturales no son constantes matemáticas. Hay muchas personas que se llaman ‘Juan’ en el mundo e, intuitivamente, eso nos muestra que una constante no es la forma más adecuada de representar su significado ya que su referencia es única. En cambio, los nombres comunes son expresiones que denotan conjuntos. Se representan por medio de símbolos predicativos que se combinan con constantes o variables que representan a los individuos que pueden cumplir o no la propiedad denotada por él; así, ‘acordeón (x)’ o ‘bajos (y)’ expresan que ‘x’ cumple la propiedad de ser un ‘acordeón’ o que ‘y’ cumple la propiedad de ser un ‘bajo’. Se trata, como hemos dicho, de conjuntos de individuos pero, equivalentemente, pueden ser expresados también como funciones. Así, el conjunto de los niños traviesos puede quedar representado por la función cuyo dominio es el conjunto de todos los niños, cuyo rango es el conjunto formado por 1 y 0 (o por los valores ‘verdadero’ y ‘falso’) y que asigna a cada niño travieso el valor 1 y a cada niño no travieso el valor 0. Evidentemente, esta función distingue a los niños traviesos de los que no lo son tan bien como el propio conjunto de los niños traviesos y es formalmente equivalente al conjunto (en términos técnicos, dicha función es lo que se conoce como función característica del conjunto). En el contexto de la semántica formal es habitual hablar de conjuntos sobreentendiendo siempre que están representados por sus funciones características, de forma que todo el aparato formal empleado consista en funciones. Las relaciones binarias, a su vez, representan, o denotan, conjuntos de pares. Así, la relación ‘jugar’ (entendida como relación entre niños) estará formada por un conjunto de parejas de individuos, de forma que si Iris juega con Anabel y con Claudia pero no con Rita, los pares (Iris, Anabel) e (Iris, Claudia) pertenecerán a dicho conjunto, pero no así el par (Iris, Rita). La relación binaria también puede ser representada por medio de funciones: ‘jugar’ puede ser la función que aplicada a cada niño, nos da el conjunto de los niños con quienes juega. En nuestro ejemplo, la función ‘jugar’ aplicada a Iris nos dará el conjunto formado por Anabel y Claudia, que son las que juegan con ella. Veamos ahora como podemos interpretar formalmente los determinantes. Aunque a primera vista pueda sorprender, los determinantes se consideran como 206

Funciones

relaciones binarias entre conjuntos. ¿Por qué? Veamos la analogía con nuestro anterior ejemplo, ‘jugar’. ‘Jugar’ era una relación binaria entre individuos porque, combinado con dos individuos (como en ‘Iris juega con Anabel’), nos daba una afirmación susceptible de ser verdadera o falsa (y su denotación era el conjunto de pares de individuos de los que era verdadera). Pues bien, un determinante como ‘muchos’ puede considerarse como una relación binaria entre conjuntos porque combinada con dos conjuntos nos da igualmente una afirmación: combinada con ‘niños’ y ‘traviesos’ (cuyas denotaciones son, en ambos casos, conjuntos de individuos) nos da la afirmación ‘muchos niños son traviesos’. La denotación de ‘muchos’ será un conjunto de pares de conjuntos, en el que estarán el par formado por (los conjuntos de) los niños y los traviesos (puesto que muchos niños son traviesos), pero no el de los niños y los calvos (puesto que no muchos niños son calvos). Obviamente, la relación en cuestión consiste en una comparación de los tamaños de los dos conjuntos implicados: el hecho de que muchos niños sean traviesos consiste en una comparación entre la cantidad de niños y la de niños traviesos. También esta relación puede ser expresada como una función. En este caso, y por analogía con el de ‘jugar’, será una función que aplicada a cada conjunto de individuos nos dará un conjunto de conjuntos de individuos. Tal función, aplicada a ‘niños’, nos dará el conjunto en el que estarán el conjunto de los traviesos, el de los juguetones, etc., todos los conjuntos correspondientes a propiedades predicables de muchos niños. Según eso, la denotación de un sintagma nominal como ‘muchos niños’ será un conjunto de conjuntos: eso es lo que se conoce como cuantificador generalizado. Para los rectores como verbos y preposiciones vamos a usar predicados. La propiedad de ‘tocar un instrumento’ es un elemento del conjunto de propiedades que tiene un cierto individuo. Así, ‘tocar un instrumento’ es una de las propiedades que tiene ‘Juan’. El verbo transitivo ‘tocar’ es la relación que se establece entre dos argumentos, que corresponderán al sujeto y al objeto en sintaxis. En este caso concreto, ‘tocar’ relacionará al individuo representado por la constante ‘j’ y el conjunto de conjuntos denotado por el sintagma nominal ‘un instrumento’, a las variables sobre cuantificadores generalizados les vamos a denominar aquí Qi y lo notaremos como T(x,Q1) puesto que alguien toca y algo es tocado. En cuanto a las preposiciones, tienen que ser funciones que se toman como argumentos cuantificadores generalizados, puesto que se combinan con sintagmas nominales. Se denotan como D(Q2), donde Q2 representa una variable de cuantificador generalizado. Recogemos, a continuación las definiciones para predicado, variable, constante y cuantificador generalizado.

207

Métodos formales en Lingüística

CUADRO 5.1 Definiciones de algunos conceptos fundamentales de la semántica formal basada en funciones matemáticas. 

 





Constante: Símbolo que representa un valor determinado que no cambia en el transcurso de las operaciones lingüísticas. Se suele notar con las letras minúsculas de la primera mitad del alfabeto. Variable: Símbolo que puede tomar el valor de diversos objetos, dependiendo del contexto. Se suele notar con las letras de la segunda mitad del alfabeto. Predicado: Expresa una propiedad que se predica de argumentos expresados por constantes o variables. Corresponde a un conjunto, normalmente representado por su función característica. Se nota con una letra del alfabeto en mayúscula. Determinante: Expresa una relación entre pares de conjuntos que se comparan cuantitativamente. Se notan en general con la propia palabra en negrita (por ejemplo ‘una’, ‘la’, ‘muchos’, ‘bastantes’, ’pocos’, ’3’, etc.). Cuantificador generalizado: Es un conjunto de conjuntos y corresponde a la denotación de los sintagmas nominales típicamente -pero no siempre- formados por un determinante y un nombre común, aunque vale también para los SN constituidos por nombres propios.

Seguidamente vamos a presentar una aplicación muy intuitiva del principio de composicionalidad de Frege utilizando las definiciones que acabamos de introducir en los párrafos anteriores. El procedimiento fundamental que seguiremos se basa esencialmente en la combinación de los elementos que integran la oración siguiendo una estructura binaria de constituyentes. Correspondientemente al árbol que indica la estructura de constituyentes, habrá una estructura de forma lógica que nos dará el orden de composición entre los elementos lingüísticos. Es importante tener en cuenta que el principio de composicionalidad semántica se apoya en el análisis sintáctico para la construcción de la forma lógica, a diferente estructura sintáctica, diferente forma lógica asociada y, por lo tanto, distinta interpretación semántica. Por lo tanto, empezaremos construyendo el árbol sintáctico binario, como se muestra en la figura 5.5. A los elementos de dicho árbol sintáctico les asignaremos, uno a uno, una categoría semántica en paralelo con las categorías sintácticas. Las categorías semánticas estarán formuladas en términos de funciones, de manera que unas categorías se aplicarán sobre otras para formar categorías de complejidad cada vez mayor, hasta llegar a la categoría oración. El significado de las categorías más complejas se podrá descomponer binariamente en la composición del significado 208

Funciones

de las categorías del inmediato nivel inferior, y así hasta llegar a las categorías léxicas. Con este procedimiento obtendremos la forma lógica correspondiente a la oración (5.2).

O SN Juan

SV V

SN

toca DET un

N' N

SP

acordeón P

SN

de DET

N

120 bajos

Figura 5.5. Diagrama arbóreo para la oración (5.2).

En el cuadro 5.2 se muestran las asignaciones de categorías semánticas para estas palabras según las explicaciones que hemos desarrollado antes.

CUADRO 5.2 Asignaciones de categorías semánticas (1) (2) (3) (4) (5) (6) (7)

Juan: j toca: T(u,Q1) un: un(X) acordeón: A(x) de: D(Q2) 120: 120(Y) Bajos: B(y) 209

Métodos formales en Lingüística

El principio de composicionalidad semántica permitirá construir el significado de los elementos complejos a partir de los significados más básicos. Aquello en que consista la operación de composición de significados es más profundo y complejo de lo que puede expresar un simple cálculo de funciones pero, al menos, es una de las maneras más claras de representarlo. A continuación, se muestra la forma lógica construida a partir del árbol de la figura 5.5, asignándole las categorías semánticas especificadas en el cuadro 5.2 a las categorías sintácticas correspondientes. En el cuadro 5.3 se expondrá, paso a paso, el proceso de construcción. En la figura 5.6 se muestra la forma lógica ya construida. En el cuadro 5.3 se intenta mostrar el principio de composicionalidad utilizando categorías formuladas a través de funciones matemáticas entre predicados, constantes, variables, cuantificadores y los predicados complejos surgidos de sus composiciones. Sin embargo, hay que advertir que los semánticos lógicos no admitirían una derivación como esta, ya que hemos simplificado y obviado muchos aspectos problemáticos. No obstante creemos que lo que queríamos ejemplificar queda ilustrado de este modo con la claridad necesaria para entender el principio de composicionalidad.

CUADRO 5.3 Proceso de composicionalidad semántica para la oración (5.2) (1) El determinante 120(Y) se compone con el predicado B(y) formando el cuantificador generalizado 120B(y), ‘120 bajos’. (2) El predicado elevado (que contiene otro predicado como argumento) D(Q2)) toma como argumento 120B(y), formando el predicado complejo D(120B(y)) ‘de 120 bajos’. (3) El predicado A(Z) toma como argumento a D(120B(y)), formando el predicado complejo A(D(120B(y)))) ‘acordeón de 120 bajos’. (4) El determinante un(X) se compone con el predicado complejo A(D(120B(y)))) para formar el cuantificador generalizado unA(D(120B(y)))) ‘un acordeón de 120 bajos’. (5) El predicado T(u,Q1) se compone con el cuantificador generalizado unA(D(120B(y)))) formando el predicado T(u, unA(D(120B(y)))) ‘toca un acordeón de 120 bajos’. (6) Por último, la constante j se compone con el predicado T(u, unA(D(120B(y)))) para formar el predicado final T(j, un A(D(120B(y)))), ‘Juan toca un acordeón de 120 bajos’.

210

Funciones

O-T(j, un(A(D120(B(y)))) SN j

SV-T(u, un(A(D120(B(y)))) SN-un(A(D120(B(y)))

V

N'-A(D(120(B(y))))

T (u,Q1) DET un(X) N

SP-D(120(B(y)))

A(Z)

P

SN-120(B(y))

D(Q2) DET

n

120(Y) B(y)

Figura 5.6. Diagrama arbóreo para la forma lógica de la oración (5.2).

Como se ha puesto de manifiesto en la explicación, a partir de la forma lógica se han ido combinando a pares las categorías semánticas hasta componer todos los objetos lingüísticos, dando como resultado el significado total de la oración a través de la composición de las partes que lo integran. La composicionalidad es un claro ejemplo de la estructura recursiva del lenguaje natural, que es el reflejo de la recursividad sintáctica. Metafóricamente las variables podrían interpretarse como huecos en los que se introducen los argumentos componiendo así una pieza mayor que a su vez puede tener otros puntos donde encajar nuevas piezas hasta formar una construcción completa.

5.2. Gramáticas funtor-argumento: la Gramática Categorial Las categorías gramaticales y las reglas gramaticales también pueden fundamentarse a través de funciones. En particular, la Gramática Categorial es un modelo gramatical que se fundamenta en un punto de vista totalmente funcional. Por ejemplo, un verbo intransitivo se define en Gramática Categorial como una categoría lingüística que necesita tomar como argumento un sintagma nominal sujeto para dar como resultado una oración. En la función los argumentos formarán el conjunto dominio. 211

Métodos formales en Lingüística

Gráficamente se podría representar del siguiente modo: RESULTADO

ARGUMENTO

O

SN

Figura 5.7. Definición funcional de la categoría de un verbo intransitivo.

La categoría representada en la figura 5.7 se nota. El operador ‘\’ significa que la aplicación funcional debe realizarse a la izquierda, ya que la barra está inclinada a la izquierda. Por lo tanto, esta categoría ‘SN\O’ se lee como: soy una categoría que para formar una oración debo cancelar un sintagma nominal a mi izquierda. La categoría del verbo intransitivo coincide con la del sintagma verbal, es decir, un sintagma verbal en general tiene la misma categoría ‘SN\O’. Para un verbo transitivo, primero hay que tomar un sintagma nominal objeto directo por la derecha para formar un sintagma verbal. El operador de aplicación funcional a la derecha se nota con la barra inclinada hacia delante ‘/’. Por lo tanto, la categoría de un verbo transitivo en Gramática Categorial es ‘(SN\O)/SN’. ARGUMENTO

RESULTADO

SN

SN/O

Figura 5.8. Definición funcional de la categoría de un verbo transitivo.

La categoría del determinante debe cancelar un nombre común a la derecha para formar un sintagma nominal, la categoría se notaría como ‘SN/N’: ARGUMENTO

RESULTADO

N

SN

Figura 5.9. Definición funcional de la categoría de un determinante. 212

Funciones

Para poner algún ejemplo lingüístico interesante resulta imprescindible introducir la categoría de una preposición. La Gramática Categorial es tan sumamente lexicalista que no es lo mismo una preposición que modifique al verbo o al sintagma verbal que la que modifica al nombre. Nosotros vamos a introducir ahora la categoría del modificador del nombre. Tanto un adjetivo como un sintagma preposicional que actúe como complemento del nombre recibirán la categoría de modificador nominal, es decir una categoría que se aplica sobre un nombre para formar un nombre modificado, no un sintagma nominal, sino lo que en la teoría X’ de Chomsky se denominaría un N’. En la notación funcional de la Gramática Categorial tanto el adjetivo como el sintagma preposicional complemento del nombre recibirían la categoría ‘N\N’. Los modificadores nominales aparecen adyacentes a la derecha del nombre, por lo tanto buscan al nombre por la izquierda. Gráficamente se expresa en la figura 5.10. ARGUMENTO

RESULTADO

N

N

Figura 5.10. Definición funcional de la categoría de un modificador nominal.

Por lo tanto, la preposición que forme un complemento nominal deberá cancelar a su derecha un sintagma nominal para dar como resultado el complemento nominal que se quería formar. Dicha categoría preposicional recibiría la categoría funcional ‘(N\N)/SN’:

ARGUMENTO

RESULTADO

SN

N/N

Figura 5.11. Definición funcional de la categoría de una preposición (complemento nominal).

Las categorías de la Gramática Categorial pueden ser simples, como SN, O o N, o pueden ser complejas. Las categorías complejas están formadas por un ar213

Métodos formales en Lingüística

gumento y un resultado entre los que media un operador que indica la direccionalidad de la aplicación de la función. La categoría compleja se denomina categoría funtora. Nosotros las denominamos de forma generalizada categorías funtorargumento puesto que tales categorías complejas pueden funcionar por sí solas como funtores, pero muy a menudo también se toman como argumentos de otra categoría funtora que tiene, a su vez, como argumento una categoría funtora. Este último caso recursivo lo ejemplificaremos más adelante, empezaremos con los casos más sencillos de categorías simples y categorías funtoras sin recursividad como las que hemos introducido en las figuras 5.7 a 5.11. Con las categorías que hemos introducido hasta aquí ya podríamos analizar, en términos de funtor-argumento, la oración (5.2), que repetimos de nuevo: (5.2)

Juan toca un acordeón de 120 bajos.

Para expresar la operación de aplicación funcional entre, por un lado, las categorías funtoras (que deben cancelar un argumento para formar una nueva categoría) y, por otro, las categorías que se toman como argumento se postulan dos reglas, una de aplicación funcional a la derecha y otra de aplicación funcional a la izquierda. Veamos la que afecta al operador ‘/’. (5.3)

Regla de aplicación funcional a la derecha (/) X/Y Y → X

La regla de aplicación funcional a la derecha simplemente dice que una cierta categoría funcional formada a partir del operador ‘/’, debe encontrar su argumento ‘Y’ a la derecha para cancelarlo y formar una categoría ‘X’. En cambio, con respecto a la regla de aplicación funcional a la izquierda hay que seguir el mismo proceso pero buscando por la izquierda con el operador ‘\’. (5.4)

Regla de Aplicación Funcional a la Izquierda (\) Y Y\X → X

Para hacer un análisis de la oración (5.2) en términos de esta Gramática Categorial que hemos introducido informalmente primero tenemos que asignar las categorías que hemos definido a cada palabra de la oración y luego irlas combinando a pares guiados por los operadores y por las reglas de cancelación (5.3) y (5.4), tal y como se muestra en la figura 5.12. En dicho diagrama se muestra paso a paso la cancelación de los argumentos por medio de las respectivas aplicaciones funcionales. Al lado de cada categoría obtenida hemos escrito la cadena de palabras que representaría dicha categoría. 214

Funciones

En cada paso solo se cancela un argumento por medio de una aplicación funcional hasta obtener la categoría oración. Como pone de manifiesto este análisis, esta es una gramática sumamente lexicalista ya que solo dispone de dos reglas y toda la combinatoria sintagmática está dirigida por las categorías funtor-argumento. Juan SN

toca (SN\O)/SN

un SN/N

acordeón N

de (N\N)/SN

120 bajos SN/N N ____________(/) SN:120+bajos ______________________(/) N\N:de+120+bajos _________________________________(\) N:acordeón+de+120+bajos _________________________________________(/) SN:un+acordeón+de+120+bajos ______________________________________________________(/) SN\O:toca+un+acordeón+de+120+bajos ________________________________________________________________(\) O:Juan+toca+un+acordeón+de+120+bajos

Figura 5.12. Análisis funcional de la oración (5.2) con Gramática Categorial.

Después de esta presentación informal de la Gramática Categorial vamos a profundizar un poco más en alguna de sus propiedades. Hemos presentado la definición de las categorías funtor-argumento a través de los gráficos de las funciones que entrañan, pero la definición de tales categorías suele hacerse recursivamente. Teniendo en cuenta un conjunto de partida de categorías básicas, como {O, N, SN}, se puede lograr un número infinito de categorías funtor-argumento formando funciones con los operadores de aplicación funcional a la izquierda y a la derecha sobre el conjunto de categorías básicas más el conjunto de categorías ya obtenidas. Es decir: (5.5)

Definición de categoría funtor-argumento: a) el conjunto base de categorías es {O, N, SN} b) el conjunto de operadores es {/, \} c) una categoría funtor-argumento está formada por una categoría base o por una categoría funtor-argumento a la que se le suma un operador y luego otra categoría base o funtor-argumento d) todas las categorías se forman así y nada más es una categoría 215

Métodos formales en Lingüística

Es decir, que tanto pueden ser categorías bien formadas de la Gramática Categorial una categoría como ‘SN/N’, donde todas las categorías que forman las partes de las categorías funtor-argumento son categorías básicas o la categoría (SN\O)\(SN\O), en la que las dos categorías ‘SN\O’ que forman el resultado y el argumento son, a su vez, categorías funtor-argumentos. Naturalmente también puede darse el caso de una categoría funtor-argumento en la que uno de los componentes sea una categoría básica y el otro sea una categoría funtor-argumento, como por ejemplo la categoría ‘(SN\O)/SN’, donde por un lado tenemos la categoría básica SN y, por otro, la categoría funtor-argumento. La definición de categoría que hemos mostrado en (5.5) más las dos reglas de aplicación funcional de (5.3) y (5.4) constituyen una Gramática Categorial básica según la formuló Bar-Hillel (1953). No obstante, la primera formulación de la Gramática Categorial la hizo Ajdukiewicz (1935). Esa primera propuesta era una gramática puramente basada en funciones, sin direccionalidad de búsqueda. Esto tiene el inconveniente de que no se puede dar cuenta del orden de palabras, pero tiene la ventaja de que indica las categorías universales interlingüísticamente. Es decir, un verbo transitivo expresado en el sistema de Ajdukiewicz sería una categoría que cancela un objeto y un sujeto, donde no se detalla el orden de palabras sino la naturaleza intrínseca de la categoría. A esta primera formulación de la Gramática Categorial propuesta por Ajdukiewicz (1935) se le denomina Gramática Categorial Unidireccional aunque, a mi juicio, sería mejor el término No-direccional, ya que no se especifica ningún orden de búsqueda preferente. La versión de la Gramática Categorial más utilizada es la propuesta por Bar-Hillel, que distingue entre la aplicación funcional por la derecha y la aplicación funcional por la izquierda. Se suele denominar Gramática Categorial Bidireccional y es la que hemos utilizado antes para el análisis ilustrativo de la oración (5.2). En dicha oración aparece una preposición que actúa como complemento del nombre, pero en esta teoría gramatical se contemplan asignaciones de categorías léxicas para dos tipos más de preposiciones. Por un lado, tenemos las denominadas preposiciones transitivas, que son aquellas que asignan caso argumental, como por ejemplo la preposición de dativo, que veremos un poco más adelante dentro de este apartado. Estas preposiciones transitivas reciben la categoría ‘SN/SN’, es decir, una categoría que para formar un sintagma nominal enriquecido de algún modo debe cancelar un sintagma nominal. El sintagma nominal resultante estará marcado con el caso que asigne la preposición. Sin embargo, existen otro tipo de preposiciones muy comunes en las lenguas del mundo. Se trata de las preposiciones que introducen modificadores adjuntos al 216

Funciones

sintagma verbal y que cumplen la misma función que los adverbios, como los que observamos en las siguientes oraciones: (5.6) (5.7) (5.8) (5.9)

La chica compró un libro en la librería. El director convocó una reunión a las 9. El profesor realizó una práctica con una colega. El niño depositó el gato con mucho cuidado.

En las oraciones (5.6) a (5.9) vemos oraciones con complementos adjuntos de lugar, tiempo, compañía y modo, respectivamente. Podríamos encontrar oraciones análogas con adverbios, como por ejemplo: (5.10) (5.11) (5.12) (5.13)

La chica compró un libro aquí. El director convocó una reunión temprano. El profesor realizó una práctica acompañado. El niño depositó el gato cuidadosamente.

Los adverbios de las oraciones (5.10) a (5.13) se consideran modificadores del sintagma verbal. Como los sintagmas verbales reciben la categoría ‘SN\O’, entonces los adjuntos de sintagma verbal recibirán el tipo ‘(SN\O)\(SN\O)’. Este tipo cancela un sintagma verbal a su izquierda para dar como resultado un sintagma verbal modificado. La modificación introducida se puede expresar muy fácilmente utilizando matrices de rasgos para representar las categorías, como se hace en la Gramática Categorial de Unificación. Simplemente se introduciría una actualización en el valor de los atributos correspondientes al lugar, tiempo, comitativo o manera. En relación a las preposiciones que introducen complementos adjuntos al sintagma verbal, el resultado de la combinación tiene que ser esa misma categoría ‘(SN\O)\(SN\O)’. La diferencia está en que las preposiciones deben cancelar un sintagma nominal a su derecha para formar dicha categoría. Por lo tanto, la categoría para una preposición que introduce un adjunto de sintagma verbal es ‘((SN\O)\(SN\O))/SN’. Con esta categoría la preposición puede cancelar primero un sintagma nominal a su derecha, como por ejemplo ‘la librería’ en el sintagma preposicional ‘en la librería’. Con ello conseguirá formar un adjunto de sintagma verbal ‘(SN\O)\(SN\O)’, que buscará a su izquierda un sintagma verbal para formar un nuevo sintagma verbal modificado. A continuación, mostramos una representación gráfica de la derivación sintáctica que acabamos de explicar:

217

Métodos formales en Lingüística La chica compró un libro en la librería SN/N N (SN\O)/SN SN/N N ((SN\O)\(SN\O))/SN SN/N N ______(/) ________(/) _________(/) SN SN SN _________________________(/) (SN\O)\(SN\O) __________________(/) SN\O _______________________________________________(\) SN\O _______________________________________________________(\) O

Figura 5.13. Diagrama que muestra el funcionamiento del adjunto de SV en Gramática Categorial.

En la figura 5.13 se han cancelado todos los sintagmas nominales en el primer nivel de la demostración. A continuación, la categoría de la preposición ha tomado a su argumento formando un adjunto de sintagma verbal (SN\O)\(SN\O). Seguidamente se ha formado el sintagma verbal SN\O al combinarse el verbo transitivo con el sintagma nominal que está a su derecha. El adjunto de sintagma verbal toma esta categoría recién formada para formar un sintagma verbal modificado, en este caso con un atributo de lugar. Por último, el sintagma verbal se combina con el sintagma nominal sujeto para formar una oración. Como vemos, cada preposición es tratada según sus necesidades combinatorias y resulta totalmente diferente el tratamiento de una preposición de adjunto de sintagma nominal, como la de la figura 5.12, que la de una preposición de adjunto de sintagma verbal como la de la figura 5.13. Otra de las cuestiones que interesan en relación al hilo argumental que hemos seguido en esta obra es que la Gramática Categorial es equivalente a la Gramática Independiente del Contexto, según la prueba formal de Bar-Hillel, Gaifman y Shamir (1960). La equivalencia no es fuerte, es decir, no atribuyen las mismas estructuras a las mismas oraciones pero sí pueden generar el mismo lenguaje, el mismo conjunto de oraciones. Si se tratara de una Gramática Independiente del Contexto binaria, entonces sí que habría equivalencia fuerte siempre y cuando la Gramática Categorial sea no asociativa. La razón es que la Gramática Independiente del Contexto puede tener una ristra que combine más de dos categorías en el cuerpo de la regla, en cambio la Gramática Categorial siempre tiene que combinar las categorías de dos en dos. 218

Funciones

Así pues, una regla independiente del contexto para un sintagma verbal ditransitivo, como (5.14), daría un árbol como (5.15). (5.14) SV → V SN SP (5.15)

SV V

SN

SP

regaló un libro P

SN

a su hija

En cambio, en Gramática Categorial el análisis tendría que ser binario. Véase la categoría funtor-argumento de (5.16) y su derivación en (5.17). (5.16) ((SN\O)/SN)/SN La categoría (5.16) corresponde al verbo ditransitivo, en el ejemplo ‘regaló’. La categoría compleja ((SN\O)/SN)/SN primero cancelará el sintagma nominal objeto directo, que es el SN más exterior, y una vez formada la categoría ‘(SN\O)/SN’ se procederá a cancelar el sintagma nominal objeto indirecto, dando como resultado el sintagma verbal SN\O. Para que se entienda más claro podríamos anotar la categoría con subíndices relativos a la función gramatical, lo cual daría como resultado la categoría anotada ((SN\O)/SN)OI/SNOD, que podría representarse de forma más completa en las formulaciones que incorporan matrices de rasgos, como la Gramática Categorial de Unificación propuesta por Henk Zeevat o por el español Moreno Torres y Solias (1990). (5.17)

regaló un libro a su hija (SN\O)/SN/SN SN/N N SN/SN SN/N N ______(/) ________(/) SN:un+libro SN:su+hija ___________________(/) ______________(/) (SN\O)/SN:regaló+un+libro SN: a+su+hija ____________________________________(/) SN\O:regaló+un+libro+a+su+hija 219

Métodos formales en Lingüística

En la derivación (5.17) solo se realizan combinaciones binarias. En el primer nivel bajo el léxico se combinan las categorías de un+libro, aplicándose ‘SN/N’ sobre ‘N’ y dando como resultado ‘SN’ y por el mismo procedimiento su+hija. En el próximo nivel se combina el verbo ditransitivo regaló+(un+libro), aplicando la categoría verbal ‘(SN\O)/SN/SN’ al ‘SN’, la categoría resultante será ‘(SN\O)/SN’ que busca al objeto indirecto. Como decíamos más arriba, en Gramática Categorial las preposiciones que asignan caso se consideran preposiciones transitivas y reciben la categoría ‘SN/SN’, que tomará un sintagma nominal para dar como resultado un sintagma nominal con caso, dativo en este ejemplo. De nuevo, usando matrices de rasgos es muy fácil ver la diferencia entre ambos sintagmas nominales, pero también se podrían usar subíndices como ‘SNdat/SN’ o ‘(SN\O)/SNdat/SNac’ para expresar que las categorías rectoras asignan caso. Así pues, en el penúltimo nivel se forma el ‘SN’ dativo al componer la preposición con el ‘SN’. En el último nivel se forma el sintagma verbal ‘SN\O’. Sin embargo, este análisis binario no cae fuera del alcance expresivo de la Gramática Independiente del Contexto. Una versión de Teoría X’ de la regla (5.14) podría dar un análisis paralelo al que acabamos de exponer en Gramática Categorial. Veámoslo en el diagrama arbóreo (5.18). (5.18)

SV V' V

SP SN

P

SN

regaló un libro a su hija

Si leemos el árbol (5.18) al modo lexicalista, de abajo hacia arriba, partiendo del léxico, primero se combina el verbo con el sintagma nominal objeto directo y luego esta amalgama, que correspondería a la categoría funtor-argumento ‘(SN\O)/SNdat’, se combina con el objeto indirecto, que aquí hemos representado por medio de un sintagma preposicional porque es lo habitual en los trabajos realizados con Gramáticas Independientes del Contexto. Pero lo relevante es que el diagrama arbóreo (5.18) es equivalente a la derivación (5.17), que sería un análisis en términos de estructura de constituyentes binaria. En el programa Minimista, última versión del paradigma chomskiano, la regla de combinatoria sintáctica es Fusión, tal y como habíamos introducido en el capí220

Funciones

tulo 4, apartado 4.2. Esta regla es una formulación en términos de Gramática Independiente del Contexto de la visión lexicalista de la combinatoria categorial. Recordemos que la regla de Fusión establece que una categoría A se combina con una categoría B para formar una categoría C siguiendo las directrices establecidas previamente en el lexicón. Su formulación habitual es: (5.19) Regla sintagmática de Fusión: A B → C. La regla (5.19) podría expresarse en formato de una función diádica, donde se establece que para formar C hay que cancelar a y b: (5.20) C (a, b) En realidad, cualquier constituyente puede fragmentarse de manera que podamos expresar la jerarquía sintáctica en términos de funciones diádicas y cualquier regla Independiente del Contexto que sea binaria podría expresarse por medio de funciones.

5.3. Operador Lambda: la alteración en el orden básico de constituyentes Otra de las herramientas formales que más juego ha dado en el uso de funciones para la formalización de los lenguajes, naturales o formales, es el cálculo Lambda (cálculo-λ). El cálculo Lambda lo propuso Alonzo Church en 1934 con el fin de profundizar en la teoría de funciones, su computabilidad y su recursividad. Ha mostrado ser muy útil, tanto para la representación formal de la semántica del lenguaje natural como para dotar de expresividad a los lenguajes de computación. El discípulo de Alonzo Church más famoso y con el que trabajó más en profundidad fue Alan Turing, quien fundó la teoría de la computación y propuso el concepto de máquina de Turing, que es formalmente equivalente a una Gramática Irrestricta, de tipo 0, en la Jerarquía de Chomsky. Church y Turing son padres de la famosa Tesis Church-Turing que afirma la equivalencia entre funciones computables y Máquinas de Turing. El cálculo Lambda tiene como herramienta formal fundamental el operador-λ, también denominado abstractor-λ, aunque quizás en Lingüística podría ser más apropiado llamarle extractor-λ puesto que permite modelizar el tratamiento de las discontinuidades de constituyentes, ya sea a base de movimientos de categorías o a base de reentrancias o de puras categorías discontinuas. 221

Métodos formales en Lingüística

Vamos a explicar a continuación cómo actúa el operador-λ siguiendo a Dowty, Wall y Peters (1981: 98 y ss.). Si tenemos una fórmula lingüística ϕ, entonces λxϕ denotará un conjunto especificado por ϕ en relación a la variable x, que en términos matemáticos denotará su función característica. Considérese el predicado diádico (5.21), donde L es ‘leer’, x es el que lee e y es lo leído: (5.21) L(x,y) Y su posible instanciación ‘Iris lee Sandokán’, representada por medio de las constantes i (‘Iris) y s (‘Sandokán’). (5.22) L(i,s) Entonces, la abstracción (5.23) denota el conjunto de entidades que Iris lee: (5.23) λx[L(i,x)] Mientras que la abstracción (5.24) denota el conjunto de entidades que leen el libro s, ‘Sandokán’: (5.24) λx[L(x,s)] Estas fórmulas se denominan abstracciones sobre predicados. La fórmula (5.24) se lee ‘es un x tal que [L(x,s)]’, es decir, representa la propiedad de ‘leer Sandokán, de los que tienen la propiedad de leer Sandokán’. Correspondientemente, la fórmula (5.23) representaría la propiedad de ‘ser leído por Iris’. Tanto (5.23) como (5.24) denotan predicados de un argumento en virtud del operador-λ, es decir, que deben cancelar un individuo o entidad para formar enunciados completos a pesar de que en origen el predicado (5.20) es diádico. Así lo ejemplificamos en (5.25), donde se provee una constante s para instanciar la única variable libre que hay, x: (5.25) λx[L(i,x)] (s) Recíprocamente, podemos expresar la siguiente fórmula equivalente en el caso de que el término desconocido hubiera sido el sujeto: (5.26) λx[L(x,s)] (i) 222

Funciones

A su vez, (5.25) y (5.26) son equivalentes a (5.27) en virtud de la denominada conversión-λ, que explicaremos a continuación. (5.27) [L(i,s)] La conversión-λ establece que una abstracción general como (5.28): (5.28) λx[…(x)…] (α) Es lógicamente equivalente a: (5.29) […α…] En (5.29) se habrían instanciado con α todas las apariciones de la variable x en la fórmula λx[…(x)…]. Así, por ejemplo, en una coordinación como la de la oración (5.30): (5.30) Iris canta e Iris baila. La abstracción-λ correspondiente sería: (5.31) λx[C(x) ∧ B(x)] (i) Y su conversión-λ sería la fórmula: (5.32) C(i) ∧ B(i) Y no: (5.33) C(i) ∧ B(x) Si quisiéramos representar la oración (5.34): (5.34) Iris canta y Anabel baila Entonces tendríamos que añadir otra variable para representar que los sujetos tienen una referencia distinta (siendo ‘a’ la constante que simboliza la denotación del sujeto ‘Anabel’). Así: (5.35) λxλy [C(x) ∧ B(y)] (i) (a) 223

Métodos formales en Lingüística

Y por conversión-λ obtendríamos la fórmula (5.36) siguiendo el protocolo de instanciar primero la variable que aparece ligada al primer operador-λ y procediendo así en orden: (5.36) C(i) ∧ B(a) El operador-λ resultará útil para expresar extracciones de constituyentes a una posición no argumental o distinta de su posición argumental básica. En particular, se revela útil para la representación de la semántica de las pasivas, las interrogativas, las construcciones de relativo y, en general, para todas aquellas en las que hay que representar un significado conceptual común pero una estructura sintáctica diferente. Como ya se ha comentado a lo largo de este libro, las construcciones pasivas preocupan a los lingüistas que quieren representar que el significado de una oración activa y su correspondiente pasiva es el mismo (aunque pragmáticamente no es igual usar una construcción que otra, especialmente si no se emite el complemento preposicional agente). Considérese (5.37): (5.37) Sandokán es leído por Iris. Utilizando solo predicados, tanto la pasiva como la activa se formalizan de la misma manera, como (5.38): (5.38) L(i,s) Esta representación no permite reflejar la diferencia entre las dos construcciones. Por otra parte, interesaría expresar semánticamente que la propiedad ‘ser leído por Iris’ se predique de ‘Sandokán’. Esto podemos formalizarlo con el operador-λ de una forma muy sencilla, siguiendo las explicaciones que hemos introducido en este apartado: (5.39) λx[L(i,x)] La abstracción (5.39) expresa la propiedad de ‘ser leído por Iris’. Correspondientemente (5.40): (5.40) λx[L(i,x)](s)

224

Funciones

Expresa que ‘Sandokán es leído por Iris’ y equivale a L(i,s). A su vez, λyλx(Ly,x) expresa la relación de ‘ser leído por’, así que es la propiedad de ‘ser leído por Iris’ y, en cambio, ‘Sandokán es leído por Iris’ se expresa del siguiente modo: (5.41) λyλx[L(y,x)] (i)(s) Que equivale a (5.42) por conversión-λ: (5.42) λx[L(i,x)](s) Que, de nuevo por conversión-λ, equivale a (5.43): (5.43) L(i,s) Sin embargo, lo que puede ser más importante del uso del operador-λ es que nos muestra diferentes estructuras para las oraciones activas y las correspondientes pasivas. En particular, ‘Iris lee Sandokán’ corresponde a la fórmula λyλx[L(xy)](s)(i): (5.44) Iris lee Sandokán: λyλx[L(xy)](s)(i) Mientras que ‘Sandokán es leído por Iris’ corresponde a λyλx[L(yx)](i)(s). (5.45) Sandokán es leído por Iris: λyλx[L(yx)](i)(s) En la fórmula (5.44) primero se instanciará la variable y con la primera constante, que en este caso es s. De esta forma se cancelará el objeto directo. Luego se instanciará x con i, el sujeto. En cambio, en (5.45) la primera constante es i, por lo que y, que ahora está en la posición de sujeto, tomará ese valor y el objeto pasará a ser s, que instanciará a x, que ahora se encuentra en la segunda posición argumental. De esta manera tan elegante se representan las diferencias entre ambas construcciones. Pero posiblemente el aspecto más interesante de las formalizaciones (5.44) y (5.45) es que, por conversión λ, ambas equivalen a L(i,s), representando de esta forma el significado común subyacente que ya habíamos anticipado en (5.43) y que aquí se ha conseguido expresar formalmente: (5.46) Iris lee Sandokán: L(i,s): Sandokán es leído por Iris

225

Métodos formales en Lingüística

De esta forma se puede dar cuenta del significado de la pasiva con una representación que, por una parte, expresa la relación entre el significado de la activa y su correspondiente pasiva y, por otra parte, expresa la diferencia sintáctica entre ambas. Análisis paralelos al que hemos presentado aquí se podrían desarrollar para otras construcciones relacionadas semánticamente, pero que estructuralmente son diferentes desde el punto de vista sintáctico, como por ejemplo las estructuras de relativo, las interrogativas y otras construcciones que hemos tratado a lo largo de este libro como alteraciones a partir de un orden de constituyentes no marcado. Richard Montague fue, esencialmente, quien incluyó el operador-λ como herramienta para la formalización de las lenguas naturales en el marco de lo que se ha venido a denominar Semántica de Montague. La recopilación de la obra original de este autor en encuentra en Thomason (1974), aunque la exposición ordenada y detallada de dicho formalismo lingüístico es Dowty Wall y Peters (1981) y, en español, Moreno Cabrera (1985). Partee (2006) representa una notable reelaboración de estos materiales. En la semántica de Montague se defiende que las lenguas pueden ser tratadas como sistemas lógicos desde un punto de vista teórico. Su trabajo estuvo particularmente ejemplificado con la lengua inglesa, pero al estudiarlo es evidente que el formalismo es aplicable a cualquier lengua. La semántica de Montague propone un sistema lógico que procese la sintaxis y la semántica en paralelo. Él utilizó reglas Independientes del Contexto pero, en realidad, el sistema sintáctico que resulta paralelo a la semántica de Montague es una Gramática Categorial. No obstante, en lo que este autor profundizó hasta puntos realmente elaborados fue en la fundamentación de la semántica formal para las lenguas. En dicha semántica se utilizan elementos que se han ido presentando a lo largo de este capítulo de forma muy intuitiva, más otros tantos bastante más complejos. Para exponerlo de forma muy sencilla, se podría partir de una lógica de predicados clásica cuyo lenguaje permite hablar de individuos, de los que se predican propiedades y relaciones. Estos individuos pueden cuantificarse o bien con el cuantificador existencial (∃ ‘existe algún’) o con el cuantificador universal (∀ ‘para todo’). Este lenguaje básico se amplía primero con el operador-λ y, después, con una generalización de variables, propiedades y relaciones. Así se admitirán propiedades de segundo orden (esto es, propiedades que se predican, no ya de individuos, sino de propiedades), propiedades de tercer orden, relaciones entre propiedades e individuos, etc. En conjunto esto da lugar a, lo que se denomina, un lenguaje de tipos que admite todas las clases de expresiones lógicamente imaginables. En él hay variables de todos los tipos y sobre todas ellas actúa el abstractor-λ. 226

Funciones

Finalmente se añaden operadores intensionales, desembocando todo en una semántica intensional, que es una de las características formales de la semántica de Montague. La diferencia entre extensión e intensión también fue introducida por Gottlob Frege con la terminología de referencia y sentido. La extensión, o referencia, son los elementos del mundo real sobre los que se aplica una expresión, en cambio la intensión, o sentido, se refiere al contenido conceptual independientemente de la expresión concreta que se haya utilizado. Para representar formalmente el concepto de intensión, Montague adopta el concepto de mundo posible (generalizado desde Kripke en la Lógica Modal). Un mundo posible es, intuitivamente, un mundo donde los objetos tienen propiedades distintas a las que tienen en el mundo real. La intensión de una propiedad, también intuitivamente, es el contenido conceptual asociado a ella. Ese contenido es el que nos permite identificar los objetos que cumplen la propiedad, esto es, determinar su extensión. Aplicando esto a los mundos posibles, podemos pensar que la intensión de la propiedad es la que nos permite en cada mundo posible conocer su extensión. De ahí que Montague proponga identificar formalmente la intensión de una expresión cualquiera con una función aplicada a cada mundo posible (como argumento de la función), que nos da como valor la extensión de esa expresión en ese mundo. El haber formalizado una semántica basada en intensiones constituye un paso hacia adelante muy importante. Sin embargo, complica considerablemente el aparato lógico matemático y hace que la formalización sea algo farragosa, pero constituye un cambio cualitativo importantísimo. A todo esto, las unidades elementales sobre las que se aplica toda esta maquinaria formal son categorías al estilo de las que hemos explicado para la Gramática Categorial, pero en su versión semántica, en la que se suelen denominar tipos. Los tipos básicos son entidad e y valor de verdad t y, para que se vea el paralelismo, un verbo transitivo recibiría el tipo <e,<e,t>>. Dicha categoría debe cancelar una entidad, el objeto directo, para dar como resultado otro tipo <e,t> que, a su vez, debe cancelar de nuevo una entidad, esta vez el sujeto, para dar como resultado un valor de verdad t, es decir una oración. Así pues, el tipo <e,<e,t>> es el correlato semántico de la categoría sintáctica ‘(SN\O)/SN’. Lamentablemente, la semántica de Montague está incompleta. Richard Montague murió muy joven y no pudo culminar su desarrollo de una semántica formal completa para el lenguaje. Los trabajos posteriores son notables, pero afectan a aspectos fragmentarios de la formalización de la semántica. Nada tan redondo, armonioso y bien trabado como la obra de Richard Montague ha sido elaborado desde entonces.

227

Métodos formales en Lingüística

5.4. Aplicaciones lingüísticas de la composición de funciones En este apartado vamos a tratar de algunas aplicaciones de la composición de funciones al estudio del lenguaje. La primera de ellas será una aplicación desarrollada en Gramática Léxico-Funcional, LFG, y la segunda una desarrollada en Gramática Categorial. Los análisis lingüísticos desarrollados en LFG parten del lexicón, que está formado por un conjunto de matrices de rasgos. Las estructuras de rasgos lingüísticos que configuran el lexicón se proyectan en la estructura de constituyentes (estructura-c) y de esta se extrae la información necesaria para construir la estructura funcional (estructura-f) por medio de la composición de funciones aplicada a las anotaciones funcionales que aparecen en el diagrama arbóreo que configura la estructura-c. Ante todo explicaremos de forma muy sencilla en qué consiste la composición de funciones. Cuando tenemos dos funciones, de modo que siempre el dominio de la 2ª incluya al recorrido de la 1ª, se puede definir una nueva función, la composición de ambas, que consiste simplemente en enlazar las dos funciones dadas, esto es, aplicarlas sucesivamente: dado un elemento de dominio de la 1.ª función, se aplica esta obteniendo un valor al que, a su vez, se le puede aplicar la 2.ª función (puesto que pertenece a su dominio), obteniendo así un nuevo valor, que es el que la función compuesta asignará al elemento dado. Vamos a ejemplificarlo en un caso particular. Consideremos los rasgos morfológicos de un núcleo léxico, como un verbo. Los valores para los atributos estarán asignados en el nivel léxico, pero las proyecciones sintagmáticas del núcleo no tendrán asignado más que una variable como valor de los mismos atributos. Si quisiéramos que los valores concretos de la categoría léxica se transmitieran por el árbol hasta alcanzar la categoría del sintagma, podríamos establecer una composición de funciones que hiciera ascender los valores desde el pie del árbol hasta el nudo sintagmático que lo domina. Así, si partimos de una asignación léxica de un verbo que posee los pares [pers 3, num sing, tiempo pasado] y la queremos aplicar a una matriz de rasgos que tiene tales atributos, pero con variable asignadas como valores porque se trata de una proyección V’ de dicho verbo y a su vez esta proyección V’ se aplica a una categoría de sintagma verbal, en la que también aparecen dichos atributos pero, de nuevo sin tener los valores asignados. Entonces podríamos crear una nueva función que fuera desde dominio de la 1ª función al rango de la última, pudiéndole asignar los valores de persona, número y persona directamente al sintagma verbal. Gráficamente se representaría como muestra la siguiente figura 5.14.

228

Funciones

LÉXICO

V’

SINTAGMA VERBAL

pers 3

pers x

pers x

num sing

num y

num y

tiempo pas

tiempo z

tiempo z

Figura 5.14. Fi 5 14 Ejemplo de composición de funciones.

En LFG las entradas léxicas contienen anotaciones funcionales que permitirán dirigir la composición de funciones para crear la estructura funcional a partir de la estructura de constituyentes. Algunos ejemplos de entradas léxicas en Gramática Léxico-Funcional serían: (5.47) Iris:

(↑CAT) = SN (↑PERS) = 3 (↑NUM) = sing (↑GEN) = fem (↑DEF) = + (↑PRED) = ‘Iris’

(5.48) Sandokán:

(5.49) lee:

(↑CAT) = SN (↑PERS) = 3 (↑NUM) = sing (↑GEN) = masc (↑DEF) = + (↑PRED) = ‘Sandokán’

(↑CAT) = V (↑PERS) = 3 (↑NUM) = sing (↑TIEM) = pres (↑PRED) = ‘leer 〈(↑SUJ) (↑OBJ)〉’

229

Métodos formales en Lingüística

Las flechas nos indican que la información presente en la matriz de rasgos debe ascender por el árbol, una vez las estructuras de rasgos se instancien en la estructura-c: O ↑=↓

(↑SUJ)=SN

O

(↑GEN)=fem (↑DEF)=+

(↑PRED)=‘Iris’

O

lee

Nprop

(↑CAT)=V (↑PERS)=3 (↑NUM)=sing (↑TIEMP)=pres

(↑PRED)=‘leer<(↑SUJ)(↑OBJ)’

Sandokán



(↑NUM)=sing

O



(↑PERS)=3





(↑CAT)=SN



Iris

(↑CAT)=SN (↑PERS)=3 (↑NUM)=sing (↑GEN)=masc (↑DEF)=+



Nprop

(↑PRED)=‘Sandokán’

Figura 5.15. Estructura-c funcionalmente anotada en LFG.

Y ahora es cuando entra en juego la composición de funciones. Las flechas indican las funciones que ascenderán por el árbol de manera que, por ejemplo, toda la información que está presente en la matriz de rasgos del sintagma nominal sujeto ascenderá por el árbol en virtud de la anotación funcional (↑SUJ)=↓SN, que dice que los rasgos que corresponden a la categoría funcional SUJ son los que dependen del nodo sintagma nominal que domina dicha estructura de rasgos. Una 230

Funciones

vez han ascendido hasta encontrar la anotación funcional que los guía, se puede crear una nueva estructura de rasgos cuyo atributo es SUJ y el valor es la matriz de rasgos léxicos que constituían el pie del árbol. Igualmente se hará con el objeto bajo el atributo OBJ. El núcleo de la estructura-c es el verbo, que constituirá también el núcleo de la estructura-f. El sintagma verbal que lo domina está indicado con la anotación funcional ↑=↓, que indica que ese es el núcleo de la estructura-f. De esta manera, todos los pares atributo-valor que caracterizan al verbo pasarán a ser los valores de la oración. La matriz de rasgos que resulta de estas operaciones de flujo de rasgos es la siguiente:

SUJ  

OBJ  

(↑CAT)  =  SN     (↑PERS)  =  3   (↑NUM)  =  sing   (↑GEN)  =  fem   (↑DEF)  =  +   (↑PRED)  =  ‘Iris’    

(↑CAT)  =  SN     (↑PERS)  =  3   (↑NUM)  =  sing   (↑GEN)  =  masc   (↑DEF)  =  +   (↑PRED)  =  ‘Sandokán’  

(↑CAT)  =  V     (↑PERS)  =  3   (↑NUM)  =  sing   (↑TIEM)  =  pres   (↑PRED)  =  ‘leer  〈(↑SUJ)  (↑OBJ)〉’     Figura 5.16. Estructura-f para la estructura-c (5.42). La estructura-f conserva la información relevante sobre los rasgos gramaticales de la oración original, pero prescinde del orden de palabras y de la estructura 231

Métodos formales en Lingüística

jerárquica propios de la estructura-c. Como se ha mostrado en el capítulo 4, el nivel de estructuras-f se usa para representar la conexión que existe entre las construcciones con orden básico de constituyentes y las construcciones que semánticamente pueden relacionarse con ellas, pero que estructuralmente muestran un orden de constituyentes marcado, como las correspondientes interrogativas, construcciones de relativo, etc. Seguidamente vamos a mostrar otro uso de la composición de funciones radicalmente distinto dentro de la teoría lingüística. En la Gramática Categorial, Mark Steedman ha propuesto añadir una regla de composición funcional de categorías a la Gramática Categorial clásica. Tal y como explicábamos en el apartado 5.2, la Gramática Categorial clásica está formada por una regla de aplicación funcional hacia la derecha y otra de aplicación funcional a la izquierda. Este es el núcleo central de la Gramática Categorial que comparten todos los autores que investigan con este formalismo gramatical. Mark Steedman (1985, 1987, 1988) ha iniciado una nueva corriente dentro de esta teoría lingüística para extender su poder expresivo a otros fenómenos que van más allá de los fenómenos lingüísticos que se ciñen al orden básico de constituyentes. Una de las reglas que ha añadido Steedman es la de composición funcional, que tiene la siguiente forma: (5.50) Composición funcional a la derecha (C/) = X/Y Y/Z → X/Z Como se ve al leer, la regla X se aplica sobre Y, Y sobre Z y, por lo tanto, es lícito componer las dos funciones formando una nueva en la que el dominio Z se aplica sobre el rango X. Esta regla podría ser útil, por ejemplo, en el caso de coordinaciones como la siguiente: (5.51) La chica compró y puede leer ese libro En (5.51) la categoría que se asignaría a ‘compró’ y a ‘leer’ es la habitual para los verbos transitivos ‘(SN\O)/SN’. Si estuvieran junto a la conjunción podrían coordinarse sin problema alguno, ya que la conjunción recibe esta categoría ‘(X\X)/X’, es decir la de un elemento léxico que toma un cierto objeto lingüístico de categoría X por la derecha y otro de esa misma categoría por la izquierda para dar como resultado una nueva categoría de tipo X. Por ejemplo, en el sintagma ‘Juan y Luis’ tendremos dos SN y la X se instanciará por el valor que provee el contexto, así ‘(SN\SN)/SN’. La derivación será muy sencilla utilizando las reglas de aplicación funcional a la derecha y a la izquierda:

232

Funciones

(5.52) Juan y Luis SN (SN\SN)/SN SN _____________(/) SN\SN: y+Luis _________________(\) SN:Juan+y+Luis Sin embargo, en la oración (5.50) la X se instanciará por la categoría del verbo transitivo ‘(SN\O)/SN’ y, por lo tanto, tendremos una categoría para la conjunción ‘((SN\O)/SN) \ (SN\O)/SN)) / (SN\O)/SN’. Esta categoría debe cancelar un verbo transitivo tanto por la derecha como por la izquierda para dar como resultado una coordinación de verbos transitivos. Pero la categoría que tiene a su derecha no es un verbo transitivo sino un verbo modal, que recibe el tipo ‘(SN\O)/(SN\O)’, una categoría que toma un sintagma verbal para dar como resultado un sintagma verbal modificado con la modalidad de posibilidad. Solo con las reglas de aplicación funcional a la izquierda y a la derecha no se podría formar esta derivación sin más, puesto que hay discontinuidad entre las dos categorías de los verbos transitivos. Pero, en cambio, utilizando la regla de composición funcional, esta derivación sí que será posible: La chica compró y puede leer ese libro SN/N N (SN\O)/SN (VT\VT)/VT (SN\O)/(SN\O) (SN\O)/SN SN/N N _____(/) ___________________(C/)_________(/) SN:la+chica (SN\O)/SN: puede+leer SN:ese+libro _______________________________(/) ((SN\O)/SN)\( (SN\O)/SN): y+puede+leer _______________________________________(\) (SN\O)/SN: compró+y+puede+leer __________________________________________________(/) SN\O: compró+y+puede+leer+ese+libro __________________________________________________________(\) O: la+chica+compró+y+puede+leer+ese+libro

Figura 5.17. Derivación de la oración (5.50) en Gramática Categorial.

La derivación empieza formando los sintagmas nominales y componiendo las categorías del verbo modal con la del verbo transitivo ‘(SN\O)/(SN\O) (SN\O)/SN’, dando como resultado de la composición ‘(SN\O)/SN’. En la categoría de la con233

Métodos formales en Lingüística

junción hemos usado la categoría ‘(VT\VT)/VT’ como una abreviación de la categoría ‘((SN\O)/SN) \ (SN\O)/SN)) / (SN\O)/SN’. Seguidamente se empieza a cancelar la categoría de la conjunción, precisamente la categoría resultante de la composición funcional. Se coordinan los dos verbos y a continuación se cancela el objeto directo y, por último, el sujeto. La regla de composición de funciones no es solo útil en sí misma, sino que Steedman la ha utilizado mucho en combinación con las denominadas reglas de elevación de tipos para dar cuenta de los casos en los que hay alteraciones en la estructura de constituyentes. Las reglas de elevación de tipos permitirán cambiar el orden de cancelación de las categorías sin tener que aplicar ninguna regla que cambie el orden de las categorías (cuando en Gramática Categorial se habla de tipos, en la práctica, debemos interpretarlo como equivalente a categorías). Veamos en que consiste la elevación de una categoría. (5.53) Elevación de tipo a la derecha (T/): X= T/(X\T) La regla (5.53) permite tomar una categoría X y combinarla de una forma diferente a como estaba previsto. Por ejemplo, si se da un sintagma nominal sujeto y necesitamos combinarlo con el verbo transitivo antes de haber combinado el objeto directo, como ocurre en construcciones como (5.55), podríamos hacerlo y, por último, cancelar el objeto directo. (5.54) Mi prima compra, y su marido vende, antigüedades Mi prima compra y su marido vende antigüedades SN/N N (SN\O)/SN (X\X)/X SN/N N (SN\O)/SN SN ______(/) ________(/) SN:mi+prima SN:mi+marido _____(T/) _______(T/) O/(SN\O):mi+primasujeto O/(SN\O):mi+primasujeto ______________(C/) ________________(C/) O/SN:mi+prima+compra /SN:mi+marido+vende ______________________________(/) (O/SN)\ (O/SN):y+mi+marido+vende ____________________________________________(\) O/SN: mi+prima+compra+y+mi+marido+vende ___________________________________________________________(/) O: mi+prima+compra+y+mi+marido+vende+antigüedades

Figura 5.18. Derivación de la oración (5.54) en Gramática Categorial. 234

Funciones

Como muestra la figura 5.18, para analizar una construcción como (5.54) Steedman primero eleva el tipo a los respectivos sujetos utilizando la instanciación T=O, con lo que consigue el tipo ‘O/(SN\O)’ que debe cancelar un sintagma verbal para formar una oración. No cabe duda de que esa es una definición de un sujeto: una categoría que se combina con un sintagma verbal para dar como resultado una oración (compuesta de sujeto + predicado). Luego compone sendos sujetos elevados con el verbo transitivo, coordina las dos secuencias y por último cancela el objeto directo. Este procedimiento permite no tener que mover ni que duplicar el sintagma nominal objeto directo, operaciones que en realidad suponen unos mecanismos formales mucho más complejos que los que se han propuesto en el seno de la Gramática Categorial. Seguidamente mostraremos el mismo proceso pero a la izquierda, para lo que primero introduciremos la composición funcional a la izquierda y a continuación la elevación de tipos a la izquierda. Con ello podremos hacer análisis de fenómenos lingüísticos que impliquen composiciones hacia la izquierda, como por ejemplo las oraciones coordinadas con un solo verbo ditransitivo pero con dos pares de objetos directos e indirectos coordinados. Para ese tipo de oraciones en Gramática de Constituyentes se necesitaría hipotetizar un segundo verbo ditransitivo, pero en Gramática Categorial se pueden componer los respectivos objetos directos con sus correspondientes objetos indirectos y, una vez realizada la composición de sendos objetos, proceder a la cancelación del verbo ditransitivo. Primeramente introducimos la regla de composición funcional a la izquierda: (5.55) Composición funcional a la izquierda (C\) = Z\Y Y\X → Z\X Esta regla dice que una categoría busca un argumento Z para formar un Y y otra busca un argumento Y para formar un X, por lo tanto podemos componer las funciones y, si se encuentra un Z, podremos formar directamente un X ahorrándonos las Y intermedias. Esta regla se puede ejemplificar con el ejemplo de la coordinación de argumentos ditransitivos, el objeto directo y el objeto indirecto. Veamos la oración (5.56): (5.56) Juan regalará un libro a Iris y unas pinturas a Anabel En la oración (5.56) existen dos posibilidades: o bien suponer que hay un verbo elidido en el segundo conjunto coordinante, lo cual constituiría un problema bastante complicado de implementar formalmente, o bien suponer que ‘un libro a Iris’ y ‘unas pinturas a Anabel’ se coordinan. Esta segunda posibilidad suele sorprender un poco al principio porque supone una coordinación de secuencias que 235

Métodos formales en Lingüística

no forman un constituyente. Nótese que lo no marcado sería que los correspondientes objetos directos formaran un constituyente con sendos verbos transitivos y que, una vez formados, cancelaran los respectivos objetos indirectos. Pero como no aparece ninguna instancia de verbo transitivo en el segundo coordinante, también se podría suponer que el verbo que aparece, ‘regalará’, es compartido por ambas secuencias argumentales. Y esta es la estrategia más común en Gramática Categorial y, en particular, en el análisis de Steedman. Para analizar fenómenos en los que hay alteraciones en la estructura de constituyentes ya hemos visto que Steedman propone el uso combinado de la regla de composición con la regla de elevación de tipos. En este caso, como vamos a tener que usar la regla de composición funcional a la izquierda, necesitaremos también la regla de elevación de tipo a la izquierda. A continuación, vamos a mostrar cómo sería su formulación: (5.57) Elevación de tipo a la izquierda (T\) = (T/X)\T Combinando la regla (5.57) con la composición funcional a la izquierda (5.55) se puede conseguir el análisis que acabamos de describir. Obsérvese algunos detalles de notación que hemos utilizado en la derivación de la figura 5.19, hemos utilizado la abreviatura SV para la categoría ‘SN\O’ para que las categorías cupieran mejor en la derivación. Asimismo, se ha utilizado la categoría sin instanciar ‘(X\X)/X’ para la conjunción, como suele ser la práctica habitual entre los categorialistas para evitar que la categoría instanciada abarque un espacio excesivo. Las variables de dicha categoría se instanciarán a través del contexto en el momento de cancelarla. Ante todo se forman los sintagmas nominales y, seguidamente, se procede a la elevación de la categoría de los complementos argumentales. En la elevación de tipo a la izquierda del objeto directo se han asignado los siguientes valores: X = SN y T = SV/SN, mientras que en la del objeto indirecto se han asignado X = SN y T = SV. Las categorías que resultan son muy interesantes. La del objeto directo ‘((SV/SN)/SN)\(SV/SN)’ es una categoría que busca un verbo ditransitivo ‘(SV/SN)/SN’ por la izquierda para dar como resultado una categoría que para formar un sintagma verbal todavía tiene que cancelar un sintagma nominal (el objeto indirecto). El sintagma nominal objeto indirecto produce una categoría elevada ‘(SV/SN)\SV’, que tiene que cancelar un sintagma verbal al que le falta un sintagma nominal objeto indirecto para dar como resultado un sintagma verbal completo. En este punto de la derivación entra en juego la composición funcional a la izquierda. Dicha regla combina las categorías del objeto directo y el indirecto 236

Funciones

gracias a que comparten el valor Y= SV/SN, por lo que el resultado es la composición ‘((SV/SN)/SN)\SV’. A continuación, la categoría de la conjunción ‘(X\X)/X’ instancia cada una de sus X por este valor, dando como resultado la categoría ‘((((SV/SN)/SN)\SV)\(((SV/SN)/SN)\SV))/ ((SV/SN)/SN)\SV’, que cancelará las dos composiciones de objetos. La categoría resultante cancela el verbo ditransitivo y, finalmente, cancela el sujeto formando la categoría oración. Como vemos, las definiciones categoriales elevadas dan la vuelta a la situación y los argumentos se transforman en funtores, el que debía ser cancelado pasa a cancelar a su funtor originario con lo que se pueden aplicar las categorías en un orden distinto al orden de constituyentes no marcado. Juan regalará un libro a Iris y unas pinturas a Anabel SN ((SN\O)/SN)/SN SN/N N SN/SN SN (X\X)/X SN/N N SN/SN SN ______(/) _______(/) _______(/) __________(/) SN:un+libro SN:a+Iris SN:unas+pinturas SN:a+Anabel _______(T\) _________(T\) (SV/SN)/SN\(SV/SN): (SV/SN)/SN\(SV/SN): unas+pinturasobj-directo un+libroobj-directo ______(T\) _________(T\) (SV/SN)\SV: (SV/SN)\SV: a+Anabel:obj_indirecto a+Irisobj_indirecto _______________________(C\) ______________________(C\) ((SV/SN)/SN)\SV: ((SV/SN)/SN)\SV: un+libro+a+Iris unas+pinturas+a+Anabel _______________________________(/) (((SV/SN)/SN)\SV)\(((SV/SN)/SN)\SV): y+unas+pinturas+a+Anabel __________________________________________________________(\) (((SN\O)/SN)/SN)\(SN\O): un+libro+a+Iris+y+unas+pinturas+a+Anabel ____________________________________________________________(\) SN\O: regalará+un+libro+a+Iris+y+unas+pinturas+a+Anabel _________________________________________________________________(\) O: Juan+regalará+un+libro+a+Iris+y+unas+pinturas+a+Anabel

Figura 5.19. Derivación de la oración (5.55) en Gramática Categorial.

La última aplicación que vamos a explicar de las reglas de composición funcional en Gramática Categorial es el análisis de las dependencias cruzadas de las construcciones subordinadas del neerlandés y del alemán hablado en Suiza. Como 237

Métodos formales en Lingüística

habíamos explicado en el capítulo 2, estas construcciones presentan un problema insalvable de análisis para las Gramáticas Independientes del Contexto o para cualquier formalismo gramatical equivalente a ellas, como la Gramática Categorial clásica (consistente únicamente en las aplicaciones funcionales a la derecha y a la izquierda). Steedman propone unas nuevas reglas de composición de funciones que denomina cruzadas o desarmónicas; en particular, la que vamos a utilizar es hacia la derecha: (5.58) Composición cruzada a la derecha (Cx/) X/Y Z\Y → Z\X Esta regla establece que si una categoría X busca como argumento a la derecha un Y, y otra para formar precisamente un Y necesita cancelar un Z a la izquierda, entonces podemos concluir que para obtener un X también podemos directamente cancelar un Z por la izquierda. Considérese ahora la siguiente oración subordinada del neerlandés (5.59), en la que se producirían dependencias cruzadas si intentáramos formar los constituyentes: (5.59) …das mer em Hans es huus hälfed aastriiche que nosotros OI-Hans la casa-OD ayudar_PASADO pintar ‘que nosotros ayudamos a pintar la casa a Hans’ En esta oración encontramos primero la conjunción subordinante y, después, una secuencia de sintagmas nominales, primero el sujeto, luego un sintagma nominal marcado como objeto indirecto y, por último, el objeto directo. A continuación encontramos una secuencia de dos verbos. Las relaciones gramaticales entre los verbos y sus argumentos se establecen relacionando el primer sintagma nominal como sujeto del primer verbo de la secuencia. El segundo verbo es un infinitivo introducido por el primer verbo, el segundo sintagma nominal es el complemento indirecto de este infinitivo y el tercero es su objeto directo. Hay que tener en cuenta que las subordinadas del neerlandés y del alemán, en general, siguen el orden SOV. La diferencia es que en el alemán estándar las subordinadas no siguen el esquema de dependencias cruzadas, sino que el primer verbo se relaciona con el último sintagma nominal de la secuencia, el segundo verbo con el penúltimo sintagma nominal, y así sucesivamente. En (5.60) se muestran gráficamente las dependencias cruzadas que se producen en (5.59). (5.60) das mer em Hans es huus hälfed aastriiche

238

Funciones

La manera en que Steedman afronta el análisis de las dependencias cruzadas es haciendo una composición cruzada de la secuencia de verbos, para luego cancelar los sintagmas nominales, normalmente con aplicación funcional a la izquierda, como se muestra en la figura 5.20. Así pues, las composiciones cruzadas constituyen una herramienta formal muy potente para el análisis de los órdenes que transgreden la estructura de constituyentes básica. Veamos la derivación de la oración (5.60) para comprobar cómo se produce el análisis en la práctica. La conjunción subordinante ‘das’ recibe la categoría ‘O/Osub’, en la que para formar una oración hay que cancelar una oración de tipo subordinado (que son las que tienen el orden excepcional con dependencias cruzadas). El verbo ‘hälfed’ recibe la categoría ‘(SNobj.ind\(SNsuj\Osub))/SV’ que debe cancelar a la derecha un sintagma verbal y por la izquierda un sintagma nominal dativo, objeto indirecto, más un sujeto para formar una oración subordinada. Por último, el verbo ‘aastriiche’ recibe la categoría ‘SNobj.dir\SV’, que debe tomar un sintagma nominal acusativo, objeto directo, para formar un sintagma verbal. De nuevo la notación SV se usa como abreviatura de ‘SN\O’. das mer O/Osub SNsuj

em Hans es huus SNobj.ind SNobj.dir

hälfed aastriiche (SNobj.ind\(SNsuj\Osub))/SV SNobj.dir\SV _____________________________(Cx/) SNobj.dir\(SNobj.ind\(SNsuj\Osub)):hälfed+aastriiche _________________________________________(\) SNobj.ind\(SNsuj\Osub): es+huus+hälfed+aastriiche ___________________________________________________(\) SNsuj\Osub: em+Hans+es+huus+hälfed+aastriiche _________________________________________________________(\) Osub: mer+em+Hans+es+huus+hälfed+aastriiche ________________________________________________________________(/) O: das+mer+em+Hans+es+huus+hälfed+aastriiche

Figura 5.20. Derivación de la oración (5.56) en Gramática Categorial.

El análisis expuesto en la figura 5.20 constituye un hito dentro de la lingüística formal, ya que el tratamiento de este tipo de construcciones constituye un reto para la gran mayoría de teorías gramaticales basadas en Gramáticas Independientes del Contexto. Con esta muestra de cómo se pueden tratar las discontinuidades de constituyentes y, en particular, las dependencias cruzadas con las ampliaciones 239

Métodos formales en Lingüística

que Mark Steedman ha introducido en la Gramática Categorial, cerramos este apartado de aplicaciones de la composición de funciones al tratamiento formal de los fenómenos lingüísticos y, con ello, también damos fin a este libro en el que hemos intentado introducir los métodos formales más utilizados en lingüística teórica.

240

Bibliografía

Ajdukiewicz, K. (1935): “Die syntaktische Konnexität”, Studia Philosophica, 1: 1-27, traducción inglesa en McCall, S. (ed.) (1966). Polish Logic 1920-1939. Clarendon Press. Oxford, 207-231. Bach, E. (1997): Informal Lectures on Formal Semantics. Suny Press. New York. Bar-Hillel, Y. (1953): “A Quasi-Arithmetical Notation for Syntactic Description”, Language, 29.1: 47-58. Bar-Hillel, Y., Gaifman, H. y Shamir, E. (1960): “On categorial and phrase structure grammars”, Bulletin of Research. Council of Israel, 9: 1-16. Bosque, I. (1996): El sustantivo sin determinación: la ausencia de determinante en la lengua española. Visor. Madrid. Bosque, I. y Gutiérrez Reixach, J. (2009): Fundamentos de sintaxis formal. Akal. Tres Cantos. Brachman, R. (1983): “What IS-A is and isn't. An Analysis of Taxonomic Links in Semantic Networks”, IEEE Computer, 16: 1-10. Brachman, R. y Levesque, H. (2004): Knowledge Representation and Reasoning. Morgan Kaufmann (Elsevier). Amsterdam. Bresnan, J. ed. (1982): The Mental Representation of Grammatical Relations. The MIT Press. Cambridge (Massachusetts). Bresnan, J. (2001): Lexical Functional Syntax. Blackwell. Oxford. Cann, R., Kempson, R., Marten, L. (2005): The dynamics of language. Elsevier. Oxford. Carpenter, B. (1992): The Logic of typed feature structures: with applications to unification grammars, logic programs, and constraint resolution. Cambridge University Press. Cambridge. Carston, R. (2010): “Explicit communication and ‘free’ pragmatic enrichment”, en Soria, B. y Romero, E. (eds). Explicit Communication: Robyn Carston's Pragmatics. Palgrave-McMillan. London, 217-287. Chomsky, N. (1955): The logical structure of linguistic theory. Tesis doctoral publicada en 1975 en Plenum Press. New York. Chomsky, N. (1957): Syntactic Structures. Mouton. La Haya. 241

Métodos formales en Lingüística Chomsky, N. (1965): Aspects of the Theory of Syntax. The MIT Press. Cambridge (Massachusetts). Chomsky, N. (1981): Lectures in Government and Binding. Foris. Dordrecht. Chomsky, N. (1986): Knowledge of language. Praeger. New York. Chomsky, N. (1993): “A minimalist program for linguistic theory”, en Hale, K. y Keyser, S. (eds.), The view from Building. The MIT Press. Cambridge (Massachusetts), 1-52. Chomsky, N. (1995): The Minimalist Program. The MIT Press. Cambridge (Massachusetts). Chomsky, N. y Miller, G. (1963): “Introduction to the formal analysis of natural languages”, en Luce, D., Bush, R. y Galanter, E. (eds.). Handbook of mathematical psychology. Wiley. New York, 2: 269-321. Church, A. (1956): Introduction to mathematical logic. Princeton University Press. Princeton. Chomsky, N. y Halle, M. (1968). Sound Pattern of English. Harper and Row. New York. Dalrymple, M. (2001): Lexical Functional Grammar. Academic Press. New York. Dowty, S., Wall, R. y Peters, S. (1981): Introduction to Montague Semantics. D. Reidel. Dordrecht. Emonds, J. (1978): “The verbal complex V'-V in French”, Linguistic Inquiry, 9: 151-175. Espinal, M.T. (2010): “Bare nominals in Catalan and Spanish. Their structure and meaning”, Lingua, 120: 984-1009. Fitch, W. T.; Hauser, M. D. y Chomsky, N. (2005): “The evolution of the language faculty: Clarifications and implications”, Cognition, 97.2: 179-210. Fillmore, C. (1976): “Frame semantics and the nature of language”, Annals of the New York Academy of Sciences: Conference on the Origin and Development of Language and Speech, 280: 20-32. Fillmore, C. (1982): “Frame semantics”, en Linguistics in the Morning Calm. Hanshin Publishing Co. Seúl, 111-137. Fillmore, C. (1985): “Frames and the semantics of understanding”, Quaderni di Semantica, 6.2: 222-253. Fillmore, C., Kay, P. y O'Connor, C. (1988): “Regularity and Idiomaticity in Grammatical Constructions: The Case of let alone”, Language, 64: 501-38. Gazdar, G. (1981): “Unbounded Dependencies and Coordinate Structure”, Linguistic Inquiry, 12.2: 155-184. Gazdar, G., Klein, E., Pullum, G. y Sag, I. (1985): Generalized Phrase Structure Grammar. Basil Blackwell’s. Oxford. Ginzburg, J. y Sag I. (2000): Interrogative Investigations. CSLI Publications. Stanford. Goldberg, A. (1995): Constructions. A Construction Grammar Approach to Argument Structure. Chicago University Press. Chicago. Goldberg, A. (2006): Constructions at Work: The Nature of Generalization in Language. Oxford University Press. Oxford. Hamm, F., Kamp, H. y van Lambalgen, M. (2006): “There is no Opposition between Formal and Cognitive Semantics”, Theoretical Linguistics, 32: 1-40. Harris, J. (1969): Spanish Phonology. The MIT Press, Cambridge (Massachusetts). 242

Bibliografía Hauser, M. D.; Chomsky, N. y Fitch, W. T. (2002): “The Faculty of Language: What Is It, Who Has It, and How Did It Evolve?”, Science, 29822: 1569-1579. Heim, I. (1982): The semantics of definite and indefinite noun phrases. Tesis doctoral del MIT. Publicada en 1988 en Garland. New York. Helbig, H. (2006): Knowledge Representation and the Semantics of Natural Language. Springer. Berlin. Hopcroft, J. y Ullman, J. (1979): Introduction to automata theory, languages and computation. Addison-Wesley. Reading. Jakobson, R. y Halle, M. (1956): Fundamentals of Language. Mouton. Gravenhague. Joshi, A. (1985): “How much context-sensitivity is necessary for characterizing structural descriptions. Tree Adjoining Grammars”, en Dowty, D., Karttunen, L., y Zwicky, A. (eds.). Natural Language Processing. Theoretical, Computational and Psychological Perspectives. Cambridge University Press, New York. Joshi, A. (1987): “An Introduction to Tree Adjoining Grammars”, en Manaster-Ramer, A. (ed.). Mathematics of Language. John Benjamins. Ámsterdam. Kamp, H. (1981): “A theory of truth and semantic representation”, en Groenendijk, J., Janssen, T. y Stokhof, M. (eds.), Formal Methods in the Study of Language. Mathematical Centre Tracts. Ámsterdam, 135: 277-322. Kamp, H. y Reyle, U. (1993): From Discourse to Logic: Introduction to model theoretic semantics of natural language, formal logic and discourse representation theory. Kluwer Academic Press. Dordrecht. Kamp, H., Genabith, J. y Reyle, U. (2011): “Discourse Representation Theory”, en Gabbay, D.y Guenthner, F. Handbook of Philosophical Logic. Springer. Berlín, 15: 125-394. Karttunen, L. (1986): “Radical lexicalism”. Technical Report CSLI-86-68 de Stanford University. Publicado en Baltin, M. y Kroch A. (1989): Alternative Conceptions of Phrase Structure, University of Chicago Press. Chicago. Kay, M. (1979): “Functional Grammar”, en Proceedings of the Berkeley Linguistics Society. Berkeley, 142-158. Kay, M. (1984): “Functional Unification Grammar: A Formalism for Machine Translation”, en Proceedings of the International Conference on Computational Linguistics (COLING 84). Stanford University. Stanford, 75-78. Kay, M. (1985): “Unification in Grammar”, en Dahl, V., y Saint-Dizier, P. Natural Language Understanding and Logic Programming, North Holland. Amsterdam, vol. I: 251-278. Kay, P. y Fillmore, C. (1999): “Grammatical constructions and linguistic generalizations: The What’s X doing Y? construction”, Language, 75.1: 1-33. Levelt, W. (2008): Formal grammars in linguistics and psycholinguistics. John Benjamins. Ámsterdam. Kempson, R., Meyer-Viol, W. y Gabbay, D. (2001): Dynamic syntax. Blackwell. Oxford. Longa, V.M. (1999): La restricción de las gramáticas accesibles: La resolución del problema. Publicaciones Universidad de Santiago. Santiago de Compostela. Thomason, R. (1974): Formal philosophy: selected papers of Richard Montague. Yale University Press. New Haven. 243

Métodos formales en Lingüística Moreno Cabrera, J. C. (1985): Lógica formal y lingüística: una introducción a la gramática de R. Montague. Universidad Autónoma de Madrid. Madrid. Moreno Sandoval, A. (2001): Gramáticas de unificación y rasgos. A. Machado Libros, D.L. Madrid. Moreno-Torres, I. y Solias, T. (1990): “ Un parser con chart para Gramáticas Categoriales de Unificación”. SEPLN, 6: 205-225. Partee, B. (2006): “Richard Montague (1930-1971)”, en Brown, K. (ed.). Encyclopedia of Language and Linguistics. Elsevier. Oxford, vol. 8: 255-57. Partee, B., ter Meulen, A. y Wall, R. (1990): Mathematical methods in linguistics. Kluwer Academic Pub. Dordrecht.Reinhart, Tanya M. (1976): The Syntactic Domain of Anaphora. The MIT Press. Cambridge (Massachusetts). Pollard, C. y Sag, I. (1987): Information-based Syntax and Semantics. Volume 1: Fundamentals. CSLI Publications. Stanford. Pollard, C. y Sag, I. (1994): Head-Driven Phrase Structure Grammar. University of Chicago Press. Chicago. Pullum, G. y Gazdar, G. (1982): “Natural languages and context-free languages”, Linguistics and Philosophy, 4.4: 471-504. Recanati, F. (2002): “Unarticulated Constituents”. Linguistics and Philosophy, 25: 299345. Reiter, R., Brachman, R. y Levesque, H. (1992): Knowledge representation. The MIT Press. Cambridge (Massachusetts). Reyle, U. y Rohrer, C. (1988): Natural language parsing and linguistic theories. D. Reidel Publishing Company. Dordrecht. Sag, I. y Wasow, T. (1999): Syntactic theory: a formal introduction. CSLI Publications. Stanford. California. Sag, I., Wasow, T. y Bender, E. (2003): Syntactic Theory: a formal introduction, Second Edition. University of Chicago Press. Chicago. Savitch, W. (1987): The formal complexity of natural language. D. Reidel Pu-blishing Company. Dordrecht. Sells, P. (1985): Lectures on Contemporary Syntactic Theories. CSLI Publications. Stanford. California. Sells, P., Shieber, S. y Wasow, T. ed. (1991): Foundational Issues in Natural Language Processing. The MIT Press. Cambridge (Massachusetts). Shieber, S. (1984): “Direct parsing of ID/LP grammars”, Linguistics and Philosophy, 7.2: 135-154. Shieber, S. (1985): “Evidence against the context-freeness of natural language”, Linguistics and Philosophy, 8: 333-343. Shieber, S. (1986): An Introduction to Unification-Based Approaches to Grammar. CSLI Publications. Stanford. California. Shieber, S. (1992): Constraint-Based Grammar Formalisms. The MIT Press. Cambridge (Massachusetts). Shieber, S. and Johnson, M. (1993): “Variations on incremental interpretation”, Journal of Psycholinguistic Research, 22.2: 287-318. 244

Bibliografía Solias, T. (1992): Gramáticas categoriales, coordinación generalizada y elisión. Servicio de Publicaciones de la Universidad Autónoma de Madrid. Madrid. Solias, T. (1996): Gramática categorial: modelos y aplicaciones. Síntesis. Madrid. Solias, T. (1997): “Alcance empírico de la gramática Categorial Multimodal”, en Molina Redondo, J. A.; Luque Durán, J. A. y Fernández García, F. Estudios de Lingüística General, 3: 459-470. Solias, T. (1998): “La gramática categorial como gramática universal”, Revista Española de Lingüística, 28.1: 89-113. Solias, T. (2008): “Los metalenguajes gramaticales”, en Moreno Cabrera, J. C. y Martín Rojo, M.ª L. (eds.). Actas del 8º Congreso Internacional de Lingüística General. Universidad Autónoma de Madrid. Madrid, 1-42. Steedman, M. (1985): “Dependency and Coordination in the Grammar of Dutch and English”, Language, 61: 523-568. Steedman, M. (1987): “Combinatory Grammars and Parasitic Gaps”, Natural Language and Linguistic Theory, 5: 403-439. Steedman, M. (1988): “Combinators and Grammars”, en Oehrle, R., Bach, E., Wheeler, D. (eds.). Categorial Grammars and Natural Language Structures, D. Reidel. Dordrecht, 417-442. Steedman, M. (1991): “Structure and Intonation”, Language, 67: 260-296. Steedman, M. (2000): The Syntactic Process. The MIT Press. Cambridge (Massachusetts).

245

Related Documents


More Documents from "Rafael"