28 Feb
Modelos Simbólicos en Ciencias Cognitivas
Los modelos simbólicos son predominantes en las ciencias cognitivas, incluyendo Lingüística, Psicología e Inteligencia Artificial. Estos modelos entienden que los procesos mentales, incluyendo el lenguaje, se basan en la manipulación de símbolos. La Lingüística Computacional ha sido un campo dominado por este paradigma.
Los sistemas simbólicos son objetos matemáticos definidos a partir de un conjunto de expresiones (los axiomas) y un conjunto de reglas (las reglas de derivación).
La Jerarquía de Chomsky y el Poder Formal de las Gramáticas
Una gramática sintagmática G está compuesta por cuatro elementos <Vn, Vt, R, O>, donde:
- Vn: es un conjunto finito de símbolos no terminales. A veces se les conoce como variables. En las aplicaciones lingüísticas se corresponden con las categorías sintácticas.
- Vt: es un conjunto finito de símbolos terminales. Estos símbolos coinciden más o menos con las palabras de una lengua, si se trata de una gramática de una lengua natural. Son elementos con valor constante y se agrupan dentro del diccionario o lexicón.
- R: es un conjunto finito de reglas, también llamadas producciones. Tienen la forma α → β, donde α y β son cadenas de elementos de Vn y Vt.
- O: es el símbolo inicial. O es un elemento de Vn y tiene que aparecer al menos una vez en la parte izquierda de una regla o producción (es decir, en lugar de α). Representa la unidad superior y en una gramática de una lengua natural suele corresponder con la oración.
Los elementos terminales y no terminales constituyen los términos de la gramática, es decir, los elementos sobre los que operan las reglas. Las reglas gramaticales especifican las combinaciones permitidas de términos que dan lugar a cadenas bien formadas u oraciones de la lengua. En una gramática generativa, las reglas tienen la forma α → β, donde α y β son cadenas de elementos terminales y no terminales. Utilizaremos la convención “mayúsculas para los elementos no terminales y minúsculas para los terminales”.
Este es un ejemplo de regla gramatical:
- (1a) SN > DET N
- (1b) DET > ART
- (1c) DET > POS
- (2a) ART > el | la | los | las
- (2b) POS > mi | tu | su | mis | tus | sus
- (2c) N > abanico | hipopótamos | libertades
Los ejemplos 1a-c solo contienen elementos no terminales, por tanto, podemos considerarlos reglas de la gramática. En cambio, los ejemplos 2a-c tienen en su parte derecha exclusivamente un elemento terminal: se trata de elementos léxicos.
Gramáticas Regulares o de Estados Finitos
Estas gramáticas se conocen con los siguientes nombres:
- Gramáticas regulares en Teoría de las gramáticas formales.
- Autómatas de estados finitos en Teoría de los autómatas.
- Redes de transición en Lingüística Computacional simbólica.
- Cadenas de Markov en Lingüística Computacional estadística (aunque en este caso es ligeramente diferente a los anteriores por cuanto que hay probabilidades asociadas a cada estado).
Los dos términos más empleados son el de autómata de estados finitos y el de red de transición.
Diagramas de Estados Finitos
En los diagramas, los estados se representan mediante círculos, los arcos mediante flechas indicando el sentido de la transición. Los estados iniciales se marcan con una pequeña flecha y los estados terminales con un doble círculo.
Gramáticas de Contexto Libre
Cualquier gramática sintagmática libre de contexto está formada por un conjunto de reglas y un conjunto de entradas léxicas (o lexicón).
La Estructura de un Sistema PNL Simbólico
Cualquier sistema de PNL tiene dos grandes tipos de conocimiento almacenado:
- Conocimiento lingüístico, en forma de gramática, lexicón y modelo conceptual del mundo. La gramática es simplemente una definición abstracta de un conjunto de elementos estructurados y bien formados. En términos psicolingüísticos, sería el equivalente a nuestra competencia lingüística y pragmática.
- Programa o parser, que contiene las instrucciones para procesar los datos lingüísticos. El parser es un algoritmo o conjunto de instrucciones que relaciona cadenas de símbolos con el conocimiento lingüístico almacenado. Sería el equivalente al funcionamiento de nuestro cerebro cuando produce y relaciona representaciones mentales.
Dentro del sistema, el conocimiento lingüístico son los datos sobre los que opera el programa para crear estructuras. Se parte de la base de que los objetos lingüísticos que se van a procesar son objetos estructurados, aunque su estructura no es manifiesta. El parser es el mecanismo computacional que infiere la estructura de las cadenas de palabras a partir del conocimiento almacenado en la gramática y diccionario y establece si son cadenas gramaticales o agramaticales. Durante el procesamiento de los datos se crean muchas estructuras de trabajo que son temporales. Las estructuras finales son el resultado del análisis. El peso de ambas partes –del conocimiento lingüístico y del programa– depende del diseño general del sistema. A continuación veremos el tipo de algoritmo más común, conocido como algoritmo descendiente en serie con backtracking.
Deja un comentario