« Algorithmes d'analyse syntaxique » : différence entre les versions

De Wiki du LAMA (UMR 5127)
Aller à la navigation Aller à la recherche
Aucun résumé des modifications
Aucun résumé des modifications
Ligne 7 : Ligne 7 :
Toutes les grammaires sont composées de symboles regroupé sous deux catégories, les terminaux et le non-terminaux.
Toutes les grammaires sont composées de symboles regroupé sous deux catégories, les terminaux et le non-terminaux.


Les terminaux sont les symboles les plus petits ne pouvant être subdivisé, il forme essentiellement la chaine d'entrée. Dans l'exemple d'une expression mathématique simple ces symboles sont tous les chiffres, tous les opérateurs et ponctuations : +-*/().
Les terminaux sont les symboles les plus petits ne pouvant être subdivisé, ils forment la chaîne d'entrée. Dans l'exemple d'une expression mathématique simple ces symboles sont tous les chiffres, tous les opérateurs et ponctuations.


Les non-terminaux sont des symboles pouvant être subdivisé, il servent à regrouper d'autre symboles. Par exemple une grammaire pourrait définir le non-terminal expr qui englobe toutes le expressions mathématique soit toutes les compositions valide de chiffres, opérateurs et ponctuations.
Les non-terminaux sont des symboles pouvant être subdivisé, il servent à regrouper d'autre symboles. Il sont toujours associés à des productions décrivant les subdivisions possible.
Par exemple une grammaire pourrait définir le non-terminal expr qui englobe toutes le expressions mathématique simple soit toutes les compositions valide de chiffres, opérateurs et ponctuations.


TODO exemple production 5 + 2 - 3
TODO exemple production 5 + 2 - 3
Ligne 15 : Ligne 16 :
=== Les productions de grammaires ===
=== Les productions de grammaires ===


Les productions décrivent les subdivisions de non-terminaux, dans le cas d'une grammaire non-contextuelle toutes les productions sont de la forme~:
Les productions décrivent les subdivisions de non-terminaux, dans le cas d'une grammaire non-contextuelle toutes les productions sont de la forme :


A --> \gamma
<math>A \rightarrow \gamma </math>


A : un non-terminal.
<math>A</math> : un non-terminal.
\gamma : une composition de terminaux et non-terminaux.
<math>\gamma</math> : une composition de terminaux et non-terminaux.


Un non-terminal peut être dérivé par une des productions associée, cette opération mène à une proto-phrase, cette proto-phrase est une phrase si elle est constituée seulement de terminaux.
Un non-terminal peut être dérivé par une des ses productions associée, cette opération mène à une proto-phrase, cette proto-phrase est une phrase si elle est constituée seulement de terminaux.
De même il est possible de réduire une proto-phrase en un non-terminal.
De même il est possible de réduire une proto-phrase en un non-terminal par une des productions ayant en partie droite la proto-phrase.


=== La hiérachie de Chomsky ===
=== La hiérachie de Chomsky ===


La hiérachie de Chomsky définit quatre classes de grammaires, chacune pouvant décrire toutes les régles des grammaires de hiérachie plus faible, les grammaires générales couvrent toutes les grammaires possibles.
La hiérachie de Chomsky définit quatre classes de grammaires, chacune pouvant décrire toutes les règles des grammaires de hiérarchie plus faible, les grammaires générales couvrent toutes les grammaires possibles.


Le niveau le plus faible est attribué aux grammaires régulières. Ces grammaires sont d'une forme linéaire, chaque non-terminal peut être associé à une composition de terminaux et un non-terminal en préfixe ou suffixe seulement.
Le niveau le plus faible est attribué aux grammaires régulières. Ces grammaires sont d'une forme linéaire gauche ou droite, chaque non-terminal peut être associé à une composition de terminaux et un non-terminal en préfixe ou suffixe seulement.


Les grammaires algébrique (ou non-contextuelles) offrent une plus grande liberté en autorisant d'associer à un non-terminal n'importe quelle combinaison de terminaux et non-terminaux.
Les grammaires algébrique (ou non-contextuelles) offrent une plus grande liberté en autorisant d'associer à un non-terminal n'importe quelle combinaison de terminaux et non-terminaux.
Ligne 36 : Ligne 37 :


Les grammaires régulières rendent possible l'association de n'importe quelle composition de non-terminaux et terminaux vers une autre composition.
Les grammaires régulières rendent possible l'association de n'importe quelle composition de non-terminaux et terminaux vers une autre composition.

TODO image


=== Les grammaire non-contextuelles ===
=== Les grammaire non-contextuelles ===


Les grammaires non-contextuelles sont définits de la forme G = (V, A, S, P).
Les grammaires non-contextuelles sont définits de la forme <math>G = (V, A, S, P)</math>.


V : l'ensemble des non-terminaux de la grammaires.
<math>V</math> : l'ensemble des non-terminaux de la grammaires.
A : l'ensemble des terminaux.
<math>A</math> : l'ensemble des terminaux.
S : le non-terminal axiome.
<math>S</math> : le non-terminal axiome.
P: l'ensemble des productions associant un non-terminal à une composition de non-terminaux et terminaux.
<math>P</math> : l'ensemble des productions associant un non-terminal à une composition de non-terminaux et terminaux : <math> N \rightarrow \alpha </math>.


Dans un contexte plus technique il suffit de préciser l'axiome et les productions car ces dernières listent tout les non-terminaux et terminaux existant.
Dans un contexte plus technique il suffit de préciser l'axiome et les productions car ces dernières listent tout les non-terminaux et terminaux existant.
L'axiome joue un rôle important dans la validation d'un mot par une grammaire, si des dérivations successives partant de l'axiome mènent à une phrase correspondant au mot d'entrée alors l'entrée est validé. De même si la phrase correspondante au mot d'entrée et réduite jusqu'à obtenir l'axiome.
L'axiome joue un rôle important dans la validation d'un mot par une grammaire, si des dérivations successives partant de l'axiome mènent à une phrase correspondant au mot d'entrée alors l'entrée est validé. De même si la phrase correspondante au mot d'entrée et réduite jusqu'à obtenir l'axiome.


Plus formellement, soit \omega le mot d'entrée : S -*> \omega
Plus formellement, soit <math>\omega</math> le mot d'entrée : <math>S \xrightarrow{*} \omega</math>


Grâce aux productions il est possible de subdiviser un non-terminal en d'autres éléments égaux ou plus petits, cette opération est appelé dérivation est mène à produire une proto-phrase (la partie droite des productions), si une proto-phrase est constituée essentiellement de terminaux alors elle est nommé phrase.
Grâce aux productions il est possible de subdiviser un non-terminal en d'autres éléments égaux ou plus petits, cette opération est appelé dérivation est mène à produire une proto-phrase (la partie droite des productions), si une proto-phrase est constituée essentiellement de terminaux alors elle est nommé phrase.
Ligne 55 : Ligne 58 :
== Les analyseurs lexicaux ==
== Les analyseurs lexicaux ==


L'analyse lexicale couvrent toutes les règles de la grammaire régulière, elle est utilisé pour faciliter le travail de l'analyseur syntaxique par la reconnaissance de certain groupe de lexème (les noms de variables, les nombres entiers, les nombres flottants) en unité lexicale.
L'analyse lexicale couvrent toutes les règles de la grammaire régulière, elle est utilisé pour faciliter le travail de l'analyseur syntaxique par la reconnaissance de certain groupe de lexème (les noms de variables, les nombres entiers, les nombres flottants) en unité lexicale. Ces unités lexicales seront utilisé comme terminaux par l'analyseur syntaxique et formeront donc la chaine d'entrée.


La plupart des règles d'une grammaire régulière sont décrites avec des expressions rationnelles se basant sur trois opération fondamentales~: la concaténation, l'union et l'étoile de Kleene. Chacune de ces opération produit un ensemble de mot pouvant être reconnu par le motif.
La plupart des règles d'une grammaire régulière sont décrites avec des expressions rationnelles se basant sur trois opération fondamentales : la concaténation, l'union et l'étoile de Kleene. Chacune de ces opération produit un ensemble de mot pouvant être reconnu par le motif.


La concaténation permet de créer un singleton avec la concaténation de deux mots, autrement dit reconnaître que la concaténation de deux mots.
La concaténation permet de créer un singleton avec la concaténation de deux mots, autrement dit reconnaître que la concaténation de deux mots.
Ligne 64 : Ligne 67 :


L'étoile de Kleene permet de créer un ensemble contenant toutes les combinaisons d'un ensemble ainsi que le vide.
L'étoile de Kleene permet de créer un ensemble contenant toutes les combinaisons d'un ensemble ainsi que le vide.

L'analyseur lexicale sépare en premier la chaine selon les blancs et d'autres séparateurs supplémentaires tels que les signes de ponctuations et les operateurs, ensuite chaque portion de la chaine d'entrée
est analysé selon un ensemble de règles rationnelles pour déterminer son unité lexicale.

Pour exemple la chaine d'entrée "float i = 4.2 + 5;" sera découpée en {"float", "i", "=", "4.2", "+", "5", ";"}, ensuite selon les règles suivantes (utilisant le format de regex POSIX) :

<ul>
<li> type <math> \rightarrow </math> int|float|bool </li>
<li> id <math> \rightarrow </math> ([A-z]([A-z]|[0-9])*)[^(int|float|bool)] </li>
<li> op_assign <math> \rightarrow </math> = </li>
<li> float <math> \rightarrow </math> [0-9]*\.[0-9]*f? </li>
<li> int <math> \rightarrow </math> [0-9]* </li>
<li> end <math> \rightarrow </math> ; </li>
<li> op <math> \rightarrow </math> \+|\-|/|\* </li>
</ul>

On obtient donc un ensemble des unités lexicales reconnues : {type, id, op_assign, float, op, int, end}.


=== Les automates finis ===
=== Les automates finis ===


Un analyseur peut être construit avec un automate finis car d'après le théorème de Kleene toutes les grammaires régulière sont reconnu par un automate finis.
Un analyseur lexicale peut être construit avec un automate finis car d'après le théorème de Kleene toutes les grammaires régulière sont reconnu par un automate finis.


Théorème de Kleene : l’ensemble des langages rationnels sur un alphabet A est exactement l’ensemble des langages sur Areconnaissables par automate fini.
Théorème de Kleene : l’ensemble des langages rationnels sur un alphabet A est exactement l’ensemble des langages sur A reconnaissables par automate fini.


L'automate suivant reconnaît le motif a*b*
L'automate suivant reconnaît le motif <math>a^*b^*</math>


TODO image
TODO image


Malheuresement la limite des analyseur lexicaux et très vite atteint notamment avec le motifs de la forme a^nb^n. Dans ce cas il faut trouver un moyen de compter le nombre de a consommé pour essayer de consommer le même nombre de b, or les automates finis ne dispose pas de mémoire supplémentaire où placer ce compteur.
Malheuresement la limite des analyseur lexicaux et très vite atteint notamment avec le motifs de la forme <math>a^nb^n</math>. Dans ce cas il faut trouver un moyen de compter le nombre de a consommé pour essayer de consommer le même nombre de b, or les automates finis ne dispose pas de mémoire supplémentaire où placer ce compteur. Ce type de motif est fortement utilisé dans les languages de programmations pour vérifier le bon nombre de parenthèses, accolades etc…

TODO exemple prog


== Les analyseurs syntaxiques ==
== Les analyseurs syntaxiques ==


L'analyse syntaxique suit l'analyse lexical en se basant sur les unités lexicales définit par ce dernier. Ces unités lexicales sont nommées et utilisé en tant que terminaux par l'analyseur syntaxique.
L'analyse syntaxique suit l'analyse lexical en se basant sur les unités lexicales définit par ce dernier et nommé lexèmes. Ces unités lexicales sont utilisées en tant que terminaux par l'analyseur syntaxique dans une liste de lexèmes.


Les algorithmes d'analyseur syntaxiques se basent tous sur le même type d'automates~: les automates finis à pile. Les deux majeurs techniques connus sont l'analyse descendante et l'analyse ascendante. La première consiste à dériver l'axiome de la grammaire jusqu'à obtenir le mot d'entré, la seconde technique consiste à réduire le mot d'entré jusqu'a obtenir l'axiome.
Les algorithmes d'analyseur syntaxiques se basent tous sur le même type d'automates : les automates finis à pile. Les deux majeurs techniques connus sont l'analyse descendante et l'analyse ascendante. La première consiste à dériver l'axiome de la grammaire jusqu'à obtenir le mot d'entré, la seconde technique consiste à réduire le mot d'entré jusqu'à obtenir l'axiome.
Ces deux techniques sont considéré comme opposé par leur façon de traiter les proto-phrase, l'analyseur descendant va toujours dériver et l'analyseur ascendant toujours réduire. Malgré cette symétrie, ces deux type d'analyseur n'utilise pas les mêmes ensembles de règles.
Ces deux techniques sont considéré comme opposé par leur façon de traiter les proto-phrase, l'analyseur descendant va toujours dériver et l'analyseur ascendant toujours réduire. Malgré cette symétrie, ces deux type d'analyseur n'utilise pas les mêmes ensembles de règles.


=== Les automates finis à pile ===
=== Les automates finis à pile ===


Les automates finis à pile forme une extension des automates finis par l'adjonction d'une mémoire organisé en pile.
Les automates finis à pile forment une extension des automates finis par l'adjonction d'une mémoire organisé en pile.


Ils permettent de couvrir les limitations des analyseurs lexicaux en reconnaissant les motifs de la forme a^nb^n.
Ils permettent de couvrir les limitations des analyseurs lexicaux en reconnaissant les motifs de la forme <math>a^nb^n</math>.


TODO image
TODO image
Ligne 96 : Ligne 114 :


=== Les analyseurs descendants ===
=== Les analyseurs descendants ===

Le principe de l'analyse descendante est assez simple à mettre en oeuvre. L'analyseur initialise une proto-phrase contenant l'axiome de la grammaire, à chaque étapes l'analyseur va lire le symbole à gauche de la proto-phrase. Si celui ci est un terminal alors on le compare avec le début de la chaîne d'entrée, si il correspond on consomme le début de la chaine d'entrée ainsi que le terminal au début de la proto-phrase, au contraire on signale une erreur. Si le début de la proto-phrase est un non-terminal alors on le remplace par la partie droite de l'une de ses productions.

Le pseudo code correspondant est le suivant :

<pre>
initialiser une pile contenant S
Tant que la pile et la chaine d'entrée sont non-vide
soit C le premier lexème de la chaine d'entrée
soit T le sommet de la pile
Si T est non-terminal
choisir une production P de T
dépiler le sommet de la pile
empiler la partie droite de P
Sinon si T équivaut C
dépiler le sommet de la pile
consommer le lexème C
Sinon
erreur
</pre>

Si nous utilisons la grammaire contenant les deux productions <math>S \rightarrow aSb</math> et <math>S \rightarrow \epsilon </math> (<math>\epsilon</math> pour ne rien consommer ou ajouter), <math>S</math> est l'axiome de la grammaire implicitement.
La trace de l'algorithme descendant du mot d'entrée "aabb" est alors :

<table>
<tr>
<td>Pile</td> <td>Entrée</td> <td>Opération</td>
</tr>
</table>


{| class="wikitable"
|-
! Pile
! Entrée
! Opération
|-
| S
| aabb
|
|-
| aSb
| aabb
| dériver par <math>S \rightarrow aSb</math>
|-
| Sb
| abb
| consommer a
|-
| aSbb
| abb
| dériver par <math>S \rightarrow aSb</math>
|-
| Sbb
| bb
| consommer a
|-
| bb
| bb
| dériver par <math>S \rightarrow \epsilon</math>
|-
| b
| b
| consommer b
|-
|
|
| consommer b et valider le mot
|-
|}

Malgré la simplicité de cette technique deux problèmes majeurs sont présents et mènent tous deux à utiliser un ensemble restreint de règles de grammaire par rapport aux grammaires algébrique.

Le premier problème concerne la récursivité gauche. Si l'algorithme ne sait pas exactement choisir les productions à appliquer et que la grammaire possèdent des productions de la forme <math>N \rightarrow N\alpha</math> ou autrement dit des productions associant le même non-terminal à gauche et à droite de la production, alors la dérivation du sommet d'une proto-phrase contenant <math>N</math> mènera toujours à avoir le même non-terminal au sommet et l'algorithme ne pourra jamais arrêter de dériver.

<ul>
<li> <math> N </math> </li>
<li> <math> N\alpha </math> </li>
<li> <math> N\alpha\alpha </math> </li>
<li> <math> N\alpha\alpha\alpha </math> </li>
<li> <math> N\alpha\alpha\alpha\alpha </math> </li>
<li> … </li>
</ul>

Pour contrer ce problème il existe une méthode permettant de transformer la récursivité gauche en une récursivité droite d'un non-terminal secondaire :

Soit <math>N \rightarrow N\alpha</math> <math>N \rightarrow \beta</math>

<ul>
<li> <math>N \rightarrow \beta N'</math> </li>
<li> <math>N' \rightarrow \alpha N'</math> </li>
<li> <math>N' \rightarrow \epsilon </math> </li>
</ul>

En effet, les règles initiales mènent intuitivement aux motifs de la forme <math>\beta \alpha \alpha \alpha ...\alpha</math>. Remplacer la récursivité gauche consisterait en réécrire les règles donnant les mêmes motifs, soit <math>\beta</math> en préfixe suivi d'une règle linéaire droite pour les <math>\alpha</math>.

Le second problème des analyseurs descendant et le determinisme lors du choix des productions à dériver. L'algorithme doit dériver un non-terminal selon la production qui à le plus de chance de réussir l'analyse. Dans l'exemple de la trace de l'analyse du mot "aabb", il fallait lors de la troisième dérivation dériver selon <math>S \rightarrow \epsilon</math> seulement.
Dans le cas contraire non-deterministe, l'algorithme pourrait autoriser de revenir en arrière dans l'analyse lors d'erreur et d'appliquer les productions restantes jusqu'à ne plus avoir de production et donc signaler une véritable erreur.

==== Analyseur à symbole de prédiction ====

Un analyseur à symbole de prédiction, nommé LL(k) ou k est le nombre de symboles, lors d'une dérivation va lire k symboles au début de la chaine d'entrée pour déterminer la production à dériver contenant ces k symboles en préfixe. La plupart des analyseurs se contentent de 1 symbole de prédiction.

En amont de l'analyse un algortihme est utilisé pour générer une table de la forme <math>PRODUCTION(N, c) \rightarrow P</math>.
<ul>
<li> <math>N</math> : Le non-terminal courant (au sommet de la proto-phrase). </li>
<li> <math>c</math> : Le lexème courant (au sommet de la chaine d'entrée) utilisé comme préfixe. </li>
<li> <math>P</math> : la production ayant pour préfixe <math>c</math> </li>
</ul>

Dans le cas de productions sans <math>\epsilon</math>, l'algorithme va pour chaque non-terminal lire toutes les productions associées. Pour chacune des productions déterminer les préfixes possibles, en parfois dérivant jusqu'à obtenir un terminal à gauche, puis associer cette production avec ses préfixes dans la table.

Dans l'exemple d'une grammaire reconnaissant les déclarations de variables avec initialisation optionnelle par les règles suivantes :

<ul>
<li> <math>decl \rightarrow type\,id\,decl'</math> </li>
<li> <math>decl' \rightarrow =\, expr\,;</math> </li>
<li> <math>decl' \rightarrow ; </math> </li>
</ul>

Cette grammaire reconnait les mots "int i = 0;" et "int i;" de la façon suivante :

<ul>
<li> Dérivation de l'axiome : <math>type\,id\,decl'</math></li>
<li> Reconnaissance de <math>type</math> et <math>id</math> par respectivement "int" et "i"</li>
<li> Dérivation de <math>decl'</math> par l'une de ses productions</li>
<li> Suite de l'analyse avec l'une des deux productions de <math>decl'</math> </li>
</ul>

Ici est mis en évidence le branchement lors de la dérivation de <math>decl'</math>, la table des productions par symbole de prévision est :

{| class="wikitable"
|-
! Non-terminal
! Prefix
! Production
|-
| <math>decl</math>
| <math>type</math>
| <math>decl \rightarrow type\,id\,decl'</math>
|-
| <math>decl'</math>
| =
| <math>decl' \rightarrow =\,expr\,;</math>
|-
| <math>decl'</math>
| ;
| <math>decl' \rightarrow ;</math>
|-
|}

Lors de la dérivation de <math>decl'</math>, l'analyseur va interroger la table de production pour le lexème en sommet d'entrée, dans le cas des deux mots "int i = 0;" et "int i;" ce symbole sera respectivement "=" ou ";". Ces deux symboles donnent dans la table deux productions valide pour continuer l'analyse.

Dans le cas où le préfixe n'est pas associer à une production, l'analyseur peut signaler une erreur car cela signifie que n'importe quelle dérivation mènera à une erreur lors de la reconnaissance du premier symbole terminal.

En ce qui concerne les grammaires possédant des productions en <math>\epsilon</math>, ces productions sont valide pour n'importe quelle préfixe mais sont soumise à une condition supplémentaire sur les symboles rencontré après l'usage des non-terminaux de ces productions.

Soit une production <math>N \rightarrow \epsilon</math>, nous regardons toutes les productions utilisant le non-terminal <math>N</math> de la forme <math>L \rightarrow N\gamma</math> et associant dans la table la production <math>N \rightarrow \epsilon</math> avec tous les préfixes de <math>\gamma</math>.

Dans le même exemple de grammaire reconnaissant les déclarations de variables, les règles peuvent s'écrire :

<ul>
<li> <math>decl \rightarrow type\,id\,decl'\,;</math> </li>
<li> <math>decl' \rightarrow =\,expr</math> </li>
<li> <math>decl' \rightarrow \epsilon </math> </li>
</ul>

Le non-terminal associé à la production <math>decl' \rightarrow \epsilon </math> et utilisé seulement dans <math>decl \rightarrow type\,id\,decl'\,;</math> et le symbole suivant <math>delc'</math> est ";". <math>decl' \rightarrow \epsilon </math> et donc associé à ";" dans la table comme pour la grammaire précédente sans productions utilisant <math>\epsilon</math>.


=== Les analyseurs ascendants ===
=== Les analyseurs ascendants ===

Version du 23 mai 2018 à 12:40

Un algorithme d'analyse syntaxique est un algorithme permettant de reconnaître l'existence d'un mot selon un langage, en cas général il est appliqué pour les langages informatiques et valide ou non un code source pour la syntaxe d'un langage informatique. Mais la plupart des analyseurs syntaxiques ne se contentent pas de seulement valider l'entrée, ils extraient aussi la construction de cette entrée sous la forme d'un arbre abstrait de syntaxe, par exemple pour des expressions mathématiques composé d'opérateurs et d'opérandes.

Les grammaires

Les symboles de grammaire

Toutes les grammaires sont composées de symboles regroupé sous deux catégories, les terminaux et le non-terminaux.

Les terminaux sont les symboles les plus petits ne pouvant être subdivisé, ils forment la chaîne d'entrée. Dans l'exemple d'une expression mathématique simple ces symboles sont tous les chiffres, tous les opérateurs et ponctuations.

Les non-terminaux sont des symboles pouvant être subdivisé, il servent à regrouper d'autre symboles. Il sont toujours associés à des productions décrivant les subdivisions possible. Par exemple une grammaire pourrait définir le non-terminal expr qui englobe toutes le expressions mathématique simple soit toutes les compositions valide de chiffres, opérateurs et ponctuations.

TODO exemple production 5 + 2 - 3

Les productions de grammaires

Les productions décrivent les subdivisions de non-terminaux, dans le cas d'une grammaire non-contextuelle toutes les productions sont de la forme :

 : un non-terminal.  : une composition de terminaux et non-terminaux.

Un non-terminal peut être dérivé par une des ses productions associée, cette opération mène à une proto-phrase, cette proto-phrase est une phrase si elle est constituée seulement de terminaux. De même il est possible de réduire une proto-phrase en un non-terminal par une des productions ayant en partie droite la proto-phrase.

La hiérachie de Chomsky

La hiérachie de Chomsky définit quatre classes de grammaires, chacune pouvant décrire toutes les règles des grammaires de hiérarchie plus faible, les grammaires générales couvrent toutes les grammaires possibles.

Le niveau le plus faible est attribué aux grammaires régulières. Ces grammaires sont d'une forme linéaire gauche ou droite, chaque non-terminal peut être associé à une composition de terminaux et un non-terminal en préfixe ou suffixe seulement.

Les grammaires algébrique (ou non-contextuelles) offrent une plus grande liberté en autorisant d'associer à un non-terminal n'importe quelle combinaison de terminaux et non-terminaux.

Les grammaires contextuelles sont semblables aux grammaires algébrique mise à part l'ajout d'un contexte autour des productions en partie gauche et partie droite.

Les grammaires régulières rendent possible l'association de n'importe quelle composition de non-terminaux et terminaux vers une autre composition.

TODO image

Les grammaire non-contextuelles

Les grammaires non-contextuelles sont définits de la forme .

 : l'ensemble des non-terminaux de la grammaires.  : l'ensemble des terminaux.  : le non-terminal axiome.  : l'ensemble des productions associant un non-terminal à une composition de non-terminaux et terminaux : .

Dans un contexte plus technique il suffit de préciser l'axiome et les productions car ces dernières listent tout les non-terminaux et terminaux existant. L'axiome joue un rôle important dans la validation d'un mot par une grammaire, si des dérivations successives partant de l'axiome mènent à une phrase correspondant au mot d'entrée alors l'entrée est validé. De même si la phrase correspondante au mot d'entrée et réduite jusqu'à obtenir l'axiome.

Plus formellement, soit le mot d'entrée :

Grâce aux productions il est possible de subdiviser un non-terminal en d'autres éléments égaux ou plus petits, cette opération est appelé dérivation est mène à produire une proto-phrase (la partie droite des productions), si une proto-phrase est constituée essentiellement de terminaux alors elle est nommé phrase.

Les analyseurs lexicaux

L'analyse lexicale couvrent toutes les règles de la grammaire régulière, elle est utilisé pour faciliter le travail de l'analyseur syntaxique par la reconnaissance de certain groupe de lexème (les noms de variables, les nombres entiers, les nombres flottants) en unité lexicale. Ces unités lexicales seront utilisé comme terminaux par l'analyseur syntaxique et formeront donc la chaine d'entrée.

La plupart des règles d'une grammaire régulière sont décrites avec des expressions rationnelles se basant sur trois opération fondamentales : la concaténation, l'union et l'étoile de Kleene. Chacune de ces opération produit un ensemble de mot pouvant être reconnu par le motif.

La concaténation permet de créer un singleton avec la concaténation de deux mots, autrement dit reconnaître que la concaténation de deux mots.

L'union crée un ensemble constituée des deux mots, elle reconnaît l'un de deux mots seulement.

L'étoile de Kleene permet de créer un ensemble contenant toutes les combinaisons d'un ensemble ainsi que le vide.

L'analyseur lexicale sépare en premier la chaine selon les blancs et d'autres séparateurs supplémentaires tels que les signes de ponctuations et les operateurs, ensuite chaque portion de la chaine d'entrée est analysé selon un ensemble de règles rationnelles pour déterminer son unité lexicale.

Pour exemple la chaine d'entrée "float i = 4.2 + 5;" sera découpée en {"float", "i", "=", "4.2", "+", "5", ";"}, ensuite selon les règles suivantes (utilisant le format de regex POSIX) :

  • type int|float|bool
  • id ([A-z]([A-z]|[0-9])*)[^(int|float|bool)]
  • op_assign =
  • float [0-9]*\.[0-9]*f?
  • int [0-9]*
  • end  ;
  • op \+|\-|/|\*

On obtient donc un ensemble des unités lexicales reconnues : {type, id, op_assign, float, op, int, end}.

Les automates finis

Un analyseur lexicale peut être construit avec un automate finis car d'après le théorème de Kleene toutes les grammaires régulière sont reconnu par un automate finis.

Théorème de Kleene : l’ensemble des langages rationnels sur un alphabet A est exactement l’ensemble des langages sur A reconnaissables par automate fini.

L'automate suivant reconnaît le motif

TODO image

Malheuresement la limite des analyseur lexicaux et très vite atteint notamment avec le motifs de la forme . Dans ce cas il faut trouver un moyen de compter le nombre de a consommé pour essayer de consommer le même nombre de b, or les automates finis ne dispose pas de mémoire supplémentaire où placer ce compteur. Ce type de motif est fortement utilisé dans les languages de programmations pour vérifier le bon nombre de parenthèses, accolades etc…

Les analyseurs syntaxiques

L'analyse syntaxique suit l'analyse lexical en se basant sur les unités lexicales définit par ce dernier et nommé lexèmes. Ces unités lexicales sont utilisées en tant que terminaux par l'analyseur syntaxique dans une liste de lexèmes.

Les algorithmes d'analyseur syntaxiques se basent tous sur le même type d'automates : les automates finis à pile. Les deux majeurs techniques connus sont l'analyse descendante et l'analyse ascendante. La première consiste à dériver l'axiome de la grammaire jusqu'à obtenir le mot d'entré, la seconde technique consiste à réduire le mot d'entré jusqu'à obtenir l'axiome. Ces deux techniques sont considéré comme opposé par leur façon de traiter les proto-phrase, l'analyseur descendant va toujours dériver et l'analyseur ascendant toujours réduire. Malgré cette symétrie, ces deux type d'analyseur n'utilise pas les mêmes ensembles de règles.

Les automates finis à pile

Les automates finis à pile forment une extension des automates finis par l'adjonction d'une mémoire organisé en pile.

Ils permettent de couvrir les limitations des analyseurs lexicaux en reconnaissant les motifs de la forme .

TODO image


Les analyseurs descendants

Le principe de l'analyse descendante est assez simple à mettre en oeuvre. L'analyseur initialise une proto-phrase contenant l'axiome de la grammaire, à chaque étapes l'analyseur va lire le symbole à gauche de la proto-phrase. Si celui ci est un terminal alors on le compare avec le début de la chaîne d'entrée, si il correspond on consomme le début de la chaine d'entrée ainsi que le terminal au début de la proto-phrase, au contraire on signale une erreur. Si le début de la proto-phrase est un non-terminal alors on le remplace par la partie droite de l'une de ses productions.

Le pseudo code correspondant est le suivant :

initialiser une pile contenant S
Tant que la pile et la chaine d'entrée sont non-vide
  soit C le premier lexème de la chaine d'entrée
  soit T le sommet de la pile
  Si T est non-terminal
	choisir une production P de T
	dépiler le sommet de la pile
	empiler la partie droite de P
  Sinon si T équivaut C
	dépiler le sommet de la pile
	consommer le lexème C
  Sinon
	erreur

Si nous utilisons la grammaire contenant les deux productions et ( pour ne rien consommer ou ajouter), est l'axiome de la grammaire implicitement. La trace de l'algorithme descendant du mot d'entrée "aabb" est alors :

Pile Entrée Opération


Pile Entrée Opération
S aabb
aSb aabb dériver par
Sb abb consommer a
aSbb abb dériver par
Sbb bb consommer a
bb bb dériver par
b b consommer b
consommer b et valider le mot

Malgré la simplicité de cette technique deux problèmes majeurs sont présents et mènent tous deux à utiliser un ensemble restreint de règles de grammaire par rapport aux grammaires algébrique.

Le premier problème concerne la récursivité gauche. Si l'algorithme ne sait pas exactement choisir les productions à appliquer et que la grammaire possèdent des productions de la forme ou autrement dit des productions associant le même non-terminal à gauche et à droite de la production, alors la dérivation du sommet d'une proto-phrase contenant mènera toujours à avoir le même non-terminal au sommet et l'algorithme ne pourra jamais arrêter de dériver.

Pour contrer ce problème il existe une méthode permettant de transformer la récursivité gauche en une récursivité droite d'un non-terminal secondaire :

Soit

En effet, les règles initiales mènent intuitivement aux motifs de la forme . Remplacer la récursivité gauche consisterait en réécrire les règles donnant les mêmes motifs, soit en préfixe suivi d'une règle linéaire droite pour les .

Le second problème des analyseurs descendant et le determinisme lors du choix des productions à dériver. L'algorithme doit dériver un non-terminal selon la production qui à le plus de chance de réussir l'analyse. Dans l'exemple de la trace de l'analyse du mot "aabb", il fallait lors de la troisième dérivation dériver selon seulement. Dans le cas contraire non-deterministe, l'algorithme pourrait autoriser de revenir en arrière dans l'analyse lors d'erreur et d'appliquer les productions restantes jusqu'à ne plus avoir de production et donc signaler une véritable erreur.

Analyseur à symbole de prédiction

Un analyseur à symbole de prédiction, nommé LL(k) ou k est le nombre de symboles, lors d'une dérivation va lire k symboles au début de la chaine d'entrée pour déterminer la production à dériver contenant ces k symboles en préfixe. La plupart des analyseurs se contentent de 1 symbole de prédiction.

En amont de l'analyse un algortihme est utilisé pour générer une table de la forme .

  •  : Le non-terminal courant (au sommet de la proto-phrase).
  •  : Le lexème courant (au sommet de la chaine d'entrée) utilisé comme préfixe.
  •  : la production ayant pour préfixe

Dans le cas de productions sans , l'algorithme va pour chaque non-terminal lire toutes les productions associées. Pour chacune des productions déterminer les préfixes possibles, en parfois dérivant jusqu'à obtenir un terminal à gauche, puis associer cette production avec ses préfixes dans la table.

Dans l'exemple d'une grammaire reconnaissant les déclarations de variables avec initialisation optionnelle par les règles suivantes :

Cette grammaire reconnait les mots "int i = 0;" et "int i;" de la façon suivante :

  • Dérivation de l'axiome :
  • Reconnaissance de et par respectivement "int" et "i"
  • Dérivation de par l'une de ses productions
  • Suite de l'analyse avec l'une des deux productions de

Ici est mis en évidence le branchement lors de la dérivation de , la table des productions par symbole de prévision est :

Non-terminal Prefix Production
=
;

Lors de la dérivation de , l'analyseur va interroger la table de production pour le lexème en sommet d'entrée, dans le cas des deux mots "int i = 0;" et "int i;" ce symbole sera respectivement "=" ou ";". Ces deux symboles donnent dans la table deux productions valide pour continuer l'analyse.

Dans le cas où le préfixe n'est pas associer à une production, l'analyseur peut signaler une erreur car cela signifie que n'importe quelle dérivation mènera à une erreur lors de la reconnaissance du premier symbole terminal.

En ce qui concerne les grammaires possédant des productions en , ces productions sont valide pour n'importe quelle préfixe mais sont soumise à une condition supplémentaire sur les symboles rencontré après l'usage des non-terminaux de ces productions.

Soit une production , nous regardons toutes les productions utilisant le non-terminal de la forme et associant dans la table la production avec tous les préfixes de .

Dans le même exemple de grammaire reconnaissant les déclarations de variables, les règles peuvent s'écrire :

Le non-terminal associé à la production et utilisé seulement dans et le symbole suivant est ";". et donc associé à ";" dans la table comme pour la grammaire précédente sans productions utilisant .

Les analyseurs ascendants