next up previous contents
Next: Actes de dialogue Up: Représentation des connaissances Previous: Datage des états mentaux

Règles d'inférence

Jusqu'à présent, les règles d'inférence possédaient une force qui permettait de multiplier les forces des états mentaux. Cela peut poser un problème. Par exemple, une règle qui multiplie par 2 une incertitude totale (probabilite de $\frac{1}{2}$) va produire une certitude. En fait, c'est la distance à $\frac{1}{2}$qu'il faut multiplier (puis borner par 0 et 1 si l'on utilise effectivement des probabilités). Si un état a une probabilité p, la probabilité p' obtenue après application d'un coefficient kvérifie la propriété : $\vert\frac{1}{2}-p'\vert=k\vert\frac{1}{2}-p\vert$, en restant bornée par 0 et 1. On a donc : $p'=\min\left(1,\max\left(0,\frac{1}{2}+k(p-\frac{1}{2})\right)\right)$

Les algorithmes permettant la propagation des probabilités deviennent donc :

$A_\alpha$ $\left(\frac{A}{B}\right)_\gamma$ $B_\beta$ $\Longrightarrow$ $B_{\max\left(\beta,\min\left(1,\max\left(0,\frac{1}{2}+\gamma(\alpha-\frac{1}{2})\right)\right)\right)}$
        $=B_{\max\left(\beta,\min\left(1,\frac{1}{2}+\gamma(\alpha-\frac{1}{2})\right)\right)}$
         
$(\lnot B)_{1-\beta}$ $\left(\frac{\lnot B}{\lnot A}\right)_\gamma$ $A_\alpha$ $\Longrightarrow$ $(\lnot A)_{\max\left(1-\alpha,\min\left(1,\max\left(0,\frac{1}{2}+\gamma(1-\beta-\frac{1}{2})\right)\right)\right)}$
        $=A_{\min\left(\alpha,\max\left(0,\frac{1}{2}+\gamma(\beta-\frac{1}{2})\right)\right)}$

Nous avons utilisé ici une logique probabiliste. Cependant, il n'est pas nécessaire de reprendre le PTMS (voir page [*]) puisque les jeux logiques vont permettre d'appliquer les règles d'inférence et donc de maintenir (localement) la cohérence.


next up previous contents
Next: Actes de dialogue Up: Représentation des connaissances Previous: Datage des états mentaux
Christophe Delord
1998-09-02