Intelligence artificielle : IA faible Vs IA forte

Il convient avant d'aborder mes développements en matière d'I.A. de faire un bref historique de la logique mathématique, de l'émergence de la science informatique qui s'en ait suivi et des deux courants de pensée que sont l'I.A. forte et l'I.A. faible.

I) LA LOGIQUE MATHÉMATIQUE

La logique mathématique est une branche des mathématiques qui a connu un développement très rapide sur environ un siècle. Même si des fondements ont été établis depuis l'antiquité avec les écrits qui nous sont parvenus d'Ahmès (voir Papyrus de Rhind), d'Aristote ("L'Organon") et d'Euclide ("Les éléments") ainsi qu'au 17iéme et 18iéme siècle respectivement avec Leibniz et Lambert, ce n'est qu'entre le 19iéme et le 20iéme siècle que la logique se développe et devient une branche à part entière des mathématiques. On peut aussi citer les fractales africaines (code sikidy, bamana ou encore ifa) qui seraient des précurseurs du codage binaire. En effet ces mathématiques ont été introduites en Europe au 12ième siècle pour fonder la géomancie (divination par la terre). La géomancie servira de base à Leibniz pour développer les mathématiques binaires. Ces fractales étaient utilisées en Afrique aussi bien pour l'architecture (villages construits selon un algorithme fractale), la construction de brises vents, la divination ou encore dans la conception de jeux à explosion combinatoire abstrait comme l'Awalé.


La logique moderne commence avec deux hommes. Le plus connu étant George Boole et ses développements sur une structure algébrique particulière qui deviendra l'algèbre booléenne.
Le deuxième est Auguste De Morgan qui découvrira une loi de dualité entre la somme et le produit, de là il produira un ensemble de lois (Les lois de De Morgan) très utilisé en informatique pour la conception des systèmes logiques (permettant notamment d'effectuer des simplifications dans les équations).

Suite à ces développements d'autres hommes ont manifestés l'envie de formaliser les fondements modernes de la logique par des axiomes.
C'est comme cela que Gottlob Frege est le premier à proposer un système logique formalisé. Frege abouti au calcul propositionnel connu sous la dénomination de 'Calcul des prédicats". C'est une avancé extrêmement importante pour la suite du développement de la logique. Ses travaux ont été poursuivis et publiés par Rudolf Carnap.

Le premier mathématicien a avoir utilisé le terme de logique mathématique est l'italien Giuseppe Peano qui a contribué parallèlement au mathématicien allemand Richard Dedeking à établir une
axiomatisation des mathématiques.
Les 5 axiomes de Peano vont jouer un rôle déterminant en arithmétique dans le développement d'axiomes pour chacune des formules du langage. Ses travaux vont influencer un grand fondateur de la logique, le mathématicien anglais Bertrand Russel.

Russel est célèbre pour avoir publié avec Alfred Whitehead "Principia Mathematica" un ouvrage essentiel pour les fondements de la logique contemporaine. Ces travaux influenceront à leur tour un grand philosophe du début 20ième, Ludwig Wittgenstein qui apportera de nombreuses contributions en logique entre autres. Son oeuvre la plus connue est le "Tractatus logico-philosophicus".

Un outil extrêmement efficace "La théorie des ensembles" sera créé par le mathématicien allemand Georg Cantor. Cantor propose son théorème qui prouve qu'il existe une infinité de tailles d'ensembles infinis.
Il est intéressant de noter ici que l'étude de certains cas particuliers d'ensembles aboutira à des paradoxes dont les plus célèbres sont dus à Burati, Forti, Russel et Cantor lui-même, on peut aussi citer les paradoxes de Berry et de Richard. Je reviendrai un peu plus loin sur ces paradoxes car ils seront utiles pour comprendre l'émergence d'un  célèbre théorème. Cantor sera soutenu régulièrement par David Hilbert et son théorème sera repris avec de nouveaux développements par Félix Bernstein.

La théorie des ensembles subira des améliorations dues à l'introduction d'axiomes supplémentaires, que l'on devra notamment a Ernst Zermelo, puis a Abraham Fraenkel et aussi à Thoralf Skolem. Voilà pourquoi on parle souvent des axiomes de Zermelo-Fraenkel.
Skolem lui a surtout travaillé à l'élaboration de la théorie des modèles, qui appartient à une branche de la logique (il en existe plusieurs, voir la liste plus bas), on doit cette théorie à Alfred Tarski dont je vous conseil de lire l'article fondateur intitulé : Le concept de vérité dans les langages formalisés.
Parmi les théorèmes indispensables à la théorie des modèles on trouve celui de Löwenheim-Skolem. Qui regroupe d'autres théorèmes permettant par exemple de démontrer des valeurs de comparaisons entre systèmes logiques.

Jusqu'à la fin des années 1920, les mathématiciens vont vouloir tout réduire à la logique mathématique, même si des paradoxes (voir plus haut) viennent obscurcir leur travaux et semblent insurmontables. Kurt Gödel va démontrer, dans sa thèse, le théorème de complétude, qui stipule que tout raisonnement mathématique peut en principe être formalisé dans le calcul des prédicats. On pense alors que le succès de l'entreprise de la logique est à porté de main. Seulement une année plus tard, Gödel publie son théorème d'incomplétude qui démontre l'impossibilité de terminer le programme des mathématiciens. On aurait pu penser alors que le développement de la logique allait ralentir mais il s'est tout de même poursuivi de façon spectaculaire.

II) LES PRÉMICES DE L’ÈRE INFORMATIQUE

On doit les nouveaux développements à une jeune génération de logiciens dont les plus célèbres sont Alonzo Church avec son équipe (Stephen Kleene : voir algèbre de Kleene, John Rosser : voir le paradoxe de Kleene-Rosser...) il va développer le lambda-calcul permettant de tout réduire à une fonction. Alan Turing connu pour le concept de machine de Turing. Haskell Curry a qui l'on doit les bases de la programmation fonctionnelle (voir aussi la correspondance de Curry-Howard). Emil Post qui produira un travail énorme sur la complétude sémantique du calcul propositionnel des principes mathématiques de Whitehead et Russel, (voir aussi le problème de la correspondance de Post).

Cette nouvelle génération va réaliser le lien entre logique mathématique et algorithmique ce qui va amener progressivement et rapidement l'émergence des ordinateurs (voir architecture de Von Neumann), des compilateurs pour les langages de programmation et des bases de données. l'architecture est construite sur la théorie des ensembles. L'informatique est ainsi née même si certains de ses concepts avaient déjà été définis précédemment : Charles Babbage pour la machinerie, Adélaïde de lovelace pour les langages de programmation, etc...

En 1951 l'amiral Grace Hopper sera la première à créer un compilateur (le A-0 system) et en 1959 un langage de programmation dit de haut niveau car proche du langage naturel (le cobol).

La logique mathématique se décompose en 5 domaines :
- La théorie des ensembles (voir Georg Cantor, Ernst Zermelo, Abraham Fraenkel, Thoralf Skolem)
- la théorie de la démonstration (voir David hilbert, Jacques Herbrand et Gerhard Gentzen)
- la théorie des modèles (voir Alfred Tarski, Charles Peirce)
- la théorie de la calculabilité (voir Alonzo church, Gregory Chaitin)
- la théorie des types (voir lambda-calul d'Alonzo Church et la théorie des types intuitionniste de Per Martin-Löf)

Pour chacune des ces théories la littérature est vaste, mais il existe des ouvrages fondateurs très intéressants à lire et résumant parfaitement le domaine. Cette période de développement de la logique mathématique allant de la moitié du 19ième à la mi-20ième est passionnante et très éclairante sur ce qui va suivre avec l'informatique.
Je vous conseillerai de lire deux logiciens contemporains qui ont apporté énormément à cette discipline mathématique, à savoir Saul Aaron Kripke et Davis Lewis.

Pour terminer cette section on citera la logique flou, il s'agit d'un raisonnement approché. Il prendra en compte toutes les valeurs possible d'une fonction afin de déterminer un résultat. Elle a été formalisée dans les années 60 par Lotfi Zadeh. L'arithmétique de la logique flou s'appliquera à des ensembles non précisèrent définis. Ont l'utilise notamment en automatisme, robotique, médecine et d'autres domaines ou l'on trouve des variables aléatoires.

II) DEUX COURANTS DE PENSÉE OPPOSES : I.A. FAIBLE ET I.A. FORTE

a) I.A. FORTE

Si on considère l'acception finale de l'I.A. forte, on peut dire qu'il s'agit de produire une simulation de l'activité cérébrale animale ou humaine et d'obtenir un comportement intelligent et conscient. On résume cela par le terme de cognition artificielle. Bien sûre l'I.A. forte ne s'attaquera pas à certaines propriétés intrinsèques de la conscience et donc évitera les questions d'ordre métaphysique et spirituel.

L'I.A. va connaître un fort développement à partir des années soixante, essentiellement aux États-Unis, notamment sous l'impulsion des linguistes et traducteurs, cependant la puissance des ordinateurs de cette époque ne leur a pas permis d'exploiter au mieux les théories et le mouvement a fortement ralenti jusqu'aux années 90. C'est en effet dans cette période que des progrès significatifs seront réalisés (ordinateurs de bureau, réseaux informatiques...), on commence alors à parler d'I.A Faible du fait d'ambitions beaucoup plus réduites et spécialisées (maison intelligente, systèmes d'alertes, les mobiles, les moyens de transport...).

Par ailleurs de nos jours on voit se développer une nouvelle forme d'I.A. dont le but est de reproduire une multitude de fonctions des cerveaux humains ou animaux. Pour cela cette I.A. va s’intéresser à l'ensemble des activités des corps biologiques (motricité, capacités sensorielles, capacités cérébrales...). A terme on veut obtenir des phénotypes étendus ou sociétés d'I.A. pour reprendre les termes de Richard Dawking, c'est à dire des systèmes ayant conscience d'eux-mêmes et de leur environnement afin de pouvoir se déplacer, s'adapter, communiquer, s'organiser, évoluer.
On a aucune idée du jour ou se type d'I.A. émergera et si elle émergera un jour, mais les développements se poursuivre à un rythme effréné.

L'I.A. forte est associée en générale à deux type de support; les robots et les mondes virtuels. Dans un de mes projets, "Créolia world", dont vous pouvez lire un article sur mon blog, j'ai programmé des bots afin qu'ils puissent communiquer avec des visiteurs, le but était de pré-programmer des réponses à des phrases précises ou des mots clés, mais aussi de faire en sorte que le bot puisse apprendre de nouvelles réponses lorsqu'il ne reconnaissait pas une phrase, un peu à la façon d'un bébé.
Il est intéressant de constater que plus l'interaction avec le bot est importante plus vite il apprend, mais la tâche reste très vaste. En introduisant des règles de grammaire (repérage du sujet, du verbe, de l'adjectif via une ontologie) on pouvait améliorer son auto-apprentissage. Le but était de s'approcher du test de Turing, bien que le système n'aurait jamais eu véritablement conscience de lui-même. On parle souvent d'IA-Germe pour désigner ce type de programme, on va réduire l'espace de recherche en trouvant des heuristiques ou des méthodes d'invention.

Dans l'ouvrage de Serge Boisse intitulé 'L'esprit, l'I.A. et la singularité', l'auteur propose justement de commencer le travail d'apprentissage à partir d'un monde virtuel.
Les jeux proposent de nombreuses applications pour résoudre des problèmes, et la majorité d'entre eux font appel à de l'I.A. pour cela. Dans les années 60 John Macarty propose le célèbre algorithme minimax qui servira notamment à la programmation de l'intelligence artificielle des jeux de réflexion, tels que les échecs, les dames, puissance4 (qui est aussi un jeu à explosion combinatoire comme les deux premiers mais qui présente la particularité de favoriser celui qui commence la partie, en effet Victor Allis a démontré que les joueurs qui commence la partie gagnent toujours... en jouant bien), etc...

J'ai pu utiliser cet algorithme enrichi, l'élagage alpha/béta, pour programmer un jeu d'échec lorsque j'étais au lycée, puis de nombreux autres (dames, othello, puissance4, etc..) pendant mes études. Pour chacun d'eux il faut bien connaître les règles afin de fixer la fonction d'évaluation pour les coups à jouer. Cette fonction permettra en effet à l'ordinateur d'avoir un bon niveau à mesure que la profondeur d'analyse augmente, à noter que cela est impossible au jeu de go, d'où la complexité à programmer une I.A. efficace contre les meilleurs joueurs. Chose qui a été accomplie par Google Deepmind en 2015 contre le meilleur joueur Européen (5-0 pour la machine AlphaGo) puis contre l'un des tout meilleurs mondiaux en 2016 (4-1 pour la machine AlphaGo), grâce à des algorithmes de deep learning (voir plus bas).

Pour terminer cette section sur l'I.A. forte, je vous parlerai du célèbre logicien, informaticien et philosophe Douglas Hoftstadter qui a développé il y a quelques années plusieurs programmes qui pouvaient fonctionner par raisonnement analogique. On peut citer le programme Copycat qui peut s'inventer des rôles, ce qui implique qu'il se modifie lui-même en fonction des questions qui lui sont posés.

Un autre programme, aussi surprenant, est Phaeaco, conçu par Harry Fondalis et Douglas Hoftstadter en 2005/2006. Il résout notamment les problèmes d’analogies visuelles (dits aussi problèmes de Bongard). Pour survivre dans la nature, les cerveaux des animaux ont besoin de programmes de cette sorte. Pour rechercher les caractéristiques communes des images, Phaeaco est guidé par les « idées » qu’il peut avoir à un moment donné sur tous les concepts possibles.

Pour que ces programmes deviennent un jour intelligents (on compare au monde animal), selon les concepteurs, il faudrait qu'ils puissent acquérir la capacité d’introspection, afin de comprendre les raisons de leur choix. Cela a été l’objet du programme « metacat » dont les résultats sont très difficiles à interpréter à ce jour. Il leur manque aussi la notion de « but », fondamentale dans le cadre de l’I.A. forte.

Indiquons, à propos des programmes dotés de capacités heuristiques, que Douglas Lénat, créateur de Cyc, avait écrit en 1981 un programme intitulé "Eurisko" qui serait encore un des plus "intelligent" jamais conçu. Ce programme est capable de démontrer des théorèmes mathématiques, proposer des suggestions, expliciter ses modes de raisonnement. C'est une simulation avancée de la créativité, qui est une chose propre à l'homme et qui le distingue du monde animal.


b) I.A. FAIBLE

On peut dire qu'aujourd'hui l'I.A. faible est partout, dans nos maisons (Ordinateurs, domotique, robots de cuisine...), dans nos voiture (ordinateur de bord, GPS...), dans notre poche (smartphone, consoles de jeux portables...), sur notre lieu de travail (Réseaux d'ordinateurs, caméra de surveillance, dispositif de pointage...), il est impossible d'y échapper dans les pays modernes et mêmes dans les pays en voie de développement (du fait de l'abondance des téléphones portables).


Lorsque vous travailler sur un ordinateur vous interagissez avec le système d'exploitation (son cerveau pour ainsi dire) qui s'occupe de tout gérer entre les différents programmes et les données, le matériel (carte mère) et les périphériques (clavier, imprimante, etc...).
Si vous travaillez sur un traitement de texte, vous aurez la possibilité d'utiliser le correcteur orthographique ou encore la reconnaissance vocale pour dicter votre texte.
Si vous avez besoin d'information vous allez utiliser un moteur de recherche sur le web a qui vous donnerez des informations sur ce que vous désirez trouver.
Pour cela le moteur utilisera ses algorithmes pour vous fournir toutes les informations recherchées.

Il vous proposera même de les traduire dans votre langue si le résultat se trouve sur un site étranger.

La liste est encore longue, mais tous ces programmes sont en fait de l'I.A. dite faible car spécialisée dans quelques tâches bien précises.
Dans le cadre de mon activité je suis parfois amené à créer un système expert, c'est à dire un logiciel qui sera capable de simuler une tache précise comme le ferait un expert humain.
Pour réaliser cela le système expert doit tout d'abord se constituer une base de connaissances théoriques (ontologie) afin qu'elles ne disparaissent pas si le détenteur n'est plus là.

L’intérêt des systèmes experts est de gagner un temps considérable dans l'analyse des données.
Ainsi on obtient rapidement des résultats. Par exemple dans le LHC (Large Hadron Collider) du CERN, les milliards de données générées chaque semaine par les collisions de protons, sont analysés par des ordinateur que l'on a programmé spécifiquement, car il est bien évident que cela n'est pas à la porté d'un être humain (à moins d'être immortel...).

Les systèmes experts que j'ai programmé l'ont été dans les domaines du génie civil et des télécommunications. J'en parlerai plus en détail dans un prochain article qui sera consacré au génie logiciel.


En ce moment je travail sur une application smartphone dont le but est de géolocaliser des commerçants en fonction d'un mot clé proposé en recherche (exemple : pantalon), l'appli est disponible en 4 langues et permet aussi d'obtenir diverses informations sur les commerces trouvés (horaires, coordonnées, galerie photo...), de plus à terme il proposera une option boutique qui permettra à l'utilisateur d'acheter son article en ligne ou de le réserver avant de passer le récupérer chez le commerçant. C'est application aura pour nom 'Kikoté' :
C'est un cas typique d'I.A. faible, en effet l'application va utiliser plusieurs modules spécialisés pour fonctionner : un moteur de recherche, un traducteur et un système de géolocalisation pour citer les 3 principaux.

Son lancement est prévue pour la rentrée 2016 mais peut être repoussé car la base de données n'est pas complète. L'appli sera disponible sur Android, Windows mobile ainsi que sur IOS.

Un autre outil qui peut être utilisé en I.A. est le réseau bayésien. Pour reprendre sa définition, il s'agit d'un modèle graphique probabiliste représentant des variables aléatoires sous forme de graphes orientés acycliques.

On peut l'utiliser pour différentes fonctions, par exemple comme outil d'aide à la décision. Dans ce premier exemple on va utiliser d'anciennes données pour les comparer aux données actuelles afin de proposer une tendance future et permette ainsi à un dirigeant de prendre plus facilement ses décisions. Ce sont donc des probabilités, qui seront d'autant plus efficaces que la quantité de données en amont sera importante. Je l'implémente dans certains logiciels de gestion que j'ai développé pour des bureaux d'études notamment.

Un autre exemple concerne la modélisation des connaissances en utilisant un outil mathématique basé sur le théorème de bayes en probabilité, il s'agit des réseaux bayésiens.

Au cours de mes développements j'ai eu à les utiliser plusieurs fois pour des projets originaux.
Vous pouvez trouver sur internet une importante documentation sur les réseaux bayésiens et leurs domaines d'action, notamment les travaux du mathématicien David Blackwell.

En voici la définition formelle :

Il existe plusieurs façons de définir un réseau bayésien. La plus simple exprime la loi de probabilité jointe sur l'ensemble des variables aléatoires modélisées dans le réseau. Un réseau bayésien est un graphe orienté acyclique G = (V, E) avec V l'ensemble des nœuds du réseaux et E l'ensemble des arcs. À chaque nœud x appartenant à V du graphe est associé la distribution de probabilité conditionnelle suivante :
P(x\,{\big |}\,\operatorname {pa}(x))\, où pa(x) représente les parents immédiats de x dans V
L'ensemble V est donc un ensemble de variables aléatoires discrètes. Chaque nœud de V est conditionnellement indépendant de ses non-descendants, étant donné ses parents immédiats. Il est ainsi possible de factoriser les distributions de probabilité conditionnelles sur l'ensemble des variables en en faisant le produit2,3 :
{\mathrm  P}(V)=\prod _{{x\in V}}{\mathrm  P}{\big (}x\,{\big |}\,\operatorname {pa}(x){\big )}
Ce résultat est parfois noté JPD, pour distribution de probabilité jointe. Cette définition peut être retrouvée dans l'article Bayesian Networks: A Model of Self-Activated Memory for Evidential Reasoning, où Judea Pearl introduit le terme « réseau bayésien »4.

L'un des tous premiers projets pour lequel j'ai eu à utiliser cet outil mathématique concerne la réalisation d'une base de données pour une clinique dans le cadre d'un projet de recherche scientifique.


Il y avait une grande quantité de données à traiter et l'idéal dans ce cas était d'utiliser des techniques de fouille de données (data mining) afin de pouvoir traiter ensuite des statistiques et dégager des tendances pour valider l'étude.

L'utilisation des réseaux bayésiens étaient donc un choix logique.






Un autre projet que j'ai mené avait pour but de combattre les courriers indésirables. Pour que mon logiciel anti-spam puisse apprendre à reconnaitre ce qu'est un courrier indésirable du point de vu de l'utilisateur, il fallait développer une I.A. et dans ce cas aussi l'utilisation de réseaux bayésiens s'est avérée extrêmement efficace.

Ce logiciel (EDEO Anti-Spam) a plusieurs fonction pour l'analyse du courrier, par exemple avant d'utiliser le module d'I.A., on peut faire de l'analyse sur l'origine du courrier, certains noms de domaine, afin de constituer une black liste et d'éliminer de nombreux courriers. Courriers qui sont toujours stockés en quarantaine au cas où l'un d'entre eux serait un bon courrier.

L'intelligence artificielle peut être activée ou désactivée à partir du menu des paramétrages. Il y a aussi une option spéciale que l'on retrouve aujourd'hui chez de nombreuses solutions de gestion de courriers, il s'agit d'une option qui envoi un formulaire d'identification à la personne qui souhaite communiquer, une fois le formulaire complété et renvoyé, le logiciel autorisera l'échange de courriers.

A noter que les réseaux de neurones (un autre outil de l'intelligence artificielle inspiré des neurones biologiques formels, introduit dès les années 50 par deux neurologues Warren McCulloch et Walter Pitts) sont souvent optimisés par des méthodes d'apprentissage de type bayésiens, ils constituent l'outil de base du connexionnisme, un courant de recherche qui a vu le jour vers la fin des années 80. La logique bayésienne elle étant formulée par le théorème de Cox-Jaynes.
Si les réseaux de neurones vous intéressent je vous recommande le livre de Claude Touzet (Les réseaux de neurones artificielles) publié en 1992, mais qui reste une référence dans le domaine.

Si le Machine learning (l'apprentissage automatique des systèmes) vous interpelle, Google propose depuis quelques temps en open source un outil logiciel TensorFlow : https://www.tensorflow.org/
Vous pourrez ainsi vous initier aux différentes techniques et ensuite développer un projet concret.

Depuis quelques années on parle beaucoup du big data, une masse d'information très importante générée par différents devices informatiques (les smartphones, les tablettes, les pc, les objets connectés...) et qui ne cesse de croitre. En traitant ces données avec de nouvelles méthodes on va pouvoir les exploiter au mieux et dégager des résultats impossibles à prévoir auparavant. Ces techniques sont basées sur le deep learning (apprentissage profond) et elles ont été popularisées par le français Yann Lecun.

Un dernier exemple d'outil pour l'I.A. que j'ai utilisé pour un projet sont les systèmes multi-agents (SMA). Ils sont utilisés dans différents domaines (la finance, la modélisation de sociétés...) notamment les jeux vidéo.
Dans l'un d'entre eux que j'ai présenté lors d'un précédent article (Genesis 4) leur utilisation était nécessaire pour modéliser le comportement des groupes d’alliés et d'ennemies. L'ennemie va organiser ses techniques de combat en fonction du nombre d'adversaires, de leurs armements, du terrain, etc... et ce sont les algorithmes des systèmes multi-agents qui vont permettent au jeu de développer l'intelligence des avatars non contrôlés par le joueur.


 En conclusion de cet article, on peut parler des algorithmes génétiques, un outil développé dans les années 60 par John Holland et quelques collègues.
Les algorithmes génétiques sont basés sur des phénomènes biologiques, des notions sur des termes en génétiques sont donc nécessaire afin de bien les comprendre.

Les organismes vivants sont constitués de cellules, dont les noyaux comportent des chromosomes qui sont des chaînes d'ADN. L'élément de base de ces chaines est un nucléotide, identifié par sa base azotée (A, T, C ou G). Sur chacun de ces chromosomes, une suite de nucléotides constitue une chaîne qui code les fonctionnalités de l'organisme (la couleur des cheveux par exemple). Ainsi, un gène est une phrase fonctionnelle le long de la chaîne. La position d'un gène sur le chromosome est son locus. L'ensemble des gènes d'un individu est son génotype et l'ensemble du patrimoine génétique d'une espèce est le génome. Les différentes versions d'un même gène sont appelées allèles (chez les jumeaux elles sont identiques).

On utilise aussi, dans les algorithmes génétiques, une analogie avec la théorie de l'évolution (Charles Darwin) qui propose qu'au fil du temps, les gènes conservés au sein d'une population donnée sont ceux qui sont le plus adaptés aux besoins de l'espèce vis-à-vis de son environnement.

On retrouve donc avec les algorithmes génétiques la même cinématique que dans le vivant, à savoir :

la reproduction, la sélection, l'enjambement et la mutation, ainsi de suite.

Il est important aussi d'avoir des notions sur les logiques modales, parmi lesquelles on trouve :
- Les logiques modales aléthiques (ou aristotéliciennes),
- Les logiques épistémiques,
- Les logiques déontiques,
- Les logiques temporelles,
- Les logiques doxastiques,
- Les logiques contrefactuelles,
- Les logiques dynamiques.

Chacune de ces logiques est munie d'un ensemble d'axiomes que vous pourrez trouver sur internet. Par exemple pour les systèmes multi-agents que nous avons vu plus haut, on utilisera beaucoup les axiomes de la logique déontique.

Voilà c'est terminé, si cet article vous a plus et que vous souhaitez en savoir plus sur certains sujets ou obtenir le code source du logiciel EDEO Anti-Spam, n'hésitez pas à me contacter.

Olivier EDWIGE


Commentaires

Articles les plus consultés