Base théorique et méthodes du raisonnement automatique statistique
Autor: | Jean-François Grandin |
---|---|
EAN: | 9782322530816 |
eBook Format: | |
Sprache: | metaCatalog.groups.language.options.français |
Produktart: | eBook |
Veröffentlichungsdatum: | 29.01.2024 |
Untertitel: | INTELLIGENCE ARTIFICIELLE |
Kategorie: | |
Schlagworte: | Raisonnement Automatique Statistique croyances intelligence artificielle probabilités |
29,99 €*
Versandkostenfrei
Die Verfügbarkeit wird nach ihrer Bestellung bei uns geprüft.
Bücher sind in der Regel innerhalb von 1-2 Werktagen abholbereit.
Ce livre est une synthèse issue de quarante ans d'expérience de l'auteur dans le domaine du raisonnement automatique, des méthodes statistiques, des apprentissages symboliques et neuronaux et de leurs applications. De nombreuses tâches sont aujourd'hui automatisables : diagnostic médical, diagnostic financier, expertise juridique, programmation, conduite automobile. Ce sont des tâches intellectuelles hier dédiées à l'humain. L'automatisation y est construite principalement sur la perception et l'association à des comportements adaptés. On présentera les principales méthodes permettant d'apprendre à partir des données : des arbres de décisions à l'apprentissage neuronal profond (deep learning) et sa création ChatGPT. Le risque majeur de l'IA, au delà de la pertinence, est la qualité et la fiabilité de l'information produite. C'est à ce point essentiel qu'est consacrée une grande partie de ce livre. Plus loin, l'IA d'aujourd'hui n'a pas conscience de ce qu'elle manipule, donc elle ne réfléchit pas. Le raisonnement automatique est un pas crucial à franchir pour accéder à l'IA pensante, dite IA générale. La construction du raisonnement logique et déductif est un savoir-faire fondamental. Ce deuxième point occupe également une grande partie de ce livre. L'exposé revient aux axiomes et à la théorie de base concernant la construction des décisionnelles et la propagation des incertitudes. Ces techniques sont utilisées , entre autres, pour les applications de reconnaissance et pistage d'objets et pour le raisonnement automatique dont l'IA. Toute personne impliquée dans la conception en IA ou simplement passionnée par ce sujet devrait connaître les théories et méthodes présentées dans ce livre.
Je suis à l'origine de plusieurs brevets et articles internationaux dans le domaine du traitement de données. J'ai étudié et conçu des méthodes de traitement du signal et de l'image, d'optimisation et d'estimation. Je les ai appliquées dans les domaines civils et militaires. Je me suis intéressé à l'apprentissage numérique, symbolique, neuronal et hybride en focalisant sur les performances, la pertinence et la fiabilité des résultats. J'ai co-encadré les grands projets Intelligence Artificielle de THOMSON-CSF (aujourd'hui THALES) : * PSIA Projet Stratégique Intelligence Artificielle (1984 à 1989) portant sur les Systèmes Experts. *PSRN1 et PSRN2 Projets Stratégiques Réseaux Neuronaux (1989 à 1992). *PSAA Projet Stratégique Apprentissage Automatique (1993 et 1994). Ces projets, en coopération avec de nombreux centres de recherche dont Polytechnique et INRIA, ont donné lieu à plus de 200 publications internationales. J'ai enseigné, en particulier dans le cadre de l'Ecole Centrale de Paris (ECP) les techniques neuronales et classiques concurrentes de 1998 à 2004. Je fus évaluateur apprès du MRT (Ministère de la Recherche et Technologies) puis de la Commission Européenne dans le cadre des projets DOSES (Development Of Statistical Expert Systems) - Corédacteur du rapport d'évaluation remis au Parlement Européen en 1996. Après plus de quarante ans d'activité de recherche et de réalisations, je reste passionné par les systèmes intelligents. Sans conscience, l'Intelligence Artificielle ne peut faire que ce qu'on lui a appris. Cependant, je suis convaincu que des progrès importants sont accessibles grâce au raisonnement automatique prédictif et à des modèles cognitifs assemblant inductions (intuitions), déductions, apprentissage, règles et statistiques.
Je suis à l'origine de plusieurs brevets et articles internationaux dans le domaine du traitement de données. J'ai étudié et conçu des méthodes de traitement du signal et de l'image, d'optimisation et d'estimation. Je les ai appliquées dans les domaines civils et militaires. Je me suis intéressé à l'apprentissage numérique, symbolique, neuronal et hybride en focalisant sur les performances, la pertinence et la fiabilité des résultats. J'ai co-encadré les grands projets Intelligence Artificielle de THOMSON-CSF (aujourd'hui THALES) : * PSIA Projet Stratégique Intelligence Artificielle (1984 à 1989) portant sur les Systèmes Experts. *PSRN1 et PSRN2 Projets Stratégiques Réseaux Neuronaux (1989 à 1992). *PSAA Projet Stratégique Apprentissage Automatique (1993 et 1994). Ces projets, en coopération avec de nombreux centres de recherche dont Polytechnique et INRIA, ont donné lieu à plus de 200 publications internationales. J'ai enseigné, en particulier dans le cadre de l'Ecole Centrale de Paris (ECP) les techniques neuronales et classiques concurrentes de 1998 à 2004. Je fus évaluateur apprès du MRT (Ministère de la Recherche et Technologies) puis de la Commission Européenne dans le cadre des projets DOSES (Development Of Statistical Expert Systems) - Corédacteur du rapport d'évaluation remis au Parlement Européen en 1996. Après plus de quarante ans d'activité de recherche et de réalisations, je reste passionné par les systèmes intelligents. Sans conscience, l'Intelligence Artificielle ne peut faire que ce qu'on lui a appris. Cependant, je suis convaincu que des progrès importants sont accessibles grâce au raisonnement automatique prédictif et à des modèles cognitifs assemblant inductions (intuitions), déductions, apprentissage, règles et statistiques.