index - Confiance.ai Accéder directement au contenu

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

AI component evaluation methodology Influence Functions Decision tree Calibration Confiance explicabilité Critical systems Explicabilité Embarqué Explainability Explicability Sûreté LSTM Machine Learning Attack transferability Conformal prediction Counterfactuals Long Short-Term Memory Explainable AI Neural Network Recurrent Neural Networks Embedded AI Conformal Prediction Data-driven reachability Data Stream Processing Bayesian inference Intelligence Articifielle Deep learning Adversarial attacks Fault tolerant systems Evaluation Enalty Bayesian Neural Networks AI-Based Systems Neural ODEs GPU Monitoring Distributed Machine Learning Branch-and-Bound algorithm AI AI-Based Critical Systems AI System Characterization Ingénierie algorithmique de l’IA Interpretability and explainability Distributed learning Anomaly detection Arcadia Method Artificial intelligence Cryptography and Security Example-based Adversarial attack Computer Vision and Pattern Recognition Bayesian Optimization Anomaly Detection Hardware Fault detection Artificial Intelligence Gas Distribution Bias Detection Adversarial physical attack Machine learning Robustness Machine leanring Generative Models Trustworthiness Assessment Data Stream Contextual Evaluation Anomaly Mental models Markov Chain Christoffel functions Computer Vision FOS Computer and information sciences Fault tolerance Deep neural network classifiers Data Visualization Sûreté de fonctionnement Custom search space Cycle-accurate simulator Fiabilité Confiance Robustesse Computer vision Explanations Adversarial examples Concepts AI engineering MBSE Realization theory ODD Case-based Data Analysis Distribution based method Federated Learning Trustworthiness Attributes Engineering Processes XAI Data Quality Intelligence artificielle System Identification AI-based systems Complexity