index - Confiance.ai Accéder directement au contenu

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

Arcadia Method Robustesse AI-Based Systems Christoffel functions Artificial intelligence Distributed learning Data trustworthiness Distribution based method Deep neural network classifiers Data Stream Adversarial Training Anomaly detection Data Visualization Engineering Processes ED-324/ARP6983 Bias Detection Enalty Bayesian Neural Networks Edge computing Long Short-Term Memory Contextual Evaluation Mixed Integer Programming Computer Vision and Pattern Recognition AI-Systems Engineering Adversarial examples Generative Models Neural ODEs Machine learning Explicability Sûreté Semantic segmentation Explicabilité Explanations Realization theory Conformal Prediction Branch-and-Bound algorithm Certification AI engineering Computer vision Robustness Case-based Cryptography and Security Sûreté de fonctionnement Neural network AI-based systems Calibration Bayesian Optimization Computer Vision AI-Based Critical Systems Bayesian optimization Bayesian inference Explainable AI Embedded AI Reliability Custom search space XAI Example-based AI System Characterization Deep Reinforcement Learning Robustness Adversarial Attacks Adversarial Training Data Analysis AI Adversarial attack Counterfactuals Explainability Decision tree Embarqué Automated vehicle Anomaly Dempster Shafer theory Adversarial physical attack Conformal prediction Attack transferability Confiance Assurance case Critical systems Trustworthiness Assessment Data Stream Processing Data-driven reachability Deep Reinforcement Learning Machine Learning Cycle-accurate simulator Adversarial Attacks Anomaly Detection Adversarial attacks Deployment Artificial Intelligence Trustworthiness Attributes Recurrent Neural Networks Deep learning ODD System Identification Confiance explicabilité AI component evaluation methodology Distributed Machine Learning Monitoring Data Quality Evaluation Complexity Intelligence Articifielle Neural Network Concepts