Airbus s’attache à responsabiliser sur l’IA générative et veut créer la confiance

Airbus s'appuie sur la structure GenAiR afin d'accompagner le développement des projets d'IA générative
Newsletter La Revue du Digital


Airbus, géant de l’aéronautique s’est intéressé très tôt à l’IA générative. Le groupe s’est rapidement doté d’une structure pour cadrer les usages en interne. Cette structure veille à l’éthique des IA déployées. Elle doit s’assurer de la confiance que les collaborateurs et les clients peuvent accorder à ces IA.

Nasser Guesmia est en charge des projets d’IA générative dans le groupe Airbus. Il a vu l’arrivée de ChatGPT comme du pain bénit. Il avait déjà participé à la mise en place de 2 plateformes d’IA avant l’avènement de ChatGPT et le buzz autour de ChatGPT est venu en quelque sorte légitimer son action. Il avait travaillé à une plateforme interne entièrement déployée sur site dédiée au service client. La deuxième plateforme était un chatbot.

“L’une des premières questions posées par le business portait sur la fiabilité des réponses

Dès janvier 2023, Airbus s’est intéressé à l’IA générative de ChatGPT de l’américain OpenAI. Cela a initié une réflexion en interne sur la manière dont le groupe devait appréhender l’IA générative. La question de la confiance vis-à-vis de ces IA est immédiatement apparue dans les discussions. « Lorsqu’on a commencé à développer notre premier cas d’usage, l’une des premières questions posées par le business portait sur la fiabilité des réponses » reconnaît-il.



La certitude autour des réponses de l’IA générative est en effet un enjeu clé. « Les utilisateurs nous ont demandé si les réponses générées étaient déterministes. Or ces réponses ne sont pas déterministes » rappelle-t-il. « En manufacturing, les utilisateurs métiers ont besoin de réponses absolument exactes » souligne-t-il.  



Une organisation transverse pour traiter la question de la confiance

Pour faire face à ces problématiques, Airbus a créé une nouvelle structure baptisée GenAiR pour Generative AI Responsible ou IA générative responsable. « Cette structure est organisée en plusieurs groupes, avec un volet de veille technologique et une partie consacrée à la gestion des demandes » décrit-il.

Newsletter La Revue du Digital

“Nous avons été confrontés à un tsunami de demandes, avec de l’ordre de 700 cas d’usage proposés en 2023”

Les demandes ont en effet été nombreuses. « Nous avons été confrontés à un tsunami de demandes, avec de l’ordre de 700 cas d’usage proposés lors de l’année 2023 » se souvient-il. Un questionnaire est alors proposé au porteur d’idée afin de pouvoir classer les différents cas d’usage par grandes familles. On trouve alors les cas d’usage qui sont dédiés à la productivité individuelle et il y a ceux qui interviennent dans le cycle de vie des process.

D’autres cas d’usage sont différenciés en fonction de la nature des données concernées. « Airbus est une entreprise très régulée, notamment sur toute la partie Flight Control, mais également, on a aussi toute une dimension par rapport à la sensibilité de la donnée. Enfin, comme toute entreprise, nous devons aussi protéger notre savoir-faire » liste-t-il.


Un mandat accordé par le Top management

Le troisième champ d’action de l’IA générative responsable dans GenAiR porte sur la stratégie d’implémentation des IA et en particulier sur le volet d’IA responsable. « Il s’agit d’une structure transverse, avec un mandat accordé par le top management. Son action est cross-fonctions et cross-divisions » insiste le responsable.

Avec l’IA, l’idée était de nous préparer à être conformes dès le départ

L’IA générative est une technologie où l’approche de l’IA responsable a pris tout son sens. Outre le volet éthique des IA, Airbus a voulu se préparer aux textes relatifs aux IA qui ont été votés par la suite. Cette décision fait écho à la mise en conformité au RGPD il y a quelques années qui a poussé les équipes à intervenir en rétrofit sur les systèmes existants. « Nous étions en rattrapage de l’existant pour pouvoir nous aligner sur les régulations RGPD. Avec l’IA, l’idée était de nous préparer à être conformes dès le départ » déclare-t-il.

Nasser Guesmia est convaincu que l’IA est une démarche transformative pour l’ensemble de l’entreprise et que cette transformation doit être alignée sur les valeurs d’Airbus, à commencer par la non-discrimination, l’ouverture, la transparence et l’engagement auprès des clients.

Réutiliser au maximum des structures existantes chez Airbus

L’autre postulat de base pour GenAiR était de s’appuyer sur les processus et les structures existantes au sein du groupe, comme les process de gouvernance de données déjà en place. La stratégie IA pouvait ainsi appuyer son action sur une communauté de Data Officers et de Data Custodians déjà en place dans l’organisation.

L’idée était de ne pas réinventer une nouvelle structure, ou un nouveau processus, mais de s’intégrer à l’existant”

Le Data Custodian est le responsable de la mise en place des règles de gouvernance de la donnée. Il contrôle la conservation, le transport et le stockage des données dans l’entreprise. « L’idée était de ne pas réinventer une nouvelle structure, ou un nouveau processus, mais de s’intégrer à l’existant, de la même manière qu’un projet digital. Par exemple, le projet IA doit faire l’objet d’une analyse de risque cyber comme les autres projets » illustre-t-il.

Un pilier important de cette approche de l’IA porte sur la supervision humaine des IA pour Nasser Guesmia. Toute décision d’une IA doit être validée par un humain. « Il faut des garants humains pour chaque PoC [Preuve de concept], chaque projet. On ne veut pas déresponsabiliser les personnes. Nous considérons l’IA comme un assistant » précise-t-il sur la philosophie entourant l’IA chez Airbus.

Chaque projet fait l’objet d’un self-assessment, une auto-évaluation,  pour identifier si son action est potentiellement interdite, acceptable, ou non. La responsabilité est reportée sur les porteurs de projet. La structure GenAiR n’a pas pour rôle de faire la police dans le « backlog », l’historique des projets. Elle vise à responsabiliser chacun sur l’éthique de son IA. Cette approche est en rupture avec la volonté de centralisation de beaucoup d’entreprises, mais qui s’explique aussi par la taille et la décentralisation des activités du groupe Airbus.

Airbus très prudent sur le déploiement d’IA dans ses produits

Un deuxième aspect de la gestion des IA porte sur leur exposition. Une attention toute particulière est apportée aux cas d’usage qui sont utilisés par les clients de l’avionneur, ou même directement dans ses produits. « Pour l’instant, nous avons quelque peu réfréné les demandes en ce sens » reconnaît le responsable. Il se veut très prudent quant au déploiement d’IA dans les avions eux-mêmes.

“Si le projet n’est pas crédible, on n’y va pas ! Sinon tout le monde veut faire tout et n’importe quoi

Pour traiter l’impact environnemental des IA, là encore, Nasser Guesmia a fait le choix de s’appuyer sur l’existant, avec des équipes qui travaillent déjà sur cette question chez Airbus. Enfin, en termes de gestion des coûts, la politique d’Airbus est de ne lancer un projet IA que s’il répond à un solide cas d’usage. « Nous faisons ce que j’appelle le « credible sponsorship ». Si le projet n’est pas crédible, on n’y va pas ! Sinon tout le monde veut faire tout et n’importe quoi » s’exclame-t-il.

Enfin, les modèles sont soigneusement testés et Airbus s’assure que ceux-ci seront conformes en n’étant ni toxiques, ni surdimensionnés et que l’entraînement de ceux-ci respecte la propriété intellectuelle.

Trouver l’équilibre entre le progrès, l’innovation et la responsabilité

Côté conduite du changement, Airbus privilégie la sensibilisation du personnel. Des formations à l’IA et à son impact ont été intégrées au catalogue d’Airbus et, si celles-ci ne sont pas obligatoires, elles sont fortement recommandées.  « On ne fait pas de l’IA pour de l’IA, et on le fait aussi par rapport aux valeurs de notre entreprise. Il faut trouver l’équilibre entre le progrès, l’innovation et la partie responsabilité » résume Nasser Guesmia, GenAI Project Lead d’Airbus. Il a pris la parole le 19 mars à l’occasion de l’événement DIMS qui s’est déroulé à Station F, à Paris et organisé par Innovation Makers Alliance.


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *