Préjudices produits par un système d’IA : reconnaissance, lisibilité, recevabilité

par

dans

⏱︎ Lecture : ~21 min

En bref

Cet article développe un raisonnement issu d’analyses fonctionnelles de préjudices liés à l’usage de systèmes d’intelligence artificielle et s’inscrit dans le prolongement des ressources établies par les juridictions, notamment la fiche n°24 de la Cour d’appel de Paris (Comment réparer les préjudices économiques résultant de l’usage d’un système d’IA ? – 19 juin 2025), qui invite à partir de l’effet produit par le système d’intelligence artificielle pour structurer l’analyse juridique.

La lecture fonctionnelle développée ici s’articule à ces apports en introduisant une méthode d’analyse destinée à être mobilisé en amont de la mise en droit.

Elle formalise l’effet comme unité d’analyse autonome, structurée par ses caractéristiques observables, ses obstacles de qualification, ses liens potentiels avec les régimes de responsabilité, et les acteurs impliqués.

Cette approche vise à renforcer la lisibilité des situations complexes, sans anticiper la qualification juridique, en soutenant le raisonnement expertal, contentieux ou instructionnel par une trame objectivable et transférable.

Elle complète ainsi grilles juridictionnelles existantes par une méthode modulaire, compatible avec l’office du juge comme avec les fonctions d’expertise, de conseil ou d’audit.

À retenir
  • Partir de l’effet observable : l’objectiver (conditions, forme, portée) avec des critères (observabilité, densité, réversibilité), puis qualifier par analogie/émergence et localiser l’obstacle (probatoire, normatif, structurel).
  • Typologie opérationnelle (économique, cognitif, moral, informationnel) croisée avec régimes/acteurs : faute, fait des choses (garde de la structure vs du comportement), produit défectueux (présomption de causalité – dir. 2024/2853), contrefaçon, obligations AI Act (art. 16 & 53).
  • Bénéfice contentieux : rendre l’effet recevable et actionnable malgré l’opacité (traçabilité, présomptions, maillage probatoire) sans créer de responsabilité propre de l’IA, et outiller juge/expert pour la réparation.

1. Cadre de départ

Un droit positif partiellement stabilisé face aux effets produits par les systèmes d’IA

Les systèmes d’intelligence artificielle (SIA), qu’ils relèvent de l’automatisation décisionnelle, du scoring prédictif, des grands modèles de langage (LLM) ou des systèmes experts, produisent des effets observables ou documentés sur les personnes, les structures sociales et les environnements professionnels.

Dans un nombre croissant de contentieux, leur reconnaissance juridique se trouve limitée par trois types d’obstacles :

  • l’absence de qualification juridique stabilisée pour certains effets (captation cognitive, isolement algorithmique, effacement symbolique) ;
  • des difficultés probatoires liées à l’opacité technologique (traçabilité partielle, causalité incertaine, absence de transparence sur les paramètres utilisés) ;
  • une fragmentation des régimes juridiques potentiellement mobilisables (responsabilité pour faute, fait des choses, produits défectueux, contrefaçon).

Les référentiels récemment consolidés (AI Act, règlement 2024/1689, et directive Produits défectueux 2024/2853) permettent une lecture intégrée fondée sur les articulations croisées entre régimes. Il s’agit de structurer l’analyse à partir de l’effet produit, afin d’en faciliter la lisibilité et, le cas échéant, la recevabilité.

La structure analytique mobilisée ici n’a pas de visée prescriptive : elle permet d’objectiver les effets, de clarifier leur recevabilité et d’outiller le raisonnement sans produire de norme.

Elle formalise les conditions permettant d’examiner un effet observable dans un cadre contentieux ou expertal, sans préjuger de la qualification finale retenue.

L’originalité de l’analyse fonctionnelle tient à trois éléments formalisés :

  • une structuration non prescriptive des éléments permettant d’identifier un effet produit, y compris en l’absence de catégorie juridique préexistante ;
  • une articulation de critères objectifs (recevabilité, évaluabilité, soutenabilité) pour outiller le raisonnement juridico-technique sans anticiper sa conclusion ;
  • une localisation des obstacles à la reconnaissance d’un préjudice : incertitude causale, opacité algorithmique, absence de régime mobilisable, permettant de formuler une argumentation recevable sans extrapolation interprétative.

Cette formalisation outille l’analyse juridique en amont de la qualification, en structurant l’effet produit selon des critères observables, mobilisables même en l’absence de régime normatif applicable.

2. Apport méthodologique

2.1. Objectiver l’effet, qualifier le préjudice, localiser l’obstacle

Dans les contentieux impliquant un système d’IA, la première difficulté tient souvent à la nature de l’effet lui-même : il peut être ressenti, observé, mesuré, sans pour autant entrer dans une catégorie juridique préexistante.

Le point de départ est l’effet concret tel qu’il se manifeste dans la réalité des usages.

Cela suppose :

  • de documenter les conditions d’apparition de l’effet (par exemple : déclenchement d’une décision automatisée, suggestion algorithmique, interaction avec un modèle génératif) ;
  • d’en décrire la structure : effet ponctuel, récurrent, différé, diffus, observable sur l’individu, sur un groupe, ou sur une représentation sociale ;
  • d’en identifier la portée : ce qui est altéré, empêché, amplifié, détourné, sur les faits, les trajectoires, ou les représentations.

L’effet devient ainsi une unité d’analyse, non dépendante de son statut juridique initial, mais de sa lisibilité structurelle : ce que le système a produit, de manière directe ou induite.

L’analyse fonctionnelle permet :

  • une typologie des effets selon leur configuration structurelle (exclusion, altération, amplification), en prenant en compte leur forme (ponctuelle, itérative, diffuse), leur origine (déclenchement, renforcement, effacement), leur cible (individu, collectif, symbole) et leur mode de production (direct ou induit) ;
  • des critères d’analyse indépendants du droit : observabilité (peut-on décrire l’effet ?), densité (est-il mesurable ? durable ?), réversibilité (peut-il être annulé ou compensé ?), objectivables en expertise ;
  • une lecture en couches : effet direct (immédiat), effet latéral (secondaire mais persistant), effet symbolique (altérant la perception, la légitimité, la confiance).

2.2. Qualifier le préjudice : transposer sans forcer

Une fois l’effet objectivé, il devient possible de le rapprocher des catégories juridiques disponibles, sans contraindre artificiellement le réel.

Deux voies complémentaires :

  • Qualification par analogie : rattacher l’effet à une catégorie existante (par exemple : stress algorithmique → préjudice moral ; déclassement IA → préjudice économique).>
  • Qualification émergente : faire apparaître un nouveau type de dommage dans une logique jurisprudentielle évolutive (par exemple : captation cognitive, effacement symbolique, assignation algorithmique).

Cette opération suppose :

  • de démontrer le caractère certain de l’effet (ou sa probabilité structurelle dans un usage donné) ;
  • d’examiner si l’effet peut être rattaché à un intérêt juridiquement protégé ;
  • d’anticiper les conséquences de la reconnaissance (indemnisation, régulation, désignation d’un responsable, entre autres).

L’objectif est de stabiliser un faisceau d’indices permettant au juge d’argumenter la recevabilité, même en l’absence de régime explicite.

2.3. Localiser l’obstacle : pourquoi l’effet n’est pas reconnu

A. Obstacle probatoire

  • Absence de logs, de documentation, ou de traçabilité ;
  • Complexité technique empêchant l’analyse par un expert ordinaire ;
  • Chaîne d’intermédiation trop longue entre l’effet et son déclencheur.

Effet attendu : le dommage existe, mais ne peut être démontré selon les standards actuels de preuve.

B. Obstacle normatif

  • Aucune norme ne reconnaît la valeur juridique de l’effet (par exemple : isolement algorithmique) ;
  • L’intérêt atteint n’est pas protégé ;
  • Aucun régime de responsabilité ne s’applique clairement.

Effet attendu : l’effet est lisible, mais ne peut être qualifié juridiquement.

C. Obstacle structurel

  • Auteur indéterminable (développement versus déploiement) ;
  • Action sans intervention humaine directe (imputation difficile) ;
  • Dommage diffus, régime applicable éclaté.

Effet attendu : le dommage est reconnu, mais ne peut être rattaché clairement à un responsable.

2.4. Fonction stratégique dans le raisonnement judiciaire

Dans les contextes contentieux impliquant un système d’IA, l’analyse fonctionnelle permet de structurer l’argumentation à partir des effets produits, sans présupposer leur qualification juridique.

Cette structuration joue un rôle stratégique à plusieurs niveaux du raisonnement judiciaire.

A. Ancrage factuel

Elle fonde l’analyse sur des éléments observables : effet concret, condition de déclenchement, portée. L’argument repose sur la matérialité de l’effet, et non sur la disponibilité immédiate d’un cadre normatif.

B. Neutralisation des rejets par défaut de régime

Lorsque l’argument juridique échoue en raison de l’absence de régime explicitement mobilisable, l’analyse fonctionnelle fournit une base recevable en objectivant l’effet lui-même. Ce déplacement limite les refus d’examen motivés par l’impossibilité de qualifier directement le dommage.

C. Stabilisation argumentative

L’effet devient une unité logique structurante : il est décrit, situé, documenté, puis confronté aux obstacles (probatoires, normatifs, structurels) qui en entravent la reconnaissance. Le raisonnement peut alors se déployer en trois temps :

  • identification du phénomène observable,
  • explicitation de la difficulté d’imputation ou de qualification,
  • formulation d’une articulation recevable avec un intérêt protégé ou un régime existant.

D. Traçabilité argumentative

Cette approche favorise la traçabilité du raisonnement : elle permet au juge ou à l’expert de justifier une décision, y compris en droit lacunaire, en retraçant la chaîne logique depuis l’effet jusqu’à l’obstacle rencontré, sans rupture de cohérence ni extrapolation.

3. Typologie élargie des préjudices

L’analyse des préjudices produits par un système d’intelligence artificielle peut être structurée à partir d’une triple articulation :

  • les fondements du droit positif mobilisable (code civil, RGPD, AI Act, directive 2024/2853 sur les produits défectueux) ;
  • les catégories doctrinales issues de la théorie générale du dommage (préjudice certain, moral, écologique, etc.) ;
  • les effets observables dans les usages réels des systèmes d’IA (SIA), qu’ils soient directs, latéraux ou induits.

Cette typologie n’a pas de visée prescriptive. Elle fournit un cadre d’analyse préalable, permettant de nommer, décrire et objectiver les effets constatés.

Elle peut être mobilisée dans différents contextes procéduraux ou techniques :

  • en expertise, pour circonscrire un effet mesurable ou déductible à partir des éléments techniques disponibles ;
  • en instruction, pour caractériser une atteinte factuelle, indépendamment de la reconnaissance juridique consolidée ;
  • en réparation, pour identifier la diversité des chefs de préjudice susceptibles d’être mobilisés, y compris hors des atteintes patrimoniales classiques.

Cette approche se situe dans la continuité des exigences posées par le Règlement (UE) 2024/1689 (AI Act) en matière de documentation, de transparence et d’évaluation des risques, ainsi que dans la logique probatoire évoquée dans la fiche n° 24 de la Cour d’appel de Paris (19 juin 2025), relative à l’usage contentieux des systèmes d’IA.

3.1. Quatre catégories d’effets à visée opérationnelle

L’effet produit par un système d’IA peut être analysé selon quatre dimensions non exclusives, correspondant à des types d’atteintes distincts mais fréquemment intriqués :

  • Effets économiques : pertes ou désavantages patrimoniaux (par exemple : refus de crédit fondé sur un score erroné, tarification dynamique inéquitable, déclassement professionnel induit).
  • Effets cognitifs ou attentionnels : altération de la capacité de discernement, de concentration, de mémoire ou d’autonomie décisionnelle (par exemple : captation attentionnelle, interférence algorithmique répétée).
  • Effets moraux ou identitaires : atteintes à l’image, à la réputation, à la dignité ou à l’intégrité symbolique d’une personne ou d’un groupe (par exemple : exposition dégradante, assimilation non consentie).
  • Effets informationnels ou structurels : défauts d’accès, de traçabilité ou de fiabilité des informations associées à un individu, un contenu ou un processus (par exemple : opacité d’un score, données biaisées, preuves inaccessibles).

3.2. Corrélation entre effet, régime juridique et acteur impliqué

Sans présumer de l’issue contentieuse, il est possible de mettre en relation un effet observable, les régimes mobilisables selon les circonstances et les acteurs susceptibles d’être mis en cause au regard de leur rôle technique ou décisionnel :

  • Effet économique : responsabilité fondée sur la faute (C. civ. 1240), le fait des choses (C. civ. 1242) ou, à défaut, directive 2024/2853 (présomption de causalité en cas de complexité technique). L’acteur en cause peut être le fournisseur (défaut structurel) ou le déployeur (erreur de paramétrage ou de contexte d’usage).
  • Effet cognitif : articulation possible avec le RGPD (autonomie informationnelle), l’AI Act (documentation, explicabilité) ou la responsabilité pour faute en cas d’usage inadapté. L’acteur visé sera en général le déployeur.
  • Effet moral ou identitaire : fondement possible en responsabilité civile (C. civ. 1240), voire en contrefaçon (en cas d’imitation substantielle). La désignation de l’acteur dépend du contrôle effectif sur le contenu généré ou diffusé.
  • Effet informationnel : la rétention ou l’opacité peuvent constituer des manquements à une obligation légale (par exemple : AI Act, art. 16 et 53), engageant potentiellement la responsabilité du fournisseur et / ou du déployeur selon le partage des rôles.

3.3. Obstacles typiques et leviers d’analyse

  • Effet économique : la démonstration de la causalité est souvent complexe ; la directive 2024/2853 offre un levier par présomption en cas de complexité technique (art. 11).
  • Effet cognitif : l’intérêt protégé peut sembler difficile à identifier ; s’appuyer sur le principe d’autonomie informationnelle (RGPD) ou sur les exigences d’explicabilité posées par l’AI Act.
  • Effet moral ou identitaire : l’absence d’intention de la machine n’empêche pas la reconnaissance d’un effet portant atteinte à la réputation ou à la dignité ; le raisonnement se fonde sur la matérialité de l’effet subi.
  • Effet informationnel : à défaut de régime sanctionnant directement l’opacité, l’abstention peut être analysée comme un manquement à une obligation d’information ou de traçabilité (par exemple : AI Act, art. 16 et 53).

3.4. Apports pour le magistrat ou l’expert

Ce cadre analytique soutient le travail d’analyse sans empiéter sur la fonction de qualification ou de décision.

Il peut notamment servir à :

  • désigner un effet identifiable avant toute mise en droit ;
  • renforcer la recevabilité probatoire d’un dommage mal caractérisé ;
  • structurer une qualification ultérieure en facilitant l’articulation entre faits et droit ;
  • constituer une grille d’audit en expertise, en amont d’une procédure ou dans un rapport technique.

4. Chaînes de responsabilité et obstacles structurels

L’imputation juridique d’un effet dommageable produit par un système d’intelligence artificielle (SIA) soulève des difficultés spécifiques liées à la nature technique de l’objet, à la fragmentation des rôles entre acteurs et à la pluralité des régimes de responsabilité mobilisables.

4.1. Absence de personnalité juridique du système

Un SIA, quelle que soit sa complexité ou son autonomie apparente, demeure un objet technique dépourvu de personnalité juridique. Il ne peut pas, en droit positif, être titulaire de droits ou d’obligations, ni voir sa responsabilité engagée. Ce principe est rappelé notamment dans la fiche n° 24 de la Cour d’appel de Paris (19 juin 2025), qui écarte explicitement la possibilité d’une responsabilité autonome de l’intelligence artificielle.

La recherche de responsabilité s’oriente vers des personnes physiques ou morales qui ont conçu, déployé, paramétré ou utilisé le système.

4.2. Responsabilité pour faute (C. civ. art. 1240–1241)

La responsabilité pour faute demeure un fondement central en droit civil français.

Elle implique la réunion de trois éléments :

  • un fait fautif, tel qu’un manquement aux obligations légales applicables (par exemple : non-respect des exigences de l’AI Act, art. 16, sur la documentation et la gestion des risques) ;
  • un dommage certain, personnel et direct, affectant une personne identifiable ;
  • un lien de causalité établi entre la faute et le dommage.

Pour les SIA, plusieurs obstacles compliquent la démonstration : opacité technique limitant l’accès aux paramètres ou aux logs, chaîne d’acteurs fragmentée créant une incertitude d’imputation, barrières probatoires empêchant la preuve directe du lien causal. Le recours à des présomptions réfragables, notamment en cas de complexité technique avérée, est admis dans certaines hypothèses par la directive 2024/2853 et la jurisprudence.

4.3. Responsabilité fondée sur le fait des choses (C. civ. art. 1242)

La responsabilité du fait des choses peut s’appliquer lorsque le système d’IA est assimilé à un instrument actif du dommage. Il convient d’identifier un gardien, c’est-à-dire une personne disposant d’un pouvoir d’usage, de direction et de contrôle sur la chose.

Deux formes de garde peuvent être distinguées :

  • Garde de la structure : généralement attribuée au fournisseur du système, responsable de l’architecture et des propriétés techniques ;
  • Garde du comportement : pouvant relever du déployeur, qui maîtrise les conditions concrètes d’usage et d’interaction avec les usagers.

Cette distinction permet, selon les cas, d’imputer la responsabilité au bon niveau de la chaîne technique ou opérationnelle.

4.4. Régime du produit défectueux (Directive 2024/2853)

Le régime européen de responsabilité du fait des produits défectueux, révisé par la directive (UE) 2024/2853, s’applique aux systèmes d’IA considérés comme produits mis sur le marché.

Trois éléments structurent ce régime :

  • la défectuosité, définie comme un défaut de sécurité que l’on est en droit d’attendre (art. 6) ;
  • une présomption de causalité applicable en cas de complexité technique empêchant la preuve directe (art. 11) ;
  • une responsabilité sans faute susceptible d’impliquer plusieurs acteurs selon leur rôle (fabricant, importateur, intégrateur, fournisseur d’IA).

Ce régime est particulièrement pertinent lorsque le dommage résulte du fonctionnement autonome du système, sans faute humaine immédiatement identifiable.

4.5. Contrefaçon (Code de la propriété intellectuelle)

Lorsqu’un système d’IA est entraîné sur des œuvres protégées sans base juridique valide, ou lorsqu’il génère des contenus reprenant substantiellement des caractéristiques protégées, une atteinte au droit d’auteur peut être caractérisée.

Trois éléments d’examen :

  • la licéité de l’entraînement (base légale, respect des exceptions) ;
  • la substantialité de la reprise dans le contenu généré ;
  • l’existence d’une atteinte à l’exploitation normale de l’œuvre.

L’article 53 de l’AI Act impose aux fournisseurs de modèles d’IA à usage général de publier un résumé des jeux d’entraînement utilisés. Cette disposition constitue un point d’appui probatoire, sans valoir preuve directe d’un usage contrefaisant. Elle peut orienter l’examen technique ou guider la demande de production de preuves complémentaires.

5. Apports de la lecture fonctionnelle pour le raisonnement judiciaire ou expertal

La lecture fonctionnelle des effets produits par un système d’intelligence artificielle modifie l’entrée du raisonnement : elle part de l’effet observable, autonome, descriptible, traçable, pour structurer une mise en lien soutenable avec le droit applicable. Cette perspective offre au magistrat, à l’expert ou à l’auditeur une méthode d’analyse stable dans des zones où les qualifications classiques s’avèrent inopérantes, prématurées ou insuffisantes.

Cette méthode produit une unité d’analyse recevable : l’effet, une fois identifié, formulé et documenté, peut être examiné indépendamment de l’existence immédiate d’un régime consolidé. Il devient analysable par analogie, évaluable au regard de plusieurs corpus normatifs et transmissible dans une chaîne contentieuse ou probatoire. L’effet ainsi stabilisé offre un point d’ancrage rigoureux, compatible avec la structure procédurale du contradictoire et respectueux de l’office du juge.

La lecture fonctionnelle permet de maintenir un raisonnement juridiquement soutenable dans des contextes où la causalité est difficile à établir, la preuve partielle, ou le régime applicable en transition. Elle rend possible une mise en forme argumentée, compatible avec les exigences de recevabilité, et capable d’éclairer une atteinte sans dépendre d’une catégorie juridique unique. Elle soutient ainsi les fonctions d’articulation, de hiérarchisation et de justification attendues dans l’instruction, l’audit ou le jugement.

Appuis concrets pour le magistrat ou l’expert : formuler une atteinte sans préjuger de sa qualification définitive, articuler un raisonnement entre éléments techniques, usages réels et normes existantes, situer avec précision les obstacles rencontrés (preuve, opacité, fragmentation de responsabilité) et proposer des voies de contournement juridiquement recevables.

Cas illustratifs

Système algorithmique de présélection dans un processus de recrutement

  • Effet identifié : déclassement ou exclusion de profils atypiques non alignés avec les critères implicites du modèle.
  • Obstacle situé : opacité technique, documentation lacunaire, difficulté à retracer la chaîne décisionnelle (fournisseur, intégrateur, utilisateur final).
  • Mise en lien juridique possible : préjudice économique (perte d’opportunité), principe d’égalité de traitement (Code du travail, art. L1132-1), décision individuelle automatisée (RGPD, art. 22), obligation de transparence (AI Act, art. 16).

Générateur de contenus reproduisant des caractéristiques stylistiques distinctives

  • Effet identifié : désappropriation symbolique, ou exploitation non autorisée d’éléments issus d’œuvres protégées.
  • Obstacle situé : difficulté à établir l’accès effectif à l’œuvre source et à démontrer une transformation substantielle.
  • Mise en lien juridique possible : atteinte aux droits d’auteur (Code de la propriété intellectuelle), contrefaçon par reproduction ou imitation, mobilisation de l’AI Act (art. 53, publication des jeux d’entraînement).

Système d’assistance à la conduite ayant généré un comportement non conforme aux attentes de sécurité

  • Effet identifié : dommage corporel ou matériel induit par une action autonome du système.
  • Obstacle situé : absence de responsable unique, impossibilité de reconstituer précisément le comportement fautif.
  • Mise en lien juridique possible : responsabilité du fait des produits défectueux (directive 2024/2853), défaut de vigilance dans la conception ou la supervision (AI Act, exigences de gouvernance du risque).

Dans ces trois cas, le raisonnement progresse par stabilisation de l’effet, articulation des obstacles et construction d’une trajectoire interprétative recevable.

Conclusion

L’analyse des préjudices produits par un système d’intelligence artificielle repose sur une structuration rigoureuse des effets observables. Cette approche fonde le raisonnement sur des éléments concrets, descriptibles ou mesurables, qui éclairent l’impact réel du système sur les personnes, les trajectoires ou les environnements.

Le cadre proposé favorise la lisibilité des effets dans leur diversité, qu’ils relèvent d’une atteinte économique, cognitive, identitaire ou informationnelle. Il facilite la mise en relation entre les faits constatés, les régimes juridiques mobilisables et les acteurs impliqués. Il renforce ainsi la cohérence analytique des situations examinées, tout en soutenant la recevabilité de leur examen contentieux ou expertal.

Cette méthode s’inscrit dans les espaces où le droit évolue par translation, ajustement ou requalification. Elle offre des appuis concrets en expertise, en instruction ou en audience. Elle permet de documenter une atteinte, de clarifier la chaîne causale et de structurer un raisonnement conforme au droit applicable.

Elle s’aligne sur les exigences du RGPD, de l’AI Act et de la directive 2024/2853. Elle soutient l’autonomie de l’analyse juridique, renforce la solidité des argumentations et contribue à l’évaluation des effets dans un cadre interprétatif stable. Elle prévient l’invisibilisation des effets non qualifiés et favorise l’intégration progressive des effets produits par les SIA dans les raisonnements juridiques contemporains.

Champs exclu : Préjudices médicaux et cadre d’analyse

Les préjudices liés à des dommages corporels ou psychiques, en contexte médical, n’entrent pas dans le périmètre de la présente analyse.

Leur traitement suppose en effet un encadrement spécifique, en raison de la structure juridique propre à ce domaine : régimes de responsabilité distincts (loi Kouchner, ONIAM, CRCI…), chaînes de causalité médicales, temporalités différées ou cumulatives, et mécanismes probatoires atypiques (présomptions, expertises, aléas thérapeutiques…).

Une extension fonctionnelle du cadre mobilisé ici serait requise pour intégrer ces spécificités sans dénaturer la lisibilité des effets.

À date de publication de la présente analyse, cette extension n’a pas été formalisée.

Références

***

Cet article outille un raisonnement. Il ne préjuge pas de la qualification juridique, n’énonce aucune norme et ne se substitue ni à l’office du juge ni au contradictoire. Les références et numérotations sont vérifiées à la date de publication. Toute réutilisation suppose une vérification actualisée.

Comment citer
Format : FR | APA | BibTeX | BibLaTeX | RIS
Voir BibTeX (@article)
@article{metalexis2025effetsiaprejudiciables,
  title = {Pr{{\'e}}judices produits par un syst{\`e}me d’IA : reconnaissance, lisibilit{{\'e}}, recevabilit{{\'e}}},
  author = {{MetaLexis}},
  year = {2025},
  month = aug,
  journal = {Analyses Fonctionnelles - IA},
  url = {https://metalexis.org/analyses-fonctionnelles/ia/effets-ia-prejudiciables/},
  note = {Disponible sur metalexis.org}
}
Voir BibLaTeX (@online)
@online{metalexis2025effetsiaprejudiciables,
  author   = {{MetaLexis}},
  title    = {Pr{{\'e}}judices produits par un syst{\`e}me d’IA : reconnaissance, lisibilit{{\'e}}, recevabilit{{\'e}}},
  date     = {2025-08-07},
  url      = {https://metalexis.org/analyses-fonctionnelles/ia/effets-ia-prejudiciables/},
  urldate  = {2025-10-03},
  langid   = {french},
  keywords = {IA, AI Act, LLM, RIA, SIA},
  note     = {Disponible sur metalexis.org}
}
Voir RIS
TY  - ELEC
TI  - Préjudices produits par un système d’IA : reconnaissance, lisibilité, recevabilité
AU  - MetaLexis
PY  - 2025
DA  - 2025-08-07
UR  - https://metalexis.org/analyses-fonctionnelles/ia/effets-ia-prejudiciables/
KW  - IA
KW  - AI Act
KW  - LLM
KW  - RIA
KW  - SIA
LA  - fr
PB  - MetaLexis
ER  - 

Flux RSS