Introduction

L'évolution de l'intelligence artificielle (IA) remodèle la société à une échelle comparable à celle de la révolution industrielle.1 Théorie fondée à l'origine à Dartmouth dans les années 1950,2 l'IA est passée du monde universitaire à une force de transformation de notre vie quotidienne. Ces deux dernières années ont été marquées par des avancées particulièrement spectaculaires, l'IA générative (fréquemment appelée "GenAI" ou "genAI") ayant été adoptée par le grand public à une échelle sans précédent - à lui seul, ChatGPT a atteint 100 millions d'utilisateurs hebdomadaires d'ici à 2023.3 Aujourd'hui, les capacités de l'IA générative, qui permettent à toute personne disposant d'une connexion internet de produire du contenu de manière autonome en cliquant sur un bouton, rendent cette technologie accessible et pratique pour les particuliers comme pour les entreprises.

Cependant, les progrès rapides de l'IA présentent à la fois des opportunités sans précédent et des défis complexes. À mesure que ces systèmes deviennent capables d'accomplir des tâches sophistiquées - de la création littéraire à l'analyse médicale - la société se trouve à un tournant décisif. D'une part, les innovations de l'IA sont extrêmement prometteuses pour l'amélioration des soins de santé et la lutte contre le changement climatique.4 D'autre part, elles soulèvent également des questions difficiles sur l'action humaine et la gouvernance de la société.

L'IA générative, en particulier, soulève de nouveaux problèmes liés à la désinformation et à l'authenticité des contenus,5 les technologies deepfake et l'art généré par l'IA suscitant des débats urgents sur la protection de la vie privée, le consentement et les droits de création.6 Les leaders de l'industrie, tels que l'OpenAI, s'efforcent de répondre à ces préoccupations par des mesures telles que des systèmes d'alerte précoce pour prévenir les abus,7 mais la rapidité des progrès de l'IA rend la surveillance difficile.8

Le paysage réglementaire de l'IA reflète cette tension. Alors que l'Union européenne a pris des mesures importantes en vue d'une réglementation complète, la plupart des juridictions restent à la traîne (voir notre Global AI Regulation Tracker pour un aperçu complet de l'état actuel de la réglementation en matière d'IA). En conséquence, la technologie de l'IA progresse à un rythme exponentiel dans le monde entier, souvent plus vite que le développement de la surveillance réglementaire. Quel en est le résultat ? Ce décalage entre la rapidité de l'innovation en matière d'IA et la lenteur de l'action législative fait de la gouvernance efficace un défi permanent pour les législateurs.

La mission de Deep Lexest d'apporter de la clarté et de la perspicacité dans ce paysage de plus en plus complexe. Nous visons à aider les professionnels du droit à comprendre et à naviguer dans l'impact que l'IA a, et pourrait continuer à avoir, sur la société et nos systèmes juridiques.

Éthique et gouvernance dans l'IA : les fondements d'une technologie digne de confiance

On ne saurait trop insister sur l'importance de la gouvernance éthique dans le domaine de l'IA. À mesure que les systèmes d'IA s'intègrent dans la société, il est essentiel de mettre en place des cadres qui mettent l'accent sur des valeurs centrées sur l'homme afin de protéger les droits de l'homme, de promouvoir l'équité et de prévenir les dommages involontaires.

Le groupe d'experts de haut niveau de l'UE sur l'intelligence artificielle (EU HLEG), un organe consultatif nommé par la Commission européenne, préconise une approche de l'IA centrée sur l'homme, nécessaire pour construire ce qu'il appelle une "IA digne de confiance".9 Ce concept repose sur des principes éthiques qui mettent l'accent sur le respect de l'autonomie humaine, l'équité, la transparence et la prévention des dommages - des principes conçus pour garantir que les systèmes d'IA s'alignent sur les valeurs sociétales et se conforment à des garanties techniques et juridiques solides.10

Au-delà de l'Europe, l'OCDE a été un leader mondial dans la promotion de l'éthique de l'IA à travers des politiques ancrées dans des valeurs centrées sur l'humain, telles que les droits de l'homme, la justice sociale et la protection des consommateurs. Les lignes directrices de l'OCDE soulignent que les systèmes d'IA doivent être développés et utilisés de manière transparente et responsable, afin de garantir que la technologie profite à la société dans son ensemble et évite de perpétuer des préjugés préjudiciables.11

La recommandation de l'UNESCO sur l'éthique de l'intelligence artificielle, adoptée à l'unanimité par 193 États membres en 2021, constitue le premier accord mondial sur l'éthique de l'IA.12 Cette recommandation fournit un cadre partagé de valeurs éthiques pour guider la politique et la législation en matière d'IA à travers les nations. Bien qu'elle ne soit pas juridiquement contraignante, elle sert de référence mondiale, abordant des questions essentielles telles que la confidentialité des données, la responsabilité, la transparence et l'impact environnemental des systèmes d'IA. La recommandation interdit aussi explicitement certaines applications à haut risque, telles que l'évaluation sociale et la surveillance de masse, afin de protéger les droits et les libertés individuels.13

Pour aider les États membres à mettre en œuvre ces principes, l'UNESCO a élaboré des outils tels que les évaluations de l'impact éthique et les méthodes d'évaluation de l'état de préparation,14 qui sont conçus pour aider les nations à évaluer leurs progrès et leur adhésion à ces lignes directrices éthiques. Ces initiatives témoignent d'un engagement international croissant en faveur de l'intégration de l'éthique dans le développement et la gouvernance de l'IA, alors même que la réglementation officielle continue d'évoluer.

Ensemble, ces cadres - des principes centrés sur l'homme de l'UE et de l'OCDE aux normes éthiques mondiales de l'UNESCO - représentent un effort international collectif visant à garantir que l'IA fonctionne de manière responsable et respecte les droits de l'homme universels.

Questions éthiques clés dans le développement de l'IA

Au fur et à mesure de son développement, l'IA soulève des questions éthiques fondamentales qui remettent en cause nos cadres moraux et juridiques actuels. Ces questions couvrent divers aspects de l'impact potentiel de l'IA sur la société, tels que :

Conscience et statut moral

Les systèmes d'IA devenant de plus en plus sophistiqués, la perspective de voir l'IA atteindre des formes de conscience ou de sensibilité pose des dilemmes éthiques complexes. Des questions essentielles se posent, telles que : les systèmes d'IA peuvent-ils développer une véritable conscience ? Les systèmes d'IA peuvent-ils développer une véritable conscience ? et Quels critères devraient déterminer le statut moral de l'IA ? Ces questions nous poussent à nous demander si, et dans quelles circonstances, l'IA avancée pourrait un jour mériter un statut moral ou même juridique. Dans ce cas, nous pourrions également nous demander Quelles obligations pourrions-nous avoir à l'égard de ces systèmes ? Et comment ces développements pourraient-ils remodeler notre compréhension de ce qu'est une "personne morale" ?

Autonomie et contrôle

Il est essentiel de déterminer les niveaux d'autonomie appropriés pour les systèmes d'IA, en particulier lorsqu'ils commencent à aider à la prise de décisions complexes. À cet égard, nous pouvons nous demander Comment assurer un "contrôle humain significatif" des actions de l'IA ? Ou encore, les systèmes d'IA devraient-ils être autorisés à prendre des décisions de vie ou de mort ? Ces questions soulignent l'importance des cadres qui équilibrent l'utilité de l'IA avec la surveillance et la responsabilité humaines essentielles.

Responsabilité et obligation de rendre compte

Lorsque les systèmes d'IA causent des dommages, il est difficile d'attribuer les responsabilités. Des questions telles que " Qui est responsable - les développeurs, les utilisateurs ou le système d'IA lui-même ?" et " Quels cadres de responsabilité devraient régir le déploiement de l'IA ?" soulignent la nécessité de structures de responsabilité claires et exécutoires, en particulier dans des domaines sensibles tels que les soins de santé et les véhicules autonomes, où les décisions en matière d'IA ont de graves conséquences.

Préjugés et discrimination

Les systèmes d'IA jouant un rôle croissant dans les contextes sociaux et économiques, il est essentiel de garantir un traitement équitable. Des questions éthiques telles que " Comment empêcher l'IA d'amplifier les préjugés sociaux existants ?" et " Qu'est-ce qu'une prise de décision "équitable" de l'IA ?" soulignent les risques de préjugés non contrôlés dans les données d'entraînement de l'IA. La vigilance dans le développement de l'IA, en particulier dans des applications telles que l'embauche, l'application de la loi et la finance, est cruciale pour se prémunir contre les résultats discriminatoires.

Ce sont là quelques-unes des questions éthiques cruciales que Deep Lex explorera dans ses prochains articles. Ces questions sont essentielles dans la mesure où nous nous dirigeons vers des cadres qui reflètent l'appel de l'OCDE en faveur d'un "alignement des droits et des valeurs" par le biais d'une intervention humaine, d'une surveillance et de mécanismes de réparation afin d'empêcher l'utilisation abusive de l'IA.15 Toutefois, pour y parvenir, il semblerait prudent d'intégrer dès le départ des considérations éthiques dans les systèmes d'IA, en veillant à ce que la gouvernance éthique soit un élément fondamental plutôt qu'une réflexion a posteriori.

Promouvoir l'équité et l'impact social dans le développement de l'IA

Cependant, le défi ne consiste pas seulement à développer des systèmes d'IA éthiques, mais aussi à s'assurer qu'ils répondent aux besoins de la société, notamment en matière de justice sociale et d'équité. Le cadre de l'UNESCO souligne que "la justice, la confiance et l'équité doivent être préservées afin qu'aucun pays ni personne ne soit laissé pour compte, qu'il s'agisse de l'accès aux technologies de l'IA ou de la protection contre leurs effets négatifs".16

Parvenir à une répartition équitable des avantages de l'IA, tout en protégeant les populations vulnérables contre le déplacement ou la discrimination, constitue un défi de taille. Les systèmes d'IA risquent de renforcer ou d'amplifier les préjugés sociétaux existants, ce qui pourrait aggraver les inégalités sociales si rien n'est fait. En réponse, l'OCDE appelle à un partage des responsabilités entre les "acteurs de l'IA"17-y compris tous ceux qui sont directement ou indirectement impliqués dans le développement ou l'utilisation de l'IA, afin de garantir une "IA digne de confiance" dans le contexte de la justice sociale, en préservant l'équité et la non-discrimination et en conformité avec le droit international.18

Pour relever ces défis, il faudra sans aucun doute tenir compte de l'impact plus large de l'IA sur la société, notamment sur l'emploi et l'égalité économique, et sur la manière dont nous pouvons préserver des relations humaines et un travail utiles dans un monde de plus en plus automatisé.

Par ailleurs, la concentration des capacités de développement de l'IA soulève également des inquiétudes quant à la répartition du pouvoir et au contrôle démocratique. Qui façonne l'avenir de l'IA ? Comment s'assurer que son développement sert l'intérêt public plutôt que des objectifs commerciaux ou politiques étroits ? Ces questions deviennent de plus en plus urgentes à mesure que l'IA joue un rôle plus important dans les processus décisionnels critiques, ce qui souligne la nécessité d'une approche équilibrée et éthique de la gouvernance de l'IA.

La loi européenne sur l'IA : Un cadre pour une innovation responsable

Le développement et l'utilisation des systèmes d'IA ont largement dépassé la réglementation. La loi de l'UE sur l'intelligence artificielle (règlement (UE) 2024/1689) (la "loi"),19 a été introduite environ cinq ans après que l'OpenAI a créé son premier modèle d'IA générative GPT-1,20 représente une réponse historique à ces défis. Il fournit le premier cadre juridique complet visant à garantir que les systèmes d'IA respectent les droits fondamentaux, les exigences de sécurité et les principes éthiques.

Les considérants de la loi font explicitement référence à l'importance de l'IA en tant qu'outil centré sur l'homme, et donc à la nécessité de développer l'IA dans le respect des droits de l'homme et des valeurs démocratiques fondamentales de l'Union européenne :

"Compte tenu de l'impact majeur que l'IA peut avoir sur la société et de la nécessité d'instaurer la confiance, il est essentiel que l'IA et son cadre réglementaire soient développés conformément aux valeurs de l'Union telles qu'elles sont inscrites à l'article 2 du traité sur l'Union européenne (TUE), aux droits et libertés fondamentaux inscrits dans les traités et, en vertu de l'article 6 du TUE, à la Charte. L'IA doit être une technologie centrée sur l'homme. Elle devrait servir d'outil pour les personnes, dans le but ultime d'accroître le bien-être humain". 21

La loi sera examinée plus en détail par Deep Lex dans les semaines à venir. Dans l'intervalle, le texte ci-dessous donne un aperçu de haut niveau de certains des mécanismes par lesquels la loi répond aux préoccupations éthiques découlant de la protection des droits de l'homme et des libertés fondamentales.

Classification basée sur le risque

La loi crée un cadre global pour protéger les droits de l'homme et les valeurs démocratiques tout en permettant l'innovation en matière d'IA. L'établissement d'un système d'obligations à plusieurs niveaux, fondé sur le niveau de risque posé par l'IA, est d'une importance capitale :

  1. Risque inacceptable (titre II, article 5) : Les applications qui menacent les droits fondamentaux sont interdites, comme la notation sociale par les gouvernements :

"Les pratiques d'intelligence artificielle suivantes sont interdites : a) la mise sur le marché, la mise en service ou l'utilisation d'un système d'intelligence artificielle déployant des techniques subliminales... b) la mise sur le marché, la mise en service ou l'utilisation d'un système d'intelligence artificielle exploitant les vulnérabilités de groupes spécifiques... c) le scoring social par les autorités publiques..."

  1. Risque élevé (Titre III, articles 6 et 7 et annexe III) : Les systèmes d'IA utilisés dans des domaines critiques tels que ceux mentionnés ci-dessous seront considérés comme présentant un "risque élevé" et soumis à des exigences supplémentaires en vertu de la loi :
    • Justice et processus démocratiques (annexe III, point 8)
    • Application de la loi (annexe III, point 6)
    • Services essentiels (annexe III, point 5)
    • Emploi et gestion des travailleurs (annexe III, point 4)
    • Formation scolaire et professionnelle (annexe III, point 3)
  1. Risque limité (titre IV, article 52) : Demandes nécessitant des obligations de transparence spécifiques, y compris :
  • les systèmes d'IA destinés à interagir avec des personnes physiques (par exemple, les chatbots)
  • Systèmes de reconnaissance des émotions
  • Systèmes de catégorisation biométrique
  • Contenu image, audio ou vidéo généré ou manipulé par l'IA
  1. Risque minimal(tous les autres systèmes d'IA qui ne sont pas explicitement couverts par les catégories ci-dessus) : Systèmes présentant un risque minimal et pouvant être utilisés librement, tels que les filtres anti-spam basés sur l'IA.

Obligations des développeurs pour les systèmes d'IA à haut risque

Pour les systèmes d'IA à haut risque, la loi sur l'IA prévoit en outre que les développeurs doivent mettre en œuvre des mesures de protection complètes :

  1. Gestion des risques (article 9)
  • Processus continu et itératif d'identification et d'atténuation des risques
  • Mise à jour régulière et systématique tout au long du cycle de vie du système
  • Procédures d'essai pour garantir la fiabilité des performances
  1. Données et gouvernance des données (article 10)
  • Des ensembles de données de formation, de validation et de test de haute qualité
  • Données pertinentes, représentatives et exemptes d'erreurs
  • Examen des biais possibles
  • Protection des données personnelles et de la vie privée
  1. Documentation et transparence (articles 11 et 12)
  • Documentation technique détaillée
  • Systèmes complets d'archivage
  • Enregistrement automatique des événements
  • Des pistes d'audit claires pour les décisions du système
  1. Surveillance humaine (article 14)
  • Contraintes opérationnelles intégrées
  • Capacité de surveillance en temps réel
  • Des protocoles d'activation/désactivation clairs
  • Évaluation régulière de l'efficacité de la surveillance humaine
  1. Gestion de la qualité (article 17)
  • Politiques et procédures écrites
  • Protocoles d'essai et de validation
  • Stratégies de gestion des risques
  • Systèmes de surveillance après la mise sur le marché

Ces exigences visent à transformer des principes éthiques abstraits en obligations juridiques concrètes, afin de fournir un cadre clair pour le développement et le déploiement responsables de l'IA.

Aperçu des efforts de régulation au niveau mondial

L'Union européenne est actuellement en tête pour ce qui est de l'élaboration d'une législation complète sur l'IA, tandis que d'autres grandes juridictions doivent encore mettre en place des cadres similaires. Bien qu'un grand nombre des principales entreprises d'IA du monde, telles qu'Amazon, Google, Microsoft et OpenAI, soient basées aux États-Unis, le pays ne dispose pas d'un cadre réglementaire fédéral pour l'IA. En l'absence de législation contraignante, la responsabilité de l'atténuation des risques liés à l'IA incombe en grande partie aux développeurs eux-mêmes, ce qui nécessite une autorégulation pour prévenir les utilisations abusives et remédier aux dommages potentiels.

Pour les juristes, il est essentiel de comprendre ces pratiques d'autorégulation et leurs limites lorsqu'ils conseillent leurs clients en matière de conformité et de gestion des risques dans le domaine de l'IA, en particulier en l'absence de cadres réglementaires formels.

L'approche de l'autorégulation aux États-Unis

Aux États-Unis, l'autorégulation est depuis longtemps la principale approche pour gérer les technologies émergentes telles que l'IA, car la vitesse de l'innovation dépasse souvent celle de la législation formelle.22 Ce modèle permet aux entreprises d'établir des lignes directrices, de mener des audits internes et de mettre en œuvre des normes volontaires qui s'adaptent rapidement aux avancées technologiques. Par exemple, en juillet 2023, quinze grandes entreprises américaines spécialisées dans l'IA se sont volontairement engagées auprès de la Maison Blanche à renforcer les garanties dans trois domaines clés : la sécurité (y compris les tests de l'"équipe rouge" impliquant des tests de résistance des systèmes pour identifier les vulnérabilités, l'amélioration de la sécurité et de la fiabilité, et le partage des informations sur les risques), la sécurité (remédier aux vulnérabilités) et la confiance (utiliser le filigrane pour le contenu généré par l'IA afin d'assurer la transparence).23

Si ces initiatives montrent des progrès, notamment en ce qui concerne les protocoles de sécurité et les mesures techniques, les experts soulignent les inquiétudes persistantes concernant le manque de transparence et de contrôle exécutoire de ces engagements volontaires.24 En outre, en l'absence de normes applicables, ces mesures volontaires manquent souvent de cohérence et de responsabilité dans l'ensemble du secteur. Les critiques soutiennent que les entreprises peuvent donner la priorité à l'avantage concurrentiel plutôt qu'aux responsabilités éthiques, ce qui entraîne des problèmes de transparence et de fiabilité dans les applications de l'IA. Cet écart entre l'autorégulation et la surveillance formelle suscite des inquiétudes quant à la partialité, à la confidentialité des données et au risque d'utilisation abusive, ce qui incite à réclamer des cadres réglementaires plus solides pour soutenir la sécurité et la confiance du public.25

En fin de compte, ces engagements des entreprises constituent un premier pas vers la gouvernance de l'IA aux États-Unis, mais des réglementations fédérales complètes sont nécessaires pour gérer plus efficacement les risques identifiés.26

Le cadre réglementaire proactif de la Chine

La Chine a adopté une approche proactive mais ciblée de la surveillance de l'IA, en mettant en œuvre une série de règles spécifiques sur la confidentialité des données, la gestion du contenu et l'éthique de l'IA par le biais de lignes directrices et de lois. Des lois clés, telles que les 2023 Generative AI Measures et les Deep Synthesis Management Provisions, imposent des contrôles stricts sur les technologies d'IA générative en mettant l'accent sur la transparence, la confidentialité des données et l'authenticité du contenu. Lesmesures relatives à l'IA générative de 2023, en particulier, exigent que l'IA soit développée et utilisée dans le respect de la "moralité et de l'éthique sociales" ainsi que de "l'éthique des affaires",27 bien que ces questions ne soient ni définies ni développées. En outre, ces lois ciblées ne constituent pas un cadre réglementaire complet pour le développement et le déploiement de l'IA. Toutefois, les experts s'attendent à ce que la Chine introduise une législation plus large dans un avenir proche afin de relever les défis complexes posés par les technologies d'IA générative qui progressent rapidement.28

Accédez à notre outil de suivi de la réglementation mondiale en matière d'IA au bas de la page pour vous tenir au courant de la législation internationale en matière d'IA au fur et à mesure de son émergence. Dans le domaine en pleine évolution de l'intelligence artificielle, les avancées réglementaires de l'UE marquent un pas important vers une gouvernance mondiale de l'IA, mais il reste encore beaucoup à faire. Dans les régions dépourvues de législation globale sur l'IA, l'autorégulation par les entreprises joue un rôle essentiel, mais soulève des questions quant à la transparence et à la responsabilité. Surtout, les stratégies réglementaires différentes d'une région à l'autre soulignent la nécessité d'une coopération mondiale pour gérer efficacement l'impact transfrontalier de l'IA.

Alors que l'IA continue d'imprégner divers secteurs, la profession juridique doit être proactive pour comprendre à la fois les cadres existants et les risques émergents. Deep Lex se consacre à soutenir les professionnels du droit dans cette voie, en offrant des mises à jour, des aperçus et des analyses pour aider à naviguer dans les complexités de la réglementation et de l'éthique de l'IA.

Les professionnels du droit doivent également relever le double défi que représente l'IA : conseiller les clients sur la conformité tout en adaptant leurs propres pratiques à un paysage juridique basé sur l'IA. Cette transformation exige à la fois une compréhension technique et une conscience éthique.

Avec la sortie de Introduction to Ethical Issues in AI (publié le 5 novembre 2024), Deep Lex lance une série complète examinant les implications éthiques de l'IA dans la société et le contexte juridique professionnel. La série explorera des questions cruciales, notamment :

  • Équité et partialité dans les systèmes automatisés
  • Vie privée et consentement dans un monde dominé par l'IA
  • La prise de décision algorithmique dans le secteur public
  • L'autonomie humaine dans une société automatisée

Nous nous réjouissons de poursuivre le dialogue avec nos lecteurs sur ces questions.

Rester informé

Abonnez-vous à notre lettre d'information pour obtenir des mises à jour régulières :

  • Les principaux développements de l'IA et leur impact sociétal 
  • Nouveaux cadres réglementaires et politiques
  • Conseils pratiques pour les professionnels de la justice
  • Nouvelles considérations éthiques
  • Perspectives et discussions communautaires

Deep Lex : Le hub de l'IA pour les professionnels du droit.

N'hésitez pas à nous contacter à l'adresse info@deeplex.ai si vous avez des questions ou des suggestions. Nous sommes là pour vous aider à naviguer dans l'ère de l'IA.

Clause de non-responsabilité : L'article ci-dessus est destiné à des fins d'information uniquement et ne constitue pas un avis juridique. Pour plus d'informations, veuillez consulter la page des conditions générales.

Sources :

  1. Columbia Business School, "AI and the Industrial Revolution", 16 avril 2024, https://business.columbia.edu/research-brief/research-brief/ai-industrial-revolution.
  2. Dartmouth College, "Artificial Intelligence Coined at Dartmouth", 2024, https://home.dartmouth.edu/about/artificial-intelligence-ai-coined-dartmouth. ︎
  3. James Vincent, "ChatGPT Has 100 Million Weekly Active Users, Says OpenAI", The Verge, 6 novembre 2023, https://www.theverge.com/2023/11/6/23948386/chatgpt-active-user-count-openai-developer-conference.
  4. Alvin Powell, "New AI Tool Can Diagnose Cancer, Guide Treatment, Predict Patient Survival", Harvard Gazette, 15 septembre 2024, https://news.harvard.edu/gazette/story/2024/09/new-ai-tool-can-diagnose-cancer-guide-treatment-predict-patient-survival/ ; Karen Hao, "Here Are 10 Ways AI Could Help Fight Climate Change", MIT Technology Review, 20 juin 2019, https://www.technologyreview.com/2019/06/20/134864/ai-climate-change-machine-learning/. ︎
  5. Jess Whittlestone et Jack Clark, "Why and How Governments Should Monitor AI Development", Nature Humanities and Social Sciences Communications 9, no 1 (2022) : 1-11, https://www.nature.com/articles/s41599-022-01174-9 ︎
  6. Adobe Communications Team, "Content Authenticity in the Age of Disinformation, Deepfakes & NFTs", Adobe Blog, 22 octobre 2021, https://blog.adobe.com/en/publish/2021/10/22/content-authenticity-in-age-of-disinformation-deepfakes-nfts ︎
  7. OpenAI, "Building an Early Warning System for LLM-Aided Biological Threat Creation", https://openai.com/index/building-an-early-warning-system-for-llm-aided-biological-threat-creation/ ︎
  8. AI Regulation, " Artificial Intelligence and the Future of Art ", consulté le 1er novembre 2024, https://ai-regulation.com/artificial-intelligence-and-the-future-of-art/; Forum économique mondial, " Cracking the Code : Generative AI and Intellectual Property ", 15 janvier 2024, https://www.weforum.org/stories/2024/01/cracking-the-code-generative-ai-and-intellectual-property/; Mira Penava, " AI Art Is in Legal Greyscale ", The Regulatory Review, 24 janvier 2023, https://www.theregreview.org/2023/01/24/penava-ai-art-is-in-legal-greyscale/.
  9. Service de recherche parlementaire européen, "Lignes directrices de l'UE sur l'éthique de l'intelligence artificielle : Contexte et mise en œuvre", PE 640.163, 2019, p. 3.
  10. Commission européenne, "Groupe d'experts sur l'IA", Façonner l'avenir numérique de l'Europe (https://digital-strategy.ec.europa.eu/en/policies/expert-group-ai) ︎
  11. OCDE, "Advancing accountability in AI : Governing and managing risks throughout the lifecycle for trustworthy AI", Documents de l'OCDE sur l'économie numérique 349 (Paris : Éditions OCDE, 2023),p.27 .
  12. UNESCO. "Les États membres de l'UNESCO adoptent le premier accord mondial sur l'éthique de l'intelligence artificielle. UNESCO, 25 novembre 2021.(https://www.unesco.org/en/articles/unesco-member-states-adopt-first-ever-global-agreement-ethics-artificial-intelligence); UNESCO, "Recommandation sur l'éthique de l'intelligence artificielle", 2022, p. 5(https://unesdoc.unesco.org/ark:/48223/pf0000381137).
  13. UNESCO, "Recommandation sur l'éthique de l'intelligence artificielle", 2022, p. 20(https://unesdoc.unesco.org/ark:/48223/pf0000381137).
  14. UNESCO, "Recommandation sur l'éthique de l'intelligence artificielle", 2022, p. 26(https://unesdoc.unesco.org/ark:/48223/pf0000381137).
  15. OCDE, "Advancing accountability in AI : Governing and managing risks throughout the lifecycle for trustworthy AI", Documents de l'OCDE sur l'économie numérique 349 (Paris : Éditions OCDE, 2023),p.27 .
  16. UNESCO, "Recommandation sur l'éthique de l'intelligence artificielle", 2022, p. 5(https://unesdoc.unesco.org/ark:/48223/pf0000381137).
  17. OCDE, "Advancing accountability in AI : Governing and managing risks throughout the lifecycle for trustworthy AI", Documents de l'OCDE sur l'économie numérique 349 (Paris : Éditions OCDE, 2023),pp. 17 et 23.
  18. OCDE, "Advancing accountability in AI : Governing and managing risks throughout the lifecycle for trustworthy AI", Documents de l'OCDE sur l'économie numérique 349 (Paris : Éditions OCDE, 2023),pp. 10, 17, 22, 27, 31.
  19. Loi européenne sur l'intelligence artificielle (règlement (UE) 2024/1689)
  20. Dennis Layton, "ChatGPT : How We Got to Where We Are Today - A Timeline of GPT Development", Medium, 17 janvier 2023(https://medium.com/@dlaytonj2/chatgpt-how-we-got-to-where-we-are-today-a-timeline-of-gpt-development-f7a35dcc660e)
  21. Loi de l'UE sur l'intelligence artificielle (règlement (UE) 2024/1689), au point (6).
  22. Adam Satariano, "Europe Takes Aim at Apple, Meta and Other Tech Giants Under New Digital Law". The New York Times, 4 mars 2024. https://www.nytimes.com/2024/03/04/technology/europe-apple-meta-google-microsoft.html); Melissa Heikkilä, "AI Companies Promised the White House They'd Self-Regulate. Un an plus tard, qu'est-ce qui a changé ?" MIT Technology Review, 22 juillet 2024(https://www.technologyreview.com/2024/07/22/1095193/ai-companies-promised-the-white-house-to-self-regulate-one-year-ago-whats-changed/).
  23. Maison Blanche, "FACT SHEET : Biden-Harris Administration Secures Voluntary Commitments from Leading Artificial Intelligence Companies to Manage the Risks Posed by AI", 21 juillet 2023(https://www.whitehouse.gov/briefing-room/statements-releases/2023/07/21/fact-sheet-biden-harris-administration-secures-voluntary-commitments-from-leading-artificial-intelligence-companies-to-manage-the-risks-posed-by-ai/) ︎
  24. Melissa Heikkilä, "Les entreprises d'IA ont promis à la Maison Blanche qu'elles s'autoréguleraient. Un an plus tard, qu'est-ce qui a changé ?" MIT Technology Review, 22 juillet 2024(https://www.technologyreview.com/2024/07/22/1095193/ai-companies-promised-the-white-house-to-self-regulate-one-year-ago-whats-changed/).
  25. Eric D. Reicin, "L'autorégulation de l'industrie : A Path Forward for Governing Artificial Intelligence ?" (L'autorégulation de l'industrie : une voie à suivre pour gouverner l'intelligence artificielle ?) Better Business Bureau National Programs, 21 décembre 2023, https://bbbprograms.org.
  26. Melissa Heikkilä, "Les entreprises d'IA ont promis à la Maison Blanche qu'elles s'autoréguleraient. Un an plus tard, qu'est-ce qui a changé ?" MIT Technology Review, 22 juillet 2024(https://www.technologyreview.com/2024/07/22/1095193/ai-companies-promised-the-white-house-to-self-regulate-one-year-ago-whats-changed/).
  27. Dans la traduction anglaise : CAC, Interim Measures for the Administration of Generative Artificial Intelligence Services 2023 "2023 Generative AI Measures"
    (https://www.cac.gov.cn/2023-07/13/c_1690898327029107.htm) ︎
  28. Matt Sheehan, "China's AI Regulations and How They Get Made", Carnegie Endowment for International Peace, 10 juillet 2023(https://carnegieendowment.org/research/2023/07/chinas-ai-regulations-and-how-they-get-made?lang=en) ︎