Aller au contenu

Régulation des algorithmes

Un article de Wikipédia, l'encyclopédie libre.

La régulation des algorithmes, ou régulation algorithmique, est la création de lois, de règles de bonnes pratiques, pour le secteur public, le secteur privé et les individus, visant la régulation de certains algorithmes à enjeux particuliers, notamment dans le domaine de l'information et de l'intelligence artificielle[1],[2] où les biais algorithmiques et certains usages malveillants des algorithmes ont des effets concrets délétères sur l'économie, la cohésion sociale, la santé mentale, la paix et l'environnement. Ces algorithmes, apparus récemment, se déploient désormais à grande échelle dans le cyberespace, un environnement numérique d’un type nouveau, largement structuré par les systèmes de recommandation des grandes plateformes et dont le fonctionnement opaque rend la régulation particulièrement difficile.

Pourquoi réguler

[modifier | modifier le code]

Face au contenu pléthorique et en inflation constante de l'Internet, l'accès à l'information, aux réseaux sociaux et plus largement au cyberespace s'y fait maintenant presque exclusivement via des algorithmes de recommandation. Or, ceux-ci — selon leur conception ou leur usage — peuvent être neutres, prosociaux[3],[4] ou au contraire manipulateurs, clivants, favorisant le dissenssus et les théories du complot, et poussant à la haine.

Un constat est que pour des raisons commerciales et/ou idéologique, depuis les années 2010 environ, dans un contexte très concurrentiel et non régulé, les grands algorithmes, développés par et pour les GAFAMs (et d'autres entités utilisant l'Internet pour se développer) et leurs réseaux sociaux, favorisent, et de plus en plus, les publications polarisantes ou à forte charge émotionnelles, éventuellement mensongères. Cela accentue les divisions politiques, géopolitiques et sociales, et menace la démocratie[5],[6].

Que réguler ?

[modifier | modifier le code]

Depuis les années 2010, notamment à la suite du scandale Facebook-Cambridge Analytica-Aggregate IQ, de la découverte de la plateforme logicielle Ripon et des révélations d'Edward Snowden, une demande croissante de régulation porte sur les algorithmes à forts enjeux sociopolitiques et sanitaires, et en particulier sur les algorithmes, opaques, de systèmes de recommandation (surtout quand ils sont opaques) ont des effets sociopolitiques majeurs et délétères, en structurant l'espace informationnel, en créant des chambres d'écho[7] et en accélérant la diffusion de la désinformation[5],[6],[8].

De nombreux experts, philosophes et éthiciens (et en France un rapport de la défenseure des droits)[9] s'inquiètent des effets sociétaux constatés et des risques de détournement ou de dérives spécifiques posés par les algorithmes à usages militaires (pilotage d'armes autonomes), juridiques, médicaux et de propagande, car ils peuvent efficacement contraindre des processus de pensée et sociétaux où le enjeux sont de liberté, de vie ou de mort ; de même pour l'irruption de l'IA dans la gestion du personnel et des personnes (fichage, reconnaissance et suivi des individus via les caméras de surveillance, systèmes de notation de type crédit social et autres notations automatisées)[10],[11],[12].

Face au constat d'une mise en avant presque systématique des contenus clivants, des titres sensationnalistes et polarisants, des arnaques en ligne et publicités mensongères souvent fabriquées avec l'aide d'IA[13] et/ou basées sur les affects par les algorithmes de recommandation, et par certains moteurs de recherche, phénomène qui a une influence croissante, sur ce que les utilisateurs de l'internet et des réseaux sociaux verront (ou ne verront pas), retiendront, penseront et ressentiront, avec donc des impacts sur les relations interhumaines et sur la vie socio-politique, sur leur santé mentale, leur santé au travail et sur leur qualité de vie. Ceci concerne notamment les adolescents dont la santé mentale se dégrade, avec un coût économique élevée de l’inaction (un rapport PMNCH/WHO annonce « des pertes économiques potentielles de 110 000 milliards USD entre 2024 et 2050 si l’on ne renforce pas le bien‑être des adolescents »[14].

Les algorithmes génératifs de systèmes de recommandation sont conçus pour favoriser l'engagement vai les clics, les « j'aime », le buzz et le doomscrolling (addiction au défilement), toujours en « en maximisant l'engagement pour les revenus publicitaires »[15]. Ce faisant, ils amplifient souvent les infox et les contenus sensationnalistes, « en érodant de manière insoutenable le tissu social »[15], car ils peuvent gravement affectent la santé mentale et le bien-être, voire pousser au suicide, par exemple avec les algorithmes qui causent ou exacerbent le addiction au défilement : en sélectionnant des contenus addictifs ou les plus susceptibles de retenir l'attention de l'utilisateur, ces algorithmes peuvent renforcer l'anxiété, la dépendance et les émotions négatives.

Les utilisateurs ignorent pourquoi certains contenus leur sont montrés ou cachés. Les plateformes gardent le contrôle exclusif des règles de classement et de mise en avant des contenus, ce qui limite la possibilité de tester des alternatives plus saines et démocratiques. mais on a expérimentalement montré que des ajustements simples — comme réduire la visibilité des contenus polarisants — ont montré qu'ils pouvaient diminuer l'hostilité partisane et améliorer la perception des autres[16],[17],[18],[19].

Réguler les algorithmes qui entretiennent l'économie de l'attention et influencent les comportements collectifs est devenu nécessaire pour garantir un équilibre entre liberté d'expression et d'information, protection contre les contenus nuisibles et transparence des pratiques.

Pour le sous-ensemble d'algorithmes d'IA, on parle de « régulation de l'intelligence artificielle ». Le cadrage éthique, réglementaire et politique de l'intelligence artificielle (IA) est un problème émergent dans les juridictions du monde entier, y compris dans l'Union européenne[20]. La réglementation de l'IA est considérée comme nécessaire à la fois pour encourager l'IA et gérer les risques associés, mais il s'agit d'un défi[21].

Un autre sujet émergent est la réglementation des algorithmes de blockchain et il est associé à la réglementation des algorithmes d'IA[22]. De nombreux pays ont adopté des réglementations sur les échanges à haute fréquence, qui évolue en raison des progrès technologiques vers le domaine des algorithmes d'IA[23],[24].

Des problèmes éthiques, de partialité et de non transparence, notamment, sont apparus avec l'utilisation d'algorithmes dans divers domaines allant des bulles de filtres à la haine en ligne en passant par la justice pénale[25] aux soins de santé[26], faisant craindre que l'intelligence artificielle n'aggrave les inégalités de richesse, culturelles, raciales, de genre, de classe, et de sexualité.

Une étude (2024) a montré que réduire la visibilité des contenus polarisants dans les fils d'actualité des réseaux sociaux diminue l'hostilité partisane. Des chercheurs ont créé un outil web (open source) permettant de réorganiser en temps réel les fils de participants consentants sur X (anciennement Twitter), en classant plus bas les publications identifiées par une IA comme susceptibles de polariser (sans les supprimer). L'expérience, de 10 jours, avant l'élection présidentielle américaine, a montré que ce changement améliorait la perception des membres du parti adverse et réduisait les émotions négatives, et ce, quel que soit le « camp » politique.

Un champ de recherche s'intéresse aux algorithmes alternatifs de classement, avec par exemple des initiatives comme le Prosocial Ranking Challenge ou des projets tels qu'Alexandria et Bonsai explorent des approches visant à favoriser des interactions sociales plus saines, profitant des progrès des Grands modèles de langage qui offrent de nouvelles perspectives pour détecter et limiter l'exposition aux contenus polarisants.

Plusieurs études ont montré que déployer des algorithmes dans les tâches managériales réduit la motivation prosociale des travailleurs, en raison d'une tendance accrue à l'objectification des collègues, notamment quand des décideurs humains s'appuient sur des algorithmes pour orienter leurs choix. La prosocialité est alors plus ou moins dégradée selon le type de tâche concernée (par exemple l'évaluation des employés par rapport à la coordination) ; le gestion algorithmique ne modifie pas que l'efficacité organisationnelle, mais aussi les dynamiques sociales et relationnelles au sein du travail[27].

Plusieurs pays et autres juridictions ont commencé à introduire des réglementations, par exemple en cas de calcul automatisé du pointage de crédit — le droit à l'explication est obligatoire pour ces algorithmes[28],[29].

Régulation de l'intelligence artificielle

[modifier | modifier le code]

Débat public

[modifier | modifier le code]

En 2016, Joy Buolamwini a fondé Algorithmic Justice League après une expérience personnelle avec un logiciel de détection faciale biaisé, pour sensibiliser aux implications sociales de l'intelligence artificielle, via l'art et la recherche[30].

En 2017, Elon Musk a plaidé pour une régulation des algorithmes dans le contexte du risque existentiel de l'intelligence artificielle générale[31],[32],[33]. Selon NPR, le PDG de Tesla n'était « clairement pas ravi » de plaider en faveur d'un examen gouvernemental qui pourrait avoir un impact sur son propre secteur, mais estimait que les risques d'une absence totale de surveillance étaient trop élevés : « Normalement, la façon dont les réglementations sont établies est lorsqu'un de mauvaises choses se produisent, il y a un tollé public et, après de nombreuses années, une agence de réglementation est créée pour réglementer cette industrie. Cela prend une éternité. Cela, dans le passé, a été mauvais mais pas quelque chose qui représentait un risque fondamental pour l'existence de la civilisation. »[31].

En réponse, certains politiciens ont exprimé leur scepticisme quant à la sagesse de réglementer une technologie qui est encore en développement[34]. Répondant à la fois à Elon Musk et aux propositions de février 2017 des législateurs de l'Union européenne visant à réglementer l'IA et la robotique, le PDG d'Intel, Brian Krzanich, a fait valoir que l'intelligence artificielle en était à ses balbutiements et qu'il était trop tôt pour réglementer la technologie[35]. Au lieu d'essayer de réglementer la technologie elle-même, certains chercheurs suggèrent plutôt de développer des normes communes comprenant des exigences pour le test et la transparence des algorithmes, éventuellement en combinaison avec une certaine forme de garantie[36]. Une suggestion a été de développer un conseil de gouvernance mondial pour réglementer le développement de l'IA[37]. En 2020, l'Union européenne a publié son projet de document de stratégie pour la promotion et la réglementation de l'IA[38].

Dans certains contextes compétitifs, une « collusion tacite algorithmique » a émergé. Ce sont es formes de coordination anticoncurrentielle facilitée par des algorithmes, dont le caractère est difficile à établir et qui, de ce fait, échappe largement aux poursuites anti-trust des tribunaux[39]. Ce danger concerne les scientifiques et les régulateurs de l'UE, des États-Unis et d'ailleurs[39]. La commissaire européenne et Margrethe Vestager a mentionné un exemple précoce de collusion tacite algorithmique dans son discours sur « Algorithmes et collusion » le 16 mars 2017, décrit comme suit[40] :

« Il y a quelques années, deux entreprises vendaient un manuel intitulé The Making of a Fly. L'un de ces vendeurs a utilisé un algorithme qui correspondait essentiellement au prix de son rival. Ce rival avait un algorithme qui fixait toujours un prix 27 % plus élevé que le premier. Le résultat a été que les prix ont continué à monter en flèche, jusqu'à ce que finalement quelqu'un remarque ce qui se passait et ajuste le prix manuellement. À ce moment-là, le livre se vendait — ou plutôt ne se vendait pas — pour 23 millions de dollars l'exemplaire. »

En 2018, les Pays-Bas ont utilisé un système algorithmique SyRI (System Risico Indicatie) pour détecter les citoyens perçus comme étant à haut risque de commettre une fraude à l'aide sociale, ce qui a discrètement signalé des milliers de personnes aux enquêteurs[41]. Cela a provoqué une protestation publique. Le tribunal de district de La Haye a fermé SyRI en se référant à l'article 8 de la Convention européenne des droits de l'homme (CEDH)[42].

En 2020, des algorithmes attribuant des notes d'examen aux étudiants au Royaume-Uni ont déclenché une protestation ouverte sous la bannière « Fuck the algorithm »[43], couronnée de succès : les notes ont été retirées[44].

Mise en œuvre

[modifier | modifier le code]

La législation et la réglementation en matière d'IA peuvent être divisées en trois thèmes principaux : la gouvernance des systèmes de renseignement autonomes ; la responsabilité et l'imputabilité des systèmes ; et les questions de confidentialité et de sécurité[21]. Une stratégie de régulation de l'IA par le secteur public est de plus en plus jugée nécessaire aux niveaux local, national [45] et international[38] et dans divers domaines : de la gestion des services publics[46] à l'application de la loi[38], le secteur financier[45], la robotique[47], l'armée[48], et le droit international[49],[50]. Il y a de nombreuses inquiétudes quant au manque de visibilité et de surveillance de l'IA dans ces secteurs[51]. Dans le secteur financier, par exemple, des appels ont été lancés au Consumer Financial Protection Bureau pour qu'il examine de plus près le code source et les algorithmes lors de la vérification des données non publiques des institutions financières[52].

Aux États-Unis, le 7 janvier 2019, à la suite d'un décret exécutif sur le « Maintien du leadership américain en matière d'intelligence artificielle », le Bureau de la politique scientifique et technologique de la Maison Blanche a publié un projet de directives pour la réglementation des applications d'intelligence artificielle, qui comprend dix principes pour agences des États-Unis lorsqu'il s'agit de décider si et comment réglementer l'IA[53],[54]. En réponse, l'Institut national des normes et de la technologie a publié un document de position[55], la Commission de sécurité nationale sur l'intelligence artificielle a publié un rapport provisoire[56], et le Conseil de l'innovation de la défense a émis des recommandations sur l'utilisation éthique de l'IA[57].

En 2016, la Chine a publié une prise de position remettant en question l'adéquation du droit international existant pour faire face à l'éventualité d'armes entièrement autonomes, devenant ainsi le premier membre permanent du Conseil de sécurité de l'ONU à aborder la question [49] et conduisant à des propositions de réglementation mondiale[58]. Aux États-Unis, le pilotage de la réglementation de l'IA liée à la sécurité est assuré par la National Security Commission on Artificial Intelligence[59].

Régulation des algorithmes de blockchain

[modifier | modifier le code]

Les systèmes de blockchain fournissent des enregistrements transparents et fixes des transactions et contredisent ainsi l'objectif du RGPD européen, qui est de donner aux individus le contrôle total de leurs données privées[60],[61].

En mettant en œuvre le décret sur le développement de l'économie numérique, la Biélorussie est devenue le tout premier pays à légaliser les contrats intelligents. L'avocat biélorusse Denis Aleinikov est considéré comme l'auteur d'un concept juridique de contrat intelligent introduit par le décret[62],[63],[64]. Il existe de solides arguments selon lesquels les lois des États américains existantes constituent déjà une base solide pour l'applicabilité des contrats intelligents - l'Arizona, le Nevada, l'Ohio et le Tennessee ont modifié leurs lois spécifiquement pour permettre néanmoins l'applicabilité des contrats basés sur la blockchain[65].

Dans la culture populaire

[modifier | modifier le code]

En 1942, l'auteur Isaac Asimov aborde la régulation des algorithmes en introduisant les trois lois fictives de la robotique :

  1. Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ;
  2. Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi ;
  3. Un robot doit protéger son existence dans la mesure où cette protection n'entre pas en contradiction avec la première ou la deuxième loi[66].

La principale alternative à la réglementation est l'interdiction, et l'interdiction des algorithmes est actuellement hautement improbable. Cependant, dans l'univers Dune de Frank Herbert, les machines pensantes sont un terme collectif désignant l'intelligence artificielle, qui ont été complètement détruites et interdites après une révolte connue sous le nom de Butlerian Jihad[67] :

JIHAD, BUTLERIAN : (voir aussi Grande Révolte) — la croisade contre les ordinateurs, les machines pensantes et les robots conscients commencée en 201 av. J.-C. et conclue en 108 av. d'un esprit humain." [68]

Articles connexes

[modifier | modifier le code]

Notes et références

[modifier | modifier le code]
  1. (en) Navneet Alang, « Algorithms have gotten out of control. It's time to regulate them. », The Week,‎ (lire en ligne).
  2. (en) Mario Martini, « Fundamentals of a regulatory system for algorithm-based processes » [PDF] (consulté le ).
  3. (en) Fernando P. Santos, « Prosocial dynamics in multiagent systems », AI Magazine, vol. 45, no 1,‎ , p. 131–138 (ISSN 2371-9621, DOI 10.1002/aaai.12143, lire en ligne, consulté le ).
  4. (en) Jiajun Bao, Junjie Wu, Yiming Zhang et Eshwar Chandrasekharan, « Conversations Gone Alright: Quantifying and Predicting Prosocial Outcomes in Online Conversations », ACM Digital Library, Association for Computing Machinery, wWW '21,‎ , p. 1134–1145 (ISBN 978-1-4503-8312-7, DOI 10.1145/3442381.3450122, lire en ligne, consulté le ).
  5. a et b Julien Figeac, Tristan Salord, Guillaume Cabanac et Ophélie Fraisier, « Facebook favorise-t-il la désinformation et la polarisation idéologique des opinions ? », Questions de communication, vol. 36, no 2,‎ , p. 167–187 (ISSN 1633-5961, DOI 10.4000/questionsdecommunication.21149, lire en ligne, consulté le ).
  6. a et b Commission fédérale contre le racisme CFR, « CFR : TANGRAM 48 - Psychologie de la polarisation : quel rôle jouent les réseaux sociaux ? », sur www.ekr.admin.ch (consulté le ).
  7. Antoine Vendeville, « L'effet de chambre d'écho dans les réseaux sociaux : analyse théorique et stratégies de contrôle », medialab.sciencespo.fr,‎ (lire en ligne, consulté le ).
  8. (en) Kayla Duskin, Joseph S. Schafer, Jevin D. West et Emma S. Spiro, « Echo Chambers in the Age of Algorithms: An Audit of Twitter's Friend Recommender System », .
  9. « Algorithmes, systèmes d’IA et services publics : quels droits pour les usagers ? Points de vigilance et recommandations », sur defenseurdesdroits.fr, (consulté le ).
  10. « Les « robots tueurs » menacent les droits humains en temps de guerre et de paix », sur htw.org, (consulté le ).
  11. Steven de Simseo, « Les experts mettent en garde contre les risques liés aux armes autonomes alimentées par l'IA », sur Simseo, (consulté le ).
  12. « Risquées, les armes contrôlées par l'IA? Ce qu'il faut savoir », sur Agence Science-Presse (consulté le ).
  13. Amandine Jonniaux, « Pub mensongère, IA... Vinted, Leboncoin et Etsy croulent sous les arnaques », sur Journal du Geek, (consulté le ).
  14. affectus, « Santé mentale des ados: l'UE face aux algorithmes », sur Affectus, (consulté le ).
  15. a et b (en) E. Glen Weyl, Luke Thorburn, Emillie de Keulenaar et Jacob Mchangama, Prosocial Media, (DOI 10.48550/arXiv.2502.10834, lire en ligne).
  16. (en) « Social media research tool lowers the political temperature », sur news.stanford.edu (consulté le ).
  17. (en-US) Tiziano Piccardi, « Down-ranking polarizing content lowers emotional temperature on social media – new research », sur The Conversation, (consulté le ).
  18. (en-US) Tiziano Piccardi, « Changing social media algorithms is enough to reduce political hostility », sur World leading higher education information and services, (consulté le ).
  19. (en) Tiziano Piccardi, Martin Saveski, Chenyan Jia et Jeffrey Hancock, « Reranking partisan animosity in algorithmic social media feeds alters affective polarization », Science, vol. 390, no 6776,‎ (ISSN 0036-8075 et 1095-9203, DOI 10.1126/science.adu5584, lire en ligne, consulté le ).
  20. (en) Law Library of Congress (U.S.). Global Legal Research Directorate, issuing body., Regulation of artificial intelligence in selected jurisdictions. (OCLC 1110727808).
  21. a et b (en) Bernd W. Wirtz, Jan C. Weyerer et Carolin Geyer, « Artificial Intelligence and the Public Sector—Applications and Challenges », International Journal of Public Administration, vol. 42, no 7,‎ , p. 596–615 (ISSN 0190-0692, DOI 10.1080/01900692.2018.1498103, lire en ligne).
  22. (en) Fotios Fitsilis, Imposing Regulation on Advanced Algorithms, Springer International Publishing, (ISBN 978-3-030-27978-3, lire en ligne).
  23. (en) Prakhar Ganesh, « High Frequency Trading (HFT) with AI : Simplified », Towards data science,‎ (lire en ligne, consulté le ).
  24. (en) « Top Artificial Intelligence Algorithmic Trading Software Solutions For Serious ROI », Hackernoon,‎ (lire en ligne, consulté le ).
  25. (en) Karen Hao, « AI is sending people to jail—and getting it wrong », MIT Technology Review (consulté le ).
  26. (en) Heidi Ledford, « Millions of black people affected by racial bias in health-care algorithms », Nature, vol. 574, no 7780,‎ , p. 608–609 (DOI 10.1038/d41586-019-03228-6, lire en ligne).
  27. (en) Armin Granulo, Sara Caprioli, Christoph Fuchs et Stefano Puntoni, « Deployment of algorithms in management tasks reduces prosocial motivation », Computers in Human Behavior, vol. 152,‎ , article no 108094 (ISSN 0747-5632, DOI 10.1016/j.chb.2023.108094, lire en ligne, consulté le ).
  28. Consumer Financial Protection Bureau, §1002.9(b)(2).
  29. (en) Lilian Edwards et Michael Veale, « Enslaving the Algorithm: From a 'Right to an Explanation' to a 'Right to Better Decisions'? », IEEE Security & Privacy, vol. 16, no 3,‎ , p. 46-54 (DOI 10.1109/MSP.2018.2701152, lire en ligne).
  30. (en) Bryan Lufkin, « Algorithmic justice », British Broadcasting Corporation,‎ (lire en ligne, consulté le ).
  31. a et b (en) Camila Domonoske, « Elon Musk Warns Governors: Artificial Intelligence Poses 'Existential Risk' », National Public Radio,‎ (lire en ligne, consulté le ).
  32. « Elon Musk: regulate AI to combat 'existential threat' before it's too late », The Guardian,‎ (lire en ligne, consulté le ).
  33. « A.I. is in its 'infancy' and it's too early to regulate it, Intel CEO Brian Krzanich says », CNBC,‎ (lire en ligne, consulté le ).
  34. (en) Samuel Gibbs, « Elon Musk: regulate AI to combat 'existential threat' before it's too late », The Guardian,‎ (lire en ligne, consulté le ).
  35. (en) Arjun Kharpal, « A.I. is in its ‘infancy' and it's too early to regulate it, Intel CEO Brian Krzanich says », CNBC,‎ (lire en ligne, consulté le ).
  36. (en) Andreas Kaplan et Michael Haenlein, « Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence », Business Horizons, vol. 62,‎ , p. 15–25 (DOI 10.1016/j.bushor.2018.08.004).
  37. (en) Matthew Boyd et Nick Wilson, « Rapid developments in Artificial Intelligence: how might the New Zealand government respond? », Policy Quarterly, vol. 13, no 4,‎ (ISSN 2324-1101, DOI 10.26686/pq.v13i4.4619).
  38. a b et c (en) White Paper: On Artificial Intelligence – A European approach to excellence and trust, Brussels, European Commission, , 1 p. (lire en ligne).
  39. a et b (en) A. Ezrachi et M. E. Stucke, « Sustainable and unchallenged algorithmic tacit collusion », Northwestern Journal of Technology & Intellectual Property, vol. 17, no 2,‎ (ISSN 1549-8271).
  40. (en) Margrethe Vestager, « Algorithms and competition » [archive du ] [Bundeskartellamt 18th Conference on Competition], European Commission, (consulté le ).
  41. (en) « Europe Limits Government by Algorithm. The US, Not So Much », Wired (consulté le ).
  42. (en) Rechtbank Den Haag, « ECLI:NL:RBDHA:2020:1878, Rechtbank Den Haag, C-09-550982-HA ZA 18-388 (English) », uitspraken.rechtspraak.nl, (consulté le ).
  43. (en-US) Tom Simonite, « Skewed Grading Algorithms Fuel Backlash Beyond the Classroom », Wired,‎ (lire en ligne, consulté le ).
  44. (de) « Fuck the Algorithm : Jugendproteste in Großbritannien gegen maschinelle Notenvergabe erfolgreich », Netzpolitik,‎ (lire en ligne, consulté le ).
  45. a et b Bredt, « Artificial Intelligence (AI) in the Financial Sector—Potential and Public Strategies », Frontiers in Artificial Intelligence, vol. 2,‎ (ISSN 2624-8212, DOI 10.3389/frai.2019.00016).
  46. Wirtz et Müller, « An integrated artificial intelligence framework for public management », Public Management Review, vol. 21, no 7,‎ , p. 1076–1100 (ISSN 1471-9037, DOI 10.1080/14719037.2018.1549268).
  47. Iphofen et Kritikos, « Regulating artificial intelligence and robotics: ethics by design in a digital society », Contemporary Social Science,‎ , p. 1–15 (ISSN 2158-2041, DOI 10.1080/21582041.2018.1563803).
  48. United States. Defense Innovation Board., AI principles : recommendations on the ethical use of artificial intelligence by the Department of Defense (OCLC 1126650738).
  49. a et b (en) David Emery, « Robots with Guns: The Rise of Autonomous Weapons Systems », Snopes,‎ (lire en ligne, consulté le ).
  50. Bento, « No Mere Deodands: Human Responsibilities in the Use of Violent Intelligent Systems Under Public International Law », Université Harvard (thèse),‎ (lire en ligne, consulté le ).
  51. MacCarthy, « AI Needs More Regulation, Not Less », Brookings.
  52. Rory Van Loo, « Technology Regulation by Default: Platforms, Privacy, and the CFPB », Georgetown Law Technology Review, vol. 2, no 1,‎ , p. 542-543 (lire en ligne).
  53. (en-US) « AI Update: White House Issues 10 Principles for Artificial Intelligence Regulation », Inside Tech Media, (consulté le ).
  54. Memorandum for the Heads of Executive Departments and Agencies, Washington, D.C., White House Office of Science and Technology Policy, (lire en ligne).
  55. U.S. Leadership in AI: A Plan for Federal Engagement in Developing Technical Standards and Related Tools, National Institute of Science and Technology, (lire en ligne).
  56. NSCAI Interim Report for Congress, The National Security Commission on Artificial Intelligence, (lire en ligne).
  57. AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense, Washington, DC, Defense Innovation Board, (lire en ligne).
  58. Baum, « Countering Superintelligence Misinformation », Information, vol. 9, no 10,‎ , p. 244 (ISSN 2078-2489, DOI 10.3390/info9100244).
  59. Stefanik, « H.R.5356 – 115th Congress (2017–2018): National Security Commission Artificial Intelligence Act of 2018 », www.congress.gov, (consulté le ).
  60. « A recent report issued by the Blockchain Association of Ireland has found there are many more questions than answers when it comes to GDPR » [archive du ], siliconrepublic.com, (consulté le ).
  61. (de) « Blockchain and the General Data Protection Regulation - Think Tank », www.europarl.europa.eu (consulté le ).
  62. (en) « Belarus adopts crypto-currency law to woo foreign investors », Reuters,‎ (lire en ligne, consulté le ).
  63. « Belarus Enacts Unique Legal Framework for Crypto Economy Stakeholders », Deloitte, .
  64. Patricolo, « ICT Given Huge Boost in Belarus », Emerging Europe, .
  65. (en) Levi, Lipton et Vasile, « Blockchain Laws and Regulations | 13 Legal issues surrounding the use of smart contracts | GLI », GLI - Global Legal InsightsInternational legal business solutions, (consulté le ).
  66. (en) Isaac Asimov, I, Robot, New York City, The Isaac Asimov Collection, (ISBN 978-0-385-42304-5), « Runaround », p. 40 :

    « This is an exact transcription of the laws. They also appear in the front of the book, and in both places there is no "to" in the 2nd law. »

  67. Frank Herbert, Dune Messiah, .
  68. Frank Herbert, Dune, Philadelphia, Chilton Books, (lire en ligne), « Terminology of the Imperium: JIHAD, BUTLERIAN ».