le programme

la saison 2023-2024

Automne 2023 – Gouvernance & Numérique

19 octobre (16h – 17h30) – Nicolas Chartier-Edwards, Centre Urbanisation Culture Société, Institut National de la Recherche (Canada)

G.L.A.C.E. Noire : vers une sociologie réfractive de l’art de gouverner par l’IA

Résumé : Comment le déploiement de l’intelligence artificielle transforme les modalités d’études sociologiques de l’art de gouverner? Cette communication vise à mettre en lumière les nouveaux enjeux potentiellement rencontrés par les chercheur.es en sciences sociales dès lors que les pratiques de gouvernance et gouvernementalité des états démocratiques libéraux ainsi que leur processus de production en viennent à mobiliser des technologies d’intelligences artificielles. Plus précisément, il s’agira de démontrer comment le déploiement de l’IA dans l’agencement cognitif des États, compris comme agencement où sont réparties les opérations de prise de décision, fait de l’opacité en elle-même un art de gouverner. En effet, l’IA ajoute par sa boîte noire computationnelle une couche supplémentaire d’opacité à la boîte noire politique des administrations publiques, intensifie la reconfiguration de l’économie autour des partenariats publics-privés et brouille la catégorie d’acteurs politiques. En s’appuyant sur trois cas de partenariats entre l’État fédéral canadien et trois compagnies privées, Palantir, Accenture et Alphabet, cette communication tentera d’interroger les techniques d’enquête traditionnelles à partir de la méthode de réfraction algorithmique dans l’objectif d’élaborer de nouvelles tactiques pour étudier l’art de gouverner par l’IA.

14 novembre (16h – 17h30) – Louise Beaumais, CERI, SciencesPo Paris

Sur la valeur ajoutée des systèmes d’alerte précoce des conflits en politique étrangère : un impact limité ?

Résumé : Les systèmes d’alerte précoce des conflit (SAPC) connaissent, depuis la fin des années 2010, un regain d’intérêt. Définis comme des appareils « d’analyse des risques qui fournissent des prévisions de la violence politique pour accroître la sensibilisation du public et prévenir ou atténuer les conflits », les SAPC se concentrent sur le déclenchement potentiel d’une guerre, l’incidence d’une guerre ou l’évolution de la violence (escalade et désescalade du conflit). Plutôt confinés au milieu de la recherche jusqu’alors, certains États européens ont commencé à développer leurs propres projets au sein des institutions en charge de la politique étrangère – l’Allemagne et le Royaume-Uni en tête de file. Pourtant, cet optimisme n’est pas vraiment partagé par leur voisin français. Bien que bénéficiant d’un statut international comparable et d’un budget de défense similaire, les autorités françaises semblent avoir fait le choix de ne pas s’engager dans de telles pratiques. Pourquoi ? Comment expliquer les différences dans la perception de la « valeur ajoutée » de ces systèmes ? Dans les pays où ils ont été mis en œuvre, comment sont-ils utilisés ? Quels sont leurs effets concrets sur les processus de politique étrangère ? Sont-ils réellement considérés comme un atout par les praticiens – militaires, diplomates, chefs de mission ? Qu’est-ce que cela signifie plus largement sur le rapport de ces praticiens à la guerre ? Avec plus de cinquante entretiens et une étude minutieuse d’une vingtaine de documents stratégiques, cette présentation se veut un aperçu des résultats d’un projet de trois ans mené par le programme de recherche Datawar. Il discute du réel intérêt développé pour les SAPC dans la politique étrangère de trois pays européens et montre que les praticiens restent, malgré les éloges associés à ces systèmes, dubitatifs quant à leur valeur ajoutée. À ce titre, nous essayons de mettre en lumière un impact relatif des technologies et du numérique dans le domaine de la politique étrangère – du moins, pour le moment. Espen Geelmuyden Rød, Tim Gåsste, Håvard Hegre, « A Review and Comparison of Conflict Early Warning Systems », International Journal of Forecasting, 2023, p. 1.

20 décembre (16h – 17h30), Kulani Abendroth-Dias,Geneva Graduate Institute (Switzerland)

What’s risk got to do with it? Public attitudes towards AI regulation in the US, UK, and the EU.

Abstract: Legislative and judicial responses to artificial intelligence (AI) are growing. The US, EU, and UK are taking different regulatory approaches to the development and deployment of machine learning (ML). Their approaches to ML may have global implications. However, little empirical evidence exists on why the public sector, private sector, and academia in these contexts support different types of regulatory regimes, how time-bound their choices are, and what factors could shift their choice of regulatory regime. I have weaved together academic training in social psychology and political science to conduct over 100 semi-structured interviews and a randomised controlled survey experiment for explication with policymakers, their advisors, tech regulators and lobbyists, academics, and the general public to answer the question “What factors influence support for enacting and revisiting AI regulation in the US, UK and the EU?” I investigate how risk salience, specifically the risks of disinformation, job loss, and child safety influences public attitudes towards AI regulation. This research could have implications on factors that influence support for regulatory approaches to emerging technologies more generally.

Hiver 2024 – Santé & Numérique

17 janvier (16h – 17h30), Océane Fiant, Costech, Université de Technologie de Compiègne

Des boîtes noires transparentes : étude du développement d’un réseau de neurones artificiels explicable en anatomopathologie

Résumé : La réponse de l’ingénieur au problème de l’opacité des modèles d’apprentissage automatique consiste soit à leur préférer des modèles plus simples (régression linéaire, arbres décisionnels, etc.), mais moins performants, soit à mettre en œuvre des méthodes relevant du champ de l’explainable artificial intelligence (Local Interpretable Model-Agnostic Explanations, Shapley Additive Explanations, etc.). Il s’agit dans ce dernier cas de modèles permettant de parvenir à une explication simplifiée de la manière dont le modèle à expliquer est parvenu à un résultat donné – par exemple, l’importance de telles ou telles variables en entrée dans la formulation du résultat en sortie. Je présenterai dans mon exposé un cas où le problème de l’opacité est résolu non pas en s’attachant à rendre l’algorithme explicable, mais en faisant porter l’effort sur la construction de son dataset. Il s’agit d’un projet mené par un pathologiste et un ingénieur, dont l’objectif est de construire un dataset d’images de tumeurs cancéreuses du sein, qui servira ultérieurement à entraîner des réseaux de neurones convolutifs à détecter les composants de la tumeur sur des lames entières en coloration standard. Le but de mon exposé est d’examiner la solution déployée dans le cadre de ce projet et d’en tirer des conclusions générales concernant le problème de l’opacité des algorithmes d’apprentissage automatique.

22 février (16h – 17h30), Anamaria Malešević, Digital Healthcare Ethics Laboratory (Digit-HeaL), Catholic University of Croatia

Digitalization for change or digitizing existing issues

Abstract: Digital health promises a transformative change that will reduce societal inequalities, enhance healthcare delivery, improve prevention, and increase individual health awareness. The accessibility of technology and the power of large databases inspire hope for better healthcare worldwide. However, are there social and institutional processes that could hinder the entire digitalization process and lead it in a direction that won’t ultimately reduce inequalities but exacerbate them? Are there foundations in the social aspects of healthcare that genuinely enable its digitalization? Research involving key stakeholders in the healthcare system and medical students in Croatia suggests there is awareness of certain risks. Therefore, it is useful to examine them and think ahead – how to find mechanisms to prevent future unethical developments in digital health(care).

21 mars (16h – 17h30), Marie-Lou Delaire, Centre d’Economie Paris Nord, Sorbonne Paris Nord

Mon Espace santé : un exemple de co-construction de la politique publique ?

Résumé : Mon Espace Santé, « carnet de santé numérique », a été déployé à l’ensemble des citoyens début 2022 à la suite de dispositifs ayant connu de nombreux revers. Il a pour objectif de faciliter et d’améliorer la coordination et la qualité des soins tout en réalisant d’importantes économies, et s’inscrit en cela dans le mouvement de grande modernisation des administrations par le numérique. En effet, la digitalisation des administrations est présentée comme offrant de nouvelles possibilités aux gouvernements d’être plus efficients, ainsi que d’améliorer le processus démocratique en permettant aux citoyens d’avoir un rôle plus actif. Cette dimension s’opère sous la forme d’une co-construction, reposant sur des outils inspirés de plateformes développées par des entreprises privées (Meijer 2015 ; Mergel 2020 ; Revest, Liotard 2022). Présentant les caractéristiques d’une plateforme multiface enjoignant les patients à être davantage acteurs de leur santé, Mon Espace Santé est également un instrument qui se veut co-construit par les administrations, les citoyens et différentes parties prenantes. Ce processus a également la particularité de s’inscrire pour cet outil dans la continuité des préceptes portés par la démocratie sanitaire. A partir d’entretiens effectués dans le cadre d’une thèse de doctorat auprès d’agents exerçant au sein des administrations chargées de déployer Mon Espace Santé, il s’agira d’une part de caractériser cette plateforme au regard des autres plateformes privées, et d’autre part, de porter une analyse sur les dispositifs de co-construction de la politique publique. Quelles sont leurs caractéristiques et permettent-ils vraiment d’améliorer le processus démocratique ?

Vendredi 19 janvier (14h – 16h) – Séance spéciale « Intelligence artificielle & Culture » avec un double programme

  • « Une IA générative entropique : la dissolution infrastructurelle des grands modèles de langue dans le milieu des industries créatives » par Étienne Grenier (INRS Montréal)
  • « Expérimentations autour du statut des archives synthétiques d’un événement historique : le cas de l’attaque du Capitole » par le studio de création u2p050
Printemps 2024 – Corps & Numérique

18 avril (16h – 17h30), Zelly Martin, The University of Texas at Austin (Etats-Unis)

End-to-end encryption as sociotechnical process: How pro-choice activists construct security beyond material tools.

Abstract: On June 24th, 2022, the United States Supreme Court overturned Roe v. Wade, and thus the federal right to abortion for people who can get pregnant in the United States. In the nearly two years since, 21 U.S. states have restricted or banned abortion, resulting in a cascade of suffering, including people forced to travel to access abortion care of even wanted pregnancies with fatal fetal abnormalities. Concurrently, our increasingly datafied society and related surveillance capitalism poses dire threats for people who use the internet to access abortion or do abortion-related work. Social media platforms share data with law enforcement that can–and has–negatively impact those seeking care, as in the infamous case of a Nebraska mother and daughter’s Facebook messages being used as evidence to criminalize the daughter’s self-managed abortion. As such, encrypted messaging apps, or chat apps which ensure only the sender and receiver of a message may view its content, have become crucial tools for abortion-seekers and abortion activists. Yet, there are potential harms associated with such a heavy reliance upon exclusively technical security. As part of my dissertation research, I conducted interviews with pro-choice activists, anti-abortion activists, pro-encryption activists, and Texas law enforcement to understand the sociotechnical processes of creating privacy and security in a post-Roe America. In this talk, I will explore the continued necessity for feminist community-building beyond mere technical security, and the need for reframing encryption ideology beyond its techno-libertarian, white, patriarchal roots. 

16 mai (16h – 17h30), Phoebé Piagenet, CARISM, Université Paris-Panthéon-Assas

Résumé : Les réseaux sociaux numériques (RSN) se révèlent être depuis plusieurs années un espace de circulation et de réaffirmation des normes de beauté féminine. Paradoxalement, c’est dans l’espace même de forte circulation de ces normes que se construisent et se partagent les critiques de celles-ci et des injonctions associées. A partir de l’analyse de contenus abordant les thèmes de l’acné, de la grosseur et de la vieillesse, cette étude s’attache à comprendre comment se déploient, se construisent et s’articulent les discours critiquant les normes de beauté féminines et quelles mises en scène des stigmates corporels ils permettent.

Créer du contenu autour des stigmates corporels : quels discours produits autour des déviances à la norme de beauté féminine sur les réseaux sociaux numériques.

20 juin (16h – 17h30), Léa Macias, Agence Française de Développement, ex-CEMS / EHESS

Anthropologie de l’humanitaire numérique: un camp de réfugiés comme terrain à risques

Résumé : Cette intervention viendra éclairer le processus de recherche au sein du camp de réfugiés de Zaatari en Jordanie. Cet espace d’abord d’une pratique professionnelle en tant que travailleuse humanitaire a du être mise à distance pour observer les phénomènes liés à la collecte de données auprès des personnes réfugiées qui y habitent. Le camp devenu objet de recherche s’est peu à peu refermer pour devenir quasi inaccessible à la chercheuse que j’étais devenue. Je présenterai donc les stratégies de contournement, y compris pour investir un terrain cette fois numérique, qui ont été déployées.

les saisons passées

2022-2023

2021-2022

2020-2020

Propulsé par WordPress.com.

Concevoir un site comme celui-ci avec WordPress.com
Commencer