#02. L’IA, une langue à apprendre (juste ce qu’il faut)
Et aussi : l'IA, outil d'émancipation et d'inclusion ? (Interview de Nicolas Dassié)
Bienvenue dans cette deuxième édition d’Assoc[IA]tions, la newsletter qui explore l’IA pour (et avec) les acteurs du social.
Comprendre, tester, débattre : on avance ensemble, sans perdre de vue ce qui est au cœur de vos métiers : l’humain.
Temps de lecture ⏳ : environ 7 minutes. Soit le temps d’avaler un double expresso.
Au programme de ce numéro ?
Un glossaire pour décoder les principaux mots de l’IA.
Un entretien exclusif avec Nicolas Dassié, qui défend une IA au service de l’émancipation des équipes et de l’inclusion des personnes vulnérables.
Et de nouvelles pépites à découvrir pour enrichir votre réflexion.
💡Écl[AI]rage
Concepts, outils, usages, débats. Pour avoir les idées claires.
L’IA, une langue à apprendre (juste ce qu’il faut)
« Biais », « algorithme », « machine learning », « LLM », « agent »… Ces mots, vous les entendez désormais tous les jours, partout. Vous opinez de la tête sans toujours savoir ce qu’ils signifient vraiment ? Rassurez-vous, vous n’êtes pas le seul et vous n’avez pas besoin d’être geek ou ingénieur pour vous y retrouver.
Ce petit glossaire a un seul but : vous aider à mettre du sens derrière les mots les plus courants, sans technicité inutile.
Car comprendre les mots, c’est déjà garder la main.
On y va ?
1. Les fondamentaux
Dans cette première partie, pas de cas d’usage concret, juste le socle technique et conceptuel. Pour comprendre comment fonctionne l’IA, il faut d’abord comprendre ce qu’elle manipule.
Intelligence artificielle (IA)
Ensemble de technologies qui permettent à une machine de simuler certaines capacités humaines : comprendre, apprendre, décider, créer.
Algorithme
Suite d’instructions précises et ordonnées qu’un ordinateur suit pour résoudre un problème ou accomplir une tâche (à imaginer comme une recette de cuisine ultra précise).
Dans le domaine de l’IA, ces algorithmes permettent aux machines d'apprendre, de reconnaître des formes, de prendre des décisions ou de traiter des données.
Données
Toutes les informations qu’on fournit à l’IA : textes, chiffres, images, sons, comportements…Ce sont elles qui nourrissent et entraînent les modèles.
👉 Sans carburant (les données), le moteur (l’IA) ne tourne pas.
Machine Learning (apprentissage automatique)
Méthode qui permet à un ordinateur d’apprendre et de s’améliorer automatiquement à partir de données, sans être programmé pour chaque cas.
Deep Learning (apprentissage profond)
Une forme avancée de machine learning, inspirée du cerveau humain et basée sur des « réseaux de neurones » artificiels. Chaque couche du réseau analyse un niveau d’information plus complexe que la précédente.
Token
Unité de découpage du langage pour que l’IA le comprenne : mot, partie de mot, caractère ou ponctuation.
⚠️Le nombre de tokens détermine souvent la capacité de traitement d'un système d'IA et peut influencer ses coûts.
LLM (Large Language Model)
Un « grand modèle de langage », entraîné sur des milliards de textes, qui peut comprendre, générer ou résumer du langage humain.
👉ChatGPT (OpenAI) ou Claude (Anthropic) sont des LLM.
Prompt
(celui-là, faut quand même vivre dans une grotte pour l’ignorer !)
Instruction ou question donnée à une IA pour déclencher une réponse.
👉 Plus il est clair et structuré, plus la réponse est pertinente.
2. Les applications concrètes
Passons aux mots les plus courants qui désignent des usages spécifiques de l’IA.
Assistant IA
S’appuie sur un modèle de LLM (ex. GPT‑4) pour comprendre des requêtes très variées : informations, conseils, écriture, programmation, traduction, etc.
Génère des réponses de manière dynamique, adaptées au contexte de chaque conversation
Apprend en permanence à partir des données (jusqu’à une certaine date limite selon les modèles) et des interactions pour fournir des réponses pertinentes.
👉 Ex. : ChatGPT peut rédiger une réponse à un e-mail d’usager, proposer une trame de compte-rendu ou reformuler un texte administratif.
Agent IA
Programme plus autonome qu’un assistant IA, capable d’enchaîner plusieurs actions, en interaction avec d’autres outils (ex. : un logiciel).
👉 Ex. : organiser automatiquement des plannings de visites selon les disponibilités et les priorités.
Analyse prédictive
Utilisation de données passées pour anticiper des situations futures.
👉 Ex. : une analyse prédictive qui anticipe les pics de demandes d’aide pour mieux s’organiser en amont.
Chatbot / Assistant conversationnel
Programme qui simule une conversation écrite ou orale avec un humain, souvent via une fenêtre de chat. Fonctionne souvent sur des règles précises ou des scripts, avec des réponses prédéterminées à certains mots clés.
👉 Ex. : un chatbot sur un site d’association pour répondre aux questions fréquentes ou guider dans les démarches.
IA générative
Catégorie d’IA qui crée du contenu original à partir d’une consigne.
👉 Ex. : ChatGPT (Open AI), Le Chat (Mistral), Claude (Anthropic), Gemini (Google), Perplexity.
RAG (Retrieval Augmented Generation)
Technique qui permet à une IA de chercher des informations dans une base de données spécifiques avant de répondre, plutôt que de se contenter de ses connaissances générales.
👉 Ex. : un chabot RH qui fournit aux salariés d’une association un premier niveau de réponse sur le règlement intérieur, la convention collective…
3. Les enjeux critiques
Utiliser l’IA, ce n’est pas seulement savoir comment elle fonctionne : c’est aussi comprendre les risques qu’elle peut poser.
Biais algorithmique
Reproduction ou amplification par une IA des inégalités déjà présentes dans les données.
👉 Une IA peut reproduire, sans le vouloir, les discriminations si on ne la contrôle pas.
Éthique de l’IA / IA responsable
Règles et principes pour que l’IA respecte la dignité des personnes, la justice sociale et la transparence. On est bien d’accord, c’est un enjeu fondamental dans le secteur social et médico-social.
👉 Il ne s’agit pas juste de ce que l’IA peut faire, mais de ce qu’elle doit faire… ou ne doit pas faire. L’IA ne doit pas être une boîte noire, ni remplacer l’évaluation humaine dans les décisions sensibles.
Hallucination
Quand une IA générative invente une réponse fausse, mais convaincante.
👉 Elle parle avec aplomb… même quand elle se trompe. D’où l’importance de toujours vérifier. Toujours.
Protection des données personnelles
S’assurer que les données des usagers restent confidentielles, sécurisées, et utilisées à bon escient.
⚠️ Ce n’est pas parce que c’est “anonyme” que c’est toujours conforme au droit ou à l’éthique.
Transparence algorithmique
Pouvoir expliquer les critères utilisés par l’IA pour arriver à un résultat ou à une décision.
👉 Si une demande est classée “non prioritaire”, il faut pouvoir expliquer pourquoi.
4. Les perspectives
L’IA évolue vite. Ces derniers mots vous donnent quelques repères pour comprendre ce qui se profile.
IA augmentée vs IA de substitution
L’IA augmentée vous aide à faire mieux
L’IA de substitution vise à vous remplacer.
👉 Deux logiques différentes donc. Pour vous, tout l’enjeu est de rester dans l’IA augmentée : soulager les professionnels, pas les remplacer.
IA générale (AGI)
Une IA hypothétique qui égalerait l’intelligence humaine dans tous les domaines.
👉 Encore loin d’être là. Personne ne sait vraiment quand ou même si cette étape sera franchie.
Et c’est tant mieux. Parce qu’une IA qui ferait tout mieux que nous, ça pose… disons, quelques petits problèmes d’emploi, de pouvoir, de contrôle (et d’ego, soyons honnêtes).
🗣️SUR LE TERR[AI]N
Témoignages, interviews, retours d’expérience. L’IA vécue et racontée par celles et ceux qui la pratiquent (ou non) ou y réfléchissent.
“l’IA peut et doit servir la politique d’inclusion”
Ancien chef de service et directeur dans le médico-social, Nicolas Dassié accompagne aujourd’hui les associations à travers son organisme de formation sur les pratiques professionnelles (Neosocial). Il plaide pour une approche éthique de l’IA au service des équipes et des personnes vulnérables. Entretien.
Vous échangez régulièrement sur l’IA avec les participants de vos formations. Qu’observez vous ?
N.D. Je vois un mélange d’intérêt, d’appréhension et de vigilance éthique. Leur curiosité grandit. Mais leur usage de l’IA est encore inexistant ou très marginal. Les associations ne sont pas encore emparées des outils à leur disposition.
Pourquoi ce retard ?
N.D. Les freins sont multiples. Il y a d’abord une méfiance légitime, liée aux valeurs et l’éthique du secteur. L’IA ne va-t-elle pas mettre à distance de la relation humaine ? Certains voient aussi dans l’IA un symbole capitaliste répondant à des objectifs de performance, à l’opposé de ceux sur lesquels le secteur s’est construit. À cela s’ajoutent la méconnaissance des cas d’usage, le manque de temps, de moyens et, plus généralement, une faible culture digitale.
Quels sont les dangers si les associations restent à l’écart ?
N.D. J’en vois trois. D’abord, les associations risquent de subir des usages imposés non alignés avec leurs valeurs. Or, comment pourront-elles critiquer si elles sont restées passives ? Je redoute aussi une exclusion numérique croissante des professionnels et des établissements ainsi qu’une hausse des inégalités entre structures ou territoires.
Avez-vous en tête des usages concrets de l’IA générative qui pourraient avoir un réel impact ?
N.D. Oui. Je pense, par exemple, à la réécriture des projets d’accompagnement personnalisés, la création de supports de communication y compris en mode Falc (facile à lire et à comprendre), l’aide à la préparation et l’animation de réunions, l’optimisation de la planification des interventions, des suivis qualité, de la facturation. L’IA peut aussi appuyer le développement des compétences des équipes. Qu’il s’agisse de faciliter les parcours de VAE, les bilans de compétences, valoriser les expériences ou encore, créer des micro formations pour alimenter les connaissances en continu, par exemple sur les dernières recommandations de la Haute autorité de santé. Je planche d’ailleurs avec la directrice d’une association d’aide à domicile sur un projet de modules que des salariés suivraient avant de devenir référents auprès de leurs collègues.
L'IA pourrait donc être un levier de transformation du secteur ?
N.D. Oui. D’une part, elle peut impulser des logiques d’équipes plus autonomes, un management plus horizontal que vertical. Mais c’est un changement de paradigme, les associations sont-elles prêtes ? D’autre part, bien encadrée, l’IA peut renforcer le pouvoir d’agir des publics vulnérables. Par exemple, en rendant des informations complexes plus accessibles, notamment pour les personnes en situation de handicap cognitif, les personnes âgées ou peu à l’aise avec l’écrit ou encore, en aidant à formuler une demande. À mes yeux, l’IA offre donc de nouvelles perspectives à la fois pour l’émancipation des salariés et l’empowerment des publics accompagnés.
Si vous aviez un message à adresser aux associations qui hésitent à se lancer, quel serait-il ?
N.D. L’intelligence artificielle ne remplacera pas le lien humain mais le rendra, au contraire, plus accessible, plus fluide. En libérant du temps à leurs équipes, elles leur permettront de se recentrer sur leur cœur de métier, à savoir l’accompagnement des bénéficiaires vers une plus grande autonomie. J’invite ces associations à envisager l’IA comme un nouvel outil qui peut et doit servir la politique d’inclusion.
Merci Nicolas pour cet échange !
Appel à contributions !
Dans chaque numéro, je donne la parole à des professionnels qui testent, observent ou questionnent l’IA dans leur quotidien : une initiative, un outil, un retour d’expérience, une réflexion, même modestes.
👉 Vous voulez en parler ou connaissez quelqu’un dans votre équipe ou réseau qui pourrait le faire ? Je serais ravie d’en discuter.
Pour me contacter : Elguiz.florence@gmail.com ou messagerie Linkedin
🔭[AI]lleurs
Sélection personnelle de contenus venus d’autres horizons. Pour vous inspirer sans vous éparpiller (façon puzzle 😊)
📘À lire
➡️Travail social et IA : atout ou risque pour les pratiques ? Alexandra Luthereau Cette dernière enquête publiée sur le Média Social explore comment l’IA générative est déjà utilisée dans le secteur social, souvent de manière informelle, pour gagner du temps sur les tâches administratives, accompagner les jeunes ou rédiger des rapports. Des travailleurs sociaux témoignent de leurs usages. Protection des données, biais, déontologie et risques d’une utilisation non encadrée sont au cœur des préoccupations (lecture réservée aux abonnés).
🎧À écouter
➡️”Les dérives de l’intelligence artificielle en matière de droits et libertés”
Dans ce podcast de la Ligue des droits de l’homme, Maryse Artiguelong analyse les biais discriminatoires, la surveillance, et les limites des dispositifs algorithmiques face aux libertés individuelles.
À écouter ici, pour s’approprier les garde-fous à mettre en place dans une démarche associative responsable.
➡️”Intelligence artificielle, menace réelle ?”
Un physicien, devenu philosophe des sciences, et une sémiologue, questionnent nos peurs : IA trop humaine, dépendance, projections anxiogènes. Podcast à écouter ici, utile pour sensibiliser aux visions caricaturales de l’IA et développer une approche raisonnée.
➡️L’IA dans les associations : usages et vigilances
Replay, en accès libre ici, d’un webinar co-organisé dans le cadre des rendez-vous du numérique par les Mouvements associatifs. Témoignages concrets, points de vigilance (RGPD, biais…) et retours d’expérience pour structurer un usage responsable de l’IA.
Teasing édition #03
Les associations ont-elles l’obligation de former leurs équipes ? (Spoiler : peut-être que oui).
David Rabouille, DG de l’ASFA64, partagera sa vision de l’IA et les actions concrètes engagées au sein de son association (Spoiler : elles sont nombreuses !)
🙏 Merci d’avoir lu cette newsletter jusqu’au bout.
Si vous avez appris quelque chose, un petit ❤️ ou un commentaire me fera savoir que je suis sur la bonne voie.
Cette newsletter peut intéresser une de vos connaissances ? Un simple clic suffit pour la transférer (et vous gagnerez ma gratitude éternelle)