#04. IA générative et travail social : la conscience, première compétence à développer ?
Découvrez aussi l'interview de S. Kevassay : « l'IA, c'est un peu comme la langue d'Esope »
Bienvenue dans cette nouvelle édition d’Assoc[IA]tions, la dernière avant la pause estivale ! Je vous retrouve fin août. D’ici là, bonne lecture… et bel été ☀️.
Au sommaire :
Agir en conscience : posture critique, réflexivité, responsabilité… Pourquoi la conscience est la compétence clé à développer face à l’IA.
« L’IA n’est jamais que ce que l’on fait d’elle » : Sophie Kevassay, coach indépendante, accompagne des étudiants en travail social dans l’usage intelligent de l’IA pour leurs mémoires de fin d’études. Témoignage.
💡Écl[AI]rage
Concepts, outils, usages, débats. Pour avoir les idées claires.
IA générative et travail social : la conscience, première compétence à développer ?
Que signifie « agir en conscience » quand on utilise l’intelligence artificielle générative dans le travail social ? Vous jugez cette question abstraite ? Erreur.
Agir en conscience, c’est garder les yeux ouverts sur ce que l’outil fait… et sur ce qu’il vous fait. C’est interroger l’influence de l’IA non seulement sur vos tâches, mais aussi sur votre posture, vos choix, votre relation à l’autre.
Dans un secteur où la singularité des parcours, la qualité de l’écoute et la confiance sont fondamentales, l’usage de l’IA demande à ne pas s’en remettre aveuglément à elle. Et cela s’apprend.
Agir en conscience : une posture active
Agir en conscience, ce n’est pas juste « faire attention ». C’est adopter une posture critique et responsable, qui repose sur plusieurs réflexes.
Garder un esprit critique : une IA donne des réponses probables, pas des vérités.
Assumer ses décisions : l’IA suggère, l’humain décide.
Connaître les limites de l’outil : absence de subjectivité, ignorance du contexte, biais possibles…
Exercer sa réflexivité : pourquoi cette réponse ? Sur quelles bases ? Est-ce pertinent dans ma situation ?
Se former en continu : les outils évoluent vite, les usages aussi.
Il faut savoir questionner, interpréter, recontextualiser. Cela demande du temps, de l’expérience, de la lucidité.
La relation d’aide n’est pas automatisable
Une IA ne capte ni les silences, ni les non-dits, tensions ou subtilités d’un échange. Elle ne lit pas entre les lignes d’une trajectoire de vie. Elle ne comprend pas, elle calcule. Or le travail social est un métier du lien, de l’écoute, de l’informel autant que du formel.
Prenons l’exemple d’un éducateur qui rédige un compte rendu de situation avec ChatGPT. Le texte est fluide, mais il occulte une tension ressentie lors de l’entretien. Or cette tension, imperceptible dans les mots, est essentielle pour la suite de l’accompagnement. Sans conscience critique, le professionnel risque de passer à côté.
Confier à l’IA une partie de l’évaluation, du diagnostic ou du suivi, sans distance critique, expose à l’uniformisation et à la perte de sens.
La responsabilité ne se délègue pas à un algorithme
Même si l’IA préremplit ou suggère, c’est toujours l’humain qui porte la responsabilité finale. Dans le travail social, vos décisions d’orientation, d’accompagnement ou de signalement sont lourdes de conséquences. Elles doivent rester enracinées dans vos valeurs : respect de la personne, autonomie, non-discrimination.
Des risques bien réels
Certains dangers, déjà documentés dans d’autres secteurs, prennent une dimension particulière dans le champ social.
❎ Les biais algorithmiques
Les IA génératives sont formées sur de vastes corpus de textes issus du web. Elles peuvent, sans que cela soit visible, reproduire des stéréotypes de genre, de classe, de culture, ou de situation. Dans l’évaluation d’un parcours de vie, cela peut renforcer des représentations erronées.
❎ La confidentialité des données
Utiliser une IA pour générer un courrier, rédiger un compte rendu ou construire un projet personnalisé impose de protéger les données sensibles. Les outils IA grand public ne sont pas conçus pour respecter ces exigences et le secret professionnel.
❎ Le risque d’atrophie cognitive
L’IA peut penser (ou plutôt donner l’illusion de penser) à notre place : moins de formulation personnelle, moins d’analyse, moins de temps consacré à la maturation d’une situation. À force, c’est la capacité critique elle-même qui peut s’éroder. Et avec elle, la qualité du travail social.
❎ Le danger du « profilage algorithmique »
Prévoir des trajectoires d’insertion, croiser des données pour proposer des parcours « optimisés »... ces pratiques peuvent glisser vers une logique de prédiction. Or, dans le travail social, il ne s’agit pas de prédire, mais d’ouvrir des possibles.
Pour une culture partagée
Agir en conscience, ce n’est pas l’affaire d’un seul. C’est une démarche collective .
Former, débattre, expérimenter
Des formations techniques ET éthiques sont indispensables. Savoir interroger une IA, mais aussi identifier un biais, comprendre comment elle « raisonne », poser ses propres limites. Les espaces d’échange entre pairs sont essentiels pour partager des usages, des doutes, des pratiques.
S’appuyer sur des chartes ou guides d’usage
Certaines structures élaborent déjà des chartes d’usage ou des grilles d’aide à la décision. C’est une base utile pour encadrer les pratiques. À condition qu’elles soient discutées et non imposées d’en haut.
Associer les personnes accompagnées
L’IA ne doit pas rester une « boîte noire » dans la relation. Expliquer comment un contenu est produit, comment un outil est utilisé, c’est respecter la personne, rétablir une symétrie d’information, lui permettre de comprendre ce qui se joue.
Derrière l’outil, qui est aux commandes ?
Mais agir en conscience, ce n’est pas seulement savoir utiliser un outil avec prudence. C’est aussi s’interroger sur qui la conçoit, dans quel but, et avec quelles conséquences.
Selon un récent rapport de l’AI Now Institute, les systèmes d’IA, loin d’être neutres, sont créés par des géants technologiques qui cherchent à imposer leur vision du monde et à transformer les services publics à leur image. Et les experts de pointer la santé, la justice, l’éducation et l’emploi comme autant de domaines publics où les technologies seraient intégrées sans réelle concertation, parfois au détriment des droits, des savoirs professionnels et de la qualité du lien humain. Certes, le travail social n’est pas cité dans ce rapport. Mais une extrapolation est réaliste, non ?
Ce regard invite en tout cas à aussi choisir un outil IA en s’interrogeant sur ses origines, son modèle économique, ses effets invisibles (mais ne vous faites pas d’illusion, aucun outil actuel n’est parfait).
La conscience, LA compétence du XXIe siècle ?
Alors oui, l’IA peut être un allié. Mais à condition de ne pas vous faire oublier pourquoi vous faites ce métier.
La vraie compétence à acquérir face à l’IA n’est pas technique, mais éthique.
Rabelais l’avait déjà formulé : « Science sans conscience n’est que ruine de l’âme ». Aujourd’hui, cette phrase résonne plus que jamais.
Précision
Dans mon article sur l’AI Act européen (édition #03), j’ai classé l’utilisation d’un outil comme ChatGPT pour la rédaction de contenus en « risque nul ». Mais l’AI Act cite ces modèles génératifs dans la catégorie dite à risque limité, et non « minimal ». L’objectif étant de lutter contre les contenus trompeurs. Je doute qu’une association confie à une IA générative la création intégrale ou substantielle de contenus fantaisistes, que ce soit pour son site web, sa newsletter ou ses réseaux sociaux. Mais dans un tel cas de figure, il pourrait être prudent de mentionner le recours à l’IA.
🗣️SUR LE TERR[AI]N
Témoignages, interviews, retours d’expérience. L’IA vécue et racontée par celles et ceux qui la pratiquent (ou non) ou y réfléchissent.
“L’IA n’est jamais que ce que l’on fait d’elle : la meilleure ou la pire des choses”
Coach indépendante, Sophie Kevassay accompagne des étudiants, futurs travailleurs sociaux ou cadres, dans la rédaction de leur mémoire de fin d’études. Sa particularité ? Elle leur apprend à dompter l’intelligence artificielle générative, non pour tricher, mais pour penser mieux. Entre posture critique et créativité boostée, récit d’une pédagogie enrichie.
Quel regard portez-vous sur l'IA générative ?
S.K. Mon regard a beaucoup évolué. Au départ, j’étais très méfiante. Et puis j’ai découvert, en testant, à quel point l’outil pouvait être bluffant… s’il était bien utilisé. Aujourd’hui, je m’en sers comme levier d’analyse, d’inspiration, de structuration.
Formation académique ou apprentissage autodidacte ?
S.K. Autodidacte. C’est mon fils qui m’a initiée à ChatGPT. Ensuite, j’ai passé des heures à tester. Mon profil atypique, littéraire, mais aussi socio-démographe et assistante de service social, m’a probablement aidée à formuler des prompts efficaces et à repérer les cas d’usage pour un mémoire en travail social.
Vos étudiants utilisent-ils déjà l'IA avant de vous solliciter ?
S.K. Oui, presque tous. Mais mal. Certains s’en servent pour rédiger une partie, d’autres pour générer des pans entiers de mémoire, en espérant que ça passe. Tout en redoutant d’être sanctionnés par le jury. Très vite, je les aide à reprendre le pouvoir sur l’outil, à comprendre qu’il peut les aider à formuler, clarifier, structurer… sans jamais se substituer à eux.
Concrètement, comment vous les accompagnez ?
S.K. Je leur apprends à prompter, poser les bonnes questions, formuler les bonnes attentes, et à effectuer des va-et-vient entre leur réflexion personnelle et l’IA. Cela leur permet de faire émerger des idées, de rebondir, de corriger des erreurs, de faire un pas de côté ou d’améliorer la cohérence à leur travail. Je les aide à utiliser l’IA intelligemment pour booster leur créativité et leur propre capacité d’analyse.
Et les étudiants jouent le jeu ?
S.K. Quand ils acceptent de ne pas chercher du « tout cuit », ils découvrent que l’IA peut devenir une partenaire de travail stimulante. Ils s’en emparent alors pour en faire un support aidant et non substitutif.
Vous leur donnez un cadre d’usage ?
S.K. Oui, toujours. Je leur fournis une méthodologie : en amont, pour la recherche bibliographique ; en cours de rédaction, pour affiner leurs analyses ; en aval, pour améliorer le style ou la clarté. Et je leur rappelle sans cesse que l’esprit critique reste indispensable.
Comment éviter le plagiat ou la facilité ?
S.K. Dès le départ, je pose un engagement moral : pas de rédaction déléguée à l’IA. Je leur montre aussi que je repère toujours production IA, stéréotypée, plate, sans relief. Ils comprennent très vite qu’ils ne pourront pas jouer au plus malin !
L’IA modifie-t-elle leur rapport au savoir et la recherche ?
S.K. Fondamentalement non. Certes, l’IA fait gagner du temps, aide à challenger l'intelligence humaine, à envisager des pans d’interprétation encore inexplorés, à rendre plus intelligible la pensée du chercheur. Mais il reste maître d'œuvre de sa production intellectuelle. Je dis souvent : l'outil propose, le chercheur dispose.
Que disent les centres de formation en travail social de cette approche ?
S.K. Les retours que j’ai des étudiants sont contrastés. Certains formateurs diabolisent l’IA. D’autres l’encouragent prudemment. Je ne pense pas l’encadrement pédagogique toujours prêt à intégrer l’IA comme outil légitime. C’est un secteur historiquement et culturellement souvent frileux face au numérique.
Quelles idées reçues ou peurs reviennent le plus souvent ?
S.K. L’appauvrissement de la pensée, la substitution totale à la créativité humaine. J’entends souvent que l’IA, c’est pour les “fainéants”. Mais pas du tout. Ceux qui s’en servent bien y passent parfois plus de temps que sans ! Car elle ouvre des portes, oblige à creuser, à reformuler. Le gain de temps permet d’investir dans ce que l’IA ne sait pas faire : créer de la connaissance nouvelle, qui est l’objectif du mémoire.
Un conseil à un formateur hésitant ?
S.K. Tester, tester, tester. Utiliser l’IA pour préparer un cours, expérimenter des cas d’usage, apprendre à prompter, comprendre ce que l’IA peut faire, ne pas faire ou ne doit pas faire. L’IA, c’est finalement un peu comme la langue d’Esope : elle n’est jamais que ce que l’on fait d’elle, la meilleure ou la pire des choses.
Merci Sophie pour cet échange !
Et si vous étiez mon prochain invité ? Contactez-moi : Elguiz.florence@gmail.com ou messagerie Linkedin
🔭[AI]lleurs
Sélection personnelle de contenus venus d’autres horizons. Pour vous inspirer sans vous éparpiller (façon puzzle 😊)
📙À lire
➡️« Shadow AI – Enjeux, usages et recommandations pour l’intégration de l’IA générative au travail » (Inria, 2025)
Ce rapport, piloté par Yann Ferguson (Inria) et Datacraft, analyse en profondeur la diffusion de l’IA générative dans les organisations, à travers le phénomène du « Shadow AI » : l’usage informel, souvent non encadré, de l’IA par les professionnels. Même s’il ne cible pas spécifiquement les associations, ses constats sont pleinement transposables : l’IA générative s’introduit aussi dans les associations par des usages spontanés, porteurs d’innovation mais aussi de risques accrus. Ses recommandations offrent une feuille de route pour sécuriser et valoriser les initiatives sur le terrain.
Rapport à consulter ici.
➡️ Fiches pratiques IA sur la mobilisation de l’intérêt légitime pour le développement de systèmes d’intelligence artificielle - CNIL
Cette synthèse de la Cnil permet de mieux comprendre les débats actuels entre acteurs privés, chercheurs, société civile et CNIL sur ce qui est (ou non) acceptable lorsqu’on développe une IA avec des données personnelles. À lire ici si votre asso traite de données sensibles, veut développer ou utiliser un outil d’IA, ou tout simplement mieux comprendre les risques, les garde-fous et les zones grises du moment.
📅 Événements
➡️Intelligence artificielle vs Solidarités réelles
Journée de rentrée sociale de l’Uriopss Occitanie
Date : 7 octobre 2025.
Lieu : Béziers (34)
+ d’infos ici.
➡️Comment mettre l’intelligence artificielle au service du soin ?
Journée “Perf.IA” organisée par l’ANAP. Deux ateliers intéresseront plus particulièrement le médico-social : “plannings et temps de travail : l’IA au service de l’agilité”, “IA dans le médico-social : accompagnement assisté, organisation renforcé”.
Date : 14 octobre 2025.
Lieu : Montrouge (92)
+ d’infos ici.
Un évènement à annoncer ? Contactez-moi : elguiz.florence@gmail.com
Merci d’avoir lu jusqu’au bout 🙏.
Si cette édition vous a été transférée et qu’elle vous plaît, abonnez-vous !
Prise de conscience, la base d'une utilisation raisonnée. Merci !