LeadingAge 2025 : Comment les organismes de soins aux personnes âgées évoluent grâce à l’IA

Les organismes de soins aux personnes âgées connaissent bien l'utilisation de l'intelligence artificielle dans leur secteur , mais un nombre croissant d'entre eux deviennent plus optimistes quant à son potentiel.
Selon le rapport technologique 2025 d'Argentum , 76 % des dirigeants interrogés ont déclaré que l'IA serait une force transformatrice ou positive dans la gestion des résidences pour personnes âgées au cours des cinq prochaines années ; seulement 58 % avaient répondu de cette manière en 2023.
La plupart des organisations utilisent l'IA et l'apprentissage automatique dans l'analyse prédictive (70 %) ; l'efficacité du marketing et des ventes (50 %) ; et les chatbots pour l'interaction avec les résidents (50 %).
Il n'est donc pas surprenant que l'IA ait été un sujet de discussion lors de la conférence annuelle LeadingAge 2025 à Boston, où plusieurs sessions ont abordé l'adoption croissante de l'IA. Une session interactive a d'ailleurs accueilli un intervenant de marque : ChatGPT.
Lors d'une session, Scott Code, vice-président du Centre des technologies des services aux personnes âgées chez LeadingAge , a partagé quelques enseignements tirés d'une enquête menée par la CTO Hotline et publiée plus tôt cette année.
Au niveau des entreprises, aucune organisation n'a fait état d'une expertise approfondie en IA ; la plupart des répondants ont indiqué avoir des connaissances très limitées en IA ou ne compter que quelques membres d'équipe compétents dans ce domaine. (Seuls 49 % des répondants se sentaient relativement à l'aise pour déployer une IA ciblée.)
L'adoption des grands modèles de langage est forte, Microsoft Copilot s'imposant comme la solution de référence du secteur : 63 % des répondants utilisent Copilot, contre 36 % pour ChatGPT , 3 % pour Google Gemini et 1 % pour Claude . (Parmi les répondants qui n'utilisent pas actuellement de grand modèle de langage, 53 % prévoient d'en implémenter un dans les 12 prochains mois.)
Joe Velderman, directeur de la stratégie chez K4Connect et membre du conseil d'administration du Parker Health Group, a indiqué que son intérêt pour l'IA générative a commencé à peu près au moment du lancement de ChatGPT auprès du public fin 2022. Au fur et à mesure de ses recherches, il a compris l'importance des données pour de telles solutions.
« Les données sont le carburant de ces LLM, et j'ai donc commencé à réfléchir à la nécessité pour les organisations d'utiliser et d'exploiter les données afin de tirer parti efficacement et contextuellement de ces outils », a-t-il déclaré.

De gauche à droite : Joe Velderman, directeur de la stratégie chez K4Connect, s'exprime lors d'une session avec Robin Visser, directrice du marketing et des stratégies numériques chez Christian Living Communities ; Srini Alagarsamy, directeur technique de Lifespace Communities ; et Scott Code, vice-président du Centre des technologies des services aux aînés chez LeadingAge. Photo : Teta Alim
Une discussion avec ChatGPTLors d'une session précédente, les intervenants humains ont intégré ChatGPT à leur présentation et à la séance de questions-réponses avec le public. Travis Gleinig, vice-président de l'innovation et directeur des systèmes d'information chez United Methodist Communities , a indiqué que le chatbot avait été programmé pour effectuer une recherche de 15 minutes sur les principaux rapports, données et autres ressources du secteur afin d'éclairer les propos des intervenants.
À mesure que l'IA s'implante davantage dans l'industrie, explique Gleinig, son organisation se concentre sur un changement de culture afin d'amener les gens à mieux comprendre l'IA.
« Il y a une grande différence entre savoir lire et écrire et maîtriser l'IA », a-t-il déclaré, ajoutant qu'il souhaitait que les membres de l'équipe acquièrent une parfaite maîtrise de l'IA afin de pouvoir facilement adopter et comprendre quelle que soit la solution qui sera retenue par le marché.
Dans le cadre de l'intégration des nouveaux employés, Gleinig a exploré l'utilisation de Google NotebookLM pour créer une sorte de podcast sur l'histoire et la culture de l'organisation, qu'il a trouvé beaucoup plus engageant que les approches traditionnelles.
Chez Presbyterian Living , Raymond Benegas, vice-président des technologies de l'information, a indiqué que l'IA est utilisée dans les processus cliniques, commerciaux et marketing. Les employés ont également testé l'utilisation de Microsoft Copilot , et les plateformes de cybersécurité intègrent des fonctionnalités d'IA qui ont amélioré la visibilité et la réactivité de l'organisation, notamment en détectant rapidement les activités de connexion inhabituelles.
« Nous n’aurions pas pu détecter cela aussi rapidement sans ces types de solutions d’IA qui analysent constamment les données et nous fournissent les informations nécessaires pour agir », a déclaré Benegas.

De gauche à droite : Raymond Benegas, vice-président des technologies de l’information chez Presbyterian Living ; Travis Gleinig, vice-président de l’innovation et directeur des systèmes d’information chez United Methodist Communities ; et Steven VanderVelde, directeur des partenariats pour les résidences pour aînés chez ProviNET Solutions, partagent la scène avec un quatrième intervenant : ChatGPT. Photo : Teta Alim
Interrogés sur les aspects négatifs de l'adoption de l'IA et sur les mesures que les organisations peuvent prendre pour s'en protéger, les auteurs de ChatGPT ont insisté sur l'importance de la supervision humaine et les risques de biais : « Un exemple de ce revers est l'utilisation de l'IA pour automatiser des décisions qui nécessitent une réelle empathie humaine. Par exemple, s'appuyer excessivement sur l'IA pour l'élaboration des plans de soins des résidents, sans supervision humaine suffisante, pourrait conduire à des décisions ne tenant pas compte des spécificités des soins personnalisés. Un autre risque concerne la confidentialité des données : si les outils d'IA ne sont pas correctement protégés, des informations sensibles concernant les résidents pourraient être divulguées. Enfin, l'IA peut présenter des biais si elle est entraînée sur des données non représentatives de la population résidente. La meilleure protection consiste toujours à maintenir une intervention humaine, à garantir une protection robuste des données et à examiner régulièrement les résultats de l'IA afin d'en vérifier l'équité et l'exactitude. »
Les experts humains ont également souligné l'importance de la gouvernance des données et de la formation continue , car les tentatives d'hameçonnage assistées par l'IA constituent une menace croissante dans tous les secteurs.
Ajoutez cette page à vos favoris pour suivre notre couverture du congrès annuel LeadingAge 2025. Suivez-nous sur X à @HealthTechMag et participez à la conversation avec le hashtag #LeadingAge25 .
healthtechmagazine



