L’intelligence artificielle s’est rapidement intégrée dans nos pratiques professionnelles, quel que soit le secteur d’activité. Cette évolution fulgurante de nos habitudes s’explique notamment par les gains de productivité considérables qu’offrent ces nouvelles technologies. Toutefois, cette progression s’accompagne également de risques, qui pèsent aussi bien sur les patients dont les données sont collectées que sur les organismes qui les exploitent.
Si une interdiction totale de ces outils constitue une mesure excessive et peu efficace, l’absence de règles encadrant leur utilisation, en particulier lorsqu’ils sont manipulés par des utilisateurs insuffisamment informés, pourrait ouvrir la voie à de nombreux risques.
Cet article a pour objectif de vous aider à identifier ces sources de risque et de vous accompagner dans l’intégration sereine et responsable de l’IA au sein de votre structure.
Risques identifiés
La fuite de données
Parmi les risques liés à une utilisation non encadrée de l’intelligence artificielle, la fuite de données est sans doute le plus évident. C’est aussi, heureusement, l’un des plus maîtrisables, à condition que les utilisateurs soient correctement sensibilisés aux bonnes pratiques.
Tout d’abord, il est important de comprendre que ce risque concerne la majorité des usages de l’IA dans un cadre professionnel. Dans le cas d’un modèle de langage comme ChatGPT, il existe un risque dès lors que l’outil est utilisé, qu’il s’agisse d’une assistance sur le fond, par exemple pour obtenir un conseil sur une pratique ou pour analyser un cas particulier, ou d’une assistance sur la forme, comme la rédaction d’un courriel ou la mise en forme d’un document concernant un patient.
Dans ces deux situations, l’identité du patient ainsi que ses données de santé peuvent être involontairement exposées.
Par ailleurs, l’origine du risque est double. Les informations saisies peuvent tout d’abord être collectées par l’entreprise qui propose ces services, notamment dans le cadre de l’amélioration ou de l’entraînement de ses modèles d’intelligence artificielle, ce qui peut conduire à l’exposition d’informations confidentielles. Elles peuvent également être ciblées par des utilisateurs malveillants cherchant à manipuler les modèles d’IA afin d’accéder à des données sensibles.
Ce risque est d’autant plus important lorsque des professionnels utilisent, de leur propre initiative, des outils d’intelligence artificielle gratuits sans en informer leur hiérarchie. Cette pratique, de plus en plus répandue, est connue sous le nom de « Shadow AI ».
Erreurs, biais et « hallucinations » de l’IA
Les risques liés à l’utilisation non avertie de solutions d’intelligence artificielle ne se limitent pas à la fuite de données. Les modèles d’IA gratuits ou non validés par votre organisation peuvent également produire des erreurs, ce qui peut avoir des conséquences non négligeables, surtout lorsque les utilisateurs ne sont pas formés à leur utilisation, notamment à la rédaction de prompts efficaces. Des instructions mal formulées entraînent des réponses peu fiables.
Paradoxalement, pour obtenir des résultats précis, il est souvent nécessaire de fournir à l’outil davantage d’informations sensibles sur le patient et/ou sa situation, ce qui implique un partage accru de données de santé ou d’informations d’ordre personnel.
Le problème peut aussi provenir du modèle lui-même. Les IA peuvent commettre des erreurs ou simplifier excessivement des situations complexes par manque d’informations ou par des raccourcis logiques. Dans le domaine médical et paramédical, un détail mal interprété peut provoquer un effet domino avec des conséquences importantes sur la santé des patients.
Des études ont également montré que ces outils peuvent générer des sources fictives ou refléter des biais statistiques présents dans leurs données d’entraînement. Sans vigilance, ces défaillances augmentent le risque de pratiques discriminatoires, de prises en charge inappropriées, voire de manquements déontologiques.
Les solutions
Sensibilisation et déontologie
Dans le domaine de la santé, les données de vos patients sont les actifs les plus importants et constituent la principale source d’erreurs ou de défaillances humaine et logicielle. Le personnel et les services ont donc souvent l’avantage d’être déjà rodés à des vigilances opérationnelles et déontologiques connexes (secret médical, mesures de sécurité organisationnelles, etc…). Les formations, rappels ou infographies peuvent avoir un impact significatif sur les pratiques individuelles, en associant ces recommandations au reste des pratiques.
Dans son rôle de conseil, Netsystem vous accompagne dans cette démarche, par une sensibilisation des équipes et la rédaction de livrables sur mesure.
Gouvernance de l’IA
La prise en main des défis que présente la démocratisation de l’IA passe aussi par la mise en place d’un cadre à l’échelle de l’organisme. Cette approche “par le haut” peut permettre simultanément de protéger le groupe ou la société, tout en touchant un maximum de personnes au sein de l’organisme.
Plusieurs sources peuvent formaliser les impératifs de la protection des données des patients et influer sur les comportements, y compris individuellement. Voilà deux exemples de documentation interne pour intégrer pleinement une éthique de l’IA :
- Si une politique de confidentialité interne existe au sein de votre structure, il peut être pertinent de la mettre à jour afin d’y intégrer les enjeux liés à l’utilisation de l’intelligence artificielle, notamment les règles applicables au traitement des données de santé lors de l’utilisation de ces outils et les risques associés.
- En complément, la rédaction d’une charte d’utilisation de l’IA peut permettre d’aller plus loin dans l’encadrement des pratiques. Ce document interne vise à définir les usages autorisés, les outils pouvant être utilisés par les équipes ainsi que les bonnes pratiques à adopter. Il contribue ainsi à clarifier les obligations des utilisateurs et à garantir le respect des principes éthiques et déontologiques entourant le recours à l’intelligence artificielle.
Conclusion
L’accessibilité croissante des services d’intelligence artificielle peut parfois donner l’impression que leur utilisation est sans conséquence. Pourtant, derrière chaque usage, même apparemment anodin, des informations sont collectées et exploitées, pouvant inclure des données sensibles. Dans les structures médicales et paramédicales, où le respect des patients et la confidentialité constituent des exigences fondamentales, la compréhension de ces risques est indispensable pour garantir une utilisation responsable de ces technologies.
En accompagnant les organisations dans l’identification et la maîtrise de ces enjeux, Netsystem met à leur disposition les outils et l’expertise nécessaires pour intégrer l’intelligence artificielle de manière sécurisée, éthique et adaptée à leurs pratiques.