IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'assurance santé Cigna accusée d'utiliser un algorithme pour refuser des demandes de remboursement à des centaines de milliers de patients
Sans examen individuel comme l'exige la loi

Le , par Stéphane le calme

31PARTAGES

6  0 
Cigna, la grande enseigne de la santé et de l’assurance, est poursuivi en justice pour avoir utilisé un algorithme qui rejette systématiquement les demandes de remboursement en quelques secondes, sans examiner individuellement chaque cas comme l’exige la loi sur l’assurance maladie de l’État de Californie. La plainte, qui a été déposée lundi en Californie et qui demande le statut de recours collectif, a été initiée par deux plaignants qui se sont vu refuser la couverture par Cigna. L’un des plaignants, Suzanne Kisting-Leung, avait été orienté vers une échographie en raison d’un risque suspecté de cancer de l’ovaire. L’autre, Ayesha Smiley, avait été testée pour une carence en vitamine D par son médecin.

Les assurances sont confrontées à des critiques croissantes concernant les processus automatisés de décision en matière de réclamations.

Cigna est spécifiquement sur la sellette, après qu'une enquête de ProPublica plus tôt cette année a révélé que les médecins de Cigna utilisaient PxDx pour rejeter instantanément les réclamations sans ouvrir le dossier d'un patient, laissant les patients désemparés pour des factures médicales qui, dans de nombreux cas, auraient dû être couvertes.

Le rapport a déclenché une enquête (qui est toujours en cours) du House Energy and Commerce Committee, ainsi que des régulateurs étatiques et fédéraux.

Le nouveau procès intenté dans le district oriental de Californie cite l'enquête de ProPublica en alléguant que Cigna utilise PxDx pour analyser et refuser les réclamations en masse, avant d'envoyer des réclamations aux médecins examinateurs pour approuver des lots de refus. S'appuyant sur le système, les médecins de Cigna rejettent les réclamations médicales sans ouvrir les dossiers des patients, selon la plainte.

L'algorithme fonctionne en signalant les écarts entre un diagnostic et ce que Cigna considère comme des tests et des procédures acceptables pour cette condition, selon la plainte. PxDx n'utilise pas l'intelligence artificielle pour examiner les réclamations, selon Cigna. La poursuite allègue que l'entreprise basée dans le Connecticut a utilisé la technologie pour « refuser le paiement par lots de centaines ou de milliers à la fois ». Un directeur médical de Cigna a rejeté 60 000 réclamations en un seul mois, selon le rapport ProPublica.

La rapidité des refus rend impossible l'examen individuel des demandes, ce qui viole la loi de l'État, selon la plainte. La Californie exige que les professionnels de la santé se soumettent à une « enquête approfondie, juste et objective » sur les réclamations. Cigna « a délégué à tort son obligation d'évaluer et d'enquêter sur les réclamations au système PxDx » et « a trompé frauduleusement » ses membres en leur faisant croire que Cigna déciderait individuellement de leurs réclamations et paierait les procédures médicalement nécessaires, selon la poursuite.

Le procès demandant le statut de recours collectif propose d'inclure toute personne ayant acheté un plan Cigna dans l'État au cours des quatre dernières années. Cigna couvre environ 2,1 millions de membres en Californie.

La plainte a été déposée par deux membres de Cigna qui se sont tous deux vu refuser un paiement prétendument en raison de PxDx. Une plaignante s'est vu refuser le paiement d'une échographie après avoir été jugée à risque de cancer de l'ovaire. Les plaignants demandent des dommages-intérêts et demandent à Cigna de cesser d'utiliser PxDx dans la gestion des réclamations.

PxDx est appliqué sur environ 50 tests et procédures à faible coût pour vérifier que les codes ont été soumis correctement. Les ultrasons ne sont généralement pas admissibles au PxDx, selon le payeur.

Le niveau élevé de refus de réclamations d'assurance est un problème permanent dans le secteur de la santé, mais de plus en plus de preuves que les entreprises s'appuient sur des algorithmes pour automatiser les refus de réclamations ont ajouté un nouvel angle au débat.


La plainte

Cette action découle du stratagème illégal de Cigna visant à refuser systématiquement, à tort et automatiquement à ses assurés l'examen approfondi et individualisé par un médecin des réclamations qui leur sont garanties par la loi californienne et, en fin de compte, les paiements pour les procédures médicales nécessaires qui leur sont dus en vertu des polices d'assurance maladie de Cigna. Cigna est une importante compagnie d'assurance médicale aux États-Unis, avec environ 2,1 millions de membres en Californie. Cigna s'engage à ce que l'entreprise « s'engage à améliorer la santé et la vitalité » de ses membres. En réalité, Cigna a développé un algorithme connu sous le nom de PXDX sur lequel il s'appuie pour permettre à ses médecins de refuser automatiquement les paiements par lots de centaines ou de milliers à la fois pour des traitements qui ne correspondent pas à certains critères prédéfinis, évitant ainsi l'examen médical individuel légalement requis par le processus.

S'appuyant sur le système PXDX, les médecins de Cigna rejettent instantanément les réclamations pour des raisons médicales sans jamais ouvrir les dossiers des patients, laissant des milliers de patients sans couverture et avec des factures inattendues. L'ampleur de ce problème est énorme. Par exemple, sur une période de deux mois en 2022, les médecins de Cigna ont refusé plus de 300 000 demandes de paiement en utilisant cette méthode, consacrant en moyenne seulement 1,2 seconde à « examiner » chaque demande.

Le système PXDX permet à Cigna d'économiser de l'argent en lui permettant de refuser les réclamations qu'il a déjà payées et en éliminant les coûts de main-d'œuvre associés au paiement des médecins et autres employés pendant le temps nécessaire pour effectuer un examen manuel individualisé pour chaque assuré Cigna.

Cigna utilise également le système PXDX, car elle sait qu'elle ne sera pas tenue responsable des refus injustifiés. Par exemple, Cigna sait que seule une infime minorité d'assurés (environ 0,2*%) fera appel des réclamations refusées, et la grande majorité paiera les frais ou renoncera à la procédure en cas de problème.

Les plaignants et les membres du groupe présumé ont vu leurs réclamations rejetées par Cigna en utilisant le système PXDX. Cigna n'a pas utilisé de normes raisonnables pour évaluer les réclamations individuelles des demandeurs et des membres du groupe et a plutôt autorisé ses médecins à signer les refus par lots.

En se livrant à cette faute, Cigna a manqué à ses obligations fiduciaires, y compris son obligation de bonne foi et de traitement équitable, car sa conduite sert les propres intérêts économiques de Cigna et élève les intérêts de Cigna au-dessus des intérêts de ses assurés.

En intentant cette action, les Plaignants cherchent à remédier à la conduite inappropriée et illégale passée de Cigna en recouvrant des dommages auxquels les Plaignants et le Groupe ont légitimement droit et interdisent à Cigna de continuer à perpétrer son stratagème contre ses assurés californiens.

Le procès contre Cigna n’est pas le premier à remettre en question l’utilisation des algorithmes dans le domaine de la santé

En 2019, une étude a révélé qu’un algorithme utilisé par les hôpitaux pour attribuer les soins de santé aux patients était biaisé en faveur des Blancs au détriment des Noirs. L’algorithme, développé par la société Optum, classait les patients en fonction du coût prévu de leurs soins futurs, ce qui sous-estimait le besoin de soins des patients noirs, qui dépensent généralement moins en raison de facteurs tels que le manque d’accès ou la discrimination. L’étude a estimé que l’élimination du biais racial de l’algorithme pourrait doubler le nombre de patients noirs identifiés comme ayant besoin de soins supplémentaires.

Les algorithmes peuvent également être utilisés pour améliorer la qualité et l’efficacité des soins de santé, à condition qu’ils soient conçus et surveillés avec éthique et transparence. Par exemple, un algorithme développé par Google a permis de détecter avec précision le cancer du sein à partir d’images mammographiques, surpassant les radiologues humains. Un autre algorithme, créé par IBM, a permis de réduire le temps nécessaire pour diagnostiquer les maladies rares chez les enfants, en analysant les données génétiques et cliniques des patients. Ces exemples montrent que les algorithmes peuvent être des outils puissants pour aider les professionnels de la santé à prendre des décisions éclairées et personnalisées.

Toutefois, il est essentiel que les algorithmes utilisés dans le domaine de la santé soient soumis à des normes rigoureuses de validation, d’audit et de responsabilité. Les patients ont le droit de savoir comment leurs données sont utilisées, comment les décisions sont prises et comment ils peuvent contester les résultats. Les algorithmes ne doivent pas remplacer le jugement humain, mais plutôt le compléter et le soutenir. Comme l’a déclaré le Dr David Magnus, directeur du Centre d’éthique biomédicale de l’université Stanford : « Les algorithmes ne sont pas infaillibles. Ils doivent être testés, validés et surveillés. Et ils doivent être utilisés avec prudence et respect ».

Conclusion

La plainte vient alors qu’un boom de l’intelligence artificielle et d’autres technologies avancées soulève des questions sur l’avenir du travail, bouleversant potentiellement tous les secteurs, de la publicité à l’assurance. La santé est un secteur où une transformation technologique pourrait être à la fois bénéfique - aidant les médecins à remplir des formalités administratives fastidieuses ou à affiner les diagnostics - mais aussi problématique, en raison de problèmes liés à la vie privée des patients, à l’accès aux soins et au coût élevé des factures médicales.

Sources : plainte, biais de l'algorithme Optum en 2019

Et vous ?

Quelle est votre opinion sur l’utilisation des algorithmes dans le domaine de la santé ?
Pensez-vous que les algorithmes peuvent remplacer les médecins ou les compléter ?
Quels sont les avantages et les inconvénients des algorithmes par rapport aux humains pour prendre des décisions médicales ?
Avez-vous déjà été confronté à une situation où un algorithme a influencé votre parcours de soins ? Si oui, comment avez-vous vécu cette expérience ?

Une erreur dans cette actualité ? Signalez-nous-la !