Une IA entraînée avec vos données médicales ?
Elon Musk s’attaque à un nouveau domaine : la médecine. Le milliardaire incite les utilisateurs de X (anciennement Twitter) à partager leurs résultats d'examens médicaux sur la plateforme pour entraîner Grok, le chatbot d'intelligence artificielle développé par xAI. Une démarche audacieuse qui ambitionne de révolutionner le diagnostic médical, mais qui suscite de vives critiques, notamment sur la fiabilité des analyses et la protection des données personnelles.« Soumettez vos radiographies, IRM ou PET scans à Grok pour analyse », a-t-il tweeté. Si certains témoignent d’analyses réussies, comme l’interprétation correcte de résultats sanguins ou l’identification d’un cancer du sein, d’autres exemples sont beaucoup moins flatteurs. Confondre tuberculose et hernie discale, ou interpréter une mammographie comme une image de testicules, illustre les limites actuelles de cette IA.Le Dr Laura Heacock, experte en imagerie médicale à l’université de New York, critique : « Les systèmes d’IA non génératifs restent plus fiables que Grok pour analyser des images médicales. » De son côté, Ryan Tarzy, PDG d’Avandra Imaging, dénonce un développement rapide, mais au détriment de la qualité et de la représentativité des données. Au-delà des erreurs techniques, les inquiétudes se concentrent sur la confidentialité. X n’est pas soumis aux protections HIPAA, l’équivalent américain du RGPD européen. Pour Matthew McCoy, professeur d’éthique médicale à l’université de Pennsylvanie, partager ses données sur une plateforme sociale reste une idée risquée : « Je ne serais absolument pas à l’aise de le faire. ». Malgré ses investissements colossaux – 6 milliards de dollars levés pour xAI –, Elon Musk fait face à des défis titanesques. Si l’IA promet de transformer la médecine, entre erreurs, éthique et vie privée, le chemin vers des diagnostics fiables et sécurisés semble encore long. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.