Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
La recherche a révélé que près de la moitié des conseils médicaux fournis par l'IA présentent des problèmes, Grok étant le pire, OpenAI poursuivant toujours son expansion dans le domaine médical
Selon une étude récemment publiée dans BMJ Open, environ 50 % des réponses de cinq grands chatbots IA en matière de santé présentent des problèmes, dont près de 20 % sont jugées « fortement problématiques ». Bloomberg souligne que cette recherche révèle des risques systémiques liés à l’application de l’IA en médecine, ce qui est particulièrement ironique alors qu’OpenAI et Anthropic étendent simultanément leur présence dans le domaine médical.
(Précédent contexte : Ne confiez pas votre dossier médical à un chatbot ? La mise en jeu de la vie privée sous l’ambition médicale de ChatGPT)
(Complément d’information : Une étude de l’Université de Californie sur le phénomène de « brouillard cérébral IA » : 14 % des salariés sont devenus fous à cause des agents et de l’automatisation, avec 40 % envisageant de démissionner)
Table des matières de cet article
Toggle
Plus de 230 millions de personnes interrogent chaque semaine ChatGPT sur des questions de santé et de médecine, mais près de la moitié des réponses peuvent comporter des erreurs. Selon une étude publiée cette semaine dans la revue médicale BMJ Open, des chercheurs américains, canadiens et britanniques ont évalué systématiquement cinq plateformes : ChatGPT, Gemini, Meta AI, Grok et DeepSeek, en leur soumettant chacune 10 questions couvrant cinq catégories médicales.
Les résultats sont moins optimistes : environ 50 % des réponses sont considérées comme problématiques, dont près de 20 % comme « fortement problématiques ».
Grok affiche les pires performances, ChatGPT n’est pas en reste
Bloomberg rapporte que les performances varient considérablement selon les plateformes, mais aucune ne passe le test. En termes de taux de réponse aux questions, Grok arrive en tête avec 58 %, ce qui en fait la plateforme la moins performante ; ChatGPT suit de près avec un taux de 52 % ; Meta AI affiche 50 %.
Les chercheurs ont observé que, pour les questions fermées et celles relatives aux vaccins ou au cancer, les chatbots donnent des réponses relativement meilleures ; en revanche, leur performance chute nettement pour les questions ouvertes ou dans des domaines comme les cellules souches ou la nutrition. De plus, dans l’étude, seules deux refus de répondre ont été enregistrés, toutes provenant de Meta AI (ce qui, dans une certaine mesure, montre que le fait de savoir qu’on ne devrait pas répondre peut constituer un avantage rare).
Ce qui est encore plus inquiétant, c’est que ces IA donnent souvent des réponses pleines d’assurance, avec un ton affirmatif et sans réserve. Les chercheurs insistent particulièrement : aucun chatbot, dans aucune situation, ne peut fournir une liste complète et précise de références. Cela signifie que, même si l’IA semble « argumentée », les sources qu’elle cite sont souvent inaccessibles ou inexistantes.
Plus l’IA paraît sûre, plus le risque est élevé
Les chercheurs écrivent dans leur rapport que ces systèmes peuvent générer des « réponses qui semblent autoritaires, mais qui peuvent en réalité comporter des défauts », soulignant ainsi « des limitations majeures dans leur comportement lors de la communication en santé et médecine avec le public » et la « nécessité de réévaluer leur déploiement ».
Bloomberg cite également l’avertissement de l’équipe de recherche : en l’absence d’éducation publique et de mécanismes de régulation, le déploiement massif de chatbots représente le plus grand risque, en favorisant la propagation et la diffusion d’informations médicales erronées.
À titre de comparaison, une autre étude publiée dans JAMA indique que le taux d’échec de l’IA dans des cas de diagnostic préliminaire dépasse 80 %. L’Université d’Oxford a également lancé en février 2026 un avertissement, appelant à une prise de conscience des risques systémiques liés à l’utilisation de chatbots pour fournir des conseils médicaux.
OpenAI et Anthropic : la recherche freine, le commerce accélère
Le moment de publication de cette étude est particulièrement dramatique. Il y a seulement quelques mois, en janvier 2026, OpenAI a lancé en grande pompe ChatGPT Health, une fonctionnalité permettant aux utilisateurs de se connecter à des dossiers médicaux électroniques, des dispositifs portables et des applications de santé, tout en proposant une version professionnelle pour les médecins. OpenAI a annoncé que 40 millions de personnes consultaient chaque jour des informations de santé via ChatGPT.
Simultanément, Anthropic a également annoncé le lancement de Claude for Healthcare, certifié HIPAA, pour pénétrer officiellement le marché médical.
Ces plateformes, dépourvues de licences médicales ou de capacités de jugement clinique, s’étendent à une vitesse impressionnante dans le secteur de la santé. La tension entre ces résultats de recherche et cette expansion commerciale révèle un vide réglementaire : il n’existe actuellement aucune ligne de défense claire entre la promotion commerciale des outils IA en médecine et leur sécurité réelle.
Faire confiance à l’IA, mais avec des conditions
Ce n’est pas la première fois que les applications médicales de l’IA sont pointées du doigt, mais chaque étude rappelle la même chose : en essence, les chatbots sont des modèles linguistiques qui excellent à donner l’impression d’avoir « raison », plutôt que de garantir la précision. Le problème, c’est que lorsque des utilisateurs, souvent anxieux pour leur santé, sollicitent ces outils, le fait qu’ils paraissent « crédibles » peut déjà influencer leurs décisions.
Alors qu’OpenAI, Anthropic et d’autres poursuivent leur immersion dans le domaine médical, la vitesse de la régulation et de l’éducation du public ne suit manifestement pas le rythme de l’expansion technologique. Avant d’établir des barrières claires, cette étude peut nous rappeler que l’IA peut être une porte d’entrée vers des informations de santé, mais ne doit pas en être la fin.