Elon Musks KI-Chatbot Grok nutzt von Nutzern hochgeladene medizinische Daten angesichts von Datenschutzbedenken
Brief news summary
Elon Musk stellte Grok vor, einen KI-Chatbot auf X, der entwickelt wurde, um medizinische Bilder wie Röntgenaufnahmen und MRTs zu analysieren und bei Diagnosen zu helfen. Musk behauptet, dass Grok die Ärzte in puncto Genauigkeit übertreffen kann, indem es Fälle erkennt, die von Ärzten übersehen wurden, darunter auch sein eigenes MRT, das keine Probleme zeigte. Die Genauigkeit von Grok steigt mit mehr Nutzerdaten, doch Experten warnen vor Risiken in Bezug auf Genauigkeit, Datenschutz und die Abhängigkeit von begrenzten oder voreingenommenen Datensätzen. Das Teilen medizinischer Bilder in sozialen Medien wirft Datenschutzbedenken auf, da Schutzmaßnahmen wie HIPAA fehlen. Ärzte haben sowohl korrekte als auch falsche Diagnosen von Grok beobachtet. Trotz dieser Herausforderungen wurde Grok in einer Studie aus dem Jahr 2025 höher bewertet als Konkurrenten wie Google’s Gemini und ChatGPT-4o bei der Erkennung von Anomalien in Gehirn-MRTs. Wettbewerber wie OpenAI reagierten mit ChatGPT Health, das sicheren Zugriff auf medizinische Aufzeichnungen ermöglicht, ohne persönliche Daten für das KI-Training zu verwenden. Die medizinische Gemeinschaft betont die vorsichtige Einführung und strenge Datenschutzmaßnahmen, da KI-Tools zunehmend in das Gesundheitswesen integriert werden.Elon Musk hat erklärt, dass medizinische Daten, die auf X (früher Twitter) hochgeladen werden, um den KI-Chatbot Grok zu trainieren, um eine effizientere Interpretation zu ermöglichen. Anfang dieses Monats teilte Musk ein Video, in dem er Nutzer ermutigt, medizinische Bilder wie Röntgenaufnahmen oder MRTs zu Grok hochzuladen, um Diagnosen zu erhalten, wobei er behauptete, dass die KI manchmal besser als Ärzte sei. Er sagte, dass diese Uploads im Jahr 2024 dazu beitragen würden, Grok weiter zu trainieren. Trotz seines frühen Entwicklungsstadiums ist Grok bereits ziemlich genau und soll sich erheblich verbessern. Musk erzählte eine Anekdote, dass Grok einen Fall diagnostizierte, den Ärzte in Norwegen übersehen hatten, und erwähnte im Podcast „Moonshots with Peter Diamandis“, dass er persönlich ein MRT bei Grok eingereicht hat, bei dem sowohl die Ärzte als auch Grok keine Probleme fanden. Er verriet jedoch nicht den Grund für sein MRT und XAI, das X besitzt, wies Medienanfragen als „Lügen der Legacy-Medien“ zurück. Grok steht im Wettbewerb mit anderen KI-Gesundheits-Tools, insbesondere seit der jüngsten Einführung von ChatGPT Health durch OpenAI, das sicher mit medizinischen Aufzeichnungen und Wellness-Apps integriert wird, ohne persönliche Daten für das Modelltraining zu verwenden. KI-Chatbots werden häufig für medizinische Anfragen genutzt; OpenAI berichtete kürzlich von 40 Millionen Nutzern, die Gesundheitsinformationen suchten, wobei mehr als die Hälfte die Plattform nutzte, um Symptome zu verstehen. Die medizinischen Diagnosen von Grok sind gemischt. Während einige Nutzer behaupten, es habe Bluttests richtig analysiert und Brustkrebs erkannt, haben Ärzte erhebliche Fehler festgestellt, z. B. die Verwechslung von Tuberkulose mit Rückenproblemen oder das Missdeuten einer gutartigen Brustzyste als Hoden. Eine Studie vom Mai 2025, die Grok mit Google’s Gemini und ChatGPT-4o verglich, fand heraus, dass Grok bei der Erkennung von Erkrankungen in mehr als 35. 000 MRT-Aufnahmen des Gehirns am effektivsten war, wobei Experten anmerken, dass nicht-generative KI im medizinischen Bildbereich weiterhin generative Modelle übertrifft.
Dr. Laura Heacock von der NYU betonte, dass es noch abzuwarten bleibt, ob Unternehmen Zeit und Ressourcen in medizinische Bild-KI investieren. Fachleute warnen, dass Musks Vorgehen – das Training von Grok durch von Nutzern hochgeladene medizinische Daten auf einer sozialen Plattform – Risiken birgt. Ryan Tarzy, CEO von Avandra Imaging, erklärte, dass dieser Ansatz die Entwicklung beschleunige, aber auf Daten aus einer limitierten, selbstselektierten Gruppe beruhe, die nicht die Vielfalt sicherer, anonymisierter medizinischer Datenbanken widerspiegle. Zudem sind medizinische Daten, die in sozialen Medien geteilt werden, nicht durch HIPAA geschützt, was das Risiko birgt, Patientenzuordnungen zu offenbaren, zumal Bilder oft persönliche Informationen enthalten. Tarzy warnte, dass dies zu unbeabsichtigten Datenschutzverletzungen führen könnte. Matthew McCoy, Professor für medizinische Ethik und Gesundheitspolitik an der University of Pennsylvania, betonte, dass die Risiken für die Privatsphäre noch nicht vollständig verstanden seien, da die internen Schutzmechanismen von X unbekannt sind. Er persönlich würde sich unwohl fühlen, Gesundheitsdaten öffentlich zu teilen. Letztlich bleibt festzuhalten, dass zwar das Potenzial von Grok im Bereich medizinischer KI beachtlich ist, die aktuellen Einschränkungen bei der Genauigkeit und die Datenschutzbedenken jedoch Vorsicht für Nutzer erfordern. Diese Geschichte wurde ursprünglich am 20. November 2024 auf Fortune. com veröffentlicht.
Watch video about
Elon Musks KI-Chatbot Grok nutzt von Nutzern hochgeladene medizinische Daten angesichts von Datenschutzbedenken
Try our premium solution and start getting clients — at no cost to you