Tags
Aktuelle Nachrichten
America
Aus Aller Welt
Breaking News
Canada
DE
Deutsch
Deutschsprechenden
Europa
Europe
Global News
Internationale Nachrichten aus aller Welt
Japan
Japan News
Kanada
Konflikt
Korea
Krieg in der Ukraine
Latest news
Map
Nachrichten
News
News Japan
Russischer Überfall auf die Ukraine seit 2022
Science
South Korea
Ukraine
UkraineWarVideoReport
Ukraine War Video Report
Ukrainian Conflict
UkrainianConflict
United Kingdom
United States
United States of America
US
USA
USA Politics
Vereinigte Königreich Großbritannien und Nordirland
Vereinigtes Königreich
Welt
Welt-Nachrichten
Weltnachrichten
Wissenschaft
World
World News
33 Comments
1. KI entwickeln
2. KI testen un herausfinden, dass sie bestehende Vorurteile weiter verstärkt
3. KI in Medizin einsetzen, einem Bereich in dem diese Vorurteile schon jetzt Probleme verursachen
Gut für alle, die in die Kategorie “kaukasischer Mann” Fallen. Für alle anderen…
Überrascht jetzt nicht um ehrlich zu sein. Ein Mensch kann einfach realistisch nicht mehr alles medizinischen Wissen im Kopf haben. Selbst eine einzelne Fachrichtung enthält so unglaublich viele Informationen und jedes Jahr kommen neue Informationen hinzu.
Ist jetzt auch nicht so schwer, der größte Witz ist, die Ki ist die größte Gefahr für alle hochbezahlten Jobs, weil sie viel besser Daten abgleichen kann.
Im übrigen ist das schon seit 2 Jahren bekannt.
Also Chat GPT spuckt schon ne große Menge Müll aus
Das ist wirklich sehr spannend und deckt sich mit meiner persönlichen Erfahrung. Ich habe letztes Jahr Post Covid bekommen, da es aber nicht direkt nach einer Infektion sondern einige Monate später auftrat, war die Diagnosefindung ein sehr frustrierender Prozess. Von Epilepsie über Depression zu „Sie sind eine fette, faule Couch-Potato“ war alles dabei, aber keine richtige Diagnose (bis irgendwann ein Arzt kam, dessen Kind selbst drunter leidet). ChatGPT hat auf Anhieb richtig diagnostiziert. Ich würde behaupten, dass 90% aller Ärzte von einer selbstgestellten, nachweislich falschen Diagnose nicht abweichen, selbst wenn sie mit den Fakten konfrontiert werden und der Patient durch eine folgende Fehlbehandlung verletzt wird. Die Unversehrtheit des eigenen Egos wiegt hier schwerer als die Unversehrtheit des Patienten.
ChatGPT kann nicht einmal richtig beantworten wie viele “R” im Wort “Strawberry” stecken.
Und da soll ich mir ernsthaft medizinischen Rat holen?
Hatte kurz einen flashback mit der KI Watson von IBM
> Zum einen zeigte sich, dass Ärzte oftmals “unerschütterlich” an eine von ihnen gestellte Diagnose glauben, auch wenn der Chatbot möglicherweise eine bessere Alternative vorschlägt. Oftmals ließen sie sich nicht davon überzeugen, wenn ChatGPT sie auf etwas hinwies, das im Widerspruch zu ihrer Theorie stand.
Klingt wie die Chefarztvisite. ChatGPT mit Assistenzärzten ersetzt und zack sowas schon selbst erlebt. 🙁
> Chef, der Mann braucht nur Augentropfen. ICH HAB ABER SCHON DEN AUGAPFELSCHABER IN DER HAND – DAS SCHEIß AUGE MUSS RAUS*
(satirische Übertreibung)
Ein Freund von mir ist von Arzt zu Arzt gerannt, und niemand hat seine Symptome richtig diagnostiziert. ChatGPT hat ihm Dinge vorgeschlagen, die er bei einem Arztbesuch vorsichtig einstreuen musste, und zack: Das wars tatsächlich.
Ärzte können in Sprechstunden spontan glaube ich nicht jede Symptomatik richtig klassifizieren können. Erwarte ich auch nicht. LLMs könnten vielleicht ein tolles Werkzeug für Ärzte sein, wenn diese wissen wie man die Aussagen interpretieren und bewerten sollte.
Für viele chronisch kranke Menschen ist das keine große Überraschung.
Wer eine erste Einschätzung möchte ohne direkt zum Arzt zu gehen, aber auch gleichzeitig nicht Roulette mit Google und ChatGPT spielen will, dem kann ich ADA empfehlen, ist ein EU Projekt, basiert auf Symptomen und Diagnosen von echten Patienten und Ärzten, und liegt bei mir immer richtig.
Die App selbst funktioniert gut, man gibt an was man hat, und die App fragt dann gezielt basierend auf den Symptomen weiter nach. Am Ende bekommt man ein paar mögliche Diagnosen, aber nicht “du hast zu 70% Krebs im Endstadium”, stattdessen wird aufgelistet wie viele Menschen mit diesen Symptomen etwas hatten, wir ernst es ist (von “dringend einen Arzt aufsuchen” bis “ja mei..”), die Krankheiten werden ein bisschen erklärt und weitere symptome werden aufgelistet.
Das ist auch kein Ersatz für einen Arzt, aber wenn man morgens mit irgendwelchen Symptomen aufwacht die man noch nie hatte, dann gibt man die schnell ein und weiß bescheid ob man’s erstmal weiter beobachten soll, oder ob sich’s doch lohnt zum Arzt zu gehen.
https://ada.com/de/app/
Wer jetzt schon seine Symptome googled oder bei chatgpt eingibt ist mit der App deutlich besser unterwegs.
Unter Akademikern gibts n Spruch:
„Ah… n ‚Dr.‘. Sind Sie Arzt oder ist das ein echter Doktortitel?“
Hab ich mir damals beim Akinator schon gedacht. Da kann KI oder zumindest die Symptomgeleitete Diagnose doch helfen. Der Akinator hat ja auch durch Fragen einfach weiter eingegrenzt. Niemand kann alle Krankheitsbilder kennen.
Habe erst kürzlich Chatgpt meine Lebensgeschichte erzählt. Mit allen guten und schlechten Dingen. Meinen Werdegang, Motivationen, Vorlieben etc. Am Ende habe ich dann gefragt, wie es mich denn “diagnostizieren” würde, wenn es ein Psychologe/Therapeut wäre. Und siehe da, ADHS.
Als Zusatz Info: ich hatte den Verdacht seit einiger Zeit und hab verzweifelt versucht lokal einen Facharzt zu finden. Mein alter Psychologe hat mich schon fast ausgelacht und gemeint “Heute hat ja jeder ADHS!” und sich komplett quergestellt. Ich habe diese eigene Vermutung übrigens nie im Gespräch mit Chatgpt geäußert, um Railroading zu vermeiden.
Warte momentan immernoch auf einen Termin, bei dem ich seit einem halben Jahr auf der Warteliste stehe.
Tee trinken reicht also nicht?
Das geht mir genauso, vor allem seit dem o1 Release.
Besonders spannend wenn man den Fortschritt bei einigen medizinischen Benchmarks betrachtet (Ärzte hassen diesen Trick):
AgentClinic-MedQA:
GPT-4o: 52%
o1: 80%
Wann kann ich mich von ChatGPT krankschreiben lassen?
Können wir bitte endlich aufhören und zu wundern, dass ein LLM in genau dem gut ist, wozu es gebaut wurde? Texte fressen und sich erinnern.
Chat gpt sagt halt weniger “das ist normal so” oder “haben sie es mal mit abnehmen versucht”
Also… wenn man differenziert mit Google gearbeitet hat kam man auch oft auf eine korrekte Diagnose. Oder zumindest korrekte Tendenz. Klar gibt’s Krankheiten die mittels Ausschluss diagnostiziert werden. Aber aus persönlicher Erfahrung… hat geholfen, dass ich damit rechnen konnte, was es sein wird.
Ich habs bei mir auch probiert und Tests die ich einfach probieren konnte selber gemacht/bezahlt.
Brachte leider noch keinen Erfolg.
Das ist eine Sache in der ML sehr sinnvoll ist. Muster erkennen ist halt ne Stärke davon. Gab auch schon ne Studie wo ML bestimmte Krankheiten in nem Röntgenbild erkannt hat die sonst niemand gesehen hat.
bin dafür das jeder arzt einfach generell technology immer als 2. meinung holt. geht schnell , kostet nix und schadet niemand.
wird wohl zeit ein fach “demut” mit 8 etcs. in jedem semester während des medizinstudiums einzuführen.
das ergebnis spiegelt so zeimlich genau das wieder was die meisten schon erlebt haben wenn sie mit ihren beschwerden nicht ins schema f passen.
Ja wie kommt das denn 😀 ich kann literally egal mit welchen Sympthomen zum Arzt gehen und vorher ne 1 mio € Wette abschließen das er mir maximal 400er ibus “verschreibt” und sagt ich soll irgendwann nochmal wiederkommen. Ich meine gegen so ein medizinisches Genie kann man ja schlecht argumentieren. Will damit nicht mal sagen das die echten Ärzte inkompetent sind, denke ich eher weniger aber fühle mich schon so als wäre ich als Patient eher scheißegal bis nervig und hauptsache ich bin so schnell es geht aus dem Blickfeld verschwunden für die Patienten die wirklich krank sind.
Vor 2 Monaten hatte ich hier eine lange nervige Diskussion mit jemand der genau das niemals glauben wollte. Erleichternd das hier nun zu lesen.
Und ja, natürlich gibt es Grenzen.
Generell habe ich noch nie verstanden warum im Diagnostischen Bereich ein Computerprogramm nicht einfach einen Arzt ersetzen kann.
Ärzte sollen sich ja eh nicht auf ihr Bauchgefühl verlassen. Eigentlich sollten alle Ihre Entscheidungen auf einen Flußdiagram passieren.
Ich war bei 9 Ärzten, alle Fehl Diagnosen. Habe Chat GPT gefragt und jetzt weiß ich was ich hab. Geilo.
Ich bin überzeugt, dass Patienten mit komplizierterer Erkrankung, die einen Ärztemarathon hinter sich haben, am Ende mit ChatGPT besser dran wären. Wie oft habe ich gehört “Sie sind noch so jung”, “Das ist der Stress” etc.
Ich glaube aber die Verzerrung hier ist, dass ChatGPT zwar treffsicherer Krankheiten erkennt, aber dafür viel mehr Diagnosen liefert, wo eigentlich nichts ist. Patienten übertreiben oft, man lernt ja förmlich zu übertreiben, weil man sonst direkt wieder weggeschickt wird. Ich denke nicht, dass ChatGPT hier wirklich die Nuancen deuten kann, das geht vermutlich nur von Angesicht zu Angesicht. Es funktioniert nur, wenn die Symptome von einem Mensch nach ChatGPT übersetzt werden oder das System speziell darauf trainiert wurde.
“Hallo. Sie haben einfach sehr trockene Haut. Hier eine Liste mit von mir angerührten Cremes, die Sie käuflich erwerben können. Sie sollten auch unbedingt ein Hautkrebsscreening in Betracht ziehen.”
Seitdem diagnostiziere und verarzte ich meine Hautprobleme selbst (Recherche auch mit ChatGPT) und lasse mir die Cremes von meinem sehr verständnisvollen und guten Hausarzt verschreiben.
Schon selbst erlebt. Mein (ehemaliger) Hausarzt saß vor mir und sagte “Ich habe keine Ahnung was das sein könnte”.
Zuhause habe ich ChatGPT mit den Symptomen gefüttert und bekam eine “die beschriebenen Symptome klingen ganz nach …” Antwort.
Und das hat auch genau gepasst.
ah, das monatliche Ärztebashing 🤠
Wie wohl eine Folge von Dr. House aussehen würde, wenn neben seinem Team ChatGPT auch mit am Tisch sitzt.
House: “Ok, Differentialdiagnosen bitte. Neuer?”
ChatGPT: “Paraneoplastisches Syndrom verursacht durch ein Lymphdrüsenkarzinom.”
*Alle checken Notizen*
House: “Er hat Recht.”
*Abspann*