10.3 C
Brüssel
Freitag, Mai 3, 2024
AktuellesDas Versprechen – und die Fallstricke – der medizinischen KI steuerten auf uns zu

Das Versprechen – und die Fallstricke – der medizinischen KI steuerten auf uns zu

HAFTUNGSAUSSCHLUSS: Die in den Artikeln wiedergegebenen Informationen und Meinungen sind die derjenigen, die sie angeben, und es liegt in ihrer eigenen Verantwortung. Veröffentlichung in The European Times bedeutet nicht automatisch Zustimmung zu einer Meinung, sondern das Recht, sie zu äußern.

HAFTUNGSAUSSCHLUSS ÜBERSETZUNGEN: Alle Artikel auf dieser Website werden in englischer Sprache veröffentlicht. Die übersetzten Versionen werden durch einen automatisierten Prozess erstellt, der als neuronale Übersetzungen bekannt ist. Im Zweifel immer auf den Originalartikel verweisen. Danke für dein Verständnis.

Newsdesk
Newsdeskhttps://europeantimes.news
The European Times News zielt darauf ab, über wichtige Nachrichten zu berichten, um das Bewusstsein der Bürger in ganz Europa zu schärfen.

Stanford-Forscher legen einen Rahmen für Ingenieure fest, während sie neue medizinische Modelle für künstliche Intelligenz erweitern und erstellen.

Roboterassistierte Chirurgie. Bildnachweis: فاطمه درستی via Wikimedia, CC-BY-SA-4.0

Ein Patient liegt auf dem OP-Tisch, als das OP-Team in eine Sackgasse gerät. Sie können den Darmriss nicht finden. Ein Chirurg fragt laut: „Überprüfen Sie, ob wir im visuellen Feed der letzten 15 Minuten einen Blick auf irgendeinen Darmabschnitt übersehen haben.“

An Arzthelferin mit künstlicher Intelligenz macht sich daran, die vergangenen Scans des Patienten zu überprüfen und Videostreams des Eingriffs in Echtzeit hervorzuheben. Es warnt das Team, wenn es einen Schritt im Eingriff übersprungen hat, und liest relevante medizinische Literatur vor, wenn Chirurgen auf ein seltenes anatomisches Phänomen stoßen.

Ärzte aller Fachrichtungen könnten mit Unterstützung künstlicher Intelligenz bald in der Lage sein, die gesamte Krankenakte eines Patienten vor dem Hintergrund aller medizinischen Gesundheitsdaten und jeder online veröffentlichten medizinischen Literatur schnell einzusehen. Diese potenzielle Vielseitigkeit in der Arztpraxis ist erst durch die neueste Generation von KI-Modellen möglich.

„Wir sehen einen Paradigmenwechsel im Bereich der medizinischen KI kommen“, sagte er Jure Leskovec, Professor für Informatik an der Stanford Engineering. „Bisher konnten medizinische KI-Modelle nur sehr kleine, schmale Teile des Gesundheitspuzzles adressieren. Jetzt treten wir in eine neue Ära ein, in der es in diesem High-Stakes-Bereich viel mehr um größere Puzzleteile geht.“

Stanford-Forscher und ihre Mitarbeiter beschreiben die generalistische medizinische künstliche Intelligenz oder GMAI als eine neue Klasse medizinischer KI-Modelle, die sachkundig, flexibel und für viele medizinische Anwendungen und Datentypen wiederverwendbar sind. Ihre Perspektive auf diesen Fortschritt wird in der Ausgabe von veröffentlicht Natur.

Leskovec und seine Mitarbeiter zeichnen auf, wie GMAI unterschiedliche Kombinationen von Daten aus Bildgebung, elektronischen Gesundheitsakten, Laborergebnissen, Genomik und medizinischem Text weit über die Möglichkeiten gleichzeitiger Modelle wie ChatGPT hinaus interpretieren wird. Diese GMAI-Modelle liefern gesprochene Erklärungen, geben Empfehlungen, zeichnen Skizzen und kommentieren Bilder.

„Viele Ineffizienzen und Fehler, die heute in der Medizin passieren, sind auf die Hyperspezialisierung menschlicher Ärzte und den langsamen und lückenhaften Informationsfluss zurückzuführen“, sagte der Co-Erstautor Michael Moor, ein MD und jetzt Postdoktorand bei Stanford Engineering. „Die potenziellen Auswirkungen generalistischer medizinischer KI-Modelle könnten tiefgreifend sein, da sie nicht nur Experten auf ihrem eigenen engen Gebiet wären, sondern über mehr Fähigkeiten in den Fachgebieten verfügen würden.“

Medizin ohne Grenzen

Von den mehr als 500 von der FDA zugelassenen KI-Modellen für die klinische Medizin führen die meisten nur eine oder zwei enge Aufgaben aus, wie z. B. das Scannen einer Röntgenaufnahme des Brustkorbs nach Anzeichen einer Lungenentzündung. Die jüngsten Fortschritte in der Grundlagenforschung versprechen jedoch, vielfältigere und anspruchsvollere Aufgaben zu lösen.

„Der aufregende und bahnbrechende Teil ist, dass generalistische medizinische KI-Modelle in der Lage sein werden, verschiedene Arten von medizinischen Informationen aufzunehmen – zum Beispiel Bildgebungsstudien, Laborergebnisse und Genomdaten – um dann Aufgaben auszuführen, die wir ihnen instruieren, während sie fliegen “, sagte Leskovec.

„Wir gehen davon aus, dass sich die Funktionsweise der medizinischen KI erheblich ändern wird“, fuhr Moor fort. „Als nächstes werden wir Geräte haben, die nicht nur eine einzige Aufgabe, sondern vielleicht tausend Aufgaben erledigen können, von denen einige während der Modellentwicklung nicht einmal vorhergesehen wurden.“

Die Autoren, zu denen auch Oishi Banerjee und Pranav Rajpurkar von der Harvard University, Harlan Krumholz von Yale, Zahra Shakeri Hossein Abad von der University of Toronto und Eric Topol vom Scripps Research Translational Institute gehören, skizzieren, wie GMAI eine Vielzahl von Anwendungen von Chatbots bewältigen könnte mit Patienten, über Notizen, bis hin zur Entscheidungshilfe für Ärzte am Krankenbett.

In der Radiologieabteilung, schlagen die Autoren vor, könnten Modelle Radiologieberichte erstellen, die visuell auf Anomalien hinweisen und dabei die Anamnese des Patienten berücksichtigen. Radiologen könnten ihr Verständnis der Fälle verbessern, indem sie mit GMAI-Modellen chatten: „Können Sie irgendwelche neuen Multiple-Sklerose-Läsionen hervorheben, die auf dem vorherigen Bild nicht vorhanden waren?“

In ihrer Arbeit beschreiben die Wissenschaftler zusätzliche Anforderungen und Fähigkeiten, die erforderlich sind, um GMAI zu einer vertrauenswürdigen Technologie zu entwickeln. Sie weisen darauf hin, dass das Modell alle persönlichen medizinischen Daten sowie historisches medizinisches Wissen verarbeiten muss und sich nur darauf bezieht, wenn es mit autorisierten Benutzern interagiert. Es muss dann in der Lage sein, ein Gespräch mit einem Patienten zu führen, ähnlich wie eine Triage-Krankenschwester oder ein Arzt, um neue Beweise und Daten zu sammeln oder verschiedene Behandlungspläne vorzuschlagen.

Bedenken hinsichtlich der zukünftigen Entwicklung

In ihrer Forschungsarbeit befassen sich die Co-Autoren mit den Implikationen eines Modells, das 1,000 medizinische Aufgaben bewältigen kann und das Potenzial hat, noch mehr zu lernen. „Wir glauben, dass das größte Problem für generalistische Modelle in der Medizin die Verifizierung ist. Woher wissen wir, dass das Modell richtig ist – und nicht nur erfunden?“ sagte Leskovec.

Sie weisen auf die Mängel hin, die bereits im ChatGPT-Sprachmodell gefunden wurden. Ebenso lustig ist ein KI-generiertes Bild des Papstes, der einen Designer-Puffmantel trägt. „Aber wenn es um ein High-Stakes-Szenario geht und das KI-System über Leben und Tod entscheidet, wird die Verifizierung wirklich wichtig“, sagt Moor.

Die Autoren fahren fort, dass der Schutz der Privatsphäre ebenfalls eine Notwendigkeit ist. „Das ist ein riesiges Problem, denn mit Modellen wie ChatGPT und GPT-4 hat die Online-Community bereits Wege gefunden, um die aktuellen Sicherheitsvorkehrungen zu jailbreaken“, sagte Moor.

„Die Entschlüsselung zwischen den Daten und sozialen Vorurteilen stellt auch eine große Herausforderung für GMAI dar“, fügte Leskovec hinzu. GMAI-Modelle müssen in der Lage sein, sich auf Signale zu konzentrieren, die für eine bestimmte Krankheit kausal sind, und Störsignale zu ignorieren, die nur dazu neigen, mit dem Ergebnis zu korrelieren.

Unter der Annahme, dass die Modellgröße nur noch größer wird, weist Moor auf frühe Forschungen hin, die zeigen, dass größere Modelle tendenziell mehr soziale Vorurteile aufweisen als kleinere Modelle. „Es liegt in der Verantwortung der Eigentümer und Entwickler solcher Modelle und Anbieter, insbesondere wenn sie sie in Krankenhäusern einsetzen, sicherzustellen, dass diese Vorurteile frühzeitig erkannt und angegangen werden“, sagte Moor.

„Die aktuelle Technologie ist sehr vielversprechend, aber es fehlt noch viel“, stimmte Leskovec zu. „Die Frage ist: Können wir aktuelle fehlende Teile identifizieren, wie die Überprüfung von Fakten, das Verständnis von Vorurteilen und die Erklärbarkeit/Begründung von Antworten, damit wir der Gemeinschaft eine Agenda geben können, wie sie Fortschritte machen kann, um das tiefgreifende Potenzial von GMAI voll auszuschöpfen? ”

Quelle: Stanford University


Quelle Link

- Werbung -

Mehr vom Autor

- EXKLUSIVER INHALT -spot_img
- Werbung -
- Werbung -
- Werbung -spot_img
- Werbung -

Muss lesen

Neueste Artikel

- Werbung -