banner

Nachricht

Oct 05, 2023

Nutzung klinischer Daten in allen Gesundheitseinrichtungen für kontinuierliches Lernen prädiktiver Risikomodelle

Wissenschaftliche Berichte Band 12, Artikelnummer: 8380 (2022) Diesen Artikel zitieren

2018 Zugriffe

5 Zitate

11 Altmetrisch

Details zu den Metriken

Die inhärente Flexibilität von auf maschinellem Lernen basierenden klinischen Vorhersagemodellen, aus Episoden der Patientenversorgung in einer neuen Einrichtung zu lernen (standortspezifische Schulung), geht bei der Anwendung auf externe Patientenkohorten mit Leistungseinbußen einher. Um das volle Potenzial institutionenübergreifender klinischer Big Data auszuschöpfen, müssen maschinelle Lernsysteme die Fähigkeit erlangen, ihr Wissen über institutionelle Grenzen hinweg zu übertragen und aus neuen Episoden der Patientenversorgung zu lernen, ohne zuvor erlernte Muster zu vergessen. In dieser Arbeit haben wir einen datenschutzerhaltenden Lernalgorithmus namens WUPERR (Weight Uncertainty Propagation and Episodic Representation Replay) entwickelt und den Algorithmus im Kontext der frühen Vorhersage einer Sepsis anhand von Daten von über 104.000 Patienten in vier verschiedenen Gesundheitssystemen validiert. Wir haben die Hypothese getestet, dass der vorgeschlagene kontinuierliche Lernalgorithmus eine höhere Vorhersageleistung als konkurrierende Methoden bei früheren Kohorten aufrechterhalten kann, sobald er an einer neuen Patientenkohorte trainiert wurde. Bei der Sepsis-Vorhersageaufgabe behielt WUPERR nach inkrementellem Training eines Deep-Learning-Modells in vier Krankenhaussystemen (nämlich Krankenhäuser HA, HB, HC und HD) den höchsten positiven Vorhersagewert in den ersten drei Krankenhäusern im Vergleich zu einem Baseline-Transfer-Learning-Ansatz (HA: 39,27 % vs. 31,27 %, HB: 25,34 % vs. 22,34 %, HC: 30,33 % vs. 28,33 %). Der vorgeschlagene Ansatz hat das Potenzial, generalisierbarere Modelle zu konstruieren, die unter Wahrung der Privatsphäre aus institutionenübergreifenden klinischen Big Data lernen können.

Das bemerkenswerte Wiederaufleben der künstlichen Intelligenz und ihre Auswirkungen auf die industrielle Automatisierung sowie die Optimierung der Kundenzufriedenheit und des Umsatzes im letzten Jahrzehnt haben zu einem wachsenden Interesse an der Anwendung verwandter Technologien im Gesundheitswesen geführt1,2,3. Insbesondere Deep-Learning-Techniken haben in der klinischen Medizin zunehmend an Bedeutung gewonnen, darunter Screening und Triage, Diagnose, Prognose, Entscheidungsunterstützung und Behandlungsempfehlung4,5,6,7,8,9,10,11,12,13. Um eine breite klinische Akzeptanz zu erreichen, müssen auf Deep Learning basierende klinische Modelle verallgemeinerbar und portierbar sein und die Privatsphäre der Patienten gewährleisten, deren Daten für Modellschulungen und -bewertungen verwendet werden14,15. In der Praxis leiden Modelle, die auf Daten aus einem einzelnen Gesundheitssystem trainiert wurden, häufig an einer mangelnden Generalisierbarkeit aufgrund von Unterschieden in der lokalen Demografie, Laborausrüstung und -tests, elektronischen Gesundheitsakten (EHR), Häufigkeit der Datenmessung und Variationen in der klinischen und administrativen Praxis Kodierung und Definitionen verschiedener klinischer Diagnosen16. Es wurde argumentiert, dass klinische Big Data in Kombination mit der inhärenten Flexibilität von Deep-Learning-Modellen, aus neuen Daten/Erfahrungen zu lernen, theoretisch einige dieser Heterogenitäten beseitigen könnten. Gesundheitsdaten bleiben jedoch isoliert und der Datenzugriff sowie die Privatsphäre der Patienten stellen eine erhebliche Herausforderung dar, um die Leistungsfähigkeit fortschrittlicher Analysen im Gesundheitswesen voll auszuschöpfen15,17. Daher sind die typischen klinischen Daten, die heutzutage für die Modellentwicklung verwendet werden, oft um mehrere Größenordnungen kleiner als diejenigen, die die industriellen Anwendungen des Deep Learning vorantreiben18.

Eine kürzlich durchgeführte unabhängige und externe Validierung eines weit verbreiteten, auf maschinellem Lernen basierenden Sepsis-Vorhersage-Risiko-Scores verdeutlichte das Problem der Generalisierbarkeit des Modells bei Verschiebungen der Datenverteilung und Änderungen im Fallmix der Bevölkerung19,20. Eine mögliche Lösung zur Verbesserung der externen Validität von Deep-Learning-Systemen besteht darin, solche Modelle in jeder neuen Pflegeumgebung zu verfeinern (auch bekannt als Transfer Learning)21,22. Dieser Ansatz kann jedoch dazu führen, dass viele Versionen desselben Algorithmus in unterschiedlichen Pflegeumgebungen funktionieren, was regulatorische Bedenken hinsichtlich des Änderungsmanagements und wissenschaftliche Herausforderungen hinsichtlich der Produktion verallgemeinerbaren Wissens aufwirft23. Daher ist es wünschenswert, Lernalgorithmen und -modelle zu entwerfen, die Patientendaten aus verschiedenen Patientenkohorten auf datenschutzfreundliche Weise und mit klar definierten Änderungskontrollplänen24 nutzen können, die eine akzeptable Leistung aufrechterhalten und gleichzeitig potenzielle Risiken für Patienten verwalten können.

Föderiertes und/oder verteiltes Lernen ist eine Methode zum Lernen von Modellen aus Daten, die über verschiedene Quellen verteilt sind25. Es wurden Methoden zur Wahrung der Privatsphäre vorgeschlagen, um solche Daten für das Lernen zu nutzen und dabei institutionelle Grenzen und die Autonomie über Patientendaten zu respektieren26,27. Solche Modelle gehen davon aus, dass Daten gleichzeitig über mehrere Standorte hinweg verfügbar sind26,28. In der Praxis werden Deep-Learning-Modelle jedoch oft nacheinander entwickelt und im Laufe der Zeit eingeführt (z. B. wenn ein Unternehmen seinen Kundenstamm erweitert), wo ein Modell Die anhand von Daten einer einzelnen Gesundheitseinrichtung (Krankenhaus A) geschulten und validierten Maßnahmen werden an einem zweiten (Krankenhaus B) und weiteren Standorten (Krankenhaus C usw.) verbreitet und umgesetzt. Als Alternative zu den beiden Extremen (1) Festhalten aller Modellkoeffizienten und (2) ortsspezifischer Modelleinsatz, bei dem die Modellkoeffizienten genau auf jede lokale Patientenpopulation abgestimmt sind, kann man sich ein Szenario vorstellen, in dem ein einzelnes Modell verwendet wird lernt weiterhin von neuen Patientenkohorten und behält die Generalisierbarkeit bei. Dieses Szenario steht in engem Zusammenhang mit dem Rahmen für kontinuierliches Lernen (auch bekannt als lebenslanges Lernen) in der Deep-Learning-Literatur, bei dem ein Modell darauf trainiert wird, eine Reihe von Aufgaben nacheinander zu lernen (z. B. Vorhersage der Sterblichkeit in Krankenhaus A, B, C usw.). und gleichzeitig eine akzeptable Leistung bei früheren Aufgaben aufrechtzuerhalten (auch bekannt als „katastrophales Vergessen“)29,30,31.

Trotz des Bedarfs an robusten Algorithmen für kontinuierliches Lernen im klinischen Umfeld sind Anwendungen solcher Methoden für die klinische Vorhersagemodellierung nach wie vor rar32. Hier betrachten wir ein klinisch bedeutsames Problem bei der Vorhersage einer Sepsis bei kritisch kranken Patienten. Anhand von Daten aus vier Sepsis-Kohorten haben wir ein kontinuierliches Lernrahmenwerk (siehe Abb. 1) für das sequentielle Training von Vorhersagemodellen entwickelt und validiert, das eine klinisch akzeptable Leistung über alle Kohorten hinweg aufrechterhält und gleichzeitig den Datenschutz der Patientendaten wahrt. Inspiriert von den neuesten Entwicklungen in der Literatur zum lebenslangen Lernen schlagen wir ein Framework für die gemeinsame elastische Gewichtskonsolidierung (EWC)33 und die episodische Repräsentationswiedergabe (ERR)34,35,36,37 vor, um unsere Vorhersagemodelle für neue Patientenkohorten kontinuierlich zu aktualisieren. Abbildung 1 zeigt die Grundbausteine ​​des vorgeschlagenen WUPERR-Frameworks (Weight Uncertainty and Episode Representation Replay). WUPERR erreicht kontinuierliches Lernen durch zwei Mechanismen: (1) Verfolgung von Netzwerkgewichten, die für frühere Aufgaben wesentlich sind und daher im Verlauf des Erlernens einer neuen Aufgabe unverändert bleiben sollten; und (2) Verschachtelung von Trainingsdatendarstellungen früherer Aufgaben während der Erfassung einer neuen Aufgabe. Um Privatsphäre zu gewährleisten, ersetzt WUPERR rohe Merkmale auf Patientenebene durch versteckte Darstellungen, die über ein neuronales Netzwerk gelernt werden (z. B. Aktivierung von Neuronen in der ersten Schicht des Netzwerks), wodurch die Notwendigkeit entfällt, geschützte Gesundheitsinformationen über institutionelle Grenzen hinaus zu verschieben.

Ziel dieser Studie war es zu untersuchen, ob der vorgeschlagene Ansatz des kontinuierlichen Lernens eine verbesserte Generalisierbarkeit über alle Patientenkohorten hinweg bietet. Wir stellten die Hypothese auf, dass die Einbeziehung von EWC- und ERR-Methoden zu einem verallgemeinerbareren Modell führen würde als ein Transfer-Learning-Ansatz, der zuvor in diesem Zusammenhang untersucht wurde21. Um die Auswirkungen des kontinuierlichen Lernens auf verschiedene Netzwerkparameter weiter zu untersuchen, führten wir eine schichtweise Analyse der Gewichtsanpassung beim Erlernen neuer Aufgaben durch. Wir haben den WUPERR-Algorithmus im Rahmen des sequentiellen Trainings eines Deep-Learning-Modells zur frühen Vorhersage einer Sepsis in vier geografisch unterschiedlichen Populationen innerhalb der Vereinigten Staaten (insgesamt 104.322 Patienten) getestet. Unser vorgeschlagener Ansatz des kontinuierlichen Lernens ermöglicht die Nutzung von Daten über institutionelle Grenzen hinweg, um nacheinander verallgemeinerbare prädiktive Risikobewertungen auf datenschutzfreundliche Weise zu trainieren.

Schematische Darstellung des WUPERR-Algorithmus. Das Training beginnt mit einem zufällig initialisierten Satz von Gewichten, die auf die erste Aufgabe trainiert werden (z. B. Vorhersage auf Krankenhaus-A-Daten). Bei allen nachfolgenden Lernaufgaben bleiben die Eingabeschichtgewichte (\(W_1^A\)) eingefroren. Die optimalen Netzwerkparameter, die Parameterunsicherheiten unter Aufgabe A und der Satz von Darstellungen aus der Trainingskohorte von Krankenhaus A (\(\{h_1^A\}\)) werden dann an Krankenhaus B übertragen. Die tieferen Schichten des Modells werden feinabgestimmt, um die zweite Aufgabe (z. B. Vorhersage von Krankenhaus-B-Daten) durch Wiedergabe der Darstellung von Krankenhaus-A- und Krankenhaus-B-Daten auszuführen. In ähnlicher Weise werden die optimalen Parameter und ihre Unsicherheitsniveaus zusammen mit den Darstellungen von Krankenhaus A und Krankenhaus B an Krankenhaus C übertragen, um das Modell bei der Ausführung der dritten Aufgabe zu optimieren. Beachten Sie, dass geschützte Gesundheitsinformationen (PHI+) zu keinem Zeitpunkt die institutionellen Grenzen eines bestimmten Krankenhauses verlassen. Schließlich wird das Modell zum Zeitpunkt der Auswertung (anhand von Testdaten) für eine bestimmte Aufgabe an allen Krankenhauskohorten evaluiert.

Wir haben die Leistung des vorgeschlagenen Lernalgorithmus zur frühzeitigen Vorhersage des Ausbruchs einer Sepsis bei Krankenhauspatienten in vier Gesundheitssystemen bewertet. Eine vergleichende Studie von WUPERR mit mehreren Basismodellen ist in den ergänzenden Materialabbildungen dargestellt. S4–S6, der Kürze halber berichten wir im nächsten Abschnitt jedoch nur über die Leistung von WUPERR im Vergleich zum Transferlernen.

Evaluierung kontinuierlich lernender Modelle zur frühzeitigen Vorhersage des Ausbruchs einer Sepsis, gemessen anhand der Area Under the Curve (AUC)-Metrik. (a) Veranschaulicht die AUC eines Modells (Median[IQR]), das mithilfe von Transferlernen trainiert wurde. Die Modellleistung wird (unter Verwendung verschiedener Marker; siehe Legende) für alle Kohorten nach sequentiellem Training mit Daten aus einem bestimmten Krankenhaus auf der x-Achse angegeben. (b) zeigt die AUC des vorgeschlagenen WUPERR-Modells unter demselben Versuchsaufbau wie (a). Zum Zeitpunkt der Auswertung (anhand von Testdaten) an einem bestimmten Standort wird das Modell für alle Krankenhauskohorten evaluiert. Die durchgezogene Linie zeigt an, dass das Modell zum Zeitpunkt der Modellbewertung (anhand von Testdaten) an einem bestimmten Standort bereits die Trainingsdaten von diesem Standort gesehen hatte. Da das Modell beispielsweise zunächst auf Daten von Krankenhaus A trainiert wird, wird die Leistung des Modells in diesem Datensatz nach kontinuierlichem Lernen in allen nachfolgenden Krankenhäusern in durchgezogener Linie dargestellt, um anzuzeigen, dass das Modell diese Patientenkohorte bereits in der Datengruppe gesehen hat Vergangenheit. (c) fasst die Modellleistung (Median[IQR]) in den Krankenhäusern A–C nach kontinuierlichem Lernen in allen vier Krankenhäusern mit Transferlernen (rot) und WUPERR (blau) zusammen.

Evaluierung kontinuierlich lernender Modelle zur frühen Vorhersage des Sepsis-Ausbruchs, gemessen anhand des positiven Vorhersagewerts (PPV) und der Sensitivität. (Atlanta) Veranschaulicht den PPV eines Modells (Median[IQR]), das mithilfe von Transferlernen trainiert wurde (gemessen bei einem festen Schwellenwert von 0,41, entsprechend 80 % Sensitivität bei Hospital-A nach Aufgabe 1, für alle Falten und über alle Aufgaben hinweg). Die Modellleistung wird (unter Verwendung verschiedener Marker; siehe Legende) für alle Kohorten nach sequentiellem Training mit Daten aus einem bestimmten Krankenhaus auf der x-Achse angegeben. (Atlanta) zeigt den PPV des vorgeschlagenen WUPERR-Modells unter dem gleichen Versuchsaufbau wie (Atlanta). (Atlanta) fasst die Modellleistung (Median[IQR]) in den Krankenhäusern AC nach kontinuierlichem Lernen in allen vier Krankenhäusern mit Transferlernen (rot) und WUPERR (blau) zusammen. (d–f) fassen die Ergebnisse der Modellempfindlichkeit unter demselben Versuchsprotokoll zusammen.

Das WUPERR-Framework wurde verwendet, um ein Modell zu trainieren, um den Beginn einer Sepsis (definiert gemäß den Sepsis-3-Konsensdefinitionen für Sepsis und septischen Schock) vier Stunden im Voraus sequentiell vorherzusagen38. Um die Auswirkungen von Variationen in der Datenverteilung auf die Leistung unseres Modells zu untersuchen, haben wir unser Modell nacheinander an über 104.000 Patienten aus vier Intensivpflegezentren mit unterschiedlichen zugrunde liegenden demografischen Merkmalen trainiert. Das Modell wurde zunächst auf dem Datensatz Krankenhaus-A (Aufgabe 1) trainiert, gefolgt von Krankenhaus-B (Aufgabe 2), Krankenhaus-C (Aufgabe 3) und Krankenhaus-D (Aufgabe 4). Die Leistung des Modells, das sequentiell mit dem WUPERR-Framework trainiert wurde, wurde mit einem Baseline-Transfer-Lernansatz verglichen. Abbildung 2a–c zeigt die Leistung von WUPERR in den vier Krankenhausdatensätzen, wobei das Modell jeweils für eine Kohorte trainiert wurde und die Leistung anhand von Testdaten aller anderen Kohorten (vorherige und nachfolgende Kohorten) berichtet wird. Beim Transfer-Learning-Ansatz haben wir beobachtet, dass mit fortschreitendem Training neuer Kohorten die Modellleistung gegenüber früheren Kohorten abnahm. Während das sequentielle Training durch WUPERR es dem Modell ermöglichte, bei älteren Aufgaben eine vergleichbare Leistung aufrechtzuerhalten. Beispielsweise betrug am Ende von Aufgabe 4 mit Transferlernen die AUC des Modells in Aufgabe 2 0,90 [0,89–0,91], ein Rückgang gegenüber der AUC von 0,93 [0,92–0,94], als das Modell anhand der Daten von Hospital trainiert wurde -B (entsprechend Aufgabe 2). Im Vergleich dazu behielt das Modell am Ende von Aufgabe 4 mit WUPERR seine Leistung bei Aufgabe 2 mit einer AUC von 0,93 [0,91–0,94]. Insbesondere haben wir beobachtet, dass die Überlegenheit von WUPERR gegenüber dem Transferlernen zunimmt, wenn die Anzahl der nachfolgenden Trainingskohorten, denen das Modell ausgesetzt war, zunimmt (siehe Abb. 2c, Leistung in Krankenhaus A am Ende des Trainings in Krankenhaus D). Darüber hinaus stellten wir fest, dass das mit dem WUPERR-Ansatz trainierte Modell am Ende von Aufgabe 4 dem Transferlernen in allen Krankenhauskohorten überlegen war (siehe Abb. 2b).

In Abb. 3 verglichen wir den positiven Vorhersagewert (PPV) des Modells, das sequentiell an vier Kohorten mithilfe des WUPERR-Ansatzes trainiert wurde, mit dem Baseline-Transfer-Learning-Ansatz. Nach Abschluss des Trainings für Aufgabe 1 wurde eine Entscheidungsschwelle gewählt, die einer Sensitivität von 80 % entspricht. Diese Entscheidungsschwelle wurde dann verwendet, um den positiven Vorhersagewert (PPV) für alle verbleibenden Aufgaben zu messen. Wir haben beobachtet, dass WUPERR den Transfer-Learning-Ansatz bei allen Aufgaben durchweg übertraf (siehe Abb. 3a–c). Beispielsweise verbesserte sich mit WUPERR der positive Vorhersagewert (PPV) für Krankenhaus A von 37,28 [35,57–37,69] nach Aufgabe 1 auf 39,27 [38,11–39,78] am Ende von Aufgabe 4, wohingegen mit dem Transfer-Learning-Ansatz der positive Vorhersagewert zunahm (PPV) sank bis zum Ende von Aufgabe 4 auf 31,28 [30,11–31,78]. Darüber hinaus konnte WUPERR in der Krankenhaus-A-Kohorte ein konsistentes Sensitivitätsniveau aufrechterhalten, während er nacheinander auf die Aufgaben 2, 3 und 4 trainiert wurde (79,70 [78,50). –82,57], 79,76 [79,57–81,20] bzw. 80,06 [79,87–81,50]. Im Vergleich dazu fiel die Sensitivität der Krankenhaus-A-Kohorte unter 80 %, als das Modell im Falle des Transfer-Learning-Ansatzes auf die Aufgaben 2, 3 und 4 trainiert wurde (siehe Abb. 3d). Ähnliche Empfindlichkeitsmuster wurden für die anderen Krankenhauskohorten beobachtet. Schließlich stellten wir fest, dass WUPERR gegenüber der Trainingsreihenfolge robust war und den Transfer-Learning-Ansatz durchweg übertraf, selbst wenn die Reihenfolge der Krankenhäuser vertauscht wurde (siehe ergänzende Abbildungen S7–S12).

In dieser Studie haben wir einen kontinuierlichen Lernalgorithmus zum Trainieren verallgemeinerbarer klinischer prädiktiver Analysemodelle für mehrere Patientenkohorten entworfen und validiert. WUPERR integriert das Probengedächtnis mit der Ausbreitung von Gewichtsunsicherheit und ermöglicht es klinischen Deep-Learning-Modellen, neue Aufgaben zu lernen und gleichzeitig eine akzeptable Leistung bei früheren Aufgaben aufrechtzuerhalten. Wir haben unseren vorgeschlagenen Algorithmus anhand von vier aufeinanderfolgenden Aufgaben bewertet, bei denen es um die frühzeitige Vorhersage einer Sepsis bei Krankenhauspatienten ging. Unsere Ergebnisse zeigen, dass WUPERR erfolgreich mit Datenverteilungsverschiebungen umgehen kann, die sich oft negativ auf die Generalisierbarkeit klinischer Vorhersagemodelle auswirken. Durch die Verwendung von Datendarstellungen für kontinuierliches Lernen ermöglicht WUPERR, dass die rohen Trainingsdaten an jedem Standort verbleiben und somit die Privatsphäre und Autonomie der Gesundheitsdaten gewahrt bleibt. Wir verglichen WUPERR mit mehreren Baselines, darunter Transfer Learning21, EWC33 und Experience Replay, und verwendeten dabei drei klinisch relevante Leistungsmetriken, nämlich AUCroc, Positive Predictive Value und Sensitivity. Man kann davon ausgehen, dass das Erlernen eines standortspezifischen Modells die beste Leistung erzielen sollte, obwohl sich ein solches Modell möglicherweise nicht gut auf externe Websites übertragen lässt. WUPERR übertraf die Baseline-Transfer-Learning- und EWC-Werte in Bezug auf alle drei Kennzahlen zur Linderung des Vergessens. Einer der Hauptvorteile von WUPERR ist die Fähigkeit, aus der eingebetteten Darstellung von Datenpunkten zu lernen, was WUPERR zu einem geeigneten Ansatz für kontinuierliches Lernen unter Wahrung der Privatsphäre macht.

Die Forschung zu maschinellem Lernen und Deep Learning hat vielversprechende Ergebnisse bei der Identifizierung, Diagnose und Bereitstellung von Behandlungen im Gesundheitswesen erbracht39,40. Eine verbesserte Leistung von Deep-Learning-Algorithmen geht mit der Notwendigkeit großer und vielfältiger Datensätze einher41. Bedenken hinsichtlich der Privatsphäre der Patienten und der Datenverwaltung haben jedoch zu Datensilos beigetragen und die Erstellung großer multizentrischer Datensätze undurchführbar gemacht. Einige der Herausforderungen beim Lernen komplexer Modelle aus Datensilos wurden durch Federated Learning angegangen, bei dem ein dezentraler Lernalgorithmus auf lokalen Modellaktualisierungen basiert, um ein globales Modell zu erstellen25,42,43. Huang et al. führten das Community Based Federated Learning (CBFL)-Framework ein, um längere Aufenthalte auf der Intensivstation und Sterblichkeit vorherzusagen44. Qayyum et al. verwendeten Clustered Federated Learning (CFL) zur Identifizierung von Patienten mit Covid-1945. Obwohl sie vielversprechend sind, tendieren föderierte Lernmodelle dazu, ein durchschnittliches Modell zu lernen, das innerhalb eines bestimmten lokalen Standorts möglicherweise nicht optimal funktioniert. Insbesondere lösen Standardmethoden des föderierten Lernens nicht das Problem der Verschiebung der Datenverteilung und der Modelldrift, die aus Unterschieden in der Patientendemografie und den arbeitsablaufbezogenen Praktiken resultieren. Andererseits ermöglichen kontinuierliche Lernmethoden (wie WUPPER) Modellen, schrittweise neue Aufgaben zu lernen und gleichzeitig ihre Leistung bei früheren Aufgaben beizubehalten. Dadurch kann sich ein Modell an dynamische Änderungen und Verschiebungen in der Datenverteilung über verschiedene Gesundheitsstandorte hinweg anpassen. Eine kürzlich durchgeführte Längsschnittanalyse eines Sepsis-Warnalgorithmus in vier geografisch unterschiedlichen Gesundheitssystemen ergab eine erhebliche Verschiebung der Datensätze aufgrund einer Änderung des Fallmixes im Laufe der Zeit46. Daher sind Algorithmenüberwachung47 und kontinuierliches Lernen erforderlich, um sicherzustellen, dass sich solche Systeme an die zugrunde liegenden Änderungen in der Datenverteilung anpassen und ein hohes Maß an Genauigkeit aufrechterhalten können.

Diese Studie weist mehrere Einschränkungen auf. Die vorgeschlagene Lernmethode ermöglicht es einem Modell, sich an sich verändernde Datenverteilungen zwischen klinischen Standorten anzupassen. Eine wichtige Anforderung ist jedoch die Qualität der Eingabedaten und Beschriftungen. Kürzlich wurde die konforme Vorhersage eingeführt, um einen probabilistischen Rahmen für die Bewertung von Stichproben außerhalb der Verteilung bereitzustellen und Ausreißer und verrauschte Daten zu erkennen47. WUPERR kann in Verbindung mit konformer Vorhersage verwendet werden, um die Qualität der Eingabedaten an jedem Standort für kontinuierliches Lernen zu kontrollieren. Darüber hinaus können Unterschiede in der Qualität der Etiketten an verschiedenen Standorten eine Herausforderung für das kontinuierliche Lernen darstellen. Die Kombination von WUPERR mit Methoden zur Bewertung und Korrektur von Etikettenrauschen könnte einen Mechanismus zum Trainieren hochwertiger Modelle bieten. Darüber hinaus befasst sich WUPERR nicht mit dem Problem der teilweisen Datenverfügbarkeit, aber neuere Arbeiten in kontinuierlich wachsenden neuronalen Netzen können mit WUPERR kombiniert werden, um Algorithmen zu entwerfen, die zusätzliche Variablen und Funktionen in neuen Datensätzen nutzen können48,49. Schließlich wurden die in dieser Studie verwendeten Datensätze von großen akademischen medizinischen Zentren gesammelt und sind möglicherweise nicht repräsentativ für kleinere kommunale und ländliche Krankenhäuser. Unser vorgeschlagenes Rahmenwerk wird jedoch wahrscheinlich kleineren Krankenhäusern zugute kommen, die möglicherweise nicht über die notwendigen Ressourcen verfügen, um große klinische Data Warehouses zu unterhalten, da sich gezeigt hat, dass fein abgestimmte vorab trainierte neuronale Netze die von Grund auf auf kleineren Datensätzen trainierten neuronalen Netze übertreffen22. Zusammenfassend liefern unsere Ergebnisse wichtige klinische Beweise für die Anwendbarkeit des kontinuierlichen Lernens zur Entwicklung und Aktualisierung verallgemeinerbarer klinischer Vorhersagemodelle.

Insgesamt wurden 104.000 erwachsene Patienten auf Intensivstationen in vier geografisch unterschiedlichen Gesundheitseinrichtungen aufgenommen, darunter UC San Diego Health, Emory University Hospital, Grady Hospital und das Beth Israel Deaconess Medical Center (im Folgenden: Hospital-A, Hospital-B, Hospital-B). C bzw. Krankenhaus-D) bildeten die Studienkohorte. Alle Analysen wurden in Übereinstimmung mit den relevanten Richtlinien und Vorschriften durchgeführt. Die Verwendung anonymisierter Daten in dieser Studie wurde vom Institutional Review Board (IRB) der UC San Diego (IRB\(\#\)191098), dem IRB der Emory University/Grady Hospital (IRB\(\#) genehmigt. \)110675) und das Beth Israel Deaconess Medical Center (IRB\(\#\)0403000206)50 sowie das Erfordernis einer Einwilligung nach Aufklärung wurden von den IRB-Ausschüssen der UC San Diego, der Emory University/Grady Hospital und dem Beth Israel aufgehoben Deaconess Medical Center, da für die Verwendung anonymisierter retrospektiver Daten gemäß den Datenschutzbestimmungen des Health Insurance Portability and Accountability Act (HIPAA) keine Einwilligung des Patienten erforderlich ist. Patienten ab 18 Jahren wurden während ihres gesamten Aufenthalts auf der Intensivstation bis zum Zeitpunkt der ersten Sepsis-Episode oder bis zum Zeitpunkt der Verlegung aus der Intensivstation beobachtet. Wir folgten den neuesten Richtlinien der Third International Consensus Definitions for Sepsis (Sepsis-3)38,51, die Sepsis als eine lebensbedrohliche Organfunktionsstörung definieren, die durch eine fehlregulierte Reaktion des Wirts auf eine Infektion verursacht wird. Zu den beiden Hauptkriterien zur Bestimmung des Zeitpunkts des Sepsisbeginns gehörten daher: (1) Hinweise auf eine akute Organfunktionsstörung und (2) Verdacht auf eine Infektion. Der klinische Verdacht auf eine Infektion wurde durch die Entnahme einer Blutkultur und den erneuten Beginn der intravenösen (IV) Antibiotika-Gabe definiert, die über > = 3 aufeinanderfolgende Tage (ausgenommen prophylaktische Anwendung) fortgesetzt wurde und eine der folgenden Bedingungen erfüllte: (a) wenn zuerst eine Blutkulturentnahme angeordnet wurde, dann musste die Antibiotika-Verordnung innerhalb der folgenden 72 Stunden erfolgen, oder (b) wenn die Antibiotika-Verordnung zuerst erfolgte, musste innerhalb der nächsten 24 Stunden eine Blutkulturentnahme erfolgen. Der Nachweis einer Organfunktionsstörung wurde als Anstieg des SOFA-Scores (Sequential Organ Failure Assessment) um zwei oder mehr Punkte definiert. Insbesondere wurden Hinweise auf eine Organfunktionsstörung berücksichtigt, die 48 Stunden vor bis 24 Stunden nach dem Zeitpunkt der vermuteten Infektion auftrat, wie von Singer et al.51 vorgeschlagen. Schließlich wurde der Zeitpunkt des Sepsisbeginns als Zeitpunkt des klinischen Infektionsverdachts herangezogen. Um eine Erstuntersuchung und Stabilisierung der Patienten sowie eine angemessene Datenerfassung für Vorhersagezwecke zu ermöglichen, haben wir uns auf die sequentielle stündliche Vorhersage der Sepsis ab der vierten Stunde nach der Aufnahme auf die Intensivstation konzentriert. Ausgeschlossen wurden Patienten, bei denen vor dem Vorhersagebeginn eine Sepsis festgestellt wurde, oder solche, bei denen vor dem Vorhersagebeginn keine Herzfrequenz- oder Blutdruckmessung durchgeführt wurde, oder solche, deren Verweildauer auf einer bestimmten Pflegestation mehr als 21 Tage betrug.

In den vier Krankenhäusern wurden insgesamt 40 klinische Variablen extrahiert (siehe ergänzende Materialien, Abb. S2). Darüber hinaus wurden für alle Vitalfunktionen und Laborvariablen ihre lokalen Trends (Änderungssteigung) und die Zeit seit der letzten Messung der Variablen (TSLM) aufgezeichnet, was zu insgesamt 108 Merkmalen führte (die gleichen Variablen wurden in verwendet). eine zuvor veröffentlichte Studie47). Die Patientenmerkmale aller vier Kohorten sind in der Ergänzungstabelle S1 aufgeführt. Alle kontinuierlichen Variablen werden als Mediane mit 25 % und 75 % Interquartilbereichen (IQRs) angegeben. Binäre Variablen werden als Prozentsätze angegeben. Alle Vitalfunktionen und Laborvariablen wurden in nicht überlappenden 1-Stunden- und 1-Tages-Zeitreihenbereichen organisiert, um unterschiedliche Stichprobenhäufigkeiten der verfügbaren Daten für die Sepsis-Kohorte zu berücksichtigen. Alle Variablen mit einer Abtastfrequenz von mehr als einmal pro Stunde (oder Tag) wurden einheitlich in 1-Stunden- (oder 1-Tages-)Zeitintervalle erneut abgetastet, indem die Medianwerte verwendet wurden, wenn mehrere Messungen verfügbar waren. Die Variablen wurden stündlich aktualisiert, sobald neue Daten verfügbar wurden. andernfalls wurden die alten Werte beibehalten (Sample-and-Hold-Interpolation). Mittelwertimputation wurde verwendet, um alle verbleibenden fehlenden Werte zu ersetzen (hauptsächlich am Anfang jedes Datensatzes).

WUPERR kombiniert Episodic Representation Replay (ERR) und Weight Uncertainty Propagation (WUP), um ein kontinuierliches Lernen von Aufgaben zu ermöglichen und gleichzeitig das Problem des katastrophalen Vergessens zu mildern. Das Ziel von WUPERR besteht darin, den Leistungsabfall bei älteren Aufgaben zu minimieren, wenn das Modell für eine neue Aufgabe (z. B. ein neues Krankenhaus) trainiert wird. WUPERR versucht, dieses Ziel durch die Konsolidierung von Netzwerkparametern zu erreichen, die für die Modellvorhersage früherer Aufgaben wichtig sind (über ein gezieltes Gewichtsregulierungsschema) und episodische Erfahrungswiedergabe (durch Beibehaltung von Beispieldatendarstellungen, die während des vorherigen Trainings angetroffen wurden, und durch regelmäßiges erneutes Betrachten dieser Beispiele während des erneuten Trainings). . Abbildung 1 zeigt das schematische Diagramm des WUPERR-Algorithmus.

Seien N, J, K die Anzahl der Parameter des neuronalen Netzwerks, die Anzahl der Trainingsepochen bzw. die Gesamtzahl der Aufgaben. Zum Trainingszeitpunkt der Aufgabe k beträgt der in der Epoche j berechnete Verlust \(L(j;\theta)\) wie folgt:

wobei \(L_{CE}(j;\theta )\) dem Kreuzentropieklassifizierungsverlust entspricht, \(\theta _{n}^{k}(j-1)\) dem n-ten Parameter entspricht des neuronalen Netzwerks aus der vorherigen Epoche ist \(I_{n}^{k}(j-1)\) eine Näherung der Fisher-Information (Kehrwert der Unsicherheit), die mit dem Parameter \(\theta _{n}\) verbunden ist. während Aufgabe k und Epoche \(j-1\). Die ungefähren Fisher-Informationen, die dem Parameter \(\theta _{n}\) während der Aufgabe k und der Epoche j entsprechen, werden wie folgt berechnet:

Beachten Sie, dass die Größe des Gradienten dem Grad der Steilheit der Verlustfläche um einen Punkt im Parameterraum entspricht, was wiederum ein Maß für den Informationsgewinn darstellt. Für die Aufgabe \(k (k = 2,\ldots , K)\) wird \(I_n^k\) als \(max (I_n^1,\ldots , I_n^{k-1})\) initialisiert.

Wir haben die Bayes'sche Optimierung verwendet, um den Parameter für die Regularisierung der Kostenfunktion (Gleichung (1)) und den Parameter für den gleitenden Durchschnitt der Unsicherheitsschätzung (Gleichung (2)) festzulegen, was zu den optimalen Werten von \(\gamma =0,99\) und \( \beta =0,80\).

Beachten Sie, dass nach Aufgabe 1 die Parameter, die der ersten Schicht des neuronalen Netzwerks entsprechen, eingefroren sind. Zusätzlich werden nach Abschluss des Trainings für jede Aufgabe k die versteckten Darstellungen (\(h_1^k\); Ausgabe von der ersten Schicht des neuronalen Netzwerks) gespeichert, die einer Zufallsstichprobe von Patienten aus Krankenhaus-k entsprechen. Ab Aufgabe 2 optimieren wir das neuronale Netzwerk (mit Ausnahme der ersten Schicht) mit Daten aus der neuen Patientenkohorte (Hospital-k) und versteckten Darstellungen, die aus früheren Aufgaben gespeichert wurden. Beachten Sie, dass das Einfrieren der Schicht-1-Gewichte empirisch gesehen vernachlässigbare Auswirkungen auf die Modellleistung hatte, da sich das Neutraining des Modells überwiegend auf die Parameter der oberen Schicht auswirkt (siehe ergänzende Abbildung S13).

Die Leistung des WUPERR-Algorithmus wurde mit vier Basismodellen verglichen, die unten aufgeführt sind:

Standortspezifisches Training: Bei diesem Ansatz haben wir das Modell isoliert an jedem Krankenhausstandort trainiert, wobei für jede Aufgabe ein neues Modell unabhängig trainiert wird.

Transferlernen: Beim Transferlernen wird davon ausgegangen, dass die Quell- und Zielaufgaben aus demselben Merkmalsraum abgeleitet werden, wodurch die Übertragung von Wissen aus früheren Aufgaben den Lernvorgang für neue Aufgaben beschleunigen und dadurch die Modellleistung verbessern kann. Bei diesem Ansatz wurden Parameter des neuronalen Netzwerks nach dem Training für Aufgabe k-1 auf Aufgabe k übertragen und unter Verwendung von Daten aus Aufgabe k weiter verfeinert.

Lern-Freeze übertragen: Bei diesem Ansatz wurde die erste Schicht des neuronalen Netzwerks nach dem Training für Aufgabe 1 eingefroren. Parameter des neuronalen Netzwerks wurden nach dem Training für Aufgabe k-1 auf Aufgabe k übertragen und weiter verfeinert ( alle Schichten außer der ersten Schicht) unter Verwendung von Daten aus Aufgabe k.

Elastic Weight Consolidation (EWC)33: Dieser Ansatz basiert auf Regularisierungstermen, um Vergessen zu vermeiden. EWC schützt die Leistung des neuronalen Netzwerks bei alten Aufgaben, indem es den Lernprozess bei ausgewählten Gewichtungen verlangsamt und beim Erlernen einer neuen Aufgabe in einem Bereich bleibt, der einem geringeren Fehler für frühere Aufgaben entspricht. Um Gewichte zu identifizieren, die mehr Informationen enthalten, stützt sich EWC auf eine Fischer-Informationsmatrix. EWC implementiert die Summe quadratischer Strafen für bereits gesehene Aufgaben, um das Vergessen in DNNs zu vermeiden.

Episodische Repräsentationsantwort (ERR): In ERR verwenden wir Darstellungen von Daten aus früheren Aufgaben zusätzlich zu Daten aus der aktuellen, um ein Modell zu verfeinern. Ergänzende Abbildung S13 zeigt die schichtweise Frobenius-Norm der Änderungen unserer Netzwerkgewichte, während das Training von Aufgabe 1 bis Aufgabe 4 fortgesetzt wurde. Wir haben die größten Veränderungen in den Netzwerkgewichten in den tieferen Schichten beobachtet, was darauf hindeuten könnte, dass diese Schichten für das Erlernen einer neuen Aufgabe wichtiger sind. Folglich wurde beobachtet, dass das Einfrieren der Gewichte innerhalb der ersten Netzwerkschicht nur geringe Auswirkungen auf die Fähigkeit des Netzwerks hatte, sich an einen neuen Datensatz anzupassen. Dadurch konnten wir die erste Schicht (nach dem Training in Aufgabe 1) als Kodierungsnetzwerk verwenden, um Darstellungen für die oberen Netzwerkschichten zu erhalten. Ab Aufgabe 2 verwendeten wir diese Eingabedatendarstellungen an jedem neuen Standort in Verbindung mit der Darstellung von Daten von früheren Standorten, um das Modell zu trainieren. Letzteres (d. h. die Wiedergabe von Datendarstellungen früherer Aufgaben) ermöglichte es dem Netzwerk, sich an die älteren Aufgaben zu erinnern und gleichzeitig aus einem neuen Datensatz zu lernen.

Das Vorhersagemodell war ein vierschichtiges (zwei verborgene Schichten) vollständig verbundenes neuronales Netzwerk mit Aktivierungsfunktionen für gleichgerichtete lineare Einheiten (ReLU). Für das Training wurde der Adam-Optimierer mit einer Lernrate von 1e-3 eingesetzt. Die verschiedenen Parameter und Hyperparameter der Netzwerkarchitektur sind in der Ergänzungstabelle S2 aufgeführt. Um die optimalen Hyperparameter zu erhalten, wurde eine bayesianische Optimierung durchgeführt (unter Verwendung der Entwicklungskohorte von Aufgabe 1).

An jedem Standort teilen wir den Aufgabendatensatz zu 80–20 % für Training und Modelltests auf. Innerhalb jeder Trainingsiteration haben wir die neuen Aufgabendatendarstellungen (d. h. Trainingsdatenausgaben aus der ersten Netzwerkschicht) mit zufällig ausgewählten Datendarstellungen früherer Aufgaben kombiniert. Für alle vier Datensätze wurde zu Trainings- und Testzwecken eine zehnfache Kreuzvalidierung durchgeführt. In der Sepsis-Kohorte wurde der Trainingssatz von Hospital-A standardisiert, indem zunächst Normalisierungstransformationen angewendet, dann der Mittelwert subtrahiert und durch die Standardabweichung dividiert wurden. Als nächstes wurden alle verbleibenden Datensätze in der Sepsis-Kohorte (Krankenhäuser B, C und D) unter Verwendung genau derselben Transformationen normalisiert, die in den Trainingsdaten verwendet wurden.

WUPERR wurde mit mehreren Basismethoden des kontinuierlichen Lernens verglichen, um Sepsis in vier Krankenhäusern anhand von drei Kennzahlen vorherzusagen, darunter AUCroc, positiver Vorhersagewert und Sensitivität. Da die Sepsis-Inzidenzraten zwischen den verschiedenen Gesundheitsstandorten unterschiedlich waren, berichten wir auch über die Modellleistung mithilfe der positiven Vorhersagewertmetrik, bei einem Schwellenwert, der der Sensitivität von 80 % bei Aufgabe 1 entspricht. Darüber hinaus zum Zeitpunkt der Bewertung (beim Testen). Daten) an einem bestimmten Standort wurde das Modell an allen Krankenhauskohorten evaluiert. Es ist zu beachten, dass ein durchgezogener Linienstil (in den Abbildungen 2, 3 und den ergänzenden Materialien in den Abbildungen S4–S12) verwendet wird, um einen Krankenhausstandort darzustellen, dessen Trainingsdaten bereits vom Modell gesehen wurden, wohingegen eine gestrichelte Linie darauf hinweist dass das Modell noch nicht auf dem entsprechenden Krankenhausgelände trainiert wurde. In Abb. 2 wird beispielsweise die Leistung des Modells in diesem Datensatz nach kontinuierlichem Lernen in allen nachfolgenden Krankenhäusern in durchgezogener Linie dargestellt, da das Modell zunächst auf Krankenhaus-A-Daten trainiert wird, um anzuzeigen, dass das Modell dies bereits getan hat dieser Patientenkohorte in der Vergangenheit. Die Datenvorverarbeitung wurde mit Numpy52 durchgeführt und die Modelle wurden mit TensorFlow53 implementiert.

Beispieldatensätze, die in der aktuellen Studie analysiert wurden, sind über die Website der PhysioNet Challenge 2019 (https://physionet.org/content/challenge2019/) und das WUPERR_CLP-Repository (https://github.com/NematiLab/WUPERR_CLP) verfügbar. Für weitere Informationen wenden Sie sich bitte an den entsprechenden Autor.

Der zum Trainieren und Validieren des Modells verwendete Code wird unter https://github.com/NematiLab/WUPERR_CLP verfügbar gemacht.

Yu, K.-H., Beam, AL & Kohane, IS Künstliche Intelligenz im Gesundheitswesen. Nat. Biomed. Ing. 2, 719–731. https://doi.org/10.1038/s41551-018-0305-z (2018).

Artikel PubMed Google Scholar

Topol, EJ Hochleistungsmedizin: die Konvergenz von menschlicher und künstlicher Intelligenz. Nat. Med. 25, 44–56. https://doi.org/10.1038/s41591-018-0300-7 (2019).

Artikel CAS PubMed Google Scholar

Lee, CS & Lee, AY Klinische Anwendungen des kontinuierlichen maschinellen Lernens. Lanzettenziffer. Gesundheit 2, e279–e281. https://doi.org/10.1016/S2589-7500(20)30102-3 (2020).

Artikel PubMed PubMed Central Google Scholar

Tyler, NS et al. Ein Entscheidungsunterstützungssystem mit künstlicher Intelligenz für die Behandlung von Typ-1-Diabetes. Nat. Metab. 2, 612–619. https://doi.org/10.1038/s42255-020-0212-y (2020).

Artikel PubMed PubMed Central Google Scholar

Zhou, Y., Wang, F., Tang, J., Nussinov, R. & Cheng, F. Künstliche Intelligenz bei der Umnutzung von COVID-19-Medikamenten. Lanzettenziffer. Gesundheithttps://doi.org/10.1016/S2589-7500(20)30192-8 (2020).

Artikel PubMed PubMed Central Google Scholar

McKinney, SM et al. Internationale Evaluierung eines KI-Systems zur Brustkrebsvorsorge. Natur 577, 89–94. https://doi.org/10.1038/s41586-019-1799-6 (2020).

Artikel ADS CAS PubMed Google Scholar

Abràmoff, MD et al. Verbesserte automatisierte Erkennung diabetischer Retinopathie anhand eines öffentlich verfügbaren Datensatzes durch Integration von Deep Learning. Investig. Ophthalmol. Vis. Wissenschaft. 57, 5200–5206. https://doi.org/10.1167/iovs.16-19964 (2016).

Artikel Google Scholar

De Fauw, J. et al. Klinisch anwendbares Deep Learning zur Diagnose und Überweisung bei Netzhauterkrankungen. Nat. Med. 24, 1342–1350. https://doi.org/10.1038/s41591-018-0107-6 (2018).

Artikel CAS PubMed Google Scholar

Esteva, A. et al. Klassifizierung von Hautkrebs mit tiefen neuronalen Netzen auf Dermatologenebene. Natur 542, 115–118. https://doi.org/10.1038/nature21056 (2017).

Artikel ADS CAS PubMed PubMed Central Google Scholar

Fleuren, LM et al. Maschinelles Lernen zur Vorhersage von Sepsis: Eine systematische Überprüfung und Metaanalyse der Genauigkeit diagnostischer Tests. Intensivmedizin. 46, 383–400. https://doi.org/10.1007/s00134-019-05872-y (2020).

Artikel PubMed PubMed Central Google Scholar

Yim, J. et al. Vorhersage der Konversion zur feuchten altersbedingten Makuladegeneration mithilfe von Deep Learning. Nat. Med. 26, 892–899. https://doi.org/10.1038/s41591-020-0867-7 (2020).

Artikel CAS PubMed Google Scholar

Kim, H., Goo, JM, Lee, KH, Kim, YT & Park, CM Präoperatives CT-basiertes Deep-Learning-Modell zur Vorhersage des krankheitsfreien Überlebens bei Patienten mit Lungenadenokarzinomen. Radiologie 296, 216–224. https://doi.org/10.1148/radiol.2020192764 (2020).

Artikel PubMed Google Scholar

Wang, P. et al. Das automatische Echtzeit-Erkennungssystem erhöht die Erkennungsrate von koloskopischen Polypen und Adenomen: Eine prospektive, randomisierte, kontrollierte Studie. Gut 68, 1813–1819. https://doi.org/10.1136/gutjnl-2018-317500 (2019).

Artikel PubMed Google Scholar

Wang, F., Casalino, LP & Khullar, D. Deep Learning in der Medizin – Versprechen, Fortschritt und Herausforderungen. JAMA-Praktikant. Med. 179, 293–294. https://doi.org/10.1001/jamainternmed.2018.7117 (2019).

Artikel PubMed Google Scholar

Ching, T. et al. Chancen und Hindernisse für Deep Learning in Biologie und Medizin. JR Soc. Schnittstelle 15, 20170387. https://doi.org/10.1098/rsif.2017.0387 (2018).

Artikel PubMed PubMed Central Google Scholar

Eine Umfrage zum Deep Learning in der Medizin: Warum, wie und wann? | Elsevier Enhanced Reader, https://doi.org/10.1016/j.inffus.2020.09.006.

Shokri, R. & Shmatikov, V. Privatsphäre-wahrendes Deep Learning. In Proceedings of the 22nd ACM SIGSAC Conference on Computer and Communications Security, CCS '15, 1310–1321, https://doi.org/10.1145/2810103.2813687 (Association for Computing Machinery, New York, NY, USA, 2015).

Beam, AL & Kohane, IS Big Data und maschinelles Lernen im Gesundheitswesen. JAMA 319, 1317–1318. https://doi.org/10.1001/jama.2017.18391 (2018).

Artikel PubMed Google Scholar

Wong, A. et al. Externe Validierung eines weit verbreiteten proprietären Sepsis-Vorhersagemodells bei Krankenhauspatienten. JAMA-Praktikant. Med. 181, 1065–1070 (2021).

Artikel Google Scholar

Wong, A. et al. Quantifizierung der Sepsis-Modellwarnungen in 24 US-Krankenhäusern vor und während der COVID-19-Pandemie. JAMA Netw. Öffnen Sie 4, e2135286 (2021).

Artikel Google Scholar

Wardi, G. et al. Vorhersage des Fortschreitens zum septischen Schock in der Notaufnahme mithilfe eines extern verallgemeinerbaren maschinellen Lernalgorithmus. Ann. Emerg. Med.https://doi.org/10.1016/j.annemergmed.2020.11.007 (2021).

Artikel PubMed PubMed Central Google Scholar

Holder, AL, Shashikumar, SP, Wardi, G., Buchman, TG & Nemati, S. Ein lokal optimiertes datengesteuertes Tool zur Vorhersage des Sepsis-assoziierten Vasopressor-Einsatzes auf der Intensivstation. Krit. Pflege Med. 49, e1196–e1205 (2021).

PubMed Google Scholar

Gesundheit, C. f. D. a. R. Künstliche Intelligenz und maschinelles Lernen in Software als Medizinprodukt. FDA (FDA, 2021)

Vokinger, KN, Feuerriegel, S. & Kesselheim, AS Kontinuierliches Lernen in Medizinprodukten: Der Aktionsplan der FDA und darüber hinaus. Lanzettenziffer. Gesundheit 3, e337–e338 (2021).

Artikel Google Scholar

Rieke, N. et al. Die Zukunft der digitalen Gesundheit mit föderiertem Lernen. npj Ziffer. Med. 3, 1–7. https://doi.org/10.1038/s41746-020-00323-1 (2020).

Artikel Google Scholar

Kaissis, G. et al. End-to-End-Datenschutz unter Wahrung von Deep Learning zur multiinstitutionellen medizinischen Bildgebung. Nat. Mach. Intel. 3, 473–484. https://doi.org/10.1038/s42256-021-00337-8 (2021).

Artikel Google Scholar

Warnat-Herresthal, S. et al. Schwarmlernen für dezentrales und vertrauliches klinisches maschinelles Lernen. Natur 594, 265–270. https://doi.org/10.1038/s41586-021-03583-3 (2021).

Artikel ADS CAS PubMed PubMed Central Google Scholar

Price, WN & Cohen, IG Datenschutz im Zeitalter medizinischer Big Data. Nat. Med. 25, 37–43. https://doi.org/10.1038/s41591-018-0272-7 (2019).

Artikel CAS PubMed PubMed Central Google Scholar

Zenke, F., Poole, B. & Ganguli, S. Kontinuierliches Lernen durch synaptische Intelligenz. In Proceedings of the 34th International Conference on Machine Learning, 3987–3995 (PMLR, 2017). ISSN: 2640-3498.

van de Ven, GM & Tolias, AS Drei Szenarien für kontinuierliches Lernen. arXiv:1904.07734 [cs, stat] (2019).

Goodfellow, IJ, Mirza, M., Xiao, D., Courville, A. & Bengio, Y. Eine empirische Untersuchung des katastrophalen Vergessens in Gradienten-basierten neuronalen Netzen. arXiv:1312.6211 [cs, stat] (2015).

Kiyasseh, D., Zhu, T. & Clifton, D. Ein klinisches Deep-Learning-Framework zum kontinuierlichen Lernen aus Herzsignalen über Krankheiten, Zeit, Modalitäten und Institutionen hinweg. Nat. Komm. 12, 4221. https://doi.org/10.1038/s41467-021-24483-0 (2021).

Artikel ADS CAS PubMed PubMed Central Google Scholar

Kirkpatrick, J. et al. Überwindung des katastrophalen Vergessens in neuronalen Netzen. arXiv:1612.00796 [cs, stat] (2017).

Rebuffi, S.-A., Kolesnikov, A., Sperl, G. & Lampert, CH iCaRL: Inkrementeller Klassifikator und Repräsentationslernen. arXiv:1611.07725 [cs, stat] (2017).

Rolnick, D., Ahuja, A., Schwarz, J., Lillicrap, TP & Wayne, G. Erleben Sie Wiederholungen für kontinuierliches Lernen. arXiv:1811.11682 [cs, stat] (2019).

Lopez-Paz, D. & Ranzato, MA Gradientenepisodisches Gedächtnis für kontinuierliches Lernen. In Advances in Neural Information Processing Systems, Bd. 30 (Curran Associates, Inc., 2017).

Shin, H., Lee, JK, Kim, J. & Kim, J. Kontinuierliches Lernen mit Deep Generative Replay. arXiv:1705.08690 [cs] (2017).

Bewertung klinischer Kriterien für Sepsis: Für die dritten internationalen Konsensusdefinitionen für Sepsis und septischen Schock (Sepsis-3) | Intensivmedizin | JAMA | JAMA-Netzwerk.

Rajkomar, A., Dean, J. & Kohane, I. Maschinelles Lernen in der Medizin. N. engl. J. Med. 380, 1347–1358. https://doi.org/10.1056/NEJMra1814259 (2019).

Artikel PubMed Google Scholar

Norgeot, B., Glicksberg, BS & Butte, AJ Ein Aufruf für Deep-Learning-Gesundheitsversorgung. Nat. Med. 25, 14–15. https://doi.org/10.1038/s41591-018-0320-3 (2019).

Artikel CAS PubMed Google Scholar

Miotto, R., Wang, F., Wang, S., Jiang, X. & Dudley, JT Deep Learning für das Gesundheitswesen: Rückblick, Chancen und Herausforderungen. Knapp. Bioinform. 19, 1236–1246. https://doi.org/10.1093/bib/bbx044 (2018).

Artikel PubMed Google Scholar

Xu, J. et al. Föderiertes Lernen für die Gesundheitsinformatik. J. Healthc. Informieren. Res. 5, 1–19. https://doi.org/10.1007/s41666-020-00082-4 (2021).

Artikel PubMed Google Scholar

Sheller, MJ et al. Föderiertes Lernen in der Medizin: Erleichterung multiinstitutioneller Zusammenarbeit ohne Austausch von Patientendaten. Wissenschaft. Rep. 10, 12598. https://doi.org/10.1038/s41598-020-69250-1 (2020).

Artikel ADS CAS PubMed PubMed Central Google Scholar

Huang, L. et al. Patienten-Clustering verbessert die Effizienz des föderierten maschinellen Lernens zur Vorhersage von Mortalität und Krankenhausaufenthaltsdauer mithilfe verteilter elektronischer Krankenakten. J. Biomed. Informieren. 99, 103291. https://doi.org/10.1016/j.jbi.2019.103291 (2019).

Artikel PubMed Google Scholar

Qayyum, A., Ahmad, K., Ahsan, MA, Al-Fuqaha, A. & Qadir, J. Kollaboratives föderiertes Lernen für das Gesundheitswesen: Multimodale COVID-19-Diagnose am Rande. arXiv:2101.07511 [cs] (2021).

Wong, A. et al. Quantifizierung der Sepsis-Modellwarnungen in 24 US-Krankenhäusern vor und während der COVID-19-Pandemie. JAMA Netw. Öffnen Sie 4, e2135286. https://doi.org/10.1001/jamanetworkopen.2021.35286 (2021).

Artikel PubMed PubMed Central Google Scholar

Shashikumar, SP, Wardi, G., Malhotra, A. & Nemati, S. Künstliche Intelligenz Sepsis-Vorhersagealgorithmus lernt, „Ich weiß nicht“ zu sagen. Technik. Rep. (2021). https://doi.org/10.1101/2021.05.06.21256764.

Hung, C.-Y. et al. Verdichten, Pflücken und Wachsen für unvergessliches kontinuierliches Lernen. In Advances in Neural Information Processing Systems, Bd. 32 (Curran Associates, Inc., 2019).

Li, In Proceedings of the 36th International Conference on Machine Learning, 3925–3934 (PMLR, 2019). ISSN: 2640-3498.

Johnson, A. et al. MIMIC-IV, https://doi.org/10.13026/S6N6-XD98. Versionsnummer: 1.0 Typ: Datensatz.

Singer, M. et al. Die dritten internationalen Konsensdefinitionen für Sepsis und septischen Schock (Sepsis-3). JAMA 315, 801–810. https://doi.org/10.1001/jama.2016.0287 (2016).

Artikel CAS PubMed PubMed Central Google Scholar

Harris, CR et al. Array-Programmierung mit NumPy. Natur 585, 357–362 (2020).

Artikel ADS CAS Google Scholar

Abadi, M. et al. Tensorflow: Ein System für groß angelegtes maschinelles Lernen. In OSDI Vol. 16, 265–283 (2016).

Referenzen herunterladen

Dr. Nemati wird von den National Institutes of Health (\(\#\)R01LM013998 und \(\#\)R35GM143121) und der Gordon and Betty Moore Foundation (\(\#\)GBMF9052) finanziert. Dr. Holder wird vom National Institute of General Medical Sciences der National Institutes of Health (\(\#\)K23GM37182) und von Baxter International unterstützt. Rechenressourcen für die berichteten Experimente wurden durch einen großzügigen Cloud-Credit-Zuschuss von Amazon im Rahmen eines AWS Research Award an Dr. Shashikumar ermöglicht. Wir möchten Dr. Gari D. Clifford und Dr. Lucila Ohno-Machado für aufschlussreiche Diskussionen im Zusammenhang mit datenschutzrechtlichen Analysen danken.

Abteilung für Biomedizinische Informatik, University of California San Diego, San Diego, USA

Fatemeh Amrollahi, Supreeth P. Shashikumar und Shamim Nemati

Abteilung für Lungen-, Intensiv-, Allergie- und Schlafmedizin, Emory University School of Medicine, Atlanta, USA

Andre L. Holder

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

FA, SPS und SN waren an der ursprünglichen Konzeption und Gestaltung des Werks beteiligt. FA entwickelte die Netzwerkarchitekturen, führte die Experimente durch, SPS und SN überprüften die Experimente und trugen zur Interpretation der Ergebnisse bei. ALH stellte klinisches Fachwissen zur Verfügung und trug zur Interpretation der Ergebnisse und zur endgültigen Beschreibung bei. FA hat alle Zahlen vorbereitet. FA, SPS, ALH und SN haben das Manuskript geschrieben und bearbeitet.

Korrespondenz mit Shamim Nemati.

Die Autoren geben an, dass keine Interessenkonflikte bestehen.

Springer Nature bleibt neutral hinsichtlich der Zuständigkeitsansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten.

Open Access Dieser Artikel ist unter einer Creative Commons Attribution 4.0 International License lizenziert, die die Nutzung, Weitergabe, Anpassung, Verbreitung und Reproduktion in jedem Medium oder Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle angemessen angeben. Geben Sie einen Link zur Creative Commons-Lizenz an und geben Sie an, ob Änderungen vorgenommen wurden. Die Bilder oder anderes Material Dritter in diesem Artikel sind in der Creative Commons-Lizenz des Artikels enthalten, sofern in der Quellenangabe für das Material nichts anderes angegeben ist. Wenn Material nicht in der Creative-Commons-Lizenz des Artikels enthalten ist und Ihre beabsichtigte Nutzung nicht gesetzlich zulässig ist oder über die zulässige Nutzung hinausgeht, müssen Sie die Genehmigung direkt vom Urheberrechtsinhaber einholen. Um eine Kopie dieser Lizenz anzuzeigen, besuchen Sie http://creativecommons.org/licenses/by/4.0/.

Nachdrucke und Genehmigungen

Amrollahi, F., Shashikumar, SP, Holder, AL et al. Nutzung klinischer Daten in allen Gesundheitseinrichtungen für kontinuierliches Lernen prädiktiver Risikomodelle. Sci Rep 12, 8380 (2022). https://doi.org/10.1038/s41598-022-12497-7

Zitat herunterladen

Eingegangen: 13. Januar 2022

Angenommen: 11. Mai 2022

Veröffentlicht: 19. Mai 2022

DOI: https://doi.org/10.1038/s41598-022-12497-7

Jeder, mit dem Sie den folgenden Link teilen, kann diesen Inhalt lesen:

Leider ist für diesen Artikel derzeit kein Link zum Teilen verfügbar.

Bereitgestellt von der Content-Sharing-Initiative Springer Nature SharedIt

Durch das Absenden eines Kommentars erklären Sie sich damit einverstanden, unsere Nutzungsbedingungen und Community-Richtlinien einzuhalten. Wenn Sie etwas als missbräuchlich empfinden oder etwas nicht unseren Bedingungen oder Richtlinien entspricht, kennzeichnen Sie es bitte als unangemessen.

AKTIE