AI-eksperter diskuterer, hvordan man integrerer robust AI i sundhedsvæsenet, hvorfor tværfagligt samarbejde er afgørende, og potentialet ved generativ AI i forskning.
Feifei Li og Lloyd Minor holdt åbningsbemærkninger ved det indledende RAISE Health Symposium på Stanford University School of Medicine den 14. maj. Steve Fish
De fleste mennesker fanget af kunstig intelligens har haft en slags "aha"-øjeblik, der åbner deres sind for en verden af muligheder. Ved det indledende RAISE Health Symposium den 14. maj delte Lloyd Minor, MD, dekan ved Stanford University School of Medicine og vicepræsident for medicinske anliggender ved Stanford University, sit perspektiv.
Da en nysgerrig teenager blev bedt om at opsummere sine resultater vedrørende det indre øre, vendte han sig til generativ kunstig intelligens. "Jeg spurgte: 'Hvad er superior canal dehicence syndrome?' Minor fortalte næsten 4.000 symposiumdeltagere. I løbet af få sekunder dukkede flere afsnit op.
"De er gode, rigtig gode," sagde han. ”At disse oplysninger blev samlet til en kortfattet, generelt præcis og klart prioriteret beskrivelse af sygdommen. Det er ret bemærkelsesværdigt.”
Mange delte Minors begejstring for halvdagsarrangementet, som var en udløber af RAISE Health-initiativet, et projekt lanceret af Stanford University School of Medicine og Stanford Institute for Human-Centered Artificial Intelligence (HAI) for at vejlede ansvarlig brug af kunstig intelligens. intelligens inden for biomedicinsk forskning, uddannelse og patientbehandling. Talerne undersøgte, hvad det vil sige at implementere kunstig intelligens i medicin på en måde, der ikke kun er nyttig for læger og videnskabsmænd, men også gennemsigtig, retfærdig og retfærdig for patienterne.
"Vi mener, at dette er en teknologi, der forbedrer menneskelige evner," sagde Fei-Fei Li, professor i datalogi ved Stanford School of Engineering, direktør for RAISE Health with Minor-projektet og meddirektør for HAI. generation efter generation kan nye teknologier dukke op: Fra nye molekylære sekvenser af antibiotika til kortlægning af biodiversitet og afsløring af skjulte dele af fundamental biologi accelererer AI videnskabelig opdagelse. Men ikke alt dette er gavnligt. "Alle disse applikationer kan have utilsigtede konsekvenser, og vi har brug for dataloger, der udvikler og implementerer [kunstig intelligens] ansvarligt og arbejder med en række forskellige interessenter, lige fra læger og etikere ... til sikkerhedseksperter og mere," siger hun. "Initiativer som RAISE Health viser vores engagement i dette."
Konsolideringen af tre afdelinger af Stanford Medicine – School of Medicine, Stanford Health Care og Stanford University School of Child Health Medicine – og dets forbindelser til andre dele af Stanford University har bragt det i en position, hvor eksperter kæmper med udviklingen af kunstig intelligens. ledelses- og integrationsspørgsmål inden for sundheds- og medicinområdet. Medicin, lød sangen.
"Vi er godt positioneret til at være en pioner inden for udvikling og ansvarlig implementering af kunstig intelligens, fra fundamentale biologiske opdagelser til forbedring af lægemiddeludvikling og effektivisering af kliniske forsøgsprocesser, lige frem til den faktiske levering af sundhedsydelser. sundhedsvæsen. Den måde, sundhedssystemet er indrettet på,” sagde han.
Flere talere lagde vægt på et simpelt koncept: fokus på brugeren (i dette tilfælde patienten eller lægen), og alt andet vil følge. "Det sætter patienten i centrum for alt, hvad vi gør," sagde Dr. Lisa Lehmann, direktør for bioetik på Brigham and Women's Hospital. "Vi er nødt til at overveje deres behov og prioriteter."
Fra venstre mod højre: STAT News anker Mohana Ravindranath; Jessica Peter Lee fra Microsoft Research; Sylvia Plevritis, professor i biomedicinsk datavidenskab, diskuterer kunstig intelligenss rolle i medicinsk forskning. Steve Fish
Talere i panelet, som omfattede Lehmann, Stanford University medicinsk bioetiker Mildred Cho, MD, og Google Chief Clinical Officer Michael Howell, MD, bemærkede kompleksiteten af hospitalssystemer og understregede behovet for at forstå deres formål før enhver intervention. Implementer det og sørg for, at alle udviklede systemer er inkluderende, og lyt til de mennesker, de er designet til at hjælpe.
En nøgle er gennemsigtighed: Den gør det klart, hvor de data, der bruges til at træne algoritmen, kommer fra, hvad det oprindelige formål med algoritmen er, og om fremtidige patientdata vil fortsætte med at hjælpe algoritmen med at lære, blandt andre faktorer.
"At prøve at forudsige etiske problemer, før de bliver alvorlige [betyder] at finde det perfekte sweet spot, hvor du ved nok om teknologien til at have en vis tillid til den, men ikke før [problemet] spreder sig yderligere og løser det hurtigere." , sagde Denton Char. Medicinsk kandidat, lektor ved Institut for Pædiatrisk Anæstesiologi, Perioperativ Medicin og Smertemedicin. Et vigtigt skridt, siger han, er at identificere alle de interessenter, der kan blive påvirket af teknologien, og bestemme, hvordan de selv gerne vil besvare disse spørgsmål.
Jesse Ehrenfeld, MD, præsident for American Medical Association, diskuterer fire faktorer, der driver anvendelsen af ethvert digitalt sundhedsværktøj, inklusive dem, der drives af kunstig intelligens. Er det effektivt? Vil dette virke i min institution? Hvem betaler? Hvem er ansvarlig?
Michael Pfeffer, MD, informationschef for Stanford Health Care, citerede et nyligt eksempel, hvor mange af problemerne blev testet blandt sygeplejersker på Stanford-hospitaler. Klinikere understøttes af store sprogmodeller, der giver indledende kommentarer til indgående patientbeskeder. Selvom projektet ikke er perfekt, rapporterer læger, der har været med til at udvikle teknologien, at modellen letter deres arbejdsbyrde.
”Vi fokuserer altid på tre vigtige ting: sikkerhed, effektivitet og inklusion. Vi er læger. Vi aflægger ed på at "ikke gøre skade," sagde Nina Vasan, MD, klinisk assisterende professor i psykiatri og adfærdsvidenskab, som sluttede sig til Char og Pfeffer sluttede sig til gruppen. "Dette burde være den første måde at evaluere disse værktøjer på."
Nigam Shah, MBBS, Ph.D., professor i medicin og biomedicinsk datavidenskab, begyndte diskussionen med en chokerende statistik trods rimelig advarsel til publikum. "Jeg taler i generelle termer og tal, og nogle gange har de en tendens til at være meget direkte," sagde han.
Ifølge Shah afhænger AI's succes af vores evne til at skalere den. "At lave ordentlig videnskabelig forskning på en model tager omkring 10 år, og hvis hvert af de 123 stipendier og opholdsprogrammer ønskede at teste og implementere modellen til det niveau af strenghed, ville det være meget vanskeligt at lave den korrekte videnskab, som vi organiserer i øjeblikket vores indsats og [test]] Det ville koste 138 milliarder dollars at sikre, at hver eneste af vores websteder fungerer korrekt,” sagde Shah. "Vi har ikke råd til det her. Så vi skal finde en måde at udvide på, og vi skal udvide og lave god videnskab. Strengfærdighederne er ét sted, og skaleringsevnerne er et andet, så vi får brug for den type partnerskab.”
Associeret dekan Yuan Ashley og Mildred Cho (reception) deltog i RAISE Health Workshop. Steve Fish
Nogle talere på symposiet sagde, at dette kunne opnås gennem offentlig-private partnerskaber, såsom den nylige bekendtgørelse fra Det Hvide Hus om sikker, sikker og troværdig udvikling og brug af kunstig intelligens og Consortium for Healthcare Artificial Intelligence (CHAI). ).
"Det offentlig-private partnerskab med det største potentiale er et mellem den akademiske verden, den private sektor og den offentlige sektor," sagde Laura Adams, seniorrådgiver for National Academy of Medicine. Hun bemærkede, at regeringen kan sikre offentlighedens tillid, og det kan akademiske lægecentre. give legitimitet, og teknisk ekspertise og computertid kan stilles til rådighed af den private sektor. "Vi er alle bedre end nogen af os, og vi erkender, at... vi ikke kan bede om at realisere potentialet i [kunstig intelligens], medmindre vi forstår, hvordan man interagerer med hinanden."
Flere talere sagde, at AI også har en indflydelse på forskning, uanset om videnskabsmænd bruger det til at udforske biologiske dogmer, forudsige nye sekvenser og strukturer af syntetiske molekyler for at understøtte nye behandlinger eller endda hjælpe dem med at opsummere eller skrive videnskabelige artikler.
"Dette er en mulighed for at se det ukendte," sagde Jessica Mega, MD, en kardiolog ved Stanford University School of Medicine og medstifter af Alphabet's Verily. Mega nævnte hyperspektral billeddannelse, som fanger billedtræk, der er usynlige for det menneskelige øje. Ideen er at bruge kunstig intelligens til at opdage mønstre i patologiske dias, som mennesker ikke ser, og som indikerer sygdom. "Jeg opfordrer folk til at omfavne det ukendte. Jeg tror, at alle her kender nogen med en eller anden form for medicinsk tilstand, som har brug for noget ud over, hvad vi kan give i dag,” sagde Mejia.
Paneldeltagerne var også enige om, at kunstig intelligens-systemer vil give nye måder at identificere og bekæmpe forudindtaget beslutningstagning, uanset om det er lavet af mennesker eller kunstig intelligens, med evnen til at identificere kilden til skævheden.
"Sundhed er mere end bare lægehjælp," var flere paneldeltagere enige. Talere understregede, at forskere ofte overser sociale determinanter for sundhed, såsom socioøkonomisk status, postnummer, uddannelsesniveau og race og etnicitet, når de indsamler inkluderende data og rekrutterer deltagere til undersøgelser. "AI er kun så effektiv som de data, som modellen er trænet på," sagde Michelle Williams, professor i epidemiologi ved Harvard University og lektor i epidemiologi og befolkningssundhed ved Stanford University School of Medicine. "Hvis vi gør det, vi stræber efter at gøre. forbedre sundhedsresultater og eliminere uligheder, vi skal sikre, at vi indsamler data af høj kvalitet om menneskelig adfærd og det sociale og naturlige miljø."
Natalie Pageler, MD, klinisk professor i pædiatri og medicin, sagde, at aggregerede cancerdata ofte udelukker data om gravide kvinder, hvilket skaber uundgåelige skævheder i modeller og forværrer eksisterende uligheder i sundhedsvæsenet.
Dr. David Magnus, professor i pædiatri og medicin, sagde, at som enhver ny teknologi kan kunstig intelligens enten gøre tingene bedre på mange måder eller gøre dem værre. Risikoen, sagde Magnus, er, at kunstige intelligenssystemer vil lære om ulige sundhedsresultater drevet af sociale sundhedsdeterminanter og forstærke disse resultater gennem deres output. "Kunstig intelligens er et spejl, der afspejler det samfund, vi lever i," sagde han. "Jeg håber, at hver gang vi har mulighed for at kaste lys over et problem - at holde et spejl op for os selv - vil det tjene som motivation til at forbedre situationen."
Hvis du ikke var i stand til at deltage i RAISE Health-workshoppen, kan en optagelse af sessionen findes her.
Stanford University School of Medicine er et integreret akademisk sundhedsvæsen, der består af Stanford University School of Medicine og leveringssystemer til voksen- og pædiatrisk sundhedspleje. Sammen realiserer de biomedicinens fulde potentiale gennem forskningssamarbejde, uddannelse og klinisk patientbehandling. For mere information, besøg med.stanford.edu.
En ny kunstig intelligens-model hjælper læger og sygeplejersker på Stanford Hospital med at arbejde sammen om at forbedre patientbehandlingen.
Indlægstid: 19-jul-2024