Transkribering av #121: Kan AI ge bättre hälsa?

AI används redan i sjukvård och forskning, till exempel för att analysera röntgenbilder eller förutsäga proteiners tredimensionella utseende. Hör professor Magnus Boman berätta om fler tänkbara användningsområden. Avsnittet publicerades 31 maj 2023. Här kan du läsa en transkriberad version av intervjun med Magnus Boman.

Detta är en transkribering av intervjun i avsnitt 121 av Karolinska Institutets podcast Medicinvetarna.

Andreas Andersson: En som vet mer om AI är Magnus Boman. Han är professor vid KTH, Kungliga Tekniska Högskolan, och anknuten forskare vid Institutionen för medicin på Karolinska Institutet i Solna. Dessutom verksam vid University College i London. Hans forskning handlar om hur artificiell intelligens kan användas inom bland annat medicin och forskning, och han leder ett projekt som kartlägger AI-användning vid Karolinska Institutet. Och till att börja med så frågar du honom: Vad är AI?

Magnus Boman: AI är lärande strukturer som automatiskt gör saker, och att de lär sig betyder att de kan bli bättre och bättre på det de gör om de får feedback av något slag. När jag jobbar får jag ofta frågan: Vad är AI? Och om det inte finns i definitionen någonting om lärande, då tycker jag att definitionen är fel. Det måste också finnas någonting om automatik, automatisering, självrättande. Vi säger ofta att ett AI-system ska kunna gissa och gissa lite fel, men att själv kunna rätta sitt fel över tid. Så det här med att vara autonom är viktigt också. Att man ska kunna släppa ut den här båten på havet och så ska den kunna lära sig segla själv egentligen.

Cecilia Odlind: Och AI står för artificiell intelligens kanske vi ska säga. Maskininlärning då?

Magnus Boman: På senare tid har det blivit poppis att säga att när man gör slides eller powerpoints så ska man säga AI och när man faktiskt gör saker så kan man använda maskininlärning. Och det har också blivit poppis att säga att maskininlärning är en del av AI. Och jag tycker båda de sakerna är felaktiga. Jag kommer från en tradition där jag har lärt mig mycket vad jag kan från de första personerna som ägnade sig åt AI, speciellt Alan Turing. Och han hade inte alls någon speciell uppdelning i AI och maskininlärning utan artificiell intelligens handlade bara om att kunna trycka ut någon slags resonerande från den mänskliga hjärnan till naturen och att man då i naturen skulle kunna ha en robot eller någonting annat som lärde sig både från omgivningen, naturen och från en lärare. Så han var väldigt noga med att säga att vi släpper ut någon robot, den ska lära sig av sig själv och den ska få feedback, till exempel i form av belöning/bestraffning som är den enklaste stimulus-respons-modellen, men det är väldigt viktigt att den som utformar den här roboten eller agenten eller delen av naturen inte riktigt förstår hur inlärningen fungerar, utan det ska vara två roller. Det ska vara en som bygger, en slags ingenjör som inte förstår vad det betyder och blir mer intelligent över tid. Och sen ska det vara en annan person som undervisar och rättar alla fel som den här roboten gör. Och den personen ska inte förstå det ingenjörsmässiga i det hela utan bara tänka på det kognitiva och hur bra den här roboten löser sina uppgifter. Så det tycker jag fortfarande stämmer ganska bra faktiskt. Det brukar bli ganska tokigt om jag programmerar själv och sen ska jag vara den som validerar eller om jag ska lösa en uppgift åt någon med hjälp av AI. Och sedan ska jag själv försöka ändra på problemet.

Cecilia Odlind: Varför blir det tokigt?

Magnus Boman: Därför att jag är nog inte riktigt kompetent att veta, åtminstone inte på ett objektivt sätt om det är vettigt att ändra på problemet eller inte. Till exempel att säga ja, du önskade lösa det här problemet, men jag tycker vi börjar med ett något enklare problem eller ett delproblem. Att man gör någonting reduktionistisk, att man delar upp ett mål i olika delmål eller en uppgift i olika deluppgifter. Det kan bli fel då. Och oftast så är det personen jag arbetar med, det kan vara en kliniker eller det kan vara någon som tidigare har jobbat med processindustri, finansindustrin. I alla möjliga industrier där det finns väldigt mycket specialkunskap och i medicin så kan jag tänka mig två områden där det krävs mer specialkunskap. Man har ju ofta enormt mycket kunskap om något ganska smalt. Så går jag då in och försöker säga nej, det är den här sortens spatial transcriptomik vi ska göra. Då är jag ute på hal is. Jag brukar försöka vara tyst.

Cecilia Odlind: Ja, det är mycket snack om AI nu och kanske delvis för att den här senaste versionen av Chat GPT har kommit. Version fyra. Vad är Chat GPT? Kan du förklara?

Magnus Boman: Ja, det är en slags app. Det är ett gränssnitt till en programvara som är generativ. Så den kommer med förslag och den är väldigt baserad på text. Och det som är lite speciellt är ju att vem som helst nästan kan använda det här gränssnittet och komma åt en del av de här algoritmerna. Det här paketet av algoritmer som utgör GPT fyra då. Det brukar inte vara så. Det brukar ju vara så att de stora tech-bolagen ofta håller det här lite internt och sen så delar man ut en väldigt simplistisk version av sin programvara. Men den situation vi har nu är att olika stora tech-bolag tävlar med varann om att vara bra på generativ AI och istället för att tävla på forskarkonferenser eller bland AI experter så tävlar man lite om publikens gunst. Och då kan det ju betyda att till exempel Chat GPT har ett bra gränssnitt. Inte kanske att GPT fyra är en fantastisk förbättring av GPT tre, det kanske inte är så relevant. Vi arbetar här i Sverige på en svensk variant och den är klar nu, en första version och det vore ju väldigt roligt om vi svenskar på något vis kunde utvärdera eller validera hur bra den är. Men då måste man veta vad man validerar. Validerar man det här chat-gränssnittet eller någonting annat? Så för mig är det lite jobbigt med all den här uppmärksamheten kring Chat GPT speciellt. Men inte bara. Medan jag tycker att till exempel att använda generativ AI i svenska språket eller för en speciell domän som proteinnamn eller något i den stilen är egentligen mer spännande. Så när jag pratar med tekniker som är inblandade i utvecklingen av de här GPT algoritmerna så diskuterar vi egentligen helt andra saker än det som diskuteras i pressen och ute på arbetsplatser och i skolor och så. Och nu finns det ju en panik här. Hur ska vi kunna examinera våra elever och studenter framöver? Och hur ska vi veta vad som är äkta vara? Och samtidigt har vi en av världens kanske smartaste människor nu, Terence Tao som är matematiker. Han går ut och säger "Jag har använt Chat GPT. Det ät bara ett verktyg, det är liksom att få en ny penna." Så vi har den här spänningen mellan en uppenbarligen väldigt duktig person, på det som personen gör som säger det här kan jag använda som en ny penna. Och sen har vi skolor som ställer sig upp och säger det här är ju jättejobbigt att det här går så fort. Nu måste vi ju hitta nya sätt att kontrollera att elever inte fuskar och så vidare. Så den här spänningen, det är en väldigt intressant spänning tycker jag. Men det är inte mitt område utan mitt område är att göra spänningen kanske ännu större.

Cecilia Odlind: Men är det inte ett problem det där med tentor?

Magnus Boman: Nej, det tycker inte jag. Nämen, det vore ju väldigt konstigt om det vi examinerade hängde på att den som ska examineras var begränsad till att tänka helt själv utan några som helst hjälpmedel. Jag har inte någonsin, tror jag givit en tentamen för mina universitetsstudenter på 30 år där de inte har fått ta med sig vad som helst. Det är inte det som är poängen. Sen förstår jag att om man vill ge ett prov till elvaåringar att man inte kan säga "du får ta med dig vad du vill, du får ta med dig böcker, telefon, vad som helst." Det borde inte vara så att examinationen hänger på det.

Cecilia Odlind: Det kanske kommer förändra lite vad det är man blir examinerad på så att säga?

Magnus Boman: Ja, om man har ett system som bygger på katederundervisning och att vi har den typen av prov som vi har nu. Men jag har aldrig varit speciellt förtjust i den modellen över huvud taget. Jag tycker att det antika Grekland har ganska mycket att lära oss om hur vi bör examinera och det kan vara viktigare att ha en mentor, det kan vara viktigare att ha det sociala stödet i sin inlärning och att kanske individanpassa och så vidare. Så då ser jag det lite mer som Terence Tao, att det här är ett verktyg till. Och det är inte det sista och inte det bästa utan det kommer komma fler och de kommer vara bättre. Och om det här är ett hot kommer framtidens mjukvaror att vara ett ännu större hot. Så det är kanske dags att sluta bita sig fast vid den gamla modellen. Det kanske är ett bra tillfälle att förändra.

Cecilia Odlind: Vi gled ju lite in på ett sidospår här för att vi ska ju prata om medicinsk forskning och hälsa. Men först måste jag bara konstatera att när jag testade denna Chat GPT, för det första så bad jag den skriva frågor till den här intervjun och de blev ju bra frågor. Men lite jämntjocka och likadant formulerade. Och du berömde ju mig för mina frågor här innan vi startade.

Magnus Boman: Jag berömde ju dig för de frågor jag trodde att du hade gjort?

Cecilia Odlind: Jag har faktiskt skrivit dem som jag skickat till dig och som jag ställer nu. Men, jag prövade också och det var inget fel på dem. Men som sagt, det blev lite tråkigt. Men sen frågade jag också Chat GPT, vad är medicinvetarna? Först fick jag något helt galet svar och sen fick jag svaret att det var en podcast. Jag kanske skrev att "det är ju en podcast?" "Ja, du har rätt." #Men vem är programledare?" Då var det Karin Bojs.

Magnus Boman: Jag känner Karin. Hon skulle säkert vara utmärkt som programledare, men det var hon ju inte. Men det du gjorde var att du förfinade din fråga så det blev en interaktion. Det blev en snurra där du först ställde en fråga och sedan bad Chat GPT om ett bättre svar. Och vi kallar ju det där för prompting. Att man ställer en fråga. Och sedan prompt tuning, det handlar ju om att man lär sig lite grann vilka frågor funkar. Man säger "nämen skriv om det där, det där blev jämntjockt eller skriv om det där, det där var alldeles för ovetenskapligt. Eller det där var för mycket fokus på pengar." Och precis som det finns många människor idag som inte vet hur man söker på ett effektivt sätt på internet. De stoppar in en sökterm som inte ger det resultat de är ute efter, utan deras resultat kommer långt ner i någon lista av möjliga resultat. Så tar det lite tid att lära sig att skriva bra prompt till den här typen av AI generativa algoritmer. Och vi är ju många som har funderat på det där med: hur skulle det vara om modellen lärde sig hur du brukar prompta? Så att den också fick den typen av feedback att den över tid lärde känna dig lite grann?

Cecilia Odlind: Här är en lite korkad promptare?

Magnus Boman: Det vet jag inte. Men det här kanske en procentare som som brukar behöva fem eller sex omskrivningar av mig. Jag kan lika gärna hoppa till den femte på en gång, för jag vet hur det brukar se ut. Och det du märker då är att det blir ett bättre gränssnitt, en bättre upplevelse för dig och du tycker att modellen levererar bättre. Men det handlar också om att du ställer frågorna bättre, skulle man kunna säga.

Cecilia Odlind: Men det här bara med vem som programleder medicinvetarna? Det skulle ju kunnat vara Karin Bojs eftersom hon är medicinjournalist och författare. Och hon jobbar ju för Dagens Nyheter. Men jag tycker bara att det är lite konstigt, vi tjatar om det här i vartenda avsnitt, publicerar massor och där står det våra namn och så. Borde inte det vara jättelätt för den att bara plocka upp det?

Magnus Boman: Det tycker jag också. Och det där var ju ett exempel på att den hallucinerar. Som du säger. Den har inte gjort någon speciellt djup sökning utan det har kanske att göra med att den inte förstod att medicinvetarna var ett namn utan att det var någon som vet mycket om medicin. Och det här med namnigenkänning är ett väldigt stort problem för forskare. Att man ska få in ett antal meningar och sen ska man bara hitta namnen. Och företag är jätteintresserade av det, för de vill ju bara placera sitt företagsnamn på olika sätt. Och vissa företag heter ju någonting som sticker ut och andra heter någonting som skulle kunna vara en del av nästan vilken mening som helst. Och då blir det ganska svårt också. Som jag nämnde tidigare med proteinnamn, de kan ju vara väldigt långa och konstiga och så där och det är också väldigt svårt att känna igen. Så när generativa algoritmer ska generera meningar så kan de bli lite förvirrade när det gäller just namn. Den vet i någon svag mening säkert att Karin Bojs är ett namn. Men om någon skulle säga "du är så Karin Bojsisk nu" då kanske människor skulle förstå, men inte algoritmer den skulle behöva lite träningsmaterial på. Men vad är det då? Att vara Karin Bojsisk?

Cecilia Odlind: Okej, jag blev väldigt stött, men jag ska släppa detta.

Magnus Boman: Det tycker jag, du kan tänka på något annat.

Cecilia Odlind: Men hur kan AI användas för att förbättra hälsa?

Magnus Boman: På massor med sätt har det visat sig. Vilket inte var självklart från början. Det har länge nu använts olika typer av AI algoritmer och då maskininlärning, speciellt det som vi kallar för djup inlärning eller deep learning för att till exempel förbättra skärpan eller förbättra hur mycket information man kan få ut av en bild. Och om man tar en medicinsk bild i syfte att diagnostisera till exempel, eller på något vis studera patologier så finns det ju beroende på vilken typ av medicinsk bild det är, olika möjligheter för algoritmer att hjälpa till med tolkningen. Och radiologer är ju väldigt överbelastade. Röntgenläkare. I sin yrkesroll har de ett tajt schema och de har mycket att göra. Det de gör är viktigt. Det ska inte bli fel så att om de kan få ett stöd som gör att deras arbete går bara lite fortare? Om de bara sparar en minut per patient till exempel? Så kan det betyda väldigt mycket. Men det är inte nog med det, utan det är också så att för vissa typer av bildbehandling, som till exempel magnetresonans, då finns det rådata som en röntgenläkare aldrig tittar på, utan den här personen får titta på en rendering, egentligen en fouriertransform, av det underliggande datat, så att man scannar en patient och då får man fram någonting som människor inte är bekväma med att analysera. Så gör man om det till det vi känner igen som en bild. Och vet man inte hur det funkar så tänker man kanske att: jamen det är väl den där bilden då som maskinen producerar? Och det är i någon mening. Men, det är något som sker i flera steg och var man kan stoppa in AI i den här inlärningen och det här beslutsstödet till radiologer eller röntgenläkare. Det kan man göra på olika sätt. Man kan göra det på rådatat också och det kan ge väldigt stor hjälp. Men sen finns det andra typer av bilder där det inte alls är så lätt för en algoritm att jobba med det här rådatat, utan då kan det vara bättre att titta på ett transformerat data som mera liknar det som människan tittar på. Så för att sammanfatta det där kan man säga att bildbehandling, det har gått väldigt bra. Det finns AI filter man kan lägga på existerande olika medicinska bildskanners och andra maskiner för att helt enkelt få en bättre bild. Mer information, bättre beslutsunderlag. Och det är få klagomål från kliniker utan snarare, ge oss mer av det här, för det här hjälper oss. Så det är inte så att det finns någon bromsande kraft riktigt utan jag skulle säga att de är ganska vana vid maskiner som har en insida som gör väldigt komplicerade saker som inte alls ligger inom deras expertis normalt sett. Och det är helt okej att bara se det som en svart låda. Så om någon säger nu är det deep learning i din svarta låda? Det är inte så där jätteviktigt egentligen.

Cecilia Odlind: Det här är som en extra penna?

Magnus Boman: Det tycker jag. Och det är kontroversiellt, kanske för vissa för de säger nej, men vad händer om det blir fel? Hur vet man om det är människan eller maskinen som har gjort någon felbedömning? Och det kan vara väldigt viktigt om vi skulle ha något Lex Maria fall eller någon sådan här ansvarsutredning av något som har gått riktigt tokigt. Så där försöker jag också lite grann vara medveten om orosmolnen som finns. Men jag tänker att det behövs etiker och det behövs många kliniker som faktiskt använder praktiskt dessa algoritmer. Antingen förstår de precis vad algoritmerna gör eller också inte. Men de använder dem i alla fall och de vet i sitt dagliga arbete vad det här betyder. Då lämnar jag gärna åt dem att säga: Hur tycker ni att ansvarsfrågan ska lösas? Jag känner att jag som någon form av AI-expert, jag har programmerat AI system i 40 år nu, jag är ganska inkompetent på det och jag skulle kunna ha gjort systematiska fel under mina 40 år. Det finns saker som tyder på att vi som håller på med AI länge har gjort en del systematiska fel när vi har tänkt på hur man ska träna algoritmer. De kan bli rasistiska och de kan bli oanvändbara och de kan kosta alldeles för mycket energi att träna.  Lite grann har vår historia tecken på att det här inte har gått jättebra. Så att jag pratar regelbundet på KTH med teknikhistoriker där och frågar dem om vi säger att nu är Chat GPT en revolution, är det sant eller inte? Och då säger professor Nina Wormbs som jag brukar fråga: Nej, det här är bussiness as usual, ingen revolution. Det är ingen alptopp, det är bara en liten kulle i utvecklingen. Så här har folk sagt i den och den och den situationen. Och så ger hon mig en referensram. Och det är ett oerhört stöd för mig att veta att det jag gör är inte så märkvärdigt, utan det är snarast ett bidrag till inkrementell förbättring av någonting som är på väg till att bli jättebra. Men det är små mikrosteg vi tar egentligen när vi förbättrar något filter till någon bildbehandlingsapparat, till exempel.

Cecilia Odlind: Men okej, röntgenläkare kan dra stor nytta av AI för att effektivisera diagnostiseringen av bilder. Hur mycket används det idag?

Magnus Boman: Det används mycket idag skulle jag säga. Dels för att de här maskinerna då har till exempel deep learning filter. Det är inte säkert att varje röntgenläkare känner till att de finns där i.

Cecilia Odlind: Så bilddiagnostisering, men det kanske finns andra sätt som AI kan förbättra hälsan?

Magnus Boman: Absolut. Vi hade ju för 7–8 år sedan förslag på något som hette Watson som skulle kunna vara ett beslutsstöd för kliniker och som byggde på ganska gamla AI idéer.

Cecilia Odlind: AI doktor?

Magnus Boman: Precis. Och att man skulle kunna ha en rond med mänskliga doktorer och en AI-doktor, eller flera AI-doktorer, kanske en per specialistkompetens och att man skulle ha konferens då med den eller dem. Det visade sig att de skulle ge någon slags andra uppfattning eller second opinion på någonting som människorna redan hade beslutat. Och det gick inte vidare värst bra egentligen, utan det visar sig ju mycket mer användbart med den typen av teknik för att ge en första uppfattning, alltså en first opinion. Och då hamnar vi på triagering. Hur man ska hjälpa en person som kommer in på akuten till exempel. Eller någon som ringer till giftjouren eller någon som behöver akut hjälp. Och det har visat sig fungera mycket bättre att låta maskinen komma med förslag på triagering och sen kan människor då rätta till vid behov.

Cecilia Odlind: Det är som en första sluss?

Magnus Boman: En första sluss där människor ofta har en kognitiv överbelastning, att det är bråttom, att det händer väldigt mycket i den miljön. Det är väldigt stökigt. Och vi vet ju att människor kan fungera i sådana. Vi har ju gudskelov massor med människor som fungerar på våra akutmottagningar, som hjälper hundratusentals människor i Sverige varje år. Så det fungerar. Men att fundera som AI utvecklare hur man kan stödja någon som kommer med slag mot huvudet eller med bröstsmärta till exempel. Det är exempel på projekt här där vi har sett att AI kan ha en betydelse för triageringen. Det finns också ganska mycket utmaningar för tekniskt intresserade utvecklare. "Men låtsas att vi är på en akutmottagning och så kommer det in en person och säger så här och så här. Vad skulle du göra då?" Och sen är det en slags tävling, kan man programmera en algoritm som ger bästa stödet för just den här miljön? Och det är ofta det vi kallar för en sandlåda då. Att det är hittepå. Men ibland så ger den typen av utmaning en ganska bra metodutveckling, att AI utvecklare kan diskutera med varandra. "Men det där kommer aldrig fungera. Bättre att göra så här." Och just de generativa algoritmerna som Chat GPT använder, det kan vara ett ganska bra sätt att föreslå, Ja, den här svårdiagnostiserade patienten liknar 40 personer som har kommit in här förut och 32 av dem har fått den här diagnosen. Och sen finns det här enstaka fallet som faktiskt var det här och det här och då kan människor säga jaha, just det kanske man skulle kolla upp. Det är en slags ledtråd. Och det har också visat sig fungera ganska bra. Diskuteras ofta inom precisionsmedicin när det gäller sällsynta sjukdomar till exempel. Så om vi först tog bildbehandling och sedan det här med triagering och beslutsstöd så finns det ju också en roll för AI att spela när det gäller ganska så logistiska utmaningar som vi har i sjukvården. Alltså vi pratar köer, vi pratar överbelastning, vi pratar särskilda händelser och vi pratar då givetvis också om pandemier och beredskap för det och hur vi logistiskt kan stödja. Och AI personer som jag själv brukar inte tycka om att säga det. Fast jag säger det ändå för att jag inte orkar låtsas längre; att byråkrati och administration är någonting som AI är extremt användbart för.

Magnus Boman: Därför att det handlar om att lära sig: Vad är det mest effektiva sättet? Det optimala, ibland sättet att ordna en process på? I en organisation? Det här är exempel på algoritmer som fungerar lika bra i sjukvården som de kanske gör för svartvattenpumpar eller någonting helt annat som inte har med sjukvård att göra. Där kan vi hitta en metodfördel att vi kan lära från helt andra domäner och tillämpningar och så kan vi använda det i sjukvården. Det är inte sådär spännande kanske att säga att the killer app för AI är byråkrati men det finns ganska mycket sanning i det. Och lite grann är det ju så att om man löser de problemen så frigör det resurser till att ägna sig åt mycket, mycket svårare problem. Så vi hoppas någonstans att både organisatoriska problem och mera teknikorienterade problem som ett nytt filter, att det ska ske ett slags tandemutveckling, att det blir bättre på alla fronter. Och vi vill köpa mer tid åt den människa som ska ge vård och som ska bedöma och som ska diagnostisera och föreslå kurativ behandling och så vidare. Det är de personerna vi vill hjälpa.

Cecilia Odlind: Doktorn och vårdpersonalen ska ägna sig mer åt det mänskliga mötet, kan man säga?

Magnus Boman: Ja, det är det vi tror att den som ska mötas vill. Men sen beroende på vad man har för problem så vet vi också att är man väldigt sjuk, eller någon man älskar är väldigt sjuk, då säger man "jamen använd vilken teknik som helst, vilken data som helst fixa bara det här problemet!" Så då kanske det handlar om spetsteknik. Eller det kanske handlar om att komma med i någon randomiserad studie för ett nytt tillvägagångssätt för att möta det här behovet. Och då kan det hända att visst, det är jätteviktigt att bli sedd och att bli bekräftad och att känna att man inte studsar runt mellan olika specialister. Men där har vi sett att det finns roller som kontaktsjuksköterska och så vidare som tar en stor del av det är väldigt bra. Så kanske att AI inte ska bli en ny typ av kontaktsjuksköterska, utan det kanske är bra om de här AI och maskininlärning metoderna ägnar sig åt det speciella med en viss typ av behandling eller att kunna hitta oönskade sidoeffekter av en kombinationsbehandling för multisjuka och så vidare. Hittar de här anomalierna, det som kan leda till väldigt negativa konsekvenser. Men det här är naturligtvis jättesvåra frågor som beror väldigt mycket på vilket problem den person som kommer in har. Om det är lätt eller svårt att diagnostisera, till exempel om det är en kronisk sjukdom eller inte. Det går inte riktigt då att säga som jag just sa, svepande och tro att det här är absolut sant. Utan vill man veta hur det verkligen är så måste man ut på klinik och man måste prata med patienter. Man måste prata med kanske de som representerar patientorganisationer och fråga Hur fungerade det här för dig och hur kändes det här i vecka tre? Hade du mycket ont och så? Och ta det på fullaste allvar. Och då är AI i ärlighetens namn en mycket liten pusselbit skulle jag säga i det här vårdpusslet.

Cecilia Odlind: Även i framtiden?

Magnus Boman: Även i framtiden. Så att de här scenarierna som är lite 1984 och lite drömscenario samtidigt, både utopi och dystopi. Det är ju att vi kliver in i någon slags intelligent bur och sedan hör vi något ljud och så blinkar lite ljus. Vi går in sjuka och kommer ut friska och ingen vet riktigt vad som har hänt och det är AI som har tagit hand om våra sjukdomar och vi har blivit bestrålade och optimerade och masserade och vad det kan vara. Men det känns som att det är inte bara långt borta utan det är också så att även om det fanns sådana där lösningar så skulle de inte ta hand om alla problem. I verkligheten så har varje person som stiger in i sin bur sina erfarenheter, sitt liv och det händer saker i omgivningen för den personen som som hon inte kan kontrollera och då löser inte den där buren alla problem.

Cecilia Odlind: I medicinvetarna har vi ganska ofta pratat om kognitiv beteendeterapi som en behandlingsform och vi också pratat om att den kan ges via internet precis när det passar patienten, kanske helt på natten eller när inte läkare och psykologer jobbar. Till exempel. Men skulle den här KBT då kunna ges av en AI helt enkelt? Tror du?

Magnus Boman: Nej, jag tror inte det. Och där har jag ganska mycket på fötterna. Däremot så tror jag att jag kan säga nästan med säkerhet att den kan förbättra den mänskliga psykologens insatser. Det är ju redan så att om man har internet KBT så är man inte därmed bunden till en psykolog. Det vore ju lite konstigt, då skulle ju den personen behöva sitta uppe dygnet runt, utan det finns en jour och det är inte alls ovanligt att man blir introducerad då via det interna meddelandesystemet som man är inne på för olika psykologer som säger "Hej, jag heter si och så och nu kommer jag hjälpa dig här. Hur gick det med din hemläxa som du gjorde förra veckan tycker du?" I den typen av system så är psykologens beteende extremt strömlinjeformat. De följer mallar ganska slaviskt, även om de är människor, så det är klart att de kan improvisera också. Men det finns flödesscheman så det är väldigt lätt egentligen att automatisera det de gör. Men att göra det med den kvalitet som dem kan prestera ligger långt fram i tiden. Så vad man i stället gjort i Sverige, som ju är ett pionjär land för internet KBT är att använda olika smarta flaggor för "nu kanske det är dags att titta på den här patienten" och av en anledning som ligger utanför det normala flödesschemat. Det uppstår någon form av anomali, någon speciell sak som händer.

Cecilia Odlind: Som AI plockar upp?

Magnus Boman: AI plockar upp som det vore nästan konstigt om människor plockade upp. Det kan vara bara för att ta ett enkelt exempel, att den här personen brukar skriva väldigt mycket och har nu varit tyst i tio dagar och skrev bara ett väldigt summariskt meddelande när vi förväntade oss ett långt meddelande.

Cecilia Odlind: Men då skulle man som människa bli väldigt nervös. Jag skulle bli.

Magnus Boman: Ja, men det är nog bra. Men om det blir något mer subtilt så att det är så att meddelanden till exempel blir kortare och kortare eller meddelanden börjar droppa in kl. 03:04 som brukade droppa in 23:30. Att man då kan använda AI och onaturlig språkbehandling som det kallas, att man tittar på hur många ord använder patienten eller personen? Hur många negationer används? Sånt som vi människor normalt inte är så att säga intrimmade på att leta efter. Men det är väldigt lätt att göra den typen av analys av text som kommer in och vad som är så spännande med just internet KBT det är ju att man har ju allting. All information kring behandlingen finns ju i det här flödet och om då personen som är i behandling har gått med på att det här datat kan användas för forskning så ger det en god bild av all information som är relevant. Sen har den personen givetvis ett socialt liv och det händer saker i det livet. Det kan finnas en problematik som inte internet KBT kan komma åt. Det syns ju naturligtvis inte så vi är medvetna om att vi inte har allting. Men vi har en väldigt bra baslinje. Vi vet att det inte är så att de har ringt upp de här psykologerna eller kommit och knackat på dörren och att den informationen saknas. De här personerna kommer inte att knacka på dörren. Det är inte så det ser ut. Det är ett rum där psykologerna kan ha en lugn och stilla diskussion om vad tror du om den här personen? När det gäller hemläxa nummer sju till exempel. Och den diskussionen är väldigt svår att ha om man tänker att man skulle befinna sig på en vårdavdelning med intagna där man kanske har överfallslarm och man har en vakt och så. Jag har varit i sådana miljöer också. Där man känner att nu är jag i en miljö där jag måste vara på helspänn. Och det här är en helt annan, även från vårdsidan miljö som jag tycker är väldigt spännande när det gäller att ge de här personerna stöd. Och det kan ju vara till exempel depression som vi vet är ett ökande problem. Så det finns gott om evidens. Det finns jättespännande studier som pågår och Sverige är världsledande. Många andra länder vill veta vad vi har kommit fram till för att använda det. För att det är inte bara minst lika bra som den vanliga, utan den är också billigare än den vanliga vården. Motsvarande utan internet och utan AI stöd så att det här blir ett väldigt intressant alternativ.

Cecilia Odlind: Då har vi fått flera exempel. De flesta är ganska kliniskt kopplade, men också inom grundforskningen så kan väl AI användas? Till exempel det här AI programmet Alpha Fold som kan förutsäga 3D strukturerna, den tredimensionella strukturen för proteiner och den finns fri att använda för forskare sedan 2021. Vilken betydelse har det här fått för forskningen om proteiner och deras funktion i kroppen?

Magnus Boman: Det är en jättespännande fråga. De fick ju, jag tror att det var tidskriften Science award 2021 för största vetenskapliga framsteg i väldigt skarp konkurrens.

Cecilia Odlind: Science är ju en väldigt fin tidskrift.

Magnus Boman: En av de finaste, kanske den finaste. Så det är fantastiskt det som har kommit fram. Det är fantastiskt att de här syntetiska proteinstrukturerna finns som en öppen resurs. Jag tycker också att det är väldigt glädjande att källkoden till hur det här fungerar finns tillgänglig så att den kan både laddas ner och studeras, men den kan också användas för inspiration för andra lösningar. Så att inte allt det här kommer från en grupp av programmerare som hör till ett visst företag framöver. Det man ska komma ihåg är ju att den här Alpha Fold arbetar inte så mycket med proteiners funktion utan det är ju just det strukturella. Det är mer en fråga om yta än innehåll egentligen. Men det är ju en väldigt viktig yta och det är ju fantastiska framsteg. Och vi har ju andra fantastiska projekt; Protein Atlas som är byggt på andra principer och under andra förutsättningar. Så jag tänker mig att för den som arbetar med proteiner på det här viset, i sitt dagliga värv och i sin dagliga vård, att de nu har en uppsjö möjligheter och att de på ett smart sätt kan kombinera vad Alpha Fold kan komma fram till och vad protein atlasen kan ge och vad deras övriga källor till information kan ge. Och hela den utvecklingen är ju fantastisk, att vi kan förstå så mycket nu som vi inte kunde förstå för fem år sedan. Och Alpha Fold som du nämner som exempel, det har spelat en viktig roll där, framför allt sedan 2021.

Cecilia Odlind: Så en extra penna kan man säga?

Magnus Boman: Det här är nästan som ett helt nytt pennskrin tror jag. Det får man ju fråga experterna. Men det här är nog åtminstone 7-8 märkpennor och väldigt fina blyertspennor och så.

Cecilia Odlind: Det låter rimligt. Men som du nämnde så har teknikutvecklingen inom multiomik gått väldigt fort, till exempel när det gäller genomik och proteomik som vi pratade om. Metabolomik. Det här är alltså kartläggningen av gener, proteiner etc. Och det har lett till enorma mängder data. Här tänker man sig att AI borde vara ett bra stöd för bioinformatiker som jobbar med att tolka den här datan eller hitta mönster?

Magnus Boman: Absolut. Det är precis att hitta mönster. Att hitta anomalier, saker som sticker ut från det förväntade. Det är någonting som AI används för och genomik och transkriptomik är bra exempel på det. Och det här med multiomik, det är ju otroligt att det här blir nya specialistgrenar nu. Men hur de integreras med allting annat som vi kan få fram om de patienter som vi försöker hjälpa är ju också både en möjlighet och ett problem, metodmässigt. Hur ska vi väga de här olika sakerna? Det handlar inte bara om hur den signal AI kan uppfatta med den signal som människor kan uppfatta i datamaterial, utan det handlar ju också om varje modalitet som vi säger, biomarkörer, olika saker som man kan studera. Hur lirar det ihop med all annan information som kanske finns i en patientjournal? Det kanske finns med i ICD koder? En massa intressant information. Det kanske är så att personen har fyllt i enkäter över lång tid? Och för vissa typer av sjukdomar som de kroniska sjukdomarna där vi har patienter som återkommer över lång tid. Vad kan man göra med en sån här tidsserie där man har tidsstämplade mätningar eller värden? Så att det kommer en svärm av data regelbundet över väldigt lång tid. Och där ligger ju också Sverige internationellt sett fantastiskt långt framme med personer som har som har byggt longitudinella databaser här i 30/40/50 år. Så det är ju en spännande resurs vi har där.

Cecilia Odlind: Är det så att man då följer en person så kanske man plötsligt märker att någonting avviker och då blir man snabb med att upptäcka att den här personen har drabbats av någonting. Är det så du tänker?

Magnus Boman: Antingen det. Men mer vanligt är nog att man tror att den här personen liknar många andra personer fram till en viss tidpunkt. Då börjar den helt plötsligt inte alls passa in i de mätvärden till exempel som de andra har. Vad är det då som har hänt? Det kan man då gräva i. Det blir en ledtråd.

Cecilia Odlind: Jag tänker att AI kommer kunna hjälpa oss att lära oss mer om hur sjukdomar uppstår genom att identifiera de här anomalierna som dyker upp? Avvikelserna?

Magnus Boman: Det är jag övertygad om. Och där kan vi också lära från andra domäner som inte har med vård att göra. Om Kustbevakningen ser en båt bete sig väldigt mystiskt och tror att det är en smugglarbåt. Den AI algoritm som används då av Kustbevakningen för att förstå vad är sannolikheten för att de gör någonting kriminellt här? Om det kan användas för någonting som rör vård, då har vi gratis en massa metodutveckling av hur sådan här anomalidetektion fungerar. Och det kallar vi för transfer learning eller överförbara resultat mellan olika domäner, så att en lärande struktur som jobbar med en typ av problem kan man bara kasta in och den är magiskt duktig på något som den egentligen inte är tränad på. Det började med en algoritm som hade sett massor av kartor, tränad på kartmaterial och sedan fick den i uppgift att bygga och analysera en tunnelbanekarta för London. Och när vi forskare såg hur duktig den var på det utan att den hade någon aning om vad en tunnelbanekarta var, att den kunde lära sig så mycket från det här materialet som var helt andra typer av kartor så födde det en viss optimism kring: Jaha, men det kanske betyder att om vi tränat väldigt mycket på någonting så kan vi ge dem en uppgift som känns väsensskild men som har vissa ytstrukturer som är liknande. Så att vad vi människor och vad vi AI utvecklare måste göra: vi måste slå en bro mellan datat i de här två tillämpningarna, säga att "det är nog troligt att om du har tränat på X så kan den bli duktig på att känna igen Y, därför att X och Y på vissa sätt är lika." Det här är jätteviktigt för deep learning och det är jätteviktigt för att driva också tillämpningarna framåt. Så det finns en växelverkan här mellan olika forskare som rättar varandras fel och säger: Ja, du sa att det du hade gjort var skalbart och generellt och att du hade gjort någonting som funkar för alla kartor. Men nu har jag gjort experiment som visar att det inte fungerar för arkeologiska kartor över Egypten och då kan man ta en konstruktiv diskussion om vad ska vi göra åt det problemet?

Cecilia Odlind: Men vad är AI bättre på än människor idag?

Magnus Boman: Att räkna är ju datorer bättre på så det följer liksom logiskt av det att AI algoritmer kan räkna fort. Vad de är bra på är att de kan gissa och komma med plausibla förslag. Och det som finns under deras resonemang, om man kan kalla det så. Det låter lite som att jag ger dem en själ nu, men så som de fungerar logiskt är ofta att de har någon slags uppfattning om sannolikhet. Och vi människor vet att vi är dåliga på framförallt att kombinera sannolikheter. Och vi är dåliga på att bedöma sannolikheten av väldigt sällsynta händelser, till exempel. Och ja, Daniel Kahneman som skriver den bestsellern om Thinking fast and slow. Det finns många exempel på forskare som har skrivit populärvetenskapligt, väldigt bra om det här. Vår oförmåga att hantera pyttesmå saker och enormt stora saker är också väldokumenterad. Maskiner och algoritmer är helt okänsliga för den här typen av problem. För dem är ett stort tal, så länge de kan hålla det i minnet så spelar det inte så stor roll hur många decimaler. Och de kan multiplicera två jättestora tal med varandra på ett kick utan att det ger så mycket bekymmer. Går man riktigt djupt ner och nördar loss på: vad är det för skillnad på talet 2 och 1,9999... i en dator då får man lite bekymmer också. Men det är sällan som tur är som vi behöver bry oss om sånt.

Cecilia Odlind: Men hur fort går utvecklingen? Man får en känsla av att det har tagit väldigt mycket fart här på de senaste åren. För att vi kan konstatera nu att där vi är idag så finns det massor av hjälp vi kan få av AI. Men det finns väldigt mycket begränsningar också som AI har fortfarande. Men hur fort går det?

Magnus Boman: Ja, jag tror inte att det går fortare än det brukar göra. Jag tror att det är så att nu vet vi mer om framstegen och det beror bland annat på bättre journalistik och den här typen av poddar och att det finns många människor som gör en insats att få ut resultat så att folk vet att jaha, kan man behandla den här sjukdomen så här nu? Är den här medicinen godkänd nu och så vidare. Men det är ju också så att den här inkrementella utvecklingen, att AI blir lite bättre varje år har de senaste fem åren, skulle jag säga lett till flera genombrott. För det är ju så att man kan arbeta på ett problem som kanske egentligen kräver 50-60 år och det går långsamt, långsamt, långsamt och sen blir det ett slags catch-up effekt. Helt plötsligt så uppnår man till exempel en ackuratess som är tillräckligt hög för att en algoritm ska kunna användas på klinik och då ska ju den gå igenom alla typer av klassificering och märkning och tester och randomiserade studier. Men när den har gjort det så kan den ganska snabbt bli standard. Och vad vi arbetar med inom precisionsmedicin och AI tillsammans är att försöka korta tiden det tar innan någonting går från bra idé till användning på klinik och det går bra över hela världen egentligen. Att alla ser värdet av att de här processerna kan snabbas upp, så jag tror mer att det inte är att utvecklingen går fortare. Det är att vi får reda på mer om utvecklingen nu och att vi har uppnått vissa tröskelvärden på många områden samtidigt. Alpha Fold lyckades. Jag tror att det är 20 miljoner syntetiska proteinstrukturer som de har lagt ut och de här stora språkmodellerna som ligger under Chat GPT och så vidare har har uppnått en nivå där man inte längre skäms för att de gör fel. De gör fortfarande fel i runt 30 % av fallen. När när du pratar med GPT via Chat GPT så kan det vara bra att veta att 30 % ungefär i genomsnitt är bara hittepå.

Cecilia Odlind: Ganska mycket fel.

Magnus Boman: Det är jättemycket fel och man kan ju jämföra med feltolerans på en massa andra typer av teknisk utveckling där vi absolut inte skulle acceptera ett större fel än 1 %. Så fortfarande, även fast den gör 30 % fel så har den kommit över tröskeln där det är meningsfullt att prata med den. Och där den kan vara uppenbarligen användbar för människor som är väldigt bra på vad de gör och de kan se att det här är ett verktyg som jag kan använda. Och jag har hört flera kolleger säga att de har använt Chat GPT för att skapa sammanfattningar för sina forskningsansökningar och slutrapporter för stora forskningsprojekt. Just bara att skriva om deras egen text till en något mer begriplig form. Så istället för att vara för nördar och specialister så ska den kunna förstås av icke specialister och icke nördar. Och för oss forskare är det ofta svårt. Man kan tycka att det borde ju vara det lättaste ni gör, men det är inte så, utan det är också en förmåga man måste träna upp och då att få ett första förslag från en algoritm. Det är lite grann som när man ska triagera en patient att det blir lättare. Om man har fått det första förslaget så kan man bara rätta det som vid behov måste rättas till då.

Cecilia Odlind: Okej, du säger att det inte har gått fortare, men i slutet av mars var det flera AI experter som gick ut och sa att de ville pausa utvecklingen av stora AI system tills vi har gemensamma säkerhetsprotokoll på plats. Då tänker jag att det är något som går väldigt fort här och vi har inte kontroll. EU kommissionen har också tagit initiativ till en AI-Act för att se till att medborgarna ska känna trygghet med de digitala systemen. Och det här är pådrivet av en växande insikt om att inte alla AI system gör samhället bättre. Håller du med om det här?

Magnus Boman: Håller jag med om beskrivningen? Jag håller med om beskrivningen. Håller jag med om innehållet i manifestet? Nej.

Cecilia Odlind: Nej.

Magnus Boman: Jag anser att den här typen av manifest kan vara skadliga och att det dessutom är en väldigt naiv ståndpunkt som bortser från faktumet att mycket av den verkligt farliga AI användningen görs för militära tillämpningar där man alltså har autonoma robotar som är optimerade för att ha ihjäl människor så effektivt som möjligt. Och den finns inte framme i rampljuset på något vis, utan det vi kan se är spår. Vi kan få se en video på Youtube av en Robocop eller någon lite science fiction liknande robot som springer omkring. Och det kommer genast då andra parodifilmer och det kommer diskussioner om vilka problem det är som den här typen av robot skulle ha om den användes i en verklig krigssituation. Men parallellt med det, parallellt med de parodier och de invändningarna så så används redan AI teknik för militära tillämpningar. Och det finns många forskare som mycket tidigt, redan mitten på 80 talet varnade för att om vi någonstans ska ha begränsningar av teknikutveckling, så ska det vara när det gäller just militära tillämpningar. Så Manuel de Landa är ett exempel som skrev en fantastisk analys nu för 35 år sedan om vad händer om intelligenta robotar används vid krigföring. Och de blir mer och mer intelligenta och används för mer och mer krigföring? Och att i det ljuset säga att vi behöver ett sexmånaders moratorium på all möjlig AI utveckling känns för mig väldigt konstig. Sen ska jag säga att jag känner och respekterar många av dem som har skrivit under, så jag kritiserar inte de personerna för att de är oroliga. Jag kritiserar dem för att de tror att det här är sättet att hantera oron på.

Cecilia Odlind: Jag blev ju inte mindre orolig nu.

Magnus Boman: Det är bra. Jag vill att du ska vara orolig för intelligenta vapen. Därför att precis som att vi har enorma restriktioner när det gäller biokemiska vapen och kärnvapen, och att nästan alla människor på vår planet är överens om att det är någonting som är jätteviktigt för vår överlevnad så borde vi ha minst lika långtgående restriktioner för AI förstärkta vapen om man säger så.

Cecilia Odlind: Och det har vi inte?

Magnus Boman: Det har vi inte. Och du nämnde EU:s AI act. Donald Trump kan man ju prata om väldigt länge, men hans styre låg bakom motsvarande då EU:s AI act fast för USA och den var full av förbud och saker man inte fick göra. Medan EU:s variant är lite mer: om vi alla är schyssta mot varandra och inte bråkar så mycket så ska nog det här gå bra. Och det är jätteviktigt att alla tänker på miljön och tänker på varann och så. Och jag tillhör dem som har bloggat och twittrat och tyckt till om att en sådan här act inte är så användbar om den inte förbjuder något, utan att om den bara handlar om att vi ska vara kompisar så blir den mer av ett feelgood-dokument. Det blir inte någonting vi kan använda och definitivt inte någonting vi kan använda för att begränsa militär utveckling av AI teknik eller med hjälp av AI teknik som idag är helt i det fördolda. Det här måste fram och det måste granskas och det måste i stor utsträckning förbjudas. Annars så kan det gå mycket mer illa än vad Elon Musk och hans kompisar tror.

Cecilia Odlind: Okej, om vi återgår till det här med medicinsk forskning och hälsa. Kan dagens medicinska forskare tillräckligt om AI för att kunna dra nytta av den eller förhindra dålig eller oetisk forskning? Eller behövs det mer AI experter i medicinsk forskning och vård?

Magnus Boman: Ja, det var nästan flera frågor inbakade i en. Jag tror inte att en kliniker och någon som jobbar med vård i dag måste lära sig mer om AI för att kunna använda AI. Däremot så tror jag att det är väldigt viktigt att den här stegvisa utvecklingen och användningen av AI, att den sker på ett mångvetenskapligt sätt och att det är alla möjliga typer av experter inblandade. Och vi har nu en del människor som är duktiga på databehandling, automatisering AI och olika innovativa tekniker för att förbättra vården. De är inte tillräckligt många. Och det är inte någonting som jag tycker för att jag är en av dem. Det är klart att jag skulle kunna göra reklam för mig själv, utan det är så att jag vill ju anlita fler att jobba med hälsa av den enkla anledningen att det finns ingen tillämpning som är viktigare än hälsa. Hälsa och medicin är nummer ett. Och de jag får som kommer och jobbar med mig, med hälso- och vårdtillämpningar och med medicinsk teknik. De har insett det här och de tackar ofta nej till en mycket högre lön där de skulle göra någonting som är mindre meningsfullt. Och det kan ju finnas många anledningar till det. Och jag skulle önska att det fanns ett sätt att rekrytera fler som gjorde nytta därför att AI teknik är inte någonting som behöver nu personer som säljer eller pitchar eller övertygar, utan jag har kliniker som kommer till mig och vill ha olika utlåtanden om: Vad tror du om den här och att använda den här algoritmen för det här? Och kan vi testa med det här datat eller måste vi ta dubbelt så mycket data innan vi innan vi provar den här metoden och så? Jag skulle ju vilja klona mig själv. Och nu är jag här i Stockholm, men vi har ju personer som jag över hela landet och tittar vi internationellt så har vi det faktiskt nästan över hela världen. Samma situation. Vi har på Mayo Clinic. Senast jag hörde så hade de anställt 300 personer som kallades för Data Scientists. De är ju egentligen bara personer som resonerar utifrån datat som sjukhuset och tillhörande forskning har tillgång till. Och kanske att 300 är för många, kanske att 300 inte ens räcker. Vi i Sverige har inte möjlighet, naturligtvis på nåt sjukhus att anställa 300, men kanske tre eller kanske 30 på lite sikt.

Magnus Boman: Och det verkar som att alla är överens om att det behövs och vi har resultat som tyder på att det är värt det. Men det sker ju i ett väldigt komplicerat system, vårt vårdsystem. Och vår forskning runt det har otroligt många aktörer. Allt från briljanta enstaka individer till multinationella företag som har åsikter och anledningar till att vilja ändra på saker eller behålla dem precis som de alltid har varit så det är ett väldigt spännande ekosystem att vistas i. Att gå runt som ett litet djur av ett slag och sedan försöka klura ut alla andra arter och vem och vilka som beror av vem och vilka. Jättespännande!

Cecilia Odlind: Ja, vad bra! Vad forskar du själv om?

Magnus Boman: Jag gör kliniknära forskning. Så att jag lyssnar på klinikernas behov och deras problem och försöker hjälpa till att lösa dem. Det är företrädesvis inom precisionsmedicin. Så individanpassad vård där AI är ett steg att ensa alla dessa typer av data, att förena dem som kommer från olika håll för patientens bästa.

Cecilia Odlind: Man kan nästan bli lite trött på AI i dessa dagar. Det snackas om AI överallt. Blir du trött på AI?

Magnus Boman: Jag blir väldigt trött på AI. Jag är så gammal att jag har varit med om AI vinter för väldigt länge sedan och vet hur det är att har svårigheter att få intresse och forskningsmedel för AI utveckling. Och även att företagen har det svårt då. Och jag tänker att nu när det är både Chat GPT och det skrivs under olika manifest och det pratas väldigt mycket om det i populära sammanhang, att vi är i ett slags hajpsituation. Det är irriterande och delvis så hindrar det mig från mitt värv, att göra det som jag är bra på. Men samtidigt-

Cecilia Odlind: Hur då? Hur hindrar det dig?

Magnus Boman: Jag har många hattar på, men en av dem är professor och då har vi den här tredje uppgiften när man är professor. Man ska ju företräda sitt ämne och stå för forskning och så ska man ge undervisning. Men jag måste ju också ta min samhälleliga roll på allvar. Och om samhället oroar sig för AI, om samhället tänker att, kan vi inte bara lösa alla medicinska och hälsoproblem med hjälp av AI så är det mitt ansvar att reagera och lägga mig i den debatten. Därför åker jag till Almedalen någon gång och jag håller föredrag.

Cecilia Odlind: Pratar i en podd?

Magnus Boman: Jag pratar i en podd, jag föreläser för senioruniversitetet, jag förevisar robotar för förskolebarn. Det är en väldigt viktig del av att stanna i verkligheten tycker jag. Så även om det är irriterande. Om jag fick välja skulle jag kanske göra mindre av det. Jag måste ju svara på frågor som kommer från samhället.

Cecilia Odlind: Oron kan man säga?

Magnus Boman: Ja, och det kan väl nästan jämföras med Covid tröttheten, att vi känner ju nu och framförallt inom vården en enorm trötthet kring det. Jag får också konspirationsteoretiker som skickar mail till mig och säger "Du Magnus, nu tror jag att det är så här: Elon Musk tänker ta över Småland och han tänker göra det med hjälp av AI. Kan du som är professor förhindra detta? Det måste ske inom 24 timmar. Ring mig på det här numret snarast för mer information." Ja, det är ju ett offentligt mejl som jag måste besvara. Eller jag måste åtminstone reagera på det på något sätt. Så det är en del av verkligheten också. Och att vara expert för mig, det innebär ju att man ska kunna sålla agnarna från vetet. Så jag ska kunna se att det här är inte rimligt. Det här scenariot är inte rimligt. Och i dessa dagar när det talas om att Chat GPT är livsfarlig för den kan generera fejk science och så vidare, så kan det ju hända att mänskliga experter blir ännu viktigare då, så att vi kan hålla huvudet lite kallt och fokusera på det som är verkliga problem, inte pseudoproblem, och fokusera på verklig vetenskap, inte pseudovetenskap.

Cecilia Odlind: Men för det här att skilja mellan människa och maskin. Jag får en känsla av att du inte tycker det är ett stort problem och du verkar inte vara rädd för att det kommer att vara ett problem heller?

Magnus Boman: Nej, jag är inte rädd för det. Men redan Alan Turing på slutet av 40-talet blev hånad. Han hade kolleger som sade: unge Alan han tänker sig släppa ut robotar på landet i Storbritannien som ska skövla skog och ha ihjäl djur. Och allt möjligt fick han höra. Så det här är ju inget nytt. Men nej, jag tror inte att det är ett problem. Jag tror inte heller att det är ett problem att mycket av det som AI algoritmen gör i sina resonerande algoritmer, olika slutsatser som mjukvaran kommit fram till, att den behöver begripas av oss människor i alla lägen. För att framför allt inom medicin och vård så använder vi så mycket apparater redan som, vi förstår inte exakt hur den fungerar. Men det är inte det som är det viktigaste. Det viktigaste är att vi kan lita på dem så att de mäter och bedömer och visar upp resultat på ett sätt som är användbart för klinisk användning. Och AI är inte så speciellt. Jag kämpar lite emot science fiction, film, litteratur och konst som romantiserar AI. Men samtidigt så tycker jag att det är ganska underbart att se framför allt när man tittar på en 40 år gammal film om AI, och se att det är vissa saker som känns camp och väldigt förlegade. Men andra saker är faktiskt brännande ämnen. Till exempel Stepford wives. Det var väl Roman Polanski tror jag. En inte speciellt trevlig person, men en väldigt tänkvärd film från 70-talet där hemmafruar om jag minns rätt, blir förvandlade till robotar på ett väldigt obehagligt sätt. Och den är bara ett exempel av många på hur det går att med konst och med kreativitet illustrera den här spänningen mellan människa och maskin. Och mycket av det kan vi förstå på det viset. Man behöver inte personer som jag som älskar lärande algoritmer, som älskar att bli överraskad av min egen resonerande programvara. Oj, kan du göra det här nu? Nästan som att det vore en katt eller en hund. Så nej, jag tycker att det är härligt och irriterande på samma gång.

 

 

Cecilia Odlind
2023-06-09