Ingrid Lossius Falkum forskar på korleis ein snakkar og kommuniserer med andre. Noko ho er spesielt interessert i, er korleis KI og barn kommuniserer.
Ho lurer på kva barn tenkjer om informasjonen dei får frå KI og om dei tenkjer at det som blir fortald av språkmodellen stemmer.
Må alltid vere på vakt
Ingrid fortel at det som er så vanskeleg med KI no, er at dei er blitt så innmari gode. Derfor meiner ho at ein kan stole på veldig mykje av det som kjem ut av informasjon.
– Men ein må alltid vere på vakt, for det er stadig noko som ikkje er rett, seier ho.
Ho seier at bruk av KI krev at ein er mykje meir kritisk til kjelder.
– Viss KI seier noko som er heilt gale, eller ting ein ikkje kan stole på, så er det ikkje alltid så lett å vite, seier Ingrid.

Dette kan gjere at barn, og vaksne, kan gå rundt og tru på noko KI har sagt, sjølv om det ikkje stemmer.
– Dei gangane eg har brukt KI til å finne kjelder til forskinga mi, så syns eg det ikkje har vore så bra. KI kom med rare artiklar som eg ikkje fann, seier ho.
Liknar menneske, men KI tenkjer ikkje
Måten språkmodellar av KI, som ChatGPT og Snapchat sin MyAI fungerer, er at dei blir sett saman ved å gi utruleg mykje informasjon om korleis å formulere setningar.
Som mange datamaskiner, reknar språkmodellar. Dei brukar matematikk for å finne ut kva det neste ordet i setninga mest sannsynleg skal vere.
Dei tenkjer ikkje, men det kan vere veldig vanskeleg å skjønne forskjellen på maskin og menneske.
– Det kan jo få oss til å tru at det er noko menneskeleg som sit bak der, at det liknar så mykje på menneskespråk, det som kjem ut, seier Ingrid.
Det Ingrid tykkjer er urovekkjande, er at det er lett å bruke KI på ein skadeleg måte.
– Vi ser at folk i større grad skapar nære relasjonar til KI-modellar, seier ho.
Noko av det kan kanskje vere bra, meiner ho, men ho tykkjer det er skremmande om det erstattar kontakt med andre menneske.