Stordata – din personlige opplevelse

Personifisering og effektivisering på bekostning av personvern og demokrati? Ikke ifølge førsteamanuensis Heri Ramampiaro.

Publisert Sist oppdatert

I dagens høyteknologiske samfunn kan alt du gjør og foretar deg bli lagret som opplysninger. Den enorme økningen i data, tilgangen til opplysningene, og automatiseringen av informasjonen gir en rekke utfordringer. Førsteamanuensis Heri Ramampiaro ved Institutt for datateknologi og informatikk ved NTNU ser løsningene.

– Vi er nødt til å vite mest mulig om brukeren for å få gode anbefalingssystemer. Det forhindrer uønsket spam og effektiviserer brukeropplevelsen, forteller Ramampiaro.

Skrikes etter forskning

Stordata, fra engelsk «big data», er et relativt nytt begrep. Det omfavner de enorme mengdene med digital data som ulike selskaper, organisasjoner, og myndigheter lagrer. Dette er opplysninger som kan bli gjort om til gjenstand for analyser ved bruk av algoritmer. Innenfor dette fagfeltet utøver Ramampiaro sitt arbeid.

– Med de enorme mengdene med data som produseres når en bruker digitale verktøy, er det så lite som fem prosent av dataen som er mulig å utnytte i dag. Det gjør at det skrikes etter forskning og teknologi som kan analysere og tolke opplysningene, sier Ramampiaro.

Det er vanskelig å finne noen konkret definisjon på hva stordata er og inneholder. En mulig beskrivelse er de fire V-ene: volum, fart (på engelsk «velocity»), variasjon og kvalitet (på engelsk «veracity»). Til sammen utgjør de verdien av dataen som det kan trekkes slutninger fra.

– Volumet står for mengden, og farten beskriver hastigheten for hvor fort data produseres. Opplysningene som genereres varierer i ulike format og type.

Hvilke data som lagres varierer ut ifra bruksmønstre. De som bruker teknologiske verktøy daglig gir derfor fra seg mer informasjon som kan analyseres, men det er ikke nødvendigvis all data som bør brukes.

– Om en bruker lar smart-tven stå på hele dagen uten at en fysisk ser på, og man trekker slutninger om at alle programmer var like gode, vil det påvirke kvaliteten av analysen, forklarer Ramampiaro.

– Vi kan løse samfunnsproblemer

Forskningen på stordata og mulige analyseverktøy er svært komplekst. Store selskaper lagrer og analyserer egne data, men de samarbeider også på tvers av ulike fagfelt og institusjoner.

– Facebook, Twitter, og Google er eksempler på selskaper som lagrer brukeropplysninger. På NTNU samarbeider vi med forskningsavdelingen ved Telenor, men de er svært strenge med hvilke opplysninger vi får tildelt. Innad i Telenor må man få klarering fra den juridiske avdelingen og deres Business Unit før opplysningene kan bli brukt til forskning, sier Ramampiaro.

Det finnes også andre samarbeidsprosjekter rundt temaet stordata. Et masterprosjekt ved NTNU, i samarbeid med norsk pasientregister og leger ved St. Olavs hospital, har som formål å hjelpe til med å diagnostisere pasienter. Det gjøres ved å utvikle analyseverktøy som predikerer sykdom og skader.

– Med teknologien som utvikles kan vi løse ulike samfunnsproblemer. Vi slipper feildiagnostisering og kø i helsevesenet, kan redusere strømforbruk og utslipp basert på ulike mønstre, og unngår spam på nettet, sier han begeistret.

Viktig med åpenhet

Innenfor medievitenskapen er det naturlig å skille mellom de som mener at det er menneskene som påvirker teknologien, og de som mener teknologien har en lineær utvikling og at den heller påvirker oss. I begge retninger kan man finne teknologioptimister og -pessimister. Senior data scientist Kenth Engø-Monsen ved Telenor Research beskriver seg selv som en grunnleggende teknologioptimist.

– Man har et behov for infrastruktur og analyseverktøy som gjør en i stand til å håndtere dataene. Stordata og kunstig intelligens er et hjelpemiddel for oss mennesker, forteller Engø-Monsen.

Hvordan dataen benyttes, og hvem som kan benytte den, er et viktig spørsmål. For å beholde et godt rykte og tillit hos brukerne er det ifølge ham viktig med transparens og åpenhet.

– Personvern handler ikke kun om alt man ikke kan gjøre, men også om hva man kan finne ut av når en slår sammen data og anonymiserer den. Det viktigste er gode hypoteser og spørsmål for å gi innsikt, påpeker Engø-Monsen.

Et mulig demokratisk underskudd

Et annet spørsmål man kan stille er hvilke begrensninger som oppstår når algoritmer innføres som et resultat av forskning på stordata. De este har opplevd at Facebook forteller deg hva du ønsker å se. Lærer Eva Bøhn ved Fræna vidaregåande skole er skeptisk til utviklingen.

– Hvis du kun leser nyheter og informasjon på nett, er det algoritmer som gir forslag til hva du skal lese basert på tidligere bruksmønstre. Du lærer trolig ikke noe utenfor det du allerede vet og er enig i. Da kan det oppstå det som kalles for et demokratisk underskudd, mener Bøhn