NTT DATA Business Solutions
Geir Balsnes | juli 10, 2023

Kunstig intelligens er farlig det!

 

Er du nysgjerrig etter å vite mer om utfordringene ved kunstig intelligens? Les med her hvor Geir Balsnes ser nærmere på potensielle risikoer og etiske implikasjoner forbundet med AI.

Det ukjente er skremmende! Da Solan Gundersen i Flåklypa testet en slags trehjuling med propell for å få hurtig transport oppdaget han at den var både uforutsigbar og farlig! Ludvig gjorde ham oppmerksom på hvor farlig det var! Solan og Ludvig er fiktive karakter og historien en fantasi. Da bilen kom bestemte man at det skulle gå en mann med et flagg foran for å varsle folk om «faren» som var på vei. Ja, historien står riktignok på internett, men den er ikke historisk korrekt. Vi vet at med alle de fordeler internett har brakt oss, må det vi finner fakta-sjekkes og kontrolleres før det brukes. I virkelighetens verden utviklet vi trafikkregler og skilt for å regulere trafikken, for å øke sikkerheten. Det samme må vi gjøre med kunstig intelligens.

ChatGPT imponerer! Vi fasineres over hvor kjapt den svarer og hvor riktig mange av svarene er. Og vi ser at dette er et verktøy som vil spare tid. Samtidig er det ukjente skremmende, og vi roper på regulering. Daglig leser vi skrekkscenarier om kunstig intelligens i media. Noen vil til og med trykke på pauseknappen til vi er blitt enige om hvordan vi skal regulere verktøyet. Ja, vi må tenke personvern, ulovlig innhold og misbruk, desinformasjon og falske nyheter, tap av arbeidsplasser, avhengighet og isolasjon – men for å være ærlig – dette er da ikke nye problemstillinger som kom med kunstig intelligens!

Forbud og streng regulering er ikke veien å gå! Vi må øke egen kunnskap om verktøyet, bli dyktige på å bruke det. Det er fint at vi diskuterer hvordan vi kan legge inn etiske retningslinjer i modellene slik at disse blir en del av løsningen. Danmark har allerede utviklet en strategi for kunstig intelligens som inkluderer etiske retningslinjer. De har også nedsatt et etisk råd for kunstig intelligens som skal gi veiledning om etiske problemstillinger. Det består av eksperter innen mange fagområder og har fokus på personvern, diskriminering, ansvar og rettferdighet.

Hva har vi gjort i Norge? Jo, her snakker vi om hvor farlig kunstig intelligens kan være hvis det misbrukes. La oss komme i gang. Vi må bli gode på å bruke kunstig intelligens, og selvsagt ikke sluke alt som spys ut rått. La oss komme oss ut av startblokka!

Eksempler på fornuftige modeller og gode løsninger innen kunstig intelligens blir etter hvert flere. Fellesnevner for de som er gode er at de inkluderer et faktabasert datagrunnlag. De inkluderer verifiserte datakilder, retningslinjer (som for eksempel GDPR), etiske retningslinjer og kontrollrutiner som bygger på kunstig intelligens. Til sammen vil dette gi gode resultater slik at kunstig intelligens blir tryggere og vi kan få full effekt av det fantastiske verktøyet det er.

Jeg mener denne tilnærmingen vil være sikrere enn mye av det vi ser i «fake news-verdenen» som vi lever i. Vi skal ikke sette noe på pause, vi skal gyve løs og bli skikkelig gode på å bruke kunstig intelligens riktig.