46 / 78
AMNYTT NR . 2 2025
Når KI står på agendaen kan datastrømmene i automatiseringssystemene øke – ta høyde for dette ( Bilde : Gassco ).
alarmer brukes til å oppdage forfalskning og sikre at leverandører overholder regelverket
A : I hvilken grad kan vi stole på KI i alarmsystemer ? Hvor viktig er menneskelige faktorer / operatører for å kvalifisere informasjon generert av KI ? S : Pålitelig KI er en tilnærming til KI-utvikling som prioriterer sikkerhet og åpenhet for folk som samhandler med det . Pålitelighet er knyttet til fire mulige bekymringer :
• Åpenhet , dvs . åpenheten til systemets funksjon , formål og begrensninger .
• Forklarbarhet , dvs . hvordan og hvorfor systemet gir spesifikke utfall .
• Ansvarlighet , dvs . ansvaret for systemets handlinger og resultater .
• Menneskelig autonomi , dvs . bevaring av individers frihet til å ta valg og kontroll av resultater .
De fire begrepene henger sammen . Åpenhet er nødvendig for forklaring , ansvarlighet er avhengig av åpenhet og forklarbarhet , og menneskelig autonomi støttes av åpenhet og forklarbarhet . Dermed ser vi at åpenhet og forklarbarhet er sentralt for en KI som forbedrer de menneskelige aktivitetene .
Skreddersøm Forklarbarhet , også kalt XAI , er et komplekst område . De mange XAI-tilnærmingene er fortsatt teknologisentrerte og klarer ikke å imøtekomme bekymringene til menneskelige brukere og mangfoldige interessenter knyttet til KI-systemene . Forklaringsmetoder trenger forbedringer som gjør dem forståelige , pålitelige og verdifulle for interessentene . Ulike roller og mål påvirker behov for forklaring . For eksempel , mens utviklere av KI-løsninger må forstå interne mekanismer for å spore feil og forbedre KI-modeller , må sluttbrukere kjenne til usikkerheten i prediksjonene og kontrollere tilhørende logikk . Andre interessenter som reguleringsorganer , industriledere ( og beslutningstakere ), og påvirkningsgrupper ( f . eks .