Kunstig intelligens, baseret på dybe neurale netværk, oplever enorm succes. Men hvornår kan denne type AI bruges og ikke bruges til, at løse problemer i den virkelige verden? Vi ser nærmere på datagrundlagets og designets betydning for bias mv.
I denne online workshop ser vi på, hvorfor højrisiko AI-systemer skal designes på en måde, der sikrer en tilstrækkelig gennemsigtighed, så brugerne kan forstå systemets output og herved undgå uetiske forudsigelser eller anbefalinger, baseret på uønsket menneskelig bias og andre faldgruber.
Med 'højrisiko' forstås AI-systemer som har en indvirken på mennesker direkte eller indirekte, men det kunne også ses i en bredere kontekst ift. forretningskritiske løsninger som bruges mange steder i det offentlige, men også i den finansielle sektor, energiforsyning osv.
Workshoppen vil desuden reflektere over den kommende EU-regulerings betydning for arbejdet med AI, og hvordan mere troværdig kunstig intelligens kan opnås ved, at bruge den nyeste forskning og relaterede forklarlige AI-teknologier.
I løbet af workshoppen lægges der op til åben debat omkring emnerne. Moderator er Henrik Føhns.
Om oplægsholderen:
Peter Damm er Forskningsdirektør i R&D i KMD og gæsteforelæser inden for Troværdig AI og Data etik på CBS og Aarhus Universitet. Peter og KMD har gennem forskningsprojektet EcoKnow arbejdet med AI på beskæftigelsesområdet og har sammen med Professor Thomas Hildebrandt fra Københavns Universitet undersøgt hvorledes AI kan understøtte sagsbehandling på en troværdig og etisk korrekt måde. Samtidig arbejder Peter og R&D tæt med KMDs ejere NEC og deres 7 forskningslaboratorier rundt i verden for at udvikle selvforklarende AI systemer som øger tilliden og troværdigheden
- Tags
-