Forskere kan ikke replikere AI-forskning, og det er et alvorligt problem

På et møde for nylig foreningen til fremme af kunstig intelligens præsenterede videnskabsmand Odd Eric Gundersen en rapport, hvis essens er, at industrien kører sig selv ind i en farlig blindgyde. Det viser sig, at de fleste af de eksisterende AI'er ikke understøtter det grundlæggende princip for replikering (reproducerbarhed) af deres egne handlinger. Og der er to grunde til dette, hvis løsninger endnu ikke ses.

Replikering betyder i dette tilfælde at få de samme resultater fra AI-arbejde, når du indstiller identiske opgaver. Brugeren ønsker at være sikker på, at styresystemet på sin bærbare computer eller atomreaktor fungerer ikke kun effektivt, men også forudsigeligt. Indtil videre er alt begrænset til meget enkle, stereotype opgaver, som det er, men vi ser allerede begyndende afvigelser i arbejdet med virkelige systemer.

Den første grund: alle moderne AI'er lærer konstant og ændrer deres måde at arbejde på, taktik og strategi. De bliver individuelle, og det er grunden til, at de er tvunget til at blive omskolet til at arbejde under nye forhold. Men dette er ekstremt vanskeligt at implementere af den anden grund - kildekoden, algoritmerne til drift af næsten alle systemer er lukket af deres udviklere.

Gundersens rapport angav, at ud af 400 AI'er, der blev præsenteret for samfundet i løbet af de sidste to år, kun 6% af algoritmen, der kunne dekrypteres og undersøges. Færre end en tredjedel af programmerne understøttede mellemliggende data, hvilket gjorde debugging og tuning utrolig vanskelig. Gundersen anerkender forfatterne til AI-algoritmer til at holde deres intellektuelle arbejde hemmelige, men opfordrer alle til at tænke over at begynde at arbejde sammen. Ellers ser fremtiden for AI meget tåget ud.