DÅRLIGERE RESULTATER: Forskning viser at kunstig intelligens er utsatt for feil som gjør at beslutninger blir dårligere etter hvert.
Vår tro på at KI-modeller bare blir bedre når vi forer dem med mer data, er feil.
[…] Faren for forverring av KI-modellers nøyaktighet etter innføring har vært kjent blant teknologer en stund. Der er tre typer feil som kan oppstå: konseptdrift, datadrift og hallusinasjoner.
- Hallusinasjoner oppstår når KI feiltolker dataene den mates med. Hallusinasjoner kan oppstå når KI blir overtrent på spesifikke datasett, eller når den møter uventede mønstre eller endringer.
- Konseptdrift oppstår når egenskapene til dataene som brukes til å trene KI-modeller endres over tid, ved endringer i pasientpopulasjonen, diagnostikk eller behandling.
- Datadrift oppstår når egenskapene til dataene som mates inn i KI-systemet, endres over tid, ved endringer i innsamling, kvalitet eller lagring av data.
Les hele artikkelen her: