Kunstig intelligens i norske pasientjournaler –når maskinene hallusinerer. 

"Vår tro på at KI-modeller bare blir bedre når vi forer dem med mer data, er feil."

DÅRLIGERE RESULTATER: Forskning viser at kunstig intelligens er utsatt for feil som gjør at beslutninger blir dårligere etter hvert.

Vår tro på at KI-modeller bare blir bedre når vi forer dem med mer data, er feil.

[…] Faren for forverring av KI-modellers nøyaktighet etter innføring har vært kjent blant teknologer en stund. Der er tre typer feil som kan oppstå: konseptdrift, datadrift og hallusinasjoner.

  • Hallusinasjoner oppstår når KI feiltolker dataene den mates med. Hallusinasjoner kan oppstå når KI blir overtrent på spesifikke datasett, eller når den møter uventede mønstre eller endringer.
  • Konseptdrift oppstår når egenskapene til dataene som brukes til å trene KI-modeller endres over tid, ved endringer i pasientpopulasjonen, diagnostikk eller behandling.
  • Datadrift oppstår når egenskapene til dataene som mates inn i KI-systemet, endres over tid, ved endringer i innsamling, kvalitet eller lagring av data.

Les hele artikkelen her:

https://www.dagensmedisin.no/kunstig-intelligens-i-norske-pasientjournaler-nar-maskinene-hallusinerer/596947

Flere artikler

Send Us A Message