Egy modell általánosítási hibája három nagyon különböző hiba összegeként fejezhető ki: torzítás, variancia és irreducible error. Ez a blog bemutatja a torzítás/szórás kompromisszumot és a túlillesztést/alulillesztést.

Elfogultság és eltérés

Az általánosítási hiba torzítása téves feltevésekből adódik. A nagy torzítású modell valószínűleg alul illeszti a képzési adatokat. A szórás abból adódik, hogy a modell túlzottan érzékeny a képzési adatok kis változásaira. A sok szabadságfokkal rendelkező modell valószínűleg nagy szórással rendelkezik, és így túlilleszti a képzési adatokat. A visszafordíthatatlan hiba magának az adatnak a zajosságából adódik. A hiba ezen részének csökkentésének egyetlen módja az adatok törlése.

A modell összetettségének növelése általában növeli a varianciáját és csökkenti a torzítását. Ezzel szemben a modell összetettségének csökkentése növeli a torzítását és csökkenti a varianciáját. Ezért ezt kompromisszumnak nevezik.

Túl- és alulfitting

Általában nem tudjuk, hogy melyik függvény generálta az adatokat, ezért nehéz probléma, hogyan lehet megállapítani, hogy a modell túl- vagy alulillesztette-e az adatokat.

Ha egy modell jól teljesít a betanítási adatokon, de rosszul általánosít a keresztellenőrzési metrikák szerint, akkor a modell túlillesztése. Ha mindkettőn rosszul teljesít, akkor nem megfelelő. Egy másik módja annak, hogy megnézzük a tanulási görbéket: ezek a modell teljesítményét ábrázolják a betanítási halmazon és az érvényesítési halmazon a képzési halmaz méretének vagy a képzési iterációnak a függvényében. A diagramok generálásához tanítsa többször a modellt a tanítókészlet különböző méretű részhalmazain.

Ha a modell nem felel meg a képzési adatoknak, nem segít további képzési példák hozzáadása. Bonyolultabb modellt kell használnunk, vagy jobb funkciókkal kell előállnunk. A túlillesztési modell javítása érdekében több betanítási adatot táplálhatunk be, amíg az érvényesítési hiba el nem éri a betanítási hibát.