Az magyarázható AI vagy az értelmezhető AI egy technika vagy szabálykészlet a gépi tanulási algoritmusok által előállított prediktív kimenet megértésére. A gépi tanulási modelleket gyakran „fekete doboz” megközelítésnek tekintik, amelyet lehetetlen megfelelően megérteni. Ha vakon egy gépi tanulási algoritmusra hagyatkozunk, a teljesítmény romolhat, és óriási veszteséget okozhat az üzleti beállításokban, mivel a képzési és tesztadatok eltérnek. Egyszerű problémák esetén előfordulhat, hogy a teljesítmény romlása nem sok hatással van, de a való életben megmagyarázható mesterséges intelligencia nagyszerű megmentő lehet. A megmagyarázható mesterséges intelligencia biztosítja, hogy megfelelően megértsük, mi történik a „fekete dobozban”, és hogy egyes AI-modellek miért jutnak el egy bizonyos döntéshez anélkül, hogy vak bizalmat tartanának a modellben. Így nagyobb bizalom és elszámoltathatóság érzése alakul ki.

A vállalkozásokban a lineáris modellekhez hasonlóan jobban értelmezhető modelleket preferálják, mint az együttes modelleket és a neurális hálózatokat, mivel a lineáris modelleket kényelmesebb értékelni, érvényesíteni és leírni egy olyan általános ember számára, aki nem kevés vagy nem ismeri az AI-t. Manapság a modellek egyre fejlettebbek és összetettebbek, így egyre nehezebb elmagyarázni, hogyan működnek. A modellértelmezés néhány közös jellemzője: az átláthatóság, az elszámoltathatóság és a könnyű érthetőség.

A modell értelmezhetőségét vagy magyarázhatóságát alapvetően kétféleképpen lehet osztályozni –

  1. Globális értelmezés – szélesebb perspektívára összpontosít, hogy megértse a modell működését. Előfordulhat, hogy a modell vizsgálatához szemrevételezéses megközelítésre van szükség, és nem megy bele a modell sokkal mélyebb aspektusaiba. Találhat egy fontos funkciót az előrejelzéshez, de nem megy tovább.
  2. Helyi értelmezés – Egy sokkal specifikus adatpontra helyezi a hangsúlyt, és megpróbálja kideríteni, hogy az előre jelzett kimenet miért viselkedett egy bizonyos módon egy meghatározott jellemző hatására.

A felügyelt gépi tanulás során a modell bemeneteket vesz fel, amelyekből kimenetet állít elő. Előfordulhat, hogy az adatok torzítanak, így megbízhatatlanok lesznek. Ennek eredményeként meg kell értenünk és el kell magyaráznunk, hogyan működik a modellünk, hogy támaszkodhassunk az előrejelzési értékek pontosságára. Már létezik néhány hagyományos módszer a magyarázhatóságra, amelyeket ismernek és alkalmaznak: adatelemzés, vizualizáció, modellértékelési metrikák stb. A legtöbb esetben ezek bizonyos korlátokkal rendelkeznek, és új könyvtárak és módszerek iránti igényt eredményeztek. igazán megmagyarázhatóvá teszi az AI-t.

Néhány új könyvtár vagy módszer a következő:

  1. LIME – A kutatók által kifejlesztett módszer az algoritmuson belüli dolgok átláthatóságának növelésére. Helyi értelmezhető modell-agnosztikus magyarázatként ismert, amely olyan modellt talál, amely lokálisan közelíti az eredeti modellt, hogy hűen írja le a bármely modell által előállított kimenetet, megmagyarázható módon. Bevezették az SP-LIME-ot is, egy speciális technikát, amely átfogó képet ad a modellről.
  2. SHAP – Shapley additív magyarázatoknak nevezik, ahol a Shapley-érték egy jellemző érték marginális hozzájárulásának átlaga az összes lehetséges koalícióhoz képest. A koalíciók olyan jellemzők kombinációi, amelyeket egy bizonyos jellemző alakzati értékének közelítésére használnak. Ez egy egységes megközelítés, és összekapcsolja a játékelméletet a helyi magyarázatokkal.
  3. ELI5 (Explain Like I am 5) – Ez egy Python-könyvtár a különböző gépi tanulási modellek megjelenítésére és hibakeresésére egységes API segítségével. Hatékony módot ad a fekete doboz modellek leírására, és beépített támogatással rendelkezik több ML keretrendszerhez.
  4. SKATER – Egységes keretrendszer a modellértelmezéshez minden típusú modellhez egy értelmezhető gépi tanulási rendszer felépítéséhez valós felhasználási esetekre. Nyílt forráskódú könyvtárként elérhető a pypi-ben, hogy felszabadítsa a fekete doboz-modell rejtett és tanult struktúráit lokálisan és globálisan egyaránt.
  5. DeepLIFT — Az egyes neuronokat aktiválási funkciói révén megkülönbözteti a referenciaaktivációs funkciójával, és hozzájárulási pontszámokat ad a különbségeik alapján. Megtalálható nyílt forráskódú python könyvtárként a pypi-ben.

Ezek a könyvtárak többnyire jellemző fontosságot, részleges függőség diagramokat, egyéni feltételes várakozási diagramokat használnak a kevésbé bonyolult lineáris modellek magyarázatára, mint például a lineáris regressziós döntési fák stb.

Írta: Salman Ibne Eunus