• Д-р Сринивас Падманабхуни

testAIng.com

В близкото минало има тенденция за допълване на сложни алгоритми за машинно обучение и дълбоко обучение с разширени обяснения за решенията, взети от сложните ML модели. Това понятие, наречено XAI Explainable AI, е скорошна тенденция, която се появи, за да се противопостави на критиките на сложните модели на AI, които вземат непрозрачни решения, които засягат ежедневието ни, като например диагностика на заболяване или вземане на решение за кредит.

Има няколко таксономии на подходите към XAI, независимо дали се основават на интерпретируемост срещу обяснимост, или специфична за модела срещу агностична обяснимост на модела и т.н.

Ще се задълбочим в измерението на подходите за обяснение, специфични за модела спрямо агностичен модел. Те се различават по отношение на това дали xai подходът използва спецификата на структурата на използвания ML модел или е независим от използвания ML модел. Доста аналогично на подходите на бялата кутия срещу черната кутия за тестване на софтуерни приложения. Подходите, специфични за модела, са с бяла кутия, докато агностичните на модела са подходи с черна кутия.

Подходите, специфични за модела, работят въз основа на детайлите на специфичните структури на модела за машинно обучение или дълбоко обучение, който се прилага. Тези техники се използват изрично за конкретна архитектура на модела, като например конкретен конволюционен мрежов модел CNN. Тези подходи използват вътрешността на модела на машинно обучение като невронната мрежа и използват подход на обратно инженерство, за да осигурят обяснения как конкретният DL или ML алгоритъм дава съответното решение

Предимствата на използването на модели, специфични за модела, е, че ни позволява да разберем по-задълбочено решението, като знаем вътрешната работа на модела, и ни помага да създадем по-персонализиран обясним модел. Обаче обратната страна на такива модели е необходимостта от преминаване през цели структури на модела, оставяйки го да компрометира производителността на модела, тъй като вие ще пресъздадете ML или DL модела. Някои от често срещаните специфични подходи към моделите за задълбочено обучение включват тези, базирани на деконволюция, която пресича пътя на CNN (който преминава от данните за изображението до крайния клас) в обратен ред (от крайния клас до оригиналното изображение, посочвайки специфични региони в изображението, които допринасят за решението). Разширенията на базираните на деконволюция подходи включват направлявано обратно разпространение, GRAD-CAM, Score CAM и Grad-CAM++.

От друга страна агностичните методи на модела не вземат предвид структурата на модела. Те могат да бъдат приложени към всякакви алгоритми за машинно обучение и да работят върху подхода на модела на черната кутия. Те получават обяснения чрез смущение и мутиране на входните данни и получаване на чувствителност на представянето на тези мутации по отношение на представянето на оригиналните данни. Те дават интересна представа за относително локализираната област на входа, което дава по-висока чувствителност.

Някои популярни агностични техники за модели, които са популярни в XAI, включват стойности на SHAPley и LIME. И двата подхода работят върху идеята за подход на черна кутия към XAI чрез смущаващи входни данни и не са специфични за какъвто и да е вид ML модел. Те могат да бъдат приложени към всеки ML модел. Модел-агностичните методи няма да повлияят на производителността на вашия ML модел и накрая не изискват обучение на модела.

Така че, когато става въпрос за модел на използване, специфичните методи са желателни, когато искате по-прецизни обяснения, като в случай на локализиране на медицинско изображение в здравеопазването и т.н. От друга страна, сценариите, при които ML моделите са скъпи модели, агностични методи са предпочитани за разлика от тях.

В случай, че и двете са възможни, препоръчително е да използвате комбинация от двете школи от техники, за да получите изчерпателно обяснение на решенията.

  • Д-р Сринивас Падманабхуни

testAIng.com