Strona główna - Komisja Nadzoru Finansowego

Czy roboty śnią o zielonych bankach? Rola sztucznej inteligencji w sprawozdawczości zrównoważonego rozwoju i zarządzaniu ryzykami ESG banków

Data aktualizacji:

Artur Mika – Ekspert w Departamencie Bankowości Komercyjnej

Obecnie w Unii Europejskiej jest obserwowana kontynuacja makrotrendu w zakresie uproszczeń regulacji, w tym dotyczących zrównoważonego rozwoju, w obliczu dążenia do wzrostu konkurencyjności unijnej gospodarki. Pomimo nowelizacji przepisów pod tym kątem, w szczególności przewidzianej w ramach pakietu „Omnibus I”, regulacje takie jak Dyrektywa w sprawie sprawozdawczości przedsiębiorstw w zakresie zrównoważonego rozwoju (CSRD), Rozporządzenie ws. „Taksonomii UE” czy Wytyczne EBA/GL/2025/01 Europejskiego Urzędu Nadzoru Bankowego w sprawie zarządzania ryzykami środowiskowymi, społecznymi i z zakresu ładu korporacyjnego (ESG), nadal powodują dla banków konieczność pracy z ogromnymi zbiorami danych pochodzącymi z wielu różnorodnych, a do tego rozproszonych źródeł oraz przetwarzania ich pod presją. Dlatego zastosowanie rozwiązań opartych na systemach AI w sprawozdawczości zrównoważonego rozwoju banków oraz szerzej – w zarządzaniu ryzykami ESG – może przynieść znaczące korzyści.

Po pierwsze, jedną z nich jest agregowanie danych z różnych źródeł oraz systemów, a także zawartych w odmiennych – w tym również nieustandaryzowanych – formatach (np. skany w plikach pdf, pliki Excel). Dla przykładu może to dotyczyć danych o śladzie węglowym portfela kredytowego. 

Po drugie, dane dotyczące ryzyk ESG oraz zrównoważonego rozwoju, dzięki zastosowaniu AI, są nie tylko pozyskiwane z wielu źródeł, ale także analizowane w sposób zautomatyzowany, tzn. bez bieżącej ingerencji człowieka w ten proces. Użyteczne w tym zakresie jest zastosowanie narzędzi umożliwiających przetwarzanie języka naturalnego, dzięki czemu możliwa jest rozszerzona analiza danych niefinansowych, w tym raportów kredytobiorców korporacyjnych, np. pod kątem emisji gazów cieplarnianych z tzw. „zakresu 3”. Dzięki temu sztuczna inteligencja niewątpliwie przyczynia się do dbałości o wysoką jakość danych w zakresie zrównoważonego rozwoju. 

Po trzecie, dzięki zastosowaniu AI w sprawozdawczości „sustainability” zredukowane jest ryzyko błędów ludzkich, np. występujących przy manualnym wypełnianiu arkuszy sprawozdawczych. Dodatkowo narzędzia AI mogą umożliwić wychwytywanie niespójności danych, jak również występujących w nich luk oraz niejednolitych formatów, a także „flagowanie” tych kwestii jako wymagających weryfikacji. Co więcej omawiane narzędzia mogą być stosowane także do automatycznego uzupełniania tych luk, szczególnie poprzez stosowanie oszacowań i przybliżeń („proxies”), w tym np. w zakresie emisji gazów cieplarnianych z zakresu 3.

Po czwarte, sztuczna inteligencja może być użyteczna również w zastosowaniu jej do modelowania ryzyka klimatycznego oraz przeprowadzania analiz scenariuszowych, jak również testów warunków skrajnych, co umożliwia w szczególności zbadanie potencjalnego wpływu materializacji różnego typu scenariuszy klimatycznych na portfel banku w długim okresie.  

Po piąte, AI może znaleźć zastosowanie w detekcji zjawiska pseudoekologicznego marketingu („greenwashingu”) wśród klientów korporacyjnych banków, którego przejawy mogłyby nie zostać wychwycone przez analityków, co może wynikać w szczególności z ogromnej ilości, jak też rozproszenia danych niefinansowych, których manualna weryfikacja byłaby niemożliwa. 

Po szóste, ze wsparciem AI możliwe jest tworzenie interaktywnych „dashboardów” umożliwiających analizę wskaźników ESG w czasie rzeczywistym. 

W praktycznym kontekście zarządzania bankiem, w świetle wszystkich przytoczonych korzyści, musi pojawić się także refleksja nad ryzykami oraz wyzwaniami związanymi z zastosowaniem przez banki (i szerzej – przedsiębiorstwa w ogóle) sztucznej inteligencji w raportowaniu z zakresu zrównoważonego rozwoju oraz zarządzaniu ryzykami ESG.

Pierwszym z nich jest tzw. „problem czarnej skrzynki” („black box”), co oznacza, że w relacjach banku z jego interesariuszami mogą pojawiać się trudności związane ze zrozumieniem oraz wyjaśnieniem przez podmiot wyników analiz wygenerowanych przez AI. W specyfice działalności banków hipotetycznym przykładem materializacji takiego ryzyka może być sytuacja, w której bank do analizy ryzyka fizycznego nieruchomości (np. ryzyka powodzi) używa modelu głębokiego uczenia („deep learning”) operującego na danych na temat nieruchomości stanowiących zabezpieczenie kredytów. Model ten, dla przykładu, przyczynia się do obniżenia oceny dla danej liczby domów jednorodzinnych, przypisując im wysokie ryzyko powodzi, wobec czego bank powinien zwiększyć zabezpieczenie kapitałowe na to ryzyko. Sytuacja ta jest przykładem „problemu czarnej skrzynki”, ponieważ model AI może nie być w stanie transparentnie wyjaśnić działania własnych, skomplikowanych algorytmów, a jedynie może podać procentową wartość prawdopodobieństwa materializacji ryzyka powodzi.

Innym hipotetycznym przykładem „problemu black box” może być sytuacja, w której bank stosujący wspomagająco AI w procesie oceny potencjalnego kredytobiorcy odmawia klientowi „zielonego kredytu” na energooszczędny dom, a doradca bankowy nie jest w stanie uzasadnić klientowi oceny przeprowadzonej ze wsparciem sztucznej inteligencji.

Kolejne potencjalne wyzwanie związane z zastosowaniem sztucznej inteligencji w raportowaniu zrównoważonego rozwoju banków to znana w informatyce zasada „garbage in, garbage out” (GIGO), czyli „śmieci na wejściu, śmieci na wyjściu”. Jest ona istotną przestrogą, która może dotyczyć także raportowania zrównoważonego rozwoju przez banki. Zgodnie z nią, nawet jeśli stosowany model AI będzie drogi i bardzo zaawansowany, może on wygenerować błędny raport, jeśli dane wejściowe będą charakteryzowały się niską jakością. Innymi słowy, jeśli dane pochodzące od klientów banków będą błędne lub będą miały braki, błędy te mogą zostać powielone przez sztuczną inteligencję.

Jeśli np. kredytobiorca, który jest małym lub średnim przedsiębiorstwem, w ankiecie ESG kierowanej do niego przez bank poda jedynie szacowane „na oko” zużycie energii  albo omyłkowo wykaże tę daną w kilowatogodzinach zamiast megawatogodzin, model AI może przyjąć to jako fakt i w konsekwencji wyliczyć zawyżony ślad węglowy portfela kredytowego.

Potencjalnym problemem jest również to, że do uczenia się modeli sztucznej inteligencji są stosowane dane historyczne, które np. 10 lat wstecz mogą być niekompletne, pozyskiwane z użyciem różnorodnych metod albo wręcz w ogóle mogą nie być dostępne. W hipotetycznej sytuacji, w której model AI prognozuje ryzyko klimatyczne, brak klęsk żywiołowych w danym regionie w przeszłości nie musi oznaczać braku ryzyka ich wystąpienia w przyszłości, a jednak model AI może ocenić takie ryzyko jako niskie, kierując się danymi historycznymi.

Manifestacja „efektu GIGO” może również polegać na tym, że banki niejednokrotnie kupują bazy danych od dostawców zewnętrznych, aby uzupełnić luki danych o klientach, którzy nie raportują zrównoważonego rozwoju. Bazy te mogą zawierać dane oparte na  ogólnych średnich sektorowych (np. średnia emisja dla transportu w Polsce), a nie na realnych danych. Danymi uśrednionymi następnie posługuje się AI. W konsekwencji bank może finansować firmy, których działalność znacząco odbiega od celów zrównoważonego rozwoju, będąc przekonanym, że mieszczą się one w wartościach średnich dla danej wielkości. Z punktu widzenia banków może to wiązać się także z ryzykiem nieświadomego „greenwashingu”, a z drugiej strony – np. z odmawianiem finansowania „zielonemu” przedsiębiorstwu błędnie ocenionemu przez AI.

Dodatkowo „efekt GIGO” może być związany ze zjawiskiem „automation bias” („błąd automatyzacji”), czyli ze zjawiskiem psychologicznym, w którym człowiek pokłada nadmierną ufność w sugestie wygenerowane przez sztuczną inteligencję, nie polegając przy tym na własnej wiedzy, logice czy informacjach pochodzących z otoczenia. Warto więc podkreślić, że odpowiedzialność za jakość danych wejściowych jest odpowiedzialnością banku i jego pracowników, a nie samej sztucznej inteligencji.

Wreszcie kolejne ryzyko może być związane z bezpieczeństwem danych, w szczególności gdy narzędzia opierające się na sztucznej inteligencji tworzą luki bezpieczeństwa, narażając dane  banków i ich klientów na wycieki. Zagrożenie to może ponadto wynikać z cyberataków (także wspomaganych przez AI). Do przetwarzania dużych baz danych obecnie wykorzystywani są (ze względu na ograniczenia mocy obliczeniowej) dostawcy usług chmurowych, co przenosi ryzyko związane z ochroną tych informacji do ryzyk związanych z chmurą obliczeniową.

Oprócz wspomnianych wyzwań związanych z zastosowaniem sztucznej inteligencji w raportowaniu zrównoważonego rozwoju banków oraz zarządzaniu ryzykami ESG, należy mieć także na uwadze dodatkowe aspekty.

Po pierwsze, koszt wdrożenia oraz utrzymywania AI w zgodzie z obowiązującymi przepisami (w szczególności unijny „AI Act”1) jest wysoki zarówno dla podmiotów wprowadzających systemy na rynek, jak i podmiotów, które z nich korzystają.

Po drugie, ze stosowaniem AI do sprawozdawczości ESG jest niewątpliwie związany paradoks polegający na tym, że modele sztucznej inteligencji oraz centra danych używane do raportowania celów środowiskowych są wysoce energochłonne. 

Jakie działania mogą zostać podjęte, aby banki zmitygowały te ryzyka?

Jedną z metod jest stosowanie tzw. XAI („Explainable Artificial Intelligence”), czyli „wyjaśnialnej sztucznej inteligencji”, która używa metod oraz technik pozwalających zrozumieć interesariuszom powody, dla których dany model AI podjął konkretną decyzję lub wygenerował dany wynik. XAI jest zatem środkiem zaradczym dla „problemu czarnej skrzynki”. 

Innym takim środkiem zmniejszającym ryzyka związane z AI może być „data cleaning”, czyli weryfikacja danych wejściowych poprzez reguły sprawdzające, czy mieszczą się one w logicznych przedziałach, jak również weryfikacja krzyżowa (konfrontacja danych pochodzących od klientów banków z danymi rynkowymi), czy wreszcie audyt nie tylko wyników wygenerowanych przez model AI, ale także danych wejściowych. W tym kontekście na podkreślenie zasługuje także to, że wdrożenie XAI będzie wymagane przez „AI Act” dla systemów wysokiego ryzyka, do których zalicza się m.in. systemy do przeprowadzania oceny zdolności kredytowej osób fizycznych lub ustalenia ich scoringu kredytowego w instytucjach finansowych2

W świetle wspomnianych wyzwań związanych z zastosowaniem sztucznej inteligencji w raportowaniu zrównoważonego rozwoju oraz zarządzaniu ryzykami ESG w bankach wyłania się (optymistyczna) konkluzja – człowiek nadal jest potrzebny i o ile AI może być istotnym odciążeniem operacyjnym banków, o tyle wyniki działań sztucznej inteligencji nadal wymagają ludzkiego nadzoru, w szczególności, jeśli mają być włączane do ich procesów decyzyjnych. 

W tym kontekście w praktycznym zarządzaniu obszarem ESG w instytucjach finansowych optymalnym rozwiązaniem wydaje się koncepcja Human-in-the-loop (HITL)3, czyli podejście hybrydowe w systemach AI, w którym człowiek jest aktywnie włączony w proces decyzyjny, a także nadzoruje, koryguje i weryfikuje wyniki działania algorytmów (dzięki czemu modele również się uczą), zamiast pozostawiać AI pełną autonomię.

______________________
Art.13 i 14 Rozporządzenia Parlamentu Europejskiego i Rady UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji).
Recital 58 „AI Act”.
Por. D.A. Carlin, „Keeping humans in the loop: Why AI needs oversight in ESG reporting”, w: „Ethical Corporation Magazine”, January-February 2026, str.41.