Grupa Robocza ds. Technologii Rady Międzynarodowych Standardów Etycznych dla Księgowych (IESBA) opracowała raport dotyczący krajobrazu technologicznego w szczególności związanego ze sztuczną inteligencją (AI – Artificial Intelligence). Raport przedstawia i podsumowuje trendy, możliwości, skutki i ryzyka powiązane z etycznymi implikacjami najnowszych technologii związanych z AI.
Interesariusze zauważają, że najbardziej powszechne, wyłaniające się technologie to:
- robotyzacja procesów technologicznych (RPA),
- sztuczna inteligencja (w tym inteligentny proces automatyzacji (IPA)),
- bezpieczeństwo cybernetyczne (w tym dane dotyczące prywatność) oraz
- blockchain.
Zauważono, że absorpcja technologii związanych ze sztuczną inteligencją i blockchainem przez organizacje jest wolniejsza niż oczekiwano i mniej efektywna niż to powinno wynikać z szerokiego rozgłosu tych technologii. Na podstawie ankiet i analiz badawczych można stwierdzić, że dla większości organizacji skuteczne wdrożenie tych technologii jest trudne ze względu na fragmentację procesów, alokację zasobów w inne priorytety, trudności w ustaleniu celowości biznesowej (na przykład brak zrozumienia zwrotu z inwestycji w technologię lub przekonania, że zwrot z inwestycji jest zbyt wolny) oraz ogólny brak dojrzałości organizacji i wynikające stąd niezrozumienie technologii.
Niemniej jednak zaobserwowano przyspieszone wdrażanie technologii transformacyjnych – szczególnie w ciągu ostatnich kilku lat, często połączone z procesami mającymi na celu złagodzenie problemów związanych z pandemią COVID 19 – takich jak robotyzacja procesów technologicznych, przetwarzanie danych w chmurze, narzędzia do wsparcia dostępu i pracy zdalnej pracy oraz kwestie bezpieczeństwa cybernetycznego.
Obecny stan zaawansowania rozwoju IT
Sztuczna inteligencja łączy informatykę i solidne zbiory danych i naśladując ludzką inteligencję umożliwia maszynie rozwiązywanie problemów i podejmowanie decyzji. Dzisiejsza sztuczna inteligencja jest uważana za stosunkowo „wąską” lub „słabą”, gdyż maszyna skupia się na wykonaniu specyficznych zadań i stosunkowo powszechne są aplikacje internetowe wykorzystujące sztuczną inteligencję. Przykładami mogą być asystenci cyfrowi, systemy zadawania pytań i uzyskiwania odpowiedzi w języku naturalnym, narzędzia do analizy danych medycznych, narzędzia statystyczne i predykcyjne, modele językowe generujące tekst oraz pojazdy autonomiczne na wczesnym etapie rozwoju. Inżynierowie i naukowcy zajmujący się sztuczną inteligencją dążą do stworzenia „ogólnej sztucznej inteligencji” lub „silnej sztucznej inteligencji”, która będzie posiadać zdolności poznawcze podobne do ludzkich. O ile takie systemy sztucznej inteligencji są nadal teoretyczne i nie mają zastosowania, sztuczna inteligencja będzie się rozwijać w tym kierunku.
Przyszły cel rozwoju IT
W miarę jak systemy sztucznej inteligencji staną się bardziej wyrafinowane i złożone, powstanie wysokie ryzyko, że będą mniej zrozumiałe, jeśli chodzi o sposób, w jaki oceniają dane i osiągają wyniki, a ich decyzje staną się mniej przejrzyste. PwC zauważa w swoim opracowaniu:
Głównym wyzwaniem jest to, że wiele aplikacji AI korzystających z uczenia maszynowego działa w ramach czarnych skrzynek, umożliwiając niewielki lub o ile w ogóle dostrzegalny wgląd w sposób, w jaki AI osiągnęła określone wyniki. W przypadku stosunkowo łatwych aplikacji, takich jak umożliwiające podejmowanie decyzji w intrenecie, np. system rekomendacji w handlu detalicznym, mimo iż ich algorytm jest nieprzejrzysty, zapewnia optymalne podejście z komercyjnego punktu widzenia. Jednakże wykorzystywanie sztucznej inteligencji do podejmowania decyzji obarczonych wysokim ryzykiem np. w sektorze finansowym, w systemach opieki zdrowotnej i w systemach bezpieczeństwa w pojazdach autonomicznych wyraźnie unaoczniło kwestię, którą jest uzyskanie wiedzy, czy mamy do czynienia z błędem czy z racjonalną decyzją AI. Ponieważ stawka jest tak wysoka, sztuczna inteligencja podejmująca decyzje w newralgicznych dziedzinach musi umieć się wytłumaczyć.
Dlatego im bardziej krytyczną funkcję pełni system sztucznej inteligencji, tym bardziej wymagana jest możliwość jego zinterpretowania (powstałego z połączenia przejrzystości, zrozumiałości i możliwości wyjaśnienia).
Jakie są możliwości AI?
Sztuczna inteligencja zapewnia zawodowym księgowym możliwości wykorzystywania danych dotyczących firmy poprzez odkrywanie nowych relacji zachodzących między nimi, a przez to zwiększanie wydajności. Na przykład oprogramowanie AI do analizy danych może zwiększyć zrozumienie powiązań między danymi i zasilać modele przywidywania procesów finansowych takich jak np. prognozowanie poziomu sprzedaży i planowaniu popytu (np. w bankowości i finansach do prognozowania oczekiwanych strat kredytowych).
W firmach audytorskich można zauważyć następujące zastosowania sztucznej inteligencji w celu zapewnienia efektywności:
Wykorzystanie sztucznej inteligencji do analizy danych ze źródeł nietradycyjnych, takich jak media społecznościowe, e-maile, rozmowy telefoniczne, publiczne oświadczenia kierownictwa itp., aby na tej podstawie identyfikować potencjalne ryzyka istotne dla oceny akceptacji i kontynuacji współpracy z klientem.
· Wykorzystywanie przetwarzania języka naturalnego i uczenia maszynowego do analizowania dostępnych informacji ustrukturyzowanych i nieustrukturyzowanych, takich jak globalne regulacje, raporty branżowe, kary regulacyjne, wiadomości i fora publiczne itp. na potrzeby wykrywania oszustw i ryzyk dla audytu.
· Narzędzia sztucznej inteligencji korzystające ze wzrostu jakości i ilości dostępnych danych „szkolących” (tj. danych, które system wykorzystuje do uczenia się) mogą być stosowane do zbiorów danych w celu algorytmicznej identyfikacji danych, które odstają od reszty i są nietypowe oraz do przeprowadzania analiz predykcyjnych w obszarach takich jak testowanie dużych populacji transakcji, analiza szacunków księgowych i ocena kontynuacji działalności.
· Przetwarzanie, przeglądanie i analiza dokumentów z wykorzystaniem optycznego rozpoznawania znaków (OCR) w celu identyfikacji i wyodrębnienia kluczowych szczegółów z umów i faktur.
· Procedury weryfikacji zapasów i aktywów fizycznych poprzez wykorzystanie inteligentnych dronów z funkcją rozpoznawania obrazu przekazywanego do internetu, co ma znaczenia szczególnie w przypadku większych aktywów kapitałowych, takich jak ciężarówki, infrastruktura użyteczności publicznej lub obiekty biznesowe (np. Plantacje).
· Technologie AI wspierające pracę audytorów nad ujawnieniami w sprawozdaniach finansowych, umożliwiające łatwiejszą identyfikację brakujących wymogów informacyjnych i niezgodności.
Ogólnie rzecz biorąc, modele sztucznej inteligencji potrzebują danych do uczenia się, a uczenie się na podstawie rzeczywistych danych dotyczących klientów i obiorców jest najskuteczniejsze. W konsekwencji firmy chcą wykorzystywać „prawdziwe” dane do szkolenia swoich modeli sztucznej inteligencji w celu poprawy jakości audytu lub analiz biznesowych. Można to porównać do uczenia się dyplomowanych księgowych, którzy „odrabiają lekcję” z wcześniejszych zleceń lub projektów i stosują je w kolejnym projekcie lub zadaniu, z tą różnicą, że obecnie „lekcję odrabiają” modele sztucznej inteligencji. Zauważono, że poza korzyściami płynącymi z poprawy jakości wyników modelów sztucznej inteligencji wykorzystujących „autentyczne” do uczenie się AI, proces ten wiąże się z zagrożeniami dla cyberbezpieczeństwa, poufności i prywatności oraz jest potencjalnymi zagrożeniami dla niezależności.
Systemy sztucznej inteligencji i aplikacje oparte na sztucznej nabierają znaczenia jako narzędzia monitorowania innych istniejących systemów technologicznych, w tym innych systemów sztucznej inteligencji, ponieważ tradycyjne metody monitorowania nie są w stanie zapewnić wymaganej częstotliwości i ilości kontroli. Przykładem jest np. stałe monitorowanie niektórych środowisk pod kątem cyberbezpieczeństwa w celu ograniczenia zagrożeń ze strony nieprzewidywalnych czynników, a także pomoc w walidacji modeli sztucznej inteligencji pod kątem ich stronniczości oraz luk w zabezpieczeniach, gdy organizacje dążą do zapewnienia etyczności sztucznej inteligencji.
Jakie są ryzyka AI?
Zakłada się często, że technologia sztucznej inteligencji jest neutralna, ale rzeczywistość jest zupełnie inna. Algorytmy sztucznej inteligencji są tworzone przez ludzi, którzy posiadają wrodzone i nieświadome uprzedzenia. Dlatego sztuczna inteligencja nigdy nie jest w pełni obiektywna, gdyż odzwierciedla świat widziany z perspektywy twórców systemów oraz danych pobieranych i przetwarzanych przez takie systemy. Zauważono, że największym problemem związanym ze sztuczną inteligencją jest nieodłączna stronniczość pobranych przez nią danych, i że taka stronniczość nie może zostać w pełni złagodzona w procesie programowania, ponieważ same próby skorygowania tej stronniczości mogą faktycznie kreować nowe uprzedzenia.
Do algorytmów mogą się wkraść uprzedzenia na kilka sposobów: systemy sztucznej inteligencji uczą się podejmować decyzje na podstawie danych zarówno szkoleniowych (dane wejściowe i dane wyjściowe służące nauczeniu algorytmu określonego zachowania) jak i danych testowych (tylko dane wejściowe, które sprawdzają, czy algorytm się nauczył) i proces uczenia AI może obejmować stronnicze ludzkie decyzje lub odzwierciedlać nierówności historyczne i społeczne, nawet jeśli usunięto wrażliwe, zmienne dane takie jak płeć, rasa, pochodzenie, wykształcenie etc. Próbkowanie danych jest również obarczone błędem systemowym, ponieważ może wskazywać na nadreprezentację lub niedostateczną reprezentację określonych grup w zbiorze danych. Podkreśla się, że zawodowi księgowi powinni być świadomi zakresu, w jakim stronniczość wpływa na wyniki otrzymywane dzięki technologii oraz wykazywać się krytyczną postawą i kompetencjami oraz posiadać odpowiednie narzędzia wspomagające.
Zrozumienie technologii i celu, w jakim ma być wykorzystana jest istotne dla oceny, czy wyniki uzyskane dzięki danej technologii można uznać za rozsądne. Zawodowi księgowi muszą mieć świadomość, że sposób podejścia do uczenia się sztucznej inteligencji (uczenie nadzorowane przez człowieka versus niedozorowane) może również wpływać na profil ryzyka AI związany z uzyskiwaniem dokładnych i wiarygodnych wyników. Ważne jest ponadto zrozumienie sposobu udostępnienia danych do uczenia się i testowania systemu sztucznej inteligencji oraz sposobu podejścia i zachowania poufności danych. Ważne jest budowanie etycznej sztucznej inteligencji; powstało niemal 200 wytycznych dotyczących etyczności AI opracowanych przez rządy, organizacje pozarządowe i korporacje. W listopadzie 2021 r. Konferencja Generalna UNESCO, składająca się ze 193 państw członkowskich, przyjęła Zalecenie w sprawie etyki sztucznej inteligencji (Ethics of Artificial Intelligence.” UNESCO, November 2021), które jest pierwszym globalnym dokumentem wyznaczającym standardy w obszarze etyki sztucznej inteligencji.
Tworzenie i zapewnianie etycznych systemów sztucznej inteligencji obejmuje zrozumienie danych wprowadzanych do modelu, sposobu działania modelu oraz potencjalnych niezamierzonych konsekwencji obsługi modelu. Nie można oczekiwać, że zawodowi księgowi będą „ekspertami” w dziedzinie technologii i w pełni zrozumieją, co się kryje „pod maską”. Jednakże, aby mogli polegać na systemie, powinni mieć pewność, że wyniki uzyskiwane dzięki technologii są właściwe. Biorąc pod uwagę wyzwania związane z niektórymi systemami sztucznej inteligencji, którym brakuje przejrzystości i możliwości wyjaśnienia, nie zawsze będzie to możliwe. Jednakże w wielu przypadkach poleganie przez zawodowych księgowych na systemie można zwiększyć dzięki zrozumieniu kontroli danych wejściowych do systemu (tj. jakości danych i możliwych nieodłącznych błędów w zbiorze danych) systemu, aplikacji i innych ogólnych kontroli IT, takich jak monitorowanie działania systemu lub wprowadzania zmian jak również kontroli analizy wyników.
Oznacza to, że mimo iż zawodowy księgowy może nie rozumieć „czarnej skrzynki” AI, może przynajmniej czuć się komfortowo znając dane wejściowe i strukturę kontrolną monitorującą system i jego wyniki, aby w rozsądny sposób móc polegać na tej technologii. Konieczne jest, aby w przypadku systemów AI wykorzystywanych do wspierania decyzji o znaczących konsekwencjach, księgowy miał dostęp do ekspertów, którzy będą mogli odpowiedzieć na dwa pytania: „Jak działa system?” oraz „Dlaczego system zrobił to, co zrobił?”.
Ponadto ważne jest posiadanie umiejętności i kompetencji w zakresie zadawania „właściwych” pytań, tak aby można było zamówić lub opracować odpowiednią sztuczną inteligencję, która będzie dostosowana do naszego celu. Zawodowi księgowi mogą to osiągnąć poprzez śledzenie bieżących informacji i kształcenie się w zakresie praktycznej wiedzy i „najlepszych praktyk” specyficznych dla swojej roli. Przykładem jest „zestaw narzędzi” dla kadry kierowniczej wyższego szczebla wydanych w związku ze Światowym Forum Ekonomicznym (Empowering AI Leadership – An Oversight Toolkit for Boards of Directors.” World Economic Forum 2022).
Zapewnianie etyczności systemów sztucznej inteligencji wiąże się także z wykorzystaniem podejścia opartego na nadzorze eksperckim i odpowiedzialności człowieka za system AI. Na przykład ogromna ilość i nieodłączna złożoność danych wejściowych, które leżą u podstaw uczenia maszynowego, może prowadzić do scenariusza, w którym systemowi brakuje przejrzystości i możliwości wyjaśnienia, a wpływ stronniczości jest trudny do wykrycia. Jednakże regularne monitorowanie i przesyłanie informacji zwrotnych na temat wszelkich postępów i zmian w wynikach uzyskiwanych dzięki sztucznej inteligencji oraz konsultacje z ekspertami mogą pomóc zawodowym księgowym w bieżącej ocenie sensowności wyników. Grupa Robocza ds. Technologii Rady Międzynarodowych Standardów Etycznych dla Księgowych (IESBA) uważa, że zawarty w Kodeksie etyki IFAC wymóg, aby zawodowy księgowy cechował się dociekliwym umysłem, pomoże rzucić wyzwanie systemowi AI i dokonać sprawdzenia, jak system reaguje na szeroki wachlarz bodźców, niezależnie tego, jakie zasady i procedury ustanowiła organizacja w celu zapewnienia odpowiedzialności za system AI.
Zapewnienie etycznej kultury w danej organizacji ma również istotne znaczenie dla tworzenia bezpiecznego środowiska dla osób zajmujących się danymi, aby bez obawy przed odwetem mogły wyrażać opinie dotyczące stronniczości lub dyskryminacji w systemach lub danych AI. Grupa Robocza IESBA zauważa, że od zawodowych księgowych oczekuje się, aby w swoich organizacjach zachęcali do podtrzymywania i promowania kultury opartej na etyce, biorąc pod uwagę swoją pozycję i staż pracy w organizacji. Rola ta jest ważna i staje się jeszcze ważniejsza w obliczu technologii transformacyjnej.
Rządy na całym świecie w coraz większym stopniu dostrzegają znaczenie uregulowania systemów sztucznej inteligencji. Komisja Europejska zaproponowała podejście do regulacji systemów sztucznej inteligencji ocenianych na podstawie ryzyka w skali „ryzyka minimalnego lub żadnego” do „ryzyka niedopuszczalnego”. W ramach tego podejścia systemy sztucznej inteligencji umożliwiające ocenę społeczną ludzi są klasyfikowane jako obarczone niedopuszczalnym ryzykiem i są zabronione, a te umożliwiające rekrutację i usługi medyczne wiążą się z wysokim ryzykiem i są dozwolone wyłącznie po spełnieniu określonych dodatkowych wymogów.
Tekst źródłowy: