Dynamiczny rozwój AI oraz dostęp do zasobów danych o coraz lepszej jakości, które są potrzebne w procesie tworzenia narzędzi opartych o sztuczną inteligencję spowodowały, że punkt nacisku dotyczący przeznaczenia tych narzędzi uległ zmianie.
– Początkowo organizacje skupiały się na punktowym zastosowaniu AI, często w celu automatyzacji rutynowych zadań. Obecnie automatyzacja powtarzalnych zadań nie jest już najważniejszym priorytetem. Zaledwie 25 proc. ankietowanych przedsiębiorstw w ramach PwC 2021 AI Predictions wskazało to jako najważniejszy priorytet w stosunku do 35 proc. w ramach poprzedniej edycji tego badania. Odejście od wykorzystania AI na potrzebę wybranych obszarów (silosów) i przejście na “cross-funkcjonalne” zastosowanie, które dotyka wielu aspektów działalności przedsiębiorstwa, stanowi naturalną ścieżką rozwoju w wykorzystywaniu AI i może być elementem strategicznym w realizacji wizji przedsiębiorstwa opisującej, w jaki sposób dana organizacja ma działać w przyszłości. Często wpływ jest tak ogromny, że wiąże się z reorganizacją całego przedsiębiorstwa, a nawet zmianą modelu biznesowego – mówi Marcin Makusak, partner PwC Polska.
Organizacje dostrzegają potrzebę właściwego AI governance i zarządzania ryzykiem wykorzystywania AI
Powszechniejsze wykorzystanie AI jest procesem, który wymaga odpowiedniej strategii, planu i organizacji (operacjonalizacji). W ramach tego procesu, przedsiębiorstwa zaczęły zwracać również uwagę na zagadnienia związane z ryzykiem korzystania z AI, a co za tym idzie, odpowiednimi działaniami, aby tym ryzykiem zarządzać (governance).
– Kolejna kwestia, która stała się niezwykle istotna, to analiza interakcji między AI a interesariuszami (np. klientami zewnętrznymi). Mowa tutaj o podejmowaniu kroków, które pomogą zapewnić, aby rozwijane systemy sztucznej inteligencji były: odpowiedzialne, godne zaufania, stabilne i uczciwe - w skrócie: wiarygodne i przewidywalne. W PwC nazywamy takie rozwiązania: Responsible AI – komentuje Mateusz Szajdak, manager PwC Polska.
Wśród najważniejszych działań, jakie podejmowane są przez organizacje, które dostrzegły istotność zagadnienia odpowiedzialnej sztucznej inteligencji są m.in.:
- zwiększenie bezpieczeństwa AI dzięki zastosowaniu walidacji, monitorowaniu i weryfikacji,
- stworzenie przejrzystych, rozszerzalnych i sprawdzalnych modeli AI,
- stworzenie systemów AI, które będą etyczne, zrozumiałe i legalne,
- usprawnienie zarządzania dzięki modelom operacyjnym i procesom AI,
- przeprowadzenie testów pod kątem weryfikacji ewentualnej stronniczości danych, modeli lub wykorzystania algorytmów przez człowieka.
Kluczowe elementy dla właściwego AI governance
Aby móc mówić o Responsible AI należy uwzględnić kilka aspektów, które są ważne na wszystkich etapach wykorzystywania sztucznej inteligencji, od samego projektu rozwiązania, po utrzymanie działającego systemu:
- obowiązujące przepisy prawa i zasady etyczne,
- model governance, który pozwala zaprojektować, przygotować, przetestować, wdrożyć i utrzymać system AI w zdefiniowanym środowisku organizacji,
- zasady bezpieczeństwa, które będa chronić sam system i użytkowników wchodzących z nim w interakcje,
- wyjaśnialność/interpretowalność, czyli czytelne i zrozumiałe zasady działania AI, pozwalające na jego łatwe, czytelne i jednoznaczne zinterpretowanie.
Poza tym, warto zwrócić uwagę na to, że odpowiedni model governance jest także istotny z punktu widzenia obszarów environmental, social, corporate governance (ESG):
- zużycie znacznej ilości energii elektrycznej dla potrzeb działania skomplikowanych systemów AI może wpłynąć na generowany przez organizację ślad węglowy - Environmental,
- zagadnienie równego traktowania interesariuszy jest ważnym aspektem obszaru Social,
- fakt wykorzystywania AI ma wpływ na wartość przedsiębiorstwa, a brak odpowiedniego zarządzania takim systemem może negatywnie wpłynąć zarówno na jego reputację, jak i, w konsekwencji na wycenę - Governance.
Projekt unijnego rozporządzenia w zakresie AI
Zasadność zapewnienia odpowiedniego poziomu wiarygodności i przewidywalności systemu sztucznej inteligencji i ochrony praw użytkowników wchodzących z nim interakcję zauważyła Unia Europejska, która przygotowała projekt Rozporządzenia Parlamentu Europejskiego i Rady ustanawiające zharmonizowane przepisy dotyczące sztucznej inteligencji.
Projekt rozporządzenia, co do którego osiągnięto w grudniu 2023 r. porozumienie polityczne, ma mieć charakter regulacyjny i kłaść nacisk na zapewnienie, aby wprowadzone do obrotu i użytkowane systemy AI były bezpieczne i zgodne z obowiązującymi przepisami w obszarze praw podstawowych i wartości unijnych oraz aby przepisy i wymogi bezpieczeństwa wobec AI były skuteczne egzekwowane – wyjaśnia Marcin Makusak. – Oprócz tego, celem przygotowywanego rozporządzenia jest ułatwienie rozwoju jednolitego, bezpiecznego i wiarygodnego rynku oraz wsparcie innowacyjności – doprecyzowuje.
W przygotowanym projekcie przyjęte zostało podejście oparte na ryzyku, przewidujące cztery grupy ryzyka:
- niedopuszczalne ryzyko - dotyczy zbioru zastosowań AI, które są sprzeczne z wartościami UE, np. scoring obywateli, wykorzystanie technik podprogowych, zdalna identyfikacja biometryczna w czasie rzeczywistym przez organy ścigania, kategoryzacja biometryczna, prognozowanie przestępczości, rozpoznawanie emocji w miejscu pracy i placówkach edukacyjnych, przeszukiwanie Internetu,
- wysokie ryzyko - ograniczony zbiór zastosowań, które mogą mieć negatywny wpływ na bezpieczeństwo ludzi lub ich prawa podstawowe, np. dostęp do usług publicznych i prywatnych, procesy rekrutacyjne, migracja, azyl i kontrola granic, edukacja i szkolenia,
- szczególne ryzyko w zakresie przejrzystości - dotyczy niektórych systemów AI, dla których wprowadzone zostaną konkretne wymogi w zakresie przejrzystości, tzn. że użytkownicy powinni mieć świadomość wejścia w interakcję z AI w celu minimalizacji ryzyka manipulacji,
- minimalne ryzyko - wszystkie pozostałe systemy AI.
Ponadto w projekcie uwzględniono ryzyko systemowe, które może wynikać z wykorzystywania modeli sztucznej inteligencji ogólnego przeznaczenia (Gen AI).
Swoim zakresem projekt rozporządzenia obejmuje m.in. następujące aspekty:
- zharmonizowane przepisy dotyczące wprowadzania do obrotu, oddawania do użytku oraz wykorzystywania AI w UE,
- zakazane praktyki w zakresie AI,
- szczególne wymogi dotyczące wprowadzania do obrotu systemów AI wysokiego ryzyka, w tym w zakresie przeprowadzenia oceny skutków praw podstawowych,
- szczególne wymogi dostawców modeli Gen AI
- przepisy dotyczące monitorowania AI po jego wprowadzeniu do obrotu i nadzoru nad rynkiem,
- kary za naruszenie przepisów.
Rozporządzenie, po przygotowaniu ostatecznej wersji tekstu rozporządzenia i zatwierdzeniu jego przez Parlament Europejski i Radę, zacznie obowiązywać dwa lata po jego wejściu w życie. Wyjątek od tego stanowić będą przepisy szczegółowe, tzn. zakazy będą obowiązywały już po 6 miesiącach, a przepisy dotyczące sztucznej inteligencji ogólnego przeznaczenia – po 12 miesiącach.
Następne kroki
Z uwagi na rosnący udział i poziom skomplikowania wykorzystywanych systemów sztucznej inteligencji, nacisk na właściwy governance i przestrzeganie zasad etycznych będzie rósł.
Wczesne rozpoczęcie analizy wpływu gotowości i dojrzałości systemów, procesów, mechanizmów kontrolnych i innych komponentów ładu organizacyjnego może pomóc w planowaniu przyszłych inwestycji i ograniczeniu kosztów związanych ze zbyt późnym wdrażaniem koniecznych zmian, koniecznych np. pod względem zapewnienia zgodności z przepisami unijnymi. Warto przy tej okazji odpowiedzieć sobie na poniższe pytania w danym kontekście:
- Dane: Czy organizacja posiada zasób danych lub dostęp do danych o jakości odpowiadającej celom systemu AI? Czy Twoja organizacja posiada odpowiednie mechanizmy zarządzania danymi wejściowymi i kontrolą wyboru zestawu danych?
- Modele i algorytmy: Czy w Twojej organizacji istnieje nadzór nad rozwojem modelu? Czy proces i wyniki są przejrzyste? Czy wzięto pod uwagę ryzyko dotyczące stronniczości algorytmu?
- Wyniki i decyzje: Czy istnieje proces ciągłej weryfikacji wyników modelu pod kątem zapewnienia dokładności i zgodności z pierwotnym jego celem?
- Nadzór i monitorowanie: Jakie organy nadzoru są zaangażowane w zarządzanie AI? Jakie działania monitorujące są podejmowane?
- Uczenie maszynowe: Czy kierownictwo ma pewność co do procesów i metod uczenia maszynowego na wszystkich jego etapach?
- Wpływ na biznes i sprawozdawczość: Modele danych wpływają na sprawozdawczość finansową, decyzje operacyjne i interakcje z klientami. Czy Twoja organizacja jest na to gotowa?
Zapisz się na newsletter PwC Retail Platform, aby na bieżąco dostawać najważniejsze analizy z sektora handlu detalicznego i dóbr konsumpcyjnych!
Polecane artykuły
Buduj przewagę konkurencyjną kompleksowo zarządzając ryzykiem
Wprowadź raportowanie na wyższy poziom
Komisja Europejska opublikowała projekt Rozporządzenia ws. Zarządzania Danymi (Data Governance Act)