Decyzja Prezydium KK nr 50/26 ws. opinii o projekcie uchwały Rady Ministrów w sprawie ustanowienia „Polityki rozwoju sztucznej inteligencji w Polsce do 2030 roku” wraz z załącznikiem

Prezydium Komisji Krajowej NSZZ „Solidarność” zgłasza następujące uwagi
do projektu uchwały Rady Ministrów w sprawie ustanowienia „Polityki rozwoju sztucznej inteligencji w Polsce do 2030 roku” i załącznika do tej uchwały.
Przedstawiona „Polityka rozwoju sztucznej inteligencji w Polsce do 2030 r.” stanowi istotny
i potrzebny kierunek działań państwa w obszarze transformacji technologicznej,
w szczególności w zakresie budowy kompetencji oraz wsparcia dla rozwoju innowacji. Jednocześnie dokument wymaga uzupełnienia w zakresie wpływu rozwoju sztucznej inteligencji na rynek pracy i zatrudnienie.
Analiza zawarta w dokumencie koncentruje się przede wszystkim na pozytywnych aspektach transformacji, takich jak wzrost produktywności, rozwój nowych kompetencji oraz tworzenie nowych miejsc pracy. NSZZ „Solidarność” ma świadomość, że dokument strategiczny dotyczący rozwoju sztucznej inteligencji nie jest instrumentem służącym kompleksowemu rozwiązywaniu wszystkich strukturalnych problemów polskiego rynku pracy. Strategia AI nie zastąpi reform odnoszących się do jakości zatrudnienia, kształcenia ustawicznego, partycypacji pracowniczej, bezpieczeństwa pracy czy innych wyzwań społeczno-gospodarczych. Jednocześnie nie można pomijać faktu, że sztuczna inteligencja w coraz większym stopniu oddziałuje na sposób organizacji pracy, relacje zatrudnienia oraz codzienne warunki wykonywania obowiązków pracowniczych. Z tego względu strategia państwa w obszarze AI nie może pomijać już występujących problemów świata pracy związanych z wykorzystywaniem AI w zarządzaniu pracownikami i organizacji pracy oraz traktować świat pracy wyłącznie jako kwestii obszaru adaptacji kompetencyjnej. W obowiązującej strategii z 2020 r. brakowało wyraźnego ujęcia praktycznych skutków AI dla pracowników, a także uznania, że organizacje pracodawców i związki zawodowe stanowią istotny element sprawiedliwej transformacji cyfrowej oraz naturalnych partnerów współtworzących zasady wdrażania AI w gospodarce
i miejscach pracy. Ten sam brak, niestety, widoczny jest również w projekcie nowej strategii. Mimo dostrzegalnego postępu w zakresie kompetencji i aktywnych polityk rynku pracy, opiniowany dokument nadal nie poświęca wystarczającej uwagi kluczowym zagadnieniom: wykorzystaniu AI do algorytmicznego zarządzania pracą, ochronie danych pracowniczych, nowym ryzykom dla bezpieczeństwa i zdrowia pracowników, w szczególności ryzykom psychospołecznym, potrzebie dialogu z przedstawicielami pracowników przy wdrażaniu systemów AI w miejscu pracy, wpływowi AI na rynek pracy i zatrudnienie, obowiązkowi projektowania systemów AI z uwzględnieniem wymogów prawnych, w tym w szczególności przepisów prawa pracy oraz odpowiedzialności
za stosowanie systemów AI prowadzących do łamania prawa pracowników.
1. Algorytmiczne zarządzanie pracą
Projekt strategii koncentruje się na wpływie AI na produktywność, konkurencyjność, administrację publiczną oraz rozwój kompetencji. Nadal jednak zbyt słabo dostrzega zjawisko, które w najbliższych latach będzie jednym z najważniejszych wyzwań świata pracy, tj. wykorzystywanie systemów sztucznej inteligencji do zarządzania pracownikami. W praktyce AI coraz częściej nie jest wyłącznie narzędziem wspierającym produkcję lub analizę danych, lecz staje się elementem codziennego procesu kierowania pracą. Dotyczy to w szczególności planowania grafików, przydzielania zadań, mierzenia wydajności, oceny jakości pracy, wspomagania procesów rekrutacyjnych, ustalania priorytetów operacyjnych czy identyfikowania pracowników uznawanych za „ryzykownych” z perspektywy organizacji.
Z perspektywy pracownika oznacza to istotną zmianę relacji zatrudnienia. Decyzje, które dotychczas były podejmowane przez przełożonych i podlegały społecznej kontroli, coraz częściej są współkształtowane przez modele statystyczne, automatyczne scoringi i narzędzia predykcyjne. Powoduje to ryzyko nieprzejrzystości decyzji, trudności w ustaleniu odpowiedzialności, wzrostu arbitralności, a niekiedy utrwalania błędów i uprzedzeń obecnych w danych treningowych. Dotyczy to szczególnie sektorów o wysokiej skali zatrudnienia, logistyki, handlu, usług platformowych, call center czy administracji zaplecza procesowego.
W ocenie NSZZ „Solidarność” strategia państwa w obszarze AI powinna wprost rozpoznawać algorytmiczne zarządzanie pracą jako jedno z kluczowych pól transformacji cyfrowej. Nie chodzi o blokowanie nowych technologii, lecz o stworzenie ram odpowiedzialnego projektowania systemów AI i ich wdrażania. Dokument strategiczny powinien wskazywać potrzebę zachowania nadzoru człowieka nad decyzjami wpływającymi na zatrudnienie, przejrzystości stosowanych systemów, możliwości weryfikacji rozstrzygnięć algorytmicznych oraz poszanowania godności pracownika.
Bez takiego uzupełnienia istnieje ryzyko, że AI będzie postrzegana wyłącznie jako narzędzie efektywnościowe, podczas gdy dla milionów osób stanie się przede wszystkim nowym sposobem sprawowania kontroli, również nadmiernej i nieuzasadnionej, nad pracą.
2. Dane pracownicze
Drugim obszarem wymagającym wyraźniejszego uwzględnienia są dane pracownicze. Projekt strategii trafnie akcentuje wagę ochrony danych osobowych oraz budowy godnej zaufania sztucznej inteligencji, jednak czyni to na poziomie ogólnym. Tymczasem dane dotyczące pracowników stanowią szczególną kategorię informacji, ponieważ są gromadzone w warunkach strukturalnej nierównowagi stron stosunku pracy. Pracownik bardzo często nie ma realnej możliwości swobodnego negocjowania zakresu przetwarzania danych ani skutecznego sprzeciwu wobec praktyk monitorujących.
Rozwój AI zwiększa znaczenie tego problemu. Systemy wykorzystywane w miejscu pracy mogą analizować dane dotyczące czasu aktywności, lokalizacji, sposobu korzystania ze sprzętu służbowego, tempa wykonywania zadań, komunikacji elektronicznej, absencji, wydajności czy zachowań operacyjnych. Coraz większe znaczenie mają również dane pochodne, a więc profile i wnioski generowane przez sam system, np. ocena prawdopodobieństwa odejścia z pracy, ryzyka spadku efektywności, skłonności do błędu
lub poziomu zaangażowania.
Z punktu widzenia polityki publicznej dane pracownicze nie powinny być traktowane
tak samo jak inne zasoby danych służące rozwojowi AI. Ich wykorzystanie wymaga podwyższonych standardów ostrożności, przejrzystości i proporcjonalności. Strategia powinna zatem wyraźnie wskazać potrzebę szczególnej ochrony danych pracowniczych, promowania praktyk privacy by design w narzędziach HR i workplace tech, a także wzmacniania wiedzy pracowników co do sposobu wykorzystywania
ich danych przez systemy AI. W przeciwnym razie zaufanie do technologii będzie ograniczone, a konflikty społeczne wokół cyfryzacji zatrudnienia będą narastać.
3. Psychospołeczne BHP i nowe ryzyka pracy
Trzecim zagadnieniem, które wymaga uzupełnienia, jest wpływ AI na bezpieczeństwo
i zdrowie pracowników, w szczególności w wymiarze psychospołecznym. W debacie publicznej bezpieczeństwo pracy bywa nadal kojarzone głównie z zagrożeniami fizycznymi. Tymczasem transformacja cyfrowa powoduje szybki wzrost znaczenia czynników takich
jak stres, presja czasu, przeciążenie informacyjne, brak przewidywalności zadań, stały monitoring, izolacja pracownika czy poczucie utraty kontroli nad procesem pracy.
Systemy AI mogą te ryzyka zarówno ograniczać, jak i pogłębiać. Odpowiednio zaprojektowane narzędzia mogą odciążać pracowników z rutynowych obowiązków, wspierać ergonomię czy poprawiać bezpieczeństwo procesów technologicznych. Jednak
źle wdrażane rozwiązania mogą prowadzić do nadmiernej intensyfikacji pracy, stałego porównywania wyników, automatycznego wyznaczania nierealistycznych norm, przeciążenia poznawczego oraz trwałego poczucia obserwacji. Obecna praktyka stosowania sztucznej inteligencji w zatrudnieniu wskazuje, iż jest ona nadużywana przez szefów do niemal orwellowskiego nadzoru nad pracownikami. Dla przykładu AI monitoruje ton głosu pracowników call center, natomiast pracownicy magazynów są narażeni
na ryzyko, gdy próbują nadążyć za zautomatyzowanymi celami produktywności. Systemy algorytmiczne określają tempo pracy i śledzą każdy ruch, co prowadzi do wzrostu stresu, zmęczenia, a nawet wyższych wskaźników urazów. Ryzyka związane ze sztuczną inteligencją już się nie tyle pojawiają, lecz są już powszechne i przyczyniają się do eskalacji epidemii stresu.
W ocenie NSZZ „Solidarność” strategia powinna rozpoznawać, że nowoczesne BHP obejmuje także zdrowie psychiczne i społeczne warunki pracy. Potrzebne jest wskazanie, że wdrażanie AI w miejscu pracy powinno być poprzedzane oceną wpływu na warunki pracy, a państwo powinno wspierać rozwój standardów dotyczących psychospołecznych skutków cyfryzacji. Jest to szczególnie istotne
w starzejącym się społeczeństwie i przy rosnącym znaczeniu chorób związanych ze stresem, wypaleniem zawodowym oraz problemami zdrowia psychicznego.
4. Dialog z przedstawicielami pracowników
Czwartym, fundamentalnym elementem jest potrzeba dialogu z przedstawicielami pracowników przy wdrażaniu AI. Nie chodzi tu wyłącznie o klasyczny dialog społeczny na poziomie centralnym, lecz także o praktyczne mechanizmy komunikacji i konsultacji
w przedsiębiorstwach oraz instytucjach publicznych. Im większy wpływ technologii
na organizację pracy, tym większe znaczenie ma wczesne informowanie załogi o planowanych zmianach, wyjaśnianie celów wdrożenia, omawianie ryzyk i wspólne poszukiwanie rozwiązań akceptowalnych społecznie.
Doświadczenia wielu państw pokazują, że projekty cyfryzacyjne wdrażane bez udziału pracowników częściej spotykają się z oporem, niskim poziomem zaufania i problemami implementacyjnymi. Z kolei procesy prowadzone w sposób transparentny, z udziałem reprezentacji pracowniczej, sprzyjają lepszemu wykorzystaniu wiedzy praktycznej zatrudnionych oraz ograniczają napięcia społeczne. NSZZ „Solidarność” stoi na stanowisku, że sprawiedliwa transformacja cyfrowa wymaga nie tylko inwestycji i technologii, ale również instytucji dialogu. Strategia AI powinna zatem wskazać, że wdrażanie systemów sztucznej inteligencji oddziałujących
na warunki pracy powinno odbywać się przy odpowiedniej komunikacji
oraz konsultacji z przedstawicielami pracowników, z poszanowaniem obowiązujących form reprezentacji. Takie podejście wzmacnia legitymizację zmian, buduje zaufanie do nowych rozwiązań i zwiększa szanse trwałego sukcesu transformacji.
5. Wpływ rozwoju AI na rynek pracy i zatrudnienie
Strategia AI wymaga również uzupełnienia w zakresie wpływu rozwoju sztucznej inteligencji na rynek pracy i zatrudnienie. Polityka w zbyt ograniczonym zakresie odnosi się do potencjalnych napięć strukturalnych na rynku pracy, wynikających z nierównomiernego tempa wdrażania technologii czy też zróżnicowanej zdolności pracowników do dostosowania się do nowych warunków. Tymczasem, jak wynika również z samego dokumentu, rozwój sztucznej inteligencji ma charakter dynamiczny i przyspieszający, co oznacza, że mechanizmy adaptacyjne rynku pracy mogą nie nadążać za tempem zmian. W tym kontekście zasadne wydaje się rozszerzenie podejścia przyjętego w Polityce AI o wyraźny komponent dotyczący zarządzania ryzykami transformacji rynku pracy. Obecne zapisy słusznie akcentują znaczenie procesów podnoszenia i zmiany kwalifikacji, jednak wymagają uzupełnienia o przypadki, w których dostosowanie kompetencyjne nie będzie możliwe w krótkim okresie lub będzie wiązało się z istotnymi kosztami społecznymi. Dotyczy to w szczególności pracowników wykonujących zadania rutynowe lub powtarzalne, które należą do najbardziej narażonych na automatyzację.
Jednocześnie warto doprecyzować relację pomiędzy rozwojem sztucznej inteligencji
a wyzwaniami demograficznymi. Dokument wskazuje na znaczenie AI w kontekście przyszłych zmian w podaży pracy, odwołując się do dłuższego horyzontu czasowego, wykraczającego poza okres obowiązywania strategii. Zasadne jest wyraźne rozróżnienie pomiędzy rolą AI jako czynnika wspierającego produktywność pracy a jej potencjalnym wpływem na strukturę zatrudnienia w krótszym, strategicznym horyzoncie do 2030 r. Takie doprecyzowanie pozwoliłoby uniknąć interpretacji, w której rozwój technologii zastępuje potrzebę prowadzenia aktywnej polityki rynku pracy oraz działań na rzecz zwiększenia aktywności zawodowej.
Istotnym elementem wymagającym dalszego rozwinięcia jest również zakres działań skierowanych do grup pracowników potencjalnie najbardziej narażonych na skutki automatyzacji. Obecna struktura dokumentu koncentruje się w znacznym stopniu na rozwoju kadr wysokospecjalistycznych oraz kompetencji zaawansowanych, co jest kierunkiem zasadnym, jednak nie wyczerpuje potrzeb rynku pracy jako całości. Uzupełnienie strategii
o działania adresowane do szerszych grup pracowników, w tym zatrudnionych w sektorach usługowych, administracyjnych czy produkcyjnych, zwiększyłoby jej spójność
oraz efektywność.
W tym kontekście zasadne wydaje się także rozważenie wprowadzenia bardziej szczegółowych mechanizmów monitorowania wpływu AI na zatrudnienie,
które umożliwiałyby nie tylko analizę trendów, ale również szybkie reagowanie
na pojawiające się ryzyka. Obecne zapisy wskazują na potrzebę monitorowania, jednak brak jest doprecyzowania narzędzi, wskaźników oraz instytucjonalnej odpowiedzialności w tym zakresie.
6. Projektowanie systemów AI zgodnie z przepisami prawa, w tym prawa pracy
i odpowiedzialność za stosowanie systemów AI prowadzących do łamania prawa pracowników
Strategia w wielu miejscach odnosi się do potrzeby promowania odpowiedzialnej AI i oraz promowania etycznego i odpowiedzialnego stosowania AI. Dokument strategiczny powinien również odnieść się do potrzeby zapewnienia obowiązku uwzględnienia przepisów prawa pracy przy samym projektowaniu systemów sztucznej inteligencji,
np. uwzględnienie przepisów o czasie pracy kierowców, w tym przerw dla kierowców
przy projektowaniu systemu sterującego rozkładem jazdy. W obszarze styku AI ze światem pracy zasada „ethics by design” to za mało. Ze względu na możliwy negatywny wpływ jaki na świat pracy może wywrzeć, a właściwie już wywiera stosowanie systemów AI, samo promowanie odpowiedzialnej AI jest niewystarczające. Konieczny jest nacisk na obowiązek uwzględniania wymogów prawa pracy przy projektowaniu i stosowaniu systemów AI. Niestety, strategia nie odnosi się do tej kwestii. Kontrola działania systemów AI
w piaskownicach regulacyjnych przed ich wprowadzeniem na rynek nie jest wystarczającym narzędziem kontroli. Strategia powinna zawierać również zapowiedź utworzenia skutecznego mechanizmu kontrolnego i ponoszenia odpowiedzialności, w przypadku
gdy stosowane systemy AI prowadzą do naruszeń prawa, są obiektywnie szkodliwe
i niezgodne z zasadami współżycia społecznego. Elementem tej kontroli powinno
być zapewnienie związkom zawodowym dostępu do informacji dotyczących zasad,
na jakich stosowane systemy zostały zaprojektowane.
Podsumowując, w ocenie NSZZ „Solidarność” kluczowe znaczenie ma uzupełnienie Polityki AI o wyraźny, systemowy komponent rynku pracy, który obejmowałby nie tylko rozwój kompetencji, ale również mechanizmy łagodzenia skutków transformacji technologicznej. Takie podejście pozostaje spójne z deklarowanymi w dokumencie wartościami, w tym z zasadą rozwoju zorientowanego na człowieka, i pozwoli na pełniejsze wykorzystanie potencjału sztucznej inteligencji przy jednoczesnym zachowaniu stabilności społecznej i jakości zatrudnienia.

 

Do pobrania