Porady

AI Act 2026: Jak pracodawcy mogą używać sztucznej inteligencji

Sprawdź nowe zasady AI Act obowiązujące od 2026. Praktyczny przewodnik dla pracodawców - co wolno, czego unikać i jakie są konsekwencje.

Autor: Mobilna Faktura

black tablet computer on green table Źródło: C M na Unsplash

Spis treści

Sztuczna inteligencja coraz częściej pojawia się w polskich firmach, ale od 2026 roku jej używanie reguluje Akt o sztucznej inteligencji (AI Act). Te nowe przepisy znacząco wpływają na sposób, w jaki pracodawcy mogą korzystać z narzędzi AI, szczególnie w kontekście zarządzania zasobami ludzkimi i monitorowania pracowników.

Co to jest AI Act i dlaczego dotyczy Twojej firmy

AI Act to unijne rozporządzenie, które od 2026 roku w pełni obowiązuje również w Polsce. Wprowadza ono jasne reguły dotyczące używania systemów sztucznej inteligencji, szczególnie tych, które mogą wpływać na prawa i bezpieczeństwo ludzi.

Zakres nowych regulacji

Przepisy dotyczą przede wszystkim sytuacji, w których AI wpływa na:

  • Proces rekrutacji - algorytmy do selekcji CV, oceny kandydatów
  • Ocenę wydajności pracowników - systemy monitorujące produktywność
  • Kontrolę czasu pracy - automatyczne śledzenie obecności
  • Bezpieczeństwo w miejscu pracy - kamery z rozpoznawaniem twarzy

Jeśli Twoja firma używa któregokolwiek z tych rozwiązań, musisz dostosować się do nowych wymogów już w 2026 roku.

Kto musi się dostosować do przepisów

AI Act dotyczy wszystkich pracodawców w Polsce, którzy:

  • Stosują systemy AI do zarządzania personelem
  • Monitorują pracowników za pomocą inteligentnych narzędzi
  • Używają AI w procesach rekrutacyjnych
  • Wdrażają automatyczne systemy oceny wydajności

Rozmiar firmy nie ma znaczenia - przepisy obejmują zarówno małe przedsiębiorstwa, jak i duże korporacje.

Klasyfikacja systemów AI - jakie ryzyka musisz znać

AI Act dzieli systemy sztucznej inteligencji na cztery kategorie ryzyka, każda z różnymi wymogami.

Systemy wysokiego ryzyka

Do tej kategorii należą narzędzia AI używane w:

  • Rekrutacji i selekcji pracowników - automatyczne ocenianie CV, testy kompetencyjne z AI
  • Zarządzaniu zespołami - systemy przydzielające zadania na podstawie algorytmów
  • Monitorowaniu wydajności - aplikacje śledzące produktywność w czasie rzeczywistym

Te systemy wymagają szczególnych zabezpieczeń i dokumentacji już od 2026 roku.

Systemy ograniczonego ryzyka

Tutaj znajdują się popularne narzędzia jak:

  • ChatGPT i podobne asystenci tekstowi
  • Systemy tłumaczenia automatycznego
  • Narzędzia do analizy nastrojów w komunikacji

Dla tych rozwiązań głównym wymogiem jest transparentność - pracownicy muszą wiedzieć, że współpracują z AI.

Systemy zakazane

Od 2026 roku kategorycznie zabronione jest używanie AI do:

  • Manipulacji psychicznej pracowników
  • Oceny społecznej (social scoring) w miejscu pracy
  • Rozpoznawania emocji w czasie rzeczywistym (z wyjątkami medycznymi)

Praktyczne zasady używania AI w firmie

Zasada transparentności

Każdy pracownik ma prawo wiedzieć, kiedy współpracuje z systemem AI. W praktyce oznacza to:

  • Informowanie o używanych narzędziach - np. komunikat “Ten system używa AI do analizy Twojego CV”
  • Wyjaśnianie logiki decyzji - pracownik może zapytać, dlaczego system podjął konkretną decyzję
  • Dokumentowanie procesów - prowadzenie rejestru wszystkich systemów AI w firmie

Zgoda i kontrola pracowników

Nowe przepisy wzmacniają prawa pracowników:

  • Prawo do wyłączenia AI - w określonych sytuacjach pracownik może zażądać wyłączenia automatycznego monitorowania
  • Prawo do wyjaśnienia - każda decyzja AI musi być możliwa do wytłumaczenia w zrozumiały sposób
  • Prawo do odwołania - pracownik może zaskarżyć decyzję podjętą przez system AI

Bezpieczeństwo danych osobowych

AI Act współgra z RODO, wprowadzając dodatkowe wymogi:

  • Minimalizacja danych - AI może przetwarzać tylko niezbędne informacje
  • Szyfrowanie i ochrona - wzmocnione zabezpieczenia danych używanych przez AI
  • Prawo do usunięcia - pracownik może żądać usunięcia swoich danych z systemów AI

Obowiązki pracodawcy i prawa pracowników

Dokumentacja systemów AI

Od 2026 roku każda firma musi prowadzić:

Rejestr systemów AI zawierający:

  • Listę wszystkich używanych narzędzi AI
  • Opis ich funkcjonalności i zastosowania
  • Ocenę ryzyka dla każdego systemu
  • Protokoły bezpieczeństwa i procedury awaryjne

Dokumentację procesów obejmującą:

  • Sposób podejmowania decyzji przez AI
  • Procedury weryfikacji i kontroli
  • Plany szkoleń dla pracowników
  • Protokoły incydentów i błędów systemu

Szkolenia i edukacja zespołu

Pracodawca ma obowiązek przeszkolić pracowników w zakresie:

  • Rozumienia działania systemów AI w firmie
  • Znajomości swoich praw w kontekście AI Act
  • Umiejętności współpracy z narzędziami AI
  • Procedur zgłaszania problemów i błędów

Monitorowanie jakości systemów

Systemy wysokiego ryzyka wymagają regularnych audytów:

  • Testy dokładności - sprawdzanie, czy AI podejmuje prawidłowe decyzje
  • Analiza stronniczości - wykrywanie dyskryminacji algorytmicznej
  • Ocena wpływu - badanie efektów używania AI na pracowników
  • Przeglądy bezpieczeństwa - kontrola zabezpieczeń danych

Konsekwencje naruszenia przepisów

Wysokość kar finansowych

AI Act przewiduje surowe sankcje za naruszenie przepisów:

  • Za używanie zakazanych systemów AI: kara do 35 mln EUR lub 7% globalnych rocznych obrotów
  • Za nieprawidłowe użycie systemów wysokiego ryzyka: kara do 15 mln EUR lub 3% obrotów
  • Za naruszenie obowiązków informacyjnych: kara do 7,5 mln EUR lub 1,5% obrotów

Dla polskich firm te kwoty są przeliczane na złote według kursu z dnia nałożenia kary.

Odpowiedzialność za szkody

Pracodawca może ponosić odpowiedzialność za:

  • Szkody wynikające z błędnych decyzji AI
  • Naruszenie prywatności pracowników
  • Dyskryminację algorytmiczną
  • Straty związane z nieprawidłowym działaniem systemów

Kontrole i inspekcje

Od 2026 roku firmy mogą spodziewać się kontroli w zakresie:

  • Zgodności używanych systemów AI z przepisami
  • Jakości dokumentacji i rejestrów
  • Przestrzegania praw pracowników
  • Bezpieczeństwa danych osobowych

FAQ

Czy używanie ChatGPT w firmie wymaga specjalnych procedur?

Tak, ale stosunkowo prostych. ChatGPT to system ograniczonego ryzyka, więc głównie musisz informować pracowników, kiedy używają AI, i zapewnić transparentność procesów. Nie potrzebujesz złożonych audytów jak dla systemów wysokiego ryzyka.

Jak przygotować firmę na wymogi AI Act w 2026 roku?

Rozpocznij od inwentaryzacji wszystkich narzędzi AI używanych w firmie. Następnie sklasyfikuj je według poziomów ryzyka, przygotuj niezbędną dokumentację i wdróż procedury informowania pracowników. Rozważ konsultację z ekspertem ds. zgodności z AI Act.

Czy mała firma musi stosować wszystkie wymogi AI Act?

Tak, rozmiar firmy nie ma znaczenia. Jednak w praktyce małe firmy rzadziej używają systemów wysokiego ryzyka, więc ich obowiązki są zwykle prostsze. Najważniejsze to transparentność i informowanie pracowników o używaniu AI.

Co grozi za nieznajomość przepisów AI Act?

Nieznajomość prawa nie chroni przed karami. Nawet nieświadome naruszenie może skutkować wysokimi grzywnami. Dlatego warto już teraz zapoznać się z wymogami i przygotować firmę na zmiany wchodzące w życie w 2026 roku.

Gdzie znaleźć pomoc we wdrażaniu wymogów AI Act?

Pomoc oferują specjaliści ds. compliance, kancelarie prawne specjalizujące się w prawie technologicznym, a także organizacje branżowe. Warto też śledzić wytyczne publikowane przez Urząd Ochrony Danych Osobowych i inne organy regulacyjne.

Tagi:

Porady

Gotowy zastosować tę wiedzę w praktyce?

System Mobilna Faktura automatyzuje wszystko co przeczytałeś w tym artykule. Wypróbuj za darmo - bez karty kredytowej, bez zobowiązań.

Załóż darmowe konto →