Rozliczanie PIT za pomocą czata: ułatwienie czy prosta droga do katastrofy?

15% Polaków w 2025 roku korzystało z AI do rozliczania PIT.

Polski system podatkowy to labirynt, w którym łatwo o kosztowny błąd. Choć AI może pomóc w wykorzystaniu ulg, może narazić Cię także na wyciek danych i problemy ze skarbówką.


Polski system podatkowy od lat uchodzi za potwornie skomplikowany. Nieustanne zmiany przepisów, gąszcz ulg sprawiają, że dla przeciętnego obywatela wypełnienie rocznej deklaracji PIT jest źródłem gigantycznego stresu. W tym roku sytuacja jest wyjątkowa – wszystko wskazuje na to, że po raz pierwszy na tak masową skalę Polacy zaprzęgną do pomocy sztuczną inteligencję. Jednak to, co ma być cyfrowym wybawieniem, szybko może zamienić się w prawny i finansowy koszmar.


W 2025 roku 15% Polaków rozliczało PIT za pomocą chata

Z raportu SW Research przygotowanego na zlecenie PITax, opublikowany przez „Rzeczpospolitą” wynika, że zeznanie podatkowe dla Polaków to regularny, coroczny koszmar. Aż 56 proc. ankietowanych wprost przyznaje, że boi się popełnienia błędów w zeznaniu. Mimo, że od 15 lutego miliony Polaków mogą skorzystać z gotowych deklaracji w systemach rządowych, zaufanie do państwowej automatyzacji jest dramatycznie niskie.

Dlaczego? Blisko 40 proc. respondentów nie ma pewności, czy zasady rozliczeń uległy zmianie w ciągu ostatniego roku. To wzrost o 6 punktów procentowych względem poprzedniego sezonu. Paradoksalnie, im bardziej proces jest „ułatwiany” przez Ministerstwo Finansów, tym bardziej czujemy, że coś istotnego może nam umknąć w gąszczu skomplikowanych przepisów. Co piąty badany wskazuje wprost: „przepisy są dla mnie całkowicie niezrozumiałe”.

Dr Krzysztof Biernacki, doradca podatkowy PITax, tak komentuje te dane dla Rzeczpospolitej:

„Mimo że rozliczenie PIT za sprawą rządowych systemów jest w teorii coraz prostsze, to poziom niepewności pozostaje wysoki”.

Największym „polem bitwy” są ulgi podatkowe. Aż 88 proc. Polaków deklaruje chęć lepszego poznania odliczeń, które mogłyby obniżyć ich podatki. Niestety, co trzeci podatnik przyznaje, że nie zna ulg, z których mógłby skorzystać. Choć od 15 lutego ponad 20 milionów Polaków będzie mogło, jak co roku, skorzystać z gotowych deklaracji w systemach rządowych, zaufanie do tej automatyzacji jest mocno ograniczone. Aż  51 proc. ankietowanych woli samodzielnie weryfikować dostępne odliczenia, zamiast wierzyć, że państwowy system zrobi to za nich poprawnie W tej desperacji wielu z nas deklaruje, że zamierza wykorzystać AI. Jednak do zwykłego podatnika nie dotarła jeszcze świadomość zagrożeń. Nie rozumiemy, że bezpieczne korzystanie z darmowych modeli AI w tym przypadku, to mrzonka.

figurka Temidy/ fot: Tingey Injury Law Firm/Unsplash
News / Społeczeństwo

The Guardian: jak AI skompromitowało prawnika. Sąd odrzuca zmyślone przez AI precedensy


Shadow AI: Cicha plaga, która niszczy prywatność

Problem nie kończy się tu przy domowym biurku. Przenosi się on bezpośrednio do biur i korporacji, tworząc zjawisko znane jako Shadow AI. To korzystanie z narzędzi sztucznej inteligencji poza wiedzą i nadzorem użytkownika. Pracownicy firm, chcąc szybciej uporać się z raportami czy analizami podatkowymi, masowo wklejają wrażliwe dane w okna czatów.

Aureliusz Górski, founder i CEO CampusAI oraz ekspert w dziedzinie wdrażania technologii, bije na alarm. W wywiadzie dla magazynu Forbes podkreśla, że mamy do czynienia z „prawdziwą plagą”. Dane są przerażające: prawie 60 proc. pracowników używa AI poza kontrolą firmy, a trzy czwarte z nich wrzuca tam dane, które są skrajnie wrażliwe.

„Shadow AI to korzystanie z narzędzi AI poza wiedzą i nadzorem organizacji. Tu nie chodzi o plik w złym miejscu – chodzi o decyzje dotyczące ludzi, np. dane osobowe, dokumenty wewnętrzne, umowy. AI, kiedy jest używane bez kontroli, może stać się takim cichym, niewidzialnym ryzykiem, którego nikt w firmie nie monitoruje, a które dotyka najbardziej wrażliwych procesów”. – ostrzega Górski.

Ekspert zauważa, że pracownicy wypracowali już groźne nawyki: wysyłają dokumenty na prywatny telefon, wrzucają je do publicznego AI, a wynik odsyłają mailem służbowym. W systemach firmowych nie ma po tym żadnego śladu, ale dane już dawno opuściły bezpieczny serwer i zasiliły bazy treningowe gigantów technologicznych.

Podatek za ogrodową szopę wyższy niż za dom. fot: Mathias Reding
Dom i ogród / News

Podatek 10 razy większy za szopę niż za dom! RPO żąda zmiany przepisów


Trzy fundamenty ryzyka: Dlaczego AI nas oszukuje?

Skoro technologia ta budzi takie obawy u ekspertów, dlaczego „zwykły człowiek” powinien się bać? Odpowiedź kryje się w samej naturze działania modeli językowych. Każdy, kto planuje samodzielne rozliczanie deklaracji PIT z pomocą czata, musi być świadomy trzech zagrożeń:

1. Halucynacje i zmyślanie faktów

Sztuczna inteligencja to zaawansowana statystyka.. AI potrafi wygenerować nieistniejące ustawy o PIT lub wymyślić ulgi, które pasują do gramatyki zdania, ale nie do polskiego systemu podatkowego. Przykładem, pierwszym lepszym z brzegu, jest sprawa Deloitte w Australii. Firma przygotowała 237-stronicowy raport dla rządu, w którym AI zmyśliło cytaty z orzeczeń sądowych. Jeśli profesjonalni doradcy dali się oszukać algorytmowi, jak ma się przed tym obronić laik?

2. Brak weryfikacji i „ślepe zaufanie”

Badania pokazują, że aż 10 proc. użytkowników w ogóle nie sprawdza tego, co napisał chatbot. W relacji z fiskusem nie ma miejsca na błędy. Jeśli AI pomyli się w wyliczeniach lub źle zakwalifikuje koszt, urząd skarbowy nie wyśle wezwania do twórcy algorytmu – wyśle je do Ciebie. Odpowiedzialność prawna i finansowa zawsze spoczywa na człowieku.

3. Co dzieje się z Twoimi danymi?

To pytanie, które zadaje sobie zbyt mało osób. Darmowe modele AI są darmowe właśnie dlatego, że my i nasze dane jesteśmy produktem. Każdy wpisany PESEL, kwota przychodu, nazwisko kontrahenta czy informacja o stanie zdrowia (często podawana przy ulgach rehabilitacyjnych) trafia do wielkiego worka danych treningowych. Jak te dane zostaną wykorzystane? Czy zgodnie z Polskimi przepisami o ochronie danych osobowych?


AI BHP: Edukacja jako jedyna tarcza

Dlaczego edukacja o AI w Polsce kuleje? Aureliusz Górski zwraca uwagę na systemowy problem: kursy o sztucznej inteligencji może dziś prowadzić praktycznie każdy, bez żadnej weryfikacji kompetencji.

„Niedawno słyszałem eksperta, który skrót NLP tłumaczył nie jako przetwarzanie języka naturalnego (Natural Language Processing), ale jako neuro-lingwistyczne programowanie (NLP), popularną koncepcję coachingową. I mówimy o osobie, która szkoli tysiące ludzi”.

Ekspert postuluje wprowadzenie czegoś na kształt „AI BHP”. Tak jak nikt nie wchodzi na plac budowy bez kasku i przeszkolenia, tak nikt nie powinien obsługiwać narzędzi AI bez wiedzy, czym różni się wersja publiczna od korporacyjnej. Ludzie muszą wiedzieć, co AI potrafi, a czego absolutnie nie wolno mu powierzać.

W Chinach od października ubiegłego roku edukacją w tym zakresie mogą zajmować się wyłącznie osoby z odpowiednimi kwalifikacjami. Polska i Europa wciąż gonią ten standard. Dopóki nie uznamy, że praca z AI także wymaga uprawnień – jak praca na wysokościach, będziemy świadkami kolejnych wycieków danych i kosztownych błędów, za które ostatecznie zapłaci nie algorytm, lecz firmy i konkretny podatnik.


Od Samsunga po administrację rządową – lekcje z katastrof

Jakiś czas temu inżynierowie Samsunga, wklejając kod źródłowy do ChatGPT, narazili firmę na utratę własności intelektualnej. Z kolei w administracji stanu Nowa Południowa Walia zewnętrzny wykonawca wpisał do czata dane 3 tysięcy osób poszkodowanych przez powodzie – ich imiona, nazwiska i wrażliwe informacje o stanie zdrowia wyciekły do zewnętrznych, nieuprawnionych do przetwarzania tych informacji baz danych.

Każdy z nas, wpisując swoje dane podatkowe w okno czatu, staje się „małym Samsungiem”. Ryzykujemy utratę tajemnicy finansowej, która może zostać kiedyś wykorzystana.

UOKiK stawia zarzuty Samsungowi. Opinie i gwiazdki w sklepie internetowym mogły nie pochodzić od realnych użytkowników.
Biznes / Marketing / News / Technologie

Kto daje gwiazdki w necie produktom Samsunga? Duża wtopa koreańskiego giganta


AI Act – co to będzie oznaczać w praktyce dla użytkownika?

Dlatego właśnie, że potrzeby ochrony obywateli przed cyfrowym chaosem stały się tak palące, Unia Europejska uchwaliła w 2024 roku AI Act, którego kluczowe przepisy zaczną obowiązywać w latach 2025–2026. To fundamentalna zmiana na rynku, mająca na celu ukrócenie „wolnej amerykanki” oraz zabezpieczenie społeczeństwa przed manipulacją, naruszaniem prywatności i błędami algorytmów. Prawo to jednoznacznie definiuje granice bezpiecznego rozwoju technologii, stawiając etykę i transparentność ponad niekontrolowany zysk korporacji.

Dla zwykłego użytkownika oznacza to kilka bardzo konkretnych rzeczy:

1. Decyzje algorytmiczne przestaną być niepodważalne

Jeżeli algorytm zdecyduje o Twojej rekrutacji, zdolności kredytowej czy dostępie do określonej usługi, firma będzie musiała być w stanie wyjaśnić, jak ta decyzja została podjęta. Systemy wysokiego ryzyka będą wymagały dokumentacji, kontroli jakości danych i nadzoru człowieka.

W praktyce oznacza to większą możliwość zakwestionowania decyzji i mniejsze ryzyko sytuacji, w której „system tak wyliczył” kończy rozmowę.

2. Większa odpowiedzialność firm za skutki działania AI

AI Act przesuwa odpowiedzialność z użytkownika na podmiot wdrażający technologię. To firma ma obowiązek ocenić ryzyko, udokumentować działanie systemu i monitorować jego skutki.

Dla użytkownika oznacza to większą ochronę w przypadku błędu, dyskryminacji czy nadużycia. Odpowiedzialność nie rozmyje się między dostawcą technologii a jej użytkownikiem.

3. Obowiązkowa przejrzystość

Systemy generujące treści i chatboty będą musiały być oznaczane. Użytkownik ma wiedzieć, czy komunikuje się z człowiekiem, czy z maszyną.

To oznacza większą kontrolę nad interakcją i ograniczenie praktyk polegających na „udawaniu” ludzkiego wsparcia.

4. Ograniczenie najbardziej inwazyjnych praktyk

Systemy uznane za niedopuszczalne – takie jak manipulacja podprogowa czy masowe punktowanie społeczne – zostaną zakazane. W praktyce oznacza to wyraźną granicę dla wykorzystania AI w obszarze wpływania na zachowania obywateli.

5. Wyższy standard bezpieczeństwa danych

Firmy korzystające z AI będą musiały wdrożyć mechanizmy zarządzania ryzykiem i nadzoru. Oznacza to lepszą kontrolę nad tym, jakie dane są wykorzystywane i w jaki sposób są przetwarzane.

Dla użytkownika przekłada się to na większą ochronę prywatności w sytuacjach, gdy jego dane są analizowane przez algorytmy.

6. Realne sankcje, realna motywacja

Kary finansowe sięgające do 35 mln euro lub 7% globalnego obrotu sprawią, że firmy nie będą mogły lekceważyć unijnych regulacji.

Dla zwykłego użytkownika oznacza to większą przejrzystość, większą możliwość dochodzenia swoich praw i mniejsze ryzyko, że algorytm podejmie decyzję o jego życiu bez realnej odpowiedzialności po drugiej stronie.

Ciężarówka firmy DPD/ Openverse
Biznes / News / Społeczeństwo

Gdy sztuczna inteligencja przeklina własną firmę. Jak DPD musiało wyłączyć swojego chatbota po skandalu z klientem


Jak bezpiecznie korzystać z potencjału AI?

Czy to oznacza, że powinniśmy całkowicie zrezygnować z pomocy sztucznej inteligencji? Absolutnie nie. Potencjał sztucznej inteligencji w pracy i życiu prywatnym jest gigantyczny, o ile zachowamy żelazne zasady bezpieczeństwa:

  1. Nigdy nie wpisuj danych wrażliwych: Zamiast podawać swoje zarobki, zapytaj o algorytm wyliczania ulgi. Zamiast wklejać umowę, zapytaj o ogólną definicję danego zapisu prawnego.
  2. Korzystaj z wersji Enterprise: Jeśli Twoja firma oferuje płatne, zabezpieczone narzędzia AI – używaj tylko ich. Te systemy gwarantują, że dane nie opuszczają bezpiecznego środowiska.
  3. Weryfikuj źródła: Traktuj AI jak studenta na stażu. Może przygotować projekt, ale Ty musisz sprawdzić każdą kropkę i przecinek w oficjalnych publikacjach Ministerstwa Finansów czy na portalach takich jak PITax.
  4. Zainwestuj w „AI BHP”: Naucz się podstaw technologii. Zrozum, że AI to nie magia, tylko matematyka, która czasem się myli.

Podsumowanie: Odpowiedzialność w Twoich rękach

Skomplikowany polski system podatkowy i kusząca wygoda sztucznej inteligencji to mieszanka wybuchowa. Choć 88 proc. z nas chce znać swoje ulgi, droga do nich nie może prowadzić przez publiczne chatboty, które pożerają naszą prywatność. Refleksja w firmach i w naszych domach nie może pojawiać się dopiero po katastrofie, wycieku danych czy dotkliwej karze z urzędu skarbowego.

Pamiętajmy o słowach ekspertów: AI to potężne narzędzie, ale bez nadzoru i edukacji staje się „cichym ryzykiem”, które dotyka najbardziej wrażliwych procesów w naszym życiu. W tym sezonie podatkowym postawmy na rzetelną wiedzę i sprawdzone rozwiązania. W starciu z fiskusem to my ponosimy odpowiedzialność, a nie algorytm.


Źródła: Rzeczpospolita, Forbes

Sławek Gil avatar
Sławek Gil

Zostaw odpowiedź

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *